_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
1776 | هدف از اجرای مجدد رگرسیون برای غنای پروانه ای 5 متغیر محیطی، نشان دادن رتبه اهمیت متغیرهای مستقل عمدتاً توسط AIC است. در مدلهای غیر کامل، آنها نشان میدهند که متغیر A با دلتا AIC بیشتر از بقیه تأثیرگذار است. با این حال، در مدل کامل، ضریب رگرسیون متغیر A کمی در رتبه دوم نسبت به متغیر B قرار دارد. تا اطمینان حاصل شود که متغیر A متغیری است که بیشتر وزن دارد. لطفاً پیشنهاد دهید که برای هدف مشخص شده باید به کدام معیار اعتماد کرد یا هر آزمایش دیگری باید انجام شود. متشکرم. | آیا باید به AIC (مدل غیر کامل) یا شیب (مدل کامل) اعتماد کنم؟ |
102902 | من داده هایی دارم که شامل کلیک ها، هزینه ها، ثبت نام ها و تاریخ است. به مدت 1 هفته، هزینه تبلیغات را خاموش می کنم تا ببینم کلیک ها و ثبت نام ها چیست. هفته بعد، تبلیغات را دوباره روشن می کنم تا ببینم کلیک ها یا ثبت نام های جدید چیست. با توجه به این 2 مجموعه داده، چگونه می توانم تحلیل رگرسیون را اجرا کنم تا ببینم تبلیغات چقدر تاثیرگذار است؟ آیا باید یک تحلیل رگرسیون روی y=(signups_week2-signups_week1) و x=(spend_week2-spend_week1) اجرا کنم؟ با تشکر، جی | چگونه تجزیه و تحلیل رگرسیون را بر روی تأثیر تبلیغات انجام می دهید؟ |
104500 | به نظر می رسد که داده کاوی و یادگیری ماشین آنقدر محبوب شده اند که در حال حاضر تقریباً هر دانش آموز CS در مورد طبقه بندی کننده ها، خوشه بندی، NLP آماری ... و غیره می داند. بنابراین به نظر می رسد که امروزه یافتن داده کاوی کار سختی نیست. سوال من این است: مهارت هایی که یک داده کاوی می تواند بیاموزد که او را از دیگران متمایز می کند چیست؟ تا او را تبدیل به فردی نه چندان آسان برای یافتن شخصی شبیه او کنیم. | یافتن مهارتهایی در زبانآموزان ماشینی سخت است؟ |
105678 | من نیمی از حداکثر غلظت موثر (EC50) سه ساختار مختلف RNA را اندازهگیری کردم و میخواهم آزمایش کنم که آیا آنها از نظر آماری معنیدار هستند یا خیر. از کدام تست استفاده کنم؟ | برای آزمایش تفاوت بین 3 vaule |
57627 | > از یک آزمایشگاه خواسته شده است تا این ادعا را ارزیابی کند که آب آشامیدنی در رستوران محلی دارای غلظت سرب 6 قسمت در میلیارد (ppb) است. اندازه گیری های مکرر از توزیع نرمال پیروی می کنند و استاندارد جمعیت > انحراف 0.25 ppb در نظر گرفته می شود. α = 0.01. > > • نمونه ای از سه اندازه گیری گرفته شده و به دست می آید: 6.79; 6.13; 7.17 > > 1. آیا شواهدی وجود دارد که نشان دهد غلظت سرب > با ppb 6 متفاوت است؟ > این یک سوال تکلیف است که من واقعاً درگیر آن هستم، بنابراین اگر کسی بتواند من را در مسیر درست راهنمایی کند، عالی خواهد بود. من متوجه شدم که این یک سوال آزمون فرضیه است و فرضیه صفر این است که μ = 6 ppb است در حالی که جایگزین این است که µ برابر با ppb 6 نیست. با این حال، من واقعاً نمی دانم با سه اندازه گیری نمونه چه کنم. ** آیا میانگین سه رقم را به دست میآورم یا از هر کدام در یک آزمون فرضیه جداگانه استفاده میکنم؟** | آزمون فرضیه |
102907 | من می خواهم وجود یک عبارت تعاملی را در یک رگرسیون لجستیک با glm() آزمایش کنم. فرمول این است: Gest.hypertension ~ ART.conc + Parity + Age + Smoke + Nulliparity + Syst.disease.type با سن تنها متغیر پیوسته و بقیه طبقه بندی می شوند. اصطلاح تعامل ART.conc (2 سطح) x برابری (3 سطح) است که متغیرهای مورد علاقه نیز هستند. من دو راه برای نمایش تعامل در glm(); * با تعریف صریح ART.conc * برابری، که هر دو اثر ساده و تعامل ایجاد می کند. * با ایجاد یک متغیر مصنوعی جدید با تعامل (ART.conc، Parity) و اضافه کردن اصطلاحات ساده. این نتایج، با حذف سایر متغیرهای کنترل (OR و مقدار p ارائه شده): model1: Gest.hypertension ~ ART.conc * Parity + ... ART.conc->yes 3.35 0.073 . Parity->2 7.15 0.001 ** Parity->3 38 <0.001 *** ART.conc->yes:Parity->2 0.262 0.054 . ART.conc->yes:Parity->3 0.0532 0.009 ** * * * model2: Gest.hypertension ~ interaction(ART.conc، Parity) + ART.conc + Parity + ... تعامل (ART.conc، Parity) -> بله. 1 3.35 0.072590 . تعامل (ART.conc، برابری)-> no.2 7.15 0.001206 ** تعامل (ART.conc، Parity)->yes.2 6.26 0.002698 ** تعامل (ART.conc، Parity)-> no.3 38.05 0.00020 ** تعامل (ART.conc، برابری) -> بله. 3 6.78 0.011071 * ART.concyes NA NA Parity2 NA NA Parity3 NA NA بنابراین این دو مدل کم و بیش نتایج یکسانی را ارائه می دهند که یکی از دو عبارت صفر است و اشکالی ندارد. من در درک اینکه چه اتفاقی افتاد وقتی این دو عبارت با صفر متفاوت هستند مشکل دارم. به عنوان مثال در مدل دوم که برابری == 2 را حفظ کرده و ART.conc را از no به yes منتقل می کنیم، از OR 7.15 به 6.26 عبور می کنیم. در عوض، با اعمال آنچه از رگرسیون ها و تعاملات لجستیک فهمیدم، ضریب مورد (ART.conc، Parity)->yes.2 باید $OR_{parity.2}*OR_{art.yes:parity.2} باشد. = 1.87$$ بسیار متفاوت از 6.26... بنابراین، من می خواهم بدانم چه چیزی را از دست داده ام و از کدام یک از مدل ها استفاده کنم. با تشکر به روز رسانی!!! با تشکر از @gavin simpson پاسخ من فکر کردم که مشکل را حل کردم و ترفند ()interaction را کنار گذاشتم. اما بعد متوجه یک خطای خیلی احمقانه از خودم شدم. گفتیم که برای تفسیر تعامل، شما $$OR_{simple.eff}*OR_{interaction.eff}$$ را انجام دهید، مثلاً مورد ART.yes/Parity.2 را در نظر بگیرید. من گفتم که برای محاسبه اثر متقابل ART بر برابری با روش کلاسیک باید $$OR_{art.yes}*OR_{art.yes:parity.2} ≈ 3.35*0.262 ≈ 0.87$$ را انجام دهید، اما اگر شما انجام $$OR_{parity.2}*OR_{art.yes:parity.2} ≈ 7.15*0.262 ≈ 1.87$$ من از این نابرابری ناراحت شدم. من به عددی نیاز دارم که بتواند خطر کلی آسیب شناسی را در مورد فوق توضیح دهد، و در عوض دو عدد دریافت کردم که نمی دانستم چگونه توصیف کنم. در تلاش برای حل این مشکل متوجه خطای خود شدم. برای محاسبه افکت کلی، ضرب یک افکت ساده برای افکت تعامل کافی نیست، بلکه باید افکت ساده دیگر را نیز اضافه کنید! $$OR_{simple.eff.1}*OR_{simple.eff.2}*OR_{interaction.eff}$$ یا $$OR_{art.yes}*OR_{parity.2}*OR_{art.yes :parity.2} ≈ 3.35*7.15*0.262 ≈ 6.26$ 6.26$ یکسان است یا برای «تعامل(ART.conc، Parity)->yes.2» که با استفاده از ترفند تعامل تولید میشود. بنابراین، با استفاده از interaction()، با گزینه «drop=T» و قرار ندادن افکتهای ساده به خودی خود (برای جلوگیری از NA)، میبینید که مدل 1 و مدل 2 نتایج یکسانی دارند، با مدل دو شامل موارد قبلی. اثر محاسبه شده از تعامل | تعامل در مدل های لجستیک با R. استفاده از عملگر * یا ایجاد یک متغیر تعاملی؟ |
30903 | من با مفهوم همگرایی آشنا هستم. اما گاهی اوقات میشنوم که مردم در مورد هم خطی (یا هم خطی) برای سریهای زمانی صحبت میکنند. مجموعه ای از نقاط اگر در یک خط باشند، خطی هستند. اما این برای سری های زمانی چه معنایی دارد؟ آیا دقیقاً مشابه هم انباشتگی مرتبه 1 است؟ یا چیزی قوی تر/متفاوت در مفهوم هم خطی وجود دارد؟ | این به چه معناست که دو سری زمانی خطی هستند؟ |
15428 | من در حال ایجاد برنامه ای هستم که داده های روزانه کاربران من را ثبت می کند. داده ها شامل: * دور کمر، وزن (داده های کمی) * شرایط خاصی مانند پسوریازیس، میگرن، خستگی (داده های کیفی رتبه بندی شده از 1 تا 5). نمایش نمودارها برای هر نهاد نسبتاً آسان است. * چگونه می توانم هر دو داده را بگیرم و نمودار/نمودار بهبود کلی را بر اساس هر روز نشان دهم؟ * کدام نوع نمودار/نمودار در این شرایط کار می کند؟ من از نمودارهای گوگل برای تجسم داده هایم استفاده خواهم کرد (یعنی این گالری نمودارهای گوگل را ببینید). | چگونه می توان بهبود کمی و کیفی را در معیارهای مرتبط با سلامت انسان نمودار کرد؟ |
4914 | در یک مجموعه داده با هزاران نقطه داده، من خروجی های داده های کوتاه مدت و بلندمدت مختلف را بر اساس 5 نقطه داده چرخشی تا 100 نقطه داده چرخشی (که هر مقدار یک ستون جداگانه در اکسل است: 5، 6) آزمایش می کنم. ،...، 100). آزمایشی که من ایجاد کردم (با دانش ابتدایی از کل چیز) این است که بررسی کنم که کدام یک از این خروجی های داده های چرخشی (مثل میانگین های متحرک، اما نه کاملاً) بهتر هستند، به عبارت دیگر، اگر ستون 5، 17 یا 98 باشد. در تئوری، برازش بهتر باید انحراف استاندارد کمتری را در محاسبات مرسوم ایجاد کند. یک قیاس برای درک بهتر چیزی شبیه به این است: اگر میانگین متحرک 5 نقطه ای را روی موج گناه پنج دوره ای انجام دهم، خروجی باید صفر یا مسطح باشد، برای میانگین متحرک 6 نقطه ای روی موج گناه دوره 6 یکسان است، و به همین ترتیب. در تمام مسیر تا 100. این همان است که می گویند انحراف معیار در هر مورد باید صفر باشد. بنابراین آزمون واقعاً انتخاب کمترین انحراف استاندارد در هر ستون از 5 تا 100 است، که سپس باید بهترین تناسب را ارائه دهد (برای بازگشت به قیاس، متناسب با موج گناه). با این حال، همانطور که افراد متمایل به آمار به سرعت متوجه می شوند (می ترسم که مطمئناً یکی از آنها نباشم)، این روش دو مشکل عمده دارد: 1. مجموعه داده های طولانی تر، یعنی نزدیک تر به 100 نقطه داده چرخشی، انحرافات مطلق بزرگتری دارند، بنابراین تولید می کنند. انحرافات استاندارد بالاتر بنابراین انحراف استاندارد کمتر در سری دادههای کوتاهتر ممکن است نشاندهنده «برازش بهتر» نباشد، فقط انحراف مطلق کمتر. 2. هر ستون دارای تعداد متفاوتی از نقاط داده های چرخشی است، بنابراین یک بار دیگر اعداد و تناسب آماری ممکن است بین ستون ها قابل مقایسه نباشد. بنابراین سوال من این است: آیا معیار آماری بهتر از انحراف معیاری که در بالا استفاده کردم وجود دارد، به طوری که به انحرافات مطلق و تعداد نقاط داده حساس نباشد؟ با تشکر | ایجاد یک آزمون آماری برای تعیین برازش بهتر |
102906 | رگرسیون چندکی از طریق رویکرد بهینهسازی تعریف میشود. اما من نمی دانم عملکرد $\rho_{\tau}(u)$ چگونه با کمیت $\tau$-ام مرتبط است. یا به عبارت دیگر، چگونه معادله $\tau$-امین چندک نمونه $=argmin \sum\rho_{\tau}$  | با توجه به رگرسیون چندکی از طریق رویکرد بهینه سازی |
113108 | فرض کنید من دو متغیر عادی مستقل $X$ و $Y$ با میانگین و واریانس شناخته شده دارم. با تعریف $Z = X+Y$، ساده ترین راه برای محاسبه $\mathbb{E}\left[X|Z\right]$ چیست؟ من در حال نوشتن \begin{align} \mathbb{E}\left[X|Z\right] & = \int_x x f_{X}(x|Z=z) \mathrm{d}x \\\ & = \ هستم int_x x \frac{f_{XZ}(x,z)}{f_Z(z)} \mathrm{d}x \\\ & = \int_x x \frac{f_{Y}(z-x)f_X(x)}{f_Z(z)} \mathrm{d}x, \\\ \end{align} اما مطمئن نیستم بهترین (و تنها؟) راه است یا نه این است که این عبارت را با استفاده از دانش ما در مورد pdf محاسبه کنیم. با تشکر | انتظار مشروط $X$ با توجه به $Z = X + Y$ |
34839 | من آزمودنی هایی دارم که به سوالات پاسخ می دهند، داده ها کمی خواهد بود. سوالات را می توان با دو عامل که دو سطح دارند به چهار دسته تقسیم کرد. برای هر سوال یک عامل A، B، A و B یا هیچ کدام فعال هستند. بنابراین هر آزمودنی به یکی از این چهار سوال پاسخ می دهد. من علاقه مندم که عوامل A و B چگونه روی پاسخ تاثیر می گذارند. بنابراین، این شبیه آزمایش فاکتوریل 2x2 است، اما داده ها جفت هستند، به این معنا که هر آزمودنی به هر چهار سوال پاسخ داده است. آیا پیشنهادی برای تست های آماری دارید که بتوانم از آنها استفاده کنم؟ آیا می دانید قبلاً با چنین موقعیت هایی چگونه برخورد شده است؟ ویرایش: متوجه شدم که طراحی اقدامات تکراری ممکن است مرتبط باشد. | داده های جفت شده / اندازه گیری های مکرر در آزمایش 2x2 |
113102 | من یک مدل پیشبینی دارم که در حال توسعه آن هستم که از برخی دادههای ورودی بسیار غیرقابل اعتماد استفاده میکند، دادههای از دست رفته (به دلیل نقص سنسورها یا comms) یک قانون است، نه یک استثنا. کمیت پیشبینیشده میانگین روزانه در یک منطقه است، بنابراین میانگین تمام اندازهگیریهای ساعتی از همه حسگرها. این پیشبینی درست قبل از هر روز مرز توسط یک پیشبینیکننده انسانی، با کمک یک مدل انجام میشود (من در حال کار بر روی بهبود مدل موجود خود هستم). اکنون، بخش اصلی مدل تاریخچه اخیر میانگینهای روزانه را در نظر میگیرد و از تکنیکهای پیشبینی سری زمانی نسبتاً استاندارد برای پیشبینی روز بعد استفاده میکند. این به خوبی کار می کند، اما به خوبی شناخته شده است که چند ساعت آخر هر روز به ویژه پیش بینی کننده های قوی ارزش روزهای بعدی هستند و پیش بینی کنندگان انسان مدتی است که از این دانش استفاده می کنند. به منظور ادغام آن تکنیک در مدل، پیشبینی سریهای زمانی ارزش روزانه را میگیرم و آن را با چند ساعت آخر دادهها برای روزی که تازه به پایان میرسد ترکیب میکنم، سپس وزنهای هر یک از اینها را برای پیشبینی میانگین وزنی مجموعه آموزش میدهم (I بهینه سازی بیش از RMSE). با ثابت بودن وزن مدل روزانه در واحد، مجموع وزن مدل ساعتی معمولاً به حدود 0.5-0.8 یا بیشتر می رسد. من وزنها را هر روز با استفاده از دادههای 100 روز اخیر مجدداً آموزش میدهم زیرا در هر سنسور سوگیریهایی وجود دارد (به دلیل فیزیک اساسی سیستم و همچنین مشکلات حسگر) که در طول زمان تغییر میکنند. دلیل اینکه من از یک میانگین وزنی استفاده کردم و نه از تکنیک های قوی تر دیگر به دلیل داده های از دست رفته است. در بیشتر روزها حدود 5 تا 10 درصد از دادههای حسگر هنگام انجام پیشبینی از دست رفته است (اما نه همان 5 تا 10 درصد در هر روز). من متوجه شدم که یک میانگین وزنی باید در این مورد قوی باشد، با وزنها (امیدوارم) با قدرت پیشبینی نسبی هر مدل مطابقت داشته باشد. حالا، این خیلی خوب کار کرد، با این حال فکر میکردم میتوانم بهتر انجام دهم. با دانستن اینکه دادههای ساعتی دارای سوگیریهای منحصربهفرد (اما پیشینی ناشناخته) هستند، فکر کردم میتوانم یک مدل خطی ساده برای هر ساعت برای هر ایستگاه با استفاده از دادههای 100 روز گذشته برای آن ایستگاه و ساعت بهعنوان متغیر مستقل و روزانه استفاده کنم. میانگین روز بعد به عنوان متغیر وابسته. سپس پیشبینیها را از هر یک از این مدلهای بسیار ساده میگیرم، پیشبینیهای مبتنی بر مدل روزانه را درج میکنم و میانگین وزنی آنها را میگیرم. به عبارت دیگر به جای استفاده از داده های خام ساعتی، از مدلی استفاده می کنم که با استفاده از آن داده ها آموزش دیده است. این مطمئناً نتیجه بهتری خواهد داشت. اما نه، پیشبینی میانگین وزنی در این مورد ضعیفتر عمل میکند. من به سادگی نمی توانم بفهمم چرا. من بررسی کردم و برای میانگین وزنی نشده، با استفاده از پیشبینیهای مدلهای خطی، نتیجه بهتری به دست میآید (همانطور که انتظار دارید) اما وقتی وزنها را آموزش دادم، مدلی که فقط از دادههای خام استفاده میکند بهتر عمل میکند. جالب است که متوجه شدم در مورد پیشبینیکنندههای مدل خطی، بیشتر وزنها (معمولاً حدود 60 تا 70 درصد آنها) در بهینهسازی روی صفر ثابت میشوند، در حالی که برای رویکرد دادههای خام کمتر از 50 درصد روی صفر ثابت میشوند (I من از کمینه سازی L-BFGS-B استفاده می کنم [در هر کسی که علاقه مند است]). در واقع این واقعیت بود که تعداد زیادی در مورد داده های خام به صفر ثابت شدند که باعث شد من رویکرد تناسب خطی را امتحان کنم. من متوجه شدم که سنسورهای با سوگیری بد نادیده گرفته می شوند و اگر تعصب را برطرف کنم، شاید بتوانم به طور معناداری کمک کند. مطمئن نیستم که کار کمی احمقانه انجام می دهم یا اینکه مفهومی اساسی وجود دارد که ممکن است این را توضیح دهد. چه زمانی ممکن است انتظار داشته باشید که یک پیشبینی گروه با مدلهای ورودی بدتر عملکرد بهتری داشته باشد؟ | مدل گروه عملکرد بهتری با مدل های تشکیل دهنده بدتر دارد؟ |
6835 | بهترین مدل های کمی برای تشخیص روند کدامند؟ یعنی روند بازار | مدلهای کمی تشخیص روند |
113106 | من سعی می کنم ریسک، واریانس و انحراف معیار را در یک بازه زمانی $T$ اندازه گیری و کمی کنم. به دو زیر دوره $t_1$ و $t_2$ تقسیم می شود. $X_1$ سری زمانی برای $t_1$ است و $X_2$ سری زمانی برای $t_2$ است که $t_1+t_2=T$ است. میتوان فرض کرد که $X_1$ و $X_2$ سریهای زمانی فرعی یک سری زمانی طولانیتر هستند. تنها چیزی که می دانم این است که واریانس ها در دو دوره زمانی فرعی عبارتند از: $S_1$ برای $t_1$ و $S_2$ برای $t_2$. ما نمی دانیم که $X_1$ و $X_2$ چیست. من میخواهم واریانس را در کل دوره زمانی $T$ پیدا کنم اگر $S_1$ واریانس دوره زمانی $t_1$ باشد، و $S_2$ واریانس برای دوره زمانی $t_2$، و $t_1 + t_2 =T$ باشد. . منطق من تاکنون: اگر $S_1=S_2=S$، واریانس بیش از $t_1$ و $t_2$ به ترتیب $S_1t_1$ و $S_2t_2$ است. از آنجایی که $S_1=S_2$، به سادگی $S_1T$ به صورت $t_1+t_2=T$ می شود. انحراف استاندارد در طول دوره زمانی $S\sqrt{T}$ است (هر دو عبارت را مربع میکنیم و اضافه میکنیم، سپس دوباره جذر را میگیریم). اگر $S_1$ و $S_2$ یکسان نیستند، فرمول انحراف معیار است: $$ s_T=\sqrt{S_1t_1 + S_2t_2 + 2\sqrt{t_1t_2}{\rm Cov}(X_1, X_2)} $ $ یا اضافه کنم که انگار یک نمونه کار است، که نتیجه آن این است: $$ s_T=\sqrt{\frac{S_1t_1^2}{T^2} + \frac{S_2t_2^2}{T^2} + \frac{2t_1t_2}{T^2}{\rm Cov}(X_1, X_2 )} $$ که در آن $s$ انحراف معیار است؟ به من گفته شده است که از جذر زمان برای تغییر دوره های زمانی برای انحراف معیار استفاده کنم. با این حال، اگر سری زمانی را به عنوان یک نمونه کار با وزنهای $t_1/T$ و $t_2/T$ در نظر بگیریم، آنگاه وزنها از نظر واریانس جذر زمان نیستند، بلکه فقط وزنهای زمانی مستقیم هستند که در نمونه کارها وجود دارد. فرمول ریسک: $$ s_p=\sqrt{\frac{S_1h_1^2}{H^2} + \frac{S_2h_2^2}{H^2} + \frac{2h_1h_2}{H^2}{\rm Cov}(X_1, X_2)} $$ where $\frac{h_1}{H}+\frac{h_2}{H}=1$ امیدوارم این موضوع روشن شود من می پرسم. آیا کسی می تواند به من توضیح دهد که چگونه در این مورد فکر کنم؟ آیا با مجذور زمان واریانس اضافه کنم یا فقط زمان؟ | آیا واریانس های سری زمانی افزودنی هستند؟ |
113105 | من در تلاش برای درک بهتر معیار Gelman/Rubin برای همگرایی MCMCها هستم. این روش با تعریف دو کمیت شروع می شود: $B$ و $W$. گفته می شود که $B$ واریانس بین زنجیره است (به طور معمول زنجیره های $m$ به صورت موازی اجرا می شوند) و $W$ میانگین واریانس درون زنجیره ای است. من $W$ را درک می کنم - این صرفاً میانگین تمام واریانس ها در هر یک از زنجیره های جداگانه است. به نظر می رسد که $B$، در نگاه اول، میانگین انحراف را در تمام زنجیره های میانگین آنها از میانگین کلی اندازه گیری می کند. با این حال، $B$ در $n$ ضرب می شود - حجم نمونه - که من کاملاً متوجه نمی شوم. متون می گویند که این به این دلیل است که در هر زنجیره $n$ امتیاز وجود دارد، با این حال، من امیدوار بودم که کسی بتواند شهود کمی در اینجا ارائه دهد؟ علاوه بر این، $W$ با $B$ در یک میانگین وزنی ترکیب می شود، به طوری که وزن $W$ $(n-1)/n$ است، و وزن $B$ به سادگی $(1/n)$ است. . سپس این مقدار معمولاً به $W$ تقسیم میشود و جذر آن گرفته میشود. اگر $B$ برابر $W$ باشد، می توانم ببینم که این نسبت 1$ است. با این حال، نمیدانم که چگونه این نسبت برای اندازههای نمونه نسبتاً بزرگ از 1 دلار دور میشود. باید اینطور باشد که $B>>W$، بخشی از آن را می توانم درک کنم که آیا زنجیره ها در ابتدا بیش از حد پراکنده شده اند. با این حال، این واقعیت که $B$ در $(1/n)$ ضرب میشود، به نظر میرسد که این بخش از میانگین وزنی باید با سرعتی سریع ناپدید شود، حتی اگر $B$ بزرگ باشد. اساساً، فکر میکنم سؤال من میتواند به صورت زیر خلاصه شود: «چرا این اندازهگیری همگرایی معقول است؟ با توجه به اینکه با بزرگ شدن $n$، ceteris paribus، نقشی که واریانس بین زنجیره ای بازی می کند کوچکتر به نظر می رسد. | درک اندازه گیری همگرایی شبیه سازی های MCMC |
83531 | من یک سوال در مورد انتساب چندگانه دارم که در آن یک متغیر مجموع چندین زیر گروه است. من تقریباً 5 متغیر با سطح گم شدن قابل توجهی دارم. با این حال من یک متغیر ششم دارم که مجموع 5 زیر گروه است و مشاهدات بسیار کمتری را از دست داده است. برای ارائه ایده ای از ساختار داده: sg1 sg2 sg3 sg4 sg5 مجموع NA NA NA NA NA 30000 5000 20000 10000 4000 6000 45000 آیا روش خاصی برای انتساب اقشار مانند این وجود دارد؟ من از R استفاده می کنم، بنابراین اگر توصیه خاصی برای R دارید، از آن نیز سپاسگزار خواهم بود. با تشکر | Imputation چندگانه و داده های دو سطحی |
57628 | من گاهی اوقات می بینم که تابع هزینه به همراه تنظیم کننده بر 1/2 متر تقسیم می شود که m تعداد نمونه ها است. وقتی میخواهیم حداقل هزینه را پیدا کنیم، چرا مقیاسگذاری با این مقدار اهمیت دارد؟ در جایی که حداقل است تأثیری ندارد. مثال:  | چرا تابع هزینه رگرسیون لجستیک با تعداد نمونه ها مقیاس بندی می شود؟ |
41114 | من یک مجموعه داده دارم که حاوی حدودی است. 11 میلیون نمونه، که همه آنها را می توان به عنوان کلاس A یا B برچسب گذاری کرد. من به طور پیشینی می دانم که تقریباً. 1000 مورد از این نمونه ها متعلق به کلاس A هستند و بقیه کلاس B هستند. اما هیچ یک از نمونه ها در واقع برچسب گذاری نشده اند. بنابراین، من میخواهم بتوانم از این 11 میلیون نمونه نمونهبرداری کنم و احتمال اینکه نمونهام حاوی نمونهای از کلاس A باشد را بدانم. برای مثال: اگر 30000 نمونه تصادفی بدون جایگزینی از 11 میلیون نمونه (که i.i.d هستند) بگیرم. ، احتمال اینکه نمونه من دارای نمونه ای از کلاس A باشد (اندازه 1000 نمونه) چقدر است؟ آیا این حتی قابل محاسبه است؟ همچنین آیا این امکان برای من وجود دارد که تقریباً چند نمونه از کلاس A در این نمونه (برای اندازه های مختلف نمونه) وجود داشته باشد؟ آیا فرمولی وجود دارد که بتوانم مقادیر خود را به سادگی به آن وصل کنم؟ پوزش می طلبم اگر این مشکل ساده به نظر می رسد، اما آمار هرگز نقطه قوت من نبوده است. این یک تکلیف نیست، بلکه یک مشکل کاری است. من سعی می کنم یک مجموعه آموزشی از دامنه ای خارج از دامنه خودم بسازم که به موجب آن باید شیوع کلاس A را در مجموعه آموزشی خود به حداقل برسانم. کلاس A نمونههای مثبتی هستند که باید حذف شوند - متأسفانه زمانی که دادهها برای اولین بار پردازش شدند، برچسبهای داده کنار گذاشته شدند:-/. سال ها طول می کشد تا آنها را به صورت دستی برچسب گذاری کنید و حتی این فرآیند مستعد خطای انسانی است! با تشکر بهروزرسانی: برای کسانی که مشکل مشابهی دارند، روشهایی را در کتابخانه ریاضیات Apache Commons برای محاسبه دوجملهای و مهمتر از آن توزیع Hypergeometic یافتم که مفید است. دستور hyper() موجود در R (پیشنهاد شده توسط @whuber) نیز بسیار مفید بود. مطمئنا توصیه می شود. به عنوان مثال برای تولید یک نمودار می توانید از این موارد استفاده کنید: plot(dhyper(0:10,1000,11000000-1000,30000),type=b,xlab=x label,ylab=y label, main= عنوان) جایی که 0:10 محدوده است. 1000 تعداد تیله های مثبت در کوزه است. 11000000-1000 تعداد تیله های منفی در کوزه است. 30000 تعداد تساوی است. با این کار یک نمودار با خطوط و نقاط که نوع b است تولید می شود. انواع دیگر به صورت آنلاین توضیح داده شده اند (من پیوندهای بیشتری را پست می کنم، اما با چنین شهرت پایینی نمی توانم). بازم ممنون از کمک همه | نحوه محاسبه احتمال برای n رویداد وابسته |
113107 | من این تصور را داشتم که هموارهای متناسب با «mgcv» از طریق یک محدودیت مجموع به صفر قابل شناسایی هستند - یعنی اگر قرار باشد یکنواخت را بر روی مقادیر متغیرهای کمکی آن جمع کنیم، برابر با صفر خواهد شد. این سوال با پاسخی عالی از @Gavin Simpson، پیشینه ای را ارائه می دهد. به نظر میرسد که با Single smooths چنین است: set.seed(1234); dat <- gamSim(4); mod1<-gam(y ~ s(x1)+s(x2), data=dat) p<-predict(mod1,dat,type=terms) sum(p[,1]) #[1] -8.729996 e-16 sum(p[,2]) #[1] -4.956868e-12 اما زمانی که یک هموار با یک عامل تعامل داشته باشد، این دیگر مورد آیا این یک اشتباه در درک من است یا چیز دیگری در حال وقوع است؟ mod2<-gam(y ~ s(x2، by=fac)، data=dat) p<-predict(mod2,dat,type=terms) head(p) sum(p[,1]) #[1 ] 1.923649 sum(p[,2]) #[1] 6.496321 sum(p[,3]) #[1] 45.36179 | تعامل فاکتور GAM با محدودیت جمع تا صفر |
105672 | من می خواهم یک آنالیز توان برای آزمون t-test 2 نمونه ای برای تفاوت میانگین ها انجام دهم. با این حال، به جای محاسبه حجم نمونه مورد نیاز، می خواهم تفاوت مورد نیاز را در میانگین با توجه به حجم نمونه محاسبه کنم. حجم نمونه در $n=34$ (یعنی 17 در هر گروه) ثابت شده است. به دلایل مختلف امکان افزایش حجم نمونه وجود ندارد. بنابراین، از من خواسته شد تا یک تحلیل توانی برای تعیین اختلاف میانگین مورد نیاز انجام دهم. محقق می خواهد تعیین کند که آیا حتی انجام مطالعه ارزش دارد یا اینکه تفاوت مورد نیاز برای دستیابی به آن خیلی بزرگ و غیر واقعی است. برای یک خطای نوع اول و قدرت، می توانم اندازه اثر مورد نیاز را محاسبه کنم. اگر انحراف معیار را در هر دو گروه (از مطالعات قبلی) بیشتر فرض کنم، به راحتی می توانم تفاوت مورد نیاز را محاسبه کنم. با این حال، من نمی دانم که آیا این معقول است یا آیا مشکلاتی وجود دارد که من با این رویکرد از دست داده ام. | محاسبه توان؛ تعیین تفاوت مورد نیاز در میانگین |
6912 | من با پست Post-hoc Pairwise Comparisons of Two-way ANOVA (در پاسخ به این پست) آمدم که موارد زیر را نشان می دهد: dataTwoWayComparisons <- read.csv(http://www.dailyi.org/blogFiles/RTutorialSeries /dataset_ANOVA_TwoWayComparisons.csv) model1 <- aov(StressReduction~Treatment+Age, data =dataTwoWayComparisons) summary(model1) # درمان signif pairwise.t.test(dataTwoWayComparisons$Stress Reduction, dataTwoWayComparisons$Treatment, p.adj = none pairwiseTwoWay#key درمان) # روان-پزشکی جفت نشانه است. (خروجی در زیر پیوست شده است) لطفاً کسی می تواند توضیح دهد که چرا Tukey HSD می تواند یک جفت قابل توجه پیدا کند در حالی که آزمون t-paired (pvalue تنظیم نشده) در انجام این کار شکست می خورد؟ با تشکر * * * در اینجا خروجی کد است > model1 <- aov(کاهش استرس~درمان+سن، داده =dataTwoWayComparisons) > خلاصه(model1) # درمان معنادار است 0.0004883 *** سن 2 162 81.000 99 1e-11 *** باقیمانده 22 18 0.818 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 > > pairwise.t.test(dataTwoWayComparisons$StressReduction, dataTwoWayComparisons$Treatment, p.adj = none) مقایسه با استفاده از آزمون t با داده های SD ادغام شده: dataTwoWayComparisons$Stress Reduction و dataTwoWayComparisons$Treatment روانپزشکی روانی 0.13 - فیزیکی 0.45 0.45 P روش تنظیم مقدار: هیچکدام > # بدون جفت علامت > > TukeyHSD(model1، درمان) مقایسه چندگانه توکی از میانگین 95% سطح اطمینان خانواده-Family-wise aov(فرمول = کاهش استرس ~ درمان + سن، داده = dataTwoWayComparisons) $Treatment diff lwr upr p adj mental-medical 2 0.92885267 3.07114733 0.0003172 فیزیکی-پزشکی 1 -0.07114733 فیزیکی-پزشکی 1 -0.07114733 2.03230-2.03230-2.0710. -2.07114733 0.07114733 0.0702309 > # mental-medical جفت نشانه است. | چگونه یک آزمون Tukey HSD می تواند از مقدار P تصحیح نشده t.test مهم تر باشد؟ |
15729 | 20 نفر هستند که برای یک کار خاص در 3 روز متوالی آزمایش می شوند. iid محسوب می شوند. این نتایج در یک بردار 60 عنصری ذخیره می شوند. آزمایش مشابهی در 3 روز متوالی برای یک کار متفاوت وجود دارد که شامل همان 20 نفر است که یک بردار 60 عنصری را تولید می کنند. من می خواهم انتخاب کنم که کدام بردارها جالب تر هستند. هر ویژگی جالبی مفید خواهد بود. کاری که من انجام دادم تولید و تجمیع (مجموع کل) هر بردار و رتبه بندی آنهاست. به طور موثر 3 نقطه داده وجود دارد که چندین آزمایش وجود دارد. هر بردار دارای مقادیر قابل مقایسه است و نیازی به نرمالسازی و غیره ندارد. من نمی خواهم یک تحلیل آماری بسیار گسترده انجام دهم، چیزی نسبتاً اساسی برای استخراج اطلاعات در حال حاضر. | متریک برای مقایسه متقابل بردارهای چند مقدار برای چند برچسب کلاس |
102903 | یکی از ویژگی های PCA بیان می کند که مجموع واریانس های اجزای اصلی برابر با مجموع واریانس های متغیرهای توضیحی است. من نمی دانم که چگونه این را تفسیر کنم، زیرا من همیشه فکر می کردم که $X$ را به عنوان متغیرهای تصادفی در نظر نمی گیریم. من با نظریه احتمالات کاملاً تازه کار هستم و باید آن را مستقیم بیان کنم: ** آیا متغیرهای توضیحی متغیرهای تصادفی هستند (یا آنها را ثابت در نظر می گیریم)؟** و اگر آنها را تصادفی در نظر نگیریم، چگونه می توان آنها را اعمال کرد. عملگر واریانس به متغیری که تصادفی نیست؟ | آیا متغیرهای توضیحی در PCA تصادفی در نظر گرفته می شوند؟ |
34832 | من سعی می کنم مقدار صحیح واریانس توضیح داده شده توسط هر حالت تحلیل تابع متعامد تجربی (EOF) (شبیه به PCA) را همانطور که در مجموعه داده های گپی اعمال می شود، تعیین کنم. (یعنی حاوی NaNs). سؤال زیر بر اساس سؤال قبلی است که من در مورد نتایج متفاوت بهدستآمده از تجزیه ماتریس کوواریانس مجموعه داده با استفاده از «ویژن» یا «svd» داشتم. در اصل، مشکل این است که من خوانده ام که هر دو تجزیه را می توان به جای یکدیگر برای به دست آوردن EOF از یک ماتریس کوواریانس مربع استفاده کرد. به نظر میرسد که این مورد زمانی است که مجموعه دادهها شکاف نداشته باشند (همانطور که در زیر نشان داده شده است): ### مجموعه دادههای کامل و گپی را بسازید.seed(1) x <- 1:100 y <- 1:100 گرم <- expand.grid(x=x، y=y) #داده کامل z <- ماتریس(rnorm(dim(grd)[1])، طول(x)، طول(y)) تصویر(x،y،z، col=رنگین کمان(100)) #گاپی داده zg <- جایگزین(z، نمونه(seq(z)، طول(z)*0.5)، NaN) تصویر(x،y،zg، col=rainbow(100)) ###تجزیه ماتریس کوواریانس #داده کامل C <- cov(scale(z), use=pair) E <- eigen(C) S <- svd(C) #جمع لامبدا مجموع(E$values) sum(S$d) sum(Diag(C)) مجموع لامبدا در ویجن و svd برابر است با مجموع قطر ماتریس کوواریانس تا اینجا خیلی خوب - هر دو روش مقدار صحیح واریانس را توضیح می دهند. مثال بعدی همان روال را برای یک نسخه gappy از مجموعه داده (50% `NaN`s) انجام می دهد: #gappy data (50%) Cg <- cov(scale(zg), use=pair) Eg <- eigen(Cg) Sg <- svd(Cg) #جمع جمع لامبدا(Eg$values) sum(Sg$d) sum(diag(Cg)) و در اینجا می بینیم که مقادیر لامبدا محاسبه شده توسط svd بزرگتر از مجموع قطر ماتریس کوواریانس است. آنهایی که با «ویجن» محاسبه می شوند برابر هستند. با این حال، از آنجایی که ماتریس کوواریانس دیگر قطعی مثبت نیست، برخی از مقادیر لامبدا منفی وجود دارد. در سوال قبلی خود نشان دادم که این تمایل با افزایش شکاف بیشتر می شود. بنابراین، من میتوانم در صورت لزوم با آن زندگی کنم، اما اکنون نگران این هستم که چگونه به درستی تعیین کنم که چه مقدار از واریانس مجموعه داده توسط هر EOF توضیح داده شده است. این باید lambda/sum (lambda) باشد. وقتی من واریانس توضیح داده شده تجمعی EOF ها را رسم می کنم، مشکل را خواهید دید - چون تجزیه «ویژن» حاوی مقادیر ویژه منفی است، شیب واریانس توضیح داده شده تجمعی تندتر و به شکل زنگ است: واریانس توضیح داده شده تجمعی #EOFs E. cumexplvar <- cumsum(E$values/sum(E$values)) S.cumexplvar <- cumsum(S$d/sum(S$d)) Eg.cumexplvar <- cumsum(Eg$values/sum(Eg$values)) Sg.cumexplvar <- cumsum(Sg$d/sum(Sg$d) ) ### واریانس توضیح داده شده تجمعی png را رسم کنید (cumexplvar.png, width=8, height=4, units=in, res=200) par(mfcol=c(1,2)) YLIM <- محدوده (c(E.cumexplvar, S.cumexplvar, Eg.cumexplvar, Sg.cumexplvar)) plot(E.cumexplvar, t=o, col=1 , ylim=YLIM، xlab=EOF, ylab=cum. expl. var., main=non-gappy) نقاط (S.cumexplvar, t=o، pch=2، col=2) abline(h=1، col=8، lty=2) legend(پایین راست، legend=c(Eigen، SVD)، col=c (1,2), pch=c(1,2), lty=1) plot(Eg.cumexplvar, t=o, col=1, ylim=YLIM, xlab=EOF, ylab=cum. توضیح دهید var., main=gappy) points(Sg.cumexplvar, t=o, pch=2, col=2) abline(h=1, col=8, lty=2) legend(پایین راست، legend=c(Eigen، SVD)، col=c(1،2)، pch=c(1،2)، lty=1) dev.off() مشکل ممکن است این باشد که من باید از مجموع مقادیر ویژه مطلق برای اختصاص واریانس توضیح داده شده آنها استفاده کنم، اما این نیز مرا به تعجب وا می دارد که چگونه تفسیر کنم. واریانس توضیح داده شده مقادیر ویژه منفی برای هر بینشی بسیار سپاسگزار خواهم بود، زیرا این موضوعی نیست که در هیچ مرجعی در مورد EOF به عنوان به کار رفته در gappy برخورد کرده باشم. داده ها | روش صحیح محاسبه واریانس توضیح داده شده هر EOF که از مجموعه داده های گپی محاسبه می شود چیست؟ |
12438 | چگونه می توانم واریانس تخمینی یک مدل خطی را هنگام استفاده از R، یعنی \begin{equation} \widehat{var(y)} بدست بیاورم. \پایان{معادله} | چگونه می توان واریانس متغیر وابسته خود را در رگرسیون خطی با R بدست آورد؟ |
34833 | من این سوال را برای کسی پست می کنم. او مدل را دارد: (1) $Y_{it} = a + b X_{1,it} + c X_{2,it} + d X_{3,it} + e_{it}$i = 1, 2,...,N;\phantom{...} t = 1,2,3,4,5,6,7$ متغیرها تقریباً عادی هستند و ما مشکوک به عدم نقض مفروضات OLS هستیم. تخمین های ضرایب با $i$ همراه نیستند زیرا هدف این است که تخمین های پانل مانند را بدست آوریم. $t$ نشان دهنده یک سال و $i$ نشان دهنده یک شرکت است. به جای استفاده از OLS ادغام شده، او می خواهد داده ها را جمع آوری کند. بنابراین، اگر ماتریس $\bf{Y}$ را با تعداد ردیف $N$ و تعداد ستون $7$ در نظر بگیریم که در آن $Y_{it}$ عنصری در $\bf{Y}$ $\forall i \ است. wedge \forall t$، او میخواهد این را طوری روی هم بگذارد که یک ردیف $7*N$، بردار ستون $1$ بهعنوان متغیر پاسخی باشد که در OLS مقطعی معمولی تخمین زده میشود (بعد از البته همین کار را برای ماتریس طراحی انجام دهید). این بد است؟ (به دنبال پاسخ های کلی در مورد نقاط ضعف آن، یا اینکه آیا خوب است). | جمع کردن دادههای پانل برای استفاده از OLS روی آن |
6855 | من از cforest و randomForest برای یک مجموعه داده 300 ردیفی و 9 ستونی استفاده کردم و نتایج خوبی (تقریباً بیش از حد برازش - خطای برابر با صفر) برای randomForest و خطاهای پیشبینی بزرگ برای طبقهبندیکنندههای cforest دریافت کردم. تفاوت اصلی بین این دو روش چیست؟ اعتراف می کنم که برای cforest از هر ترکیب پارامترهای ورودی ممکن استفاده کردم، به عنوان مثال. بهترین مورد، اما همچنان با خطاهای طبقهبندی بزرگ، «cforest_control (savesplitstats = TRUE، ntree=100، mtry=8، mincriterion=0، maxdepth=400، maxsurrogate = 1)» بود. برای مجموعه داده های بسیار بزرگ (حدود 10000 سطر و 192 ستون) randomForest و cforest تقریباً خطاهای یکسانی دارند (اولی کمی در همان سطح svms هسته شعاعی بهتر است)، اما برای مورد کوچک ذکر شده برای تعجب من هیچ راهی برای بهبود وجود ندارد. دقت پیش بینی جنگل ... | خطای پیشبینی طبقهبندی cforest و randomForest |
113783 | من تازه کار R هستم، من از آن برای پایان نامه خود در مورد الگوریتم های طبقه بندی تجارت استفاده می کنم. من با پکیج «فرکانس بالا» مشکل دارم. من داده های txt خود را در قالب 'xts' با استفاده از کد تبدیل کرده ام: library(highfrequency) library(timeDate) from=1990-11-01; to=1990-11-02; منبع داده = ~/raw_data; datadestination = ~/xts_data; تبدیل(از، به، منبع داده، مقصد داده، معاملات=TRUE، نقل قول=FALSE، ticker=c(ALO)، dir=TRUE، extension=txt,header=FALSE،tradecolnames=NULL، quotecolnames=NULL، قالب =%Y%m%d %H:%M:%S); xts_data = TAQLoad(tickers=ALO, from=1990-11-01, to=1990-11-02,trades=T, quotes=F,datasource=datadestination) head(xts_data) آنها را روی کنسول بارگذاری کنید آنها به این شکل ظاهر می شوند بدون اینکه SYMBOL EX PRICE SIZE COND CORR G127 <NA> 1970-01-01 01:00:01 1970-01-01 01:00:00 1970-01-01 01:00:00 1970-01-01 01:00:01 هیچی! فکر میکنم این مشکلی است زیرا قدم بعدی که میخواهم انجام دهم پاک کردن دادهها است، من با این کد امتحان کردم: data(sample_tdataraw); dim(sample_tdataraw); tdata_afterfirstcleaning = tradesCleanup(tdataraw=sample_tdataraw,exchanges=N); tdata_afterfirstcleaning$report; اما چیزی که من باید data(xts_data)، data(AC_trades) قرار دهم؟ زیرا sample_tdatarw عمومی است، درست است؟ من از داده های بسیار قدیمی استفاده می کنم (144 سهام NYSE TORQ از نوامبر 90 تا ژانویه 91)، آنها تنها داده های TAQ رایگانی هستند که می توانم پیدا کنم، آنها از یک فایل زیپ شده در اینترنت گرفته شده اند، آنها در ابتدا با فرمت ASC بودند. من نتونستم بخونم پس با txt بازش کردم و با این فرمت ذخیره کردم شاید مشکل از فرمت دیتا باشه؟ آنها اینگونه هستند (تاریخ، زمان، تبادل، و غیره) اما من حتی با (تیک، تاریخ، زمان، غیره، و غیره) امتحان کردم با فرکانس بالا این پیام را دریافت می کنم: اشیاء زیر از 'package:base' پوشانده شده اند: as.Date, as.Date.numeric ممنون از راهنمایی!! | پکیج فرکانس بالا R |
83535 | هنگام مدلسازی رویدادهای نادر با رگرسیون لجستیک، نمونهبرداری بیش از حد یک روش رایج برای کاهش پیچیدگی محاسبات است (یعنی حفظ همه موارد مثبت نادر اما فقط یک نمونه فرعی از موارد منفی). پس از برازش مدل، افزودن یک افست به عبارت رهگیری یک روش متداول برای تصحیح احتمال رویداد برای منعکس کردن نسبت نمونه اصلی است. افست برابر است با log(r1*(1-p1) / (1-r1)*p1)، که در آن r1 نسبت رویدادهای نادر در داده های نمونه برداری شده و p1 نسبت در داده های اصلی است. فرمول معادل با رگرسیون لجستیک چند جمله ای، که در آن 1 یا چند کلاس بیش از حد نمونه برداری می شود، چیست؟ | تصحیح بیش نمونه برداری برای رگرسیون لجستیک چند جمله ای |
102904 | من در مورد Cross Validation برای تخمین خطای پیشبینی زیاد خواندهام، مخصوصاً برای انتخاب تعداد مؤلفهها در یک مدل PCA (من SVD/PCA انجام نمیدهم، اما بسیار شبیه است)، اما نمیتوانم ادبیات زیادی در مورد آن پیدا کنم. استفاده از CV برای دادههای پراکنده واقعاً بسیار بزرگ. آیا کسی می تواند با پیوندهای کاغذی، تجربه شخصی یا سایر تکنیک های تخمین خطای پیش بینی به من کمک کند؟ همچنین، آیا نگرانی خاصی برای انجام CV روی داده های نوع پواسون وجود دارد؟ | ادبیاتی برای اعتبارسنجی متقاطع در داده های پراکنده؟ |
15745 | من در حال انجام یک سیستم برای طبقه بندی اسناد هستم. پروژه نیاز به استفاده از خروجی مبتنی بر احتمال دارد. بنابراین یک نمونه احتمال تعلق به هر کلاس را خواهد داشت. در حال حاضر من از رگرسیون لجستیک استفاده می کنم، اما ممکن است تغییر کند. بنابراین من نمی خواهم یک تقریب R^2 انجام دهم. من همچنین نمی خواهم از معیارهای استاندارد برای طبقه بندی مانند F-measure استفاده کنم زیرا با احتمالات کار نمی کند. من نمی دانم معیار سفارشی در این شرایط چیست. هر ایده ای؟ | متریک برای طبقه بندی بر اساس احتمال |
77845 | برای یک CDF که به شدت افزایش نمی یابد، یعنی معکوس آن تعریف نشده است، تابع کمیت $$F^{-1} (u) =\inf \\{x: F(x) \geq u \\} را تعریف کنید، \quad 0<u<1\. $$ جایی که U توزیع یکنواخت $(0,1)$ دارد. ثابت کنید که متغیر تصادفی $F^{-1} (u)$ دارای cdf $F(x)$ است. در صورت افزایش شدید CDF، اثبات بسیار آسان است زیرا معکوس تعریف شده است. $X=F^{-1} (u)$ $$ P\left[X<x \right]= P \left [F^{-1} (U) \leq x \right]= P \چپ را تعریف کنید [U \leq F(x) \right] =F(x) $$ اما چگونه می توانم CDF غیر کاهشی را که معکوس آن توسط تابع کمیت داده می شود، کنار بگذارم؟ من یک مبتدی هستم بنابراین هر گونه کمکی پذیرفته می شود. متشکرم. | تابع معکوس برای CDF غیر کاهشی |
6853 | با توجه به متغیرهای تصادفی عادی $X_1$ و $X_2$ با ضریب همبستگی $\rho$، چگونه می توانم همبستگی بین متغیرهای تصادفی lognormal زیر $Y_1$ و $Y_2$ را پیدا کنم؟ $Y_1 = a_1 \exp(\mu_1 T + \sqrt{T}X_1)$Y_2 = a_2 \exp(\mu_2 T + \sqrt{T}X_2)$ حالا، اگر $X_1 = \sigma_1 Z_1$ و $ X_2 = \sigma_1 Z_2$، که در آن $Z_1$ و $Z_2$ نرمال های استاندارد هستند، از خطی ویژگی تبدیل، دریافت می کنیم: $Y_1 = a_1 \exp(\mu_1 T + \sqrt{T}\sigma_1 Z_1)$Y_2 = a_2 \exp(\mu_2 T + \sqrt{T}\sigma_2 (\rho Z_1 + \sqrt{1-\rho^2}Z_2)$ حالا، چگونه از اینجا برویم تا همبستگی بین را محاسبه کنیم $Y_1$ و $Y_2$؟ | همبستگی متغیرهای تصادفی لگ نرمال |
15749 | اگر $r$ اندازه اثر برای همبستگی بین $A$ و $B$ باشد، پس $r^2$ مقدار واریانس $B$ است که می تواند به متغیر $A$ نسبت داده شود. 1. آیا گزارش هر دو شاخص در یک گزارش مهم است یا فقط یکی یا دیگری؟ 2. چگونه آنها را به زبان انگلیسی ساده (برای مخاطبان غیرآماری) توضیح می دهید؟ | چگونه می توان اندازه افکت ها را به صورت r و r-squared گزارش داد و توضیح غیر فنی آنها چیست؟ |
97060 | من به دنبال نوع خاصی از جهش هستم (پایه DNA A که با C دنبال می شود به پایگاه DNA B می رود) در مجموعه داده ای از 24 نمونه. من متوجه شده ام که این اتفاق 3 بار از 4 باری که یک ژن در مجموعه داده جهش یافته است (1 جهش در هر نمونه) اتفاق افتاده است. من همچنین تعداد دفعاتی که این نوع جهش در تمام ژنهای ژنوم جهش پیدا میکند، دریافت کردهام. آیا استفاده از آزمون دوجملهای در مقایسه 3/4 با احتمال پسزمینه که با تعداد تغییرات A>B تعریف میشود، زمانی که با C در کل مجموعه دادهها دنبال میشود/ چهار نمونه که آن تغییر در آنها مشاهده شده است، یک روش معتبر برای استنباط کنید که آیا فراوانی جهش های A>B که من دیده ام بیشتر از حد انتظار است؟ در R کدی که من به دنبال استفاده از آن هستم binom.test (c(3,1),p=(پسزمینه)) است که در آن پسزمینه = تعداد A>B تغییرات در CX/ تعداد دنبالههای CX که جهشهایی برای آنها داشتهاند. چهار نمونه با آرزوی بهترین ها، انکور. | آزمایش دو جمله ای برای الگوهای جهش |
83532 | چگونه می توانم نقشه های همبستگی را به طور مستقل با تعداد خوشه ها از نظر اندازه گیری کیفیت خوشه های جداکننده (غیر همبسته) مقایسه کنم، یعنی معیاری برای به حداکثر رساندن توافق درون خوشه ای و اختلاف بین خوشه ای؟ | اعتبار سنجی نتایج خوشه بندی از طریق نقشه های همبستگی |
93881 | ابزار word2vec از یادگیری عمیق برای محاسبه نمایش برداری کلمات استفاده می کند. آنها اشاره کرده اند که - کلمه بردارها را می توان برای استخراج کلاس های کلمه از مجموعه داده های عظیم نیز استفاده کرد. این با انجام خوشه بندی K-means در بالای بردارهای کلمه به دست می آید. وقتی کد را اجرا می کنم، به نظر می رسد که ابزار بردارهای کلمه را از یک مجموعه داده محاسبه می کند و آن را به 200 کلاس خوشه بندی می کند. اگر بخواهم از روش دیگری برای خوشه بندی استفاده کنم چه؟ چگونه می توانم اندازه گیری کنم که این کلاس ها چقدر خوب هستند یا الگوریتم خوشه بندی چقدر خوب کار می کند؟ همچنین، به نظر من، کلمه نمایش برداری یک فضای برداری بسیار پراکنده خواهد بود. آیا نمی توان خوشه بندی را با PCA یا روشی برای کاهش ابعاد بهبود بخشید؟ باز هم، چگونه می توانم تست کنم که خوشه بندی چقدر خوب عمل می کند؟ اگر بتوانم راهی برای ارزیابی پیدا کنم، میتوانم کد را تغییر دهم و PCA را اضافه کنم و ببینم آیا بهتر است یا خیر. ویرایش - مقالاتی پیدا کردم که در آنها ذکر شده است که خوشه بندی کلمات را می توان در طبقه بندی اسناد استفاده کرد. ایده این است که از خوشههای کلمات به جای کیسه کلمات به عنوان ویژگیهایی برای طبقهبندی استفاده شود، و این باعث کاهش فضای ویژگی در عین حفظ ویژگیهای «زائد» میشود. من بیشتر به این موضوع نگاه میکنم، اما به نظر میرسد که میتوانم از کلمه خوشهها در کار طبقهبندی اسناد استفاده کنم و ببینم اگر الگوریتم خوشهبندی را تغییر دهم، عملکرد بهتری دارد یا خیر. آیا این کار می کند؟ یک سوال بعدی - چگونه می توانم این رویکرد استفاده از خوشه های کلمات را به عنوان ویژگی اجرا کنم؟ | چگونه می توانم عملکرد سیستمی را که خوشه های کلمات تولید می کند ارزیابی کنم؟ |
83534 | هدف از کار بر روی مقیاس لاجیت در نمودارهای وابستگی جزئی (در طبقه بندی باینری) چیست؟ به سادگی میتوان به صورت زیر عمل کرد: 1. یک جنگل رشد کنید. 2. فرض کنید «x» دارای مقادیر متمایز «v» در مجموعه دادههای آموزشی است. مجموعه داده های `v` را به صورت زیر بسازید. برای هر یک از مقادیر v از x یک داده جدید se ایجاد می کند که در آن x فقط آن مقدار را می گیرد و همه مقادیر دیگر را دست نخورده می گذارد. 3. برای هر یک از مجموعه داده های `v` که بدین ترتیب به دست آمده است، پاسخ را با استفاده از جنگل تصادفی پیش بینی کنید. 4. برای هر یک از مجموعههای داده «v»، میانگین این پیشبینیها را نشان دهید. 5. «v» و پیشبینیهای میانگین مربوطه را ترسیم کنید. بسته تصادفی جنگل): مرحله 4. محاسبه میانگین (log (پیشبینیها) - 0.5 (log (پیشبینیها) + log(1-predictions)))=average(0.5 logit(predictions))` مرحله 5. v و 1/2 logit(predictions) محاسبه شده مربوطه را ترسیم کنید چرا؟ | هدف از کار بر روی مقیاس لاجیت در نمودارهای وابستگی جزئی چیست؟ |
11659 | در نقش شغلیام اغلب با مجموعه دادههای افراد دیگر کار میکنم، افراد غیرمتخصص دادههای بالینی را برای من میآورند و من به آنها کمک میکنم تا آنها را خلاصه کنند و آزمایشهای آماری را انجام دهند. مشکلی که من دارم این است که مجموعه دادههایی که من آوردهام تقریباً همیشه مملو از اشتباهات تایپی، ناسازگاریها و انواع مشکلات دیگر هستند. من علاقه مندم بدانم که آیا افراد دیگر تست های استانداردی دارند که برای بررسی مجموعه داده هایی که وارد می شوند انجام می دهند یا خیر. من قبلاً هیستوگرام های هر متغیر را فقط برای اینکه نگاه کنم ترسیم می کردم اما اکنون متوجه شده ام که خطاهای وحشتناک زیادی وجود دارد که می توانند زنده بمانند. این تست به عنوان مثال، من یک روز دیگر یک مجموعه داده اندازه گیری های مکرر داشتم که در آن، برای برخی افراد، اندازه گیری مکرر در زمان 2 یکسان بود، همانطور که در زمان 1 بود. متعاقباً ثابت شد که این نادرست است، همانطور که انتظار دارید. یکی دیگر از مجموعه داده ها فردی بود که از اختلال بسیار شدید (که با نمره بالا نشان داده می شد) به بی مشکلی تبدیل شد که با 0 در کل نشان داده شد. این غیرممکن است، اگرچه من نتوانستم آن را به طور قطعی ثابت کنم. بنابراین چه آزمایشهای اساسی را میتوانم بر روی هر مجموعه داده اجرا کنم تا مطمئن شوم که اشتباه تایپی ندارند و حاوی مقادیر غیرممکن نیستند؟ پیشاپیش متشکرم | تست های بررسی داده های ضروری |
93885 | من یک مجموعه داده بزرگ دارم، مثلاً 500 خط داده. بهعنوان راهحلی سریع برای رگرسیون مرتبه بالاتر، حدسهای دقیقی در مورد اینکه چه شرایط مرتبه بالاتری را در معادله رگرسیون خود انتظار دارم، انجام دادهام. سپس اینها را به عنوان متغیرهای جداگانه در رگرسیون خطی خود گنجانده ام. برای مثال: x(1) = x(1) x(2) = x(2) x(3) = x(3) x(4) = x(1)^2 x(5) = x(1) *x(2) و غیره. سوال من این است که از آنجایی که می توانم یک آمار t و بنابراین یک P-value برای هر یک از این x(1) - x(5) بدست بیاورم چگونه می توانم اهمیت x(1) را از x(1) قضاوت کنم. ) جزء x(4) و است x(5). یا می توانم آنها را جدا از هم در نظر بگیرم؟ | هنگام استفاده از اصطلاحات مرتبه بالاتر در رگرسیون چند متغیره چه تأثیری بر P-value دارد |
83530 | من به دنبال یک بسته R هستم که بتواند به یک شکل بر روی 2 مجموعه از دادهها چندین انتساب انجام دهد. یعنی من می خواهم مجموعه آموزشی را ضرب کنم و سپس مجموعه تست را به همان روشی که مجموعه آموزشی انجام شد، منتسب کنم. من به آملیا و موش و دیگران نگاه کرده ام اما نمی توانم بفهمم که چگونه این فرآیند را انجام دهم. بسته caret دارای انتساب است که در آن هر دو مجموعه آموزشی و آزمایشی به یک شکل درج می شوند. من به دنبال این هستم که این کار را به همان روش با انتساب چندگانه انجام دهم. ممنون از هر راهنمایی | انتساب چندگانه بر روی داده های جدید در R |
18247 | من یک سری زمانی با قیمت (حدود 800 قیمت) دارم. باید تست کنم که آیا میانگین در تمام سری ها ثابت است یا خیر. فکر می کنم باید سری ها را به گروه تقسیم کنم، اما اگر توزیع نرمال نیست، از چه روشی برای بررسی ثابت بودن میانگین استفاده کنم؟ | اگر میانگین ثابت است چه روشی را باید آزمایش کرد؟ |
95512 | من میخواهم از تجزیه و تحلیل همبستگی متعارف (CCA) برای شناسایی روابط بین دو مجموعه از متغیرهای X و Y استفاده کنم. CCA باید بین دو نمونه X و Y امتیاز (بالاترین همبستگی) بدهد. من سعی کردم آن را از طریق scikit-learn اجرا کنم. که: X = [[1، 0، 0]، [1، 1، 0]، [1، 1، 1]، [2، 0، 0]] Y = [[0، 0، 1]، [1، 0، 0]، [2، 2، 2]، [3، 5، 4]] cca = CCA(n_components=2) cca.fit(X, Y ) برای x در X: چاپ ---------- چاپ x برای y در Y: چاپ str(y) + : + str(cca.score(x,y)) خروجی اولین عنصر در X: [1, 0, 0] [0, 0, 1] : 0.35461498401 [1, 0, 0] : -0.0502507710089 [2، 2] ، 2] : 0.0 [3، 5، 4]: -22.2417510911 اما نتیجه آنطور که انتظار می رود نیست، بالاترین همبستگی بین [1، 0، 0] در X و Y وجود ندارد. اما امتیاز چیز دیگری را برمی گرداند: ضریب تعیین R^2 از پیش بینی را برمی گرداند. چگونه می توان از طریق CCA بیشترین همبستگی جفت تطبیق (X#n، Y#m) را پیدا کرد؟ آیا از طریق scikit-learn امکان پذیر است یا باید از کتابخانه دیگری استفاده کنم؟ پیشاپیش ممنون | یافتن نمونه های منطبق از طریق تجزیه و تحلیل همبستگی متعارف (CCA) |
59913 | من از امانت بین کتابخانه ای برای دریافت کتاب فرآیندهای فضایی کلیف و اورد استفاده می کنم، اما ترم به تازگی تمام شده و الان کند است. در صفحه 18 این کتاب، Cliff and Ord نشان می دهد که چگونه واریانس برای آماره شمارش پیوسته محاسبه می شود و همچنین چگونه این واریانس به دست آمده است. من معادله واریانس را دارم، اما باید مشتق را ببینم زیرا باید واریانس تعداد پیوستگی را در حالی که اثرات لبه را در نظر میگیرم محاسبه کنم. بنابراین، من باید واریانس را اصلاح کنم، اما تنها در صورتی می توانم این کار را انجام دهم که مراحل اشتقاق آن را به خوبی درک کنم (که انجام آن هنگام نگاه کردن به معادله شکل کاهش یافته دشوار است). زمان بسیار مهم است، آیا کسی مرجع آنلاینی را دیده است که این اشتقاق را نشان دهد و بتواند به من اشاره کند؟ با توجه به شرایط ممکن است مدت زیادی طول بکشد تا این کتاب در دست باشد. همچنین با توجه به هزینه کتاب هایی از این دست، خرید چند صفحه ای از این دست کمی گزاف است. با تشکر من شک دارم که کسی بتواند کمک کند، احتمالاً این سؤال بسیار عجیب است. | نیاز به اشتقاق واریانس تعداد پیوست (آمار همبستگی فضایی)، می دانید کجاست؟ |
34831 | فرض کنید باید بهترین مدل را برای پیش بینی یک متغیر انتخاب کنم اما حجم نمونه من کوچک است. من میخواهم دادههایم را با استفاده از بوت استرپ دوباره نمونهبرداری کنم، هر مدل را اجرا کنم و خطای پیشبینی آن را با اعتبارسنجی متقاطع در هر نمونه بوت استرپ ارزیابی کنم. در پایان مدلی را با کمترین میانگین خطای پیشبینی انتخاب خواهم کرد. آیا این رویه قابل قبولی است؟ اگر بله، هنگام استفاده از این روش، چیزی وجود دارد که باید از آن آگاه باشم؟ | آیا اعتبار سنجی متقاطع را روی نمونه های بوت استرپ انجام می دهید؟ |
71478 | من یک نتیجه دوتایی طولی (صحت تشخیص، 0: نادرست، 1: صحیح) را با توجه به 5 شرایط آزمایشی مختلف (1 خط پایه و 4 درمان) اندازهگیری میکنم. نتیجه همیشه در همان 10 نقطه زمانی اندازه گیری می شود. هر یک از 9 آزمودنی در هر 5 شرایط شرکت کردند. علاوه بر این، برای هر موضوع و شرایط، آزمایش 12 بار تکرار شد. بنابراین من با 9*5*12=540 سری طولی باینری (= آزمایش های 10 امتیازی هر کدام) به پایان می رسم. هدف من ارزیابی تأثیر شرایط تجربی بر نتیجه باینری من است. من باید مدلی بسازم که همبستگی در طول زمان را برای یک کارآزمایی معین و همبستگی بین کارآزمایی ها را برای یک موضوع معین در نظر بگیرد. من یک مدل لجستیک 3 سطحی را در نظر میگیرم که در آن 10 اندازهگیری باینری متوالی (سطح 1) روی تکرارها (سطح 2) که در موضوعات (سطح 3) خوشهبندی میشوند، به دست میآیند. تنها متغیر کمکی سطح 1 من زمان اندازهگیری خواهد بود و به عنوان متغیر کمکی سطح 2، شرایط تجربی را در نظر میگیرم. من به خودی خود هیچ متغیر کمکی سطح 3 ندارم، اما همچنان میخواهم مدل تنوع بین موضوع را در نظر بگیرد. از آنجایی که راههای زیادی برای بررسی آن دادهها وجود دارد، خوشحال میشوم که برخی از ورودیها را دریافت کنم تا بدانم آیا در مسیر درستی هستم یا خیر و بینشی در مورد اینکه کدام بسته R برای تحلیلی که میخواهم انجام دهم مناسبتر است یا خیر. | چگونه می توان تحلیل عاملی را برای داده های باینری طولی خوشه ای انجام داد؟ |
15747 | من یک مجموعه داده برای فروش خودروهای دست دوم با 2 متغیر قیمت و کیلومترهای تحت پوشش دارم. اگر این داده ها را در یک صفحه دو بعدی رسم کنیم، نقاط نمودار پراکنده ای را تشکیل می دهند. من می خواهم k نمونه (k - تعداد نمونه های ارائه شده توسط کاربر در زمان اجرا) را از کل داده ها، شاید حدود 5000 رکورد انتخاب کنم. نمونه های انتخاب شده باید اطمینان حاصل کنند که آنها نماینده واقعی 5000 رکورد هستند و نمونه های انتخاب شده باید با سایر داده های اساسی مرتبط باشند. بنابراین وقتی نمونه خاصی را انتخاب می کنیم، باید بتوان داده هایی را که نمونه به عنوان نماینده برای آن عمل می کند، بدست آورد. این ممکن است در بیش از یک سطح انجام شود، همچنین همانطور که در خوشه بندی زیرفضا انجام می شود. نمونهگیری تصادفی، نمونهگیری با سوگیری چگالی یا مرتبسازی بر اساس ویژگیها کمکی نخواهد کرد. زیرا وسیله نقلیه ای که کیلومترهای بیشتری کار می کند ممکن است قیمت بالایی داشته باشد زیرا در شرایط خوبی قرار دارد. و وسیله نقلیه ای با کیلومتر کمتر طی شده ممکن است قیمت پایین تری داشته باشد زیرا ممکن است خودرو مشکلی داشته باشد. بنابراین، اگر روش آماری برای حل این مشکل وجود دارد، لطفاً به من کمک کنید. | یافتن k-نمایندگان از یک مجموعه داده دو بعدی |
15741 | برای الگوریتم SVM من باید یک بهینه سازی در فرم استاندارد QP انجام دهم. در Matlab من از quadprog با الگوریتم interior-point-convex از جعبه ابزار Optimization استفاده می کنم. یک کتابخانه معادل (ترجیحاً برای استفاده آکادمیک رایگان) برای پایتون چیست؟ | معادل چهار پروگ متلب در پایتون؟ |
34830 | من در تلاش هستم تا تأثیر کوددهی و آبیاری بر تنوع زیستی را در یک طرح بلوکهای کامل تصادفی ارزیابی کنم. من دو درمان دارم، یکی کنترل و دو بلوک. درمان به مدت سه سال ادامه داشت، بنابراین من سه اقدام تکراری دارم. من می خواهم بدانم که آیا تنوع زیستی برای درمان ها تفاوت قابل توجهی دارد یا خیر. شماره 1 در سالهای مجردی و شماره 2 در تمام سه سال. من فکر می کنم که اندازه گیری های مکرر anova باید کار را انجام دهد، با این حال، من در مورد نحوه گنجاندن بلوک ها در محاسبه مشکل دارم. آیا محاسبه میانگین روی بلوک ها قبل از انجام آنووا مناسب است؟ آیا راه دیگری برای این کار وجود دارد؟ | اندازه گیری های مکرر مخلوط Anova |
33649 | در یک تنظیمات ML، که در آن $a_1،...، a_n$ مجموعه ای از نکات آموزشی هستند. یک تابع هسته یک تابع $κ$ است که حاصل ضرب درونی بین دو بردار در فضای ویژگی است: $κ(a_i, a_j ) = ψ(a_i) · ψ(a_j )$ که در آن $ψ$ یک تابع غیر خطی است. . ما می توانیم یک ماتریس $n × n$ $K$ تشکیل دهیم که ماتریس هسته نامیده می شود که ورودی $(i,j)$ مربوط به $κ(a_i , a_j )$ است. در اینجا، $K$ متقارن و مثبت نیمه معین است و می تواند به عنوان $K=XX^T$ که در آن $X=U\lambda^{1/2}$ با توجه به $K=U \lambda U^T$ فاکتور شود تجزیه طیفی ماتریس هسته است. سوال: - اکنون با توجه به دو ماتریس هسته $K_1$ و $K_2$، آیا $K_p=K_1K_2$ یک ماتریس هسته است؟ | آیا حاصل ضرب دو ماتریس هسته p.s.d یک ماتریس کرنل ایجاد می کند؟ |
18249 | معمولاً وقتی یک شاخص ایجاد میکنم، اساساً فقط میانگین یا میانگین متغیرهای فردی را که شاخص را تشکیل میدهند، میگیرم. اما من در تعجب هستم که آیا کسی باید / نمی تواند محصول را بگیرد؟ به عنوان مثال، مقیاس دوستی از متغیرهای 1) مفرح بودن با آنها و 2) خوب صحبت کردن با آنها در هنگام ناراحتی تشکیل شده است. (فقط یک مثال فرضی). فرض کنید که متغیر 1 در مقیاس 1-5 و متغیر 2 در مقیاس 1-10 پاسخ داده می شود. بیایید بگوییم که این دو متغیر به خوبی با ضریب پیرسون 0.6 همبستگی دارند. در حال حاضر، با هر دو متغیر مقیاس بندی شده از مثال. 0 به 1، بهترین معیار دوستی چیست؟ میانگین دو متغیر یا محصول؟ اگر از معیار محصول استفاده کنم، دوستی واریانس بسیار بیشتری نسبت به استفاده از معیار میانگین استاندارد دارد. آیا دلیل ریاضی ساده ای وجود دارد که چرا نباید محصول را مصرف کنم؟ یا به فرضیات نظری در مورد «دوستی» بستگی دارد؟ | قوانین سرانگشتی برای ایجاد مقیاس های مرکب |
18248 | این سوال از سردرگمی واقعی من در مورد چگونگی تصمیم گیری در مورد خوب بودن یک مدل لجستیک ناشی می شود. من مدل هایی دارم که از حالت جفت فرد-پروژه دو سال پس از تشکیل آنها به عنوان متغیر وابسته استفاده می کنند. نتیجه موفقیت آمیز است (1) یا خیر (0). من متغیرهای مستقلی دارم که در زمان تشکیل جفت ها اندازه گیری شده اند. هدف من این است که آزمایش کنم آیا متغیری که فرض میکردم بر موفقیت جفتها تأثیر میگذارد، بر آن موفقیت تأثیر میگذارد و سایر تأثیرات بالقوه را کنترل میکند. در مدل ها، متغیر مورد علاقه معنادار است. مدلها با استفاده از تابع «glm()» در «R» برآورد شدند. برای ارزیابی کیفیت مدلها، چند کار انجام دادهام: «glm()» بهطور پیشفرض «انحراف باقیمانده»، «AIC» و «BIC» را به شما میدهد. علاوه بر این، من میزان خطای مدل را محاسبه کرده و باقیمانده های binned را رسم کرده ام. * مدل کامل دارای انحراف باقیمانده، AIC و BIC کمتری نسبت به مدلهای دیگری است که من تخمین زدهام (و در مدل کامل تودرتو هستند)، که من را به این فکر میکند که این مدل «بهتر» از بقیه است. * نرخ خطای مدل نسبتاً پایین است، IMHO (مانند گلمن و هیل، 2007، صفحات 99): «نرخ خطا <- mean((پیشبینی شده>0.5 و y==0) | (پیشبینی شده<0.5 و y==1)، تا اینجای کار خوب است، اما زمانی که من باقی مانده را رسم می کنم (دوباره به دنبال گلمن و هیل توصیه)، بخش بزرگی از سطلها خارج از 95% CI قرار میگیرند:  این طرح باعث می شود فکر کنم چیزی وجود دارد در مورد مدل کاملاً اشتباه است تغییر شکل، بدون اینکه واقعاً نمودار باقیماندهها را بهبود ببخشد. این جفت ها «نسبتا» مستقل از یکدیگر هستند به این معنا که همه آنها در یک دوره زمانی کوتاه تشکیل شده اند (اما نه به طور دقیق، همه به طور همزمان) و تعداد زیادی پروژه (13k) و افراد زیادی (19k) وجود دارد. ) ، بنابراین نسبت مناسبی از پروژه ها فقط توسط یک فرد ملحق می شود (حدود 20000 جفت وجود دارد). | ارزیابی مدل های رگرسیون لجستیک |
7429 | اگر مقدار مورد انتظار در تست خوب بودن تناسب Chi-square صفر باشد، چه کاری باید انجام دهم؟ من می دانم که آزمون فیشر وجود دارد، اما من یک میز بسیار بزرگ دارم! | محاسبه مجذور کای برای جداول بزرگ با تعدادی سلول مورد انتظار برابر با صفر |
6852 | من یک پوشه با صد فایل جدا شده با کاما (CSV) دارم که نام فایل برابر با بورس سهام شرکت و به دنبال آن نماد آن است که با علامت _ مشخص شده است، به عنوان مثال: NASDAQ_MSFT.csv هر فایل حاوی اطلاعات تاریخی سهام روزانه است، به عنوان مثال. یک فایل csv به این صورت است: تاریخ، باز، زیاد، کم، بسته، حجم 29-دسامبر-00،21.97،22.91،21.31،21.69،93999000 28-دسامبر-00،22.56،23.14،2025. 27-Dec-00,23.06,23.41,22.50,23.22,66881000 ... 5-Jan-00,55.56,58.19,54.69,56.91,62712600 4-Jan-00,56.78,58.56,55.94,56.31,52866600 3-Jan-00,58.69,59.31,56.00,58.34,51680600 اکنون، می خواهم این اطلاعات را تجزیه و تحلیل کنم (اگر نام شرکت ها را به عنوان ستونی تجزیه و تحلیل کنید) فیلد به جای یک لیست جدید از فیلدها). اما چند مسئله وجود دارد: 1. هر شرکت فایل خود را با نماد و مبادله به عنوان نام فایل 2 دارد. برخی از شرکت ها در تاریخ های متفاوتی نسبت به سایرین شروع به کار می کنند. به عنوان مثال برخی ممکن است محدوده 30 روز داشته باشند در حالی که برخی دیگر 30 ماه دارند (هر چند هر مرحله هنوز 1 روز تفاوت دارد). من از SPSS به عنوان ابزار تجزیه و تحلیل خود استفاده می کنم. سوال من این است که چگونه می توانم این فایل ها را وارد کنم تا عملیات تحلیلی منطقی روی آنها انجام دهم؟ مثلاً من آرزو دارم شیب متوسط قیمت باز همه شرکت ها را با هم ببینم و غیره. | استراتژی برای تجزیه و تحلیل داده های تاریخچه سهام از چندین فایل با SPSS |
33645 | سوال اینجاست: پس از اجرای دو رگرسیون OLS جداگانه، یکی برای هر گروه (مرد در مقابل زن)، ضریب b1 برای یک IV خاص در رگرسیون مرد و ضریب b2 برای همان IV در رگرسیون مونث به دست میآید. مناسب ترین راه برای آزمایش این فرضیه چیست: Ho: b1>b2؟ تا جایی که من می دانم Wald یک تست پرکاربرد است، اما فقط بررسی می کند که آیا تفاوت اثر با صفر متفاوت است (Ho: b1-b2=0) با تشکر! | مناسب ترین راه برای آزمایش اهمیت تفاوت اثر در دو گروه چیست؟ |
33643 | من یک IV ($A$) و دو DV ($B$,$C$) دارم. $A$ یک متغیر باینری با دستکاری تجربی است. هر آزمودنی دارای دو امتیاز در $B$ و دو امتیاز در $C$ است که مربوط به دستکاری های تجربی $A$ و ~$A$ می باشد. من می خواهم بگویم که $A$ باعث افزایش $B$ می شود و افزایش $B$ منجر به افزایش $C$ می شود. $A$ باید منجر به افزایش $C$ شود، اگر و فقط اگر منجر به افزایش $B$ شود (میانجیگری کامل). آزمونهای t زوجی تأیید میکنند که $B$ برای $A$ در مقابل ~$A$ بالاتر است، و $C$ برای $A$ در مقابل ~$A$ بالاتر است. $\Delta B$ با $\Delta C$ ارتباط زیادی دارد. من با این فرض که $B$ و $C$ لزوماً به دلیل تفاوتهای فردی در خط پایه $B$ همبستگی ندارند، بر امتیازهای تفاوت تکیه میکنم. چگونه می توانم برای میانجیگری در اینجا تست کنم؟ از آنجایی که $A$ دودویی است، هیچ $\Delta A$ برای اجرای تحلیل رگرسیون وجود ندارد. من مطمئن نیستم که کجا بروم. هر کمکی قدردانی می شود! | تجزیه و تحلیل میانجیگری با استفاده از امتیازهای باینری IV و تفاوت |
71476 | من یک مدل پویا ساده بیز دارم که بر روی چند متغیر زمانی آموزش دیده است. خروجی مدل، پیشبینی «P(رویداد) @ t+1» است که در هر «t» تخمین زده میشود. نمودار «P(رویداد)» در مقابل «زمان» مطابق شکل زیر است. در این شکل، خط _سیاه_ نشان دهنده P(رویداد) است که توسط مدل من پیش بینی شده است. خط قرمز افقی احتمال وقوع رویداد را نشان می دهد. و خطوط عمودی_نقطه دار نشان دهنده (پنج) رخداد در سری زمانی است. در حالت ایدهآل، مایلم قبل از مشاهده هر رویداد، اوج «P(رویداد)» پیشبینیشده را ببینم و زمانی که هیچ چشماندازی برای یک رویداد وجود ندارد نزدیک به صفر باقی بماند.  من میخواهم بتوانم عملکرد مدل من (خط سیاه) را در پیشبینی رویداد گزارش کنم. وقوع یک کاندید واضح برای مقایسه مدل من با احتمال قبلی رویداد (خط قرمز) است که -اگر به عنوان پیش بینی استفاده شود- مقدار احتمال یکسانی را برای همه t پیش بینی می کند. **بهترین روش رسمی** برای رسیدن به این مقایسه چیست؟ ** P.S: ** من در حال حاضر از امتیاز دهی (شهودی) طبق کد زیر استفاده می کنم، که در آن نمره کلی کمتر نشان دهنده عملکرد بهتر پیش بینی است. من متوجه شدم که شکست دادن قبلی با این امتیاز در واقع بسیار دشوار است: # دریافت پیشبینی عملکرد مدل_نمره = 0; prior_score=0; برای t در محدوده(len(timeSeries)): if(timeSeries[t]== رویداد): # رویداد اتفاق افتاده cur_model_score = 1- prob_prediction[t]; cur_prior_score = 1 - pre other: # no event cur_model_score = prob_prediction[t] - 0; cur_prior_score = قبل - 0; model_score = model_score + abs(cur_model_score); پیشین_نمره = امتیاز_پیشین + abs(cur_prior_score); | ارزیابی عملکرد پیشبینی سری زمانی |
109875 | مجموعه ای شناخته شده از جفت های $(y_i, \sigma_i)$ وجود دارد به طوری که $y_i = x_i + \sigma_i N_i$ $N_i \sim \mathbf{N}(0,1) $ برای همه $i$ $x_i \sim \rho$ برای همه $i$ که در آن $y$ مقدار مشاهده شده است، $x$ مقدار واقعی است. چگونه توزیع $\rho$ را بازیابی کنیم؟ لزوما طبیعی نیست. | بازیابی توزیع اصلی از مشاهدات پر سر و صدا |
91124 | انحراف > تعمیم ایده استفاده از مجموع مربعات باقیمانده در حداقل مربعات معمولی به مواردی است که برازش مدل با حداکثر > احتمال به دست میآید. همانطور که من درک می کنم، انحراف آماری است که بر اساس آن می توانیم خوب یا بهتر بودن یک مدل را قضاوت کنیم. با این حال، IMHO، ما قبلاً RSS (برای رگرسیون) و میزان خطای طبقهبندی (برای طبقهبندی) داشتهایم، و با این 2 آمار، فکر میکنم ما توانستهایم کیفیت مدل را قضاوت کنیم. پس چرا باید انحراف را محاسبه کنم؟ | چرا به انحراف نیاز داریم |
71475 | من به مطالعهای فکر میکنم که در آن شرکتکنندگان بهطور تصادفی به انجام وظیفه A و سپس B یا برعکس اختصاص داده میشوند. من فکر کردم اگر انجام وظیفه A واقعا تمرین خوبی برای کار B باشد مشکلی وجود خواهد داشت، اما انجام وظیفه B تمرین خوبی برای کار A نیست. مانند اثر تمرینی کار B بر روی کار A باشد. یا چیز دیگری هست که باید نگرانش باشم؟ | چه زمانی دستور مشارکت در کار متوازن به تأثیرات تمرین میپردازد؟ |
59914 | من در مورد بیانیه آماری که بر اساس سناریوی زیر میگویم سردرگم هستم: **سناریو:** عضویت در یک سازمان حرفهای فقط برای 10 درصد دانشآموزان برتر یک منطقه آزاد است. 400 عضو وجود دارد که از (مثلاً) 45 مدرسه می آیند. **بیانیه**: این سازمان نماینده 10 درصد دانش آموزان برتر منطقه است. سردرگمی من این است که مدرسه A ممکن است دانشآموزان با کیفیت پایینتری داشته باشد که 10 درصد برتر از مدرسه B باشد. * مدرسه A دارای دانش آموزانی است که امتیازات 41، 42، 43، 44 و 45 از 50 را کسب کرده اند (10%) * مدرسه B دارای دانش آموزانی است که امتیازات 46، 47، 48، 49 و 50 از 50 را کسب کرده اند (10%). در این صورت، آیا میتوانند ۱۰ درصد برتر دانشآموزان باشند (مخصوصاً زمانی که مدرسه B دانشآموزانی داشته باشد که امتیازهای ۴۱، ۴۲، ۴۳، 44 و 45)؟ من فقط از 2 مدرسه برای سادگی استفاده می کنم. | سردرگمی در یک بیانیه آماری |
109819 | من نمونههایی را از فرآیند زیر تکرار کردهام: بیشتر نمونهها فقط حاوی نقاطی هستند که به طور تصادفی در یک صفحه دو بعدی توزیع شدهاند. با این حال، گاهی اوقات، نمونه نه تنها شامل نقاطی است که به طور تصادفی توزیع شده اند، بلکه دارای نقاطی است که تقریباً روی یک خط مرتب می شوند. تقریباً می گویم زیرا نقاطی که مشاهده می کنم ممکن است همه دقیقاً روی خط نباشند اما به طور تصادفی تا حدودی جابجا شده باشند. در اینجا کد R برای مثال کوچک اسباب بازی آمده است تا منظور من را نشان دهد: line_active <- TRUE line_n <- 50 noise_n <- 100 perturbation.sd <- 0.01 # noise background noise_x <- runif(noise_n) noise_y <- runif(noise_n) # مختصات خط شروع <- list(x=0.2,y=0.1) پایان <- list(x=0.8,y=0.9) if(line_active) {line_pos <- runif(line_n) line_x <- start$x+line_pos*(end$x - start$x) line_y <- start$y+line_pos*( end$y - start$y) line_x_perturbed <- line_x+rnorm(length(line_x),0,perturbation.sd) line_y_perturbed <- line_y+rnorm(length(line_y),0,perturbation.sd) } else { line_x_perturbed <- c() line_y_perturbed <- c() } points <- data.frame(x=c(noise_x,line_x_perturbed) y=c(noise_y,line_y_perturbed)) # نمودار! plot(points$x,points$y) points(line_x_perturbed,line_y_perturbed,col='red') سوالات من این است: 1. چگونه می توانم تشخیص دهم که آیا در هر نمونه ای که به آن نگاه می کنم آیا خطی وجود دارد یا خیر؟ 2. چگونه می توانم شیب و رهگیری خط را در صورت وجود آن تشخیص دهم؟ 3. اگر نویز از توزیع شناخته شده ای نباشد اما باید تخمین زده شود، این مشکل چقدر پیچیده تر می شود؟ | تشخیص خط در پراکندگی |
107740 | برنامه در اینجا ضریب همبستگی $r$ را بر حسب توانایی $X$ برای پیش بینی $Y$ برای مقادیر شدید $X$ تفسیر می کند. به عنوان مثال، اگر $r = 0.8$، پس $p(Y < 0 | X < -2)$ چیست؟ | اگر $X، Y$ به طور مشترک نرمال استاندارد با همبستگی $r$، و $a، b$ ثابت هستند، $p(Y <b | X <a)$ چیست؟ |
33648 | من یک نتیجه آزمایش NaN را با استفاده از بسته R adehabitatHS و تابع compana دریافت می کنم. تست Compana در دسترس بودن زیستگاه را با استفاده از زیستگاه توسط حیوانات مقایسه می کند. این آزمون تجزیه و تحلیل ترکیبی را انجام می دهد (Aebischer et al. 1993)، که یک مقدار برای لامبدای Wilk و یک مقدار p به دست می دهد. من آزمایش را روی داده های تجربی برای مارهای زنگی (16 حیوان، 8 دسته زیستگاه) انجام می دهم. به دلایلی تست compana برمیگرداند: lambda = NaN، p-value = 1.0. من داده های خود را برای علل استاندارد NaN ها بررسی کرده ام و هیچ مشکلی مانند مقادیر از دست رفته (NAs)، نسبت های منفی یا مجموع ردیف های > 100 درصد نمی بینم. علاوه بر این، این خطا زمانی رخ می دهد که من از مجموعه داده کامل (16 ردیف، 8 ستون) استفاده می کنم، اما نه زمانی که از یک زیرمجموعه استفاده می کنم (یک ستون را از دست داده است). به نظر می رسد مهم نیست که کدام ستون (ستون ها) حذف شوند، تا زمانی که فقط 7 یا کمتر گنجانده شود. جزئیات اطلاعات من در زیر آمده است. هر گونه کمک و یا پیشنهاد بسیار قدردانی خواهد شد. پلتفرم: OSX 10.7.4 (شیر) نسخه R: R 2.15.1 رابط کاربری گرافیکی 1.52 ساخت پلنگ 64 بیتی (6188) R CODE: نسبت ها برای زیستگاه مورد استفاده (ماتریس): استفاده شده.m Atr Cre DW Dist Gra Mar Mes Opn 1 2.76 19.31 4.14 17.24 0.00 28.28 0.00 0.00 2 15.12 1.16 3.49 5.81 2.33 32.56 25.58 3.49 3 57.35 13.24 1.47 0.00 6.62 0.00 8.09 8.09 4.09 8.09 4.09 0.00 3.92 0.00 29.41 18.63 5 9.52 17.01 23.13 0.00 0.00 37.41 3.40 0.00 6 2.54 67.01 0.00 0.01 0.00 0.00 0.00 10.45 15.67 5.22 5.97 0.00 0.00 33.58 10.45 8 6.34 0.00 0.00 4.23 0.00 0.00 0.00 21.83 9 0.34 0.00 0.00 0.00 0.00 21.83 9 0.646 0.00 18. 8.61 2.65 0.66 10 20.75 0.00 0.00 0.00 0.00 0.00 0.00 49.06 11 20.14 18.06 12.50 8.33 0.00 0.00 0.00 0.00 0.00 49.06 11 20.14 18.06 12.50 8.33 0.00 5.520 0.00 0.00 58.04 0.00 0.00 13.99 0.00 13 44.23 4.81 0.00 0.00 0.00 0.00 28.85 19.23 14 13.01 14 13.01 2.61 2.401. 6.09 25.22 15 35.96 3.51 0.00 2.63 0.00 1.75 25.44 0.88 16 0.00 0.00 0.00 35.14 0.00 7.21 0.00 0.00 Credit. DW Dist Gra Mar Mes Opn 1 1.11 39.18 15.50 0.29 0.00 30.18 4.15 3.43 2 18.96 1.02 0.87 7.40 4.36 37.80 6.15 37.80 6.16 37.80 6.17 30.18 10. 0.00 12.36 0.00 9.97 3.43 4 20.52 5.44 2.01 0.00 0.08 0.00 10.99 44.22 5 11.16 43.55 10.34 0.08 0.01 0.01 6 25.24 9.88 2.77 2.44 4.95 12.90 11.44 2.19 7 5.47 21.13 6.67 0.57 0.00 0.10 30.73 9.59 8 6.040.230. 0.00 0.00 5.72 9 0.85 1.97 0.09 33.52 0.00 5.58 1.73 0.84 10 18.97 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 19.16 3.53 0.00 1.28 21.65 4.13 12 6.67 3.89 0.31 13.63 0.00 0.00 20.56 0.00 13 21.40 2.38 2.01.40 2.30 2.60 2.30 46.96 14 42.62 9.36 1.49 3.89 0.43 3.61 20.79 5.80 15 33.32 12.90 4.17 4.09 0.15 3.96 12.350 4.50 4.50 1.36 0.00 0.59 0.00 9.71 بارگیری کتابخانه adehabitatHS (adehabitatHS) تست compana را روی مجموعه داده کامل (همه 8 ستون) fulldata.comp <- compana(used.m, avail.m) بررسی نتیجه fulldata.comp$test Lambda NaN 1 اکنون compana را روی داده های جزئی (ستون ها) اجرا می کند 1-7) partdata.comp <- compana(used.m[, 1:7], avail.m[, 1:7]) نتیجه را بررسی کنید partdata.comp$test Lambda P 0.3319731 0.6280000 | R: آزمون adehabitatHS compana - دریافت NaN برای لامبدای Wilk |
47420 | داشتم در مورد رگرسیون می خواندم. من یکی از نحوه توزیع واریانس هر $x_i$ را میدانم که باید عادی باشد، اما چرا این به $s_b$ مربوط نمیشود؟ به نظر می رسد که باید. داشتم مقاله هیئت کالج AP را در مورد استنتاج می خواندم. > دو فرض دیگر این است که خطاها به طور معمول توزیع شده اند و > آنها انحراف معیار یکسانی برای همه مقادیر x دارند. اگرچه اصلاً واضح نیست، اما این به این معنا نیست که بگوییم باقیمانده ها به طور عادی > توزیع شده اند و همه دارای انحراف معیار یکسانی هستند. تفاوت این است که خطاها انحرافات بین متغیرهای پاسخ و پدیده خطی واقعی زیربنایی (نامرئی) هستند، در حالی که > باقیمانده ها انحرافات بین متغیرهای پاسخ و خط رگرسیون حداقل مربعات هستند. ، که فقط تخمینی از خط > واقعی است. من میدانم (فکر میکنم) که فقط به این دلیل که خطای رگرسیون طبیعی است به این معنی نیست که واریانس $x_i$ طبیعی است زیرا نمونه میتواند به طور تصادفی از نرمال بودن پیروی کند. (نمی دانم که از نظر آماری درست است یا خیر)، اما اگر همه $x_i$ نرمال و واریانس برابر است، پس چرا آن واریانس با واریانسی که برای $\beta$ من بدست می آید برابر نیست. در اینجا چند پاسخ عالی دریافت کردم که بسیار واضح است و امیدوارم بتوانم پاسخ دیگری برای رفع سردرگمی خود دریافت کنم. هسته سوال من این است ** دقیقاً چه رابطه ای بین واریانس باقیمانده ها و $x_i$ وجود دارد و آیا ارتباطی با _error, variance_ $\beta$** | سوال در مورد رابطه بین واریانس باقیمانده و واریانس نقاط داده |
59916 | مقادیر پاسخ در مجموعه داده من (100 نقطه داده) همه اعداد صحیح مثبت هستند (نباید مقادیر منفی یا صفر باشند). من دو مدل آماری را توسعه دادهام: رگرسیون خطی (LR) و K نزدیکترین همسایه (KNN، 2 همسایه) با استفاده از مجموعه دادهها در R. روشهای R که من استفاده کردهام lm() و knn.reg() هستند. برای انتخاب بین این دو مدل، من آزمایش اعتبار متقاطع 10 برابری انجام دادم و ابتدا میانگین مربعات ریشه (RMSE) را محاسبه کردم. اگرچه مدل LR مقادیر پیشبینی منفی برای چندین نقطه داده آزمایشی میدهد، RMSE آن در مقایسه با KNN پایین است. وقتی مقادیر پیشبینی KNN را میبینم، مثبت هستند و برای من منطقی است که از KNN روی LR استفاده کنم اگرچه RMSE آن بالاتر است. علاوه بر این، وقتی از RMSE نرمال شده (http://en.wikipedia.org/wiki/Root-mean-square_deviation) استفاده کردم، KNN در مقایسه با LR NRMSE پایینی دارد. علاوه بر این، من می خواهم دقت پیش بینی مدل ها را به عنوان (100 - NRMSE) تعریف کنم زیرا به نظر می رسد می توانیم NRMSE را به عنوان درصد خطا در نظر بگیریم. لطفاً به من اطلاع دهید که روش فوق که دنبال می کنم خوب است یا خیر. متشکرم. | ریشه عادی شده میانگین مربع خطا (NRMSE) در مقابل ریشه میانگین مربع خطا (RMSE) |
109817 | در این مقاله، من یک رویکرد کاملاً جالب در مورد اندازهگیری سازگاری در دادههای نظرسنجی پیدا کردم (به شرطی که هر خط=مورد یک شرکتکننده را نشان دهد). با این حال، نمی توانم دقیقاً بفهمم که منظور از همبستگی درون فردی چیست. کسی میتونه کمک کنه لطفا؟ > شاخص های سازگاری را می توان با بررسی تفاوت در دو مورد > که از نظر محتوایی بسیار مشابه هستند، تشکیل داد. گلدبرگ، 2000 (به نقل از جانسون و همکاران، > 2005) روشی به نام متضادهای روانسنجی را پیشنهاد کرد که در آن همبستگیها در بین تمام موارد نظرسنجی پس از گذر محاسبه میشوند و 30 جفت آیتم با بیشترین همبستگی منفی شناسایی میشوند. شاخص متضادهای روانسنجی > سپس **به عنوان همبستگی درون فردی در بین این سی > جفت مورد** محاسبه میشود. تفسیر من به شرح زیر است: اول، من مشخص می کنم که کدام متغیرها در یک نمونه دارای همبستگی شدید (منفی) هستند (بر اساس داده های همه شرکت کنندگان). دوم، برای هر شرکتکننده منفرد (n): مقادیر خاص این جفتها را از آن شرکتکننده منفرد میگیرم، آنها را در یک جدول جداگانه یادداشت میکنم (دو به دو) و سپس یک همبستگی را روی این دو ستون محاسبه میکنم. این بدان معنی است که من n جدول جدید و n همبستگی جدید ایجاد می کنم. درسته یا دارم اشتباه میکنم؟ خیلی ممنون برای کمک. | همبستگی خط داخلی (ثبات) |
7721 | با سلام. من باید تجزیه و تحلیل داده های بیولوژیکی با ابعاد بالا را انجام دهم، جایی که داده های من به راحتی می توانند در صدها هزار بعد وجود داشته باشند. من به دنبال پیاده سازی رگرسیون لجستیک چند جمله ای هستم که به خوبی به داده هایی با این اندازه مقیاس شود. در حالت ایده آل، باید به من اجازه دهد که رگرسیون های Ridge و Lasso را نیز انجام دهم. از کدام نرم افزار باید استفاده کنم؟ با تشکر اندی | پیاده سازی رگرسیون چند جمله ای مقیاس پذیر |
76124 | یافتن تابع چگالی احتمال شرطی (pdf) $Z$ با توجه به $X=x$ که در آن $Z=X+Y$ و $X$ و $Y$ متغیرهای تصادفی عادی مستقل هستند. به طور ساده $Z$ عادی است. اما $Z$ و $X$ مستقل نیستند. وقتی میانگین ها و واریانس های $X$ و $Y$ داده می شوند، چگونه می توانم پی دی اف مشروط $Z$ را با توجه به $X=x$ دریافت کنم؟ من سعی کردم با استفاده از تعریف pdf متغیر تصادفی معمولی محاسبه کنم، اما خیلی درهم بود. هیچ اشاره ای برای آن وجود دارد؟ | یافتن pdf شرطی $Z$ با توجه به $X=x$ که در آن $Z=X+Y$ |
31648 | من به این کتاب اشاره می کردم که در آن آمده است که اگر گره های $i$ را با فاصله مساوی برای $i=1,...,n$ فرض کنیم. اولین مرتبه پیاده روی تصادفی با استفاده از افزایش مستقل $$ \Delta{x_i} \sim N(0,k^{-1}), \ \ \ \ \ \ i=1,...,n-1 $$ ساخته شده است چگالی $${\bf{x}}=(x_1,x_2...x_n)'$$ از افزایش $n-1$ به عنوان $$ مشتق شده است \pi({\bf{x}}|k) = k^{(n-1)/2} \cdot \exp \left(-k/2 \cdot \sum_{i=1}^{n-1 }\Delta{(x_i)^2}\right) $$ من متوجه نشدم که چگالی $x$ چگونه به صورت افزایش نشان داده شده است. منظورم این است که چگونه میتوانیم از افزایشها برای نشان دادن چگالی استفاده کنیم که چگونه با هم مرتبط هستند یا میتوان در چگالی x$ استفاده کرد. | سردرگمی در مورد مدل پیاده روی تصادفی |
76123 | من یک سری زمانی انتظار برای 10 روز هفته (2 هفته) با فواصل 10 دقیقه دارم. من برای تفسیر این موضوع مشکل دارم؟ آیا این ثابت است؟ من همچنین از تست ریشه واحد فیلیپس پرون استفاده کردم و مقادیر زیر را دریافت کردم. هر کمکی قابل تقدیر است. Dickey-Fuller = -8.4726، پارامتر تاخیر کوتاهی = 5، p-value = 0.01  | آیا این یک سری زمانی ثابت است؟ |
7720 | من با R، رگرسیون لجستیک مرتب شده و «polr» تازه کار هستم. بخش «نمونهها» در پایین صفحه راهنما برای polr (که با یک مدل رگرسیون لجستیک یا پروبیت متناسب با یک پاسخ عامل مرتب شده است) گزینهها را نشان میدهد (contrasts = c(contr.treatment, contr.poly)) خانه .plr <- polr(Sat ~ Infl + Type + Cont، وزن = فرکانس، داده = مسکن) pr <- profile(house.plr) plot(pr) pairs(pr) * pr حاوی چه اطلاعاتی است؟ صفحه راهنما در نمایه عمومی است و هیچ راهنمایی برای polr ارائه نمی دهد. * Plot(pr) چه چیزی را نشان می دهد؟ من شش نمودار را می بینم. هر یک دارای یک محور X است که عددی است، اگرچه برچسب یک متغیر شاخص است (به نظر می رسد یک متغیر ورودی است که نشانگر یک مقدار ترتیبی است). سپس محور Y tau است که کاملاً غیرقابل توضیح است. * جفت (pr) چه چیزی را نشان می دهد؟ به نظر می رسد یک نمودار برای هر جفت متغیر ورودی باشد، اما باز هم هیچ توضیحی در مورد محورهای X یا Y نمی بینم. * چگونه می توان فهمید که آیا مدل تناسب خوبی داشته است؟ `summary(house.plr)` انحراف باقیمانده 3479.149 و AIC (معیار اطلاعات Akaike؟) 3495.149 را نشان می دهد. آیا این خوب است؟ در صورتی که این معیارها فقط به عنوان معیارهای نسبی مفید هستند (یعنی برای مقایسه با تناسب مدل دیگر)، یک معیار مطلق خوب چیست؟ آیا انحراف باقیمانده تقریباً مجذور کای توزیع شده است؟ آیا می توان از % به درستی پیش بینی شده در داده های اصلی یا برخی از اعتبارسنجی متقابل استفاده کرد؟ ساده ترین راه برای انجام آن چیست؟ * چگونه می توان «anova» را در این مدل اعمال و تفسیر کرد؟ اسناد می گویند روش هایی برای توابع استاندارد برازش مدل، از جمله پیش بینی، خلاصه، vcov، anova وجود دارد. با این حال، اجرای «anova(house.plr)» به این نتیجه میرسد که «anova برای یک شی «polr» اجرا نمیشود.» * چگونه میتوان مقادیر t را برای هر ضریب تفسیر کرد؟ برخلاف برخی از مدلها، هیچ مقدار P در اینجا وجود ندارد. من متوجه شدم که این سؤالات زیادی است، اما منطقی است که به جای 7 سؤال مختلف، در یک بسته بپرسم (چگونه از این چیز استفاده کنم؟ هر گونه اطلاعات قدردانی می شود. | چگونه خروجی تابع polr R (رگرسیون لجستیک مرتب شده) را درک کنیم؟ |
59910 | ویکیپدیا میگوید > روشهایی که بر **آزمایش همهجانبه** قبل از اقدام به **مقایسههای چندگانه** متکی هستند. معمولاً این روشها قبل از انجام مقایسههای چندگانه نیاز به یک آزمون ANOVA/Tukey's > محدوده دارند. این روش ها دارای > کنترل ضعیف خطای نوع I هستند. همچنین > آزمون F در ANOVA نمونه ای از آزمون همه گیر است که اهمیت > کلی مدل را آزمایش می کند. آزمون F معنیدار به این معنی است که در میان میانگینهای > مورد آزمایش، حداقل دو مورد از میانگینها به طور معنیداری متفاوت هستند، اما > این نتیجه دقیقاً مشخص نمیکند که چه میانگینهایی با > دیگری متفاوت است. در واقع، تفاوت میانگینهای آزمایش با آماره F درجه دوم > منطقی (F=MSB/MSW) ایجاد شده است. به منظور تعیین اینکه کدام میانگین با میانگین دیگر متفاوت است یا کدام تضاد میانگین ها به طور قابل توجهی متفاوت است، > آزمون های تعقیبی (آزمون های مقایسه چندگانه) یا آزمون های برنامه ریزی شده باید > پس از به دست آوردن یک آزمون omnibus F قابل توجه انجام شوند. ممکن است استفاده از اصلاح ساده بونفرونی یا سایر اصلاحات مناسب در نظر گرفته شود. بنابراین از یک آزمون همهگیر برای آزمایش اهمیت کلی استفاده میشود، در حالی که مقایسه چندگانه برای یافتن تفاوتها معنادار است. اما اگر به درستی متوجه شده باشم، هدف اصلی از مقایسه چندگانه، آزمایش اهمیت کلی است و همچنین میتواند متوجه شود که کدام تفاوتها قابل توجه هستند. به عبارت دیگر، مقایسه چندگانه می تواند کاری را انجام دهد که یک omnibus می تواند انجام دهد. پس چرا ما به یک تست omnibus نیاز داریم؟ با تشکر و احترام! | رابطه بین تست همهگیر و مقایسه چندگانه؟ |
109814 | من با شما تماس می گیرم زیرا مورد من خاص است و چیز زیادی در مورد GLMM نمی دانم. من دادههای شبکههای اجتماعی (متریکهای شبکه) یک گونه نخستیهای غیرانسانی را دارم. این داده ها طبیعتاً مستقل نیستند (رفتار بین A و B می تواند بر رفتار C تأثیر بگذارد). من همچنین دارای ویژگی های فردی (جنسیت، سن، خویشاوندی و رتبه سلسله مراتبی) هستم. من می خواهم تأثیر ویژگی های فردی را بر معیارهای شبکه آزمایش کنم. برای این منظور باید عدم استقلال داده ها را در نظر بگیرم (من می توانم فیلتر کردن پیوند یا آزمایش جایگشت را انجام دهم اما در حال تلاش برای چیز جدیدی هستم). من به انجام یک مدل مختلط خطی عمومی (GLMM) فکر می کردم که شامل افراد به عنوان عوامل تصادفی می شود. من می بینم که این تجزیه و تحلیل می تواند عدم استقلال داده ها را در نظر بگیرد، اما من این آزمون را فقط برای معیارهای چندگانه روی افراد یکسان می بینم (که نوع دیگری از عدم استقلال است) و نه برای یک معیار روی افراد. آیا فکر می کنید حتی اگر این همان نوع داده های غیر استقلالی نباشد GLMM می تواند نوع داده های من را حساب کند؟ با احترام | GLMM برای داده های SNA و غیر استقلالی |
112763 | من مقاله کمند گروهی انتخاب مدل و تخمین در رگرسیون با متغیرهای گروه بندی شده را مطالعه کرده ام. http://www.stat.washington.edu/courses/stat527/s13/readings/yuanlin07.pdf در صفحه 53 مقاله فوق، من نمی دانم چگونه Eqn 2.3 را بدست بیاورم و Eqn را استخراج کنم. 2.4` از `Eqn. 2.2`:  موارد زیر مشتق من است، از «Eqn. 2.2`: $$ -X_j^TY+X_j^TX_j\beta_j+\sum_{i\neq j}X_j^TX_i\beta_i + \frac{\lambda \beta_j \sqrt{p_j}}{\|\beta_j\|} =0 $$ سپس، $$ \left (X_j^TX_j+\frac{\lambda) داریم \sqrt{p_j}}{\|\beta_j\|} \right)\beta_j=X_j^T(Y-\sum_{i\neq j}X_i^T\beta_i)=S_j $$ بنابراین، $$ \beta_j ={\left( X_j^TX_j+\frac{\lambda\sqrt{p_j}}{\|\beta_j\|} \right)}^{-1}S_j $$ نتیجه بالا کمی تفاوت با `Eqn دارد. 2.4` در مقاله. لطفاً بفرمایید اشتقاق من چه اشکالی دارد؟ علاوه بر این، در سند دیگری http://statweb.stanford.edu/~tibs/ftp/sparse-grlasso.pdf، نتیجه زیر نیز متفاوت است.  **به روز شد:** بله! مشکل اول حل شد. $$ S_j=X_j^T(Y-X\beta_{-j})=X_j^Tr_j $$ سپس، $$ \|\beta_j\|=\|S_j\|{\left( 1+\frac{\lambda\ sqrt{p_j}}{\|\beta_j\|} \right)}^{-1} $$ سپس، میتوانیم $$ دریافت کنیم \|\beta_j\|=\|S_j\|-\lambda\sqrt{p_j} $$ سپس دوباره در فرمول بالا جایگزین کنید، سپس $$ \beta_j={\left( 1-\frac{\ را دریافت می کنیم lambda\sqrt{p_j}}{\|S_j\|} \right)}S_j $$ اما، $+$ در فرمول بالا کجاست؟ | درباره اشتقاق گروه Lasso |
59912 | بنابراین من اغلب خودآزمایی های کمی انجام می دهم که در آن چیزها را کور و تصادفی می کنم. اینها را میتوان بهعنوان آزمونهای _t_ معمولی شما فرمولبندی کرد، اما گاهی اوقات معیارهای اندازهگیری شده دارای خطوط پایه گستردهای هستند که به نظر میرسد میتوان از آنها برای پاسخهای دقیقتر استفاده کرد. مجموعه ای از مطالعه بر روی طرح های _n_-of-1 و تک موضوعی نشان می دهد که افراد برای تجزیه و تحلیل چنین تنظیماتی به سمت مدل های ترکیبی/سلسله مراتبی/چندسطحی حرکت کرده اند (مثلا نلسون 2012 مدل سازی خطی سلسله مراتبی در مقابل تجزیه و تحلیل بصری داده های طرح موضوع واحد یا تجمیع نتایج تک موردی با استفاده از مدل های خطی سلسله مراتبی). همانطور که من درک می کنم، ایده این است که داده های آزمودنی را به آزمایش در مقایسه با پایه تقسیم کنیم و آنها را به عنوان گروه ها در نظر بگیریم. من سعی میکنم بفهمم که این با آزمایش اخیر چقدر معقول است، بنابراین امیدوارم کسی بتواند به این نکته اشاره کند که آیا در استفاده از «lmer» در اینجا اشتباه میکنم. * * * ما با یک مدل خطی منظم شروع می کنیم که داده های تجربی را بررسی می کند (تغییر پاسخ در مقابل متغیرهای مداخله عددی) و فاز خط پایه گسترده قبل، حین و بعد از آزمایش را نادیده می گیرد: R> آزمایش <- read.csv(http://dl.dropboxusercontent.com/u/85192141/data.csv) R> summary(lm(Response ~ Intervention, data=experiment)) ... باقیمانده ها: Min 1Q Median 3Q Max -1.0156 -0.8889 -0.0156 0.1111 1.1111 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 3.0156 0.0889 33.9 <2e-16 مداخله -0.1267 0.1262 -1.0 0.32 خطای استاندارد باقیمانده: 0.711 در 125 درجه آزادی: 145 فقدان چندگانه R) 0.008، R-squared تعدیل شده: 6.73e-05 F-آمار: 1.01 در 1 و 125 DF، p-value: 0.317 R> confint(lm(پاسخ ~ مداخله، داده = آزمایش)) 2.5 % 939.5 % (در 97.5 %) 3.192 مداخله -0.3765 0.123 ضریب برآورد شده از نظر آماری معنی دار نیست: -0.38-0.12. اما قطعاً به سمت منفی بودن متمایل است. بنابراین این مورد محافظه کارانه است، که در آن ما خط پایه را به طور کامل نادیده می گیریم. حالت خوشبینانه چیست؟ خوب، به نظر من حالت خوش بینانه زمانی است که کل خط پایه را در نظر بگیریم و فرض کنیم که دقیقاً مشابه مداخله 'off'/0 در آزمایش است، در این صورت ما یک CI باریک تر به دست می آوریم (زیرا برآورد ما از intercept خطای استاندارد خود را نصف کرده است: R> experience$Intervention[is.na(experiment$Intervention)] <- 0 R> summary(lm(Response ~ Intervention, data=experiment)) ... باقیمانده ها: Min 1Q Median 3Q Max -1.9924 -0.8889 0.0076 1.0076 1.1111 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 2.9924 0.0375 79.88 <2e-16 مداخله -0.1036 0.1012 -1.02 0.31 خطای استاندارد باقیمانده: 0.746 در 458 درجه آزادی: Ad20 چندگانه R. R-squared: 0.000101 F-آمار: 1.05 در 1 و 458 DF، p-value: 0.307 R> confint(lm(پاسخ ~ مداخله، داده=آزمایش)) 2.5 % 97.5 % (Intervention) 2.305608 - 2.307 0.09538 به -0.30-0.10 کاهش یافته است. هنوز از نظر آماری معنادار نیست، اما نزدیکتر است. به نظر من یک مدل سلسله مراتبی باید یک واسط CI بین موارد بدبینانه و خوش بینانه ایجاد کند: این مدل مقداری قدرت را از دست می دهد زیرا قبل از انجام هر ترکیبی تخمین می زند که دو فاز چقدر متفاوت هستند. این مدل چند سطحی من است که بین فازهای پایه و آزمایشی تقسیم شده است: آزمایش کتابخانه (lme4) <- read.csv(http://dl.dropboxusercontent.com/u/85192141/data.csv) آزمایش$Phase <- ifelse (is.na(experiment$Intervention), TRUE, FALSE) مدل <- lmer(Response ~ مداخله + (1|فاز), داده=آزمایش); خلاصه (مدل) ... AIC BIC logLik انحراف REMLdev 286 297 -139 273 278 اثرات تصادفی: نام گروه ها Variance Std.Dev. Phase (Intercept) 0.0106 0.103 Residual 0.5057 0.711 تعداد obs: 127، گروه ها: Phase، 1 اثرات ثابت: Estimate Std. مقدار خطای t (Intercept) 3.016 0.136 22.2 مداخله -0.127 0.126 -1.0 همبستگی اثرات ثابت: (Intr) Interventin -0.461 m <- mcmcsamp((lmer(پاسخ ~ مداخله)، (1=Pervention) n = 100000) HPDinterval(m, prob=0.95)$ fixef low upper (Intercept) -45.3107 56.6558 مداخله -0.3742 0.1191 CI تخمینی دقیقاً در وسط ظاهر می شود، همانطور که انتظار می رود: 1. بدبینانه -0.38 0.12 - 0.12 -10.7 hier -0.30 0.10 بنابراین، سوال اساسی من این است: آیا این یک رویکرد عاقلانه است؟ این پاسخ هایی است که به طور شهودی درست به نظر می رسند، اما ممکن است این فقط یک تصادف باشد. * * * اتفاقاً یک مایل | مدل ترکیبی/سلسله مراتبی/چندسطحی برای طراحی n-از-1/تک موضوع: شامل داده های پایه؟ |
31645 | من با اجرای یک CFA چند گروهی در Mplus برای پایان نامه خود بر اساس مدل 4 عاملی مقیاس افسردگی همیلتون (21 مورد) با مشکل مواجه هستم. مجموعه داده من شامل 4 متغیر سانسور شده سمت چپ است که فکر می کنم ممکن است مشکل باشد. پس از اینکه CFA اصلی به طور معمول خروجی نداشت، من آنالیز را دوباره اجرا کردم که تعداد تکرارها را افزایش داد، همانطور که توسط Mplus توصیه شده است، اما در Miterations = 2000 خروجی بیان می کند. احتمال منطقی در آخرین تکرار EM کاهش یافته است. مدل، مقادیر شروع و/یا تعداد نقاط ادغام خود را تغییر دهید. تخمین مدل به دلیل یک خطا در محاسبات به طور معمول خاتمه نمی یابد. مدل و/یا مقادیر شروع خود را تغییر دهید. من نمی دانم در آینده چه کاری می توانم انجام دهم، هر توصیه ای با سپاس پذیرفته می شود. | مشکل با CFA چند گروهی با متغیرهای سانسور شده با استفاده از Mplus |
76127 | من داده هایی از Google Trends و مرکز کنترل بیماری دارم که می خواهم آنها را با هم مقایسه کنم. من از تجزیه و تحلیل رگرسیون از اکسل برای یافتن منحنی بهترین تناسب استفاده کردم. داده های اصلی به این شکل است:  مدل سازی کامل آن با استفاده از اکسل غیرممکن بود، بنابراین آن را به دو قسمت تقسیم کردم و منحنی بهترین تناسب را برای آن دو پیدا کرد.  هدف این است که این داده ها را با نمودار دیگری که با Google Trends ساخته ام مقایسه کنید (همان فرآیند، تجزیه آن و رگرسیون) و ارزیابی کنید که استفاده از پرسشهای موتورهای جستجو برای پیشبینی فصل آنفولانزا تا چه حد دقیق است. اگر بخواهم نمودار مشتق داده های اصلی را پیدا کنم تا به نرخ های تغییر نگاه کنم، آیا می توانم مشتقات دو تابع کوچکتر را بگیرم و آنها را با هم کامپایل کنم؟ | برای مقایسه نمودارها به کمک نیاز دارید |
100432 | معمولاً از روش مونت کارلو برای محاسبه ادغام استفاده می شود. برای مثال، اجازه دهید $g(x,\theta)$ یک تابع پیوسته در مورد $x$ و $\theta$ باشد، $f(x \mid \theta)$ یک pdf پیوسته با پارامتر $\theta$ است. اگر انتگرال $E[g(x,\theta)]=\int g(x,\theta)f(x\mid \theta)dx$ شکل بسته نداشته باشد. سپس می توانیم از تقریب مونت کارلو $E[g(x,\theta)] \approx \frac{1}{m}\sum_{l=1}^m g(X_i,\theta)$ استفاده کنیم که در آن $X_1,\ نقطه، X_m$ یک نمونه تصادفی از توزیع $f(x \mid \theta)$ است. طبق قانون اعداد بزرگ، $\frac{1}{m}\sum_{l=1}^m g(X_i,\theta)$ به احتمال $E[g(x,\theta)]$ برای هر $ همگرا می شود \theta \در \Theta$. آیا قضیه ای در مورد همگرایی یکنواخت تقریب مونت کارلو داریم؟ منظورم این است که تحت چه شرایطی، $\sup\limits_{\theta\in\Theta} \left\| داریم. \frac1n\sum_{i=1}^n g(X_i،\theta) - \operatorname{E}[g(X,\theta)] \right\| \xrightarrow \ 0$ a.s. یا به احتمال زیاد فضای پارامتر $\Theta$ را فشرده فرض کنید | همگرایی یکنواخت تقریب مونت کارلو |
112766 | من یک نمودار در D3 ایجاد می کنم که حالت را از یک مجموعه داده بزرگ (1mil +) نشان می دهد. و آن را با توجه به انحراف استاندارد مجموعه داده رنگ می کند. اما مسئله این است که من باید محدوده (رنگ قرمز به رنگ سبز) را به یک دامنه ثابت نگاشت کنم. آیا معیاری وجود دارد که به نمایش اطلاعات در مورد انحراف داده ها در مقیاس ثابت (0-1؛ -1-to1؛ 0-100 و غیره) کمک کند؟ | نمایش انحراف داده ها در مقیاس ثابت |
47425 | ویکیپدیا میگوید > در آمار، آزمون کولموگروف-اسمیرنوف (آزمون K-S) یک آزمون ناپارامتریک برای برابری توزیعهای احتمال پیوسته و یک بعدی است که میتواند برای مقایسه یک نمونه با یک مرجع > توزیع احتمال (یک) استفاده شود. -آزمون K-S نمونه)، یا برای مقایسه دو نمونه > (آزمون K-S دو نمونه). آماره کولموگروف-اسمیرنوف یک > فاصله بین تابع توزیع تجربی نمونه و > تابع توزیع تجمعی توزیع مرجع، یا بین > > توابع توزیع تجربی دو نمونه را کمیت میکند. توزیع صفر > این آمار با این فرضیه صفر محاسبه می شود که نمونه ها > از یک توزیع (در حالت دو نمونه ای) گرفته شده اند یا > نمونه از توزیع مرجع (در مورد یک نمونه) گرفته شده است. . در > هر مورد، توزیع های در نظر گرفته شده تحت فرض صفر > توزیع های پیوسته هستند اما در غیر این صورت نامحدود هستند. آیا نسخهای از KS وجود دارد که بتوان آن را برای دادههای تابلویی به کار برد، یعنی جایی که مشخص است مشاهدات مستقل نیستند - همان افراد در طول زمان اندازهگیری میشوند. PS. من به دنبال مقایسه توزیع دو گروه از افراد (بقا و مرگ) هستم، اگرچه چندین اندازه گیری برای افراد فردی در طول زمان دارم... با تشکر ویرایش: صفحه مفید بالقوه http://www.itl.nist.gov/div898 /handbook/eda/section3/eda35g.htm | آیا تست KS برای داده های تابلویی وجود دارد؟ |
47423 | من میخواهم دادههای پیوسته b/w (سن) و دادههای دوگانه (عوارض: بله/خیر) را با تصحیح برای یک متغیر ترتیبی (ضایعات عصب حین عمل) مطالعه کنم. من یک پایگاه داده از 427 بیمار دارم که 50 نفر از آنها دچار عارضه بعد از عمل (تغییر حس) شده اند. هدف از این پژوهش، تحلیل تأثیر «سن در حین عمل» بر احتمال عارضه «احساس تغییر یافته» پس از عمل است. ضایعات عصب حین عمل نمره گذاری شد (0/1/2/3/4/5) و یک عامل وارداتی موثر بر احساس تغییر یافته است. پس این باید در تحلیل لحاظ شود. امیدوارم کسی بتواند در این تحلیل در SPSS به من کمک کند. | داده های پیوسته را با داده های دوگانه، با تصحیح برای یک متغیر ترتیبی مرتبط می کنیم؟ |
31641 | من می خواهم با استفاده از شبکه های عصبی یک پیش بینی آب و هوا ایجاد کنم. تمام نمونه هایی که دیدم فقط از مقادیر [-1,1] به عنوان ورودی استفاده می کردند. آیا می توان از مقادیر بزرگتر (مثل فشار هوا، درجه کلسیم چند روز اخیر و...) به عنوان ورودی استفاده کرد و یک عدد را به عنوان خروجی گرفت؟ متشکرم | آیا ورودی های یک شبکه عصبی باید در [-1،1] باشد؟ |
59918 | من باید یک نمودار مانند تصویر زیر ایجاد کنم. ایده این است که من سه گروه داده با 5 تکرار در دو گروه اول و 3 تکرار در گروه آخر دارم. من باید برای هر گروه یک منحنی رگرسیون بدست بیاورم و مانند تصویر زیر آن را به میانگین و SD برای هر گروه پیوند دهم. من تصمیم گرفتم تجزیه و تحلیل را در R انجام دهم. من میتوانم مدلها را دریافت کنم، اما درباره نحوه پیوند دادن آن به میانگین و SD در هر گروه، اطلاعی ندارم. اگر هر یک از شما آموزش، مثال یا کدی دارد که می تواند کمک کند، واقعاً متشکریم.  پیشاپیش متشکرم. | رگرسیون غیر خطی، میانگین نمودار، SE در R |
47426 | من در مورد این که از کدام بسته R برای ایجاد یک مدل کلاس/مخلوط پنهان با متغیرهای شاخص طبقه بندی و پیوسته استفاده کنم، سوال دارم. من هنوز نمونه خوبی از این با استفاده از R پیدا نکرده ام، حتی اگر بسته های تجزیه و تحلیل کلاس های مخفی و مخلوط زیادی در R وجود دارد. بسته نرم افزاری Mplus این قابلیت را دارد و در وب سایت UCLA نمونه ای از نحوه ایجاد چنین مواردی وجود دارد. یک مدل با Mplus (http://www.ats.ucla.edu/stat/mplus/seminars/introMplus_part2/lca.htm/ مثال دوم). تنها راهی که من توانستم این مثال را در R تکرار کنم استفاده از بسته depmixS4 است. با استفاده از کد زیر: library(depmixS4) lca<-read.table(http://www.ats.ucla.edu/stat/mplus/seminars/introMplus_part2/lca.dat, sep=,) names( lca)<-c( hm، he، voc، nocol، ach9، ach10، ach11، ach12) mod <- mix(list(hm~1,he~1,voc~1,nocol~1,ach9~1,ach10~1,ach11~1,ach12~1, data=lca, nstates=2, family=list (چند جمله ای ()،چند جمله ای()،چند جمله ای()،چند جمله ای()،گاوسی()،گاوسی()،گاوسی()،گاوسی())، respstart=runif(32)) fmod<-fit(mod) summary(fmod) به نظر می رسد این کد کار تکرار مثال را با برخی تفاوت های جزئی بین خروجی در نوع depmixS4 و Mplus انجام می دهد. **اول**، آیا این کد برای بازتولید مثال Mplus صحیح است؟ **دوم**، آیا کسی بسته دیگری دارد که هنگام ایجاد این نوع مدل در R توصیه کند؟ | مدل کلاس نهفته با هر دو شاخص پیوسته و طبقه بندی شده در R |
76125 | فرض کنید من یک سری زمانی با نقاط داده $2\times 10^8$ دارم. یک نوع رویداد نادر در هر نقطه زمانی با احتمال برابر و بسیار کم $1\ برابر 10^{-8}$ اتفاق میافتد. آیا کسی می تواند به من بگوید چگونه می توانم این کار را انجام دهم؟ | نحوه شبیه سازی وقایع نادر با احتمال بسیار کم |
115232 | فرض کنید $Y$ یک متغیر تصادفی مخلوط باشد که $\text{Normal}(\mu_1, \sigma_1^2)$ با احتمال $p$ و $\text{Normal}(\mu_2, \sigma_2^2)$ توزیع میشود. با احتمال $1-p$. آیا می توانم $p$ و همچنین $\mu_1، \mu_2، \sigma_1^2، \sigma_2^2$ را از یک نمونه تصادفی تخمین بزنم؟ چگونه؟ | برنولی و متغیر تصادفی نرمال |
115236 | من یک طبقهبندیکننده مبتنی بر قانون دارم و مطمئناً میدانم که میتوانم دادههایم را در تعدادی N کلاس طبقهبندی کنم. و همچنین یک فرهنگ لغت کوچک دارم که در آن قوانین من (در طول فرآیند طبقه بندی) برای هر مشاهده تکرار شده بررسی می شود. آیا این یک طبقه بندی نیمه نظارتی است؟ اگر فرهنگ لغت به صورت دستی و از یک فرآیند تنظیم شده ساخته شده باشد، آیا این فرهنگ لغت یک مجموعه آموزشی محسوب می شود؟ | آیا این یک مورد طبقه بندی نیمه نظارتی است؟ |
34169 | من یک مبتدی در آمار هستم و می خواهم یکی از الزامات آزمون کای اسکوئر را درک کنم. این است که متغیر تصادفی اندازه گیری شده باید از توزیع نرمال پیروی کند. سوال من این است که اگر متغیرهای تصادفی که اندازه میگیرم از توزیع نرمال پیروی نکنند، از چه مدلهای دیگری باید استفاده کنم؟ این مشابه نحوه استفاده از آزمون Student-t به جای Standard Normal برای یک نمونه کوچک است، آیا معادلی برای آزمون chi-square برای یک نمونه کوچک وجود دارد؟ | آزمون مجذور کای بر روی توزیع های غیر نرمال |
34165 | اجازه دهید $\Lambda \sim \mathcal W_D(\nu، \Psi)$، یعنی بر اساس توزیع بعدی Wishart $D \times D$ با میانگین $\nu \Psi$ و درجه آزادی $\nu$ توزیع شود. من یک عبارت برای $E(\log |\Lambda|)$ می خواهم که در آن $|\Lambda|$ تعیین کننده است. من کمی برای پاسخ به این در گوگل جستجو کردم و اطلاعات متناقضی به دست آوردم. این مقاله به صراحت بیان می کند که $$ E(\log|\Lambda|) = D \log 2 + \log |\Psi| + \sum_{i = 1} ^ D \psi\left(\frac{\nu - i + 1} 2\right) $$ که در آن $\psi(\cdot)$ نشان دهنده تابع دوگام $\frac d {dx است. } \log \Gamma(x)$; تا آنجا که من می توانم بگویم این مقاله منبعی برای این واقعیت ارائه نمی دهد. این همچنین فرمولی است که در صفحه ویکیپدیا برای Wishart استفاده میشود، که متن تشخیص الگوی Bishop را سایت میکند. از سوی دیگر، گوگل این بحث را با یک مقاله پیوندی نشان داد که نشان میدهد $$ \nu^D \frac{|\Lambda|}{|\Psi|} \sim \chi^2_\nu \chi^2_{ \nu - 1} \cdots\chi^2_{\nu - D + 1}. \qquad (\ خنجر) $$ آنها با بیان اینکه $$ E(\log | \Lambda|) = D \log 2 - D \log \nu + \log |\Psi| + \sum_{i = 1} ^ D \psi\left(\frac{\nu - i + 1} 2\right) $$ که با استفاده از این واقعیت مشتق شده است که $E(\log \chi^2_\nu) = \log(2) + \psi(\nu /2)$. من این محاسبه را با شروع از $(\dagger)$ بررسی کردم و به نظر خوب است، اما ما یک $-D\log\nu$ اضافی داریم. | مقدار مورد انتظار log-determinant یک ماتریس Wishart |
78328 | من نسبتاً تازه وارد این سایت هستم. من در حال حاضر مشغول انجام برخی کارهای تحقیقاتی هستم که شامل استفاده از مدل اثر مختلط غیرخطی بر روی داده های طولی (R) می شود. من در حال حاضر از کتاب Pinheiro و Bates، _Mixed-Effects Models در S و S-PLUS_، با بسته nlme استفاده می کنم. منظور من از غیر خطی، توابع غیر خطی متغیرهای مستقل با پاسخ های نرمال است. من هنوز با آمار مبتدی هستم و درک تئوریک موضوع در کتاب فوق را بسیار دلهره آور می دانم. میخواستم بدانم که آیا منابع دیگری (از جمله کتابها) «آسانتر برای هضم» وجود دارد تا سعی کنم با این نظریه کنار بیایم. من می دانم که چگونه از آن در R استفاده کنم، اما هنوز متوجه می شوم که برخی از مفاهیم اساسی و شکاف در دانش من وجود دارد. | تئوری پشت مدلهای اثر مختلط غیرخطی |
34163 | من می دانم چگونه شباهت ژنتیکی بین ژنوتیپ ها را محاسبه کنم، اما نمی دانم چگونه شباهت ژنتیکی بین گروه ها را محاسبه کنم. از تجزیه و تحلیل خوشه ای، هفت گروه را پیدا کردم. اکنون باید شباهت ژنتیکی این گروه ها را محاسبه کنم. چگونه باید این کار را انجام دهم؟ | چگونه می توانم شباهت های ژنتیکی بین گروه ها را محاسبه کنم؟ |
72565 | متغیرهای وابسته (ترتیبی): رتبه اعتباری 1970 (cr70) و رتبه اعتباری 1980 (cr80). این چیزی است که می خواهم انجام دهم: رگرسیون cr80-cr70 = vars مستقل. چگونه می توان این کار را انجام داد و چگونه می توانید آن را تفسیر کنید!؟ اگر متغیر وابسته پیوسته باشد ساده خواهد بود. اما آیا می توانید یک var جدید از تفاوت دو متغیر ترتیبی بسازید و آیا آن var وابسته است؟ | تغییر در متغیر دسته |
32120 | فرض کنید فهرستی از اعداد مربوطه (به عنوان مثال حداکثر درآمد برای سال های مختلف) داریم. اگر ارقام پیشرو 1 دلار برای همه سالها باشد، آیا میتوانیم بگوییم که به طور پیش پاافتاده حداکثر درآمد مطابق قانون بنفورد است؟ | اگر رایج ترین رقم اول یک باشد، آیا قانون بنفورد راضی است؟ |
115239 | چگونه می توانم (1) دو مدل خطی را بین سال ها مقایسه کنم و (2) آیا می توانم 2 مدل را با متغیرهای پاسخ متفاوت مقایسه کنم؟ داده های من دارای 4 متغیر است: y_meas، x، year، y_calc. y_meas یک متغیر پاسخ اندازه گیری شده در آزمایشگاه است و y_calc تخمینی از همان متغیر با استفاده از یک محاسبه استاندارد است. x یک دوز، مشابه (ish) بین دو سال است: #create database set.seed(100) dat <- inside(data.frame(x = rep(1:10, times=2)), { year < - rep(1990:1991، هر = 10) y_meas <- 0.5 * x* (1:20) + rnorm(20) y_calc <- 0.3 * x* (1:20) + rnorm(20) سال <- factor(year) # تبدیل به ضریب } ) من دو سوال مرتبط دارم: (1) آیا تفاوتی بین شیب/برق مدل ها برای سال 1990 و 1991؟ m.1990<-lm(y_meas~x, data=subset(dat, year==1990)) m.1991<-lm(y_meas~x, data=subset(dat, year==1991)) anova(m. 1990) anova (m.1991) # هر دو مدل قابل توجه هستند من نمی توانم اجرا کنم 'anova(m.1990,m.1991)' زیرا مدل ها تو در تو نیستند؟ آیا باید از سال به عنوان یک متغیر ساختگی استفاده کنم و ANCOVA را اجرا کنم؟ این چه شکلی است (تقریباً)؟ (2) با فرض اینکه بتوانم 1990 و 1991 را ترکیب کنم، آیا می توانم شیب/برق 'y_meas~x' و 'y_calc~x' را مقایسه کنم؟ بله، دو متغیر پاسخ متفاوت، اما در یک مقیاس هستند. | مقایسه مدل های رگرسیون خطی (متغیر پاسخ یکسان و متفاوت) |
108143 | من در حال حاضر با مدل تغییر نهفته ای که سعی می کنم در R با بسته lavaan محقق کنم، دست و پنجه نرم می کنم. R نمی تواند تمام خطاهای استاندارد را تخمین بزند، که باعث می شود باور کنم که مدل به طور کامل شناسایی نشده است. من با مدل حالت پنهان مشکل شناسایی نداشتم، بنابراین حدس میزنم بخش مهم ممکن است به دلیل پارامتر تغییر باشد. Latent_change_prepost <- ' # تعریف متغیر نهفته مرتبه اول T1_43_1 =~ 1*A43_1_1 + 1*A43_1_2 + 1*A43_1_3 + 1*A43_1_4 + 1*A43_1_5 T1_43_2 +2*2* 1*A43_2_3 + 1*A43_2_4 + 1*A43_2_5 T1_43_7 =~ 1*A43_7_1 + 1*A43_7_2 + 1*A43_7_3 + 1*A43_7_4 + 1*A43_43_3 + 1*A43_7_3 + 1*A43_7_1 1*A43_3_2 + 1*A43_3_3 + 1*A43_3_4 T1_43_4 =~ 1*A43_4_1 + 1*A43_4_2 + 1*A43_4_3 + 1*A43_4_4 T1_43_5 = 1__2 + 1*1 1*A43_5_3 # تعریف متغیر نهفته مرتبه دوم T1 =~ 1*T1_43_1 + 1*T1_43_2 + 1*T1_43_7 T2 =~ 1*T1_43_3 + 1*T1_43_4 + 1*T1_43_5 # رگرسیون بدون رگرسیون، تغییر 1*T نیاز به معرفی تغییر) T2 ~ 1*T1 # (هم)واریانس تغییر ~~ T1 T2 ~~ 0*T2 # رهگیری T1 ~ NA*1 T2 ~ NA*1 تغییر ~ NA*1 T1_43_1 ~ NA*1 T1_43_2 ~ NA* 1 T1_43_7 ~ NA*1 T1_43_3 ~ NA*1 T1_43_5 ~ NA*1 ' fit2_latent_change <- sem( model = Latent_change_prepost , data = diss_prepost_w_interv_kovar , missing = fiml , meanstructure = TRUE ) من تخمینی از اکثر پارامترها دریافت می کنم، اما هیچ std. خطاها همچنین اگر مدل را کمی جایگزین کنم ممکن است std بگیرم. خطاها اما از نظر نجومی زیاد هستند. هر گونه ایده و کمک بسیار قدردانی خواهد شد! | R، بسته لاوان، مدل تغییر پنهان: تعریف پارامتر تغییر؟ |
72561 | من یک مدل معادلات ساختاری (SEM) را در Amos 18 اجرا می کنم و می خواهم تأثیر وضعیت تاهل را بر چندین متغیر پنهان آزمایش کنم. وضعیت تاهل اسمی است، بنابراین من سه متغیر ساختگی ایجاد کردم: 1. Mar_Single: 1 = بله، 0 = نه 2. Mar_Married: 1 = بله، 0 = نه 3. Mar_Other: 1 = بله، 0 = no Mar_Single و Mar_Married را وارد کردم. در SEM، بنابراین ضرایب آنها در برابر گروه حذف شده (مرجع) تفسیر می شود، Mar_Other. شاخصهای اصلاحی نشان میدهند که اگر من Mar_Single و Mar_Married را در نظر بگیرم، تناسب میتواند به طور قابلتوجهی بهبود یابد. آیا باید این کار را انجام دهم؟ به نوعی، این منطقی است زیرا آنها کاملاً همبسته هستند: اگر Mar_Single = 1، Mar_Married همیشه = 0 خواهد بود. لری | دو متغیر ساختگی را در SEM کوواری کنید؟ |
100439 | در مورد آزمون رتبه امضا شده ویلکاکسون سوال دارم. من 2 پروفایل سرعت مختلف (سرعت از زمان 0 تا 100 ثانیه شروع می شود) از یک شرکت کننده دارم که 2 درمان مختلف برایش داده شد. میخواهم بپرسم آیا میتوانم از تست رتبهبندی علامتدار wilcoxon برای مقایسه اینکه آیا هر دو پروفایل سرعت با یکدیگر متفاوت هستند استفاده کنم؟ من کمی گیج هستم که چگونه فرضیه صفر این آزمون (تفاوت میانه) را با پرونده خود تطبیق دهم. همچنین فکر میکنم هنگامی که از تست رتبهبندی علامتدار wilcoxon برای دادههای سری زمانی خود استفاده میکنم، ممکن است معنای توالی دادهها را از نمایه سرعت خود از دست بدهم. هر گونه کمک از هر کسی قدردانی خواهد شد. ممنون آیلا | آیا می توانم برای داده های سری زمانی از آزمون رتبه امضا شده ویلکاکسون استفاده کنم؟ |
91822 | من فکر می کنم این یک سوال ساده است، اما من نتایج بسیار متفاوتی گرفتم و اکنون مطمئن نیستم که از کدام تست استفاده کنم. من یک گروه و 2 نمره متفاوت دارم (نمرات بالاتر به معنای ارتباط مثبت یا منفی بالاتر است). می خواهم بدانم که آیا بین این متغیرها تفاوت هایی وجود دارد یا خیر. من باید در نظر بگیرم که این نمرات رفتار مشابهی دارند، بنابراین انتظار دارم تفاوت داشته باشند (یک امتیاز می تواند بالاتر از دیگری باشد). من با t-test امتحان کردم، اما وقتی بیش از 1 گروه داشته باشم استفاده می شوند، درست است؟ با تشکر | آزمون تی با یک گروه |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.