_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
85758
## بررسی اجمالی هدف من پیش بینی بقای یک نمونه برای پنج دوره زمانی مختلف (ویژگی باینری) است. من یک مجموعه داده 100000 نمونه‌ای با 40 ویژگی دارم و می‌خواهم تعداد ویژگی‌ها را کاهش دهم تا آزمایش کنم که آیا مدل‌های ایجاد شده همچنان با دقت بالایی در مجموعه کامل عمل می‌کنند یا خیر. من از `cfssubseteval (با` bestfirst`) و `gainRatioAttributeEval (با Rainker ) استفاده کردم تا این زیر مجموعه های کوچکتر از سوابق را بدست آوریم. از آنجا که من پنج متغیر نتیجه باینری دارم ، برای هر الگوریتم انتخاب ویژگی WEKA پنج نتیجه متفاوت داشتم. من می خواهم نتایج را برای محاسبه انتخاب ویژگی هر دوره زمانی ترکیب کنم. آیا این معقول است؟ ## CfsSubsetEval در «CfsSubsetEval»، آیا باید تمام ویژگی‌هایی را که «تعداد فولد (%)» بیشتر از یک دارند را به عنوان زیرمجموعه انتخاب کنم؟ با توجه به نتیجه زیر: زمان: 1 سال زمان: 2 سال ... و به همین ترتیب ... ... و غیره ... تعداد تا (%) صفت تعداد فولدها (%) ویژگی ... و غیره در ... 10(100 %) 1 attr1 10(100 %) 1 attr1 ... و به همین ترتیب ... 0( 0 %) 2 attr2 10(100 %) 2 attr2 ... و غیره ... 0 (0 ٪) 3 attr3 0( 0 %) 3 attr3 ... و به همین ترتیب ... 0( 0 %) 4 attr4 0( 0 %) 4 attr4 ... و غیره ... 0( 0 %) 5 attr5 0( 0 %) 5 attr5 ... و غیره ... 0( 0 %) 6 attr6 0( 0 %) 6 attr6 ... و غیره ... 0( 0 %) 7 attr7 0( 0 %) 7 attr7 ... و غیره ... 0( 0 %) 8 attr8 0( 0 %) 8 attr8 ... و غیره ... 0( 0 %) 9 attr9 0( 0 %) 9 attr9 ... و به همین ترتیب ... 0( 0 %) 10 attr10 0( 0 %) 10 attr10 ... و غیره ... 0( 0 %) 11 attr11 0( 0 %) 11 attr11 ... و به همین ترتیب ... 10(100 %) 12 attr12 10(100 %) 12 attr12 ... و غیره ... 0( 0 %) 13 attr13 0( 0 %) 13 attr13 ... و به همین ترتیب ... 0 ( 0 %) 14 attr14 0 ( 0 %) 14 attr14 ... و به همین ترتیب ... 0( 0 %) 15 attr15 0( 0 %) 15 attr15 ... و به همین ترتیب ... 0( 0 %) 16 attr16 0( 0 %) 16 attr16 .. و به همین ترتیب ... 10 (100 %) 17 attr17 10 (100 %) 17 attr17 ... و غیره ... 0(. 0 %) 18 attr18 0( 0 %) 18 attr18 ... و غیره ... 0( 0 %) 19 attr19 0( 0 %) 19 attr19 ... و غیره ... 10 (100 %) 20 attr20 10(100 %) 20 attr20 ... و به همین ترتیب ... 0( 0 %) 21 attr21 0( 0 %) 21 attr21 ... و غیره ... 0( 0 %) 22 attr22 0( 0 %) 22 attr22 ... و به همین ترتیب ... 0( 0 %) 23 attr23 0( 0 %) 23 attr23 ... و غیره ... 0( 0 %) 24 attr24 0( 0 %) 24 attr24 ... و غیره ... 0( 0 %) 25 attr25 0( 0 %) 25 attr25 ... و غیره ... 0( 0 %) 26 attr26 10(100 %) 26 attr26 ... و غیره ... 0( 0 %) 27 ATTR27 10 (100 ٪) 27 ATTR27 ... و غیره ... 0 (0 ٪) 28 ATTR28 0 ( 0 %) 28 attr28 ... و غیره ... 0( 0 %) 29 attr29 0( 0 %) 29 attr29 ... و به همین ترتیب ... 0( 0 %) 30 attr30 0( 0 %) 30 attr30 ... و غیره ... آیا باید تمام رکوردهایی را که نتیجه '100%' دارند را بگیرم و آنها را به عنوان نتیجه واقعی بپذیرم. «CfsSubsetEval» برای کل مجموعه داده؟ اگر این کار را انجام دهم، به یک زیرمجموعه متشکل از ویژگی‌ها منجر می‌شود: «attr1»، «attr2»، «attr12»، «attr17»، «attr20»، «attr26»، «attr27». ## GainRatioAttributeEval در عین حال در `GainRatioAttributeEval`، دو پارامتر وجود دارد که عملکرد یک ویژگی را تعیین می کند: متوسط ​​شایستگی و متوسط ​​رتبه. آیا باید خودسرانه ببینم
روش مناسب برای تعیین زیرمجموعه کوچکتر انتخاب ویژگی ویژگی بر اساس معیارهای نتیجه
81469
رابطه توزیع دو متغیره و چند متغیره. اگر مثلاً 3 متغیر داشته باشیم که در آن هر دو متغیر از توزیع نرمال دو متغیره پیروی کنند، آیا لزوماً از توزیع نرمال چند متغیره پیروی می کند؟
اگر هر دو متغیر از توزیع دو متغیره نرمال پیروی کنند، آیا توزیع نرمال چند متغیره نیز دارد؟
33353
من یک رگرسیون خطرات متناسب کاکس را در R با استفاده از coxph انجام می دهم که شامل متغیرهای زیادی است. باقیمانده های Martingale عالی به نظر می رسند، و باقیمانده های Schoenfeld برای تقریباً همه متغیرها عالی هستند. سه متغیر وجود دارد که باقیمانده های شوئنفلد آنها مسطح نیست و ماهیت متغیرها به گونه ای است که منطقی است که آنها می توانند با زمان تغییر کنند. اینها متغیرهایی هستند که من واقعاً به آنها علاقه مند نیستم، بنابراین ساختن آنها در طبقه خوب است. با این حال، همه آنها متغیرهای پیوسته هستند، نه متغیرهای طبقه ای. بنابراین به نظر من اقشار مسیر مناسبی نیستند*. من سعی کردم تعامل بین متغیرها و زمان ایجاد کنم، همانطور که در اینجا توضیح داده شد، اما ما این خطا را دریافت می کنیم: In fitter(X, Y, strats, offset, init, control, weights = weights, : تکرارها تمام شد و همگرا نشد I من با نزدیک به 1000 نقطه داده کار می‌کنم، و با 12 متغیر با فاکتورهای زیادی کار می‌کنم، بنابراین به نظر می‌رسد که محدودیت‌های این داده‌ها را افزایش می‌دهیم. متأسفانه، همه مدل‌های ساده‌تری که من با متغیرهای کمتری امتحان کرده‌ام، به وضوح بدتر هستند (مثلاً باقی‌مانده‌های Schoenfeld برای متغیرهای بیشتر سخت‌تر هستند، زیرا من به این گزینه‌های خاص اهمیت نمی‌دهم). متغیرها، من می‌خواهم خروجی آنها را نادیده بگیرم، اما گمان می‌کنم که این یک تفسیر معتبر نیست عدد صحیح با گستره بیش از 100، و یک عدد صحیح با محدوده 6 است. شاید باینینگ؟
هنگامی که باقیمانده های شوئنفلد خوب نیستند، در مدل رگرسیون خطر متناسب چه گزینه هایی وجود دارد؟
99098
من تازه وارد زمینه ANCOVA هستم. من می خواهم بررسی کنم که آیا دو گروه در سه متغیر کمی تفاوت دارند یا خیر. در همان زمان من می خواهم برای کنترل جنسیت و تشخیص (6 دسته). آیا امکان اجرای ANCOVA با متغیر کنترل دسته بندی وجود دارد؟ علاوه بر این: آیا می توانم سه متغیر کمی را به طور همزمان وارد کنم یا باید آنها را جداگانه بررسی کنم؟ اگر چنین است: آیا نیازی به تصحیح داده ها با اصلاح بونفرونی وجود دارد؟
مقیاس متغیر کنترل در ANCOVA
85754
من ماتریس دارم برای هر ردیف از این ماتریس یک مخلوط گاوسی درست کردم، چگونه می توانم این مخلوط ها را به هم بچسبانم.
چگونه می توانم این مخلوط ها را به هم متصل کنم
85752
من در یادگیری چند وظیفه ای جدید هستم. من دقیقاً متوجه نشدم که Tasks در یادگیری چند وظیفه ای چیست؟ هر وظیفه داده های آموزشی واحد است یا چه؟
Task در یادگیری چند وظیفه ای به چه معناست؟
5136
مشکل این است که تعریف کنیم چه زمانی یک متغیر ممکن است به عنوان متغیر پنهان در نظر گرفته شود. من علاقه مندم که چگونه یک متغیر پنهان را توصیف کنم، و ویژگی های متغیرهای پنهان چیست. سوال دوگانه من این است: * وقتی می‌خواهید توضیح دهید که متغیر پنهان چیست، چه تفاوت‌هایی را بین متغیر آشکار و پنهان در نظر می‌گیرید؟ * چه زمانی تحلیل عاملی یا مدل سازی پاسخ آیتم مناسب تر به نظر می رسد؟ **مثال.** از یک طرف، اگر می خواهید وزن ماهی را بدون ابزار اندازه گیری کنید، می توانید مواردی را برای اندازه گیری آن ابداع کنید. در این مورد، آیا به یک مدل متغیر پنهان تکیه می کنید؟ از سوی دیگر، گاهی اوقات سطح اجتماعی مستقیماً از طریق پاسخ به یک نظرسنجی با یک مدل خطی (یا مدل‌های دیگر) که در مورد مواردی مانند _بالاترین دیپلم_، _تعداد کتاب در خانه_، _تعداد وسایل الکترونیکی_ اعمال می‌شود، اندازه‌گیری می‌شود، اما نه با در نظر گرفتن یک نهفته. متغیر اما چرا در این مورد نمی توانیم از مدل متغیر پنهان استفاده کنیم؟ پیشاپیش ممنون
به نظر شما چه زمانی یک متغیر یک متغیر پنهان است؟
71124
هنگام اجرای هر تکنیک ML در عمل باید دو مفهوم کلیدی در نظر گرفته شود: دقت و پیچیدگی زمانی آیا مطالعه ای وجود دارد که هر دو برای الگوریتم های مختلف ML ذکر شوند؟
مقایسه دقت در مقابل پیچیدگی زمانی بین الگوریتم‌های ML
87662
من یک مدل رگرسیون جنگل تصادفی را به داده های آموزشی برازش داده ام (65٪ از داده ها را برای آموزش استفاده کردم). این داده ها تقریباً 40000 مشاهده و 100 ویژگی دارند. من یک رگرسیون جنگل تصادفی را در R با پارامتر زیر برازش می‌کنم: randomForest(فرمول = پاسخ ~ .، داده = crs$dataset[، c(crs$ورودی، crs$target)]، ntree = 500، mtry = 32، اهمیت = TRUE، جایگزین = FALSE، na.action = na.roughfix) درک من این است که برای Random Forest مشکلات رگرسیون، بهتر است تقریباً از 1/3 متغیرهای کاندید برای هر درخت استفاده شود (به جای ریشه دوم برای مسائل طبقه بندی) به همین دلیل است که من 32 متغیر را برای هر درخت امتحان کرده ام. پس از اعمال مدل در مجموعه داده‌های نگهدارنده آزمایشی من (تقریباً 35٪ از داده‌ها) به نظر می‌رسد که مدل بیش از حد مناسب است که من گیج شده‌ام زیرا فکر می‌کردم جنگل‌های تصادفی قرار است نسبتاً در برابر بیش از حد مقاوم باشند (که تجربه من در استفاده قبلی بوده است. از آنها). در اینجا مقایسه ای از میانگین پیش بینی شده در مقابل میانگین ارزش واقعی در داده های آزمایشی است که به صورت صعودی بر اساس مقدار پیش بینی شده مرتب شده اند (پیش بینی های گروه بندی شده به دهک). Prediction_Decile Avg_Prediction میانگین_واقعی: واقعی/پیش بینی شده 1 4,570 6,343 1,388 2 5,939 7,085 1.193 3 6,789 7,429 1.094 417,54 8,320 8,981 1,079 6 9,105 8,796 0.966 7 9,954 8,657 0.870 8 10,977 9,306 0.848 9 12,304 9,8914 9,8914 1010. 0.696 همانطور که می بینید با افزایش پیش بینی ها نسبت مقدار واقعی به مقدار پیش بینی شده به طور پیوسته در حال کاهش است و به همین دلیل است که فکر می کنم بیش از حد مناسب هستم. راهنمایی یا توصیه ای در مورد اینکه چه چیزی ممکن است باعث این مشکل شود یا چگونه مدل را تنظیم کنیم تا از این مشکل جلوگیری شود؟ به نظر می‌رسد که این مدل در نظم دادن به مشاهدات آزمایشی کار شایسته‌ای انجام می‌دهد، اما در برازش آنها کار بسیار ضعیف‌تری دارد.
برازش رگرسیون تصادفی جنگل - آزمون کمی روی داده های آزمایشی
94619
Stata اجازه می دهد تا اثرات ثابت و اثرات تصادفی رگرسیون لجستیک را از طریق دستورات xtlogit fe و xtlogit re بر این اساس مشخص کند. من تعجب کردم که دستورات معادل برای این مشخصات در R چیست. تنها مشخصات مشابهی که من از آن آگاهم، رگرسیون لجستیکی اثرات مختلط > mymixedlogit <- glmer(y ~ x1 + x2 + x3 + (1 | x4), داده = است. d، خانواده = دوجمله ای) اما مطمئن نیستم که آیا این به هر یک از دستورات فوق الذکر انطباق دارد یا خیر.
معادل xtlogit (fe, re) Stata در R؟
33359
من سابقه تحصیلات تکمیلی در ریاضیات محض دارم (نظریه اندازه گیری، تحلیل تابعی، جبر اپراتور، و غیره) همچنین شغلی دارم که به دانش تئوری احتمال (از اصول اولیه تا تکنیک های یادگیری ماشین) نیاز دارد. سؤال من: آیا کسی می‌تواند مطالبی برای خواندن متعارف و مرجع ارائه دهد که: * مقدمه‌ای مستقل برای نظریه احتمالات * از روش‌شناسی و برهان‌های نظری اندازه‌گیری دوری نکند * تأکید زیادی بر تکنیک‌های کاربردی داشته باشد. اساساً من کتابی می‌خواهم که تئوری احتمالات کاربردی را برای ریاضیدانان محض به من آموزش دهد. چیزی که با اصول اولیه نظریه احتمال شروع می شود و مفاهیم کاربردی را با دقت ریاضی معرفی می کند. طبق نظرات، آنچه را که نیاز دارم توضیح خواهم داد. من در حال انجام داده کاوی پایه تا پیشرفته هستم. رگرسیون لجستیک، درختان تصمیم، آمار و احتمال پایه (واریانس، انحراف استاندارد، احتمال، احتمال، احتمال، و غیره)، یادگیری ماشین نظارت شده و بدون نظارت (عمدتاً خوشه بندی (K-Means، Hierarchal، SVM)). با در نظر گرفتن موارد فوق، من کتابی می خواهم که از ابتدا شروع شود. تعریف معیارهای احتمال، اما همچنین نشان دادن این که چگونه آن‌ها به احتمالات جمع‌بندی اولیه منجر می‌شوند (که می‌دانم، به طور شهودی، با ادغام در مجموعه‌های گسسته اتفاق می‌افتند). از آنجا، می‌توان به موارد زیر اشاره کرد: مارکوف چینز، بیزی... در تمام مدت بحث در مورد استدلال بنیادی پشت نظریه، معرفی مفاهیم با ریاضیات دقیق، اما سپس نشان دادن نحوه اعمال این روش‌ها در دنیای واقعی (مخصوصاً برای داده‌ها). معدن). 1. آیا چنین کتاب یا مرجعی وجود دارد؟ متشکرم PS - متوجه شدم که این از نظر دامنه به این سؤال شبیه است. با این حال، من به دنبال نظریه احتمالات هستم و نه آمار (همانطور که این دو زمینه مشابه هستند).
مقدمه ای بر احتمال کاربردی برای ریاضیدانان محض؟
71121
اگر من یک سری زمانی از مشاهدات Xt داشته باشم. من آنها را به بازده تبدیل می کنم: Rt = Ln(Pt) - Ln(Pt-1). سپس میانگین متحرک دوره 20 را محاسبه می‌کنم و از بازده کم می‌کنم تا بازده بدون روند DRt را پیدا کنم: DRt = Rt- MA(Rt) در نهایت دوره 20 میانگین متحرک بازده بدون روند را محاسبه می‌کنم و انحراف استاندارد SD را محاسبه می‌کنم. با استفاده از: SDt = SQRT(SUM(MA(DRt)-DRt)^2/20) بنابراین اساساً من یک تفاوت و روند حذف در سری های زمانی، و سپس یافتن انحراف استاندارد. سوال من این است که چگونه می توانم مقدار MA(DRt) + SDt را به مقیاس اصلی برگردانم؟ به نظر نمی رسد که تحولات را به درستی برگردانم. من این کار را انجام دادم: SDt + MA(DRt) + MA(Rt) = Rt، بنابراین exp(Rt) = Yt - Xt، که در آن Yt مقدار SDt + MA(DRt) بر حسب سری زمانی اصلی است. بنابراین، Yt = exp(Rt) + Xt یا به عبارت دیگر Yt = exp(SDt + MA(DRt) + MA(Rt)) + Xt مطمئناً این درست نیست! همچنین آیا جعبه ابزار ریاضی بهتری وجود دارد که بتوانم از آن برای نوشتن واضح‌تر کارهایی که در stackexchange انجام می‌دهم استفاده کنم؟ برای هر کمکی متشکرم
تبدیل مجدد به مقیاس خام/اصلی از دگرگونی های سری زمانی و انحراف استاندارد
114612
من یک سرویس وب را اجرا می کنم که تعداد کل کلیک ها و زمان آنلاین یک مورد را محاسبه می کند. اکنون تعداد کل کلیک ها را نسبت به زمان آنلاین تعیین می کند. به عبارت دیگر: $\rm \frac{clicks}{time}$ مشکل از این قرار است: نمی‌خواهم مواردی را که بیننده و ارزش زمانی پایینی دارند در موقعیت یکسانی ببینم، مانند مواردی که بیننده و ارزش زمانی بالایی دارند. بیایید مثالی بزنیم: * آیتم 1 {$\rm کلیک = 1، \ چهار \ \ زمان = 5$}، * آیتم 2 {$\rm کلیک=100،\ \ زمان=500$}، * آیتم 3 {$\rm کلیک =1000, time=5000$} همه آنها دارای نسبت 0.2 هستند، اما _item3_ باید بسیار بالاتر به عنوان _item2_ رتبه بندی شود و _item2_ به عنوان _item1_. $$\rm \ge rank(item3) >> rank(item2) >> rank(item1)$$ چیزی شبیه $$\rm \frac{\frac{clicks}{time}}{\frac{1} را امتحان کردم {clicks}} = \frac{clicks\times clicks}{time}$$ منظورم این است که کاری را که باید انجام می‌دهد، اما من چندان راضی نیستم. من با رشد تصاعدی پارامتر بیننده در $\rm \frac{1}{clicks}$ بازی کردم. من مطمئن هستم که راه های بهتری برای مدیریت این موضوع وجود دارد.
نسبت های مشابه را با مقادیر ورودی متفاوت مقایسه کرده و آنها را رتبه بندی کنید
37829
> **تکراری احتمالی:** > آیا می توان یک جفت متغیر تصادفی گاوسی داشت که توزیع مشترک > برای آنها گاوسی نباشد؟ در مدخل ویکی‌پدیا در مورد توزیع نرمال چند متغیره، می‌گوید که یک تعریف > این است که به یک بردار تصادفی می‌گویند -k_ - متغیر است که به طور معمول توزیع می‌شود اگر > هر ترکیب خطی از اجزای _k_ آن دارای یک توزیع نرمال تک متغیره باشد. با این حال، از آنجایی که این نیز درست است که هر ترکیب خطی از متغیرهای توزیع شده نرمال خودش نرمال است، آیا این بدان معناست که هر بردار نرمال تصادفی تک متغیره خودش نرمال چند متغیره است؟ آیا تا به حال موقعیتی وجود دارد که بردار نرمال های تصادفی نرمال چند متغیره **نیست** باشد؟ ## به‌روزرسانی چیزی که باید می‌گفتم این بود که هر ترکیب خطی **مستقل** متغیرهایی که به طور معمول توزیع می‌شوند، خود عادی هستند. تمام پاسخ های زیر نمونه های خوبی از متغیرهایی هستند که مستقل نیستند و بنابراین نرمال چند متغیره نیستند. بنابراین من باید سوالم را اینگونه بیان کنم: آیا تا به حال موقعیتی وجود دارد که بردار **مستقل** نرمال های تصادفی **نرمال چند متغیره** نباشد؟ من عنوان را همانطور که هست می‌گذارم تا تاریخ و ماهیت پاسخ‌های این سؤال را منعکس کنم، اما اگر فکر می‌کنید باید آن را تغییر می‌دهم. متاسفم برای هر گونه سردرگمی که ممکن است ایجاد کرده باشم.
یک بردار از متغیرهای تصادفی عادی است که همیشه -نه- نرمال چند متغیره هستند
85750
من از یک بسته randomForest در R برای تمایز بین 4 دسته استفاده می کنم. داده های من شامل بیش از 80 مشاهدات است و به شدت نامتعادل است و حدود 70 درصد از همه مشاهدات در یک دسته قرار می گیرند. من می‌خواهم خطای کلاس را برای 3 دسته دیگر کاهش دهم (_به صورت اختیاری، بدون حذف کامل میزان خطای کلاس 1_) و بنابراین دارم با اختصاص وزن‌های مختلف به کلاس‌ها آزمایش می‌کنم. می خواستم بدانم آیا روش خوبی برای تعیین وزن بهینه کلاس از قبل وجود دارد یا همه اینها بستگی به این دارد که من حاضرم چه خطای کلاسی را تحمل کنم؟ با تشکر فراوان
تعیین وزن هایی که باید به هر کلاس در جنگل تصادفی داده شود
33357
پس از انجام یک ANOVA و سپس انجام تست‌های تعقیبی با تست Tukey HSD، آیا باز هم لازم است که مقایسه‌های زوجی متعدد را تصحیح کنیم یا قبلاً انجام شده است؟
آیا تست Tukey HSD برای مقایسه های متعدد درست است؟
86911
در تجزیه و تحلیل من دو نسخه از یک مدل مختلط خطی مشابه را اجرا می کنم، تنها تفاوت این است که در یک مدل متغیر پاسخ مشاهده می شود و در مدل دوم متغیر پاسخ شبیه سازی شده است. هدف من 1) مقایسه تخمین پارامترهای دو مدل و 2) مقایسه پیش بینی های تولید شده توسط دو مدل است. به طور خاص، می‌خواهم بدانم که مدل‌های مشاهده‌شده و شبیه‌سازی شده در چه محدوده‌ای از مقادیر متغیرهای پیش‌بینی‌کننده پاسخ‌های پیش‌بینی‌شده متفاوتی دارند. شبیه سازی های من 1000 نسل مستقل از متغیر پاسخ را در بر می گیرد. از این رو من 1000 تخمین پارامتر و پیش بینی دارم که از آن ها می توانم فاصله اطمینان 95٪ را محاسبه کنم. سوال من در مورد ایجاد فواصل اطمینان تخمین پارامترها و پیش بینی ها برای مدل ترکیبی داده های مشاهده شده است. گزینه های زیادی وجود دارد: Wald، بوت استرپ پارامتریک، بوت استرپ ناپارامتری، و سپس بسته بوت در R پنج نوع بازه تولید می کند (به عنوان مثال، صدک پایه، دانشجویی، تنظیم شده). علاوه بر این، می توان فواصل اطمینان را صرفاً با در نظر گرفتن عدم قطعیت در اثرات ثابت ایجاد کرد یا عدم قطعیت ناشی از اثرات تصادفی را اضافه کرد. من مطمئن نیستم که چه روشی با نحوه ایجاد فواصل اطمینان از 1000 مدل مخلوط شبیه سازی شده قابل مقایسه است. پیشاپیش از کمک شما در مورد این سوال طولانی متشکریم.
مقایسه پیش بینی ها از مدل های مختلف ترکیبی
91484
در مصاحبه‌ای، مصاحبه‌کننده گفت که مدل‌های متمایز بیشتر از مدل‌های مولد برازنده می‌شوند، زیرا آنها یک مشکل پیچیده‌تر را حل می‌کنند و بنابراین منابع (یا پارامترهای) بیشتری را برای انجام این کار مصرف می‌کنند. برای تعاریف مدل‌های افتراقی و مولد، می‌توانید این پست را ببینید Generative و Discriminative. هر ایده ای؟
آیا مدل های تبعیض آمیز بیش از مدل های مولد مناسب هستند؟
85755
من داده هایی دارم که نشان دهنده چند صد آزمایش مستقل است. هر یک شامل زمان است - آزمایش چقدر طول کشید و نتیجه: مثبت و منفی. 10 درصد از نتایج مثبت وجود دارد. من در حال تلاش برای یافتن محدوده زمانی هستم که برای آن احتمال یک رویداد مثبت بالاترین است. محدوده زمانی باید بیشتر از یک مقدار معین باشد، یا باید بیش از تعداد معینی آزمایش داشته باشد. من سعی کردم از الگوریتم C4.5 برای این مشکل استفاده کنم، اما نمی‌توانم راهی برای اعمال محدودیت‌های پایین‌تر در زمان، یا تعداد رویدادها در محدوده یافت شده پیدا کنم. C4.5 امکان محدود کردن تعداد رویدادها را در هر برگ فراهم می کند، اما من فقط به محدوده مثبت اهمیت می دهم، نه بقیه. من سعی می کنم خودم چیزی اختراع کنم، اما مطمئن هستم که راه حل هایی از قبل وجود دارد. میشه لطفا بهشون اشاره کنید؟
یافتن بازه زمانی با بهترین احتمال وقوع رویداد مثبت
114618
توجه: سؤالات مشابهی برای این سؤال وجود دارد، اما به نظر نمی رسد که آنها کاملاً به آن چیزی که من می خواهم بفهمم نمی رسند. من داده های روزانه یک هفته با تعدادی متغیر از جمله خواب شبانه و خلق و خوی روز را دارم. من می خواهم خلق و خوی را در طول روز از خواب شب قبل پیش بینی کنم. سوالات در صبح مطرح می شود، بنابراین S1 دیشب و M1 دیروز است، یعنی می خواهم ببینم آیا M2 توسط S1، M3 توسط S2 و ... پیش بینی می شود. من در پیدا کردن بهترین راه برای انجام این کار در SPSS مشکل دارم. هر ایده ای؟
پیش بینی یک متغیر روزانه از دیگری در SPSS
86916
من بر روی انواع مختلف الگوریتم‌های یادگیری ماشینی (ML) مانند جنگل تصادفی/SVM و غیره تحقیق کرده‌ام تا بتوانم نیازهای دارویی بیمارانی را که از نوع خاصی از بیماری خودایمنی کلیوی رنج می‌برند، مدل‌سازی و بهترین پیش‌بینی کنم. چیزی که من امیدوار بودم کسی بتواند برای من توضیح دهد این است که تفاوت‌های توانایی پیش‌بینی بین شبیه‌سازی‌های مونت کارلو و طبقه‌بندی‌کننده‌های تصادفی جنگل چیست؟ کاربرد دنیای واقعی آنها چگونه متفاوت است؟ هر گونه نظر بسیار قدردانی خواهد شد.
شبیه سازی مونت کارلو در مقابل الگوریتم های یادگیری ماشین: تفاوت در کاربرد چیست؟
33352
من سعی می کنم یک برنامه موبایل ساده بنویسم تا به همکاران کمک کند سیگنال حیوانات مجهز به فرستنده را در میدان مثلث کنند. من از روش تخمین احتمال حداکثری راسل لنث در سال 1981 (PDF: در یافتن منبع سیگنال) استفاده می‌کنم. من می توانم از طریق حل برابری 2.6 در PDF تکرار کنم تا مکان تخمینی را به راحتی به دست بیاورم، اما اکنون می خواهم بتوانم مساحت یک بیضی اطمینان 95٪ از مکان تخمینی را محاسبه کنم ($x$, $y$) . در حالت ایده‌آل، من همچنین می‌خواهم بتوانم این بیضی اطمینان را روی نقشه ترسیم کنم. با این حال، من یک فرد آماری نیستم و با وجود جستجوی توضیحات برای برآوردهای کوواریانس و پارامترهای غلظت، کمی در مورد چگونگی مقابله با این مشکل گیر کرده ام. از غربال کردن چند کتاب در مورد ردیابی حیات وحش، گمان می‌کنم که باید انحراف استاندارد یاتاقان‌ها (_s_) را بدانم (فکر می‌کنم از طریق آزمایش سیستم مشخص شده است؟) و سپس می‌توانم $\kappa$ را با استفاده از موارد زیر پیدا کنم: $A = exp[-1/2(s\pi/180)^2]$\kappa^{-1} = 2(1-A) + [(1-A)^{2}(0.48794-0.82905A-1.3915A^{2})]/A $ آیا تاکنون در مسیر درستی هستم؟ و اگر چنین است، راهنمایی در مورد اینکه قدم بعدی من چیست؟ حدس می زنم ربطی به $Q$ در PDF داشته باشد؟ هر گونه کمکی بسیار قدردانی می شود. * * * مثال: بگویید من با موارد زیر شروع می کنم: نقطه 1: 554045 Easting، 2813867 Northing، Bearing: 300$^{\circ}$ نقطه 2: 553355 Easting، 2813873 Northing، Bearing: 20$^{\circ} نقطه 3: 553207 ایستینگ، 2814120 Northing, Bearing: 90$^{\circ}$ من معتقدم احتمال توضیح داده شده در مقاله این است: $L_x= -\sum\limits_{i=1}^n(y-y_i)[s_i(x-x_i) -c_i(y-y_i)]/d^3_i = 0$L_y= \sum\limits_{i=1}^n(x-x_i)[s_i(x-x_i)-c_i(y-y_i)]/d^3_i = 0$ با $s_i = \sin \theta_i$ ($\ تتا$ یاتاقان در اندازه رادیانی و به معنای ریاضی است) $c_i = \cos \theta_i$ $d_i = [(x-x_i)^{2}+(y-y_i)^{2}]^{1/2}$ با نادیده گرفتن ستاره برای یافتن تخمین اولیه، و سپس با استفاده از آن تخمین برای یافتن تخمین های میانی $d$، $s^*_i$، و $c^*_i$ (تعریف شده در زیر)، که به معادله 2.6 متصل شدند و سپس این کار تکرار شد تا یافته‌های ($x$, $y$) به یک نقطه UTM واحد همگرا شوند. $s^*_i = (y-y_i)/d^3_i$ $c^*_i = (x-x_i)/d^3_i$ $d_i = [(x-x_i)^{2}+(y-y_i )^{2}]^{1/2}$ $z_i = s_ix_i - c_iy_i$ با استفاده از این روش، یاتاقان ها در مثال در همگرا می شوند 553455 Northing, 2814131 Easting. اکنون می خواهم بفهمم که مساحت بیضی اطمینان 95 درصدی محل تخمین زده شده چقدر است و همچنین چگونه روی نقشه ترسیم می شود. * * * ویرایش: اوه، ظاهراً من در این پست اعلان‌های ایمیلی دریافت نکرده‌ام. پوزش بابت هرگونه نظر نادیده گرفته شده من مشکلم را نزد یکی از همکارانم بردم که به من اشاره کرد به این PDF که بیضی های خطا را به روشی بسیار قابل هضم تر از آنچه قبلا دیده بودم توضیح می دهد. من تاکنون فقط چند نمونه را بررسی کرده ام، اما تا آنجا که می توانم بگویم، بیضی ها به همان شکلی هستند که من از آنها انتظار دارم.
بیضی اطمینان 95% از تخمین حداکثر احتمال لنث
87665
من باید رگرسیون لجستیک را روی تقریباً 900000 مشاهده (هر یک مشتری منحصر به فرد) اجرا کنم تا تمایل به خرید یک محصول خاص یا تمایل به نگهداری یک محصول معین را تعیین کنم. من تمایل به ساختن را برای خرید مدل ها ترجیح می دهم، اما مطمئن نیستم که آیا داده های کافی دارم یا چگونه می توانم نتایج را به بهترین شکل بسازم. من باید مدل هایی برای 7 محصول مختلف بسازم، و این مدل ها باید به طور مستقل مورد بررسی قرار گیرند (یعنی دوره نتیجه برای هر مدل می تواند متفاوت باشد). جدول زیر محصولاتی را که قرار است مدل‌سازی کنم و تعداد مشتریان منحصربه‌فرد مربوطه را نشان می‌دهد که یا محصولات را از 13 دسامبر تا 14 ژانویه، 13 نوامبر تا 14 ژانویه، 13 اکتبر تا 14 ژانویه خریداری کرده‌اند یا صرف نظر از اینکه محصول را نگه داشته‌اند. تاریخ ![جدول نگهداری محصول](http://i.stack.imgur.com/h2lUu.png) من تقریباً هیچ داده ای برای اکثر محصولات در ماه های دسامبر-ژان و نوامبر-ژان ندارم، اما اگر نگاه کنم شروع به دیدن اطلاعات بیشتری می کنم در ماه های اکتبر تا ژانویه **اینجا - سؤالات من، با توجه به مجموع 900000 مشاهدات:** 1) آیا اصلاً منطقی در ایجاد تمایل به خرید مدل برای محصولاتی وجود دارد که در آنها اطلاعاتی در مورد خرید محصول بین اکتبر تا ژانویه دارم (یعنی تنظیم متغیر وابسته از آن دسته از مشتریانی که یک محصول مشخص را بین اکتبر تا 1 ژانویه (رویداد) خریداری کرده‌اند، یا اینکه من اطلاعات بسیار کمی دارم و بنابراین باید به تمایل به نگهداری مدل‌ها تکیه کنم. همه محصولات؟ 2) چگونه بخش غیر رویدادی (به عنوان مثال 0) متغیر وابسته خود را تعیین کنم؟ آیا باید به طور تصادفی از جمعیت مشتریانی که محصول را در اختیار ندارند نمونه برداری کنم (یا اگر بتوانم از تمایل به خرید مدل استفاده کنم) محصول را نخریده اند؟ چه تعداد مشاهدات را باید ترسیم کنم (یعنی می خواهم 50-50 تفکیک رویدادها و غیررویدادها را داشته باشم، یا باید از غیررویدادهای بیشتری استفاده کنم، زیرا اطلاعات بیشتری در مورد آنها دارم؟ از چند غیر رویداد دیگر باید استفاده کنم؟ )؟
حجم نمونه و دوره نتیجه رگرسیون لجستیک
83752
اول از همه، داده‌های من: http://www.pastebin.ca/2599202 (امیدوارم این کار خیلی ناخوشایند نباشد، زیرا من نمی‌توانم داده‌های نمونه مناسبی ایجاد کنم) آنچه من اساساً به آن نیاز دارم، طرحی مانند: ![تصویر را وارد کنید توضیح در اینجا](http://i.stack.imgur.com/6GO8L.png) من فاکتور اندازه گیری مکرر زمان (محور x، 3 سطح) را در برابر ias ترسیم کردم (متغیر وابسته پیوسته) برای 3 گروه آزمایشی من. من این کار را 4 بار انجام دادم (برای هر چندک از اندازه گیری صفت MIHT، `miht.binned`، 0.25 - 1.00). باید اعتراف کنم که من واقعاً یک حرفه ای R نیستم و کتابچه راهنمای «ggplot2» به سادگی برای من بیش از حد است. من طرح را با `ezPlot` (از `ezANOVA`) ایجاد کردم و فقط توانستم کمی بهینه سازی طرح بندی را با `ggplot2` انجام دهم: PlotIAS = ezPlot( data = MyData , dv = .(ias) , wid = .(id) , بین = .(GROUP, miht.binned) , درون = .(زمان) , x = .(زمان) , split = .(GROUP) , col = .(miht.binned) , x_lab = 'زمان اندازه گیری' , y_lab = 'امتیاز IAS (میانگین)' #, do_bars = FALSE , type = 3 ) PlotIAS = PlotIAS + theme( panel.grid.major.y = element_line (رنگ = gry80، اندازه = NULL، linetype = NULL، lineend = NULL) ,panel.grid.minor.y = element_line(رنگ = gray90، اندازه = NULL، نوع خط = NULL، lineend = NULL) ,panel.grid.major.x = element_blank() panel.grid.minor.x = element_blank() ,legend.background = element_rect(fill = NULL، رنگ = سیاه) ,panel.background = element_rect (پر = سفید، رنگ = سفید، اندازه = NULL، نوع خط = NULL) ) چاپ (PlotIAS) من هیچ اطلاعاتی در مورد این خطا پیدا نکردم میله هایی که ezPlot ایجاد می کند. به نظر می رسد همه آنها یکسان هستند. فقط باید نوارهای خطا با SE یا CI داشته باشم. من نمی دانم که آیا می توان اینها را در کد مبتنی بر ezPlot من اضافه کرد (و چگونه؟) یا اینکه باید یک شی ggplot کامل جدید برای آن ایجاد کرد (که برای من هزینه اضافی است...). کمک بسیار قدردانی می شود.
R ggplot2/ezPlot: ترسیم طرح ANOVA 3x3 RM در هر چندک از متغیرهای کمکی با نوارهای خطا
41608
من می خواهم سه مجموعه از دنباله های باینری را با هم مقایسه کنم و ارزیابی کنم که آیا آنها از نظر آماری تفاوت دارند یا خیر. هر دنباله 100 بیت طول دارد (طول 0-100 نشان دهنده محور یک بافت دراز است: اگر در موقعیت i عدد 1 وجود داشته باشد، به این معنی است که سلولی از آن دودمان خاص در این موقعیت پیدا شده است). مجموعه ها به ترتیب شامل 26، 20 و 29 سکانس هستند. هر مجموعه از یک مجموعه متفاوت از سلول ها می آید و من می خواهم بدانم که آیا 3 استخر تا آنجا که به ظرفیت آنها برای کلونی سازی در امتداد بافت مربوط می شود تفاوت قابل توجهی دارند یا خیر.
مقایسه مجموعه ای از دنباله های باینری
81387
> فرض کنید نمونه ای به اندازه 10 از توزیعی با احتمال > تابع چگالی $f(x, \theta) = 2x^{\theta}(1-x)^{1-\theta}$ گرفته شده است اگر $0<x< 1$ و > $0$ در غیر این صورت، جایی که $\theta \in \\{0,1\\}$. بهترین منطقه بحرانی > با اندازه $\alpha$ را برای آزمایش $H_0 توصیف کنید: \theta = 0$ در برابر گزینه جایگزین > فرضیه $H_1: \theta =1$. ما به $\frac{L(0)}{L(1)} \leq k$ برای مقداری $k < 1$ نیاز داریم. دریافتیم که $$\frac{L(0)}{L(1)} = \frac{2(1-x_1)2(1-x_2)...2(1-x_{10})}{2x_12x_2 ...2x_{10}} = \frac{(1-x_1)(1-x_2)...(1-x_{10})}{x_1x_2...x_{10}}.$$ اکنون می‌خواهم $\frac{(1-) را ساده کنم x_1)(1-x_2)...(1-x_{10})}{x_1x_2...x_{10}} \leq k$ تا ببینم آیا می‌توانم این را به توزیعی تبدیل کنم که ظاهری بیشتر داشته باشد آشنا اما به دلایلی نتوانستم کاری انجام دهم، بنابراین فکر می کردم آیا کسی به من راهنمایی می کند تا بتوانم ادامه دهم... پیشاپیش متشکرم
توصیف بهترین منطقه بحرانی با اندازه $\alpha$ برای آزمایش $H_0: \theta = 0$ در برابر فرضیه جایگزین $H_1: \theta =1$
87669
من در تلاشم تا بفهمم که چگونه مقادیر فصلی اولیه را برای پس‌کستینگ زمستان‌های Holt ضربی تنظیم کنم. همانطور که در این تاپیک اشاره شد: راه‌اندازی Holt Winters با استفاده از backcasting مانند SPSS، می‌توانید: $$ {\rm Seasonal\ Index}_i = \frac{m_i + b_i}{\sum(m_i + b_i)} را تنظیم کنید. $$ این روش زمانی که $m_i + b_i > 0$ باشد، نتایجی مشابه با SAS و SPSS ایجاد می‌کند. اما وقتی $m_i + b_i < 0$ باشد چه باید کرد؟
چگونه مقادیر اولیه را برای بک کستینگ Holt-Winters تنظیم کنیم؟
8240
من N نقطه یکنواخت تصادفی $p_j$ در یک جعبه در $E^d$، $a_i \le x_i \le b_i$ دارم، و می‌خواهم فاصله مورد انتظار نزدیک‌ترین نقطه به مبدأ را در $L_q$ تخمین بزنم: $\ نزدیکترین چهار دلار (نقاط $p_j$، کادر $a_i .. b_i$، $q$ ) $\;\equiv\;$ $\min_{j=1..N}$ $\sum_{i=1..d}$ |$p_{ji}|^q$ این جعبه ممکن است در ابعاد 0 قرار گیرد، $a_i < 0 < b_i$. همچنین می‌خواهم تخمین‌گر برای $0 < q < 1$ نیز کار کند، متریک کسری. (16 مارس) بیایید سعی کنیم حالت ساده‌تری انجام دهیم: $L_1$، واحد مکعب 0 $\le x_i \le$ 1. از نظر هندسی، برش مورب مکعب واحد را می‌خواهیم (اصلاح کنید) با حجم $\frac{1 }{N+1}$. (آیا کسی تصویر یا اپلتی از یک مکعب سه بعدی دارد که به برش های با حجم مساوی بریده شده باشد؟) اگر d به اندازه ای بزرگ باشد که یک قضیه حد مرکزی نگه دارد، $\quad \sum_{i=1..d} uniform_i \ \sim \ \mathcal{N}( \frac{d}{2}, \frac{d}{12} )$; بنابراین $\mathcal{N}^{-1}( \frac{1}{N+1} )$ تقریباً برش و نزدیک‌ترین فاصله مورد انتظار من را نشان می‌دهد. در Python با scipy.stats، این def cutcube است( dim, vol ): یک تکه از مکعب واحد را در E^dim با حجم تقریب معمولی برش دهید: cutcube( 3, 1/6 ) = 0.339 ~ 1 /3 جلد 1/(N+1) -> E نزدیکترین نقطه تصادفی در مکعب ? norm.ppf( vol, loc=dim/2, scale=np.sqrt( dim/12 )) / dim cutcube( dim=2, vol=1/10 ) = 0.24 cutcube( dim=4, vol=1/10 ) = 0.32 cutcube( dim=8, vol=1/10 ) = 0.37 cutcube( dim=16, vol=1/10 ) = 0.41 cutcube( dim=32, vol=1/10 ) = 0.43
نزدیکترین N نقطه تصادفی یک جعبه را در E^d تخمین بزنید؟
76473
چگونه می‌توانید کلاس‌های تخصیص‌نشده را در ماشین‌های بردار پشتیبان چند کلاسه (SVM چند کلاسه) با رویکرد One vs All مدیریت کنید؟ فرض کنید داده های آموزشی من دارای سه کلاس A، B و C هستند. من از 3 طبقه بندی کننده SVM یک در مقابل همه استفاده می کنم. برای یک نمونه آزمایشی خاص، همه طبقه‌بندی‌کننده‌ها به ترتیب «نه A»، «نه B» و «نه C» می‌گویند. چگونه می توانم این نمونه را به یکی از کلاس ها اختصاص دهم؟ من سعی کردم از یک کلاس 'تخصیص نشده' استفاده کنم، اما نرخ خطا بسیار زیاد است. یک سوال دیگر: وقتی دو یا چند طبقه‌بندی‌کننده یک نمونه آزمایشی را مثبت می‌دانند، باید با کدام یک پیش بروم. در جایی خواندم که باید از عملکرد خروجی SVM استفاده کنید. حالا اون چیه؟ Matlab svmStruct زیر را ارائه می دهد: 1. SupportVectors 2. Alpha 3. Bias 4. KernelFunction 5. SupportVectorIndices 6. دیگران چگونه از اینها برای تولید مقدار خروجی استفاده کنم؟ همچنین، من تکنیک پلات را کاملاً درک نکردم. چگونه با استفاده از عناصر svmStruct آن را پیاده سازی کنم. این سوال مرتبط است اما بی پاسخ مانده است.
کلاس های تخصیص نیافته در SVM چند کلاسه با رویکرد One vs All
41601
برای کاری که باید مستندسازی کنم، در برخی مواقع N نمونه‌برداری مجدد از نمونه اولیه انجام می‌دهم و N معنی از آنها تولید می‌کنم (نوعی راه‌اندازی). خیلی آسان است، اما من نمی دانم چگونه آن را به صورت ریاضی بنویسم، من به چیزی مانند: $\tilde x = \sum_{k\in\Gamma} x_k$ فکر می کردم و سپس $\Gamma$ را به عنوان یک مجموعه توصیف می کنم. هر ایده ای؟
علامت گذاری میانگین نمونه گیری مجدد
87666
در حین مطالعه یک مقاله (منتشر شده و بررسی شده، که در زیر به آن ارجاع داده شده است) که به بررسی نسبت انواع بافت های مختلف در مغز انسان می پردازد، به جدولی برخوردم که داده های مربوط به زیر گروه های مختلف در این مطالعه را ارائه می دهد. داده ها به عنوان میانگین +/- SE (که من فرض می کنم خطای استاندارد است، اگرچه نتوانستم آن را در متن مشخص شده ببینم) و محدوده ارائه شده است. یک مثال سن یکی از زیر گروه ها است: n= 23 میانگین سنی = 66 SE = 2.9 محدوده سنی 60-69 این من را متحیر کرد. اگر SE 2.9 باشد، با توجه به اندازه نمونه 23، SD سن باید باشد: SD = sqrt(23) * 2.9 = 13.9 این منجر به یک انحراف استاندارد می شود که بسیار بزرگتر از محدوده تعیین شده برای سن، که نباید امکان پذیر باشد. من یک مبتدی در دنیای آمار هستم، بنابراین سؤال من به سادگی این است که آیا می توان از این نتیجه به این نتیجه رسید که یک یا چند مقدار داده شده باید نادرست باشد یا اینکه چیزی را از دست داده ام که این داده ها را به درستی تبدیل کند. حس متشکرم مرجع: Guttmann CR, Jolesz FA, Kikinis R, et al. ماده سفید با پیری طبیعی تغییر می کند. عصب شناسی 1998؛ 50: 972-978.
وقتی که اندازه نمونه را می دانیم، چه زمانی خطای استاندارد میانگین برای یک محدوده داده معین غیرممکن است؟
99914
من می‌دانم که f-measure (بر اساس دقت و یادآوری) تخمینی از دقت طبقه‌بندی‌کننده است. همچنین، زمانی که یک مجموعه داده نامتعادل داریم، F-Measure بر دقت ترجیح داده می شود. من یک سوال ساده دارم (که بیشتر در مورد استفاده از اصطلاحات صحیح است تا در مورد تکنولوژی). من یک مجموعه داده نامتعادل دارم و از f-measure در آزمایشاتم استفاده می کنم. من در شرف نوشتن مقاله ای هستم که **نیست** برای کنفرانس یادگیری ماشینی/داده کاوی. از این رو، آیا می توانم به f-measure مترادف با دقت در این زمینه اشاره کنم. به عنوان مثال، من یک اندازه گیری f برابر با 0.82 دارم، سپس می توانم بگویم طبقه بندی کننده من به پیش بینی های دقیق 82 درصدی دست می یابد؟
آیا f-measure مترادف با دقت است؟
80986
من با افزودن ویژگی های خود به `sklearn.linear_model.LogisticRegression` مشکل دارم. اما به هر حال اجازه می‌دهیم کد نمونه را ببینیم: از sklearn.linear_model import LogisticRegression، LinearRegression وارد کردن numpy به عنوان np # اعداد کلاس تگ resultsNER = np.array ([1,2,3,4,5]) # با توجه به resultNER هر ردیف یک کلاس دیگر است، بنابراین ویژگی های دیگر # است، اما به این ترتیب هر سطر دارای ویژگی های یکسان xNER = است np.array([[1.,0.,0.,0.,-1.,1.], [1.,0.,1.,0., 0.,1.], [1., 1.، 1.، 1.، 1.، 1.]، [0.، 0.، 0.، 0.، 0.، 0.]، [1.، 1.، 1.، 0.، 0. .,0.]]) # Assing resultsNER به y = resultsNER # ایجاد LogReg logit = LogisticRegression (C = 1.0) # Learn LogReg logit.fit (xNER, y) # برخی از بردارهای آزمایشی برای بررسی اینکه کدام کلاس xPP = np.array ([1.,1) را پیش‌بینی می‌کند. ,1.,0.,0.,1.]) # linear = LinearRegression() # linear.fit(x, y) print expected: , y print predicted:، logit.predict(xPP) print decision: , logit.decision_function(xNER) print logit.coef_ # print linear.predict(x) print params: , logit.get_params(deep=True) کد بالا واضح و آسان است. بنابراین من چند کلاس دارم که آنها را «1،2،3،4،5(resultsNER)» نامیدم، آنها بر اساس برخی کلاس‌ها مانند «داده»، «شخص»، «سازمان» و غیره هستند. بنابراین برای هر کلاس ویژگی‌های خاص خود را می‌سازم. که در این مورد «1» و «0» درست یا نادرست را برمی‌گردانند. مثال: اگر توکن برابر با (S|s)unday باشد کلاس داده است. از نظر ریاضی مشخص است. من برای هر کلاسی که آن را آزمایش می‌کنم، نشانه‌هایی دارم. سپس نگاه می‌کنم که کدام کلاس حداکثر مقدار مجموع ویژگی‌ها را دارد (به همین دلیل است که عدد را برمی‌گرداند نه بولی) و آن را انتخاب می‌کنم. به عبارت دیگر: من از تابع argmax استفاده می کنم. البته به طور خلاصه هر ویژگی دارای ضرایب آلفا است. در این مورد، طبقه‌بندی چند کلاسه است، بنابراین باید بدانم چگونه ویژگی‌های چند کلاسه را به «sklearn.LogisticRegression» اضافه کنم. من به دو چیز به ضرایب آلفا نیاز دارم و اینکه چگونه ویژگی های خودم را به رگرسیون لجستیک اضافه کنم. مهمترین چیز برای من این است که چگونه به «sklearn.LogisticRegression» عملکرد ویژگی های خودم را برای هر کلاس اضافه کنم. می دانم که می توانم ضرایب را با نزول گرادیان محاسبه کنم. اما فکر می‌کنم وقتی از «fit(x,y)» استفاده می‌کنم، «LogisticRegression» از برخی الگوریتم‌ها برای محاسبه ضرایب استفاده می‌کند که می‌توانم با ویژگی «.coef_» به دست بیاورم. بنابراین در پایان سوال اصلی من این است: **چگونه ویژگی های خود را برای کلاس های مختلف در کلاس نمونه خود اضافه کنیم`1,2,3,4,5(resultNER)`؟**
ویژگی های رگرسیون لجستیک sklearn
30159
شخصی این سوال را در یک مصاحبه شغلی از من پرسید و من پاسخ دادم که توزیع مشترک آنها همیشه گوسی است. فکر می کردم که همیشه می توانم یک گاوسی دو متغیره با میانگین ها و واریانس ها و کوواریانس های آنها بنویسم. می‌خواهم موردی وجود داشته باشد که احتمال مشترک دو گاوسی گاوسی نباشد؟
آیا می توان یک جفت متغیر تصادفی گاوسی داشت که توزیع مشترک آنها گاوسی نباشد؟
47607
اگر در مورد احتمال به دست آوردن فکر می کردم: * فقط یک سر در دو پرتاب - 2/4 * فقط یک سر در سه پرتاب = 3/8 یا 37.5٪ اما من فقط روی انگشتانم می شمردم، چگونه این کار را برای اعداد بزرگ انجام می دهید. ?
نحوه محاسبه احتمال به دست آوردن 1 سر در 2 ورق سکه یا 1 سر در 12 تلنگر و غیره
80985
فرض کنید من یک مجموعه داده {p1, p2,...pN} دارم که در آن pi=(xi,yi), i=1,2,..., N. چگونه می توانم وزن wi را به هر نقطه داده pi در وزن اختصاص دهم حداقل مربعات مناسب؟ کسی میتونه کمکم کنه؟ من آمارگیر نیستم من اطلاعات کمی در مورد آمار دارم.
چگونه می توانم وزن را به هر مشاهده از داده ها در برازش حداقل مربعات وزنی اختصاص دهم؟
76472
من داده های توالی RNA (= بیان یک پروتئین خاص) از تومور ریه 14 بیمار، 5 غیر سیگاری و 9 سیگاری دارم. اگر بخواهم میزان بیان آن پروتئین افراد سیگاری و غیرسیگاری را مقایسه کنم، از کدام آزمایش استفاده کنم؟ مجموعه داده پارامتریک به نظر نمی رسد، بنابراین من معمولاً آزمایش Wilcoxon را امتحان می کنم، اما اینها داده های جفتی نیستند، نه؟ خیلی ممنونم!
کدام آزمون را اجرا کنم؟
44166
من با هسته‌ها تازه کار هستم و در حین تلاش برای هسته‌سازی kNN به مشکل برخوردم. ## مقدمات من از یک هسته چند جمله ای استفاده می کنم: $K(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d$ شما kNN اقلیدسی معمولی از متریک فاصله زیر استفاده می کند: $d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert$ اجازه دهید $f(\mathbf{x})$ $\mathbf{x}$ را به فضایی با ابعاد بالاتر نگاشت. سپس مجذور متریک فاصله فوق در فضای هیلبرت را می توان با محصولات داخلی بیان کرد: $d^2(f(x), f(y)) = K(\mathbf{x},\mathbf{x}) - 2K (\mathbf{x}, \mathbf{y}) + K(\mathbf{y} ,\mathbf{y})$ توجه داشته باشید که اگر اجازه دهیم $d = 1$ مقدار بالا به فاصله استاندارد اقلیدسی شما منحرف خواهد شد. ## سوال مشکل اصلی من این است که نمی‌توانم ببینم چگونه هسته‌سازی kNN نتایج بهتری ایجاد می‌کند، همانطور که به طور تجربی توسط این مقاله نشان داده شده است (هشدار، پیوند مستقیم pdf!).
Kernelised k نزدیکترین همسایه
76475
اغلب، اگر مقدار بارگذاری آن در جدول بارگذاری بالاتر از یک مقدار قطع باشد (فرض کنید 0.4 یا 0.5 در برخی موارد منتشر شده) باشد، یک متغیر به طور قابل توجهی در رایانه شخصی بارگذاری شده است. آیا روشی آماری/ریاضی برای بررسی اینکه آیا یک متغیر به طور قابل توجهی روی یک رایانه شخصی بارگذاری شده است یا خیر وجود دارد؟
تجزیه و تحلیل مؤلفه اصلی: آیا یک متغیر به طور قابل توجهی روی یک جزء اصلی بارگذاری می شود یا خیر؟
41604
بلیط سنگ در باجه بلیط فروخته می شود. زن و مرد در زمان‌های فرآیندهای پواسون مستقل با نرخ‌های 30 و 20 وارد می‌شوند. > احتمال اینکه سه مشتری اول زن باشند چقدر است **My Work** اجازه دهید $F(t)، M(t)$ تعداد آنها باشد. ماده ها، نرها به ترتیب تا زمان $t$ می رسند. سپس اگر $M(t) + F(t) = 3$ را شرط کنم، $$\Bbb P(F(t) = 3، M(t) = 0 | M(t) + F(t) دریافت می کنم. = 3) = {\exp(-30t) (30t)^3/3! \cdot \exp(-20t)(20t)^0/0! \over \exp(-50t)(50t)^3 /3!}$$ آیا این درست است؟ پاسخ من، پس از لغو، به ${30^3 \ بیش از 50^3}$ می رسد که کمی خیلی ساده به نظر می رسد؟ دقیقاً $\Bbb P (\text{ورود زن})^3$ است.
فرآیند پواسون باعث لاغری ماده ها و نرها می شود
44169
فرض کنید من به دنبال بهینه سازی مقدار ادویه های خاص در دستور العمل ادویه چیلی بودم. طرح آزمایشی کتاب درسی می‌خواهد مقدار هر ادویه را در متغیر طراحی رمزگذاری کنم، نوعی ماتریس طراحی را انتخاب کنم، برای هر ردیف از ماتریس طراحی یک قابلمه فلفل بپزم (یکی باید میانبرهایی را در آشپزخانه انتخاب کند! ) و برای هر انتخاب از متغیرهای طراحی یک متغیر وابسته عددی اختصاص دهید. این عملیات اخیر برای چیزی مانند فلفل قرمز (یا کاربرد واقعی من که یک راز است) دشوار است. به احتمال زیاد یک آزمایش‌کننده طعم می‌تواند دو دستور غذای مختلف را بچشد و تشخیص دهد که کدام بهتر است، اما تخصیص یک نمره عددی به انواع مشکلات (رانش در طول زمان و غیره) بستگی دارد. بنابراین من یک سوال دو قسمتی دارم، و آنها در هم تنیده شده اند: 1. با توجه به نتایج تعدادی از این مقایسه ها، چگونه باید بردار بهینه متغیرهای طراحی را انتخاب کرد؟ (به عنوان اولین گذر، ممکن است به «مرتب‌سازی پر سر و صدا» نگاه کنم، اما مثلاً چیزی کمتر شیک، بر اساس رگرسیون لجستیک، انتخاب بهتری است.) 2. پس از انتخاب روش ارزیابی، چگونه باید آزمایش را طراحی کنم. ?
طراحی تجربی برای پاسخ های مقایسه ای
80988
من 3 ابزار مالی دارم: A، B و C. و 3 جفت همبستگی در دسترس دارم: (A, B) = 0.9 (B, C) = 0.9 (A, C) = 0.5 باید ابزارهای بسیار همبسته را حذف کنم. یعنی فقط B، زیرا A و C همبستگی کمی دارند (0.5). چگونه می توانم آن را به صورت الگوریتمی در هر تعداد ابزار انجام دهم؟
ابزارهای بسیار همبسته را حذف کنید
8242
من می‌خواهم از R برای ترسیم چیزی شبیه به این استفاده کنم: ![چیزی شبیه این](http://i.stack.imgur.com/oY7UO.png) به نظر می‌رسد ردیابی مختصات ممکن است اما بسیار پیچیده است. عرض، ارتفاع، و غیره. به طور شهودی به نظر می رسد بهتر است هر سلول را به عنوان یک نمودار جدید در نظر بگیریم و مختصات هر سلول را تغییر دهیم. آیا راهی برای انجام این کار در R وجود دارد؟ با تشکر
ترسیم خطوط جرقه در R
83756
من مجموعه داده ای را که دارای 20 مشاهدات است نسبت داده ام. از شرکت‌کنندگان خواسته شد تا اهمیت 13 متغیر را در شرایط خاصی از 0 تا 25 رتبه‌بندی کنند. من این را با استفاده از موش(imp=25، max_it=25) نسبت دادم و پس از چند ساعت یک مجموعه داده خوب دریافت کردم. من اکنون با استفاده از نمودارهای جعبه در هر شرایط آن را تجزیه و تحلیل می کنم (بنابراین 13 نمودار جعبه در یک زمان)، اما تعجب می کنم که چگونه می توانم اهمیت در هر شرایط جعبه را اندازه گیری کنم. ![Groups of boxplots](http://i.stack.imgur.com/2Kojw.png) در مثال بالا واضح است که شرایط «درآمد: 0 تا 2 میلیون» با «درآمد: 10 تا» متفاوت است. 50 میلیون و احتمالاً از 2 تا 10 میلیون، اما چگونه می توانم این را از نظر آماری اندازه گیری کنم؟ داده های من توزیع نرمال دارند. یکی از دوستان ANOVA را توصیه کرد، اما این یک متغیره است و من احساس می کنم که 20 مشاهده خیلی کم است... دیدم: چگونه دو گروه را در مقیاس مهارت های اجتماعی که شامل 5 خرده مقیاس است که هر خرده مقیاس عددی از 12 صحیح است مقایسه کنیم؟ اما واقعا مطمئن نیستم که آیا این مورد اعمال می شود زیرا غیر پارامتری آن است.
تجزیه و تحلیل معناداری در متغیرهای گروه بندی شده
83750
من از کمک در تمرین زیر سپاسگزارم: اجازه دهید متغیر تصادفی $Y$ تابع تولید لحظه را داشته باشد $$M(t)=\exp\\{q(\theta)-q(\theta+t) \\} $$ که در آن $q(.)$ یک تابع است. اگر $E[Y]=\theta$، ثابت کنید که $Y\sim N(\theta,1)$. ** نکته: $M\prime (0) =\theta$ را در نظر بگیرید و معادله دیفرانسیل را حل کنید. =-q \prime (\theta)=\theta $$ یک راه حل این معادله دیفرانسیل $ q (\theta)=C\exp\\{-\theta \\}$ است که $C$ یک ثابتی که در تعیین آن مشکل دارم. می ترسم به بن بست رسیده ام. فکر می کنم باید نشان دهم که MGF به شکل $\exp\\{\theta t +(1/2) t^2 \\}$ است، یعنی MGF یک توزیع نرمال با میانگین $\theta$ و واریانس 1 دلار اما برای انجام این کار، باید ثابت را تعریف کنم که به دلیل عدم وجود شرایط مرزی، به نظر نمی رسد قادر به انجام آن باشم. توصیه ای در مورد نحوه ادامه کار از اینجا دارید؟ متشکرم.
یک تمرین MGF
44167
من دو مدل رگرسیون خطی چند متغیره دارم (نتایج چندگانه، به عنوان مثال، پاسخ‌ها یک ماتریس هستند)، و عملکرد آنها را با استفاده از $R^2$ در اعتبارسنجی متقاطع، روی این پاسخ‌های فردی و در همه پاسخ‌ها اندازه‌گیری می‌کنم. همچنین می‌خواهم تفاوت در $R^2$ را با استفاده از یک p-value، به عنوان مثال t-test (پس از تبدیل فیشر $R^2$ برای نرمال بودن بهتر و غیره) کمیت کنم. در حال حاضر، این پاسخ ها به شدت با یکدیگر مرتبط هستند. بنابراین، میانگین R^2$ روی پاسخ‌ها در یک برآورد واحد، من را نگران می‌کند، زیرا آنها مستقل نیستند، و یک آزمون معناداری که این را نادیده می‌گیرد ممکن است به شدت مغرضانه باشد. آیا به جای آن باید یک مقدار p جداگانه برای هر نتیجه دریافت کنم و سپس از چند تصحیح تست استفاده کنم؟
مقایسه مدل در بین پاسخ‌های مرتبط چندگانه
76479
من می خواهم یک دنباله باینری شبه تصادفی از 0 و 1 را پیش بینی کنم. من به استفاده از بسته HMM در R فکر می کنم. من یک دنباله باینری مانند ... 0 1 0 0 1 1 0 1 x(n+1) دارم؟ با هزاران ارزش چیزی که من می خواهم این است که تخمین خودکار x(n+1) را دریافت کنم و هر بار ماتریس prob.matrix آنها را به طور خودکار محاسبه کنم. سوال این است که بدانیم، اگر یک HMM (یا هر الگوریتم دیگری) می‌تواند P > 0.5 را برای رویدادهای باینری که تست‌های تصادفی را پشت سر می‌گذارند، ارائه دهد، اما توسط الگوریتم‌های قطعی، مانند LCG تولید می‌شوند. یه همچین چیزی؛ http://www.stanford.edu/class/stats366/hmmR2.html اما با استفاده از یک فایل داده با دنباله باینری، بنابراین prob.matrix را نمی توان قبلاً تخمین زد. متشکرم
استفاده از مدل‌های R و مارکوف پنهان برای پیش‌بینی توالی‌های باینری شبه تصادفی بهتر از P > 0.5؟
103081
رگرسیون با استفاده از OLS برآورد شد. y=a0 + a1x1 + a2x2 + خطا را دریافت می کنیم. ماتریس کوواریانس ∑ برآوردگر خود را می دانیم. **1\. چگونه فاصله اطمینان را برای نسبت a1/a2 بدست آوریم؟** **2\. در چه صورت فاصله اطمینان بیشتر خواهد بود - اگر همبستگی مثبتی بین a1 و a2 وجود داشته باشد یا اگر همبستگی وجود نداشته باشد؟ اولی فقط به شرح رویه مربوط می شود. من آن را در امتحاناتم امروز دریافت کردم و نمی دانستم چگونه آن را کنار بگذارم ;) هیچ ایده ای دارید؟
مشکل رگرسیون
100766
من باید یک انتگرال از 3 متغیر چگالی $f(x_1, x_2, x_3)$ را محاسبه کنم که در دامنه $D$ تعریف شده است، در منطقه $$T=\\{x \in R³|f(x) \ geq M \\}$$ با استفاده از MCMC، که در آن $M$ یک ثابت مثبت داده شده است. با تعریف تابع $g(x)=1\;if\;f(x)\geq M$ و $g(x)=0\;if\;f(x)<M$، $$\int_T داریم f(x)dx = \int_Dg(x)f(x)dx$$ بنابراین تخمین MC برای انتگرال $$ \bar{I}= \frac{1}{N} \sum_{i=1}^N g(x_i)،\; x_i \sim f$$ مقدار $M$ من $f(a,b,c)$ است که $(a,b,c)$ حداکثر تابع $f$ با محدودیت $$a = \ است. rho \; c \; \Gamma\left(1 + \frac{1}{b}\right)$$ برای $0<\rho<1$. مشکل من زمانی است که سعی می‌کنم از الگوریتم پیاده‌روی تصادفی Metropolis با یک نرمال سه‌متغیره (میانگین آخرین حالت است) استفاده کنم تا نمونه توزیع شده به صورت $f$ را پیدا کنم. اگر $\rho$ را تغییر دهم، $(a,b,c)$ از نقطه حداکثر تابع (که به عنوان حالت اولیه زنجیره خود استفاده می کنم) نزدیکتر می شود یا خیر. اگر نقطه به ماکزیمم توزیع من نزدیک باشد، نمی‌خواهم وقتی زنجیره را اجرا می‌کنم، زنجیره آنقدر دور شود، زیرا در این حالت، $g$ تقریباً همیشه صفر خواهد بود. اما اگر واریانس‌های کمی را در ماتریس کوواریانس خود برطرف کنم، زمانی که نقطه از حداکثر توزیع فاصله دارد (بنابراین می‌خواهم زنجیره کمی بیشتر در توزیع حرکت کند)، تخمین‌های اشتباهی برای انتگرال به من می‌دهد. بنابراین فکر می کنم ماتریس کوواریانس من به $\rho$ بستگی دارد. اما چگونه می توانم ضرایب ماتریس کوواریانس مناسب را پیدا کنم؟ من نتوانستم محدودیت را تجزیه و تحلیل کنم تا بتوانم رابطه مناسب را پیدا کنم. امیدوارم شکم روشن باشد. پیشاپیش متشکرم
الگوریتم پیاده روی تصادفی کلانشهر - ماتریس کوواریانس
44839
من یک مدل جلوه های ثابت را اجرا می کنم. متغیر مستقل من حضور در فروشگاه است و یکی از متغیرهای وابسته من، i.county، اثرات ثابت کانتی را اندازه گیری می کند. من از «xi: regress store_presence i.county other_var othervar2» استفاده می کنم که در آن «county» کد شهرستان ایالات متحده، یک متغیر رشته ای است. اما خروجی رگرسیون گزارش می دهد که برخی از متغیرها به دلیل همخطی بودن حذف شده اند. برای رفع این خطا و ثبت افکت های ثابت در کانتی در مدل خود چه باید بکنم؟
اجرای آمار مدل با جلوه های ثابت
87367
در رگرسیون پشته می دانیم که ![](http://i.stack.imgur.com/3YeSy.jpg) به عنوان تخمینی از $\beta$ است و این حداقل مجموع مربعات باقیمانده را به دست می دهد: ![]( http://i.stack.imgur.com/1vkIm.jpg) و ما می دانیم که ![](http://i.stack.imgur.com/6rmkv.jpg) سوال این است که چگونه برای نشان دادن آن![](http://i.stack.imgur.com/UwgBB.jpg)
در مورد فاصله بین پارامترها در رگرسیون ریج
8246
من در حال ارزیابی یک طبقه‌بندی کننده تجزیه و تحلیل متمایز درجه دوم (QDA) بر روی یک مجموعه ویژگی با ابعاد بالا هستم. ویژگی ها از توزیع های بسیار غیر گاوسی می آیند. با این حال، زمانی که من ویژگی‌ها را به دو روش مختلف به توزیع گاوسی تبدیل می‌کنم، طبقه‌بندی‌کننده‌های به‌دست‌آمده بدتر از QDA اعمال شده بر روی ویژگی‌های خام با سه معیار زیر عمل می‌کنند: * دقت (کلاس‌ها متعادل هستند) * مساحت زیر ROC * A متریک احتمالی اولین روش تبدیل هر ویژگی به توزیع گاوسی کلاس را نادیده گرفت. برای هر ویژگی، پارامترهای توزیع مربوطه را پیدا کرد، از تابع CDF توزیع یا تقریب برای هر نقطه داده استفاده کرد، و سپس از CDF معکوس گاوسی استفاده کرد. راه دوم نیز همین کار را انجام داد، اما شامل برچسب‌های کلاس و داده‌های مربوط به هر کلاس به طور مستقل بود. هیچ ایده ای دارید که چرا این اتفاق می افتد؟ من تأیید کرده ام که به دلیل ... 1. اشکال در کد 2. تغییر توزیع از مجموعه قطار به مجموعه آزمایشی
استفاده از QDA برای توزیع های غیر گاوسی
14219
من سعی می کنم با R به سرعت بالا بروم. در نهایت می خواهم از کتابخانه های R برای انجام طبقه بندی متن استفاده کنم. من فقط به این فکر می کردم که تجربیات مردم در مورد مقیاس پذیری R در هنگام انجام طبقه بندی متن چیست. من به احتمال زیاد با داده های با ابعاد بالا (~300k ابعاد) مواجه می شوم. من به دنبال استفاده از SVM و Random Forest به عنوان الگوریتم های طبقه بندی هستم. آیا کتابخانه های R به اندازه مشکل من مقیاس می شوند؟ با تشکر ویرایش 1: فقط برای روشن شدن، مجموعه داده های من احتمالا 1000-3000 ردیف (شاید کمی بیشتر) و 10 کلاس دارد. ویرایش 2: از آنجایی که من در R بسیار تازه کار هستم، از پوسترها درخواست خواهم کرد که در صورت امکان دقیق تر باشند. به عنوان مثال، اگر شما یک گردش کار/خط لوله را پیشنهاد می کنید، لطفاً در صورت امکان، کتابخانه های R را که در هر مرحله دخیل هستند ذکر کنید. برخی از اشاره گرهای اضافی (به مثال ها، کد نمونه و غیره) می توانند روی کیک باشند. ویرایش 3: اول از همه، از نظرات شما تشکر می کنم. و دوم اینکه عذرخواهی می کنم شاید باید زمینه بیشتری برای مشکل می دادم. من با R جدید هستم اما در طبقه بندی متن زیاد نیستم. من قبلاً با استفاده از بسته tm برخی از داده‌هایم را پیش پردازش (پایه‌بندی، حذف کلید واژه، تبدیل tf-idf و غیره) انجام داده‌ام، فقط برای اینکه احساسی نسبت به چیزها داشته باشم. tm حتی در حدود 200docs آنقدر کند بود که من نگران مقیاس پذیری شدم. سپس شروع به بازی با FSelector کردم و حتی آن هم واقعا کند بود. و این نقطه ای است که در آن OP خود را انجام دادم. ویرایش 4: همین الان به ذهنم رسید که من 10 کلاس و حدود 300 مدرک آموزشی در هر کلاس دارم و در واقع دارم ماتریس termXdoc را از کل مجموعه آموزشی می سازم که در نتیجه ابعاد بسیار بالایی دارد. اما در مورد کاهش هر مسئله طبقه بندی 1-از-k به یک سری مسائل طبقه بندی باینری چطور؟ این امر تعداد اسناد آموزشی (و در نتیجه ابعاد) را در هر یک از مراحل k-1 به طور قابل توجهی کاهش می دهد، اینطور نیست؟ پس آیا این رویکرد خوب است؟ چگونه از نظر دقت با اجرای معمولی چند کلاسه مقایسه می شود؟
چقدر R به وظایف طبقه بندی متن مقیاس می دهد؟
76471
کار بر روی یک مشکل HW، و یک اشاره این است که برای یک قانون تصمیم $$T(X) = \frac{X_{(1)} + X_{(n)}}{2}$$ سپس $$T - \ نوار{X} $$ فرعی است. از نظر شهودی این کاملاً منطقی است، اما من نمی توانم ببینم چگونه این را نشان دهم. به این فکر کردم که به pdf یک آمار مرتب شده بروم: $$g_i(x) = \frac{n!}{(i-1)!(n-i)!}[F(x)]^{i-1}[ 1-F(x)]^{n-i}f(x)$$، که برای i = {1,n} به $$g_1(x) = کاهش می یابد n[1-F(x)]^{n-i}f(x)، \:\:\:\: g_n(x) = n[F(x)]^{n-i}f(x)$$ اما من احتمالاً برای دریافت pdf T به کانولوشن از آنجا نیاز خواهد داشت. احساس می‌کنم خیلی دور هستم و چیز ساده‌تری در اینجا وجود دارد که نشان می‌دهد کم کردن $\bar{X}$ T را مستقل از تتا می‌کند. به هر حال $X \sim N(\theta, \sigma^2)$, $\sigma$ شناخته شده با تشکر! * * * در پاسخ به نظرات: سپس $$T - \theta = \frac{1}{2} \left[ (X_{(1)} - \theta) + (X_{(n)} - \theta) \right]$$ و از آنجایی که $X_{(1)}$ یک خانواده مکان است $X_{(1)} = Z_{(1)} + \theta$$ که $Z_{(1)}$ است اول سفارش داد آمار یک بردار نرمال استاندارد، که به معنای $X_{(1)} - \theta = Z_{(1)} \sim \left[ 1 - \int\limits_{-\infty}^z (2\pi) است. ^2\exp(\frac{-z^2}{2})dz \right]^{n-1} (2\pi)^{-1/2}\exp(\frac{-z^2}{2})$$ که به تتا بستگی ندارد. به طور مشابه $X_{(n)} - \theta$ نیز به $\theta \Longrightarrow T وابسته نیست - \theta$ برای $\theta$ کمکی است. اما یک مشکل بزرگ، من $\theta$ را کم می کنم، نه $\bar{X}$. مگر اینکه در مورد یک آمار فرعی مرتبه اول صحبت کنم (که در آن $E\bar{X} = \theta$)، من یک بار دیگر گیج شدم، lol. باز هم، برای هر گونه کمک اضافی متشکرم!
نشان دادن اینکه یک آمار برای یک پارامتر کمکی است
83755
من اخیراً پروژه ای را اجرا کردم که شامل یک مرحله انتخاب ویژگی قبل از تشخیص بیشتر الگو است. تعداد ویژگی‌های مجموعه داده ما بسیار زیاد است و به جای اجرای حریصانه انتخاب ویژگی‌های رو به جلو/عقب. من به سادگی آزمون T دانشجویی را روی ویژگی ها اجرا می کنم و آنها را بر اساس مقادیر p رتبه بندی می کنم تا «قدرتمندترین» ویژگی ها را برای کار طبقه بندی خود پیدا کنم. با این حال، من استدلالی از همکارانم دریافت کردم که این نوع روش انتخاب ویژگی مبتنی بر آزمون T دانشجویی بهینه نیست. به عنوان مثال، انتخاب ویژگی رو به جلو یا عقب می تواند بهترین ویژگی ها را پیدا کند تا زمانی که عملکرد طبقه بندی نتواند بهبود یابد (بنابراین، آنها می توانند زیر مجموعه ویژگی های بهینه را پیدا کنند). من نمی دانم آیا کسی منابعی (مقاله، پایان نامه) را می شناسد که آزمایش هایی را انجام دهد تا ثابت کند که روش انتخاب ویژگی مبتنی بر آزمون T دانشجویی می تواند مانند روش های جامع عمل کند؟ یا هیچ پیش زمینه ریاضی برای این موضوع وجود دارد؟ خیلی ممنون A. من یک مقاله مرتبط در PlosOne پیدا کردم: یک کاغذ
مقایسه روش های انتخاب ویژگی
96210
من باید $$\int_A f(x) \ را محاسبه کنم. dx$$ از طریق نمونه‌برداری اهمیت مونت کارلو و برای اهداف شبیه‌سازی، باید واریانس و میانگین برآوردگرم را محاسبه کنم. در روش نمونه گیری اهمیت، یک متغیر تصادفی $X$ داریم که pdf $g$ فقط در $A$ تعریف شده است. سپس، تخمین مونت کارلوی انتگرال $$\frac است{1}{n}\sum_{i=1}^n \frac{f(x_i)}{g(x_i)}، x_i \sim X$$ که به انتگرال داده شده همگرا می شود، زیرا $$\int_A f(x) \; dx = \int_A \frac{f(x)}{g(x)}g(x) \; dx$$ من باید انتظار و واریانس (یا انحراف معیار) تخمین مونت کارلو را برای انتگرال خود محاسبه کنم. البته از آنجایی که شبیه سازی است، باید آن را با استفاده از مجموع و در تابع $n$ خود محاسبه کنم. چگونه می توانم این کار را انجام دهم؟ من فکر کردم که $$ \sigma = \left(\frac{1}{n} \sum_{i=0}^n \left(\frac{f(x_i)}{g(x_i)}-I\right) ^2 \right)^{\frac{1}{2}}$$ اما فکر می‌کنم این درست نیست. در واقع باید خطای نسبی شبیه سازیم را محاسبه کنم که فکر می کنم با سهمیه انحراف معیار و میانگین داده می شود اما با این فرمول آنطور که انتظار می رود کاهش نمی یابد. پیشاپیش ممنون
ادغام از طریق نمونه گیری اهمیت - انتظار و واریانس
7594
فرض کنید تعداد اتاق های هتل در یک شهر X باشد. ما نرخ ورود بازدیدکنندگان را هر روز می دانیم. اشغال فعلی را نمی دانیم. آیا می توان 1. نرخ اشغال را در تمام اتاق های هتل تخمین زد (فرض کنید 1 بازدید کننده / اتاق) 2. توزیع مدت اقامت را تخمین بزنید (فرض کنید هر بازدید کننده حداقل 1 روز بماند) از طرف دیگر، اگر فقط اشغال را بدانیم. نرخ، آیا می توانیم تعداد کل اتاق های هتل را از روی داده های ورود تخمین بزنیم؟
برآورد نرخ اشغال از نرخ ورود
15569
من سعی می کنم روشی مناسب برای بررسی اثر متقابل معنادار در تحلیل های رگرسیون چندگانه سلسله مراتبی خود بیابم. من به تحلیل تعدیل نگاه می کنم، اما بیشتر روش ها (ماکروها و غیره) متغیرهای کمکی را در معادلات رگرسیون من در نظر نمی گیرند. به من توصیه شد که برنامه Stata را امتحان کنم اما در حال حاضر به آن دسترسی ندارم. * آیا برنامه آماری دیگری وجود دارد که بتوانم رگرسیون تعدیل کننده را با متغیرهای کمکی انجام دهم؟ * چگونه می توانم آنالیز شیب های ساده را با کوواریت انجام دهم؟
چگونه یک اثر تعدیل کننده را در رگرسیون چندگانه سلسله مراتبی با متغیرهای کمکی تحلیل کنیم؟
15567
من یک رویداد بسیار نادر را شبیه سازی می کنم (تشخیص بسته های فوتون وزن دار در یک ماده بسیار جذب کننده). برای مثال، من ممکن است انتقال فوتون های 1e9 را شبیه سازی کنم و فقط 10 مورد از آنها را شناسایی کنم (و وزن آنها از 0^+$ تا 1 متغیر است). من مقدار میانگین این اتفاق را محاسبه می‌کنم (میانگین $\sum w_{received}/N_{transmitted}$ چیست، که $w_{received}$ وزن فوتون‌های دریافتی و $N_{انتقال‌شده} است. $ تعداد فوتون های ارسالی است) و یک فاصله اطمینان روی آن قرار دهید. درک من این است که میانگین جمعیت، $\mu$ در یک انحراف نرمال استاندارد $\bar{x} \pm S_N/\sqrt{N}$ قرار دارد، که $\bar{x}$ میانگین نمونه است، $ S_N$ واریانس نمونه است و $N$ تعداد نمونه ها است. سوال من این است، چگونه می توانم بفهمم که به اندازه کافی نمونه مثبت یا فوتون دریافت کرده ام تا بتوانم برآورد دقیقی داشته باشم؟ از آنجایی که من با چنین احتمال کمی سر و کار دارم، تعداد کل نمونه ها، $N$ بسیار زیاد است و $S_N/\sqrt{N}$ همیشه کوچک خواهد بود. من یادداشت هایی را دیده ام که می گویند CLT فقط برای اندازه های نمونه > 30 قابل استفاده است، اما آیا این برای چیزی شبیه به این صدق می کند؟ یعنی $N_{دریافت شد}$ > 30؟ _خلاصه_: من نمونه هایی را از یک توزیع ناشناخته می کشم و میانگین آنها را محاسبه می کنم. مقادیر نمونه از 0 تا 1 متغیر است که 0 بسیار رایج تر است. من میانگین را محاسبه می کنم (که بسیار نزدیک به 0 است) و می خواهم یک فاصله اطمینان در این مورد بگذارم. **ویرایش** از توضیحات من در بالا، دو راه برای فکر کردن در مورد مشکل وجود دارد. اولی توزیع دوجمله ای از نتایج بله/خیر (بله، دریافت، نه، دریافت نشده) است. با این حال، توزیع پیچیده‌تر و در عمل مفیدتر، تا حدودی یک دوجمله‌ای وزنی است (مطمئن نیست که این عبارت درست است)، که در آن هر «بسته» فوتون دریافتی دارای قدرت مرتبط با آن است که از 0 تا 1 متغیر است. این موردی است که من بیشتر به قرار دادن فاصله اطمینان در آن اهمیت می دهم. یعنی مقادیر نمونه من غالباً 0 با تعداد کمی نمونه با مقادیر 0 < x <= 1 خواهد بود **ویرایش 2** PDF چیزی شبیه به نقشه خام زیر خواهد بود. توجه داشته باشید که برای مقیاس نیست - وزن های 0 بسیار بیشتر از وزن های غیر صفر خواهد بود. این یک پی دی اف _example_ از نمونه ها است. من نمی‌دانم قبل از انجام آزمایش چه شکلی خواهد بود - فقط می‌دانم که نمونه‌های من از 0 تا 1 متغیر هستند و مقدار غالب آن 0 است. ![نمونه PDF مقادیر نمونه](http://i. stack.imgur.com/Vqs7F.png) **ویرایش 3** اصطلاح وزن کمی گمراه کننده به نظر می رسد. مقدار نمونه یا قدرت ممکن است اصطلاح بهتری باشد. شبیه سازی من حرکت فوتون را در آب ردیابی می کند. بیشتر فوتون‌ها هرگز به گیرنده نمی‌رسند و بنابراین قدرت 0 دارند. با حرکت فوتون‌ها در آب، قدرت آن‌ها کاهش می‌یابد (برای مدل‌سازی گروهی از فوتون‌ها که حرکت می‌کنند و بخشی از آن در حین حرکت جذب می‌شود). هنگامی که این فوتون ها دریافت می شوند، وزن هایی دارند که از حداکثر 1 (بدون افت از سفر) تا عددی نزدیک به 0 متغیر است.
قرار دادن فاصله اطمینان روی میانگین یک رویداد بسیار نادر
83758
من مجموعه داده ای را وارد کرده ام که دارای بیش از 200 متغیر و 20 مشاهده است. در بدترین حالت، 80٪ از داده ها از دست رفته است، در بهترین حالت 100٪ در دسترس است. 5 نفر از 20 شرکت کننده داده هایی را برای همه متغیرها ارائه کردند. از شرکت‌کنندگان خواسته شد که اهمیت 13 متغیر را در شرایط خاصی از 0 تا 25 رتبه‌بندی کنند. من این را با استفاده از موش(imp=25، max_it=25) نسبت دادم و پس از چند ساعت یک مجموعه داده خوب دریافت کردم. من اکنون با استفاده از نمودارهای جعبه در هر شرایط آن را تجزیه و تحلیل می کنم (بنابراین 13 نمودار در هر زمان)، اما تعجب می کنم که چگونه باید این کار را انجام دهم. از یک کتاب درسی هلندی، متوجه شدم که شما تست‌ها را برای هر انتساب انجام می‌دهید و سپس نتایج را میانگین‌گیری می‌کنید. آیا این به این معنی است که من باید داده های هر متغیر/منبع را محاسبه کنم و سپس بر 25 تقسیم کنم؟ یه مقدار خام به نظر میرسه...منم موندم چقدر با این آمارهای توصیفی فرق داره...
محاسبه باکس پلات با داده های منتسب
44833
یک گروه از بیماران توسط پزشکان مورد مصاحبه قرار گرفتند و 2 درصد از بیماران به مصرف سیگار مراجعه کردند. گروه دیگری از بیماران توسط پرستاران مصاحبه شدند و میزان پذیرش آنها به سیگار 10 درصد بود. چگونه می توانم نشان دهم که تفاوت در نرخ ها از نظر آماری معنی دار است؟
مقایسه میزان پذیرش عدم ترک سیگار بین دو گروه؟
86132
لطفا کمبود اصطلاحات من را ببخشید - نه یک فرد آماری. در اینجا پیشینه و 2 سوال: اگر من یک مجموعه نمونه نظرسنجی 100 نفری داشته باشم (در کل جمعیت بیش از 10 میلیون)، آنگاه فکر می کنم که فاصله اطمینان 9.8 در سطح اطمینان 95٪ به من می دهد. که من می فهمم. با این حال، چیزی که من نمی‌فهمم این است که چگونه بفهمم فاصله/سطح اطمینان (یا به تعبیر غیرمعمول من اهمیت آماری درست است؟) در یک سوال خاص در آن نظرسنجی چه پاسخ خاصی دارد؟ به طور دقیق تر، 100 نفر به این سوال پاسخ دادند که سازمان شما چند سرور اجرا می کند؟ و 100 پاسخ به شرح زیر تقسیم می شوند: 1-10 - 23 پاسخ 11-20 - 20 پاسخ 21-30 - 16 پاسخ 31-40 - 19 پاسخ 41-50 - 13 پاسخ 51+ - 9 پاسخ آیا سطح اطمینان / فاصله زمانی برای هر گزینه پاسخ تغییر می کند (یعنی 1-10 یا 11-20) در آن مجموعه پاسخ؟ و اگر چنین است، آیا آن را به همان روشی که برای کل پاسخ (100) انجام می‌دهید، مشخص می‌کنید - به این معنی، آیا فرض می‌کنید 23 مجموعه نمونه شما (به جای 100) برای جمعیت بیش از 10 میلیون است؟ فقط به نظر می رسد چیزی در اینجا با فکر من اشتباه است. کمک؟ و یک سوال بعدی اگر لازم بود داده‌های نظرسنجی را بر اساس پاسخ‌های سؤال بالا تقسیم کنم، به چند پاسخ دیگر نیاز دارم تا هر گزینه پاسخ (یعنی «1-10، «11-20») را به چیزی از نظر آماری معنادار تبدیل کنم. کل جمعیت بازار؟ خیلی ممنون از وقتی که گذاشتید
آیا اهمیت آماری برای زیرمجموعه‌ای از پاسخ‌ها متفاوت از آن برای کل مجموعه پاسخ‌ها محاسبه می‌شود؟
5462
این فقط برای پروژه ارشد دبیرستان من است، بنابراین لازم نیست کامل باشد. من در حال انجام پروژه ای در مورد گرمایش زمین هستم و می خواهم نظر مردم را بررسی کنم. من می دانم که اگر از یک نمونه راحت از همکلاسی هایم استفاده کنم، تعصب زیادی خواهم داشت. می خواستم بدانم آیا سایتی در اینترنت وجود دارد که بتوانم نظرسنجی خود را برای پاسخگویی افراد تصادفی پست کنم تا بتوانم تا حد امکان به یک SRS نزدیک شوم. اگر نه، من به پیشنهادهای دیگری برای انجام نظرسنجی علاقه مند هستم.
آیا سایتی وجود دارد که بتوانم نظرسنجی خود را در آن پست کنم تا بتوانم یک نماینده نمونه از جمعیت دریافت کنم؟
44999
من یک تاپیک در مورد p-value با عنوان درک مقدار p باز کردم و دو پاسخ و چند نظر دریافت کردم. فکر می‌کنم سوالات من در تاپیک تا حدودی متنوع است و می‌خواهم سوالم را با توجه به بحث در تاپیک واضح‌تر توضیح دهم. دو تعریف مختلف از p-value در موضوع پیشنهاد شد. **تعریف 1** > مقدار p $\int_{\\{x\,:\,f(x) \le f(x_o)\\}} f$ است. **تعریف 2** > مقدار p $\int_{\\{x\,:\,x_o \le x\\}} f$ است. در هر دو تعریف، $f$ فایل PDF یک آمار آزمون انتخابی تحت فرضیه صفر است و $x_o$ مقدار مشاهده شده آمار آزمون است. به نظر من این دو تعریف به اندازه کافی واضح و کامل هستند. (مقدار p فقط به داده ها، یک فرضیه صفر و یک آمار انتخابی مربوط می شود. به فرضیه جایگزین یا چیزهای دیگر مربوط نمی شود.) نقش p-value این است که میزان احتمال مشاهده تحت فرضیه صفر را کمی کنید. مقدار p کوچک به این معنی است که داده های مشاهده شده در فرضیه صفر عجیب و غریب (یعنی بعید) هستند و فرضیه صفر فرضی باید رد شود. تعریف 1 این عجیب بودن را برحسب $f(x_o)$، چگالی احتمال آماره آزمون مشاهده شده، اندازه گیری می کند. بنابراین این تعریف، $f$ را روی مقادیر آماره آزمون که چگالی احتمال کمتری دارند (یعنی عجیب‌تر) نسبت به آنچه مشاهده شده است، ادغام می‌کند. اگر محتمل ترین مقدار به خوبی تعریف شده باشد، تعریف 2 عجیب بودن را بر حسب فاصله $x_o$ از محتمل ترین مقدار آماره آزمون اندازه گیری می کند. بنابراین، این تعریف، $f$ را روی مقادیر مشاهده شده تا دم (یعنی منطقه عجیب تر) ادغام می کند. اگر $f$ یک وجهی باشد، هر دو تعریف معقول به نظر می رسند. با این حال، اگر $f$ چند وجهی باشد، به نظر من تعریف 2 معقول نیست. برای مثال، فرض کنید $f$ دووجهی است و $x_o$ جایی در ناحیه چگالی احتمال کم بین دو قله است. سپس محتمل‌ترین مقدار به خوبی تعریف نشده است و فاصله $x_o$ از محتمل‌ترین مقدار نمی‌تواند معیار معقولی برای عجیب بودن باشد. مقدار p محاسبه شده در امتداد تعریف 2 ممکن است بسیار بزرگ باشد، در حالی که مشاهده $x_o$ بدیهی است که به دلیل چگالی احتمال پایین آن عجیب است. تعریف 1 همچنان در این مورد کار می کند زیرا مقدار p کوچکی را ارائه می دهد. من آمارگیر نیستم و نمی دانم کدام یک از تعاریف «درست» است که معمولاً آمارگیران استفاده می کنند. اکثر مطالبی که قبلاً دیده بودم، p-value را به معنای تعریف 2 توضیح می دهند. اما، من برای اولین بار با تعریف 1 در پاسخ زاگ از تاپیک قدیمی مواجه شدم و متقاعد شدم. تعریف دقیق p-value چیست؟ اگر تعریف 1 نیست، می خواهم دلیل درستی و کاستی های تعریف 1 را بدانم.
p-value با PDF چندوجهی یک آمار تست
112587
امیدوارم بتوانید در مورد سوالی که مدتی است درگیر آن بودم به من کمک کنید. من در حال حاضر در حال نوشتن پایان نامه خود در مورد چگونگی دسترسی MRT (سیستم راه آهن در سنگاپور) بر قیمت مسکن های عمومی (HDB) هستم. تا الان خیلی جلو رفته ام اما به دیواری رسیده ام. من 11000 تراکنش HDB جمع آوری کرده ام که همه آنها در فاصله چند قدمی ایستگاه MRT هستند (<750 متر تا نزدیکترین ایستگاه MRT یا کمتر از 10 دقیقه پیاده روی تا نزدیکترین ایستگاه MRT). جدا از متغیرهای ساختاری معمول: * __سن_ * _____________ همچنین توانستم متغیرهای مکانی را به دست بیاورم مانند: * مدت زمان پیاده روی تا نزدیکترین ایستگاه راه آهن ( _time_walk_ ) * زمان صرف شده برای رفت و آمد، از طریق قطار، از نزدیکترین ایستگاه به ایستگاه ایستگاه CBD ( _time_train_ ) * کل زمان سفر، _time_walk + time_train_ ( _TTT_ ) با این متغیرها، من یک رگرسیون چندگانه با _Price_ به عنوان DV و _Age، Floor، Size، time_walk_ و _time_train_ به عنوان IV اجرا کردم. سپس ضرایب رگرسیون برای DV تولید شد. با این ضرایب به من اجازه داد تا تأثیر کمی را که، با ثابت بودن هر چیز دیگر، (1) هر دقیقه پیاده روی اضافی، و (2) هر دقیقه رفت و آمد اضافی در MRT، بر قیمت گذاری HDB داشت، تجزیه و تحلیل کنم. با این حال، آنچه من می خواهم بررسی کنم این است که آیا ساکنانی که در فواصل متفاوت از CBD ارزش _time_walk_ زندگی می کنند متفاوت است؟ می‌دانم که نمی‌توانم 3 مدل (در زیر نشان داده شده) ایجاد کنم، که هر کدام فقط حاوی جزئیات مربوطه باشد (مثلاً 0-9 دقیقه زمان قطار، 10-19 دقیقه زمان قطار ... و غیره) زیرا عدد n متفاوت است، بنابراین، مقایسه تخمین‌های ضریب منصفانه نیست. مدل B: (10-19 دقیقه زمان_قطار): Walking_Time چگونه بر قیمت خانه تاثیر می گذارد؟ مدل C: (20-29 دقیقه زمان_قطار): Walking_Time چگونه بر قیمت خانه تاثیر می گذارد؟ هر توصیه ای بسیار قدردانی خواهد شد. با احترام، اسلیم
SPSS: مقایسه ضریب رگرسیون برای 2 مدل
7595
من از تابع «lm» در R برای انجام مدل‌سازی تقاضا استفاده کرده‌ام (تن‌های فولادی که باید توسط شاخص‌های اقتصادی مختلف پیش‌بینی شود). من از $R^2$ و $F$ برای گزارش قدرت مدل استفاده کردم. با این حال، وقتی از تابع R «lqs» («رگرسیون مقاوم») استفاده می‌کنم و سپس «خلاصه(model_name)» را تایپ می‌کنم، هیچ آماری دریافت نمی‌کنم که بتوانم از آن برای گزارش قدرت مدل رگرسیون استفاده کنم. پیشنهادی دارید؟ ویرایش: با تشکر از پاسخ سریع شما. من با lqs() مشکلی ندارم. مشکل این است که وقتی در summary (مدل) تایپ می‌کنم، اطلاعات خوبی از تناسب (مثلاً R مربع تنظیم‌شده) دریافت نمی‌کنم، همانطور که وقتی summary (x) را وارد می‌کنم که X مدلی است که با استفاده از تابع lm ایجاد شده است. من می خواهم چیزی برای نشان دادن قدرت مدل داشته باشم. من از MASS استفاده می کنم. به زیر مراجعه کنید. با احترام، کتابخانه Bill Yarberry (MASS) M10 = lqs (agri ~ p12+p1+p11+p5+p8+p6+p25+p50+p35, data = agri_data2) خلاصه (M10) طول کریت حالت کلاس 1 -غیر- آواز عددی 1 -هیچ- کاراکتر ضرایب 10 -بستون غیر عددی 10 -بدون عددی برازش. مقادیر 103 -غیر- عددی باقیمانده 103 -غیر عددی مقیاس 2 -غیر عددی 3 عبارت فراخوانی 3 -هیچ - سطوح x تماس 0 -غیر لیست مدل 10 فهرست data.frame
چگونه می توان آمار خلاصه از رگرسیون مقاوم - lqs - در R بدست آورد؟
103084
دو معیار رایج وجود دارد که $Precision$ و $Recall$ را جمع می‌کنند، $F1$ و $\text{Precision Recall Breakevenpoint}$ وجود دارد. $F1$ را می توان به راحتی با فرمول محاسبه کرد، اما چگونه می توان $\text{نقطه سرپایی}$ را محاسبه کرد؟ من آزمایشی دارم و هر چهار مقدار را بدست می‌آورم: مثبت واقعی، مثبت کاذب، منفی واقعی، منفی کاذب، بنابراین اکنون می‌توانم Precision و Recall را محاسبه کنم، اما چگونه نقطه سربه‌سر را در این مورد پیدا کنم.
دقت فراخوان نقطه سربه سر
110124
برای تفسیر کامل این خروجی (در زیر) به کمک نیاز دارم. آیا کسی می تواند همه (تقریباً همه) برآوردگرها را در این خروجی توضیح دهد: منظور آنها چیست و تفسیر ماهوی چیست. علاوه بر این: کدام ابزار را برای آزمایش این برآوردگرها توصیه می کنید؟ متشکرم * * * inter.coxph <- coxph( Surv(time,censor)~age+drug+age*drug, method=breslow) summary(inter.coxph) n= 100 coef exp(coef) se(coef) z p سن 0.0942 1.099 0.0229 4.110 0.00004 دارو 1.1859 3.274 1.2565 0.944 0.35000 سن:دارو -0.0067 0.993 0.0337 -0.199 0.84000 exp(coef) exp(-coef) پایین .95 بالا .95 0.95 سن 1.0101.010. 0.305 0.279 38.42 سن: دارو 0.993 1.007 0.930 1.06 Rsquare = 0.295 (حداکثر ممکن = 0.997) آزمون نسبت درستنمایی = 35 در 3 df، p=1.21 Wald در آزمون 0.21 = 0.21e. آزمون p=4.83e-007 نمره (لوگرانک) = 35.2 در 3 df، p=1.13e-007
تفسیر کامل خروجی رگرسیون کاکس در R
69804
تناسب زیر را در نظر بگیرید: `fit3a=glmnet(x,g4,family=multinomial,type.multinomial=grouped)` چگونه می توانم مشخص کنم کدام ستون ها در `x` دسته بندی/چند جمله ای هستند؟ آیا گزینه ای برای تعیین شاخص متغیرهای گروه بندی شده وجود دارد؟ مستندات گزینه type.multinomial را به صورت زیر توصیف می کند: > اگر گروه بندی شده باشد، جریمه کمند گروه بندی شده روی ضرایب چند جمله ای برای یک متغیر استفاده می شود. این تضمین می کند که همه آنها در کنار هم هستند. > پیش فرض گروه بندی نشده است.
گروه بندی متغیرهای طبقه بندی شده در glmnet
44998
من سعی می کنم رگرسیون لجستیک چند جمله ای را روی داده های خود انجام دهم که به صورت زیر است (فقط هدر). ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/LLZjK.jpg) category متغیر هدف من است و همه متغیرهای دیگر متغیرهای مستقل هستند. دسته دارای مقادیری مانند 1،2،3،4،5،6،7،8،9 است. انگیزه اصلی من پیش بینی مقوله از روی متغیرهای مستقل است. در اینجا خلاصه ای از مجموعه داده های من است. ![خلاصه](http://i.stack.imgur.com/hXuNg.jpg) من از دستور زیر برای انجام رگرسیون لجستیک چند جمله ای استفاده کردم: > mod=multinom(category~hlen+iplen+ipttl+iptype+tcpsport+tcpdport+ tcpsec+tcpack+tcpwindow+tcpchksum+date_time، data=train) ![command](http://i.stack.imgur.com/bZMWw.jpg) من خروجی زیر را دریافت کردم اما نمی دانم چگونه آن را تفسیر کنم؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/c2QQR.jpg) نقطه شروع چه چیزی باید باشد یا راه دیگری برای انجام این کار وجود دارد؟ (به عنوان مثال من می دانم که چگونه خروجی رگرسیون خطی و لجستیک را برای ایجاد معادلات رگرسیون تفسیر کنم) لطفاً روی هر تصویر کلیک راست کرده و view را انتخاب کنید تا به وضوح مشاهده شود. ممنون
تفسیر خروجی رگرسیون لجستیک چند جمله ای در R
44834
آیا تفاوتی وجود دارد؟ یا اساساً یکسان هستند؟ فقط کاربران اکسل آن را جدول محوری و آماردانان آن را جدول احتمالی می نامند؟ با تشکر
تفاوت بین «جدول محوری» و «جدول احتمالی» چیست؟
69800
می خواستم بدانم مقادیر پارامترهای منظم سازی برای ridge یا lasso چقدر است. من اکثر مکان‌ها را دیده‌ام که عموماً از مقادیری مانند 0.1 یا 0.01 استفاده می‌کنند، اما در برخی از آزمایش‌های من اعتبار متقاطع پارامترهای منظم‌سازی را با مقادیر چیزی شبیه به 8.6 و 172 می‌دهد. آیا این مقادیر خوب هستند یا من کار اشتباهی انجام می‌دهم؟
مقادیر پارامترهای منظم سازی چقدر است؟
96269
من چارچوب داده زیر را دارم: $ وضعیت : فاکتور w/ 2 سطح فعال، برداشته شده: 1 1 1 1 1 1 1 1 1 1 ... $ سن: num 41 45 43 24 34 29 36 33 28 24 ... $ دوره تصدی : num 6 8 20 8 8 9 2 16 47 49 ... $ فعلی. استخدام. تاریخ: تاریخ، فرمت: 2002-01-22 2000-03-31 1989-06-12 ... $ جنسیت : فاکتور w/ 2 سطح مونث Male: 2 2 1 2 2 1 2 1 2 1 ... $ عملکرد: فاکتور با 10 سطح ،مالی،HR،..: 10 2 10 8 9 10 6 8 10 9 ... $ درجه : فاکتور با 21 سطح 11،12،13،..: 15 20 10 13 19 17 14 17 17 14 ... $ بازنشسته : فاکتور با 2 سطح نه، بله: 2 2 2 1 1 1 1 2 1 1 ... $ نژاد : فاکتور w/ 5 سطح آسیایی، سیاه،...: 5 5 5 5 1 5 5 5 5 5 ... من می خواهم از تصمیم استفاده کنم درختی برای پیش‌بینی نتیجه باینری که «وضعیت» است. من از اسکریپت زیر استفاده کردم: > tree.turnover_nonprod = tree(Status~Age+Tenure+Race+Gender+Function+Grade+Retiree, data = turnover_nonprod) > summary(tree.turnover_nonprod) درخت طبقه بندی: درخت(فرمول = وضعیت ~ سن + تصدی + نژاد + جنسیت + کارکرد + درجه + بازنشسته، داده = turnover_nonprod) متغیرهایی که واقعاً در ساخت درخت استفاده می‌شوند: [1] «تابع» تعداد گره‌های پایانه: 2 میانگین انحراف باقیمانده: 1.352 = 6774 / 5010 میزان خطای طبقه‌بندی اشتباه: 0.4419 = 2215 / 5012 چرا که مدل فقط «F» را حذف کرد. بقیه متغیرها؟ من مطمئن هستم که من در اینجا کار اشتباهی انجام می دهم اما نمی دانم چیست. با تشکر
چرا مدل درختی من فقط 1 متغیر گرفت؟
41600
من امیدوارم که از برخی داده های نظرسنجی خود انتخابی استفاده کنم (این از آن چیزهای وحشتناکی است که در صفحه شروع یک وب سایت ظاهر می شود و از شما می پرسد که آیا 5 دقیقه فرصت دارید). این برای تصمیم گیری تجاری است، بنابراین بدیهی است که من نمی خواهم اهمیت هیچ یافته ای را اغراق کنم. من یک مقاله دسترسی عمومی پیدا کرده ام که به اصلاحات هکمن در اینجا می پردازد:- http://onlinelibrary.wiley.com/doi/10.1111/1467-6419.00104/pdf آیا من درست فکر می کنم که هیچ روش آماری مشترکی وجود ندارد. برای تصحیح سوگیری انتخاب خود استفاده کنید؟ آیا موارد ساده ای وجود دارند که برای یک فرآیند تصمیم گیری سریع و کثیف مفید باشند، حتی اگر کامل نباشند؟
فاکتورگیری در سوگیری انتخاب خود
15565
### زمینه من در مورد نظریه پاسخ آیتم مطالعه کرده ام، و آن را جذاب می دانم. من معتقدم که اصول اولیه را درک می کنم، اما در تعجب هستم که چگونه تکنیک های آماری مربوط به منطقه را به کار ببرم. در زیر دو مقاله مشابه با منطقه ای وجود دارد که می خواهم ITR را در آن اعمال کنم: * http://www.jstor.org/stable/4640738?seq=7 * http://www.ncbi.nlm.nih.gov /pubmed/21744971 دومی موردی است که من واقعاً می خواهم در این برهه از زمان آن را گسترش دهم. من یک برنامه رایگان به نام jMetrik دانلود کردم و به نظر می رسد که عالی کار می کند. من فکر می کنم تا آنجا که IRT می رود ممکن است خیلی ابتدایی باشد، اما مطمئن نیستم. من می دانم که بهترین راه احتمالاً شامل یادگیری R است. با این حال، نمی‌دانم می‌توانم برای مقابله با این منحنی یادگیری وقت بگذارم یا نه. توجه داشته باشید که ما مقداری بودجه برای خرید نرم افزار داریم، اما با توجه به آنچه من می بینم، به نظر نمی رسد برنامه های IRT عالی وجود داشته باشد. ### سوالات * نظر شما در مورد اثربخشی jMetrik چیست؟ * چگونه به من پیشنهاد می کنید که در استفاده از IRT به جلو بروم؟ * بهترین برنامه ها برای اعمال IRT چیست؟ * آیا هیچ کدام از شما به طور مرتب از IRT استفاده می کنید؟ اگر چنین است، چگونه؟
چگونه می توان با استفاده از نظریه پاسخ آیتم ها شروع کرد و از چه نرم افزاری استفاده کرد؟
69806
اجازه دهید $Y$ و $X$ متغیرهای تصادفی باشند. $E(Y|X)$ میانگین شرطی $Y$ با $X$ است. اگر $E(Y|X)$ به $X$ بستگی نداشته باشد، می گوییم $Y$ به طور علّی به $X$ مربوط نمی شود، که به این معنی است که برابر با $E(Y)$ است. حالا بیایید یک ثانیه با این تعریف علیت همراه شویم. طبق قانون انتظارات تکراری، $E(XE(Y|X)) = E(E(XY|X)) = E(XY)$. این بدان معناست که اگر $E(Y|X)$ به $X$ بستگی ندارد، اگر برابر با $E(Y)$ باشد، آنگاه $E(X)E(Y) = E(XY)$. به عبارت دیگر: اگر $X$ و $Y$ به طور علّی به هم مرتبط نباشند، آنگاه $X$ و $Y$ همبستگی ندارند! - این بی معنی است و می دانم که این باید اشتباه باشد. آیا علیت را اشتباه تعریف کرده ام؟ من چه اشتباهی کردم؟ در اقتصاد سنجی ما معمولاً $E(Y|X) = b_0 + b_1X$ را فرض می کنیم. بنابراین $E(Y|X) = E(Y)$ معادل b_1 $ = 0$ است. منطق در این سناریوی خاص نیز صدق می کند.
تعریف ریاضی علیت
101215
تفاوت بین طرح Box-Behnken، طرح مرکب مرکزی و طراحی تمام فاکتوریال 3 سطحی چیست؟ مزایا یا معایب یک طرح نسبت به سایرین چیست؟
روش شناسی سطح پاسخ در مقابل 3 سطح فاکتوریل کامل
69807
آزمون I موران تعمیم یافته توسط کلجیان و پروچا (2001) پیشنهاد شده است. اما، تا آنجا که من می دانم، هیچ کار تجربی با استفاده از آزمون برای مدل انتخاب گسسته چند جمله ای وجود ندارد. من به دنبال یک اسکریپت هستم که آزمون تعمیم یافته Moran's I را در مدل های لاجیت / پروبیت چند جمله ای انجام دهد. علاوه بر این، درک (4.16)، (4.17) در Kelejian and Prucha (2001) جالب خواهد بود. اگر کسی تست I موران تعمیم یافته را می فهمد، ممنون می شوم که کسی به من اشاره کند. مرجع: Kelejian, H. H., Prucha, I. R.: On the Asymptotic Distribution of the Moran I test statistics with applications, Journal of Econometrics, 104 (2), 219-257, 2001. (pdf)
تست موران تعمیم یافته برای مدل لاجیت / پروبیت چند جمله ای (چند جمله ای).
112581
چگونه می توان یک تست لوگرانک برای روند ایجاد کرد و آیا با تست لوگرانک معمولی تفاوت دارد؟ پیشنهاد یا ادبیاتی دارید؟ شاید چند مثال و توابع R؟
تست لوگرانک برای روند (خطرات متناسب)
32632
فرض کنید ماتریسی از مقادیر برای بسیاری از متغیرهای مختلف Y1..Y1000 در X=1،2،3..،10 دارم. برخی از این متغیرها مستقیماً با X همبستگی دارند، برخی از اشکال مختلف (مثلاً توزیع نرمال) و برخی فقط تصادفی هستند. من می خواهم یک مدل برای پیش بینی X بر اساس مقادیر داده شده Y1..Y1000 بسازم. رویکرد صحیح برای این کار چه خواهد بود؟ من فرض می‌کنم به دلیل تعداد متغیرها و این واقعیت که همه متغیرها به صورت خطی به X وابسته نیستند، یک رگرسیون خطی ساده امکان‌پذیر نیست.
مدل بر اساس بسیاری از متغیرها
112586
فرض کنید من یک فرآیند مارکوف پیوسته زمانی با تنها چند حالت (مثلاً 2، در واقع چند حالت دیگر، مانند 5) دارم. من می توانم این حالت ها را در داده های واقعی اندازه گیری کنم و می خواهم ماتریس های احتمال انتقال فرآیند را تخمین بزنم. حالت ها به ترتیب تصادفی و در طول تصادفی رخ می دهند. بنابراین به عنوان مثال حالت 1 را به مدت 60 ثانیه نگه دارید، سپس سیستم به حالت 2 سوئیچ می کند و تنها 5 ثانیه در آنجا باقی می ماند قبل از اینکه به مدت 10 ثانیه به حالت 1 بازگردد و غیره. سوال من این است که چگونه می توانم زمان را هنگام محاسبه TPM ها لحاظ کنم؟ ایده من معرفی زیرشاخه های جدید است، به عنوان مثال. state1_short، state2_mid و غیره. مشکل این خواهد بود که مشخص شود چه کوتاه، بلند و غیره باید باشد. آیا راه دیگری وجود دارد، کلمات کلیدی که می توانم جستجو کنم چیست؟ خیلی ممنونم!
نحوه رمزگذاری زمان در فرآیند پرش مارکوف
86135
... و چگونه می توانیم این کار را انجام دهیم؟ در صورت امکان، من کنجکاو هستم که آیا نقاط پرت در داده های توزیع شده ریلی نیز در داده های توزیع شده گاوسی جدید پرت باقی می مانند. با تشکر
آیا می توان توزیع ریلی را به توزیع گاوسی تبدیل کرد؟
96268
من در حال توسعه روشی برای رسیدگی به داده های از دست رفته غیر یکنواخت هستم. برخی از مجموعه داده های گمشده کلاسیک غیر یکنواخت، به ویژه در حوزه بهداشت عمومی کدامند؟
مجموعه داده های گمشده غیر یکنواخت کلاسیک
34688
من یک سوال در مورد PU-Learning دارم که با یادگیری از داده های دارای برچسب مثبت (بدون نمونه های منفی برچسب دار) و مثبت/منفی- بدون برچسب سروکار دارد. به ویژه، سؤال من در مورد طبقه‌بندی‌کننده‌های یادگیری کاغذی فقط از داده‌های مثبت و بدون برچسب است. این مقاله یک طبقه‌بندی‌کننده غیر سنتی $g(x)$ را که از مجموعه داده‌های برچسب‌دار/بدون برچسب آموخته می‌شود، تبدیل می‌کند و احتمال نمونه‌ای از برچسب‌گذاری را به یک طبقه‌بندی سنتی $f(x)$ تبدیل می‌کند که احتمال یک مثال را خروجی می‌کند. مثبت بودن من اولین رویکرد پیشنهادی را اجرا کردم (بخش 2، یادگیری یک طبقه بندی سنتی از ورودی غیر سنتی). با این حال، احتمال $f(x)=g(x)/p(s=1|y=1)$ برای چندین مثال بزرگتر از 1 می شود (این احتمال نباید از 1 بیشتر باشد، زیرا یک احتمال است) برای یادگیری طبقه‌بندی‌کننده غیر سنتی $g(x)$، من از یک مجموعه داده غیرسنتی متشکل از 1. 100000 نمونه برچسب‌دار استفاده می‌کنم که به‌طور تصادفی از کل برچسب‌گذاری‌شده انتخاب شده‌اند. داده ها، و 2. 100000 نمونه بدون برچسب به طور تصادفی از کل داده های بدون برچسب انتخاب شده اند. و برای تخمین $p(s=1|y=1)$--با اولین تخمین‌گر پیشنهادی--من از یک مجموعه داده اعتبارسنجی متشکل از 30000 نمونه برچسب‌گذاری شده به‌طور تصادفی از یک مجموعه داده برچسب‌دار جداگانه استفاده می‌کنم. با توجه به مقاله، اگر (1) و (2) در فضای مثال همپوشانی داشته باشند، احتمال $f(x)$ تضمین می‌شود که به خوبی شکل بگیرد. در مورد من، (1) و (2) دارای 20٪ نمونه های همپوشانی هستند، اما من هنوز احتمالات غیرقابل شکل گیری را دریافت می کنم (>1). چگونه می توانم به یک احتمال خوب تعریف شده برای $f(x)$ دست پیدا کنم؟ **ویرایش 8/21** 1. طبق مقاله، $g(x)$ باید طبقه‌بندی‌کننده‌ای باشد که احتمالات صحیح را به عنوان خروجی تولید کند، مانند رگرسیون لجستیک، یا یک طبقه‌بندی مدرج مانند Naive Bayes/SVM، به ترتیب برای رسیدن به رویکرد به کار من به سادگی از طبقه‌بندی‌کننده حداکثر آنتروپی (از بسته NLTK) استفاده می‌کنم که به عنوان رگرسیون لجستیک نیز شناخته می‌شود. بنابراین من حدس می زنم که هیچ مشکلی با این وجود ندارد. 2. اگرچه این مقاله بیان می‌کند که مجموعه داده‌های برچسب‌دار (1) و بدون برچسب (2) برای آموزش $g(x)$ نمونه‌هایی از مناطق همپوشانی در فضای ویژگی‌ها هستند، به نظر می‌رسد چنین مجموعه‌داده‌هایی جدا از هم هستند (به آزمایش بخش 5 مراجعه کنید، P و U متمایز هستند). من با مجموعه داده‌های برچسب‌گذاری‌شده و بدون برچسب غیرمجاز نیز امتحان کرده‌ام، با این حال هنوز احتمالات بیش از یک را برای $f(x)$ دریافت می‌کنم. 3. متعادل کردن مجموعه داده ها هیچ تفاوتی ندارد. 4. من برآوردگر دوم پیشنهادی (e2) را امتحان کردم. هنوز احتمالات بیش از 1 برای $f(x)$ دریافت می شود. **ویرایش 8/29** 1. در بخش 5، که نمونه ای با داده های دنیای واقعی را توضیح می دهد، مجموعه ای P از نمونه های برچسب دار+مثبت از پایگاه داده TCDB، و مجموعه ای از نمونه های بدون برچسب به طور تصادفی از پایگاه داده SwissProt، P و U جدا هستند. سپس از P,U برای یادگیری یک طبقه بندی غیر سنتی استفاده می کنند. من فکر می‌کنم که این رویکرد می‌تواند برای مشکل من اعمال شود، زیرا من همچنین مجموعه‌ای از مثال‌های مثبت و مجموعه‌ای از نمونه‌های بدون برچسب را به‌طور تصادفی نمونه‌گیری کرده‌ام. نظر شما چیست؟ 2. من برآوردگر سوم پیشنهادی (e3) را امتحان کردم. از آنجایی که حداکثر احتمال مثال ها را از مجموعه دارای برچسب مثبت می گیرد (در مورد من حدود 0.98)، من دیگر احتمالات بیش از یک را دریافت نمی کنم. با این حال، از آنجایی که این تخمین تنها بر اساس یک مثال است و نه میانگین بین همه مثال‌ها، بنابراین به نظر من برآورد خوبی نیست. نظری در مورد اعتبار این برآوردگر دارید؟ با تشکر
گرفتن احتمالات بالای 1 در یادگیری مثبت و بدون برچسب
86130
من سعی می کنم مجموعه ای از پارامترها را با استفاده از یک الگوریتم ژنتیک در R با بسته 'GA' تخمین بزنم. تا کنون من کار بسیار ساده ای انجام می دهم (که کار می کند): library(GA) df <- data.frame(DM=c(1000,1500), c1=c(50,75), c2=c(90,105)) func <- تابع (x1، x2، تتا) تتا[1]*x1 + تتا[2]*x2 تناسب اندامL2 <- تابع (تتا، x1، x2، y) { f <- -sum((y - func(x1، x2، تتا))^2) } GA2 <- ga(type = با ارزش واقعی، تناسب = تناسب اندامL2، x1 = df$c1، x2 = df$c2، y = df$DM، نام‌ها = c(a، b)، حداقل = c(0، 0)، حداکثر = c(100، 100)) که مقادیر a,b را تولید می کند. با این حال، من می‌خواهم a و b را به صورت جداگانه محدود نکنم، بلکه چیزی شبیه a + b == 20 است. آیا کسی می‌تواند به من اطلاع دهد که آیا این امکان پذیر است؟ پیشاپیش ممنون
الگوریتم ژنتیک با محدودیت در R
5690
من در حال بررسی میانگین بقا با استفاده از Kaplan-Meier در ایالت های مختلف برای یک نوع سرطان هستم. تفاوت های بسیار زیادی بین ایالت ها وجود دارد. چگونه می توانم میانگین بقا را بین همه ایالت ها مقایسه کنم و تعیین کنم که کدام یک تفاوت قابل توجهی با میانگین بقای متوسط ​​در سراسر کشور دارند؟
چگونه میانه بقا را بین گروه ها مقایسه کنیم؟
5691
من می خواهم یک فاصله اطمینان برای یک آمار محاسبه شده روی جدول ایجاد کنم (مثلاً p.value chisqr.test). برای این، ممکن است نمونه بوت استرپ را با همان اندازه، از جدولی با نسبت جدولی که دارم، نمونه برداری کنم. و سؤالات من این است: 1. آیا این روش درستی برای استفاده است، یا مواردی وجود دارد که ممکن است از قلم افتاده باشم؟ 2. چگونه می توان یک جدول را در R نمونه برداری کرد؟ (اولین غریزه من این است که جدول را با استفاده از ذوب باز کنم، سپس جدول را روی ردیف ها بگذرانم، از آنها نمونه برداری کرده و نتایج را به جدول برگردانم. آیا راه بهتری وجود دارد؟) p.s: من از شبیه سازی آگاه هستم. سوئیچ .p.value در chisqr.test - سوال من کلی تر است - آیا استفاده از bootstrap به این شکل منطقی است؟ اگر کسی می‌خواهد چیزی را نشان دهد، یک جدول نمونه بگیرید: (x <- ماتریس(c(12, 5, 7, 7), ncol = 2)) prop.table(x) # واگرد جدول as.data.frame(as.table (x)) # اما اکنون چگونه ردیف ها را باز کنیم؟ - **به روز رسانی**: به لطف chl در نظرات پاسخ داده شد. با تشکر
خوبه برای بوت استرپ نمونه جدول از نسبت آن - و چگونه این کار را انجام دهیم (در R)؟
69803
در جدول اعداد تصادفی، اعداد تصادفی به صورت هزار اول، هزار دوم، هزار سوم و غیره آورده شده است. هر هزار دارای 25 ردیف و 1 تا 4، 5 تا 8 تا 37 تا 40 ستون است. فرض کنید باید از یک جمعیت 10000 نفری نمونه ای به اندازه 40 بگیرم و از ستون 1 تا 5 برای انتخاب اعداد تصادفی استفاده می کنم. وقتی ستون 1 تا 5 هزار اول تمام شد، اما من هنوز به حجم نمونه مورد نظر خود نرسیدم، روند انتخاب اعداد تصادفی چگونه است؟ آیا باید به ستون 6 تا 10 از هزار اول بروم؟ یا به ستون 1 تا 5 از هزار دوم بروید؟ جدول دیگر اینجا صفحه اول است. اگر تصمیم بگیرم از ستون های شماره 1 تا 5 استفاده کنم، وقتی ستون های 1 تا 5 صفحه اول تمام شد، به ستون های شماره 1 تا 5 صفحه دوم منتقل می شوم یا با استفاده از 6 تا 10 در صفحه اول می مانم. ستون ها؟
استفاده از جدول اعداد تصادفی
69809
بیایید فرض کنیم که من ** چندین بار ** تأثیر یک دارو را بر فشار خون در چندین نفر اندازه گیری می کنم. برای برخی افراد، این دارو فشار خون را به میزان قابل توجهی افزایش می دهد و برای برخی دیگر آن را به میزان قابل توجهی کاهش می دهد. بنابراین دارو روی افراد تأثیر می گذارد. از آنجایی که جهت اثر برای هر فرد متفاوت است، ممکن است اگر من یک تجزیه و تحلیل آماری جهانی مانند ANOVA انجام دهم، دارو اهمیتی ندارد. بنابراین، نتیجه گیری اینکه دارو با استفاده از ANOVA بر افراد تأثیر نمی گذارد، نادرست است. من می خواهم منابعی را بدانم که در مورد این مشکل صحبت می کنند تا بتوانم با استفاده از اصطلاحات صحیح تر در مورد آن بنویسم. به طور دقیق تر، این چیزی است که من دارم. من یک منحنی دوز-پاسخ برای هر آزمودنی با و بدون دارو جمع‌آوری کردم، توزیع نرمال تجمعی را برای هر شرایط تنظیم کردم و میانگین و فواصل اطمینان را با بوت استرپ تخمین زدم. بنابراین من داده های زیادی را برای هر موضوع جمع آوری می کنم. برای هر آزمودنی میانگین با و بدون دارو به طور قابل توجهی متفاوت است (بدون همپوشانی فواصل اطمینان) اما برای برخی از مشاهده کنندگان دارو فشار خون را افزایش می دهد در حالی که برای برخی دیگر فشار خون را کاهش می دهد. بنابراین اگر از ابزاری برای انجام ANOVA استفاده کنم، اثر دارو قابل توجه نیست. بنابراین، به نظر من گزارش فقط ANOVA بدون توجه به اثرات فردی صحیح نیست، اما گاهی اوقات این کار در زمینه من انجام می شود. بنابراین من به دنبال منابعی بودم که به این موضوع اشاره کنند. ویرایش: فکر می کنم با استفاده از داروها و فشار خون مثال اشتباهی را انتخاب کردم. بنابراین من یک سوال دیگر با استفاده از مثالی که به مشکل واقعی من نزدیکتر است پرسیدم و مدلی از هر موضوع را برازش کردم و یک آزمون t بر روی پارامترهای تخمین زده شده انجام دادم.
دارو بر افراد تأثیر می گذارد اما ANOVA قابل توجه نیست: مراجع؟
65160
من سعی می‌کنم احساس کنم که LDA چگونه با سایر تکنیک‌های یادگیری تحت نظارت «تناسب» می‌شود. من قبلاً برخی از پست‌های LDA را در اینجا درباره LDA خوانده‌ام. من قبلاً با پرسپترون آشنا هستم، اما اکنون LDA را یاد می‌گیرم. LDA چگونه در خانواده الگوریتم‌های یادگیری نظارت شده قرار می‌گیرد؟ معایب آن در مقایسه با روش های دیگر چه می تواند باشد و چه چیزی می تواند بهتر از آن استفاده شود؟ چرا از LDA استفاده کنیم، در حالی که مثلاً می‌توان از پرسپترون استفاده کرد؟
LDA در مقابل پرسپترون
7591
آیا بسته R، وب سایت یا دستوری وجود دارد که به فرد امکان می دهد تا رویه آماری خاصی را که می خواهد جستجو کند؟ به عنوان مثال، اگر من بخواهم بسته‌ای را پیدا کنم که دارای تبدیل Box-Cox باشد، وب‌سایت/بسته/فرمان ممکن است MASS را برگرداند و من را به تابع boxcox() ارجاع دهد. این کار با چیزی مانند Box-Cox کاملاً ساده است، اما من امیدوار بودم که به من امکان دهد رویه‌های دشوارتری را پیدا کنم یا بر اساس آنچه که عملکرد انجام می‌دهد جستجو کنم (Concatenating ستون‌ها به یک قاب داده ممکن است cbind() را نشان دهد). آیا چنین چیزی وجود دارد؟
چگونه یک رویه آماری را در R جستجو کنیم؟
15561
من علاقه مند به مدل سازی یک فرآیند تولیدی هستم که داده ها را تشویق می کند تا به طور مساوی بر روی پشتیبانی آن توزیع شوند، به عنوان مثال، جمع شدن نقاط داده جریمه می شود. به عنوان مثال، اگر من یک توزیع مخلوط داشته باشم و همه اجزا را روی وزن مساوی تنظیم کنم، تمایل به ایجاد امتیاز یکسان بین همه اجزا دارد، اما این ویژگی اعمال نمی شود. مشکل اینجاست که اگر مجموعه داده‌ای را با این احتمال ارزیابی کنیم، به مجموعه داده‌ای که به طور مساوی توزیع شده است، همان احتمال را می‌دهد که به مجموعه داده‌ای که در زیر یک جزء واحد جمع شده است. برای نشان دادن یک مدل بهتر که کلوخه شدن را جریمه می کند، فرآیند تولیدی زیر را در نظر بگیرید. با توزیع مخلوط با اجزای $N$، یک نقطه را به روش استاندارد نمونه برداری کنید: ابتدا یک شاخص $i$ را از وزن اجزا نمونه برداری کنید، و سپس یک نقطه از آن جزء را نمونه برداری کنید. اکنون وزن مولفه $i$-th را کاهش دهید تا درصد معینی از وزن اصلی آن باشد (این درصد را $p$ بنامید) و آن جرم را بین سایر اجزای $N-1$ توزیع کنید. $M$ بار تکرار کنید. این فرآیند نقاطی را از توزیع مخلوط ایجاد می کند به گونه ای که باعث می شود نقاط به طور مساوی بین اجزا توزیع شوند. پارامتر $p$ تنظیم می کند که چقدر این توزیع یکنواخت نقاط اجرا می شود - وقتی $p=1$، این یک توزیع مخلوط معمولی است. وقتی $p=0$ و $M = N$، این یک مطابقت دقیق یک به یک بین نقاط داده و اجزای مخلوط را اعمال می‌کند. مشکل این فرآیند این است که اگرچه نمونه برداری از آن ساده است، به نظر می رسد ارزیابی احتمال داده ها در این مدل غیرقابل حل است، زیرا نیاز به در نظر گرفتن همه ترتیبات ممکن است که داده ها می توانند در آنها انتخاب شده باشند. آیا مدل های شناخته شده ای وجود دارد که کلوخه شدن را به این روش جریمه کند؟
مدل تولیدی که جمع شدن داده ها را جریمه می کند
112583
من یک مجموعه داده از پیش خوشه‌بندی شده با داده‌ها دارم و خوشه عمل با استفاده از روش خوشه‌بندی سفارشی برای آن شناسایی شده است. من به دنبال محاسبه ضریب silhouette در این مجموعه داده خوشه‌ای با استفاده از SPSS برای تعیین کیفیت خوشه‌های ایجاد شده هستم. آیا ایده ای دارید که چگونه می توانم آن را انجام دهم؟
چگونه ضریب silhouette را در SPSS برای مجموعه داده های خوشه ای محاسبه کنیم؟
79485
چگونه ثابت می کنید که GARCH (1،1) = ARCH (بی نهایت)؟ برای شروع در این مورد به راهنمایی نیاز دارید.
چرا GARCH(1,1) = ARCH (بی نهایت) است؟
65162
اجازه دهید $A_k^p:=\\{f:\, \|(ix)^k\hat{f}(x)\|_p\leq 1\\}, k \in Z_+, p \in (1) ، \infty)$. می‌پرسم مرزهای پایین و بالای ضرایب موجک تابع در فضای تابع $A_k^p$ چیست؟ یعنی اگر کسی حد بالا و پایین این ضرایب را بداند، برای برخی از سوالات مفید است؟ اگر بله، چه نوع سؤالاتی؟ متشکرم.
مرزهای ضرایب موجک تابع
96216
من مشکل دیگری دارم و چگالی آن چیزی شبیه به این است: $$f(x,\theta)=\frac{1}{\theta} \text{if }0\le x\le\theta \text{ برای برخی } \theta>0$$$$f(x,\theta)=0 \text{ در غیر اینصورت}$$ با توجه به نمونه $X_1,...,X_n$ iid باشد. من MLE را X_n$ یافتم که حداکثر نمونه است. من قرار است توزیع دقیق را پیدا کنم اما مطمئن نیستم آنها چه می خواهند؟ آیا چگالی و CDF حداکثر نمونه را به دست می‌آورم؟ در نهایت من قرار است توزیع دقیق و توزیع مجانبی $$n(\theta-\hat{\theta})$$ را پیدا کنم که در مورد قضیه لیندبرگ لوی-حد مرکزی می دانم اما مطمئن نیستم که چگونه آن را در این مورد یا به دست آوردن توزیع دقیق.
توزیع دقیق برآوردگر MLE و توزیع دقیق و محدود $n(\theta-\bar{\theta})$ را پیدا کنید.
106334
تابع هزینه شبکه عصبی $J(W,b)$ است و ادعا می شود که **غیر محدب** است. من دقیقاً نمی فهمم چرا اینطور است، زیرا همانطور که می بینم کاملاً شبیه تابع هزینه رگرسیون لجستیک است، درست است؟ اگر غیر محدب است، پس مشتق مرتبه دوم $\frac{\جزئی J}{\جزئی W} < 0$، درست است؟
تابع هزینه شبکه عصبی غیر محدب است؟
100007
من در حال ساخت یک مدل انتخاب گسسته (راه آهن و خودکار) هستم. من هزینه یک سفر برای هر حالت (راه آهن در مقابل خودکار) را دارم. معادلات کاربردی که من می سازم در زیر نشان داده شده اند: \begin{align*} V_\text{auto} &= \beta_1\cdot\mbox{IVTT}_\text{auto}+ \beta_2\cdot\mbox{OVTT}_ \text{auto} \\\ V_\text{rail} &= \beta_0+ \beta_1 \cdot\mbox{IVTT}_\text{rail} + \beta_2 \cdot\mbox{OVTT}_\text{rail}+ \beta_3×\mbox{Cost}_\text{rail} \end{align*} کدی که من دارم این است: data_mlogit<-mlogit.data(newdata,shape=wide,choice=choice, alt.levels=c(auto,rail),varying=c(6:8,10:12)) مدل <- mlogit(choice ~ ivtt+ovtt+cost|0|0, data_mlogit) چگونه می توانم کد را درک کنید که فقط از متغیر هزینه ریل بدون استفاده از متغیر خودکار هزینه استفاده کنید؟ من نمی خواهم متغیر هزینه (خودکار) بخشی از معادله ابزار برای حالت خودکار باشد.
متغیرهای خاص جایگزین در R
103085
من مقداری خروجی از رگرسیون لاجیت باینری دارم و در تفسیر صحیح آن با مشکلاتی روبرو هستم. به ویژه می‌خواهم بدانم که آیا ضریب «مذکر» به من در مورد احتمال نتایج 0 و 1 می‌گوید و این نکته در آن مثال چه نقشی دارد. متغیر وابسته ترجیح سیاسی است. Estimate Std. err. z-score (Intercept) −5.183 1.094 −4.738 مرد 0.652 0.318 2.053
تفسیر مدل لاجیت باینری؟
89316
من از `auto.arima()` برای پیش بینی استفاده می کنم و پیام هشدار زیر را دریافت می کنم. می خواهم بدانم آیا می توانم این پیام هشدار را نادیده بگیرم یا باید نگران باشم. `پیام هشدار:` `در auto.arima(forecast_data_ts):`` با استفاده از حداکثر احتمال، مدل نهایی مطابقت ندارد. مقدار AIC تقریبی`
پیام هشدار در auto.arima