_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
85758 | ## بررسی اجمالی هدف من پیش بینی بقای یک نمونه برای پنج دوره زمانی مختلف (ویژگی باینری) است. من یک مجموعه داده 100000 نمونهای با 40 ویژگی دارم و میخواهم تعداد ویژگیها را کاهش دهم تا آزمایش کنم که آیا مدلهای ایجاد شده همچنان با دقت بالایی در مجموعه کامل عمل میکنند یا خیر. من از `cfssubseteval (با` bestfirst`) و `gainRatioAttributeEval (با Rainker ) استفاده کردم تا این زیر مجموعه های کوچکتر از سوابق را بدست آوریم. از آنجا که من پنج متغیر نتیجه باینری دارم ، برای هر الگوریتم انتخاب ویژگی WEKA پنج نتیجه متفاوت داشتم. من می خواهم نتایج را برای محاسبه انتخاب ویژگی هر دوره زمانی ترکیب کنم. آیا این معقول است؟ ## CfsSubsetEval در «CfsSubsetEval»، آیا باید تمام ویژگیهایی را که «تعداد فولد (%)» بیشتر از یک دارند را به عنوان زیرمجموعه انتخاب کنم؟ با توجه به نتیجه زیر: زمان: 1 سال زمان: 2 سال ... و به همین ترتیب ... ... و غیره ... تعداد تا (%) صفت تعداد فولدها (%) ویژگی ... و غیره در ... 10(100 %) 1 attr1 10(100 %) 1 attr1 ... و به همین ترتیب ... 0( 0 %) 2 attr2 10(100 %) 2 attr2 ... و غیره ... 0 (0 ٪) 3 attr3 0( 0 %) 3 attr3 ... و به همین ترتیب ... 0( 0 %) 4 attr4 0( 0 %) 4 attr4 ... و غیره ... 0( 0 %) 5 attr5 0( 0 %) 5 attr5 ... و غیره ... 0( 0 %) 6 attr6 0( 0 %) 6 attr6 ... و غیره ... 0( 0 %) 7 attr7 0( 0 %) 7 attr7 ... و غیره ... 0( 0 %) 8 attr8 0( 0 %) 8 attr8 ... و غیره ... 0( 0 %) 9 attr9 0( 0 %) 9 attr9 ... و به همین ترتیب ... 0( 0 %) 10 attr10 0( 0 %) 10 attr10 ... و غیره ... 0( 0 %) 11 attr11 0( 0 %) 11 attr11 ... و به همین ترتیب ... 10(100 %) 12 attr12 10(100 %) 12 attr12 ... و غیره ... 0( 0 %) 13 attr13 0( 0 %) 13 attr13 ... و به همین ترتیب ... 0 ( 0 %) 14 attr14 0 ( 0 %) 14 attr14 ... و به همین ترتیب ... 0( 0 %) 15 attr15 0( 0 %) 15 attr15 ... و به همین ترتیب ... 0( 0 %) 16 attr16 0( 0 %) 16 attr16 .. و به همین ترتیب ... 10 (100 %) 17 attr17 10 (100 %) 17 attr17 ... و غیره ... 0(. 0 %) 18 attr18 0( 0 %) 18 attr18 ... و غیره ... 0( 0 %) 19 attr19 0( 0 %) 19 attr19 ... و غیره ... 10 (100 %) 20 attr20 10(100 %) 20 attr20 ... و به همین ترتیب ... 0( 0 %) 21 attr21 0( 0 %) 21 attr21 ... و غیره ... 0( 0 %) 22 attr22 0( 0 %) 22 attr22 ... و به همین ترتیب ... 0( 0 %) 23 attr23 0( 0 %) 23 attr23 ... و غیره ... 0( 0 %) 24 attr24 0( 0 %) 24 attr24 ... و غیره ... 0( 0 %) 25 attr25 0( 0 %) 25 attr25 ... و غیره ... 0( 0 %) 26 attr26 10(100 %) 26 attr26 ... و غیره ... 0( 0 %) 27 ATTR27 10 (100 ٪) 27 ATTR27 ... و غیره ... 0 (0 ٪) 28 ATTR28 0 ( 0 %) 28 attr28 ... و غیره ... 0( 0 %) 29 attr29 0( 0 %) 29 attr29 ... و به همین ترتیب ... 0( 0 %) 30 attr30 0( 0 %) 30 attr30 ... و غیره ... آیا باید تمام رکوردهایی را که نتیجه '100%' دارند را بگیرم و آنها را به عنوان نتیجه واقعی بپذیرم. «CfsSubsetEval» برای کل مجموعه داده؟ اگر این کار را انجام دهم، به یک زیرمجموعه متشکل از ویژگیها منجر میشود: «attr1»، «attr2»، «attr12»، «attr17»، «attr20»، «attr26»، «attr27». ## GainRatioAttributeEval در عین حال در `GainRatioAttributeEval`، دو پارامتر وجود دارد که عملکرد یک ویژگی را تعیین می کند: متوسط شایستگی و متوسط رتبه. آیا باید خودسرانه ببینم | روش مناسب برای تعیین زیرمجموعه کوچکتر انتخاب ویژگی ویژگی بر اساس معیارهای نتیجه |
81469 | رابطه توزیع دو متغیره و چند متغیره. اگر مثلاً 3 متغیر داشته باشیم که در آن هر دو متغیر از توزیع نرمال دو متغیره پیروی کنند، آیا لزوماً از توزیع نرمال چند متغیره پیروی می کند؟ | اگر هر دو متغیر از توزیع دو متغیره نرمال پیروی کنند، آیا توزیع نرمال چند متغیره نیز دارد؟ |
33353 | من یک رگرسیون خطرات متناسب کاکس را در R با استفاده از coxph انجام می دهم که شامل متغیرهای زیادی است. باقیمانده های Martingale عالی به نظر می رسند، و باقیمانده های Schoenfeld برای تقریباً همه متغیرها عالی هستند. سه متغیر وجود دارد که باقیمانده های شوئنفلد آنها مسطح نیست و ماهیت متغیرها به گونه ای است که منطقی است که آنها می توانند با زمان تغییر کنند. اینها متغیرهایی هستند که من واقعاً به آنها علاقه مند نیستم، بنابراین ساختن آنها در طبقه خوب است. با این حال، همه آنها متغیرهای پیوسته هستند، نه متغیرهای طبقه ای. بنابراین به نظر من اقشار مسیر مناسبی نیستند*. من سعی کردم تعامل بین متغیرها و زمان ایجاد کنم، همانطور که در اینجا توضیح داده شد، اما ما این خطا را دریافت می کنیم: In fitter(X, Y, strats, offset, init, control, weights = weights, : تکرارها تمام شد و همگرا نشد I من با نزدیک به 1000 نقطه داده کار میکنم، و با 12 متغیر با فاکتورهای زیادی کار میکنم، بنابراین به نظر میرسد که محدودیتهای این دادهها را افزایش میدهیم. متأسفانه، همه مدلهای سادهتری که من با متغیرهای کمتری امتحان کردهام، به وضوح بدتر هستند (مثلاً باقیماندههای Schoenfeld برای متغیرهای بیشتر سختتر هستند، زیرا من به این گزینههای خاص اهمیت نمیدهم). متغیرها، من میخواهم خروجی آنها را نادیده بگیرم، اما گمان میکنم که این یک تفسیر معتبر نیست عدد صحیح با گستره بیش از 100، و یک عدد صحیح با محدوده 6 است. شاید باینینگ؟ | هنگامی که باقیمانده های شوئنفلد خوب نیستند، در مدل رگرسیون خطر متناسب چه گزینه هایی وجود دارد؟ |
99098 | من تازه وارد زمینه ANCOVA هستم. من می خواهم بررسی کنم که آیا دو گروه در سه متغیر کمی تفاوت دارند یا خیر. در همان زمان من می خواهم برای کنترل جنسیت و تشخیص (6 دسته). آیا امکان اجرای ANCOVA با متغیر کنترل دسته بندی وجود دارد؟ علاوه بر این: آیا می توانم سه متغیر کمی را به طور همزمان وارد کنم یا باید آنها را جداگانه بررسی کنم؟ اگر چنین است: آیا نیازی به تصحیح داده ها با اصلاح بونفرونی وجود دارد؟ | مقیاس متغیر کنترل در ANCOVA |
85754 | من ماتریس دارم برای هر ردیف از این ماتریس یک مخلوط گاوسی درست کردم، چگونه می توانم این مخلوط ها را به هم بچسبانم. | چگونه می توانم این مخلوط ها را به هم متصل کنم |
85752 | من در یادگیری چند وظیفه ای جدید هستم. من دقیقاً متوجه نشدم که Tasks در یادگیری چند وظیفه ای چیست؟ هر وظیفه داده های آموزشی واحد است یا چه؟ | Task در یادگیری چند وظیفه ای به چه معناست؟ |
5136 | مشکل این است که تعریف کنیم چه زمانی یک متغیر ممکن است به عنوان متغیر پنهان در نظر گرفته شود. من علاقه مندم که چگونه یک متغیر پنهان را توصیف کنم، و ویژگی های متغیرهای پنهان چیست. سوال دوگانه من این است: * وقتی میخواهید توضیح دهید که متغیر پنهان چیست، چه تفاوتهایی را بین متغیر آشکار و پنهان در نظر میگیرید؟ * چه زمانی تحلیل عاملی یا مدل سازی پاسخ آیتم مناسب تر به نظر می رسد؟ **مثال.** از یک طرف، اگر می خواهید وزن ماهی را بدون ابزار اندازه گیری کنید، می توانید مواردی را برای اندازه گیری آن ابداع کنید. در این مورد، آیا به یک مدل متغیر پنهان تکیه می کنید؟ از سوی دیگر، گاهی اوقات سطح اجتماعی مستقیماً از طریق پاسخ به یک نظرسنجی با یک مدل خطی (یا مدلهای دیگر) که در مورد مواردی مانند _بالاترین دیپلم_، _تعداد کتاب در خانه_، _تعداد وسایل الکترونیکی_ اعمال میشود، اندازهگیری میشود، اما نه با در نظر گرفتن یک نهفته. متغیر اما چرا در این مورد نمی توانیم از مدل متغیر پنهان استفاده کنیم؟ پیشاپیش ممنون | به نظر شما چه زمانی یک متغیر یک متغیر پنهان است؟ |
71124 | هنگام اجرای هر تکنیک ML در عمل باید دو مفهوم کلیدی در نظر گرفته شود: دقت و پیچیدگی زمانی آیا مطالعه ای وجود دارد که هر دو برای الگوریتم های مختلف ML ذکر شوند؟ | مقایسه دقت در مقابل پیچیدگی زمانی بین الگوریتمهای ML |
87662 | من یک مدل رگرسیون جنگل تصادفی را به داده های آموزشی برازش داده ام (65٪ از داده ها را برای آموزش استفاده کردم). این داده ها تقریباً 40000 مشاهده و 100 ویژگی دارند. من یک رگرسیون جنگل تصادفی را در R با پارامتر زیر برازش میکنم: randomForest(فرمول = پاسخ ~ .، داده = crs$dataset[، c(crs$ورودی، crs$target)]، ntree = 500، mtry = 32، اهمیت = TRUE، جایگزین = FALSE، na.action = na.roughfix) درک من این است که برای Random Forest مشکلات رگرسیون، بهتر است تقریباً از 1/3 متغیرهای کاندید برای هر درخت استفاده شود (به جای ریشه دوم برای مسائل طبقه بندی) به همین دلیل است که من 32 متغیر را برای هر درخت امتحان کرده ام. پس از اعمال مدل در مجموعه دادههای نگهدارنده آزمایشی من (تقریباً 35٪ از دادهها) به نظر میرسد که مدل بیش از حد مناسب است که من گیج شدهام زیرا فکر میکردم جنگلهای تصادفی قرار است نسبتاً در برابر بیش از حد مقاوم باشند (که تجربه من در استفاده قبلی بوده است. از آنها). در اینجا مقایسه ای از میانگین پیش بینی شده در مقابل میانگین ارزش واقعی در داده های آزمایشی است که به صورت صعودی بر اساس مقدار پیش بینی شده مرتب شده اند (پیش بینی های گروه بندی شده به دهک). Prediction_Decile Avg_Prediction میانگین_واقعی: واقعی/پیش بینی شده 1 4,570 6,343 1,388 2 5,939 7,085 1.193 3 6,789 7,429 1.094 417,54 8,320 8,981 1,079 6 9,105 8,796 0.966 7 9,954 8,657 0.870 8 10,977 9,306 0.848 9 12,304 9,8914 9,8914 1010. 0.696 همانطور که می بینید با افزایش پیش بینی ها نسبت مقدار واقعی به مقدار پیش بینی شده به طور پیوسته در حال کاهش است و به همین دلیل است که فکر می کنم بیش از حد مناسب هستم. راهنمایی یا توصیه ای در مورد اینکه چه چیزی ممکن است باعث این مشکل شود یا چگونه مدل را تنظیم کنیم تا از این مشکل جلوگیری شود؟ به نظر میرسد که این مدل در نظم دادن به مشاهدات آزمایشی کار شایستهای انجام میدهد، اما در برازش آنها کار بسیار ضعیفتری دارد. | برازش رگرسیون تصادفی جنگل - آزمون کمی روی داده های آزمایشی |
94619 | Stata اجازه می دهد تا اثرات ثابت و اثرات تصادفی رگرسیون لجستیک را از طریق دستورات xtlogit fe و xtlogit re بر این اساس مشخص کند. من تعجب کردم که دستورات معادل برای این مشخصات در R چیست. تنها مشخصات مشابهی که من از آن آگاهم، رگرسیون لجستیکی اثرات مختلط > mymixedlogit <- glmer(y ~ x1 + x2 + x3 + (1 | x4), داده = است. d، خانواده = دوجمله ای) اما مطمئن نیستم که آیا این به هر یک از دستورات فوق الذکر انطباق دارد یا خیر. | معادل xtlogit (fe, re) Stata در R؟ |
33359 | من سابقه تحصیلات تکمیلی در ریاضیات محض دارم (نظریه اندازه گیری، تحلیل تابعی، جبر اپراتور، و غیره) همچنین شغلی دارم که به دانش تئوری احتمال (از اصول اولیه تا تکنیک های یادگیری ماشین) نیاز دارد. سؤال من: آیا کسی میتواند مطالبی برای خواندن متعارف و مرجع ارائه دهد که: * مقدمهای مستقل برای نظریه احتمالات * از روششناسی و برهانهای نظری اندازهگیری دوری نکند * تأکید زیادی بر تکنیکهای کاربردی داشته باشد. اساساً من کتابی میخواهم که تئوری احتمالات کاربردی را برای ریاضیدانان محض به من آموزش دهد. چیزی که با اصول اولیه نظریه احتمال شروع می شود و مفاهیم کاربردی را با دقت ریاضی معرفی می کند. طبق نظرات، آنچه را که نیاز دارم توضیح خواهم داد. من در حال انجام داده کاوی پایه تا پیشرفته هستم. رگرسیون لجستیک، درختان تصمیم، آمار و احتمال پایه (واریانس، انحراف استاندارد، احتمال، احتمال، احتمال، و غیره)، یادگیری ماشین نظارت شده و بدون نظارت (عمدتاً خوشه بندی (K-Means، Hierarchal، SVM)). با در نظر گرفتن موارد فوق، من کتابی می خواهم که از ابتدا شروع شود. تعریف معیارهای احتمال، اما همچنین نشان دادن این که چگونه آنها به احتمالات جمعبندی اولیه منجر میشوند (که میدانم، به طور شهودی، با ادغام در مجموعههای گسسته اتفاق میافتند). از آنجا، میتوان به موارد زیر اشاره کرد: مارکوف چینز، بیزی... در تمام مدت بحث در مورد استدلال بنیادی پشت نظریه، معرفی مفاهیم با ریاضیات دقیق، اما سپس نشان دادن نحوه اعمال این روشها در دنیای واقعی (مخصوصاً برای دادهها). معدن). 1. آیا چنین کتاب یا مرجعی وجود دارد؟ متشکرم PS - متوجه شدم که این از نظر دامنه به این سؤال شبیه است. با این حال، من به دنبال نظریه احتمالات هستم و نه آمار (همانطور که این دو زمینه مشابه هستند). | مقدمه ای بر احتمال کاربردی برای ریاضیدانان محض؟ |
71121 | اگر من یک سری زمانی از مشاهدات Xt داشته باشم. من آنها را به بازده تبدیل می کنم: Rt = Ln(Pt) - Ln(Pt-1). سپس میانگین متحرک دوره 20 را محاسبه میکنم و از بازده کم میکنم تا بازده بدون روند DRt را پیدا کنم: DRt = Rt- MA(Rt) در نهایت دوره 20 میانگین متحرک بازده بدون روند را محاسبه میکنم و انحراف استاندارد SD را محاسبه میکنم. با استفاده از: SDt = SQRT(SUM(MA(DRt)-DRt)^2/20) بنابراین اساساً من یک تفاوت و روند حذف در سری های زمانی، و سپس یافتن انحراف استاندارد. سوال من این است که چگونه می توانم مقدار MA(DRt) + SDt را به مقیاس اصلی برگردانم؟ به نظر نمی رسد که تحولات را به درستی برگردانم. من این کار را انجام دادم: SDt + MA(DRt) + MA(Rt) = Rt، بنابراین exp(Rt) = Yt - Xt، که در آن Yt مقدار SDt + MA(DRt) بر حسب سری زمانی اصلی است. بنابراین، Yt = exp(Rt) + Xt یا به عبارت دیگر Yt = exp(SDt + MA(DRt) + MA(Rt)) + Xt مطمئناً این درست نیست! همچنین آیا جعبه ابزار ریاضی بهتری وجود دارد که بتوانم از آن برای نوشتن واضحتر کارهایی که در stackexchange انجام میدهم استفاده کنم؟ برای هر کمکی متشکرم | تبدیل مجدد به مقیاس خام/اصلی از دگرگونی های سری زمانی و انحراف استاندارد |
114612 | من یک سرویس وب را اجرا می کنم که تعداد کل کلیک ها و زمان آنلاین یک مورد را محاسبه می کند. اکنون تعداد کل کلیک ها را نسبت به زمان آنلاین تعیین می کند. به عبارت دیگر: $\rm \frac{clicks}{time}$ مشکل از این قرار است: نمیخواهم مواردی را که بیننده و ارزش زمانی پایینی دارند در موقعیت یکسانی ببینم، مانند مواردی که بیننده و ارزش زمانی بالایی دارند. بیایید مثالی بزنیم: * آیتم 1 {$\rm کلیک = 1، \ چهار \ \ زمان = 5$}، * آیتم 2 {$\rm کلیک=100،\ \ زمان=500$}، * آیتم 3 {$\rm کلیک =1000, time=5000$} همه آنها دارای نسبت 0.2 هستند، اما _item3_ باید بسیار بالاتر به عنوان _item2_ رتبه بندی شود و _item2_ به عنوان _item1_. $$\rm \ge rank(item3) >> rank(item2) >> rank(item1)$$ چیزی شبیه $$\rm \frac{\frac{clicks}{time}}{\frac{1} را امتحان کردم {clicks}} = \frac{clicks\times clicks}{time}$$ منظورم این است که کاری را که باید انجام میدهد، اما من چندان راضی نیستم. من با رشد تصاعدی پارامتر بیننده در $\rm \frac{1}{clicks}$ بازی کردم. من مطمئن هستم که راه های بهتری برای مدیریت این موضوع وجود دارد. | نسبت های مشابه را با مقادیر ورودی متفاوت مقایسه کرده و آنها را رتبه بندی کنید |
37829 | > **تکراری احتمالی:** > آیا می توان یک جفت متغیر تصادفی گاوسی داشت که توزیع مشترک > برای آنها گاوسی نباشد؟ در مدخل ویکیپدیا در مورد توزیع نرمال چند متغیره، میگوید که یک تعریف > این است که به یک بردار تصادفی میگویند -k_ - متغیر است که به طور معمول توزیع میشود اگر > هر ترکیب خطی از اجزای _k_ آن دارای یک توزیع نرمال تک متغیره باشد. با این حال، از آنجایی که این نیز درست است که هر ترکیب خطی از متغیرهای توزیع شده نرمال خودش نرمال است، آیا این بدان معناست که هر بردار نرمال تصادفی تک متغیره خودش نرمال چند متغیره است؟ آیا تا به حال موقعیتی وجود دارد که بردار نرمال های تصادفی نرمال چند متغیره **نیست** باشد؟ ## بهروزرسانی چیزی که باید میگفتم این بود که هر ترکیب خطی **مستقل** متغیرهایی که به طور معمول توزیع میشوند، خود عادی هستند. تمام پاسخ های زیر نمونه های خوبی از متغیرهایی هستند که مستقل نیستند و بنابراین نرمال چند متغیره نیستند. بنابراین من باید سوالم را اینگونه بیان کنم: آیا تا به حال موقعیتی وجود دارد که بردار **مستقل** نرمال های تصادفی **نرمال چند متغیره** نباشد؟ من عنوان را همانطور که هست میگذارم تا تاریخ و ماهیت پاسخهای این سؤال را منعکس کنم، اما اگر فکر میکنید باید آن را تغییر میدهم. متاسفم برای هر گونه سردرگمی که ممکن است ایجاد کرده باشم. | یک بردار از متغیرهای تصادفی عادی است که همیشه -نه- نرمال چند متغیره هستند |
85750 | من از یک بسته randomForest در R برای تمایز بین 4 دسته استفاده می کنم. داده های من شامل بیش از 80 مشاهدات است و به شدت نامتعادل است و حدود 70 درصد از همه مشاهدات در یک دسته قرار می گیرند. من میخواهم خطای کلاس را برای 3 دسته دیگر کاهش دهم (_به صورت اختیاری، بدون حذف کامل میزان خطای کلاس 1_) و بنابراین دارم با اختصاص وزنهای مختلف به کلاسها آزمایش میکنم. می خواستم بدانم آیا روش خوبی برای تعیین وزن بهینه کلاس از قبل وجود دارد یا همه اینها بستگی به این دارد که من حاضرم چه خطای کلاسی را تحمل کنم؟ با تشکر فراوان | تعیین وزن هایی که باید به هر کلاس در جنگل تصادفی داده شود |
33357 | پس از انجام یک ANOVA و سپس انجام تستهای تعقیبی با تست Tukey HSD، آیا باز هم لازم است که مقایسههای زوجی متعدد را تصحیح کنیم یا قبلاً انجام شده است؟ | آیا تست Tukey HSD برای مقایسه های متعدد درست است؟ |
86911 | در تجزیه و تحلیل من دو نسخه از یک مدل مختلط خطی مشابه را اجرا می کنم، تنها تفاوت این است که در یک مدل متغیر پاسخ مشاهده می شود و در مدل دوم متغیر پاسخ شبیه سازی شده است. هدف من 1) مقایسه تخمین پارامترهای دو مدل و 2) مقایسه پیش بینی های تولید شده توسط دو مدل است. به طور خاص، میخواهم بدانم که مدلهای مشاهدهشده و شبیهسازی شده در چه محدودهای از مقادیر متغیرهای پیشبینیکننده پاسخهای پیشبینیشده متفاوتی دارند. شبیه سازی های من 1000 نسل مستقل از متغیر پاسخ را در بر می گیرد. از این رو من 1000 تخمین پارامتر و پیش بینی دارم که از آن ها می توانم فاصله اطمینان 95٪ را محاسبه کنم. سوال من در مورد ایجاد فواصل اطمینان تخمین پارامترها و پیش بینی ها برای مدل ترکیبی داده های مشاهده شده است. گزینه های زیادی وجود دارد: Wald، بوت استرپ پارامتریک، بوت استرپ ناپارامتری، و سپس بسته بوت در R پنج نوع بازه تولید می کند (به عنوان مثال، صدک پایه، دانشجویی، تنظیم شده). علاوه بر این، می توان فواصل اطمینان را صرفاً با در نظر گرفتن عدم قطعیت در اثرات ثابت ایجاد کرد یا عدم قطعیت ناشی از اثرات تصادفی را اضافه کرد. من مطمئن نیستم که چه روشی با نحوه ایجاد فواصل اطمینان از 1000 مدل مخلوط شبیه سازی شده قابل مقایسه است. پیشاپیش از کمک شما در مورد این سوال طولانی متشکریم. | مقایسه پیش بینی ها از مدل های مختلف ترکیبی |
91484 | در مصاحبهای، مصاحبهکننده گفت که مدلهای متمایز بیشتر از مدلهای مولد برازنده میشوند، زیرا آنها یک مشکل پیچیدهتر را حل میکنند و بنابراین منابع (یا پارامترهای) بیشتری را برای انجام این کار مصرف میکنند. برای تعاریف مدلهای افتراقی و مولد، میتوانید این پست را ببینید Generative و Discriminative. هر ایده ای؟ | آیا مدل های تبعیض آمیز بیش از مدل های مولد مناسب هستند؟ |
85755 | من داده هایی دارم که نشان دهنده چند صد آزمایش مستقل است. هر یک شامل زمان است - آزمایش چقدر طول کشید و نتیجه: مثبت و منفی. 10 درصد از نتایج مثبت وجود دارد. من در حال تلاش برای یافتن محدوده زمانی هستم که برای آن احتمال یک رویداد مثبت بالاترین است. محدوده زمانی باید بیشتر از یک مقدار معین باشد، یا باید بیش از تعداد معینی آزمایش داشته باشد. من سعی کردم از الگوریتم C4.5 برای این مشکل استفاده کنم، اما نمیتوانم راهی برای اعمال محدودیتهای پایینتر در زمان، یا تعداد رویدادها در محدوده یافت شده پیدا کنم. C4.5 امکان محدود کردن تعداد رویدادها را در هر برگ فراهم می کند، اما من فقط به محدوده مثبت اهمیت می دهم، نه بقیه. من سعی می کنم خودم چیزی اختراع کنم، اما مطمئن هستم که راه حل هایی از قبل وجود دارد. میشه لطفا بهشون اشاره کنید؟ | یافتن بازه زمانی با بهترین احتمال وقوع رویداد مثبت |
114618 | توجه: سؤالات مشابهی برای این سؤال وجود دارد، اما به نظر نمی رسد که آنها کاملاً به آن چیزی که من می خواهم بفهمم نمی رسند. من داده های روزانه یک هفته با تعدادی متغیر از جمله خواب شبانه و خلق و خوی روز را دارم. من می خواهم خلق و خوی را در طول روز از خواب شب قبل پیش بینی کنم. سوالات در صبح مطرح می شود، بنابراین S1 دیشب و M1 دیروز است، یعنی می خواهم ببینم آیا M2 توسط S1، M3 توسط S2 و ... پیش بینی می شود. من در پیدا کردن بهترین راه برای انجام این کار در SPSS مشکل دارم. هر ایده ای؟ | پیش بینی یک متغیر روزانه از دیگری در SPSS |
86916 | من بر روی انواع مختلف الگوریتمهای یادگیری ماشینی (ML) مانند جنگل تصادفی/SVM و غیره تحقیق کردهام تا بتوانم نیازهای دارویی بیمارانی را که از نوع خاصی از بیماری خودایمنی کلیوی رنج میبرند، مدلسازی و بهترین پیشبینی کنم. چیزی که من امیدوار بودم کسی بتواند برای من توضیح دهد این است که تفاوتهای توانایی پیشبینی بین شبیهسازیهای مونت کارلو و طبقهبندیکنندههای تصادفی جنگل چیست؟ کاربرد دنیای واقعی آنها چگونه متفاوت است؟ هر گونه نظر بسیار قدردانی خواهد شد. | شبیه سازی مونت کارلو در مقابل الگوریتم های یادگیری ماشین: تفاوت در کاربرد چیست؟ |
33352 | من سعی می کنم یک برنامه موبایل ساده بنویسم تا به همکاران کمک کند سیگنال حیوانات مجهز به فرستنده را در میدان مثلث کنند. من از روش تخمین احتمال حداکثری راسل لنث در سال 1981 (PDF: در یافتن منبع سیگنال) استفاده میکنم. من می توانم از طریق حل برابری 2.6 در PDF تکرار کنم تا مکان تخمینی را به راحتی به دست بیاورم، اما اکنون می خواهم بتوانم مساحت یک بیضی اطمینان 95٪ از مکان تخمینی را محاسبه کنم ($x$, $y$) . در حالت ایدهآل، من همچنین میخواهم بتوانم این بیضی اطمینان را روی نقشه ترسیم کنم. با این حال، من یک فرد آماری نیستم و با وجود جستجوی توضیحات برای برآوردهای کوواریانس و پارامترهای غلظت، کمی در مورد چگونگی مقابله با این مشکل گیر کرده ام. از غربال کردن چند کتاب در مورد ردیابی حیات وحش، گمان میکنم که باید انحراف استاندارد یاتاقانها (_s_) را بدانم (فکر میکنم از طریق آزمایش سیستم مشخص شده است؟) و سپس میتوانم $\kappa$ را با استفاده از موارد زیر پیدا کنم: $A = exp[-1/2(s\pi/180)^2]$\kappa^{-1} = 2(1-A) + [(1-A)^{2}(0.48794-0.82905A-1.3915A^{2})]/A $ آیا تاکنون در مسیر درستی هستم؟ و اگر چنین است، راهنمایی در مورد اینکه قدم بعدی من چیست؟ حدس می زنم ربطی به $Q$ در PDF داشته باشد؟ هر گونه کمکی بسیار قدردانی می شود. * * * مثال: بگویید من با موارد زیر شروع می کنم: نقطه 1: 554045 Easting، 2813867 Northing، Bearing: 300$^{\circ}$ نقطه 2: 553355 Easting، 2813873 Northing، Bearing: 20$^{\circ} نقطه 3: 553207 ایستینگ، 2814120 Northing, Bearing: 90$^{\circ}$ من معتقدم احتمال توضیح داده شده در مقاله این است: $L_x= -\sum\limits_{i=1}^n(y-y_i)[s_i(x-x_i) -c_i(y-y_i)]/d^3_i = 0$L_y= \sum\limits_{i=1}^n(x-x_i)[s_i(x-x_i)-c_i(y-y_i)]/d^3_i = 0$ با $s_i = \sin \theta_i$ ($\ تتا$ یاتاقان در اندازه رادیانی و به معنای ریاضی است) $c_i = \cos \theta_i$ $d_i = [(x-x_i)^{2}+(y-y_i)^{2}]^{1/2}$ با نادیده گرفتن ستاره برای یافتن تخمین اولیه، و سپس با استفاده از آن تخمین برای یافتن تخمین های میانی $d$، $s^*_i$، و $c^*_i$ (تعریف شده در زیر)، که به معادله 2.6 متصل شدند و سپس این کار تکرار شد تا یافتههای ($x$, $y$) به یک نقطه UTM واحد همگرا شوند. $s^*_i = (y-y_i)/d^3_i$ $c^*_i = (x-x_i)/d^3_i$ $d_i = [(x-x_i)^{2}+(y-y_i )^{2}]^{1/2}$ $z_i = s_ix_i - c_iy_i$ با استفاده از این روش، یاتاقان ها در مثال در همگرا می شوند 553455 Northing, 2814131 Easting. اکنون می خواهم بفهمم که مساحت بیضی اطمینان 95 درصدی محل تخمین زده شده چقدر است و همچنین چگونه روی نقشه ترسیم می شود. * * * ویرایش: اوه، ظاهراً من در این پست اعلانهای ایمیلی دریافت نکردهام. پوزش بابت هرگونه نظر نادیده گرفته شده من مشکلم را نزد یکی از همکارانم بردم که به من اشاره کرد به این PDF که بیضی های خطا را به روشی بسیار قابل هضم تر از آنچه قبلا دیده بودم توضیح می دهد. من تاکنون فقط چند نمونه را بررسی کرده ام، اما تا آنجا که می توانم بگویم، بیضی ها به همان شکلی هستند که من از آنها انتظار دارم. | بیضی اطمینان 95% از تخمین حداکثر احتمال لنث |
87665 | من باید رگرسیون لجستیک را روی تقریباً 900000 مشاهده (هر یک مشتری منحصر به فرد) اجرا کنم تا تمایل به خرید یک محصول خاص یا تمایل به نگهداری یک محصول معین را تعیین کنم. من تمایل به ساختن را برای خرید مدل ها ترجیح می دهم، اما مطمئن نیستم که آیا داده های کافی دارم یا چگونه می توانم نتایج را به بهترین شکل بسازم. من باید مدل هایی برای 7 محصول مختلف بسازم، و این مدل ها باید به طور مستقل مورد بررسی قرار گیرند (یعنی دوره نتیجه برای هر مدل می تواند متفاوت باشد). جدول زیر محصولاتی را که قرار است مدلسازی کنم و تعداد مشتریان منحصربهفرد مربوطه را نشان میدهد که یا محصولات را از 13 دسامبر تا 14 ژانویه، 13 نوامبر تا 14 ژانویه، 13 اکتبر تا 14 ژانویه خریداری کردهاند یا صرف نظر از اینکه محصول را نگه داشتهاند. تاریخ  من تقریباً هیچ داده ای برای اکثر محصولات در ماه های دسامبر-ژان و نوامبر-ژان ندارم، اما اگر نگاه کنم شروع به دیدن اطلاعات بیشتری می کنم در ماه های اکتبر تا ژانویه **اینجا - سؤالات من، با توجه به مجموع 900000 مشاهدات:** 1) آیا اصلاً منطقی در ایجاد تمایل به خرید مدل برای محصولاتی وجود دارد که در آنها اطلاعاتی در مورد خرید محصول بین اکتبر تا ژانویه دارم (یعنی تنظیم متغیر وابسته از آن دسته از مشتریانی که یک محصول مشخص را بین اکتبر تا 1 ژانویه (رویداد) خریداری کردهاند، یا اینکه من اطلاعات بسیار کمی دارم و بنابراین باید به تمایل به نگهداری مدلها تکیه کنم. همه محصولات؟ 2) چگونه بخش غیر رویدادی (به عنوان مثال 0) متغیر وابسته خود را تعیین کنم؟ آیا باید به طور تصادفی از جمعیت مشتریانی که محصول را در اختیار ندارند نمونه برداری کنم (یا اگر بتوانم از تمایل به خرید مدل استفاده کنم) محصول را نخریده اند؟ چه تعداد مشاهدات را باید ترسیم کنم (یعنی می خواهم 50-50 تفکیک رویدادها و غیررویدادها را داشته باشم، یا باید از غیررویدادهای بیشتری استفاده کنم، زیرا اطلاعات بیشتری در مورد آنها دارم؟ از چند غیر رویداد دیگر باید استفاده کنم؟ )؟ | حجم نمونه و دوره نتیجه رگرسیون لجستیک |
83752 | اول از همه، دادههای من: http://www.pastebin.ca/2599202 (امیدوارم این کار خیلی ناخوشایند نباشد، زیرا من نمیتوانم دادههای نمونه مناسبی ایجاد کنم) آنچه من اساساً به آن نیاز دارم، طرحی مانند:  من فاکتور اندازه گیری مکرر زمان (محور x، 3 سطح) را در برابر ias ترسیم کردم (متغیر وابسته پیوسته) برای 3 گروه آزمایشی من. من این کار را 4 بار انجام دادم (برای هر چندک از اندازه گیری صفت MIHT، `miht.binned`، 0.25 - 1.00). باید اعتراف کنم که من واقعاً یک حرفه ای R نیستم و کتابچه راهنمای «ggplot2» به سادگی برای من بیش از حد است. من طرح را با `ezPlot` (از `ezANOVA`) ایجاد کردم و فقط توانستم کمی بهینه سازی طرح بندی را با `ggplot2` انجام دهم: PlotIAS = ezPlot( data = MyData , dv = .(ias) , wid = .(id) , بین = .(GROUP, miht.binned) , درون = .(زمان) , x = .(زمان) , split = .(GROUP) , col = .(miht.binned) , x_lab = 'زمان اندازه گیری' , y_lab = 'امتیاز IAS (میانگین)' #, do_bars = FALSE , type = 3 ) PlotIAS = PlotIAS + theme( panel.grid.major.y = element_line (رنگ = gry80، اندازه = NULL، linetype = NULL، lineend = NULL) ,panel.grid.minor.y = element_line(رنگ = gray90، اندازه = NULL، نوع خط = NULL، lineend = NULL) ,panel.grid.major.x = element_blank() panel.grid.minor.x = element_blank() ,legend.background = element_rect(fill = NULL، رنگ = سیاه) ,panel.background = element_rect (پر = سفید، رنگ = سفید، اندازه = NULL، نوع خط = NULL) ) چاپ (PlotIAS) من هیچ اطلاعاتی در مورد این خطا پیدا نکردم میله هایی که ezPlot ایجاد می کند. به نظر می رسد همه آنها یکسان هستند. فقط باید نوارهای خطا با SE یا CI داشته باشم. من نمی دانم که آیا می توان اینها را در کد مبتنی بر ezPlot من اضافه کرد (و چگونه؟) یا اینکه باید یک شی ggplot کامل جدید برای آن ایجاد کرد (که برای من هزینه اضافی است...). کمک بسیار قدردانی می شود. | R ggplot2/ezPlot: ترسیم طرح ANOVA 3x3 RM در هر چندک از متغیرهای کمکی با نوارهای خطا |
41608 | من می خواهم سه مجموعه از دنباله های باینری را با هم مقایسه کنم و ارزیابی کنم که آیا آنها از نظر آماری تفاوت دارند یا خیر. هر دنباله 100 بیت طول دارد (طول 0-100 نشان دهنده محور یک بافت دراز است: اگر در موقعیت i عدد 1 وجود داشته باشد، به این معنی است که سلولی از آن دودمان خاص در این موقعیت پیدا شده است). مجموعه ها به ترتیب شامل 26، 20 و 29 سکانس هستند. هر مجموعه از یک مجموعه متفاوت از سلول ها می آید و من می خواهم بدانم که آیا 3 استخر تا آنجا که به ظرفیت آنها برای کلونی سازی در امتداد بافت مربوط می شود تفاوت قابل توجهی دارند یا خیر. | مقایسه مجموعه ای از دنباله های باینری |
81387 | > فرض کنید نمونه ای به اندازه 10 از توزیعی با احتمال > تابع چگالی $f(x, \theta) = 2x^{\theta}(1-x)^{1-\theta}$ گرفته شده است اگر $0<x< 1$ و > $0$ در غیر این صورت، جایی که $\theta \in \\{0,1\\}$. بهترین منطقه بحرانی > با اندازه $\alpha$ را برای آزمایش $H_0 توصیف کنید: \theta = 0$ در برابر گزینه جایگزین > فرضیه $H_1: \theta =1$. ما به $\frac{L(0)}{L(1)} \leq k$ برای مقداری $k < 1$ نیاز داریم. دریافتیم که $$\frac{L(0)}{L(1)} = \frac{2(1-x_1)2(1-x_2)...2(1-x_{10})}{2x_12x_2 ...2x_{10}} = \frac{(1-x_1)(1-x_2)...(1-x_{10})}{x_1x_2...x_{10}}.$$ اکنون میخواهم $\frac{(1-) را ساده کنم x_1)(1-x_2)...(1-x_{10})}{x_1x_2...x_{10}} \leq k$ تا ببینم آیا میتوانم این را به توزیعی تبدیل کنم که ظاهری بیشتر داشته باشد آشنا اما به دلایلی نتوانستم کاری انجام دهم، بنابراین فکر می کردم آیا کسی به من راهنمایی می کند تا بتوانم ادامه دهم... پیشاپیش متشکرم | توصیف بهترین منطقه بحرانی با اندازه $\alpha$ برای آزمایش $H_0: \theta = 0$ در برابر فرضیه جایگزین $H_1: \theta =1$ |
87669 | من در تلاشم تا بفهمم که چگونه مقادیر فصلی اولیه را برای پسکستینگ زمستانهای Holt ضربی تنظیم کنم. همانطور که در این تاپیک اشاره شد: راهاندازی Holt Winters با استفاده از backcasting مانند SPSS، میتوانید: $$ {\rm Seasonal\ Index}_i = \frac{m_i + b_i}{\sum(m_i + b_i)} را تنظیم کنید. $$ این روش زمانی که $m_i + b_i > 0$ باشد، نتایجی مشابه با SAS و SPSS ایجاد میکند. اما وقتی $m_i + b_i < 0$ باشد چه باید کرد؟ | چگونه مقادیر اولیه را برای بک کستینگ Holt-Winters تنظیم کنیم؟ |
8240 | من N نقطه یکنواخت تصادفی $p_j$ در یک جعبه در $E^d$، $a_i \le x_i \le b_i$ دارم، و میخواهم فاصله مورد انتظار نزدیکترین نقطه به مبدأ را در $L_q$ تخمین بزنم: $\ نزدیکترین چهار دلار (نقاط $p_j$، کادر $a_i .. b_i$، $q$ ) $\;\equiv\;$ $\min_{j=1..N}$ $\sum_{i=1..d}$ |$p_{ji}|^q$ این جعبه ممکن است در ابعاد 0 قرار گیرد، $a_i < 0 < b_i$. همچنین میخواهم تخمینگر برای $0 < q < 1$ نیز کار کند، متریک کسری. (16 مارس) بیایید سعی کنیم حالت سادهتری انجام دهیم: $L_1$، واحد مکعب 0 $\le x_i \le$ 1. از نظر هندسی، برش مورب مکعب واحد را میخواهیم (اصلاح کنید) با حجم $\frac{1 }{N+1}$. (آیا کسی تصویر یا اپلتی از یک مکعب سه بعدی دارد که به برش های با حجم مساوی بریده شده باشد؟) اگر d به اندازه ای بزرگ باشد که یک قضیه حد مرکزی نگه دارد، $\quad \sum_{i=1..d} uniform_i \ \sim \ \mathcal{N}( \frac{d}{2}, \frac{d}{12} )$; بنابراین $\mathcal{N}^{-1}( \frac{1}{N+1} )$ تقریباً برش و نزدیکترین فاصله مورد انتظار من را نشان میدهد. در Python با scipy.stats، این def cutcube است( dim, vol ): یک تکه از مکعب واحد را در E^dim با حجم تقریب معمولی برش دهید: cutcube( 3, 1/6 ) = 0.339 ~ 1 /3 جلد 1/(N+1) -> E نزدیکترین نقطه تصادفی در مکعب ? norm.ppf( vol, loc=dim/2, scale=np.sqrt( dim/12 )) / dim cutcube( dim=2, vol=1/10 ) = 0.24 cutcube( dim=4, vol=1/10 ) = 0.32 cutcube( dim=8, vol=1/10 ) = 0.37 cutcube( dim=16, vol=1/10 ) = 0.41 cutcube( dim=32, vol=1/10 ) = 0.43 | نزدیکترین N نقطه تصادفی یک جعبه را در E^d تخمین بزنید؟ |
76473 | چگونه میتوانید کلاسهای تخصیصنشده را در ماشینهای بردار پشتیبان چند کلاسه (SVM چند کلاسه) با رویکرد One vs All مدیریت کنید؟ فرض کنید داده های آموزشی من دارای سه کلاس A، B و C هستند. من از 3 طبقه بندی کننده SVM یک در مقابل همه استفاده می کنم. برای یک نمونه آزمایشی خاص، همه طبقهبندیکنندهها به ترتیب «نه A»، «نه B» و «نه C» میگویند. چگونه می توانم این نمونه را به یکی از کلاس ها اختصاص دهم؟ من سعی کردم از یک کلاس 'تخصیص نشده' استفاده کنم، اما نرخ خطا بسیار زیاد است. یک سوال دیگر: وقتی دو یا چند طبقهبندیکننده یک نمونه آزمایشی را مثبت میدانند، باید با کدام یک پیش بروم. در جایی خواندم که باید از عملکرد خروجی SVM استفاده کنید. حالا اون چیه؟ Matlab svmStruct زیر را ارائه می دهد: 1. SupportVectors 2. Alpha 3. Bias 4. KernelFunction 5. SupportVectorIndices 6. دیگران چگونه از اینها برای تولید مقدار خروجی استفاده کنم؟ همچنین، من تکنیک پلات را کاملاً درک نکردم. چگونه با استفاده از عناصر svmStruct آن را پیاده سازی کنم. این سوال مرتبط است اما بی پاسخ مانده است. | کلاس های تخصیص نیافته در SVM چند کلاسه با رویکرد One vs All |
41601 | برای کاری که باید مستندسازی کنم، در برخی مواقع N نمونهبرداری مجدد از نمونه اولیه انجام میدهم و N معنی از آنها تولید میکنم (نوعی راهاندازی). خیلی آسان است، اما من نمی دانم چگونه آن را به صورت ریاضی بنویسم، من به چیزی مانند: $\tilde x = \sum_{k\in\Gamma} x_k$ فکر می کردم و سپس $\Gamma$ را به عنوان یک مجموعه توصیف می کنم. هر ایده ای؟ | علامت گذاری میانگین نمونه گیری مجدد |
87666 | در حین مطالعه یک مقاله (منتشر شده و بررسی شده، که در زیر به آن ارجاع داده شده است) که به بررسی نسبت انواع بافت های مختلف در مغز انسان می پردازد، به جدولی برخوردم که داده های مربوط به زیر گروه های مختلف در این مطالعه را ارائه می دهد. داده ها به عنوان میانگین +/- SE (که من فرض می کنم خطای استاندارد است، اگرچه نتوانستم آن را در متن مشخص شده ببینم) و محدوده ارائه شده است. یک مثال سن یکی از زیر گروه ها است: n= 23 میانگین سنی = 66 SE = 2.9 محدوده سنی 60-69 این من را متحیر کرد. اگر SE 2.9 باشد، با توجه به اندازه نمونه 23، SD سن باید باشد: SD = sqrt(23) * 2.9 = 13.9 این منجر به یک انحراف استاندارد می شود که بسیار بزرگتر از محدوده تعیین شده برای سن، که نباید امکان پذیر باشد. من یک مبتدی در دنیای آمار هستم، بنابراین سؤال من به سادگی این است که آیا می توان از این نتیجه به این نتیجه رسید که یک یا چند مقدار داده شده باید نادرست باشد یا اینکه چیزی را از دست داده ام که این داده ها را به درستی تبدیل کند. حس متشکرم مرجع: Guttmann CR, Jolesz FA, Kikinis R, et al. ماده سفید با پیری طبیعی تغییر می کند. عصب شناسی 1998؛ 50: 972-978. | وقتی که اندازه نمونه را می دانیم، چه زمانی خطای استاندارد میانگین برای یک محدوده داده معین غیرممکن است؟ |
99914 | من میدانم که f-measure (بر اساس دقت و یادآوری) تخمینی از دقت طبقهبندیکننده است. همچنین، زمانی که یک مجموعه داده نامتعادل داریم، F-Measure بر دقت ترجیح داده می شود. من یک سوال ساده دارم (که بیشتر در مورد استفاده از اصطلاحات صحیح است تا در مورد تکنولوژی). من یک مجموعه داده نامتعادل دارم و از f-measure در آزمایشاتم استفاده می کنم. من در شرف نوشتن مقاله ای هستم که **نیست** برای کنفرانس یادگیری ماشینی/داده کاوی. از این رو، آیا می توانم به f-measure مترادف با دقت در این زمینه اشاره کنم. به عنوان مثال، من یک اندازه گیری f برابر با 0.82 دارم، سپس می توانم بگویم طبقه بندی کننده من به پیش بینی های دقیق 82 درصدی دست می یابد؟ | آیا f-measure مترادف با دقت است؟ |
80986 | من با افزودن ویژگی های خود به `sklearn.linear_model.LogisticRegression` مشکل دارم. اما به هر حال اجازه میدهیم کد نمونه را ببینیم: از sklearn.linear_model import LogisticRegression، LinearRegression وارد کردن numpy به عنوان np # اعداد کلاس تگ resultsNER = np.array ([1,2,3,4,5]) # با توجه به resultNER هر ردیف یک کلاس دیگر است، بنابراین ویژگی های دیگر # است، اما به این ترتیب هر سطر دارای ویژگی های یکسان xNER = است np.array([[1.,0.,0.,0.,-1.,1.], [1.,0.,1.,0., 0.,1.], [1., 1.، 1.، 1.، 1.، 1.]، [0.، 0.، 0.، 0.، 0.، 0.]، [1.، 1.، 1.، 0.، 0. .,0.]]) # Assing resultsNER به y = resultsNER # ایجاد LogReg logit = LogisticRegression (C = 1.0) # Learn LogReg logit.fit (xNER, y) # برخی از بردارهای آزمایشی برای بررسی اینکه کدام کلاس xPP = np.array ([1.,1) را پیشبینی میکند. ,1.,0.,0.,1.]) # linear = LinearRegression() # linear.fit(x, y) print expected: , y print predicted:، logit.predict(xPP) print decision: , logit.decision_function(xNER) print logit.coef_ # print linear.predict(x) print params: , logit.get_params(deep=True) کد بالا واضح و آسان است. بنابراین من چند کلاس دارم که آنها را «1،2،3،4،5(resultsNER)» نامیدم، آنها بر اساس برخی کلاسها مانند «داده»، «شخص»، «سازمان» و غیره هستند. بنابراین برای هر کلاس ویژگیهای خاص خود را میسازم. که در این مورد «1» و «0» درست یا نادرست را برمیگردانند. مثال: اگر توکن برابر با (S|s)unday باشد کلاس داده است. از نظر ریاضی مشخص است. من برای هر کلاسی که آن را آزمایش میکنم، نشانههایی دارم. سپس نگاه میکنم که کدام کلاس حداکثر مقدار مجموع ویژگیها را دارد (به همین دلیل است که عدد را برمیگرداند نه بولی) و آن را انتخاب میکنم. به عبارت دیگر: من از تابع argmax استفاده می کنم. البته به طور خلاصه هر ویژگی دارای ضرایب آلفا است. در این مورد، طبقهبندی چند کلاسه است، بنابراین باید بدانم چگونه ویژگیهای چند کلاسه را به «sklearn.LogisticRegression» اضافه کنم. من به دو چیز به ضرایب آلفا نیاز دارم و اینکه چگونه ویژگی های خودم را به رگرسیون لجستیک اضافه کنم. مهمترین چیز برای من این است که چگونه به «sklearn.LogisticRegression» عملکرد ویژگی های خودم را برای هر کلاس اضافه کنم. می دانم که می توانم ضرایب را با نزول گرادیان محاسبه کنم. اما فکر میکنم وقتی از «fit(x,y)» استفاده میکنم، «LogisticRegression» از برخی الگوریتمها برای محاسبه ضرایب استفاده میکند که میتوانم با ویژگی «.coef_» به دست بیاورم. بنابراین در پایان سوال اصلی من این است: **چگونه ویژگی های خود را برای کلاس های مختلف در کلاس نمونه خود اضافه کنیم`1,2,3,4,5(resultNER)`؟** | ویژگی های رگرسیون لجستیک sklearn |
30159 | شخصی این سوال را در یک مصاحبه شغلی از من پرسید و من پاسخ دادم که توزیع مشترک آنها همیشه گوسی است. فکر می کردم که همیشه می توانم یک گاوسی دو متغیره با میانگین ها و واریانس ها و کوواریانس های آنها بنویسم. میخواهم موردی وجود داشته باشد که احتمال مشترک دو گاوسی گاوسی نباشد؟ | آیا می توان یک جفت متغیر تصادفی گاوسی داشت که توزیع مشترک آنها گاوسی نباشد؟ |
47607 | اگر در مورد احتمال به دست آوردن فکر می کردم: * فقط یک سر در دو پرتاب - 2/4 * فقط یک سر در سه پرتاب = 3/8 یا 37.5٪ اما من فقط روی انگشتانم می شمردم، چگونه این کار را برای اعداد بزرگ انجام می دهید. ? | نحوه محاسبه احتمال به دست آوردن 1 سر در 2 ورق سکه یا 1 سر در 12 تلنگر و غیره |
80985 | فرض کنید من یک مجموعه داده {p1, p2,...pN} دارم که در آن pi=(xi,yi), i=1,2,..., N. چگونه می توانم وزن wi را به هر نقطه داده pi در وزن اختصاص دهم حداقل مربعات مناسب؟ کسی میتونه کمکم کنه؟ من آمارگیر نیستم من اطلاعات کمی در مورد آمار دارم. | چگونه می توانم وزن را به هر مشاهده از داده ها در برازش حداقل مربعات وزنی اختصاص دهم؟ |
76472 | من داده های توالی RNA (= بیان یک پروتئین خاص) از تومور ریه 14 بیمار، 5 غیر سیگاری و 9 سیگاری دارم. اگر بخواهم میزان بیان آن پروتئین افراد سیگاری و غیرسیگاری را مقایسه کنم، از کدام آزمایش استفاده کنم؟ مجموعه داده پارامتریک به نظر نمی رسد، بنابراین من معمولاً آزمایش Wilcoxon را امتحان می کنم، اما اینها داده های جفتی نیستند، نه؟ خیلی ممنونم! | کدام آزمون را اجرا کنم؟ |
44166 | من با هستهها تازه کار هستم و در حین تلاش برای هستهسازی kNN به مشکل برخوردم. ## مقدمات من از یک هسته چند جمله ای استفاده می کنم: $K(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d$ شما kNN اقلیدسی معمولی از متریک فاصله زیر استفاده می کند: $d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert$ اجازه دهید $f(\mathbf{x})$ $\mathbf{x}$ را به فضایی با ابعاد بالاتر نگاشت. سپس مجذور متریک فاصله فوق در فضای هیلبرت را می توان با محصولات داخلی بیان کرد: $d^2(f(x), f(y)) = K(\mathbf{x},\mathbf{x}) - 2K (\mathbf{x}, \mathbf{y}) + K(\mathbf{y} ,\mathbf{y})$ توجه داشته باشید که اگر اجازه دهیم $d = 1$ مقدار بالا به فاصله استاندارد اقلیدسی شما منحرف خواهد شد. ## سوال مشکل اصلی من این است که نمیتوانم ببینم چگونه هستهسازی kNN نتایج بهتری ایجاد میکند، همانطور که به طور تجربی توسط این مقاله نشان داده شده است (هشدار، پیوند مستقیم pdf!). | Kernelised k نزدیکترین همسایه |
76475 | اغلب، اگر مقدار بارگذاری آن در جدول بارگذاری بالاتر از یک مقدار قطع باشد (فرض کنید 0.4 یا 0.5 در برخی موارد منتشر شده) باشد، یک متغیر به طور قابل توجهی در رایانه شخصی بارگذاری شده است. آیا روشی آماری/ریاضی برای بررسی اینکه آیا یک متغیر به طور قابل توجهی روی یک رایانه شخصی بارگذاری شده است یا خیر وجود دارد؟ | تجزیه و تحلیل مؤلفه اصلی: آیا یک متغیر به طور قابل توجهی روی یک جزء اصلی بارگذاری می شود یا خیر؟ |
41604 | بلیط سنگ در باجه بلیط فروخته می شود. زن و مرد در زمانهای فرآیندهای پواسون مستقل با نرخهای 30 و 20 وارد میشوند. > احتمال اینکه سه مشتری اول زن باشند چقدر است **My Work** اجازه دهید $F(t)، M(t)$ تعداد آنها باشد. ماده ها، نرها به ترتیب تا زمان $t$ می رسند. سپس اگر $M(t) + F(t) = 3$ را شرط کنم، $$\Bbb P(F(t) = 3، M(t) = 0 | M(t) + F(t) دریافت می کنم. = 3) = {\exp(-30t) (30t)^3/3! \cdot \exp(-20t)(20t)^0/0! \over \exp(-50t)(50t)^3 /3!}$$ آیا این درست است؟ پاسخ من، پس از لغو، به ${30^3 \ بیش از 50^3}$ می رسد که کمی خیلی ساده به نظر می رسد؟ دقیقاً $\Bbb P (\text{ورود زن})^3$ است. | فرآیند پواسون باعث لاغری ماده ها و نرها می شود |
44169 | فرض کنید من به دنبال بهینه سازی مقدار ادویه های خاص در دستور العمل ادویه چیلی بودم. طرح آزمایشی کتاب درسی میخواهد مقدار هر ادویه را در متغیر طراحی رمزگذاری کنم، نوعی ماتریس طراحی را انتخاب کنم، برای هر ردیف از ماتریس طراحی یک قابلمه فلفل بپزم (یکی باید میانبرهایی را در آشپزخانه انتخاب کند! ) و برای هر انتخاب از متغیرهای طراحی یک متغیر وابسته عددی اختصاص دهید. این عملیات اخیر برای چیزی مانند فلفل قرمز (یا کاربرد واقعی من که یک راز است) دشوار است. به احتمال زیاد یک آزمایشکننده طعم میتواند دو دستور غذای مختلف را بچشد و تشخیص دهد که کدام بهتر است، اما تخصیص یک نمره عددی به انواع مشکلات (رانش در طول زمان و غیره) بستگی دارد. بنابراین من یک سوال دو قسمتی دارم، و آنها در هم تنیده شده اند: 1. با توجه به نتایج تعدادی از این مقایسه ها، چگونه باید بردار بهینه متغیرهای طراحی را انتخاب کرد؟ (به عنوان اولین گذر، ممکن است به «مرتبسازی پر سر و صدا» نگاه کنم، اما مثلاً چیزی کمتر شیک، بر اساس رگرسیون لجستیک، انتخاب بهتری است.) 2. پس از انتخاب روش ارزیابی، چگونه باید آزمایش را طراحی کنم. ? | طراحی تجربی برای پاسخ های مقایسه ای |
80988 | من 3 ابزار مالی دارم: A، B و C. و 3 جفت همبستگی در دسترس دارم: (A, B) = 0.9 (B, C) = 0.9 (A, C) = 0.5 باید ابزارهای بسیار همبسته را حذف کنم. یعنی فقط B، زیرا A و C همبستگی کمی دارند (0.5). چگونه می توانم آن را به صورت الگوریتمی در هر تعداد ابزار انجام دهم؟ | ابزارهای بسیار همبسته را حذف کنید |
8242 | من میخواهم از R برای ترسیم چیزی شبیه به این استفاده کنم:  به نظر میرسد ردیابی مختصات ممکن است اما بسیار پیچیده است. عرض، ارتفاع، و غیره. به طور شهودی به نظر می رسد بهتر است هر سلول را به عنوان یک نمودار جدید در نظر بگیریم و مختصات هر سلول را تغییر دهیم. آیا راهی برای انجام این کار در R وجود دارد؟ با تشکر | ترسیم خطوط جرقه در R |
83756 | من مجموعه داده ای را که دارای 20 مشاهدات است نسبت داده ام. از شرکتکنندگان خواسته شد تا اهمیت 13 متغیر را در شرایط خاصی از 0 تا 25 رتبهبندی کنند. من این را با استفاده از موش(imp=25، max_it=25) نسبت دادم و پس از چند ساعت یک مجموعه داده خوب دریافت کردم. من اکنون با استفاده از نمودارهای جعبه در هر شرایط آن را تجزیه و تحلیل می کنم (بنابراین 13 نمودار جعبه در یک زمان)، اما تعجب می کنم که چگونه می توانم اهمیت در هر شرایط جعبه را اندازه گیری کنم.  در مثال بالا واضح است که شرایط «درآمد: 0 تا 2 میلیون» با «درآمد: 10 تا» متفاوت است. 50 میلیون و احتمالاً از 2 تا 10 میلیون، اما چگونه می توانم این را از نظر آماری اندازه گیری کنم؟ داده های من توزیع نرمال دارند. یکی از دوستان ANOVA را توصیه کرد، اما این یک متغیره است و من احساس می کنم که 20 مشاهده خیلی کم است... دیدم: چگونه دو گروه را در مقیاس مهارت های اجتماعی که شامل 5 خرده مقیاس است که هر خرده مقیاس عددی از 12 صحیح است مقایسه کنیم؟ اما واقعا مطمئن نیستم که آیا این مورد اعمال می شود زیرا غیر پارامتری آن است. | تجزیه و تحلیل معناداری در متغیرهای گروه بندی شده |
83750 | من از کمک در تمرین زیر سپاسگزارم: اجازه دهید متغیر تصادفی $Y$ تابع تولید لحظه را داشته باشد $$M(t)=\exp\\{q(\theta)-q(\theta+t) \\} $$ که در آن $q(.)$ یک تابع است. اگر $E[Y]=\theta$، ثابت کنید که $Y\sim N(\theta,1)$. ** نکته: $M\prime (0) =\theta$ را در نظر بگیرید و معادله دیفرانسیل را حل کنید. =-q \prime (\theta)=\theta $$ یک راه حل این معادله دیفرانسیل $ q (\theta)=C\exp\\{-\theta \\}$ است که $C$ یک ثابتی که در تعیین آن مشکل دارم. می ترسم به بن بست رسیده ام. فکر می کنم باید نشان دهم که MGF به شکل $\exp\\{\theta t +(1/2) t^2 \\}$ است، یعنی MGF یک توزیع نرمال با میانگین $\theta$ و واریانس 1 دلار اما برای انجام این کار، باید ثابت را تعریف کنم که به دلیل عدم وجود شرایط مرزی، به نظر نمی رسد قادر به انجام آن باشم. توصیه ای در مورد نحوه ادامه کار از اینجا دارید؟ متشکرم. | یک تمرین MGF |
44167 | من دو مدل رگرسیون خطی چند متغیره دارم (نتایج چندگانه، به عنوان مثال، پاسخها یک ماتریس هستند)، و عملکرد آنها را با استفاده از $R^2$ در اعتبارسنجی متقاطع، روی این پاسخهای فردی و در همه پاسخها اندازهگیری میکنم. همچنین میخواهم تفاوت در $R^2$ را با استفاده از یک p-value، به عنوان مثال t-test (پس از تبدیل فیشر $R^2$ برای نرمال بودن بهتر و غیره) کمیت کنم. در حال حاضر، این پاسخ ها به شدت با یکدیگر مرتبط هستند. بنابراین، میانگین R^2$ روی پاسخها در یک برآورد واحد، من را نگران میکند، زیرا آنها مستقل نیستند، و یک آزمون معناداری که این را نادیده میگیرد ممکن است به شدت مغرضانه باشد. آیا به جای آن باید یک مقدار p جداگانه برای هر نتیجه دریافت کنم و سپس از چند تصحیح تست استفاده کنم؟ | مقایسه مدل در بین پاسخهای مرتبط چندگانه |
76479 | من می خواهم یک دنباله باینری شبه تصادفی از 0 و 1 را پیش بینی کنم. من به استفاده از بسته HMM در R فکر می کنم. من یک دنباله باینری مانند ... 0 1 0 0 1 1 0 1 x(n+1) دارم؟ با هزاران ارزش چیزی که من می خواهم این است که تخمین خودکار x(n+1) را دریافت کنم و هر بار ماتریس prob.matrix آنها را به طور خودکار محاسبه کنم. سوال این است که بدانیم، اگر یک HMM (یا هر الگوریتم دیگری) میتواند P > 0.5 را برای رویدادهای باینری که تستهای تصادفی را پشت سر میگذارند، ارائه دهد، اما توسط الگوریتمهای قطعی، مانند LCG تولید میشوند. یه همچین چیزی؛ http://www.stanford.edu/class/stats366/hmmR2.html اما با استفاده از یک فایل داده با دنباله باینری، بنابراین prob.matrix را نمی توان قبلاً تخمین زد. متشکرم | استفاده از مدلهای R و مارکوف پنهان برای پیشبینی توالیهای باینری شبه تصادفی بهتر از P > 0.5؟ |
103081 | رگرسیون با استفاده از OLS برآورد شد. y=a0 + a1x1 + a2x2 + خطا را دریافت می کنیم. ماتریس کوواریانس ∑ برآوردگر خود را می دانیم. **1\. چگونه فاصله اطمینان را برای نسبت a1/a2 بدست آوریم؟** **2\. در چه صورت فاصله اطمینان بیشتر خواهد بود - اگر همبستگی مثبتی بین a1 و a2 وجود داشته باشد یا اگر همبستگی وجود نداشته باشد؟ اولی فقط به شرح رویه مربوط می شود. من آن را در امتحاناتم امروز دریافت کردم و نمی دانستم چگونه آن را کنار بگذارم ;) هیچ ایده ای دارید؟ | مشکل رگرسیون |
100766 | من باید یک انتگرال از 3 متغیر چگالی $f(x_1, x_2, x_3)$ را محاسبه کنم که در دامنه $D$ تعریف شده است، در منطقه $$T=\\{x \in R³|f(x) \ geq M \\}$$ با استفاده از MCMC، که در آن $M$ یک ثابت مثبت داده شده است. با تعریف تابع $g(x)=1\;if\;f(x)\geq M$ و $g(x)=0\;if\;f(x)<M$، $$\int_T داریم f(x)dx = \int_Dg(x)f(x)dx$$ بنابراین تخمین MC برای انتگرال $$ \bar{I}= \frac{1}{N} \sum_{i=1}^N g(x_i)،\; x_i \sim f$$ مقدار $M$ من $f(a,b,c)$ است که $(a,b,c)$ حداکثر تابع $f$ با محدودیت $$a = \ است. rho \; c \; \Gamma\left(1 + \frac{1}{b}\right)$$ برای $0<\rho<1$. مشکل من زمانی است که سعی میکنم از الگوریتم پیادهروی تصادفی Metropolis با یک نرمال سهمتغیره (میانگین آخرین حالت است) استفاده کنم تا نمونه توزیع شده به صورت $f$ را پیدا کنم. اگر $\rho$ را تغییر دهم، $(a,b,c)$ از نقطه حداکثر تابع (که به عنوان حالت اولیه زنجیره خود استفاده می کنم) نزدیکتر می شود یا خیر. اگر نقطه به ماکزیمم توزیع من نزدیک باشد، نمیخواهم وقتی زنجیره را اجرا میکنم، زنجیره آنقدر دور شود، زیرا در این حالت، $g$ تقریباً همیشه صفر خواهد بود. اما اگر واریانسهای کمی را در ماتریس کوواریانس خود برطرف کنم، زمانی که نقطه از حداکثر توزیع فاصله دارد (بنابراین میخواهم زنجیره کمی بیشتر در توزیع حرکت کند)، تخمینهای اشتباهی برای انتگرال به من میدهد. بنابراین فکر می کنم ماتریس کوواریانس من به $\rho$ بستگی دارد. اما چگونه می توانم ضرایب ماتریس کوواریانس مناسب را پیدا کنم؟ من نتوانستم محدودیت را تجزیه و تحلیل کنم تا بتوانم رابطه مناسب را پیدا کنم. امیدوارم شکم روشن باشد. پیشاپیش متشکرم | الگوریتم پیاده روی تصادفی کلانشهر - ماتریس کوواریانس |
44839 | من یک مدل جلوه های ثابت را اجرا می کنم. متغیر مستقل من حضور در فروشگاه است و یکی از متغیرهای وابسته من، i.county، اثرات ثابت کانتی را اندازه گیری می کند. من از «xi: regress store_presence i.county other_var othervar2» استفاده می کنم که در آن «county» کد شهرستان ایالات متحده، یک متغیر رشته ای است. اما خروجی رگرسیون گزارش می دهد که برخی از متغیرها به دلیل همخطی بودن حذف شده اند. برای رفع این خطا و ثبت افکت های ثابت در کانتی در مدل خود چه باید بکنم؟ | اجرای آمار مدل با جلوه های ثابت |
87367 | در رگرسیون پشته می دانیم که  به عنوان تخمینی از $\beta$ است و این حداقل مجموع مربعات باقیمانده را به دست می دهد:  و ما می دانیم که  سوال این است که چگونه برای نشان دادن آن | در مورد فاصله بین پارامترها در رگرسیون ریج |
8246 | من در حال ارزیابی یک طبقهبندی کننده تجزیه و تحلیل متمایز درجه دوم (QDA) بر روی یک مجموعه ویژگی با ابعاد بالا هستم. ویژگی ها از توزیع های بسیار غیر گاوسی می آیند. با این حال، زمانی که من ویژگیها را به دو روش مختلف به توزیع گاوسی تبدیل میکنم، طبقهبندیکنندههای بهدستآمده بدتر از QDA اعمال شده بر روی ویژگیهای خام با سه معیار زیر عمل میکنند: * دقت (کلاسها متعادل هستند) * مساحت زیر ROC * A متریک احتمالی اولین روش تبدیل هر ویژگی به توزیع گاوسی کلاس را نادیده گرفت. برای هر ویژگی، پارامترهای توزیع مربوطه را پیدا کرد، از تابع CDF توزیع یا تقریب برای هر نقطه داده استفاده کرد، و سپس از CDF معکوس گاوسی استفاده کرد. راه دوم نیز همین کار را انجام داد، اما شامل برچسبهای کلاس و دادههای مربوط به هر کلاس به طور مستقل بود. هیچ ایده ای دارید که چرا این اتفاق می افتد؟ من تأیید کرده ام که به دلیل ... 1. اشکال در کد 2. تغییر توزیع از مجموعه قطار به مجموعه آزمایشی | استفاده از QDA برای توزیع های غیر گاوسی |
14219 | من سعی می کنم با R به سرعت بالا بروم. در نهایت می خواهم از کتابخانه های R برای انجام طبقه بندی متن استفاده کنم. من فقط به این فکر می کردم که تجربیات مردم در مورد مقیاس پذیری R در هنگام انجام طبقه بندی متن چیست. من به احتمال زیاد با داده های با ابعاد بالا (~300k ابعاد) مواجه می شوم. من به دنبال استفاده از SVM و Random Forest به عنوان الگوریتم های طبقه بندی هستم. آیا کتابخانه های R به اندازه مشکل من مقیاس می شوند؟ با تشکر ویرایش 1: فقط برای روشن شدن، مجموعه داده های من احتمالا 1000-3000 ردیف (شاید کمی بیشتر) و 10 کلاس دارد. ویرایش 2: از آنجایی که من در R بسیار تازه کار هستم، از پوسترها درخواست خواهم کرد که در صورت امکان دقیق تر باشند. به عنوان مثال، اگر شما یک گردش کار/خط لوله را پیشنهاد می کنید، لطفاً در صورت امکان، کتابخانه های R را که در هر مرحله دخیل هستند ذکر کنید. برخی از اشاره گرهای اضافی (به مثال ها، کد نمونه و غیره) می توانند روی کیک باشند. ویرایش 3: اول از همه، از نظرات شما تشکر می کنم. و دوم اینکه عذرخواهی می کنم شاید باید زمینه بیشتری برای مشکل می دادم. من با R جدید هستم اما در طبقه بندی متن زیاد نیستم. من قبلاً با استفاده از بسته tm برخی از دادههایم را پیش پردازش (پایهبندی، حذف کلید واژه، تبدیل tf-idf و غیره) انجام دادهام، فقط برای اینکه احساسی نسبت به چیزها داشته باشم. tm حتی در حدود 200docs آنقدر کند بود که من نگران مقیاس پذیری شدم. سپس شروع به بازی با FSelector کردم و حتی آن هم واقعا کند بود. و این نقطه ای است که در آن OP خود را انجام دادم. ویرایش 4: همین الان به ذهنم رسید که من 10 کلاس و حدود 300 مدرک آموزشی در هر کلاس دارم و در واقع دارم ماتریس termXdoc را از کل مجموعه آموزشی می سازم که در نتیجه ابعاد بسیار بالایی دارد. اما در مورد کاهش هر مسئله طبقه بندی 1-از-k به یک سری مسائل طبقه بندی باینری چطور؟ این امر تعداد اسناد آموزشی (و در نتیجه ابعاد) را در هر یک از مراحل k-1 به طور قابل توجهی کاهش می دهد، اینطور نیست؟ پس آیا این رویکرد خوب است؟ چگونه از نظر دقت با اجرای معمولی چند کلاسه مقایسه می شود؟ | چقدر R به وظایف طبقه بندی متن مقیاس می دهد؟ |
76471 | کار بر روی یک مشکل HW، و یک اشاره این است که برای یک قانون تصمیم $$T(X) = \frac{X_{(1)} + X_{(n)}}{2}$$ سپس $$T - \ نوار{X} $$ فرعی است. از نظر شهودی این کاملاً منطقی است، اما من نمی توانم ببینم چگونه این را نشان دهم. به این فکر کردم که به pdf یک آمار مرتب شده بروم: $$g_i(x) = \frac{n!}{(i-1)!(n-i)!}[F(x)]^{i-1}[ 1-F(x)]^{n-i}f(x)$$، که برای i = {1,n} به $$g_1(x) = کاهش می یابد n[1-F(x)]^{n-i}f(x)، \:\:\:\: g_n(x) = n[F(x)]^{n-i}f(x)$$ اما من احتمالاً برای دریافت pdf T به کانولوشن از آنجا نیاز خواهد داشت. احساس میکنم خیلی دور هستم و چیز سادهتری در اینجا وجود دارد که نشان میدهد کم کردن $\bar{X}$ T را مستقل از تتا میکند. به هر حال $X \sim N(\theta, \sigma^2)$, $\sigma$ شناخته شده با تشکر! * * * در پاسخ به نظرات: سپس $$T - \theta = \frac{1}{2} \left[ (X_{(1)} - \theta) + (X_{(n)} - \theta) \right]$$ و از آنجایی که $X_{(1)}$ یک خانواده مکان است $X_{(1)} = Z_{(1)} + \theta$$ که $Z_{(1)}$ است اول سفارش داد آمار یک بردار نرمال استاندارد، که به معنای $X_{(1)} - \theta = Z_{(1)} \sim \left[ 1 - \int\limits_{-\infty}^z (2\pi) است. ^2\exp(\frac{-z^2}{2})dz \right]^{n-1} (2\pi)^{-1/2}\exp(\frac{-z^2}{2})$$ که به تتا بستگی ندارد. به طور مشابه $X_{(n)} - \theta$ نیز به $\theta \Longrightarrow T وابسته نیست - \theta$ برای $\theta$ کمکی است. اما یک مشکل بزرگ، من $\theta$ را کم می کنم، نه $\bar{X}$. مگر اینکه در مورد یک آمار فرعی مرتبه اول صحبت کنم (که در آن $E\bar{X} = \theta$)، من یک بار دیگر گیج شدم، lol. باز هم، برای هر گونه کمک اضافی متشکرم! | نشان دادن اینکه یک آمار برای یک پارامتر کمکی است |
83755 | من اخیراً پروژه ای را اجرا کردم که شامل یک مرحله انتخاب ویژگی قبل از تشخیص بیشتر الگو است. تعداد ویژگیهای مجموعه داده ما بسیار زیاد است و به جای اجرای حریصانه انتخاب ویژگیهای رو به جلو/عقب. من به سادگی آزمون T دانشجویی را روی ویژگی ها اجرا می کنم و آنها را بر اساس مقادیر p رتبه بندی می کنم تا «قدرتمندترین» ویژگی ها را برای کار طبقه بندی خود پیدا کنم. با این حال، من استدلالی از همکارانم دریافت کردم که این نوع روش انتخاب ویژگی مبتنی بر آزمون T دانشجویی بهینه نیست. به عنوان مثال، انتخاب ویژگی رو به جلو یا عقب می تواند بهترین ویژگی ها را پیدا کند تا زمانی که عملکرد طبقه بندی نتواند بهبود یابد (بنابراین، آنها می توانند زیر مجموعه ویژگی های بهینه را پیدا کنند). من نمی دانم آیا کسی منابعی (مقاله، پایان نامه) را می شناسد که آزمایش هایی را انجام دهد تا ثابت کند که روش انتخاب ویژگی مبتنی بر آزمون T دانشجویی می تواند مانند روش های جامع عمل کند؟ یا هیچ پیش زمینه ریاضی برای این موضوع وجود دارد؟ خیلی ممنون A. من یک مقاله مرتبط در PlosOne پیدا کردم: یک کاغذ | مقایسه روش های انتخاب ویژگی |
96210 | من باید $$\int_A f(x) \ را محاسبه کنم. dx$$ از طریق نمونهبرداری اهمیت مونت کارلو و برای اهداف شبیهسازی، باید واریانس و میانگین برآوردگرم را محاسبه کنم. در روش نمونه گیری اهمیت، یک متغیر تصادفی $X$ داریم که pdf $g$ فقط در $A$ تعریف شده است. سپس، تخمین مونت کارلوی انتگرال $$\frac است{1}{n}\sum_{i=1}^n \frac{f(x_i)}{g(x_i)}، x_i \sim X$$ که به انتگرال داده شده همگرا می شود، زیرا $$\int_A f(x) \; dx = \int_A \frac{f(x)}{g(x)}g(x) \; dx$$ من باید انتظار و واریانس (یا انحراف معیار) تخمین مونت کارلو را برای انتگرال خود محاسبه کنم. البته از آنجایی که شبیه سازی است، باید آن را با استفاده از مجموع و در تابع $n$ خود محاسبه کنم. چگونه می توانم این کار را انجام دهم؟ من فکر کردم که $$ \sigma = \left(\frac{1}{n} \sum_{i=0}^n \left(\frac{f(x_i)}{g(x_i)}-I\right) ^2 \right)^{\frac{1}{2}}$$ اما فکر میکنم این درست نیست. در واقع باید خطای نسبی شبیه سازیم را محاسبه کنم که فکر می کنم با سهمیه انحراف معیار و میانگین داده می شود اما با این فرمول آنطور که انتظار می رود کاهش نمی یابد. پیشاپیش ممنون | ادغام از طریق نمونه گیری اهمیت - انتظار و واریانس |
7594 | فرض کنید تعداد اتاق های هتل در یک شهر X باشد. ما نرخ ورود بازدیدکنندگان را هر روز می دانیم. اشغال فعلی را نمی دانیم. آیا می توان 1. نرخ اشغال را در تمام اتاق های هتل تخمین زد (فرض کنید 1 بازدید کننده / اتاق) 2. توزیع مدت اقامت را تخمین بزنید (فرض کنید هر بازدید کننده حداقل 1 روز بماند) از طرف دیگر، اگر فقط اشغال را بدانیم. نرخ، آیا می توانیم تعداد کل اتاق های هتل را از روی داده های ورود تخمین بزنیم؟ | برآورد نرخ اشغال از نرخ ورود |
15569 | من سعی می کنم روشی مناسب برای بررسی اثر متقابل معنادار در تحلیل های رگرسیون چندگانه سلسله مراتبی خود بیابم. من به تحلیل تعدیل نگاه می کنم، اما بیشتر روش ها (ماکروها و غیره) متغیرهای کمکی را در معادلات رگرسیون من در نظر نمی گیرند. به من توصیه شد که برنامه Stata را امتحان کنم اما در حال حاضر به آن دسترسی ندارم. * آیا برنامه آماری دیگری وجود دارد که بتوانم رگرسیون تعدیل کننده را با متغیرهای کمکی انجام دهم؟ * چگونه می توانم آنالیز شیب های ساده را با کوواریت انجام دهم؟ | چگونه یک اثر تعدیل کننده را در رگرسیون چندگانه سلسله مراتبی با متغیرهای کمکی تحلیل کنیم؟ |
15567 | من یک رویداد بسیار نادر را شبیه سازی می کنم (تشخیص بسته های فوتون وزن دار در یک ماده بسیار جذب کننده). برای مثال، من ممکن است انتقال فوتون های 1e9 را شبیه سازی کنم و فقط 10 مورد از آنها را شناسایی کنم (و وزن آنها از 0^+$ تا 1 متغیر است). من مقدار میانگین این اتفاق را محاسبه میکنم (میانگین $\sum w_{received}/N_{transmitted}$ چیست، که $w_{received}$ وزن فوتونهای دریافتی و $N_{انتقالشده} است. $ تعداد فوتون های ارسالی است) و یک فاصله اطمینان روی آن قرار دهید. درک من این است که میانگین جمعیت، $\mu$ در یک انحراف نرمال استاندارد $\bar{x} \pm S_N/\sqrt{N}$ قرار دارد، که $\bar{x}$ میانگین نمونه است، $ S_N$ واریانس نمونه است و $N$ تعداد نمونه ها است. سوال من این است، چگونه می توانم بفهمم که به اندازه کافی نمونه مثبت یا فوتون دریافت کرده ام تا بتوانم برآورد دقیقی داشته باشم؟ از آنجایی که من با چنین احتمال کمی سر و کار دارم، تعداد کل نمونه ها، $N$ بسیار زیاد است و $S_N/\sqrt{N}$ همیشه کوچک خواهد بود. من یادداشت هایی را دیده ام که می گویند CLT فقط برای اندازه های نمونه > 30 قابل استفاده است، اما آیا این برای چیزی شبیه به این صدق می کند؟ یعنی $N_{دریافت شد}$ > 30؟ _خلاصه_: من نمونه هایی را از یک توزیع ناشناخته می کشم و میانگین آنها را محاسبه می کنم. مقادیر نمونه از 0 تا 1 متغیر است که 0 بسیار رایج تر است. من میانگین را محاسبه می کنم (که بسیار نزدیک به 0 است) و می خواهم یک فاصله اطمینان در این مورد بگذارم. **ویرایش** از توضیحات من در بالا، دو راه برای فکر کردن در مورد مشکل وجود دارد. اولی توزیع دوجمله ای از نتایج بله/خیر (بله، دریافت، نه، دریافت نشده) است. با این حال، توزیع پیچیدهتر و در عمل مفیدتر، تا حدودی یک دوجملهای وزنی است (مطمئن نیست که این عبارت درست است)، که در آن هر «بسته» فوتون دریافتی دارای قدرت مرتبط با آن است که از 0 تا 1 متغیر است. این موردی است که من بیشتر به قرار دادن فاصله اطمینان در آن اهمیت می دهم. یعنی مقادیر نمونه من غالباً 0 با تعداد کمی نمونه با مقادیر 0 < x <= 1 خواهد بود **ویرایش 2** PDF چیزی شبیه به نقشه خام زیر خواهد بود. توجه داشته باشید که برای مقیاس نیست - وزن های 0 بسیار بیشتر از وزن های غیر صفر خواهد بود. این یک پی دی اف _example_ از نمونه ها است. من نمیدانم قبل از انجام آزمایش چه شکلی خواهد بود - فقط میدانم که نمونههای من از 0 تا 1 متغیر هستند و مقدار غالب آن 0 است.  **ویرایش 3** اصطلاح وزن کمی گمراه کننده به نظر می رسد. مقدار نمونه یا قدرت ممکن است اصطلاح بهتری باشد. شبیه سازی من حرکت فوتون را در آب ردیابی می کند. بیشتر فوتونها هرگز به گیرنده نمیرسند و بنابراین قدرت 0 دارند. با حرکت فوتونها در آب، قدرت آنها کاهش مییابد (برای مدلسازی گروهی از فوتونها که حرکت میکنند و بخشی از آن در حین حرکت جذب میشود). هنگامی که این فوتون ها دریافت می شوند، وزن هایی دارند که از حداکثر 1 (بدون افت از سفر) تا عددی نزدیک به 0 متغیر است. | قرار دادن فاصله اطمینان روی میانگین یک رویداد بسیار نادر |
83758 | من مجموعه داده ای را وارد کرده ام که دارای بیش از 200 متغیر و 20 مشاهده است. در بدترین حالت، 80٪ از داده ها از دست رفته است، در بهترین حالت 100٪ در دسترس است. 5 نفر از 20 شرکت کننده داده هایی را برای همه متغیرها ارائه کردند. از شرکتکنندگان خواسته شد که اهمیت 13 متغیر را در شرایط خاصی از 0 تا 25 رتبهبندی کنند. من این را با استفاده از موش(imp=25، max_it=25) نسبت دادم و پس از چند ساعت یک مجموعه داده خوب دریافت کردم. من اکنون با استفاده از نمودارهای جعبه در هر شرایط آن را تجزیه و تحلیل می کنم (بنابراین 13 نمودار در هر زمان)، اما تعجب می کنم که چگونه باید این کار را انجام دهم. از یک کتاب درسی هلندی، متوجه شدم که شما تستها را برای هر انتساب انجام میدهید و سپس نتایج را میانگینگیری میکنید. آیا این به این معنی است که من باید داده های هر متغیر/منبع را محاسبه کنم و سپس بر 25 تقسیم کنم؟ یه مقدار خام به نظر میرسه...منم موندم چقدر با این آمارهای توصیفی فرق داره... | محاسبه باکس پلات با داده های منتسب |
44833 | یک گروه از بیماران توسط پزشکان مورد مصاحبه قرار گرفتند و 2 درصد از بیماران به مصرف سیگار مراجعه کردند. گروه دیگری از بیماران توسط پرستاران مصاحبه شدند و میزان پذیرش آنها به سیگار 10 درصد بود. چگونه می توانم نشان دهم که تفاوت در نرخ ها از نظر آماری معنی دار است؟ | مقایسه میزان پذیرش عدم ترک سیگار بین دو گروه؟ |
86132 | لطفا کمبود اصطلاحات من را ببخشید - نه یک فرد آماری. در اینجا پیشینه و 2 سوال: اگر من یک مجموعه نمونه نظرسنجی 100 نفری داشته باشم (در کل جمعیت بیش از 10 میلیون)، آنگاه فکر می کنم که فاصله اطمینان 9.8 در سطح اطمینان 95٪ به من می دهد. که من می فهمم. با این حال، چیزی که من نمیفهمم این است که چگونه بفهمم فاصله/سطح اطمینان (یا به تعبیر غیرمعمول من اهمیت آماری درست است؟) در یک سوال خاص در آن نظرسنجی چه پاسخ خاصی دارد؟ به طور دقیق تر، 100 نفر به این سوال پاسخ دادند که سازمان شما چند سرور اجرا می کند؟ و 100 پاسخ به شرح زیر تقسیم می شوند: 1-10 - 23 پاسخ 11-20 - 20 پاسخ 21-30 - 16 پاسخ 31-40 - 19 پاسخ 41-50 - 13 پاسخ 51+ - 9 پاسخ آیا سطح اطمینان / فاصله زمانی برای هر گزینه پاسخ تغییر می کند (یعنی 1-10 یا 11-20) در آن مجموعه پاسخ؟ و اگر چنین است، آیا آن را به همان روشی که برای کل پاسخ (100) انجام میدهید، مشخص میکنید - به این معنی، آیا فرض میکنید 23 مجموعه نمونه شما (به جای 100) برای جمعیت بیش از 10 میلیون است؟ فقط به نظر می رسد چیزی در اینجا با فکر من اشتباه است. کمک؟ و یک سوال بعدی اگر لازم بود دادههای نظرسنجی را بر اساس پاسخهای سؤال بالا تقسیم کنم، به چند پاسخ دیگر نیاز دارم تا هر گزینه پاسخ (یعنی «1-10، «11-20») را به چیزی از نظر آماری معنادار تبدیل کنم. کل جمعیت بازار؟ خیلی ممنون از وقتی که گذاشتید | آیا اهمیت آماری برای زیرمجموعهای از پاسخها متفاوت از آن برای کل مجموعه پاسخها محاسبه میشود؟ |
5462 | این فقط برای پروژه ارشد دبیرستان من است، بنابراین لازم نیست کامل باشد. من در حال انجام پروژه ای در مورد گرمایش زمین هستم و می خواهم نظر مردم را بررسی کنم. من می دانم که اگر از یک نمونه راحت از همکلاسی هایم استفاده کنم، تعصب زیادی خواهم داشت. می خواستم بدانم آیا سایتی در اینترنت وجود دارد که بتوانم نظرسنجی خود را برای پاسخگویی افراد تصادفی پست کنم تا بتوانم تا حد امکان به یک SRS نزدیک شوم. اگر نه، من به پیشنهادهای دیگری برای انجام نظرسنجی علاقه مند هستم. | آیا سایتی وجود دارد که بتوانم نظرسنجی خود را در آن پست کنم تا بتوانم یک نماینده نمونه از جمعیت دریافت کنم؟ |
44999 | من یک تاپیک در مورد p-value با عنوان درک مقدار p باز کردم و دو پاسخ و چند نظر دریافت کردم. فکر میکنم سوالات من در تاپیک تا حدودی متنوع است و میخواهم سوالم را با توجه به بحث در تاپیک واضحتر توضیح دهم. دو تعریف مختلف از p-value در موضوع پیشنهاد شد. **تعریف 1** > مقدار p $\int_{\\{x\,:\,f(x) \le f(x_o)\\}} f$ است. **تعریف 2** > مقدار p $\int_{\\{x\,:\,x_o \le x\\}} f$ است. در هر دو تعریف، $f$ فایل PDF یک آمار آزمون انتخابی تحت فرضیه صفر است و $x_o$ مقدار مشاهده شده آمار آزمون است. به نظر من این دو تعریف به اندازه کافی واضح و کامل هستند. (مقدار p فقط به داده ها، یک فرضیه صفر و یک آمار انتخابی مربوط می شود. به فرضیه جایگزین یا چیزهای دیگر مربوط نمی شود.) نقش p-value این است که میزان احتمال مشاهده تحت فرضیه صفر را کمی کنید. مقدار p کوچک به این معنی است که داده های مشاهده شده در فرضیه صفر عجیب و غریب (یعنی بعید) هستند و فرضیه صفر فرضی باید رد شود. تعریف 1 این عجیب بودن را برحسب $f(x_o)$، چگالی احتمال آماره آزمون مشاهده شده، اندازه گیری می کند. بنابراین این تعریف، $f$ را روی مقادیر آماره آزمون که چگالی احتمال کمتری دارند (یعنی عجیبتر) نسبت به آنچه مشاهده شده است، ادغام میکند. اگر محتمل ترین مقدار به خوبی تعریف شده باشد، تعریف 2 عجیب بودن را بر حسب فاصله $x_o$ از محتمل ترین مقدار آماره آزمون اندازه گیری می کند. بنابراین، این تعریف، $f$ را روی مقادیر مشاهده شده تا دم (یعنی منطقه عجیب تر) ادغام می کند. اگر $f$ یک وجهی باشد، هر دو تعریف معقول به نظر می رسند. با این حال، اگر $f$ چند وجهی باشد، به نظر من تعریف 2 معقول نیست. برای مثال، فرض کنید $f$ دووجهی است و $x_o$ جایی در ناحیه چگالی احتمال کم بین دو قله است. سپس محتملترین مقدار به خوبی تعریف نشده است و فاصله $x_o$ از محتملترین مقدار نمیتواند معیار معقولی برای عجیب بودن باشد. مقدار p محاسبه شده در امتداد تعریف 2 ممکن است بسیار بزرگ باشد، در حالی که مشاهده $x_o$ بدیهی است که به دلیل چگالی احتمال پایین آن عجیب است. تعریف 1 همچنان در این مورد کار می کند زیرا مقدار p کوچکی را ارائه می دهد. من آمارگیر نیستم و نمی دانم کدام یک از تعاریف «درست» است که معمولاً آمارگیران استفاده می کنند. اکثر مطالبی که قبلاً دیده بودم، p-value را به معنای تعریف 2 توضیح می دهند. اما، من برای اولین بار با تعریف 1 در پاسخ زاگ از تاپیک قدیمی مواجه شدم و متقاعد شدم. تعریف دقیق p-value چیست؟ اگر تعریف 1 نیست، می خواهم دلیل درستی و کاستی های تعریف 1 را بدانم. | p-value با PDF چندوجهی یک آمار تست |
112587 | امیدوارم بتوانید در مورد سوالی که مدتی است درگیر آن بودم به من کمک کنید. من در حال حاضر در حال نوشتن پایان نامه خود در مورد چگونگی دسترسی MRT (سیستم راه آهن در سنگاپور) بر قیمت مسکن های عمومی (HDB) هستم. تا الان خیلی جلو رفته ام اما به دیواری رسیده ام. من 11000 تراکنش HDB جمع آوری کرده ام که همه آنها در فاصله چند قدمی ایستگاه MRT هستند (<750 متر تا نزدیکترین ایستگاه MRT یا کمتر از 10 دقیقه پیاده روی تا نزدیکترین ایستگاه MRT). جدا از متغیرهای ساختاری معمول: * __سن_ * _____________ همچنین توانستم متغیرهای مکانی را به دست بیاورم مانند: * مدت زمان پیاده روی تا نزدیکترین ایستگاه راه آهن ( _time_walk_ ) * زمان صرف شده برای رفت و آمد، از طریق قطار، از نزدیکترین ایستگاه به ایستگاه ایستگاه CBD ( _time_train_ ) * کل زمان سفر، _time_walk + time_train_ ( _TTT_ ) با این متغیرها، من یک رگرسیون چندگانه با _Price_ به عنوان DV و _Age، Floor، Size، time_walk_ و _time_train_ به عنوان IV اجرا کردم. سپس ضرایب رگرسیون برای DV تولید شد. با این ضرایب به من اجازه داد تا تأثیر کمی را که، با ثابت بودن هر چیز دیگر، (1) هر دقیقه پیاده روی اضافی، و (2) هر دقیقه رفت و آمد اضافی در MRT، بر قیمت گذاری HDB داشت، تجزیه و تحلیل کنم. با این حال، آنچه من می خواهم بررسی کنم این است که آیا ساکنانی که در فواصل متفاوت از CBD ارزش _time_walk_ زندگی می کنند متفاوت است؟ میدانم که نمیتوانم 3 مدل (در زیر نشان داده شده) ایجاد کنم، که هر کدام فقط حاوی جزئیات مربوطه باشد (مثلاً 0-9 دقیقه زمان قطار، 10-19 دقیقه زمان قطار ... و غیره) زیرا عدد n متفاوت است، بنابراین، مقایسه تخمینهای ضریب منصفانه نیست. مدل B: (10-19 دقیقه زمان_قطار): Walking_Time چگونه بر قیمت خانه تاثیر می گذارد؟ مدل C: (20-29 دقیقه زمان_قطار): Walking_Time چگونه بر قیمت خانه تاثیر می گذارد؟ هر توصیه ای بسیار قدردانی خواهد شد. با احترام، اسلیم | SPSS: مقایسه ضریب رگرسیون برای 2 مدل |
7595 | من از تابع «lm» در R برای انجام مدلسازی تقاضا استفاده کردهام (تنهای فولادی که باید توسط شاخصهای اقتصادی مختلف پیشبینی شود). من از $R^2$ و $F$ برای گزارش قدرت مدل استفاده کردم. با این حال، وقتی از تابع R «lqs» («رگرسیون مقاوم») استفاده میکنم و سپس «خلاصه(model_name)» را تایپ میکنم، هیچ آماری دریافت نمیکنم که بتوانم از آن برای گزارش قدرت مدل رگرسیون استفاده کنم. پیشنهادی دارید؟ ویرایش: با تشکر از پاسخ سریع شما. من با lqs() مشکلی ندارم. مشکل این است که وقتی در summary (مدل) تایپ میکنم، اطلاعات خوبی از تناسب (مثلاً R مربع تنظیمشده) دریافت نمیکنم، همانطور که وقتی summary (x) را وارد میکنم که X مدلی است که با استفاده از تابع lm ایجاد شده است. من می خواهم چیزی برای نشان دادن قدرت مدل داشته باشم. من از MASS استفاده می کنم. به زیر مراجعه کنید. با احترام، کتابخانه Bill Yarberry (MASS) M10 = lqs (agri ~ p12+p1+p11+p5+p8+p6+p25+p50+p35, data = agri_data2) خلاصه (M10) طول کریت حالت کلاس 1 -غیر- آواز عددی 1 -هیچ- کاراکتر ضرایب 10 -بستون غیر عددی 10 -بدون عددی برازش. مقادیر 103 -غیر- عددی باقیمانده 103 -غیر عددی مقیاس 2 -غیر عددی 3 عبارت فراخوانی 3 -هیچ - سطوح x تماس 0 -غیر لیست مدل 10 فهرست data.frame | چگونه می توان آمار خلاصه از رگرسیون مقاوم - lqs - در R بدست آورد؟ |
103084 | دو معیار رایج وجود دارد که $Precision$ و $Recall$ را جمع میکنند، $F1$ و $\text{Precision Recall Breakevenpoint}$ وجود دارد. $F1$ را می توان به راحتی با فرمول محاسبه کرد، اما چگونه می توان $\text{نقطه سرپایی}$ را محاسبه کرد؟ من آزمایشی دارم و هر چهار مقدار را بدست میآورم: مثبت واقعی، مثبت کاذب، منفی واقعی، منفی کاذب، بنابراین اکنون میتوانم Precision و Recall را محاسبه کنم، اما چگونه نقطه سربهسر را در این مورد پیدا کنم. | دقت فراخوان نقطه سربه سر |
110124 | برای تفسیر کامل این خروجی (در زیر) به کمک نیاز دارم. آیا کسی می تواند همه (تقریباً همه) برآوردگرها را در این خروجی توضیح دهد: منظور آنها چیست و تفسیر ماهوی چیست. علاوه بر این: کدام ابزار را برای آزمایش این برآوردگرها توصیه می کنید؟ متشکرم * * * inter.coxph <- coxph( Surv(time,censor)~age+drug+age*drug, method=breslow) summary(inter.coxph) n= 100 coef exp(coef) se(coef) z p سن 0.0942 1.099 0.0229 4.110 0.00004 دارو 1.1859 3.274 1.2565 0.944 0.35000 سن:دارو -0.0067 0.993 0.0337 -0.199 0.84000 exp(coef) exp(-coef) پایین .95 بالا .95 0.95 سن 1.0101.010. 0.305 0.279 38.42 سن: دارو 0.993 1.007 0.930 1.06 Rsquare = 0.295 (حداکثر ممکن = 0.997) آزمون نسبت درستنمایی = 35 در 3 df، p=1.21 Wald در آزمون 0.21 = 0.21e. آزمون p=4.83e-007 نمره (لوگرانک) = 35.2 در 3 df، p=1.13e-007 | تفسیر کامل خروجی رگرسیون کاکس در R |
69804 | تناسب زیر را در نظر بگیرید: `fit3a=glmnet(x,g4,family=multinomial,type.multinomial=grouped)` چگونه می توانم مشخص کنم کدام ستون ها در `x` دسته بندی/چند جمله ای هستند؟ آیا گزینه ای برای تعیین شاخص متغیرهای گروه بندی شده وجود دارد؟ مستندات گزینه type.multinomial را به صورت زیر توصیف می کند: > اگر گروه بندی شده باشد، جریمه کمند گروه بندی شده روی ضرایب چند جمله ای برای یک متغیر استفاده می شود. این تضمین می کند که همه آنها در کنار هم هستند. > پیش فرض گروه بندی نشده است. | گروه بندی متغیرهای طبقه بندی شده در glmnet |
44998 | من سعی می کنم رگرسیون لجستیک چند جمله ای را روی داده های خود انجام دهم که به صورت زیر است (فقط هدر).  category متغیر هدف من است و همه متغیرهای دیگر متغیرهای مستقل هستند. دسته دارای مقادیری مانند 1،2،3،4،5،6،7،8،9 است. انگیزه اصلی من پیش بینی مقوله از روی متغیرهای مستقل است. در اینجا خلاصه ای از مجموعه داده های من است.  من از دستور زیر برای انجام رگرسیون لجستیک چند جمله ای استفاده کردم: > mod=multinom(category~hlen+iplen+ipttl+iptype+tcpsport+tcpdport+ tcpsec+tcpack+tcpwindow+tcpchksum+date_time، data=train)  من خروجی زیر را دریافت کردم اما نمی دانم چگونه آن را تفسیر کنم؟  نقطه شروع چه چیزی باید باشد یا راه دیگری برای انجام این کار وجود دارد؟ (به عنوان مثال من می دانم که چگونه خروجی رگرسیون خطی و لجستیک را برای ایجاد معادلات رگرسیون تفسیر کنم) لطفاً روی هر تصویر کلیک راست کرده و view را انتخاب کنید تا به وضوح مشاهده شود. ممنون | تفسیر خروجی رگرسیون لجستیک چند جمله ای در R |
44834 | آیا تفاوتی وجود دارد؟ یا اساساً یکسان هستند؟ فقط کاربران اکسل آن را جدول محوری و آماردانان آن را جدول احتمالی می نامند؟ با تشکر | تفاوت بین «جدول محوری» و «جدول احتمالی» چیست؟ |
69800 | می خواستم بدانم مقادیر پارامترهای منظم سازی برای ridge یا lasso چقدر است. من اکثر مکانها را دیدهام که عموماً از مقادیری مانند 0.1 یا 0.01 استفاده میکنند، اما در برخی از آزمایشهای من اعتبار متقاطع پارامترهای منظمسازی را با مقادیر چیزی شبیه به 8.6 و 172 میدهد. آیا این مقادیر خوب هستند یا من کار اشتباهی انجام میدهم؟ | مقادیر پارامترهای منظم سازی چقدر است؟ |
96269 | من چارچوب داده زیر را دارم: $ وضعیت : فاکتور w/ 2 سطح فعال، برداشته شده: 1 1 1 1 1 1 1 1 1 1 ... $ سن: num 41 45 43 24 34 29 36 33 28 24 ... $ دوره تصدی : num 6 8 20 8 8 9 2 16 47 49 ... $ فعلی. استخدام. تاریخ: تاریخ، فرمت: 2002-01-22 2000-03-31 1989-06-12 ... $ جنسیت : فاکتور w/ 2 سطح مونث Male: 2 2 1 2 2 1 2 1 2 1 ... $ عملکرد: فاکتور با 10 سطح ،مالی،HR،..: 10 2 10 8 9 10 6 8 10 9 ... $ درجه : فاکتور با 21 سطح 11،12،13،..: 15 20 10 13 19 17 14 17 17 14 ... $ بازنشسته : فاکتور با 2 سطح نه، بله: 2 2 2 1 1 1 1 2 1 1 ... $ نژاد : فاکتور w/ 5 سطح آسیایی، سیاه،...: 5 5 5 5 1 5 5 5 5 5 ... من می خواهم از تصمیم استفاده کنم درختی برای پیشبینی نتیجه باینری که «وضعیت» است. من از اسکریپت زیر استفاده کردم: > tree.turnover_nonprod = tree(Status~Age+Tenure+Race+Gender+Function+Grade+Retiree, data = turnover_nonprod) > summary(tree.turnover_nonprod) درخت طبقه بندی: درخت(فرمول = وضعیت ~ سن + تصدی + نژاد + جنسیت + کارکرد + درجه + بازنشسته، داده = turnover_nonprod) متغیرهایی که واقعاً در ساخت درخت استفاده میشوند: [1] «تابع» تعداد گرههای پایانه: 2 میانگین انحراف باقیمانده: 1.352 = 6774 / 5010 میزان خطای طبقهبندی اشتباه: 0.4419 = 2215 / 5012 چرا که مدل فقط «F» را حذف کرد. بقیه متغیرها؟ من مطمئن هستم که من در اینجا کار اشتباهی انجام می دهم اما نمی دانم چیست. با تشکر | چرا مدل درختی من فقط 1 متغیر گرفت؟ |
41600 | من امیدوارم که از برخی داده های نظرسنجی خود انتخابی استفاده کنم (این از آن چیزهای وحشتناکی است که در صفحه شروع یک وب سایت ظاهر می شود و از شما می پرسد که آیا 5 دقیقه فرصت دارید). این برای تصمیم گیری تجاری است، بنابراین بدیهی است که من نمی خواهم اهمیت هیچ یافته ای را اغراق کنم. من یک مقاله دسترسی عمومی پیدا کرده ام که به اصلاحات هکمن در اینجا می پردازد:- http://onlinelibrary.wiley.com/doi/10.1111/1467-6419.00104/pdf آیا من درست فکر می کنم که هیچ روش آماری مشترکی وجود ندارد. برای تصحیح سوگیری انتخاب خود استفاده کنید؟ آیا موارد ساده ای وجود دارند که برای یک فرآیند تصمیم گیری سریع و کثیف مفید باشند، حتی اگر کامل نباشند؟ | فاکتورگیری در سوگیری انتخاب خود |
15565 | ### زمینه من در مورد نظریه پاسخ آیتم مطالعه کرده ام، و آن را جذاب می دانم. من معتقدم که اصول اولیه را درک می کنم، اما در تعجب هستم که چگونه تکنیک های آماری مربوط به منطقه را به کار ببرم. در زیر دو مقاله مشابه با منطقه ای وجود دارد که می خواهم ITR را در آن اعمال کنم: * http://www.jstor.org/stable/4640738?seq=7 * http://www.ncbi.nlm.nih.gov /pubmed/21744971 دومی موردی است که من واقعاً می خواهم در این برهه از زمان آن را گسترش دهم. من یک برنامه رایگان به نام jMetrik دانلود کردم و به نظر می رسد که عالی کار می کند. من فکر می کنم تا آنجا که IRT می رود ممکن است خیلی ابتدایی باشد، اما مطمئن نیستم. من می دانم که بهترین راه احتمالاً شامل یادگیری R است. با این حال، نمیدانم میتوانم برای مقابله با این منحنی یادگیری وقت بگذارم یا نه. توجه داشته باشید که ما مقداری بودجه برای خرید نرم افزار داریم، اما با توجه به آنچه من می بینم، به نظر نمی رسد برنامه های IRT عالی وجود داشته باشد. ### سوالات * نظر شما در مورد اثربخشی jMetrik چیست؟ * چگونه به من پیشنهاد می کنید که در استفاده از IRT به جلو بروم؟ * بهترین برنامه ها برای اعمال IRT چیست؟ * آیا هیچ کدام از شما به طور مرتب از IRT استفاده می کنید؟ اگر چنین است، چگونه؟ | چگونه می توان با استفاده از نظریه پاسخ آیتم ها شروع کرد و از چه نرم افزاری استفاده کرد؟ |
69806 | اجازه دهید $Y$ و $X$ متغیرهای تصادفی باشند. $E(Y|X)$ میانگین شرطی $Y$ با $X$ است. اگر $E(Y|X)$ به $X$ بستگی نداشته باشد، می گوییم $Y$ به طور علّی به $X$ مربوط نمی شود، که به این معنی است که برابر با $E(Y)$ است. حالا بیایید یک ثانیه با این تعریف علیت همراه شویم. طبق قانون انتظارات تکراری، $E(XE(Y|X)) = E(E(XY|X)) = E(XY)$. این بدان معناست که اگر $E(Y|X)$ به $X$ بستگی ندارد، اگر برابر با $E(Y)$ باشد، آنگاه $E(X)E(Y) = E(XY)$. به عبارت دیگر: اگر $X$ و $Y$ به طور علّی به هم مرتبط نباشند، آنگاه $X$ و $Y$ همبستگی ندارند! - این بی معنی است و می دانم که این باید اشتباه باشد. آیا علیت را اشتباه تعریف کرده ام؟ من چه اشتباهی کردم؟ در اقتصاد سنجی ما معمولاً $E(Y|X) = b_0 + b_1X$ را فرض می کنیم. بنابراین $E(Y|X) = E(Y)$ معادل b_1 $ = 0$ است. منطق در این سناریوی خاص نیز صدق می کند. | تعریف ریاضی علیت |
101215 | تفاوت بین طرح Box-Behnken، طرح مرکب مرکزی و طراحی تمام فاکتوریال 3 سطحی چیست؟ مزایا یا معایب یک طرح نسبت به سایرین چیست؟ | روش شناسی سطح پاسخ در مقابل 3 سطح فاکتوریل کامل |
69807 | آزمون I موران تعمیم یافته توسط کلجیان و پروچا (2001) پیشنهاد شده است. اما، تا آنجا که من می دانم، هیچ کار تجربی با استفاده از آزمون برای مدل انتخاب گسسته چند جمله ای وجود ندارد. من به دنبال یک اسکریپت هستم که آزمون تعمیم یافته Moran's I را در مدل های لاجیت / پروبیت چند جمله ای انجام دهد. علاوه بر این، درک (4.16)، (4.17) در Kelejian and Prucha (2001) جالب خواهد بود. اگر کسی تست I موران تعمیم یافته را می فهمد، ممنون می شوم که کسی به من اشاره کند. مرجع: Kelejian, H. H., Prucha, I. R.: On the Asymptotic Distribution of the Moran I test statistics with applications, Journal of Econometrics, 104 (2), 219-257, 2001. (pdf) | تست موران تعمیم یافته برای مدل لاجیت / پروبیت چند جمله ای (چند جمله ای). |
112581 | چگونه می توان یک تست لوگرانک برای روند ایجاد کرد و آیا با تست لوگرانک معمولی تفاوت دارد؟ پیشنهاد یا ادبیاتی دارید؟ شاید چند مثال و توابع R؟ | تست لوگرانک برای روند (خطرات متناسب) |
32632 | فرض کنید ماتریسی از مقادیر برای بسیاری از متغیرهای مختلف Y1..Y1000 در X=1،2،3..،10 دارم. برخی از این متغیرها مستقیماً با X همبستگی دارند، برخی از اشکال مختلف (مثلاً توزیع نرمال) و برخی فقط تصادفی هستند. من می خواهم یک مدل برای پیش بینی X بر اساس مقادیر داده شده Y1..Y1000 بسازم. رویکرد صحیح برای این کار چه خواهد بود؟ من فرض میکنم به دلیل تعداد متغیرها و این واقعیت که همه متغیرها به صورت خطی به X وابسته نیستند، یک رگرسیون خطی ساده امکانپذیر نیست. | مدل بر اساس بسیاری از متغیرها |
112586 | فرض کنید من یک فرآیند مارکوف پیوسته زمانی با تنها چند حالت (مثلاً 2، در واقع چند حالت دیگر، مانند 5) دارم. من می توانم این حالت ها را در داده های واقعی اندازه گیری کنم و می خواهم ماتریس های احتمال انتقال فرآیند را تخمین بزنم. حالت ها به ترتیب تصادفی و در طول تصادفی رخ می دهند. بنابراین به عنوان مثال حالت 1 را به مدت 60 ثانیه نگه دارید، سپس سیستم به حالت 2 سوئیچ می کند و تنها 5 ثانیه در آنجا باقی می ماند قبل از اینکه به مدت 10 ثانیه به حالت 1 بازگردد و غیره. سوال من این است که چگونه می توانم زمان را هنگام محاسبه TPM ها لحاظ کنم؟ ایده من معرفی زیرشاخه های جدید است، به عنوان مثال. state1_short، state2_mid و غیره. مشکل این خواهد بود که مشخص شود چه کوتاه، بلند و غیره باید باشد. آیا راه دیگری وجود دارد، کلمات کلیدی که می توانم جستجو کنم چیست؟ خیلی ممنونم! | نحوه رمزگذاری زمان در فرآیند پرش مارکوف |
86135 | ... و چگونه می توانیم این کار را انجام دهیم؟ در صورت امکان، من کنجکاو هستم که آیا نقاط پرت در داده های توزیع شده ریلی نیز در داده های توزیع شده گاوسی جدید پرت باقی می مانند. با تشکر | آیا می توان توزیع ریلی را به توزیع گاوسی تبدیل کرد؟ |
96268 | من در حال توسعه روشی برای رسیدگی به داده های از دست رفته غیر یکنواخت هستم. برخی از مجموعه داده های گمشده کلاسیک غیر یکنواخت، به ویژه در حوزه بهداشت عمومی کدامند؟ | مجموعه داده های گمشده غیر یکنواخت کلاسیک |
34688 | من یک سوال در مورد PU-Learning دارم که با یادگیری از داده های دارای برچسب مثبت (بدون نمونه های منفی برچسب دار) و مثبت/منفی- بدون برچسب سروکار دارد. به ویژه، سؤال من در مورد طبقهبندیکنندههای یادگیری کاغذی فقط از دادههای مثبت و بدون برچسب است. این مقاله یک طبقهبندیکننده غیر سنتی $g(x)$ را که از مجموعه دادههای برچسبدار/بدون برچسب آموخته میشود، تبدیل میکند و احتمال نمونهای از برچسبگذاری را به یک طبقهبندی سنتی $f(x)$ تبدیل میکند که احتمال یک مثال را خروجی میکند. مثبت بودن من اولین رویکرد پیشنهادی را اجرا کردم (بخش 2، یادگیری یک طبقه بندی سنتی از ورودی غیر سنتی). با این حال، احتمال $f(x)=g(x)/p(s=1|y=1)$ برای چندین مثال بزرگتر از 1 می شود (این احتمال نباید از 1 بیشتر باشد، زیرا یک احتمال است) برای یادگیری طبقهبندیکننده غیر سنتی $g(x)$، من از یک مجموعه داده غیرسنتی متشکل از 1. 100000 نمونه برچسبدار استفاده میکنم که بهطور تصادفی از کل برچسبگذاریشده انتخاب شدهاند. داده ها، و 2. 100000 نمونه بدون برچسب به طور تصادفی از کل داده های بدون برچسب انتخاب شده اند. و برای تخمین $p(s=1|y=1)$--با اولین تخمینگر پیشنهادی--من از یک مجموعه داده اعتبارسنجی متشکل از 30000 نمونه برچسبگذاری شده بهطور تصادفی از یک مجموعه داده برچسبدار جداگانه استفاده میکنم. با توجه به مقاله، اگر (1) و (2) در فضای مثال همپوشانی داشته باشند، احتمال $f(x)$ تضمین میشود که به خوبی شکل بگیرد. در مورد من، (1) و (2) دارای 20٪ نمونه های همپوشانی هستند، اما من هنوز احتمالات غیرقابل شکل گیری را دریافت می کنم (>1). چگونه می توانم به یک احتمال خوب تعریف شده برای $f(x)$ دست پیدا کنم؟ **ویرایش 8/21** 1. طبق مقاله، $g(x)$ باید طبقهبندیکنندهای باشد که احتمالات صحیح را به عنوان خروجی تولید کند، مانند رگرسیون لجستیک، یا یک طبقهبندی مدرج مانند Naive Bayes/SVM، به ترتیب برای رسیدن به رویکرد به کار من به سادگی از طبقهبندیکننده حداکثر آنتروپی (از بسته NLTK) استفاده میکنم که به عنوان رگرسیون لجستیک نیز شناخته میشود. بنابراین من حدس می زنم که هیچ مشکلی با این وجود ندارد. 2. اگرچه این مقاله بیان میکند که مجموعه دادههای برچسبدار (1) و بدون برچسب (2) برای آموزش $g(x)$ نمونههایی از مناطق همپوشانی در فضای ویژگیها هستند، به نظر میرسد چنین مجموعهدادههایی جدا از هم هستند (به آزمایش بخش 5 مراجعه کنید، P و U متمایز هستند). من با مجموعه دادههای برچسبگذاریشده و بدون برچسب غیرمجاز نیز امتحان کردهام، با این حال هنوز احتمالات بیش از یک را برای $f(x)$ دریافت میکنم. 3. متعادل کردن مجموعه داده ها هیچ تفاوتی ندارد. 4. من برآوردگر دوم پیشنهادی (e2) را امتحان کردم. هنوز احتمالات بیش از 1 برای $f(x)$ دریافت می شود. **ویرایش 8/29** 1. در بخش 5، که نمونه ای با داده های دنیای واقعی را توضیح می دهد، مجموعه ای P از نمونه های برچسب دار+مثبت از پایگاه داده TCDB، و مجموعه ای از نمونه های بدون برچسب به طور تصادفی از پایگاه داده SwissProt، P و U جدا هستند. سپس از P,U برای یادگیری یک طبقه بندی غیر سنتی استفاده می کنند. من فکر میکنم که این رویکرد میتواند برای مشکل من اعمال شود، زیرا من همچنین مجموعهای از مثالهای مثبت و مجموعهای از نمونههای بدون برچسب را بهطور تصادفی نمونهگیری کردهام. نظر شما چیست؟ 2. من برآوردگر سوم پیشنهادی (e3) را امتحان کردم. از آنجایی که حداکثر احتمال مثال ها را از مجموعه دارای برچسب مثبت می گیرد (در مورد من حدود 0.98)، من دیگر احتمالات بیش از یک را دریافت نمی کنم. با این حال، از آنجایی که این تخمین تنها بر اساس یک مثال است و نه میانگین بین همه مثالها، بنابراین به نظر من برآورد خوبی نیست. نظری در مورد اعتبار این برآوردگر دارید؟ با تشکر | گرفتن احتمالات بالای 1 در یادگیری مثبت و بدون برچسب |
86130 | من سعی می کنم مجموعه ای از پارامترها را با استفاده از یک الگوریتم ژنتیک در R با بسته 'GA' تخمین بزنم. تا کنون من کار بسیار ساده ای انجام می دهم (که کار می کند): library(GA) df <- data.frame(DM=c(1000,1500), c1=c(50,75), c2=c(90,105)) func <- تابع (x1، x2، تتا) تتا[1]*x1 + تتا[2]*x2 تناسب اندامL2 <- تابع (تتا، x1، x2، y) { f <- -sum((y - func(x1، x2، تتا))^2) } GA2 <- ga(type = با ارزش واقعی، تناسب = تناسب اندامL2، x1 = df$c1، x2 = df$c2، y = df$DM، نامها = c(a، b)، حداقل = c(0، 0)، حداکثر = c(100، 100)) که مقادیر a,b را تولید می کند. با این حال، من میخواهم a و b را به صورت جداگانه محدود نکنم، بلکه چیزی شبیه a + b == 20 است. آیا کسی میتواند به من اطلاع دهد که آیا این امکان پذیر است؟ پیشاپیش ممنون | الگوریتم ژنتیک با محدودیت در R |
5690 | من در حال بررسی میانگین بقا با استفاده از Kaplan-Meier در ایالت های مختلف برای یک نوع سرطان هستم. تفاوت های بسیار زیادی بین ایالت ها وجود دارد. چگونه می توانم میانگین بقا را بین همه ایالت ها مقایسه کنم و تعیین کنم که کدام یک تفاوت قابل توجهی با میانگین بقای متوسط در سراسر کشور دارند؟ | چگونه میانه بقا را بین گروه ها مقایسه کنیم؟ |
5691 | من می خواهم یک فاصله اطمینان برای یک آمار محاسبه شده روی جدول ایجاد کنم (مثلاً p.value chisqr.test). برای این، ممکن است نمونه بوت استرپ را با همان اندازه، از جدولی با نسبت جدولی که دارم، نمونه برداری کنم. و سؤالات من این است: 1. آیا این روش درستی برای استفاده است، یا مواردی وجود دارد که ممکن است از قلم افتاده باشم؟ 2. چگونه می توان یک جدول را در R نمونه برداری کرد؟ (اولین غریزه من این است که جدول را با استفاده از ذوب باز کنم، سپس جدول را روی ردیف ها بگذرانم، از آنها نمونه برداری کرده و نتایج را به جدول برگردانم. آیا راه بهتری وجود دارد؟) p.s: من از شبیه سازی آگاه هستم. سوئیچ .p.value در chisqr.test - سوال من کلی تر است - آیا استفاده از bootstrap به این شکل منطقی است؟ اگر کسی میخواهد چیزی را نشان دهد، یک جدول نمونه بگیرید: (x <- ماتریس(c(12, 5, 7, 7), ncol = 2)) prop.table(x) # واگرد جدول as.data.frame(as.table (x)) # اما اکنون چگونه ردیف ها را باز کنیم؟ - **به روز رسانی**: به لطف chl در نظرات پاسخ داده شد. با تشکر | خوبه برای بوت استرپ نمونه جدول از نسبت آن - و چگونه این کار را انجام دهیم (در R)؟ |
69803 | در جدول اعداد تصادفی، اعداد تصادفی به صورت هزار اول، هزار دوم، هزار سوم و غیره آورده شده است. هر هزار دارای 25 ردیف و 1 تا 4، 5 تا 8 تا 37 تا 40 ستون است. فرض کنید باید از یک جمعیت 10000 نفری نمونه ای به اندازه 40 بگیرم و از ستون 1 تا 5 برای انتخاب اعداد تصادفی استفاده می کنم. وقتی ستون 1 تا 5 هزار اول تمام شد، اما من هنوز به حجم نمونه مورد نظر خود نرسیدم، روند انتخاب اعداد تصادفی چگونه است؟ آیا باید به ستون 6 تا 10 از هزار اول بروم؟ یا به ستون 1 تا 5 از هزار دوم بروید؟ جدول دیگر اینجا صفحه اول است. اگر تصمیم بگیرم از ستون های شماره 1 تا 5 استفاده کنم، وقتی ستون های 1 تا 5 صفحه اول تمام شد، به ستون های شماره 1 تا 5 صفحه دوم منتقل می شوم یا با استفاده از 6 تا 10 در صفحه اول می مانم. ستون ها؟ | استفاده از جدول اعداد تصادفی |
69809 | بیایید فرض کنیم که من ** چندین بار ** تأثیر یک دارو را بر فشار خون در چندین نفر اندازه گیری می کنم. برای برخی افراد، این دارو فشار خون را به میزان قابل توجهی افزایش می دهد و برای برخی دیگر آن را به میزان قابل توجهی کاهش می دهد. بنابراین دارو روی افراد تأثیر می گذارد. از آنجایی که جهت اثر برای هر فرد متفاوت است، ممکن است اگر من یک تجزیه و تحلیل آماری جهانی مانند ANOVA انجام دهم، دارو اهمیتی ندارد. بنابراین، نتیجه گیری اینکه دارو با استفاده از ANOVA بر افراد تأثیر نمی گذارد، نادرست است. من می خواهم منابعی را بدانم که در مورد این مشکل صحبت می کنند تا بتوانم با استفاده از اصطلاحات صحیح تر در مورد آن بنویسم. به طور دقیق تر، این چیزی است که من دارم. من یک منحنی دوز-پاسخ برای هر آزمودنی با و بدون دارو جمعآوری کردم، توزیع نرمال تجمعی را برای هر شرایط تنظیم کردم و میانگین و فواصل اطمینان را با بوت استرپ تخمین زدم. بنابراین من داده های زیادی را برای هر موضوع جمع آوری می کنم. برای هر آزمودنی میانگین با و بدون دارو به طور قابل توجهی متفاوت است (بدون همپوشانی فواصل اطمینان) اما برای برخی از مشاهده کنندگان دارو فشار خون را افزایش می دهد در حالی که برای برخی دیگر فشار خون را کاهش می دهد. بنابراین اگر از ابزاری برای انجام ANOVA استفاده کنم، اثر دارو قابل توجه نیست. بنابراین، به نظر من گزارش فقط ANOVA بدون توجه به اثرات فردی صحیح نیست، اما گاهی اوقات این کار در زمینه من انجام می شود. بنابراین من به دنبال منابعی بودم که به این موضوع اشاره کنند. ویرایش: فکر می کنم با استفاده از داروها و فشار خون مثال اشتباهی را انتخاب کردم. بنابراین من یک سوال دیگر با استفاده از مثالی که به مشکل واقعی من نزدیکتر است پرسیدم و مدلی از هر موضوع را برازش کردم و یک آزمون t بر روی پارامترهای تخمین زده شده انجام دادم. | دارو بر افراد تأثیر می گذارد اما ANOVA قابل توجه نیست: مراجع؟ |
65160 | من سعی میکنم احساس کنم که LDA چگونه با سایر تکنیکهای یادگیری تحت نظارت «تناسب» میشود. من قبلاً برخی از پستهای LDA را در اینجا درباره LDA خواندهام. من قبلاً با پرسپترون آشنا هستم، اما اکنون LDA را یاد میگیرم. LDA چگونه در خانواده الگوریتمهای یادگیری نظارت شده قرار میگیرد؟ معایب آن در مقایسه با روش های دیگر چه می تواند باشد و چه چیزی می تواند بهتر از آن استفاده شود؟ چرا از LDA استفاده کنیم، در حالی که مثلاً میتوان از پرسپترون استفاده کرد؟ | LDA در مقابل پرسپترون |
7591 | آیا بسته R، وب سایت یا دستوری وجود دارد که به فرد امکان می دهد تا رویه آماری خاصی را که می خواهد جستجو کند؟ به عنوان مثال، اگر من بخواهم بستهای را پیدا کنم که دارای تبدیل Box-Cox باشد، وبسایت/بسته/فرمان ممکن است MASS را برگرداند و من را به تابع boxcox() ارجاع دهد. این کار با چیزی مانند Box-Cox کاملاً ساده است، اما من امیدوار بودم که به من امکان دهد رویههای دشوارتری را پیدا کنم یا بر اساس آنچه که عملکرد انجام میدهد جستجو کنم (Concatenating ستونها به یک قاب داده ممکن است cbind() را نشان دهد). آیا چنین چیزی وجود دارد؟ | چگونه یک رویه آماری را در R جستجو کنیم؟ |
15561 | من علاقه مند به مدل سازی یک فرآیند تولیدی هستم که داده ها را تشویق می کند تا به طور مساوی بر روی پشتیبانی آن توزیع شوند، به عنوان مثال، جمع شدن نقاط داده جریمه می شود. به عنوان مثال، اگر من یک توزیع مخلوط داشته باشم و همه اجزا را روی وزن مساوی تنظیم کنم، تمایل به ایجاد امتیاز یکسان بین همه اجزا دارد، اما این ویژگی اعمال نمی شود. مشکل اینجاست که اگر مجموعه دادهای را با این احتمال ارزیابی کنیم، به مجموعه دادهای که به طور مساوی توزیع شده است، همان احتمال را میدهد که به مجموعه دادهای که در زیر یک جزء واحد جمع شده است. برای نشان دادن یک مدل بهتر که کلوخه شدن را جریمه می کند، فرآیند تولیدی زیر را در نظر بگیرید. با توزیع مخلوط با اجزای $N$، یک نقطه را به روش استاندارد نمونه برداری کنید: ابتدا یک شاخص $i$ را از وزن اجزا نمونه برداری کنید، و سپس یک نقطه از آن جزء را نمونه برداری کنید. اکنون وزن مولفه $i$-th را کاهش دهید تا درصد معینی از وزن اصلی آن باشد (این درصد را $p$ بنامید) و آن جرم را بین سایر اجزای $N-1$ توزیع کنید. $M$ بار تکرار کنید. این فرآیند نقاطی را از توزیع مخلوط ایجاد می کند به گونه ای که باعث می شود نقاط به طور مساوی بین اجزا توزیع شوند. پارامتر $p$ تنظیم می کند که چقدر این توزیع یکنواخت نقاط اجرا می شود - وقتی $p=1$، این یک توزیع مخلوط معمولی است. وقتی $p=0$ و $M = N$، این یک مطابقت دقیق یک به یک بین نقاط داده و اجزای مخلوط را اعمال میکند. مشکل این فرآیند این است که اگرچه نمونه برداری از آن ساده است، به نظر می رسد ارزیابی احتمال داده ها در این مدل غیرقابل حل است، زیرا نیاز به در نظر گرفتن همه ترتیبات ممکن است که داده ها می توانند در آنها انتخاب شده باشند. آیا مدل های شناخته شده ای وجود دارد که کلوخه شدن را به این روش جریمه کند؟ | مدل تولیدی که جمع شدن داده ها را جریمه می کند |
112583 | من یک مجموعه داده از پیش خوشهبندی شده با دادهها دارم و خوشه عمل با استفاده از روش خوشهبندی سفارشی برای آن شناسایی شده است. من به دنبال محاسبه ضریب silhouette در این مجموعه داده خوشهای با استفاده از SPSS برای تعیین کیفیت خوشههای ایجاد شده هستم. آیا ایده ای دارید که چگونه می توانم آن را انجام دهم؟ | چگونه ضریب silhouette را در SPSS برای مجموعه داده های خوشه ای محاسبه کنیم؟ |
79485 | چگونه ثابت می کنید که GARCH (1،1) = ARCH (بی نهایت)؟ برای شروع در این مورد به راهنمایی نیاز دارید. | چرا GARCH(1,1) = ARCH (بی نهایت) است؟ |
65162 | اجازه دهید $A_k^p:=\\{f:\, \|(ix)^k\hat{f}(x)\|_p\leq 1\\}, k \in Z_+, p \in (1) ، \infty)$. میپرسم مرزهای پایین و بالای ضرایب موجک تابع در فضای تابع $A_k^p$ چیست؟ یعنی اگر کسی حد بالا و پایین این ضرایب را بداند، برای برخی از سوالات مفید است؟ اگر بله، چه نوع سؤالاتی؟ متشکرم. | مرزهای ضرایب موجک تابع |
96216 | من مشکل دیگری دارم و چگالی آن چیزی شبیه به این است: $$f(x,\theta)=\frac{1}{\theta} \text{if }0\le x\le\theta \text{ برای برخی } \theta>0$$$$f(x,\theta)=0 \text{ در غیر اینصورت}$$ با توجه به نمونه $X_1,...,X_n$ iid باشد. من MLE را X_n$ یافتم که حداکثر نمونه است. من قرار است توزیع دقیق را پیدا کنم اما مطمئن نیستم آنها چه می خواهند؟ آیا چگالی و CDF حداکثر نمونه را به دست میآورم؟ در نهایت من قرار است توزیع دقیق و توزیع مجانبی $$n(\theta-\hat{\theta})$$ را پیدا کنم که در مورد قضیه لیندبرگ لوی-حد مرکزی می دانم اما مطمئن نیستم که چگونه آن را در این مورد یا به دست آوردن توزیع دقیق. | توزیع دقیق برآوردگر MLE و توزیع دقیق و محدود $n(\theta-\bar{\theta})$ را پیدا کنید. |
106334 | تابع هزینه شبکه عصبی $J(W,b)$ است و ادعا می شود که **غیر محدب** است. من دقیقاً نمی فهمم چرا اینطور است، زیرا همانطور که می بینم کاملاً شبیه تابع هزینه رگرسیون لجستیک است، درست است؟ اگر غیر محدب است، پس مشتق مرتبه دوم $\frac{\جزئی J}{\جزئی W} < 0$، درست است؟ | تابع هزینه شبکه عصبی غیر محدب است؟ |
100007 | من در حال ساخت یک مدل انتخاب گسسته (راه آهن و خودکار) هستم. من هزینه یک سفر برای هر حالت (راه آهن در مقابل خودکار) را دارم. معادلات کاربردی که من می سازم در زیر نشان داده شده اند: \begin{align*} V_\text{auto} &= \beta_1\cdot\mbox{IVTT}_\text{auto}+ \beta_2\cdot\mbox{OVTT}_ \text{auto} \\\ V_\text{rail} &= \beta_0+ \beta_1 \cdot\mbox{IVTT}_\text{rail} + \beta_2 \cdot\mbox{OVTT}_\text{rail}+ \beta_3×\mbox{Cost}_\text{rail} \end{align*} کدی که من دارم این است: data_mlogit<-mlogit.data(newdata,shape=wide,choice=choice, alt.levels=c(auto,rail),varying=c(6:8,10:12)) مدل <- mlogit(choice ~ ivtt+ovtt+cost|0|0, data_mlogit) چگونه می توانم کد را درک کنید که فقط از متغیر هزینه ریل بدون استفاده از متغیر خودکار هزینه استفاده کنید؟ من نمی خواهم متغیر هزینه (خودکار) بخشی از معادله ابزار برای حالت خودکار باشد. | متغیرهای خاص جایگزین در R |
103085 | من مقداری خروجی از رگرسیون لاجیت باینری دارم و در تفسیر صحیح آن با مشکلاتی روبرو هستم. به ویژه میخواهم بدانم که آیا ضریب «مذکر» به من در مورد احتمال نتایج 0 و 1 میگوید و این نکته در آن مثال چه نقشی دارد. متغیر وابسته ترجیح سیاسی است. Estimate Std. err. z-score (Intercept) −5.183 1.094 −4.738 مرد 0.652 0.318 2.053 | تفسیر مدل لاجیت باینری؟ |
89316 | من از `auto.arima()` برای پیش بینی استفاده می کنم و پیام هشدار زیر را دریافت می کنم. می خواهم بدانم آیا می توانم این پیام هشدار را نادیده بگیرم یا باید نگران باشم. `پیام هشدار:` `در auto.arima(forecast_data_ts):`` با استفاده از حداکثر احتمال، مدل نهایی مطابقت ندارد. مقدار AIC تقریبی` | پیام هشدار در auto.arima |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.