_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
62485 | من سعی می کنم یک مدل خطی را با متغیر پاسخ قیمت تطبیق دهم. بسیاری از متغیرهای پیش بینی عمدتاً از صفر تشکیل شده اند. به عنوان مثال، یکی از متغیرهای پیشبینیکننده ممکن «سوراخهای مته» است. تعداد زیادی از قطعات سوراخ حفر شده ندارند، اما اگر این کار را انجام دهند منطقی است که روی قیمت تأثیر می گذارد. من از بسته caret در R برای آموزش مدل و انتخاب متغیرهای مناسب استفاده می کنم. من قبلاً همه متغیرهای با واریانس صفر را حذف کرده ام. من ادبیات زیادی در مورد داده های شمارش برای یک متغیر پاسخ با بسیاری از مدل های صفر و صفر پیدا کرده ام. اما آنچه من تعجب می کنم این است که چگونه باید متغیرهای توضیحی با صفرهای زیاد (بسیاری از آنها داده های شمارش نیستند) مدیریت شوند؟ آیا تحول مناسبی وجود دارد؟ یا اینکه متغیرهای توضیحی با صفرهای زیاد مجاز هستند چون من با متغیرهای توضیحی سروکار دارم نه با متغیر پاسخ؟ | متغیرهای توضیحی با صفرهای زیاد |
73489 | فرض کنید فشار خون را سه بار در روز برای دو درمان A$ و $B$ اندازه گیری می کنیم. 10 نفر در حال دریافت درمان A و 10 نفر در حال دریافت درمان B. همچنین فرض کنید متوجه می شویم که یک درمان و تعامل زمانی وجود دارد. برای آزمایش اثرات درمان برابر، چگونه میتوانیم تعامل با زمان را در نظر بگیریم؟ آیا موارد زیر را انجام می دهیم: proc glm; کلاس trt; مدل bp1 bp2 bp3 =trt; manova h=trt m=bp1+bp2+bp3; یا کارهای زیر را انجام می دهیم: proc glm; کلاس trt; مدل bp1 bp2 bp3 =trt; manova h=trt m=(bp1+bp2+bp3)/3; کجا بر سه نقطه زمانی تقسیم می کنیم؟ | اثرات درمانی: Manova |
94411 | در ایجاد یک مدل خطی، اگر دو متغیر به شدت همبستگی داشته باشند، مشخص میشود که VIF بالایی دارد. اگر از تکنیکهای کاهش دادهها مانند PCA استفاده کنیم، تا حدودی قابلیت توضیح را از دست خواهیم داد. در مورد من، ما نمیتوانیم امتیازات خلاصهای را پیدا کنیم که بتوان آن را به جای متغیرهای فردی در مدل قرار داد. اما به دلایل دیگر، هر دو متغیر باید در مدل نگهداری شوند. در این صورت برای رفع این مشکل باید چکار کنیم؟ | نحوه برخورد با چند خطی بدون حذف متغیرها |
28451 | من 9 سوال در 3 بلوک مختلف دارم که شما با یک عدد (1-7) پاسخ می دهید. و یک سوال (در کل این مکان را چگونه دوست داشتید؟) وجود دارد که به آن پاسخ داده شده است (1-10). من به راهی نیاز دارم تا بفهمم هر بلوک (و شاید هم هر سؤال) چقدر روی سؤال دهم تأثیر می گذارد. ترجیحاً از اکسل یا R استفاده کنید. اگر تفاوتی ایجاد کند، تعداد پاسخ دهندگان هزاران نفر است. | پاسخ های A,B,C چقدر با پاسخ سوال D مرتبط هستند؟ |
90175 | من از «fitdistr» در R استفاده می کنم تا انتخاب کنم کدام توزیع با داده های من مطابقت دارد. من «کوشی»، «ویبول»، «عادی» و «گاما» را امتحان کردم. احتمال ورود به سیستم 329.8492 دلار برای «کوشی»، -277.4931 دلار برای «گاما»، -327.7622 دلار برای «عادی»، -279.0352 دلار برای «ویبول» است. کدام یک بهترین است؟ یکی با بیشترین مقدار (یعنی گاما) یا یکی با بزرگترین مقدار مطلق (یعنی کوشی)؟ | کدام توزیع با داده ها سازگاری بیشتری دارد؟ |
94418 | تفاوت بین یک مدل داده ترکیبی با استفاده از تبدیل log-ratio افزایشی (ALR) و یک مدل لاجیت چندجمله ای انباشته چیست؟ | مدل داده ترکیبی و مدل لاجیت چندجمله ای انباشته |
94414 | من یک سوال در مورد مدل Arellano-Bond در Stata دارم (xtabond/xtabond2). شیب هایی که من دریافت می کنم، برای سطوح یا تفاوت مقادیر هستند؟ مدل من که باید تخمین زده شود شکلی از (D اولین تفاوت است): DY=a+DX1+DX2+... بنابراین آیا باید از متغیرهای قبلاً متمایز شده در تجزیه و تحلیل خود استفاده کنم یا از متغیرهای سطوح برای بدست آوردن این؟ من می دانم که A-B ابتدا همه چیز را متمایز می کند، بنابراین اگر از داده های قبلاً متمایز شده استفاده کنم، آیا شیب تفاوت ها برای تفاوت ها وجود دارد؟ در بیشتر نمونه ها از متغیرهای سطوح استفاده می شود. ریستو از فنلاند | برآوردگر آرلانو-باند در استاتا |
106307 | من MLPها را برای یک مشکل طبقه بندی باینری در کاوشگر Weka آموزش داده ام و اکنون یکی با سطح دقت قابل قبولی دارم. من مقداری کد نوشته ام تا متن مدلی که خروجی است را تجزیه کنم و آن را به صورت آرایه (در کد سی شارپ من) برای عبارات وزن و بایاس بنویسم. سپس من کد خود را برای پیاده سازی خروجی شبکه عصبی دارم. _مشکل این است که ماتریس سردرگمی من با Weka متفاوت است. برای مثال یکی از مقادیر در Weka 86.8% و در کد من 91.3% بود. چگونه می توانم این تفاوت را توضیح دهم؟_ من کد شبکه عصبی سی شارپ شخص دیگری را دانلود کرده ام و ماتریس آنها با ماتریس من یکی بود. بنابراین من شک دارم که به این دلیل است که اجرای من از خروجی شبکه عصبی نادرست است. من به صورت دستی بررسی کردم که وزن ها و محدوده های نرمال سازی یکسان هستند. Weka اعتبارسنجی متقاطع 10 برابری را اجرا می کند، در حالی که کد من خطا را در کل مجموعه داده ارزیابی می کند. _آیا راهی در Weka وجود دارد که بتوان طبقه بندی کننده را در مقابل یک مجموعه داده اجرا کرد و ماتریس سردرگمی را به دست آورد، اما بدون تغییر طبقه بندی کننده؟ یا، برای اجرای طبقهبندی کننده و دریافت مقادیر واقعی خروجی_، تا بتوانم آنها را با مقادیر موجود در کدم مقایسه کنم؟ | چگونه از صحت اجرای MLP از Weka اطمینان حاصل کنم؟ |
90255 | متوجه شدم که در کتاب درسی من تعریفی از p-value وجود دارد. این به عنوان مقدار p یک فرضیه صفر ترکیبی تعریف میشود و موارد زیر را میگوید:  من نمیدانم چرا اینطور است نوشته شده با بالاترین من ساعت ها در این مورد فکر کرده ام، آیا کسی سابقه کافی برای کمک به من در این زمینه دارد؟ متشکرم! | چرا p-value یک فرضیه صفر مرکب دارای یک مقدار برتر است؟ |
66671 | من یک سوال در مورد مدل سازی معادلات ساختاری دارم: اگر برازش کلی مدل من مانند مدل زیر بسیار خوب است، آیا هنوز باید آزمایش کنم که آیا برازش هر مدل اندازه گیری نیز خوب است؟ و اگر بله، چرا اینطور است؟ و اگر کل مدل من شامل مدلهای اندازهگیری باشد، چه کاری میتوانم انجام دهم، زیرا فقط 2 شاخص برای هر متغیر نهفته وجود دارد؟ پیشاپیش از کمک شما متشکرم!  | SEM: آیا هنوز باید به تناسب مدلهای اندازهگیری نگاه کنم وقتی تناسب کلی خوب است؟ |
29508 | (این را در MathOverflow پرسیدم، به اینجا هدایت شدم) بگویید میخواهم یک هیستوگرام از نمونههای $N$ از یک توزیع ساده و فشرده در $\mathbb{R}$ ایجاد کنم، جایی که $N$ بسیار بزرگ است، مثلاً $N = 10 ^{30}$. هیستوگرام دارای سطل های ناهمگون $K$ است که $K$ عدد معقول تری مانند $10$ یا $1000$ است. بدیهی است که برای من امکان پذیر نیست که مستقیماً نمونه های مونت کارلو $N$ را از توزیع خود بکشم و آنها را برای تشکیل هیستوگرام بنشانم. با این حال، به نظر من ممکن است روش صحیحی وجود داشته باشد که با نمونهبرداری از تعداد شمارشها در هر سطل، یک در یک، برای مجموع فقط نمونههای $K$ کار کند. من به دنبال کمکی برای یافتن چنین روشی هستم. تعداد شمارش ها در هر bin یک متغیر تصادفی دو جمله ای با پارامترهایی است که به راحتی می توان با ادغام توزیع در بازه bin محاسبه کرد. بنابراین اگر روش خوبی برای شبیهسازی متغیرهای تصادفی دو جملهای با میانگین بزرگ داشته باشم، میتوانم تعداد شمارشها را در هر سطل با استفاده از ترسیمهای مونت کارلو $K$ از یک متغیر تصادفی دو جملهای شبیهسازی کنم. مشکل این است که تعداد کل در سطل ها با محدودیتی که باید تا $N$ جمع شوند همبستگی دارند. روش من تعداد تصادفی تعداد کل را تولید می کند که تقریباً به طور قطع $N$ نخواهد بود. من می توانم به چند روش پیچیده تر فکر کنم که از این مشکل جلوگیری کند، اما آنها روش های سخت تری ایجاد می کنند - و نتیجه این است که من نمی دانم چگونه ثابت کنم که هر یک از این روش های اکتشافی درست هستند. آیا کسی می تواند به الگوریتم $O(K)$ فکر کند که نمونه هیستوگرام قابل اثبات درست (یا تقریباً صحیح) را برای این نوع مشکل تولید کند؟ به طور رسمی تر، یک روش صحیح برای نمونه برداری از بردار تصادفی $H \in \mathbb{Z}^K$ که ورودی های آن تعداد هیستوگرام هستند؟ اگر نه، بهترین چیزی که می توانم به آن امیدوار باشم چیست؟ | شبیه سازی دقیق مونت کارلو یک هیستوگرام نمونه بزرگ |
20305 | پس از یافتن یک درمان قابل توجه در آنووا دو طرفه، چگونه می توانم گزارش کنم که تفاوت ها کجا هستند؟ هر متنی که خواندهام این را برایم رها کرده است: آه، نتایج قابل توجه است، پس بیایید ادامه دهیم. در anova یک طرفه میتوانم از HSD Tukey برای یافتن ابزارهای متفاوت استفاده کنم و گزارش من را بسیار مؤثرتر کند. در حال حاضر من نمی دانم چگونه با آنووا دو عاملی این کار را انجام دهم. در اینجا نمونه ای از متنی که در R انجام شده است آورده شده است: آیا تفاوتی در نرخ تاخیر جمعه در کارخانه های مختلف وجود دارد؟ > غیبت گیاه در روز 1 مارس-4 گیاه1 19 2 مارس-11 گیاه1 22 3 مارس-18 گیاه1 20 4 مارس-4 گیاه2 18 5 مارس-11 گیاه2 20 6 مارس-18 گیاه2 16 7 مارس-4 گیاه3 27 8 مارس- 11 plant3 32 9 March-18 plant3 28 10 March-4 plant4 22 11 March-11 plant4 27 12 March-18 plant4 26 > anova(lm(nums ~ plant+day, data=mlate)) تجزیه و تحلیل جدول واریانس پاسخ: عدم وجود Df Sum Sq Mean Sq F value Pr(> و) گیاه 3 216.250 72.083 41.191 0.0002134 *** روز 2 30.167 15.083 8.619 0.0172128 * باقیمانده 6 10.500 1.750 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 بنابراین من می توانم ببینم که هم گیاه و هم روز بر دیرکردن کارگر تأثیر دارند، اما چگونه می توانم آن را مقایسه کنم. یعنی مثل من با hsd tukey در یک تست یک طرفه؟ | چگونه نتایج آنووا دو طرفه را گزارش کنیم؟ |
66677 | من اولین کلاس خود را در پاییز امسال تدریس می کنم (مقدمه ای بر آمار زیستی). کسی برای آموزش بهتر آمار پیشنهادی داره؟ شاید مثالی را که آرزو می کردید اولین معلمتان از آن استفاده می کرد؟ من از اصول آمار زیستی توسط پاگانو و گاورو استفاده می کنم. **ویرایش: جزئیات** این کلاس یک کلاس آنلاین است که دو بار در هفته به مدت 1.5 ساعت تشکیل می شود. دانشآموزان به سخنرانی من گوش میدهند در حالی که یک ارائه پاورپوینت/پرتو میبینند (خستهکننده؟) همراه با کمی اکشن تبلت/قلم (هیجانانگیز؟). دانشجویان تحصیلات تکمیلی (پرستاری، دانشجویان پزشکی، بهداشت عمومی و غیره) ** برنامه درسی ** : 1) آمار زیستی چیست؟ 2) احتمال 3) تست های تشخیصی (یعنی ویژگی، حساسیت، منحنی های ROC. بیشتر در اینجا b/c به ما اجازه می دهد تا برخی از چیزهایی را که در مورد احتمالات آموخته ایم، مانند قانون بیز) اعمال کنیم. 4) توزیع ها 5) توزیع های نمونه 6) فواصل اطمینان 7) آزمون فرضیه (یک نمونه، دو نمونه، نسبت ها) 8) توان و نمونه محاسبات اندازه 9) روش های ناپارامتریک 10) جداول اقتضایی (آزمون مجذور کای، آزمون فیشر، آزمون mcnemars، ریسک نسبی، نسبت شانس 11) همبستگی هدف اصلی یادگیری مفاهیم اصلی استنتاج آماری برای دانش آموزان است، به عنوان مثال چگونه کمیت می کنید سوال کدام دارو بهتر است؟ چنین چیزهایی در مورد بخش های ذکر شده در بالا، آیا توصیه یا احتیاط برای آموزش آنها دارید؟ **به عنوان مثال**: من روش های مختلفی را برای معرفی دانش آموزان به آزمون والد در مقابل آزمون نمره هنگام استنتاج نسبت ها دیده یا شنیده ام. اگر ضعیف تدریس شود، دانشآموزان به راحتی گیج میشوند (چرا دو تا از اینها وجود دارد؟، از کدام یک استفاده میکنم؟، از نظر من شبیه به هم هستند.) برخی از معلمان حتی این نامها را ذکر نمیکنند و فقط میگویند. : این کار را برای فواصل اطمینان و این کار دیگر را برای آزمون فرضیه انجام دهید. چگونه به این مشکلات یا موارد مشابه آن برخورد می کنید؟ | توصیه هایی برای اولین بار معلم (مقدمه ای بر آمار زیستی) |
47521 | بگذارید T یک برآوردگر کارآمد برای پارامتر $\theta$ باشد. اجازه دهید $g(\cdot)$ یک تابع غیرخطی (با ارزش واقعی) باشد. آیا $g(T)$ یک UMVUE برای $g(\theta)$ است؟ | عملکرد یک برآوردگر کارآمد |
20301 | دارم کتاب تحلیل داده های بیزی نوشته گلمن را می خوانم. و من پاسخ این سوال را تایید نمیکنم: فرض کنید از پیش مشخص شده است که پارامترهای $2J$$\theta_1,\ldots,\theta_{2J}$ به دو گروه خوشهبندی شدهاند که دقیقاً نیمی از آن از یک $ گرفته شدهاند. توزیع N(1,1)$ و نیمی دیگر از توزیع $N(-1,1)$ گرفته شده است، اما ما مشاهده نکرده ایم که کدام پارامتر از کدام توزیع آمده است. $(a)$ آیا $\theta_1،\ldots،\theta_{2J}$ تحت این توزیع قبلی قابل مبادله هستند؟ $(b)$ نشان می دهد که این توزیع را نمی توان به صورت ترکیبی از اجزای $iid$ نوشت. $(c)$ چرا ما نمی توانیم به سادگی حد را به عنوان $J\rightarrow \infty$ در نظر بگیریم و یک couterexample را برای قضیه $de \space Finetti$ بدست آوریم؟ IMO، ما هیچ اطلاعاتی در مورد ترتیب یا گروه بندی پارامترها نداریم، بنابراین پارامترهای $\theta_1،\ldots،\theta_{2J}$ در این توزیع قبلی قابل تعویض هستند؟ علاوه بر این، همه پارامترها توزیع هویتی ندارند، آیا می توان به سادگی گفت که این توزیع را نمی توان به صورت مخلوطی از اجزای $iid$ نوشت؟ ما نمی توانیم حد را به عنوان $J\rightarrow \infty$ در نظر بگیریم و یک couterexample برای $de \space Finetti's$ قضیه داشته باشیم زیرا این توزیع قابل مبادله نیست. درسته؟ اگر نظری دارید لطفا نظر خود را بنویسید. به من اطلاع دهید که پاسخ درستی می دهم یا نه. ممنون :) | آیا این توزیع قبلی قابل تعویض است؟ |
2275 | من آمار نمی خوانم بلکه مهندسی می خوانم اما این یک سوال آماری است و امیدوارم بتوانید مرا به آنچه برای حل این مشکل باید یاد بگیرم راهنمایی کنید. من این وضعیت را دارم که در آن احتمال وقوع 1000 چیز را در 30 روز محاسبه می کنم. اگر در 30 روز ببینم واقعاً چه اتفاقی افتاده است، چگونه می توانم آزمایش کنم تا ببینم چقدر دقیق پیش بینی کرده ام؟ این محاسبات منجر به احتمالات و مقادیر واقعی (ft) می شود. روش انجام این کار چیست؟ با تشکر، CP | چگونه می توانم صحت محاسبات احتمالات گذشته را تعیین کنم؟ |
91827 | من یک مجموعه داده دارم و میخواهم مدل «Lin-log» را متناسب کنم. آیا می توان تبدیل log را فقط برای برخی از متغیرهای توضیحی اعمال کرد یا باید تبدیل log را برای همه متغیرهای توضیحی اعمال کرد؟ | متغیرهای توضیحی در مدل Lin-log |
31679 | در آمارهای فراوان گرا، ارتباط نزدیکی بین فواصل اطمینان و آزمون ها وجود دارد. با استفاده از استنتاج در مورد $\mu$ در توزیع $\rm N(\mu,\sigma^2)$ به عنوان مثال، فاصله اطمینان $1-\alpha$ $$\bar{x}\pm t_{\alpha/ 2}(n-1)\cdot s/\sqrt{n}$$ حاوی تمام مقادیر $\mu$ است که توسط $t$-test در سطح معنیداری رد نمیشوند. $\alpha$. فواصل اطمینان مکرر به این معنا آزمون های معکوس هستند. (در ضمن، این بدان معنی است که ما می توانیم مقدار $p$-value را به عنوان کوچکترین مقدار $\alpha$ تفسیر کنیم که برای آن مقدار صفر پارامتر در بازه اطمینان $1-\alpha$ گنجانده می شود. من متوجه شدم که این می تواند یک راه مفید برای توضیح اینکه $p$-values واقعاً چیست برای افرادی که کمی آمار را می دانند.) با خواندن در مورد مبانی نظری تصمیم گیری مناطق معتبر بیزی، شروع به تعجب کردم که آیا وجود دارد یا خیر. یک ارتباط/هم ارزی مشابه بین مناطق معتبر و آزمون های بیزی. آیا ارتباط کلی وجود دارد؟ اگر ارتباط کلی وجود ندارد، آیا نمونه هایی وجود دارد که در آن اتصال وجود دارد؟ اگر ارتباط کلی وجود نداشته باشد، چگونه می توانیم این را ببینیم؟ | ارتباط بین مناطق معتبر و آزمون های فرضیه بیزی چیست؟ |
66679 | از ویکی پدیا > ... نسبت خطر یک معیار نسبی اثر است و چیزی در مورد **ریسک مطلق** به ما نمی گوید. تعریف «ریسک مطلق» در تحلیل بقا چیست؟ آیا به زمان بستگی دارد؟ آیا این مقدار تابع بقا در یک زمان است؟ با تشکر | کمیت ریسک در تجزیه و تحلیل بقا چیست؟ |
70727 | با گذشت زمان، ممکن است برخی کلمات جدید ظاهر شوند. اما استاندارد Latent Dirichlet Allocation یک واژگان ثابت را فرض می کند. آیا تنوعی در مدل تخصیص دیریکله پنهان وجود دارد که بتواند این پدیده را نشان دهد؟ با تشکر | چگونه می توان اثر کلمات رخ داده در طول زمان را مدل کرد؟ |
20300 | آیا می توان فاصله اطمینان چند عدد (یا بیشتر) را بدون اطلاع از توزیع یا هر چیزی شبیه به آن بدست آورد؟ با تشکر | چگونه می توانم CI یک دو عدد را بدست بیاورم؟ |
94419 | من یک مدل رگرسیون خطی ساده را بر اساس دو مجموعه داده ماهانه از سال 1960 تا 2008 ساختهام، که فقط از دادههای سالهای 1960 تا 2000 استفاده میکند. اکنون به این فکر میکردم که چگونه میتوانم این مدل را دوباره آزمایش کنم تا بتوانم در مورد کیفیت آن نظر بدهم. تا کنون مقادیر متغیر وابسته را با استفاده از متغیر مستقل از سال 2000 تا 2008 پیش بینی کرده ام و یک نمودار باقیمانده ساخته ام. برای تست کیفیت مدل رگرسیونم چه کار دیگری می توانم انجام دهم؟ | آزمایش مدل رگرسیون خطی ساده با کیفیت |
67504 | در یک رگرسیون چندگانه، ضرایب با استفاده از «vce (سال خوشهای)» در Stata ناچیز میشوند. آیا گنجاندن آدمک های سال مشکل را حل می کند؟ این دو رویکرد چگونه متفاوت هستند؟ | تفاوت بین استفاده از یک متغیر ساختگی در یک رگرسیون چندگانه و خوشهبندی روی آن ساختگی |
55500 | من 100 نقطه داده از یک فرآیند تصادفی دارم. چگونه می توانم یک فاصله اطمینان حول برآورد $\Pr(X>x)$ قرار دهم؟ تابع توزیع ناشناخته و دارای انحراف مثبت است. اولین تمایل من استفاده از بوت استرپ بر اساس مطالبی است که برای این کلاس خوانده ام، اما آیا راه دیگری برای انجام این کار وجود دارد؟ | فواصل اطمینان برای CDF تجربی |
29501 | من سعی می کنم اثری را که نزدیکی به زیرساخت های حمل و نقل بر قیمت خانه می گذارد مدل کنم. معمول (و معقول) استفاده از نوعی مدل وابستگی فضایی است، مانند مدل فضایی دوربین، $$y = \rho W y + X\beta + XW\lambda + \varepsilon $$ در این مدل، نتیجه نتیجه * همبستگی خودکار $\rho W y$ (قیمت خانه همسایه) * اثرات فردی $X\beta$ (ویژگی های خانه شخصی) * و اثرات همسایه است $XW\lambda$ (ویژگیهای همسایه) سوال من: در مورد یک متغیر توضیحی وابسته به فضایی (مانند فاصله هر مشاهده از یک ایستگاه ترانزیت)، آیا این مدل هم خطی را بین $X\beta$ و $ معرفی می کند. شرایط XW\lambda$؟ به هر حال، اگر من دو مایلی دورتر از نزدیکترین ایستگاه قطار زندگی کنم، همسایگان من طبق تعریف حدود دو مایلی از همان ایستگاه قطار زندگی می کنند. اگر چند خطی وجود داشته باشد، این چگونه بر تخمین $\beta$ و $\lambda$ تاثیر خواهد گذاشت؟ آیا آنها سازگار/بی طرفانه خواهند بود؟ اگر چنین است، چگونه می توانم این را اصلاح کنم؟ | چند خطی در میان پیش بینی کننده های فضایی |
66674 | من روی یک پروژه شناسایی نهاد نامگذاری شده (NER) کار می کنم. به جای استفاده از یک کتابخانه موجود، تصمیم گرفتم یکی از آن ها را از ابتدا پیاده کنم، زیرا می خواهم اصول اولیه نحوه عملکرد PGM ها را یاد بگیرم. من کلمات موجود در جملات را به بردارهای ویژگی تبدیل کردم. ویژگیها بهصورت دستی توسط من انتخاب میشوند، و من فقط میتوانم به حدود 20 ویژگی فکر کنم (مانند: آیا نشانه با حروف بزرگ است؟، آیا نشانه یک کلمه انگلیسی است؟ و غیره). با این حال، من شنیدهام که الگوریتمهای خوب NER توکنها را با استفاده از بیش از 20 ویژگی، گاهی اوقات صدها ویژگی، نشان میدهند. چگونه آنها می توانند به این همه ویژگی فکر کنند؟ آیا بهترین شیوه های توصیه شده در ساخت ویژگی وجود دارد؟ | چگونه به ویژگی های مشکلات NLP فکر کنیم |
1315 | من یک فرآیند دنیای واقعی، زمانهای پینگ شبکه را نمونهبرداری کردهام. زمان رفت و برگشت بر حسب میلی ثانیه اندازه گیری می شود. نتایج در یک هیستوگرام رسم میشوند:  زمانهای پینگ دارای حداقل مقدار هستند، اما دم بالایی بلند هستند. من می خواهم بدانم این توزیع آماری چیست و چگونه پارامترهای آن را تخمین بزنم. حتی اگر توزیع یک توزیع عادی نیست، من همچنان میتوانم آنچه را که برای رسیدن به آن تلاش میکنم نشان دهم. توزیع نرمال از تابع استفاده می کند:  با دو پارامتر * μ (میانگین) * σ2 (واریانس) # # تخمین پارامتر فرمولهای تخمین دو پارامتر عبارتند از:  با اعمال این فرمول ها در برابر داده هایی که در اکسل دارم، دریافت می کنم: * μ = 10.9558 (میانگین) * σ2 = 87. (واریانس) با این پارامترها می توانم توزیع _normal_ بیش از داده های نمونه من:  بدیهی است که توزیع عادی نیست. یک توزیع نرمال دارای یک دم بالا و پایین بی نهایت است و متقارن است. این توزیع متقارن نیست. * * * > * چه اصولی را اعمال کنم، چه فلوچارتی را به کار ببرم > تعیین کنم که این چه نوع توزیعی است؟ > * با توجه به اینکه توزیع دم منفی ندارد و دارای دم مثبت بلند است: چه توزیع هایی با آن مطابقت دارند؟ > * آیا مرجعی وجود دارد که توزیع ها را با مشاهداتی که می گیرید مطابقت دهد؟ > و در تعقیب، فرمول این توزیع چیست و چه فرمولی برای تخمین پارامترهای آن وجود دارد؟ * * * من می خواهم توزیع را دریافت کنم تا بتوانم مقدار متوسط و همچنین spread را دریافت کنم:  من در واقع هستم ترسیم هیستروگرام در نرم افزار، و من می خواهم توزیع نظری را روی هم بگذارم:  **توجه:** ارسال شده از math.stackexchange.com * * * **به روز رسانی**: 160000 نمونه:  ماه ها و ماه ها و جلسات نمونه گیری بی شمار، همه توزیع یکسانی دارند. باید یک نمایش ریاضی وجود داشته باشد. * * * هاروی پیشنهاد داد که داده ها را در مقیاس گزارش قرار دهیم. در اینجا چگالی احتمال در مقیاس گزارش آمده است:  **برچسب ها**: نمونه برداری، آمار، تخمین پارامتر، توزیع عادی * * * این یک پاسخ نیست، بلکه یک ضمیمه به سؤال است. در اینجا سطل های توزیع است. فکر می کنم افراد ماجراجوتر ممکن است دوست داشته باشند آنها را در اکسل (یا هر برنامه ای که می دانید) بچسبانند و می توانند توزیع را کشف کنند. مقادیر نرمال شده اند مقدار زمانی 53.5 1.86885613545469E-5 54.5 0.00396197500716395 55.5 0.0299702228922418 56.5 0.020250676 0.0625879919763777 58.5 0.069683415770654 59.5 0.0729476844872482 60.5 0.0508017392821101 61.526 61.524 0.025080049337802 63.5 0.0224138145845533 64.5 0.019703973188144 65.5 0.0183895443728742 0.0224138145845533 0.0162839664602619 68.5 0.0151688822994406 69.5 0.0142780608748739 70.5 0.0136924859524314 71.514 72.5 0.0121849420031646 73.5 0.0119419907055555 74.5 0.0117114984488494 75.5 0.0105528076448675 0.0104219877153857 77.5 0.00964952717939773 78.5 0.00879608287754009 79.5 0.00836624596638551 80 0.00813575370967943 81.5 0.00760001495084908 82.5 0.00766853967581576 83.5 0.00722624372375815 0.00692099722163388 85.5 0.00679017729215205 86.5 0.00672788208763689 87.5 0.00667804592402478 0.00670919352628235 89.5 0.00683378393531266 90.5 0.00612361860383988 91.5 0.006304274696923383 0.00621706141061261 93.5 0.00596788059255199 94.5 0.00573115881539439 95.5 0.005295092383788396 0.00490886211579433 97.5 0.00505214108617919 98.5 0.0045413204091549 99.5 0.00467214033863673 10 0.00439181191831853 101.5 0.00439804143877004 102.5 0.00432951671380337 103.5 0.0041986967813215 0.00410525397754881 105.5 0.00440427095922156 106.5 0.00439804143877004 107.5 0.0040865654161985 0.0040616473343882 109.5 0.00389345028219728 110.5 0.00392459788445485 111.5 0.0038249255512305 0.00405541781393668 113.5 0.00393705692535789 114.5 0.00391213884355182 115.5 0.0040180406911265 0.0039432864458094 117.5 0.00365672850503968 118.5 0.00381869603677909 119.5 0.0036567285012396 0.00340131816652754 121.5 0.00328918679840026 122.5 0.00317082590982146 123.5 0.0034449 | چگونه می توانم بفهمم که چه نوع توزیعی این داده ها را در زمان پاسخ ping نشان می دهد؟ |
35028 | من تعداد زیادی تست (100) انجام داده ام. من همچنین به پایان نامه ای دسترسی دارم که در آن آزمایش های مشابهی در مورد همان نوع مواد گزارش شده است. مقادیر میانگین و COV همراه با هیستوگرام گزارش می شود. من میخواهم از این اطلاعات استفاده کنم تا به دادههایم بپیوندم و از آنجا برخی مدلها را انتخاب کنم. از آنجایی که تعداد آزمایشهای انجامشده توسط محققان قبلی (۸۰) مشابه چیزی است که من انجام دادم، فکر میکنم نظریه بیزی تنها زمانی میتواند مفید باشد که یکی از مجموعههای نتایج نماینده جمعیت (ناشناخته) در نظر گرفته شود. شاید پیوستن به همه داده ها منطقی تر باشد. هر توصیه ای؟ با تشکر | الحاق نتایج از آزمایشگاه های مختلف |
32701 | من مجموعه ای از مقادیر مشاهده شده (با نقاط سیاه در شکل نشان داده شده است) دارم که می خواهم آنها را با برخی از داده های شبیه سازی شده مقایسه کنم (100 مجموعه داده شبیه سازی شده به صورت نمودارهای جعبه با ربع ها، افراط (به استثنای نقاط پرت) به عنوان سبیل، و نقاط پرت به عنوان نقاط سفید نشان داده شده اند. ).  مقادیر مشاهده شده خارج از فواصل اطمینان 95% مجموعه داده شبیه سازی شده هستند، بنابراین کاملاً واضح به نظر می رسد که تفاوت قابل توجهی بین مشاهده و شبیه سازی شده؛ اما در برخی موارد، تفاوت ممکن است چندان آشکار نباشد. کدام آزمون آماری (ترجیحاً در R) را می توانم روی این داده ها انجام دهم تا یک مقدار P برای تفاوت معنی دار بین مجموعه های مشاهده شده و شبیه سازی شده بدست آید؟ | مقایسه داده های مشاهده شده با داده های شبیه سازی شده؟ |
92157 | من یک نمودار LDA (تحلیل متمایز خطی) با مرزهای تصمیم را از _The Elements of Statistical Learning_ دیدم:  من می دانم که داده ها پیش بینی می شوند روی یک فضای فرعی با ابعاد پایین تر با این حال، میخواهم بدانم که چگونه مرزهای تصمیمگیری را در بعد اصلی به دست میآوریم تا بتوانم مرزهای تصمیم را در یک زیرفضای با ابعاد پایینتر (مانند خطوط سیاه در تصویر بالا) نشان دهم. آیا فرمولی وجود دارد که بتوانم از آن برای محاسبه مرزهای تصمیم در بعد اصلی (بالاتر) استفاده کنم؟ اگر بله، پس این فرمول به چه ورودی هایی نیاز دارد؟ | مرز تصمیم LDA را محاسبه و نمودار کنید |
23767 | من در حال ساخت رگرسیور GP هستم، داده های ورودی من بردار ستون 1 بعدی است و هدف من نیز همینطور است. من داده های خود را به مجموعه های آموزشی و آزمایشی تقسیم کرده ام. من مدل را آموزش دادم تا فراپارامترها را بیاموزد و سپس موارد تست ورودی خود را وصل کردم، و انتظار داشتم خروجی های مربوط به آنها را مانند خطوط کد زیر ببینم: % تقسیم داده ها XTrain = BP(1:193,1); YTrain = BP (1:193,2); XTest = BP(194:end,1); YTest = BP(194:end,2); % set meand، cov، توابع lik و hyp meanfunc = {@meanSum، {@meanLinear، @meanConst}}؛ covfunc = {@covMaterniso، 3}; likfunc = @likGauss; hyp.mean = [0.5; 1]؛ hyp.cov = log([1/4; 1]); hyp.lik = log(0.1); % پارامترهای آموزش و یادگیری hyp = Minime(hyp، @gp، -100، @infExact، meanfunc، covfunc، likfunc، XTrain، YTrain); % محاسبه پیشبینیها [m s fm fs] = gp(hyp، @infExact، meanfunc، covfunc، likfunc، XTrain، YTrain، XTest). % کد اینجا به پایان می رسد آیا کاری که من انجام می دهم درست است؟ و چگونه می توانم میانگین را تفسیر کنم؟ | پیش بینی کننده فرآیند گاوسی |
92156 | من روی مدل زیر در R کار می کنم: مدل ترکیبی خطی تعمیم یافته متناسب با حداکثر احتمال ['glmerMod'] خانواده: دوجمله ای (logit) فرمول: Tooluse ~ جنسیت + سن + فرکانس + Tool.related.skill + (1|آزمایی) ) + (1 + فرکانس|شماره موضوع) + (1 + Tool.related.skill|Frequency/Task) داده: g4 با ابزار Tooluse (بله، خیر) سن (مستمر) مرتبط. مهارت (تدوینی) کارآزمایی (1-4) فرکانس (کم، زیاد) کار (1-12، تو در تو در درون فرکانس. 6 کار متعلق به گروه فرکانس پایین، 6 کار به فرکانس بالا) سوال تحقیق من به تأثیر متغیر فرکانس بر استفاده از ابزار میپردازد. با آزمایش مفروضات مدل، این خروجی را برای تست پراکندگی بیش از حد دریافت می کنم: > overdisp.test (B1NF.FULL) > >> >> chisq df P dispersion.parameter >> 1 36.68702 141 1 0.2601916 >> چگونه می توانم با مشکل **زیر پراکندگی**؟ تاکنون 3 پیشنهاد دریافت کردم (2 مورد از آنها از یکی از نویسندگان بسته lme4): 1) استفاده از مدل های **مخلوط/مانع** 2) اجازه دادن به **ساختار همبستگی منفی** در گروه ها (که نمی توانند با lme4 انجام شود و به طور کلی برای GLMM ها سخت تر است) 3) رویکرد **«شبه احتمال» استاندارد**، یعنی گرفتن سطح تخمینی از زیر پراکندگی و کوچک کردن تمام فواصل اطمینان بر اساس آن به عنوان اولین رویکرد. با این حال، به من هشدار داده شد که نکته ای که باید در مورد آن دقت کرد این است که هنوز مشخص نشده است که چگونه تخمین های شبه احتمال واریانس باقیمانده با تخمین های واریانس اثرات تصادفی تعامل دارد. در مورد نحوه اجرای هر یک از این استراتژی ها در R کمک کنید. من در اینجا احساس گمراهی می کنم. پیشاپیش از کمک شما کمال تشکر را دارم. | نحوه مدیریت کم پراکندگی در GLMM (متغیر نتیجه دو جمله ای) |
78975 | کاری که من انجام میدهم این است که دستههای A، B، C، D، E را دارم. من نسبتهای پیشبینیشده بلندمدت قرار گرفتن در هر دسته و محاسبه نسبتهای واقعی بلندمدت قرار گرفتن در هر دسته را محاسبه میکنم. برای یک بردار $longrun = [A, B, C, D, E]$ پیش بینی شده = $[0.22، 0.33، 0.11، 0.09، 0.25]$ واقعی = $[0.20، 0.30، 0.10، 0.15، 0.25]$ چگونه من به درستی/درست مقایسه کردم که این اقدامات چقدر به یکدیگر نزدیک شدند؟ چه نمره یا آزمون/معیار را باید در نظر بگیرم؟ پیشاپیش سپاس فراوان! | آزمون/نمره یا اندازه گیری نسبت ها/میانگین های بلندمدت پیش بینی شده در مقابل واقعی؟ |
29500 | پیوندهای زیر از این مقاله گرفته شده است. من تازه وارد بوت استرپ هستم و سعی می کنم بوت استرپینگ بوت استرپینگ پارامتری، نیمه پارامتری و ناپارامتریک را برای مدل مختلط خطی با پکیج R boot پیاده سازی کنم.      **R Code** اینجا کد `R` من است: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult)، data=Cultivation) fixef(fm1Cult) boot.fn <- function(دادهها، شاخصها){ data <- data[شاخصها، ] mod <- lmer(drywt ~ Inoc + Cult + (1|Block ) + (1|Cult), data=data) fixef(mod) } set.seed(12345) Out <- boot(data=Cultivation, statistic=boot.fn, R=99) Out **سوالات** 1. چگونه می توان بوت استرپ پارامتریک، نیمه پارامتریک و ناپارامتریک را برای مدل های ترکیبی با بسته Boot انجام داد؟ 2. حدس میزنم که در حال انجام بوت استرپ ناپارامتری برای مدل مختلط در کدم هستم. من این اسلایدها را پیدا کردم اما نتوانستم بسته R merBoot را دریافت کنم. هر ایده ای از کجا می توانم این بسته را تهیه کنم. هر کمکی بسیار قدردانی خواهد شد. پیشاپیش از کمک و زمانی که می گذارید سپاسگزارم. | راه اندازی پارامتری، نیمه پارامتری و ناپارامتریک برای مدل های ترکیبی |
84268 | من در حال تجزیه و تحلیل نتایج یک آزمایش زمان واکنش در R هستم. من یک ANOVA اندازه گیری های مکرر را انجام دادم (1 عامل درون آزمودنی با 2 سطح و 1 عامل بین آزمودنی با 2 سطح). من یک مدل ترکیبی خطی مشابه را اجرا کردم و میخواستم نتایج lmer را در قالب جدول ANOVA با استفاده از `lmerTest::anova` خلاصه کنم. اشتباه نکنید: من انتظار نتایج یکسان را نداشتم، اما در مورد درجه آزادی در نتایج «lmerTest::anova» مطمئن نیستم. ~~ به نظر من بیشتر منعکس کننده یک ANOVA بدون تجمع در سطح موضوع است.~~ من از این واقعیت آگاه هستم که محاسبه درجه آزادی در مدل های اثر مختلط مشکل است، اما lmerTest::anova به عنوان ذکر شده است. یک راه حل ممکن در مبحث به روز شده «?pvalues» (بسته «lme4»). آیا این محاسبه درست است؟ آیا نتایج «lmerTest::anova» مدل مشخص شده را به درستی منعکس می کند؟ ** به روز رسانی: ** من تفاوت های فردی را بزرگتر کردم. درجات آزادی در «lmerTest::anova» بیشتر از آنوای ساده متفاوت است، اما هنوز مطمئن نیستم که چرا برای فاکتور/تعامل درون موضوعی اینقدر بزرگ هستند. # نمونه کوچک با مجموعه داده ANT از کتابخانه بسته ez(ez)؛ کتابخانه (lme4); library(lmerTest) # اندازه گیری های مکرر ANOVA با داده های بسته ez(ANT) ANT.2 <- زیرمجموعه(ANT، !error) # به روز رسانی: تفاوت های فردی را بزرگتر کنید baseline.shift <- rnorm(طول(محصول (ANT.2$subnum) ))، 0، 50) ANT.2$rt <- ANT.2$rt + baseline.shift[as.numeric(ANT.2$subnum)] anova.ez <- ezANOVA(data = ANT.2، dv = .(rt)، wid = .(subnum)، درون = .(جهت)، بین = .(گروه)) anova.ez # به طور مشابه با lmer و lmerTest::anova model <- lmer(rt ~ group * جهت + (1 | subnum)، data = ANT.2) lmerTest::anova(model) # simple ANOVA روی همه داده های موجود m <- lm(rt ~ group * جهت، data = ANT.2) anova(m) نتایج کد بالا [ **به روز شد** ]: **anova.ez** $ANOVA Effect DFn DFd F p p<.05 ges 2 group 1 18 2.6854464 0.11862957 0.1294475137 3 جهت 1 18 0.9160571 0.35119193 0.0001690471 4 گروه:جهت 1 18 4.90473737 * 0.0009066868 **lmerTest::anova(model)** تجزیه و تحلیل جدول واریانس نوع 3 با تقریب ساترثویت برای درجه آزادی 1946 0.3935 5169 0.5305 group:direction 1 11563 11563 2.3321 5169 0.1268 **anova(m)** تجزیه و تحلیل جدول واریانس پاسخ: rt Df مجموع مجموع مربع میانگین (> 18 F15 گروه P) 1791568 242.3094 <2e-16 *** جهت 1 728 728 0.0985 0.7537 گروه:جهت 1 12024 12024 1.6262 0.2023 باقیمانده ها 5187 2-38379if. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 | آیا درجات آزادی در lmerTest::anova صحیح است؟ |
23761 | من یک متغیر تصادفی $Z$ دارم که مقادیری را در اعداد صحیح غیرمنفی $\\{ 0,1,2,\dots \\}$ می گیرد، احتمالات را برای هر نتیجه $z_k:=P[Z=k]$ فراخوانی می کند. من می توانم از توزیع $Z$ به طور مستقل و ارزان نمونه برداری کنم. من در حال حاضر یک اندازه نمونه $2^{28}$ دارم. به نظر میرسد که $z_0\حدود 0.24، z_1\تقریبا 0.18،\dots$، با فروپاشی تقریباً نمایی. من دنباله ای از فرم های درجه دوم با ضرایب مثبت دارم: * $Q_0(z_0) = \frac14 z_0^2$ * $Q_1(z_0,z_1) = \frac 12 {z_0 z_1}$ * ... * $Q_7(z_0 ,z_1,\dots,z_7) = \frac{1}{8} \left(2 z_0 z_1+3 z_2 z_1+4 z_4 z_1+4 z_6 z_1+3 z_0 z_3 + \right.$\qquad\qquad\qquad\qquad\qquad\qquad \چپ +4 z_2 z_5+4 z_0 z_7\right)$ * ... چه می خواهم like to have یک فاصله اطمینان برای $Q_i$ است که عرض آن کمتر از $10^{-4}$ است، اما من هر چیزی را که بتوانم به دست میآورم. من مرزهای دقیقی روی $z_i$ دارم، و از آنجایی که ضرایب $Q$ همگی مثبت هستند، تبدیل آنها به مرزهای دقیق برای $Q$ بسیار ساده است. اما من نمی دانم چگونه این کار را با فواصل اطمینان درست انجام دهم. * * * این در مورد چیست؟ من یک پدیده عجیب و غریب در نظریه اعداد پیدا کردم، و می دانم چگونه ثابت کنم که واقعاً اتفاق می افتد، اما در واقع انجام این کار به مقداری تلاش برنامه نویسی از طرف من و زمان قابل توجهی در خوشه محلی ما نیاز دارد. قبل از اینکه این زمان را سرمایه گذاری کنم و دستگاه خود را مسدود کنم، می خواهم بیشتر از آنچه که هستم مطمئن باشم که این پدیده واقعی است. من میخواهم معقول بودن ادعای خود را که $Q_7<Q_6$ و $Q_7<Q_8$ است، کمّی کنم. تخمینهای من نشان میدهد که $Q_6-Q_7$ حدود $5\cdot 10^{-4}$ است، به همین دلیل است که من CI در آن وضوح میخواستم. یک عدد صحیح بزرگ $n$ را ثابت کنید و اجازه دهید $A$ زیرمجموعه ای از $\\{1,2,\dots,n\\}$ باشد که به طور یکنواخت انتخاب شده است (یعنی هر زیر مجموعه خاص دارای احتمال $2^{-n} است. $ از انتخاب شدن). فرض کنید $Q_k(n)$ این احتمال باشد که دقیقاً $k$ از اعداد $\\{2,3,\dots,2n\\}$ را نمی توان به صورت مجموع دو عنصر $A$ نوشت. اجازه دهید $Q_k = \lim_n Q_k(n)$. اثبات آن کمی مشکل است، اما این محدودیت ها وجود دارد و $\sum_{k} Q_k =1$. حالا جای تعجب نیست که $Q_0$ کوچک است، و با افزایش $k$، $Q_k$ افزایش مییابد، یک اوج دارد و سپس به صورت تصاعدی کاهش مییابد. بخش عجیب این است که یک سوگیری در برابر 7 وجود دارد. یعنی به طور تجربی $Q_7<Q_6$ و $Q_7<Q_8$. یعنی چیزی که تعجب آور نبود در واقع درست نیست: توزیع دووجهی است. من می توانم $Q_i$ را (با استفاده از برخی تئوری ها) به صورت فوق بدون محدودیت از نظر توزیع دیگر، که توسط $z_i$ تعریف شده است، بیان کنم. این مفید است زیرا من راهی دارم که با استفاده از محاسبات بزرگ، همانطور که در بالا ذکر کردم، z_i$ را با دقت محدود کنم. همچنین، من یک مجموعه داده بسیار بزرگ برای متغیر $Z$ دارم. | فواصل اطمینان برای یک چند جمله ای |
23763 | CARET به طور خودکار از یک شبکه تنظیم از پیش تعیین شده برای ساخت مدل های مختلف قبل از انتخاب مدل نهایی استفاده می کند و سپس مدل نهایی را بر روی داده های آموزشی کامل آموزش می دهد. من می توانم شبکه تنظیم خودم را تنها با یک ترکیب از پارامترها تامین کنم. با این حال، حتی در این مورد، CARET بهترین مدل را از بین پارامترهای تنظیم انتخاب می کند (حتی اگر تنها یک مورد در این مورد وجود دارد)، و سپس مدل نهایی را با تمام داده های آموزشی مطابقت می دهد. این یک مرحله اضافی است که می خواهم از آن اجتناب کنم. چگونه می توانم به سادگی از مرحله جستجوی مدل در میان تغییرات در شبکه تنظیم بگذرم و CARET را مجبور کنم که بر روی تمام داده های آموزشی (به غیر از فراخوانی مستقیم کتابخانه مدل زیربنایی) ایجاد کند؟ | آیا راهی برای غیرفعال کردن ویژگی تنظیم پارامتر (شبکه) در CARET وجود دارد؟ |
59253 | من یک رگرسیون چندگانه با استفاده از SPSS دارم. اهمیت مدل من در جدول ANOVA 0.174=p است که 0.05> است. این برای مدل من چه معنایی دارد؟ آیا هنوز می توانم از آن استفاده کنم و در تفسیر نتایج اقدام کنم یا خیر؟ | آیا می توانم از یک مدل رگرسیون با معناداری ANOVA بیشتر از 0.05 استفاده کنم؟ |
110890 | چگونه می توانم برآورد خوبی از پارامتر $\nu$ توزیع برنج بر اساس مجموعه ای از مختصات $(x,y)$ بدست بیاورم؟ **ویرایش**: با توجه به نظر عالی whuber، من به دنبال تخمین بی طرفانه نیستم. درعوض، میخواهم بدانم آیا برآوردی وجود دارد که از در دسترس بودن نقاط دوبعدی خود (نه فقط هنجار اقلیدسی آنها) و همچنین تخمینی از $\sigma$ استفاده کند. زمینه: با توجه به یک متغیر عادی دو متغیره غیرهمبسته $X$ با میانگین $\mu \neq 0$ با ماتریس کوواریانس $\Sigma = \sigma^{2}I$، هنجار اقلیدسی $R = \sqrt{X'X}$ (شعاع یا فاصله تا مبدا) از توزیع برنج با پارامترهای $\nu = \sqrt{\mu'\mu}$ و $\sigma$. هنگامی که مجموعه ای از $N$ 2D-points $x = \mu + e$ از توزیع Rice داده می شود، به دست آوردن یک تخمین بی طرفانه از $\sigma$ ساده است و مانند توزیع Rayleigh کار می کند. ایده واضح برای تخمین $\nu$ $\sqrt{\bar{x}'\bar{x}}$ است، اما اگر اشتباه نکنم، مربع انتظار $E(\bar{x}'\ دارد. نوار{x}) = \mu'\mu + E(e'e) = \mu'\mu + tr(\frac{1}{N}\Sigma) = \mu'\mu + \frac{2} {N} \sigma^{2}$. و این قبل از گرفتن ریشه مربع است که تعصب دیگری را معرفی می کند. صفحه ویکیپدیا روشهایی را برای تخمین پارامتر ذکر میکند، اما به نظر میرسد این روشها برای شرایطی هستند که نقاط دوبعدی اصلی را نداریم، بلکه فقط هنجار اقلیدسی آنها را داریم. بعد از محاسبه فاصله نقاط دوبعدی میتوان این روشها را اعمال کرد، این روشها پیچیده و بر اساس اطلاعات کمتری نسبت به آنچه من در اختیار دارم. | توزیع برنج: برآورد $\nu$ از داده های 2 بعدی |
111414 | من تجزیه و تحلیل خطرات متناسب کاکس را با استفاده از بسته rms فرانک هارل (4.2.0) با 3 لایه انجام می دهم. به نظر می رسد مدل من به طور معقولی روی داده های آموزشی پیش بینی کند (Dxy=-0.537)، اما به نوعی در اعتبارسنجی بوت استرپ Dxy دقیقاً صفر است، که به نظر محتمل به نظر نمی رسد. من «u=10» را در «validate.cph» به دلیل استفاده از لایهها مشخص میکنم، اما سایر مقادیر u تفاوتی ایجاد نمیکنند. آیا من کار اشتباهی انجام می دهم؟ # برخی از آمارهای داده > خلاصه (d$time) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.019 9.839 14.780 12.430 14.880 19.940 > with(d، tapply(زمان، پروژه، خلاصه)) $`1` حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.019 9.725 9.818 8.561 9.875 9.941 $`2` حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.312 10.370 19.770 14.990 19.860 19.940 $`3` حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.191 14.740 14.820 13.380 14.880 14.940 > s <- cph(Surv(زمان، رویداد) ~ پیش بینی کننده + استراتژی(پروژه)، داده=d، x=TRUE، y=TRUE، surv=TRUE) > هازاردز کاکس مدل پروپورتال فرمول = Surv (زمان، رویداد) ~ پیش بینی + استراتژی (پروژه)، داده = d، x = TRUE، y = TRUE، surv = TRUE) وضعیت لایه بدون رویداد پروژه = 1 702 123 پروژه = 2 313 78 پروژه = 3 2126 190 آزمون های مدل شاخص های تبعیض Obs 3532 LR رویدادهای chi2 382.77 R2 0.131 391 d.f. 1 Dxy -0.537 Center 39.0395 Pr(> chi2) 0.0000 g 1.695 Score chi2 279.06 gr 5.445 Pr(> chi2) 0.0000 Coef S.E. Wald Z Pr(>|Z|) پیشبینیکننده 0.2341 0.0153 15.29 <0.0001 > اعتبارسنجی(ها، B=20، u=10) index.orig آموزش آزمون شاخص خوشبینی. تصحیح n Dxy 0.0000 0.0000 0.0000.000.0 R2 0.1306 0.1300 0.1306 -0.0006 0.1312 20 شیب 1.0000 1.0000 1.0056 -0.0056 1.0056 20 D 0.0700 0.0702 - 0.007002 20 U -0.0004 -0.0004 0.0002 -0.0005 0.0002 20 Q 0.0704 0.0702 0.0698 0.0004 0.0700 20 گرم 1.6948 1.6949 1.6949 - 1.6948 1.69395. 20 | بسته rms، دریافت Dxy صفر در اعتبارسنجی مدل cph |
110897 | من وظیفه ای دارم که هدف آن اندازه گیری توانایی تبدیل یک کلمه کلیدی است، توانایی تبدیل را می توان به این صورت درک کرد که احتمال یک پرس و جو در موتور جستجو برای مشتریان سفارش می آورد. به عنوان مثال، من apple را در موتور جستجو جستجو کردم. سپس به وبسایت میروم و یک نوت بوک میخرم، سپس «apple» معاملهای را به شرکت اپل میآورم و پرس و جو «apple» توانایی قوی برای آوردن تراکنش دارد. (شاید این مثال خوب نباشد اما می تواند ایده را توضیح دهد) اکنون من گزارش پرس و جو و گزارش کلیک تبلیغات را در موتور جستجو دارم، چگونه می توانم از این داده ها برای تجزیه و تحلیل توانایی تبدیل یک پرس و جو استفاده کنم؟ فکر میکنم شاید برخی از الگوریتمهای شفافسازی بتواند پاسخ دهد، اما من از نتیجه مطمئن نیستم. میشه لطفا راهنماییم کنید؟ هر گونه بازخورد قدردانی خواهد شد! | چگونه می توان توانایی تبدیل یک پرس و جو را در تبلیغات اینترنتی اندازه گیری کرد |
110893 | مجموعه ای از قوانین مانند: $A \rightarrow B$; $B \rightarrow C$; که حداقل اطمینان را در زمینه الگوریتم پیشینی برآورده می کند به این معنی: $$\text{Conf}(A \rightarrow B) \geq \text{min. اطمینان}$$ و $$\text{Conf}(B \rightarrow C) \geq \text{min. اطمینان}$$ آیا می توان بیان کرد که $\text{Conf}(A \rightarrow C) \geq \text{min. اطمینان}$ من معتقدم با توجه به اینکه رابطه بین $\text{Support}(A \rightarrow B)$ و $\text{Support}(B \rightarrow C)$ هیچ اطلاعاتی در مورد $ نمیدهد، نمیتوان ادعا کرد. \text{Support}(A \rightarrow C)$ آیا این منطقی است؟ توجه: این فقط یک تمرین کتابی است که سعی می کنم حلش کنم (نه تکلیف!) این لینک فصل است، در صفحه 405 تمرین 3 است. | آیا اعتماد در قوانین انجمن متعدی است؟ |
29502 | من یک پایگاه داده دارم که در آن آزمایش ها ذخیره می شوند. هر آزمایش دارای یک پرچم است که می گوید به درستی ثبت شده است. من سعی می کنم با یک آزمون آماری نشان دهم که روندی در زمان وجود دارد که تجربیات به طور فزاینده ای به درستی ثبت می شوند (ستون نسبت؛ افزایش از 56٪ در سال 2006 به 72٪ در سال 2011) > print(ascii(c,include.rownames= F,format='nice'),type='org') | سال | همه_آزمایشات | به درستی ثبت شده | نسبت | |------+----------------------------------------- -----| | 2006 | 6431 | 3604 | 56.04 | | 2007 | 7013 | 3990 | 56.89 | | 2008 | 8285 | 4899 | 59.13 | | 2009 | 7523 | 5063 | 67.3 | | 2010 | 7296 | 5210 | 71.41 | | 2011 | 7243 | 5243 | 72.39 | از چه روش آماری برای اثبات آن استفاده کنم. 1. آیا من فقط درصدها را میگیرم، آنها را رسم میکنم و نشان میدهم که میتوانم یک خط را در میان دادهها قرار دهم و به شیب آن خط اشاره کنم: چگونه این کار را انجام دهم؟ آیا کافی است؟ 2. آیا تست پیچیده تری وجود دارد که اعداد پشت درصد را در نظر بگیرد و چگونه آن را انجام دهم؟ من همچنین باید تجزیه و تحلیل را در R محاسبه کنم، بنابراین یک کمک عمومی مفید است، اما همچنین راهنمایی هایی برای استفاده از چه دستوراتی در R بهتر است. دادههای تقسیمبندیشده بر اساس سال از همان مجموعه داده میآیند و به این شکل تولید میشوند: a = ddply(s1b,.(format(First.Received, %Y)) ,.fun=function(x) nrow(x)) b = ddply(s1b,.(format(First.Received, %Y)) ,.fun=function(x) nrow(زیرمجموعه(x,properly_registered==1))) ... | از چه آزمونی می توانم برای اثبات وجود روند صعودی در ارزیابی سری های زمانی نسبت ها در R استفاده کنم؟ |
27079 | من روی مقایسه تعدادی از سرمایه گذاری ها کار می کنم و سعی می کنم یک مقایسه ریسک نسبی انجام دهم، اما برای اطمینان از دقت با انحرافات استاندارد با مشکل مواجه هستم. تعدادی از مشاهدات افق زمانی کوتاهتری نسبت به آنچه من میخواهم دارند دارند (برخی فقط افق زمانی 3،4 یا 5 ساله دارند). من می خواهم از یک افق زمانی 10 ساله استفاده کنم، بنابراین 10 مشاهده در هر محاسبه انحراف استاندارد. من معتقدم که می توانم توزیع نرمال را برای این تمرین فرض کنم. بر اساس این مشکل، آیا راه حلی وجود دارد و اگر چنین است، آیا باید انحرافات استاندارد کوتاهتر را تنظیم کنم تا از دقت با استفاده از جدول زمانی طولانیتر اطمینان حاصل کنم؟ این اولین بار است که اینجا هستم و از نظر ظاهری افراد بسیار باهوشی وجود دارند. من از هر کمکی که می توانید ارائه دهید قدردانی می کنم. | مقایسه انحراف معیار در افق های زمانی متعدد |
107557 | من در حال انجام یک متاآنالیز هستم و سعی می کنم یک نمودار جنگلی تولید کنم که اندازه اثر وزنی متوسط را با و بدون نقاط پرت نشان دهد. من در وبسایتهای زیادی نگاه کردم و سینتکسهای زیادی را امتحان کردم، با این حال، واقعاً چیزی در مورد آنچه به دنبال آن هستم پیدا نکردم. فرض کنید 10 مطالعه در متاآنالیز وجود دارد. تجزیه و تحلیل های پرت نشان داد که مطالعه 3 یک عدد پرت است که منجر به تخمین بیش از حد میانگین وزنی ES می شود. بر این اساس، من میانگین ES را با (_k_ = 10) و بدون نقطه پرت (_k_ = 9) محاسبه می کنم. من میخواهم مطالعات مرتبشده بر اساس ES آنها را نمایش دهم و هر دو میانگین ES را در نمودار جنگل گزارش کنم. من از هر گونه کمک و/یا راهنمایی قدردانی می کنم. Study3 Study9 Study5 ... Study7 Mean ES ( _k_ = 10) Mean ES ( _k_ = 9) * * * باز هم از پاسخ شما متشکرم. من توانستم نمودارهایی را که میخواستم تولید کنم، فقط دو مشکل وجود داشت، و فکر میکردم آیا راه سادهتری نسبت به من برای انجام آن وجود دارد. سبک APA مستلزم نوشتن عبارات آماری به صورت مورب است، به عنوان مثال، _k_ = 10، و گاهی اوقات نیز به صورت مشترک، به عنوان مثال، u در Hedges _g[u]_. با عرض پوزش، به نظر می رسد دستور subscript در اینجا کار نمی کند. من این نحو را امتحان کردم تا طرح جنگل را تمام کنم، اما موفقیت آمیز نبود زیرا برنامه ** و [] و همچنین دستور Italic() را در نمودارها ترسیم کرد. علاوه بر این، دستور اعداد = 2 برای تکهای ES و CI موفقیتآمیز بود، اما نه برای جداول سمت چپ که میانگین سن و میانگین نمرات هر یک از گروههای آزمایشی را دارم (توجه: DV پیوسته است). من یک نحو به صورت زیر ایجاد کردم، با این حال، همانطور که گفتم، میپرسیدم که آیا روش سادهتری برای انجام این کار وجود دارد. متاآنالیز برای هر یک از زیر گروه ها قبلا محاسبه شده است. ### حاشیه ها را کاهش دهید تا فضای کامل استفاده شود par(mar=c(4,4,1,2)) ### یک نمودار par(font=1) با (SMetaHits, forest(rma.allHits, xlim= ترسیم کنید c(-12, 6), ylim=c(-1, 41), xlab=Hedges gu, slab=paste(نویسنده)، ilab=cbind(SMetaHits$N، SMetaHits$MYou، SMetaHits$MOld)، ilab.xpos=c(-6، -4.5، -3.5)، ilab.pos=c(2، 4، 4)، order=order( SMetaHits$FacAgeNum)، rows=c(36:30، 24:15، 9:4))) text(-12، 40، نویسندگان)، سال [مقطع]، pos=4) ### متن را برای زیرگروه ها اضافه کنید par(font=3) text(-12.1, c(37.5,25.5,10.5 ), pos=4, c(جوان، مختلط، پیر)) ### اینجاست که قضیه پیچیده می شود و من امیدوار بودم که وجود داشته باشد راه سادهتر از این ###، عنوان ستونها را به طرح اضافه کنید و متن Y و O مشترک و par(font=3) را به صورت مورب رسم کنید(c(-6), 40, c(N), pos=2) text( c(-4.5، -3.5)، 40، c(M، M)، pos=4) text(c(-4.3، -3.3)، 39.7، c(Y، O)، pos=4, cex=.75) ##Y و O مشترک ###فرمان برای رسم 0 به میانگین نمرات. در غیر این صورت، به عنوان مثال، 0.6 به جای 0.60. par(font=1) text(-3.75, c(36,16,4), 0, pos=2) ###0 را به متن من اضافه کنید(-2.75, c(7,4), 0 , pos=2) ###add 0 to MO در این مرحله، 2 مشکل وجود داشت: 1. من pos=2 را انتخاب کردم تا همه مقادیر چپ باشند، که تنها در صورتی که مقادیر همه باشند، راه حل خوبی است. در همین راستا به محض اینکه یک مقدار منفی وجود دارد، مقادیر دیگر دقیقاً زیر یکدیگر نیستند. آزمون و خطاهای زیادی برای به دست آوردن 0 در جای مناسب وجود دارد، مشکل مشابهی که در زیر با _gu_ ###Command برای نوشتن Hedges *gu* در صورت لزوم، یعنی gu italic و u subscript داشتم، داشتم. text(6, 40, Hedges [95% CI], pos=2) par(font=3) text(4.93, 40, g, pos=2) text(5.02, 39.7, u, pos =2, cex=.75) آخرین دستور، فقط الان متوجه شدم که _k_ هنوز مورب نیست ### چند ضلعی خلاصه برای سه زیر گروه اضافه کنید par(font=2) addpoly(res.YoF, row=28.5, cex=1, mlab=FE Model (k = 7)) addpoly(res.YoFNoOutl, row=27.3, cex=1, mlab=FE مدل (k = 6)) addpoly(res.MxF, row=13.5, cex=1, mlab=FE Model (k = ( k = 6)) addpoly(res.OlFNoOutl، row=1.3، cex=1، mlab=FE Model (k = 5))}' | نمودار جنگل برای متاآنالیز نمایش میانگین ES با و بدون پرت |
92154 | من برخی از دادههای بیمار دارم و از یک مدل لجستیک برای کشف عواملی استفاده میکنم که ممکن است بر بیماری که برای بیماری شدید/غیر شدید (DV) در نظر گرفته میشود تأثیر بگذارد. بسیاری از متغیرها تعداد هستند. تعداد نسخهها در یک سال، تعداد کدهای تشخیص، ویزیتهای پزشک عمومی و غیره. برای مثال، ویزیتهای پزشک عمومی. معمولاً این به صورت 0، 1 یا 2+ بازدید در سال مدل می شود (بنابراین، دو متغیر ساختگی، هر کدام با 0 بازدید مقایسه می شود). هرگز به عنوان یک متغیر پیوسته مدلسازی نمیشود، زیرا ریسک به نتیجه خطی تصور نمیشود، بالای توزیع اغلب نامنظم است - و پزشکان از متغیرهای پیوسته متنفرند...! با این حال، استفاده از 0/1/2+ بسیار ساده به نظر می رسد و من روش دیگری را برای تعیین سطل بالایی در نظر گرفتم. رویکردی که من سعی میکنم مدلسازی IV به تنهایی در مقابل DV با استفاده از سطلهای متعدد (مانند 0/1+، 0/1/2+، 0/1/2/3+) و ذخیره امتیاز AICc برای هر یک است. سپس امتیاز را برای هر مدل ترسیم می کنم و مدلی را که کمترین امتیاز را دارد (با توجه به معقول بودن آن) انتخاب می کنم. آیا این یک رویکرد معتبر است؟ یا ممکن است راه دیگری برای مدل استنباطی وجود داشته باشد؟ ممنون، ریچارد | استفاده از AIC برای انتخاب سطل بالایی برای متغیر شمارش |
50765 | من برای یک استارتآپ کوچک در حوزه فناوری کار میکنم و میخواهم کاربران را بر اساس دامنه آدرس ایمیلشان به جمعیتشناسی طبقهبندی کنم. هنگامی که کاربران در سایت ما ثبت نام می کنند، می توانند یک دسته شغلی را وارد کنند یا دیگر را انتخاب کنند. هدف این است که تا آنجا که ممکن است از نوع دیگر با استفاده از رویکرد کیف-و-ورد طبقه بندی شود. برای این کار کدی در پایتون نوشته ام. برای هر کاربر، به نام دامنه آدرس ایمیل آنها نگاه می کنم و متن را از صفحه اصلی آنها می نویسم (با استفاده از سوپ زیبا). من همچنین به دنبال صفحه درباره ما می گردم که آن را نیز می خراشم. چیزی که برای من باقی مانده است نقشه دامنه به متن است. برخی از دامنهها طبقهبندی میشوند (یعنی کاربرانی که آدرس ایمیل آنها از این دامنه میآید، انواع شغل خود را خود طبقهبندی کردهاند)، و برخی دیگر طبقهبندی نشدهاند (آن دسته از کاربرانی که خود را به عنوان «دیگر» طبقهبندی کردهاند). کل مجموعه دادهها برای کاربران طبقهبندیشده حدود 2000 است (غفلت از دامنههایی مانند gmail و hotmail و [من نمیتوانم باور کنم که میخواهم این را تایپ کنم] aol). من از تقسیم قطار/آزمایش 75/25 استفاده می کنم. با استفاده از «scikits-learn»، سعی میکنم یک طبقهبندی ساده را پیادهسازی کنم، اما به نظر میرسد مشکلی در مورد همگرایی یا عملکرد وجود دارد. به نظر می رسد مجموعه داده خیلی بزرگ نیست، اما به نظر می رسد دو طبقه بندی کننده ای که من امتحان کرده ام (Perceptron و RidgeClassifier) مشکلاتی برای یافتن مناسب دارند. من واقعاً سعی نکردهام پارامترهای طبقهبندیکنندهها را تغییر دهم و برای من روشن نیست که کدام نوک را باید بچرخانم. من نسبت به این مشکل شهودی ندارم و تشخیص اینکه آیا مشکلاتی که دارم به دلیل داده های کافی نیست یا چیست، برایم دشوار است. من می خواهم بدانم * آیا من درخت اشتباهی پارس می کنم؟ کسی همچین چیزی رو امتحان کرده و درست کرده؟ * آیا سایر بستههای ML برای پایتون کار طبقهبندی متن را بهتر انجام میدهند؟ (من به شما نگاه می کنم، nltk.) * آیا مجموعه داده های من به اندازه کافی بزرگ است؟ آیا قوانین سرانگشتی برای مقدار داده ای که برای چیزی شبیه به این (~5-10 دسته) نیاز دارید وجود دارد؟ * مدت زمان معقولی برای یادگیری چقدر است؟ آیا نکاتی وجود دارد که تفاوت بین این واقعاً سخت است و این کار نمی کند به من بگوید؟ * سعی کرده ام مثال های اینجا و اینجا را دنبال کنم. این نمونهها بسیار سریع هستند، بنابراین من را نگران میکند که دادههای کافی برای انجام کارها به خوبی نداشته باشم. آیا مشکل طبقهبندی «20 گروه خبری» معمولی است یا به این دلیل که به راحتی قابل حل است ظاهر میشود؟ هر گونه راهنمایی در اینجا قدردانی خواهد شد! * * * به عنوان یک به روز رسانی: به نظر می رسد موفقیت بزرگ عملکرد از بردار آمده است: یعنی چیزی که بردار کلمات را به واقعیات ترسیم می کند. بنا به دلایلی، Tfidf زمان زیادی را صرف کرد تا کار خود را انجام دهد --- من به یک بردار متفاوت تغییر دادم، و اکنون همه چیز به سرعت اجرا می شود. در رابطه با یادگیری واقعی، متوجه شده ام که روتین های ساده بیز به خوبی کار می کنند (نمره f حدود 70-75٪ که در حال حاضر به اندازه کافی خوب است). با این حال، مدلی که من پیدا کردم بهترین کار را انجام می دهد، مدلی است که بر اساس یک SVM خطی (`scikits.svm.LinearSVC`) است، که من را در محدوده 80-85٪ با کمی سرهم بندی قرار می دهد. | طبقه بندی متن ساده: طبقه بندی برای همیشه؟ |
92150 | در واقع، فکر میکردم فهمیدهام که با طرح وابستگی جزئی میتوان چه چیزی را نشان داد، اما با استفاده از یک مثال فرضی بسیار ساده، نسبتاً متحیر شدم. در قطعه کد زیر، من سه متغیر مستقل (_a_، _b_، _c_) و یک متغیر وابسته (_y_) ایجاد می کنم که _c_ یک رابطه خطی نزدیک با _y_ نشان می دهد، در حالی که _a_ و _b_ با _y_ همبستگی ندارند. من یک تحلیل رگرسیون با درخت رگرسیون تقویت شده با استفاده از بسته R gbm انجام می دهم: a <- runif(100, 1, 100) b <- runif(100, 1, 100) c <- 1:100 + rnorm(100 ، میانگین = 0، sd = 5) y <- 1:100 + rnorm(100، میانگین = 0, sd = 5) par(mfrow = c(2,2)) plot(y ~ a); طرح (y ~ b); نمودار (y ~ c) داده <- data.frame(ماتریس(c(y, a, b, c), ncol = 4)) names(Data) <- c(y، a، b , c) library(gbm) gbm.gaus <- gbm(y ~ a + b + c, data = data, توزیع = gaussian) par(mfrow = c(2,2)) plot(gbm.gaus, i.var = 1) plot(gbm.gaus, i.var = 2) plot(gbm.gaus, i.var = 3) جای تعجب نیست که برای متغیرهای _a_ و _b_ نمودارهای وابستگی جزئی به صورت افقی به دست می آیند. خطوط اطراف میانگین _a_. چیزی که من معما می کنم، طرح متغیر _c_ است. من خطوط افقی را برای محدوده های _c_ < 40 و _c_ > 60 دریافت می کنم و محور y به مقادیر نزدیک به میانگین _y_ محدود می شود. از آنجایی که _a_ و _b_ کاملاً با _y_ نامرتبط هستند (و بنابراین اهمیت متغیر در مدل 0 است)، انتظار داشتم که _c_ وابستگی جزئی را در کل محدوده خود به جای آن شکل سیگموید برای محدوده بسیار محدودی از مقادیر خود نشان دهد. من سعی کردم اطلاعاتی را در فریدمن (2001) تقریب تابع حریص: ماشین تقویت کننده گرادیان و در Hastie et al. (2011) عناصر یادگیری آماری، اما مهارت های ریاضی من برای درک تمام معادلات و فرمول های موجود در آن بسیار کم است. بنابراین سوال من: چه چیزی شکل نمودار وابستگی جزئی را برای متغیر _c_ تعیین می کند؟ (لطفاً با کلمات قابل فهم برای یک غیر ریاضیدان توضیح دهید!) اضافه شده در 17 آوریل 2014: در حالی که منتظر پاسخ بودم، از داده های مثال مشابهی برای تجزیه و تحلیل با بسته R randomForest استفاده کردم. نمودارهای وابستگی جزئی randomForest بسیار بیشتر شبیه چیزی است که من از نمودارهای gbm انتظار داشتم: وابستگی جزئی متغیرهای توضیحی _a_ و _b_ به طور تصادفی و نزدیک به 50 تغییر می کند، در حالی که متغیر توضیحی _c_ وابستگی جزئی را در کل محدوده آن نشان می دهد (و تقریباً بیش از کل محدوده _y_). دلایل این اشکال مختلف نمودارهای وابستگی جزئی در gbm و randomForest چه می تواند باشد؟  در اینجا کد اصلاح شده ای که نمودارها را مقایسه می کند: a <- runif(100, 1, 100) b <- runif (100، 1، 100) c <- 1:100 + rnorm(100، میانگین = 0، sd = 5) y <- 1:100 + rnorm(100، میانگین = 0، sd = 5) par(mfrow = c(2،2)) نمودار(y ~ a); طرح (y ~ b); نمودار (y ~ c) داده <- data.frame(ماتریس(c(y, a, b, c), ncol = 4)) names(Data) <- c(y، a، b , c) library(gbm) gbm.gaus <- gbm(y ~ a + b + c, data = data, توزیع = gaussian) library(randomForest) rf.model <- randomForest(y ~ a + b + c، داده = داده) x11 (ارتفاع = 8، عرض = 5) par(mfrow = c(3،2)) par(oma = c(1،1،4،1)) plot(gbm.gaus, i.var = 1) partialPlot(rf.model, Data[,2:4], x.var = a) plot(gbm.gaus, i.var = 2) partialPlot(rf.model، Data[,2:4]، x.var = b) plot(gbm.gaus، i.var = 3) partialPlot(rf.model، Data[,2:4]، x.var = c) عنوان (اصلی = درخت رگرسیون تقویت شده، بیرونی = TRUE، adj = 0.15) عنوان (اصلی = جنگل تصادفی، بیرونی = TRUE، adj = 0.85) | پاسخ: در نمودارهای وابستگی جزئی gbm و RandomForest چه می بینم؟ |
35029 | من در تلاش برای ساختن داده های مصنوعی هستم که دو گروه مجزا را در یک نمودار PCA نشان می دهد. با این حال، دو گروه هنوز هم باید کمی همپوشانی داشته باشند. رویکردهای زیر نزدیکترین فاصله را داشتند، اما من هنوز از آن راضی نیستم. حتی تغییر پارامترها در «rnorm» و «runif» نیز جواب نداد. یک گروه همیشه گسترش بسیار بیشتری نسبت به گروه دیگر دارد. d1 <- {} d2 <- {} for(i در 1:20) { d1 <- cbind(d1, rnorm(20, mean=100, sd=10)) d2 <- cbind(d2, rnorm(20, mean=110، sd=5)) # d1 <- rbind(d1، runif(100، 1,4)) # d2 <- rbind(d2, runif(100, 1,3)) } d <- as.data.frame(rbind(d1,d2)) res <- prcomp(d, center = TRUE, scale = TRUE، na.action = na.omit) d$group <- as.factor(c(rep(g1، 20), rep(g2، 20))) ggplot(d، aes(V1،V2)) + geom_point(aes(رنگ = گروه)، اندازه=4) | داده های مصنوعی کمی همپوشانی برای نمودار PCA بسازید |
55734 | من سعی میکنم بهترین توزیع را برای تطبیق برخی دادهها پیدا کنم، و مطمئن نیستم کاری که انجام میدهم از نظر آماری درست باشد یا خیر. داده های من شامل 20 نمونه در سال در طول 10 سال است. برای هر نمونه یک الگوریتم برازش توزیع (با استفاده از fitdistr() در R) اجرا کرده ام تا پارامترهای تخمین زده شده برای هر نوع توزیع را بدست آوریم. من توزیع های گاما، کای دو، ویبول و لگ نرمال را آزمایش می کنم. گام بعدی من این بود که آزمایش کولموگروف اسمیرنوف را با استفاده از داده های نمونه اجرا کنم و پارامترها را همانطور که از آن داده ها تخمین زده شده است تنظیم کنم. میخواستم ببینم کدام توزیع «بهترین» کلی است (کمترین میانگین p-value برای همه 200 نمونه)، و بگویم که این توزیعی بود که دادههای من توضیح داد. من خوانده ام که استفاده از آزمون KS به این روش نادرست است و مقادیر p به دست آمده قابل اعتماد نیستند. من مطمئن نیستم که آیا می توانم از آزمون KS به این روش استفاده کنم یا اینکه باید تخمین حداکثر احتمال را انجام دهم. | آزمایش یک مجموعه داده در برابر یک توزیع با پارامترهای تخمین زده شده از آن مجموعه داده |
35021 | من در حال حاضر با توزیع های زیادی سر و کار دارم، به عنوان مثال، $F$، $t$، $\chi^2$. من متعجب بودم که چرا این درجات آزادی برای توزیع هایی مانند توزیع $F(m,n)$ دلالت دارند؟ | درجات آزادی یک توزیع چیست؟ |
55739 | آیا فرارویکردی (یا شاید باید بگویم رویکرد جهانی که با معیارهای مختلف کار میکند) برای انتخاب متغیری وجود دارد که بر اساس ماتریس شباهت است که هر ورودی «S[i,j]» حاوی مقدار «M(X_i,X_j)» است. \- اطلاعات متقابل، همبستگی، reg.coef.، R2 رگرسیون و غیره بین دو متغیر؟ در مورد معیارهای نامتقارن مانند واگرایی KL و آنتروپی شرطی، این می تواند رویکردی مبتنی بر الگوریتم هایی مانند رتبه صفحه باشد. | آیا فرارویکردی برای انتخاب متغیر بر اساس معیارهای شباهت بین هر دو متغیر وجود دارد؟ |
32552 | من یک مدل VAR دارم که مقادیر بسیار پایین $R^2$ (زیر 0.05) را نشان می دهد. این یعنی مدل من خیلی بد توضیح میده؟  | آیا مقادیر پایین $R^2$ به این معنی است که مدل خودرگرسیون برداری من بد است؟ |
111554 | معمول است که نرخ خطای انواع شبکه های عصبی را در یک جدول به تصویر بکشید، برای مثال به وب سایت MNIST مراجعه کنید. با این حال، به دلیل عدم قطعیت ناشی از مقدار اولیه وزن، نرخ خطای واقعی ممکن است حتی تحت یک تنظیم واحد از فراپارامترها متفاوت باشد. بنابراین سؤال من این است: معمولاً چه آماری از چندین اجرا نشان داده می شود؟ آیا نرخ های خطای گزارش شده، میانگین نرخ های خطا است؟ آیا آنها حداقل میزان خطا هستند؟ | نرخ خطای گزارش شده در شبکه های عصبی |
96418 | من متن را با یافتن احساسات آن تجزیه و تحلیل کرده ام. اساسا یک فایل بزرگ با متن و احساسات مرتبط با آن داشته باشید. با انجام یادگیری ماشینی به دست می آید. استفاده از الگوریتم رگرسیون لجستیک حالا میخواهم تحلیلهایی مانند آمار، تجسمها، نمودارها و غیره انجام دهم. برای مثال، چه نوع تحلیلی را میتوانم روی دادهها انجام دهم، فرض کنید دادههای توییتر و احساسات آن از هر توییت را داشته باشم، پس احتمالات مختلف چیست. تجزیه و تحلیل داده ها می توانم انجام دهم؟ هدف من این است که مجموعه داده را به یک برنامه وب تبدیل کنم تا کاربران بتوانند آن را با تجسمهای تعاملی، آمار، نمودارها و غیره امتحان کنند. همچنین، اگر بتوانید حتی API یا ابزارهایی را پیشنهاد دهید، مفید خواهد بود. | یادگیری ماشینی مجموعه داده های به دست آمده از یادگیری ماشین را تجسم می کند |
73869 | یک متغیر سرکوبگر در رگرسیون چندگانه چیست و چه راه هایی برای نمایش اثر سرکوب به صورت بصری (مکانیک آن یا شواهد آن در نتایج) ممکن است وجود داشته باشد؟ من می خواهم از همه کسانی که فکری دارند دعوت کنم تا به اشتراک بگذارند. | اثر سرکوب در رگرسیون: تعریف و توضیح/تصویر بصری |
110899 | معمولاً خطای طبقه بندی نادرست نرمال شده چگونه محاسبه می شود؟ من می خواهم فرمول یک مشکل کلاس 2 با اندازه $s_1, s_2$ و برای یک مشکل کلاس k با اندازه $s_1,\dots, s_k$ را بدانم همچنین می خواهم بدانم بسته r randomForest از چه فرمولی استفاده می کند. خطای طبقه بندی اشتباه را در یک مسئله کلاس $k$ محاسبه کنید. | چگونه می توان خطای طبقه بندی اشتباه نرمال شده و خطای طبقه بندی اشتباه را محاسبه کرد؟ |
111417 | آیا معنای «انتخاب پذیری» همان «احتمال» برنده شدن است؟ روشی که من در حال حاضر درک میکنم، وقتی یک نظرسنجی میگوید «قابلیت انتخاب اوباما 63 درصد است، به این معنی است: X شانس (؟) وجود دارد که اوباما 63 درصد از کل آرا را به دست آورد.» [به هر حال، اگر وجود داشته باشد، آن X چیست]. از این نظر انتخاب پذیری با احتمال یکسان نیست (مانند تلنگر سکه). زیرا در مورد ورق سکه، 63% به این معنی است: اگر آزمایش های زیادی را در مورد ورق سکه انجام دهیم، در 63% موارد اوباما برنده خواهد شد (تعداد آرا در اینجا بی ربط است). درست متوجه شدم؟ من سعی می کردم از طریق گوگل به پاسخ هایی برسم، اما تاکنون مقاله ای پیدا نکرده ام که به طور خاص رابطه بین این دو مفهوم را توضیح دهد. === UPDATE 1: Mmm .... فکر می کنم همینطور است. ترجیح توسط یک فرد می تواند به عنوان یک آزمایش (مانند تلنگر سکه) دیده شود. بنابراین، اگر آنها بگویند 63% انتخاب پذیری، معنایش این است: از N آزمایش (افراد مورد بررسی، یا اگر بخواهید سکه را برگردانید)، در 63٪ موارد (یا 63٪ از آنها) اوباما انتخاب می شود. (یا در معادل گردان سکه: سر رو به بالا است). درسته؟ === به روز رسانی 2: پس چگونه آنها دقیقاً نظرسنجی انتخاب پذیری را انجام می دهند؟ من فکر نمیکنم به همین سادگی انتخاب شود، فرض کنید... از 2000 نفر پرسیده میشود، و به سادگی نسبت هر نامزد را از روی پاسخها محاسبه میکند. در مورد چرخاندن سکه (آزمایش برنولی)، سوگیری از قبل شناخته شده است. به همین دلیل، میتوانیم توزیع احتمال (نظری) را بسازیم، آن منحنی. از سوی دیگر، در مورد بررسی انتخاب پذیری، سوگیری ناشناخته است. این چیزی است که ما می خواهیم بفهمیم ... چگونه؟ فکر کنم با کسر...، از منحنی کسر می شود. بنابراین، ما باید تکنیکهایی را برای ایجاد آن منحنی، خارج از جامعه نمونه به کار ببریم. سپس می توان بایاس را از روی خواص آن منحنی محاسبه کرد. اکنون سؤال این است: آن تکنیکها برای ایجاد آن منحنی چیست؟ ===== آیا طرز فکر من در مورد این موضوع درست است؟ پیشاپیش ممنون راکا | رابطه بین انتخاب پذیری و احتمال |
9911 | من در آمار تازه کار هستم، و شاید این یک سوال تکراری باشد، اما نتوانستم مشابه آن را پیدا کنم. من سعی می کنم یک بعد از مجموعه داده خود را کاهش دهم. شاید _کاهش_ کلمه خوبی نباشد. من باید برخی از ابعادم را نمونه برداری کنم. **تنظیم** به عنوان مثال: * رویدادهای $M$ دارم (مثلاً $M \tilde{} 60$). همه آنها برچسب گذاری شده اند. * من $K$ آزمایش/تکرار دارم (مثلاً $K \tilde{} 10$ یا بیشتر). $K$ مجموعه های مختلف $M$ رویداد. بنابراین، من یک ماتریس $K\times M$ دارم حالا باید $N$ رویدادها را از میان $M$ از آنها به عنوان نمایندگان خود انتخاب کنم. من نیازی به کاهش مجموعه داده ندارم، فقط باید ستونهای $N$ (رویدادها) را از ماتریس $K\times M$ انتخاب کنم. این رویدادهای $N$ باید رفتار آزمایشی خاص را منعکس کنند. من در برچسب های مربوط به $N$ رویدادهای انتخابی جالب هستم. من میدانم که رویدادها کاملاً متفاوت هستند، و احتمالاً اگر همبستگی وجود داشته باشد، میتوان آن را غیرخطی و در بهترین حالت شاید خطی فرض کرد. علاوه بر این، من بهترین نمایندگی را می خواهم. به این معنی که $N$ یک ورودی نیست (البته $N < M$). **بحث** من PCA، هسته PCA و نمونه برداری را در نظر گرفتم. پس از مدتی مطالعه، موارد زیر را یافتم: * **PCA** مجموعه داده من را کاهش می دهد، اما فقط باید رویدادها را مشخص کنم. حتی اگر الگوریتم را خراب کنم، فقط مقادیر ویژه مناسب را انتخاب کنم و به مجموعه داده اصلی برگردم، PCA همچنان به صورت طرح ریزی خطی باقی می ماند. * **PCA هسته** اساساً غیرخطی است، اما همچنان به جای انتخاب رویداد خاص، مجموعه داده من را کاهش می دهد. * **نمونهگیری**، انواع مختلفی (تصادفی، سیستماتیک، طبقهبندی شده، خوشهای...) را مرور کردم اما نوع خاصی را پیدا نکردم. من به چیزی نیاز دارم تا ارتباط غیرخطی بین رویدادها را ثبت کنم. هر گونه اشاره یا توضیحی در مورد مشکل بسیار قدردانی خواهد شد. با تشکر | نمونهگیری از مجموعه داده، انتخاب از بین ابعاد N |
114595 | من می دانم که یادگیری ماشین ابزار بسیار محبوبی در داروسازی است. آیا کتابی وجود دارد که استفاده از یادگیری ماشین را در داروسازی توضیح دهد؟ | چه کتابی در مورد استفاده از یادگیری ماشین در داروسازی پیشنهاد می کنید؟ |
111413 | من اهل هند هستم، یک تازه کار در تحقیقات. آیا می توانید فقط به من بگویید که آیا می توانم نمودار سیگنال ECG را به عنوان ورودی بگیرم و شیب این سیگنال پیوسته را در هر نقطه معین از نمودار پیدا کنم. من باید مجموع شیب ها را از سیگنال ECG ورودی دریافت کنم. آیا ابزار/روشی برای انجام این فعالیت یافتن شیب وجود دارد؟ من در ر. | ارزیابی مجموع شیب های یک سیگنال |
18847 | من به دنبال لیستی از الگوریتم های تصادفی برای تخمین احتمالات هستم. | آیا روش تصادفی برای تقریب احتمال وجود دارد؟ |
55738 | من داده های شبکه اجتماعی 100 مخزن منبع باز را دارم. داده ها شامل 12 عکس فوری (1 عکس برای هر ماه از سال) از شبکه ها برای چندین مخزن است. از این میان، من میخواهم سریهای زمانی را برای ویژگیها/آمارهای مختلف SNA استخراج کنم، مانند جداول زیر: **جدول: مخزن شماره 1** گراف اتصال مرکزی Hiearchy Jan.5 0.8.1 Feb.6.9.2 Mar. .7 .7 .2 **جدول: مخزن شماره 2** مرکزیت گراف ارتباط سلسله مراتبی ژانویه .3 .5 .1 فوریه 0.6 .3.4 Mar 0.2.7.2 و غیره...تا مخزن شماره 100 اکنون میخواهم خوشههایی از پروژههایی را شناسایی کنم که ویژگیهای شبکه اجتماعی مشابهی دارند، زیرا در طول زمان پیشرفت میکنند. مناسب ترین تکنیک برای خوشه بندی پروژه ها بر اساس چندین سری زمانی به طور همزمان چیست؟ | نحوه خوشه بندی مسیرهای زمانی آمار شبکه های اجتماعی مختلف |
56422 | آیا تنها با استفاده از همبستگی های زوجی می توان یک نقشه خوشه ای ایجاد کرد؟ اگر متغیرهای $4$ داشته باشیم، همبستگیهای زوجی متمایز $\binom{4}{2}+4$ وجود دارد. بنابراین در هر دو محور x و محور y چهار متغیر خواهیم داشت. متغیرهای با همبستگی زیاد نزدیک به هم و متغیرهای همبسته پایین تر با فاصله بیشتر از هم رسم می شوند. | ایجاد نقشه خوشه ای |
111411 | من مدت زیادی را صرف تماشای این سری از ویدیوها (آموزش شبکه عصبی)، توسط رایان هریس کرده ام: https://www.youtube.com/watch?v=Q_5B3GuWPCc&index=41&list=PL29C61214F2146796 من از کتابخانه های او برای پیاده سازی خودم استفاده می کنم. راه حل هدف من این است که بتوانم یک شبکه عصبی را برای تشخیص تصویر قوطی کوکاکولا آموزش دهم. من چندین عکس 80 در 108 پیکسل از قوطی ها دارم. بنابراین این بدان معناست که من به یک لایه 6480 ورودی نیاز دارم. هدف من خروجی آن به یک خروجی است، در حالت ایدهآل این خروجی در مقیاس 0 تا 1 نشان داده میشود. مقادیر نشان میدهند که شبکه چقدر مطمئن است که یک قوطی کوکاکولا است. برای مثال 0.30 30 درصد مطمئن خواهد بود. من به دنبال منابع یا نشانگرهایی هستم که به من نشان دهند چگونه این کار انجام می شود. با تشکر از هر کمکی که می توانید ارائه دهید | شبکه های عصبی و تشخیص تصویر |
56425 | خط LSR را در نظر بگیرید: y = 1158.86 - 5.54x یک محقق به دنبال بررسی تأثیر میانگین حقوق معلمان بر میانگین (کل) نمره SAT بود. دادهها که در سطح ایالت اندازهگیری شد، بنابراین 50 مشاهده در کل، میانگین حقوق معلمان (با هزاران دلار اندازهگیری شده) و میانگین نمرات SAT از 1600 امتیاز (فرمت SAT قدیمی) بودند. میانگین حقوق معلمان آلاباما (به هزار دلار) 31.14 و میانگین نمره SAT 1029 است. بر اساس خط رگرسیون حداقل مربعات، مقدار باقیمانده برای ایالت آلاباما چقدر است؟ کسی میتونه توضیح بده که باقیمانده چیست؟ چگونه محاسبه کنم که در این مورد چیست؟ چرا آنها به طور خاص در مورد آلاباما اطلاعاتی به من می دهند (یعنی حقوق و امتیاز)؟ | یافتن ارزش باقیمانده |
8328 | من سعی می کنم یک الگوریتم EM را برای مدل تحلیل عاملی زیر پیاده سازی کنم. $$W_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n$$ که در آن $W_j$ بردار تصادفی p-بعدی است، $a_j$ یک بردار بعد q است. از متغیرهای پنهان و $B$ یک ماتریس pxq از پارامترها است. در نتیجه سایر مفروضات استفاده شده برای مدل، من می دانم که $W_j\sim N(\mu, BB'+D)$ که در آن $D$ ماتریس کوواریانس واریانس عبارت های خطا $e_j$، $D$ = دیاگ است. ($\sigma_1^2$،$\sigma_2^2$،...،$\sigma_p^2$). برای اینکه الگوریتم EM کار کند، من تکرارهای گنبدی را انجام میدهم که شامل تخمین ماتریسهای $B$ و $D$ است و در طول این تکرارها، معکوس $BB'+D$ را در هر تکرار با استفاده از تخمینهای جدید $B محاسبه میکنم. $ و $D$. متأسفانه در طول تکرارها، $BB'+D$ قطعیت مثبت خود را از دست می دهد (اما نباید اینطور باشد زیرا یک ماتریس واریانس کوواریانس است) و این وضعیت همگرایی الگوریتم را خراب می کند. سوالات من این است: 1. آیا این وضعیت نشان می دهد که مشکلی در الگوریتم من وجود دارد زیرا احتمال باید در هر مرحله از EM افزایش یابد؟ 2. راه های عملی برای قطعیت مثبت ماتریس چیست؟ ویرایش: من معکوس را با استفاده از یک لم وارونگی ماتریس محاسبه می کنم که بیان می کند: $$(BB'+D)^{-1}=D^{-1}-D^{-1}B (I_q+B 'D^{-1}B)^{-1} B'D^{-1}$$ که در آن سمت راست فقط معکوس ماتریس های $q\times q$ را شامل می شود. | چگونه یک ماتریس را مثبت قطعی کنیم؟ |
107944 | من یک کارشناس غیر آماری هستم که یک الگوریتم تصادفی سازی را آزمایش می کنم. اگر یک نمونه سایز 100 (توپ های شماره دار) با جایگزینی داشته باشم و 50 نمونه از این قبیل به طور مستقل کشیده شده باشد. طبق درک من، توزیع دو جمله ای به خوبی این شانس را که یک توپ شماره دار خاص در هیچ یک از قرعه کشی ها انتخاب نشده است را توصیف می کند (0.605). اگر پس از جمع کردن تمام اعداد ترسیم شده، احتمال اینکه مثلاً 40 یا بیشتر از توپ های شماره گذاری شده (هر 40) در هیچ یک از 50 نمونه انتخاب نشده باشد چقدر است (یعنی هر 40 توپ شمارش/شمارش 0 باشد)؟ در صورت امکان، آیا پاسخ بدون آرگومان های R (یا سایر نرم افزارهای آماری) است، زیرا من می خواهم منطق را درک کنم، نه اینکه صرفاً به نتیجه برسم. متشکرم. ### ویرایش با تشکر از whuber، این سوال از استفاده اشتباه قبلی آن از کلمه Permutations تغییر یافته است. در پاسخ به نظر دوم (که احتمالاً به عنوان نظر مناسب نیست)، استفاده دقیق از این به عنوان بخشی از شبیهسازی مونت کارلو از یک الگوریتم تصادفیسازی است. من در حال نوشتن یک الگوریتم تصادفی سازی در سی شارپ هستم که کاملاً پیچیده است، با اندازه بلوک های متغیر (از آنجایی که دوقلوهای همجنس باید به طور تصادفی به یک بازو تقسیم شوند)، 2 مداخله مختلف و 1 بازوی کنترل، و نسبت متفاوتی از 2 مداخله بازوها من قبل از ارائه به سایتهای آزمایشی، آزمایشهایی را روی الگوریتم اجرا میکنم. اگر اندازه بلوک به عنوان مثال 8 باشد، با 4 مورد دریافت درمان a، 2 مورد درمان b، و 2 کنترل، جایگشت های $$\frac{8!}{4!2!2!}$$ ترتیب تخصیص وجود خواهد داشت. این بلوک میخواستم بررسی کنم که آیا جایگشتهای احتمالی پس از هزاران بار اجرا ایجاد نشده است یا خیر، و اگر نه، احتمال وجود n جایگشت استفاده نشده چقدر است. | احتمال داشتن شمارش 0 در متغیرهای x پس از نمونه برداری با جایگزینی |
9918 | من ماتریسی از 1000 مشاهده و 50 متغیر دارم که هر کدام در مقیاس 5 درجه ای اندازه گیری شده اند. این متغیرها در گروههایی سازماندهی شدهاند، اما تعداد متغیرهای مساوی در هر گروه وجود ندارد. من میخواهم دو نوع همبستگی را محاسبه کنم: 1. همبستگی در گروههای متغیرها (در میان ویژگیها): معیاری برای سنجش اینکه آیا متغیرهای درون گروه متغیرها یک چیز را اندازهگیری میکنند یا خیر. 2. همبستگی بین گروههای متغیر: برخی از اندازهگیریها، با فرض اینکه هر گروه یک ویژگی کلی را منعکس میکند، چگونگی ارتباط هر صفت (گروه) با هر صفت دیگر را اندازهگیری میکند. این ویژگی ها قبلاً در گروه هایی طبقه بندی شده اند. من علاقه مند به یافتن همبستگی بین گروه ها هستم - به عنوان مثال فرض کنیم که ویژگی های درون گروه همان ویژگی اساسی را اندازه گیری می کنند (با تکمیل شماره 1 بالا - آلفای کرونباخ)، آیا خود صفات به هم مرتبط هستند؟ آیا کسی پیشنهادی دارد که از کجا شروع کنم؟ | چگونه می توان همبستگی بین / درون گروهی از متغیرها را محاسبه کرد؟ |
78973 | سلام من به دنبال مقایسه تناسب یک مدل مخلوط با باد صفر و یک مدل مخلوط پواسون هستم، اثرات تصادفی در هر دو مدل متفاوت است. مقایسه مقادیر برازش هر دو مدل، پیچیدگی مدلها را نادیده میگیرد و استفاده از روشهای انتخاب مدل مانند DIC، AIC و غیره، به دلیل تفاوت در توزیع مخلوط، تمرین مستقیمی نیست... بنابراین من نمیدانم که آیا راه بهتری وجود دارد؟ ممنون | مدل های تورم صفر در مقابل مدل مخلوط عمومی |
110898 | من یک KDE دارم که با یک نمونه بزرگ به دست آمده است ($n=10000$). با توجه به اینکه این به عنوان میانگین هسته ارزیابی شده در $n$ امتیاز تعریف می شود، ارزیابی این هسته کد من را کند می کند (من باید هزاران بار آن را ارزیابی کنم). میخواستم بدانم آیا ترفندی وجود دارد که هر بار که KDE را ارزیابی میکنم، میانگین امتیازهای $n$ را در نظر نگیریم؟ | ارزیابی سریع KDE تک متغیره؟ |
22414 | یک سوال سریع در مورد انتخاب پارامتر برای یک SVM داشته باشید. من از هسته rbf استفاده می کنم، بنابراین سعی می کنم C و گاما را بهینه کنم. من یک مجموعه نمونه از حدود 4500، حدود 700 ویژگی، و استفاده از 700 نمونه از مجموعه برای تست دارم. مجموعه داده من شامل سری های زمانی است. من از اعتبار سنجی متقاطع 5 برابری با جستجوی شبکه ای برای یافتن پارامترهای بهینه برای مجموعه تست استفاده کرده ام و به تفاوت های نسبتاً زیادی بین دقت مجموعه تمرینی خود در مقابل دقت مجموعه آزمایشی خود ادامه داده ام. توجه داشته باشید، با این حال، وقتی میگویم دقت، ماتریس هزینه را هنگام ارزیابی تناسب مدل اعمال کردهام، به طوری که کلاسهای خاصی در صورت طبقهبندی اشتباه هزینههای بسیار بالاتری دارند (توجه داشته باشید که svm را با وزنهای کلاس نابرابر اجرا کردم). از آنجایی که دادههای من یک سری زمانی هستند، نمیخواهم از روشی متفاوت از اعتبارسنجی متقاطع استفاده کنم یا خیر. ارزیابی پنجره متحرک یا چیزی مشابه. آیا اعتبار متقابل بهترین رویکرد است؟ آیا راه های دیگری برای جستجوی پارامترهای بهینه وجود دارد؟ و همچنین، آیا راههایی برای افزایش سرعت جستجوی پارامتر وجود دارد (من شنیدهام که از الگوریتمهای حداقل یافتن به عنوان جایگزینی برای جستجوی شبکهای استفاده میکنم که در نظر دارم پیادهسازی کنم)؟ هر گونه فکری بسیار استقبال خواهد شد. با تشکر | انتخاب پارامتر SVM و اعتبارسنجی متقابل |
22417 | من دانشجوی دکترای جغرافیا هستم، به کمک (یا منابع خوب) نیاز دارم تا بفهمم چرا و چه زمانی باید از PIT (تبدیل انتگرال احتمال) در برنامه اعتبارسنجی خود برای شبیه سازی استفاده کنم. من زمینه را توضیح می دهم: در واقع، من شبیه سازی های تصادفی زیادی را اجرا می کنم (بیش از 100000) زیرا از الگوریتم ژنتیک برای بهینه سازی مقادیر پارامترها در مدل خود استفاده می کنم. در این مدل، بر روی سیستم سکونتگاههای قدیم کار میکنیم و سعی میکنیم بهترین سلسله مراتب سکونتگاهها را به دست آوریم. برای به دست آوردن این نتیجه ما یک تناسب تابع خاص با هدف چند هدفه ایجاد می کنیم. یکی از این اهداف واقعاً سختگیرانه است، من تمام جمعیت خود را در پایان شبیهسازی میگیرم و سعی میکنم **lognormality** احتمالی این توزیع اندازه رتبه را آزمایش کنم => نتیجه خوب است یا خوب نیست... ! [توزیع اندازه رتبه](http://dudarev.github.com/datavis/006_rank_size.png) در واقع، من از یک آزمون کلموگروف کلاسیک برای تایید/بی اعتبار کردن منطقی بودن داده های جمعیت شهر من، اما _ouch_، این توزیع در پایان شبیه سازی ناشناخته است، بنابراین از این مرحله برای حل این مشکل استفاده می کنم: 1 - سعی می کنم انحراف معیار و میانگین توزیع ناشناخته خود را تخمین بزنم. با روش MLE (http://en.wikipedia.org/wiki/Maximum_likelihood) 2 - با std و میانگین برای پارامتر، یک lognormal جدید ایجاد می کنم توزیع، به نام توزیع نظری تولید شده 3 - من با استفاده از روش تبدیل انتگرال احتمال یا PIT یک تبدیل یکنواخت روی داده های خود ایجاد می کنم. _اما در اینجا من این مرحله را متوجه نمی شوم، چرا نمی توانم مستقیماً از داده های خود استفاده کنم، شاید بتوانید مرا در این مورد روشن کنید؟_ ... 4 - من توزیع نظری تولید شده را با داده های شبیه سازی مرتب شده پس از تبدیل یکنواخت مقایسه می کنم. (مرحله 3) 5 - پس از آن مقدار p و مقدار D را استخراج می کنم تا منطقی بودن داده های شبیه سازی خود را اعتبار / باطل کنم. حالا سوال من در مورد این روش: * من آمارگیر نیستم، پس شاید این مراحل نادرست باشند... در این صورت، می توانید مرحله با مشکل را برای من توضیح دهید؟ * همچنین، من مرحله 3 و لزوم تبدیل انتگرال احتمال داده های شبیه سازی خود را در اینجا درک نمی کنم، آیا می توانید در این مورد به من توضیح دهید؟ * آیا فکر میکنید من میتوانم از این روش و ks.test فقط با 100 شهر در مدل خود استفاده کنم، بنابراین فقط 100 مقدار در نمونه مورد استفاده در تست lognormality استفاده میشود؟ **به روز رسانی 1** کدی که PITS را اجرا می کند: def evalKs(نمونه: Array[Double],dist:LognormalDist)= { data = new DoubleArrayList(sample) v = data.elements n = data.size val dataUnif = unifTransform (داده، دور) dataUnif.quickSortFromTo (0، dataUnif.size - 1) ret = kolmogorovSmirnov (dataUnif) } کد unifTransform در کتابخانه SSJ GOFStat (http://www.iro.umontreal.ca/~simardr/ssj/doc/html/umontreal/iro/lecuyer/gof/GofStat.html ): عمومی استاتیک DoubleArrayList unifTransform (داده های DoubleArrayList, DiscreteDistribution dist) { double[] v = data.elements(); int n = data.size(); double[] u = new double[n]; برای (int i = 0; i < n; i++) u[i] = dist.cdf ((int)v[i]); بازگشت DoubleArrayList جدید (u); } در کلاس LognormalDist (به طور پیش فرض mu = 0، sigma = 1) : public double cdf (double x) { return cdf (mu, sigma, x); } public static double cdf (double mu, double sigma, double x) { if (sigma <= 0.0) throw new IllegalArgumentException (sigma <= 0); اگر (x <= 0.0) 0.0 را برگرداند. بازگشت NormalDist.cdf01 ((Math.log (x) - mu)/sigma); } در کلاس NormalDist public static double cdf01 (double x) { /* * P[X < x] را برای توزیع عادی برمیگرداند. * همانطور که در J. L. Schonfelder، Math. محاسبات، جلد. 32، * pp 1232--1240، (1978). */ t دو برابر، r; اگر (x <= -XBIG) 0.0 برگرداند. اگر (x >= XBIG) 1.0 را برگرداند. x = -x/Num.RAC2; if (x < 0) { x = -x; t = (x - 3.75) / (x + 3.75); r = 1.0 - 0.5 * Math.exp ( -x * x) * Num.evalCheby (NORMAL2_A، COEFFMAX، t)؛ } else { t = (x - 3.75) / (x + 3.75); r = 0.5 * Math.exp ( -x * x) * Num.evalCheby (NORMAL2_A، COEFFMAX، t)؛ } return r; } از راهنمایی شما بسیار متشکریم، منتقدان در مورد این دانش آموزان در حال پیشرفت هستند :) SR | روش شناسی اعتبار سنجی شبیه سازی های تصادفی با آزمون کولموگروف-اسمیرنوف |
114594 | من سه گروه درمانی دارم که در سه منحنی تجمعی نشان داده شده اند. بهترین آزمایش برای نشان دادن تفاوت بین آنها چیست. دانستن اینکه تیمارها به صورت تجمعی تنها به مدت هفت روز مشاهده شدند. | آزمون آماری برای منحنی های تجمعی |
26300 | همبستگی دلالت بر علیت ندارد، زیرا ممکن است توضیحات زیادی برای همبستگی وجود داشته باشد. اما آیا علیت دلالت بر همبستگی دارد؟ به طور شهودی، من فکر می کنم که وجود علیت به این معنی است که لزوماً همبستگی وجود دارد. اما شهود من همیشه در آمار به من کمک نکرده است. آیا علیت دلالت بر همبستگی دارد؟ | آیا علیت دلالت بر همبستگی دارد؟ |
100401 | اکنون استفاده از استنتاج بیزی برای یافتن بهترین راه حل برای برازش مدارهای سیارات فراخورشیدی رایج شده است. برای یافتن بهترین راهحل، باید یک فضای پارامتر بسیار بزرگ را کشف کرد و برخی از نویسندگان تکنیکی به نام _Truncated Posterior Mixture_ را برای تقریب احتمال حاشیه ای پیشنهاد می کنند. متأسفانه، به نظر می رسد برخی از افراد با آمار بیزی آشنایی دارند که در مورد کارایی آن تردیدهایی ایجاد می کنند. آیا کسی که با موضوع آشناست می تواند در صورت موجه بودن انتقاد نظر بدهد؟ با تشکر فراوان. | احتمال حاشیه ای و اختلاط خلفی کوتاه شده |
99726 | نمودار رگرسیون در جعبه ابزار شبکه عصبی Matlab چه چیزی را نشان می دهد؟ فکر میکردم وقتی به نمودار رگرسیون تک متغیره نگاه میکردم متوجه شدم، اما فقط یکی را برای رگرسیون چند متغیره ترسیم کردم، و برای من معنی ندارد. شبکه عصبی من 24 ورودی می گیرد و 3 خروجی می دهد. 24 ورودی 24 زاویه مختلف هستند و 3 خروجی موقعیت های (x,y,z) در فضای سه بعدی هستند. من انتظار دارم که تابع نگاشت این دو بسیار غیرخطی باشد، اما مطمئن نیستم. در اینجا طرح رگرسیون است، و در اینجا نمودار عملکرد است اگر کمک کند. نمودار رگرسیون چه چیزی را نشان می دهد؟ من اصلا این نمودار را درک نمی کنم. مطمئناً نمی تواند تابع را رسم کند زیرا به نموداری در 27 بعد (24 ورودی + 3 خروجی) نیاز دارد. 4 نمودار نشان دهنده چیست؟ برای من به نظر می رسد که می گوید تابع خطی است، آیا این درست است؟ | توضیح نمودار رگرسیون در جعبه ابزار شبکه عصبی Matlab |
55884 | واریانس برای Hit-and-Miss Monte Carlo با $Var(\theta)=\frac{\Theta*(1-\Theta)}{N}$ داده می شود که $\theta$ احتمال تخمینی Hit و N برابر است. تعداد شبیه سازی ها کسی میتونه توضیح بده چرا؟ و زمانی که از Importance Sampling استفاده می شود واریانس چقدر خواهد بود؟ | واریانس برای روش ضربه و از دست دادن مونت کارلو و نمونه گیری اهمیت |
55887 | من چند مقاله در مورد مزایا و معایب هر روش خواندهام، برخی استدلال میکنند که GA هیچ پیشرفتی در یافتن راهحل بهینه نمیکند در حالی که برخی دیگر نشان میدهند که موثرتر است. به نظر می رسد که GA به طور کلی در ادبیات ترجیح داده می شود (اگرچه اکثر مردم آن را به نحوی تغییر می دهند تا به نتایج مورد نیاز خود دست یابند)، پس چرا اکثر راه حل های نرم افزاری به نظر می رسد فقط از انتشار پس زمینه استفاده می کنند؟ آیا قاعده کلی برای استفاده از یک یا دیگری وجود دارد؟ شاید این به نوع NN بستگی دارد یا راه حل های پیشرفته ای وجود دارد که به طور کلی بهتر از سایرین است؟ در صورت امکان، من به دنبال پاسخ های کلی هستم: به عنوان مثال، اگر NN بزرگ است، GA بهتر است، یا GA همیشه بهتر است اما مشکلات عملکرد محاسباتی دارد و غیره... | پس انتشار در مقابل الگوریتم ژنتیک برای آموزش شبکه عصبی |
93289 | من روی یک مشکل طبقه بندی اسناد کار می کنم. من از مدل فضای برداری معمولی برای نشان دادن یک سند به عنوان بردار doc-term استفاده می کنم. اگر سند دارای یک اصطلاح باشد، ورودی برداری برای آن عبارت 1 است. اما با داده های آموزشی، می توانم اطلاعاتی را دریافت کنم که فکر می کنم ممکن است مفید باشد. این اصطلاح محبوبیت در هر دسته به ترتیب است. به صورت زیر تعریف میشود: $$ \text{محبوبیت} (\text{term}\ T, \text{category}\ X) = \frac{\text{اسناد متعلق به}\ X\ \text{containing}\ T}{\text{مجموع اسناد متعلق به}\ X} $$ این با مجموعه آموزشی محاسبه میشود. من معتقدم که این مقدار می تواند به عنوان **قابلیت بازنمایی** یک اصطلاح برای یک دسته خاص تفسیر شود، که به عبارت دیگر، محبوبیت این اصطلاح در یک دسته خاص است. من احساس می کنم که می تواند به نحوی بر وزن برداری برای یک ترم تأثیر بگذارد. اما من راه معقولی برای استفاده از آن پیدا نکرده ام. اگر بخواهم از این مقدار محبوبیت برای طبقه بندی یک سند جدید استفاده کنم، ابتدا باید دسته آن را بدانم (یا می دانم؟). این یک نوع معضل است. آیا کسی می تواند روشن کند؟ آیا این سرنخ می تواند در طبقه بندی مفید باشد؟ ## ADD 1 در اینجا اولین تلاش من برای استفاده از این مقدار محبوبیت است. برای هر سندی که باید طبقهبندی شود، در مورد دستهبندی آن فرض میکنم و بردار BIT را با مقادیر اصطلاح-محبوبیت برای آن دسته مفروض ضرب میکنم. و سپس، از برخی الگوریتم های یادگیری ماشین برای محاسبه احتمال تعلق این سند به آن دسته فرضی با بردار جدید استفاده می کنم. من این فرض را برای هر دسته انجام دادم. و در نهایت لیستی از احتمالات برای هر دسته را دریافت می کنم. سپس دسته با حداکثر احتمال را به عنوان پیش بینی نهایی انتخاب می کنم. اما، نتیجه آنطور که انتظار داشتم خوب نیست. حتی بدتر از BIT به نظر می رسد (در این مورد 100٪ مطمئن نیستم.) | یک سرنخ جدید برای طبقه بندی اسناد؟ |
9913 | در حالت رگرسیون log-log، $$\log(Y) = B_0 + B_1 \log(X) + U \>، $$ می توانید نشان دهید $B_1$ کشش $Y$ نسبت به $X$ است ، یعنی $E_{yx} = \frac{dY}{dX}(\frac{Y}{X})$؟ | کشش رگرسیون log-log |
55888 | چگونه می توانم فرض میانگین شرطی صفر را برای یک رگرسیون خطی چندگانه بررسی کنم؟ من خواندم که وقتی این فرض نقض می شود، مدل شما به اشتباه مشخص شده است. و برآورد کنندگان شما مغرضانه هستند. بنابراین ما باید آن را بررسی کنیم، اما من کاملاً از نحوه انجام این کار غافل هستم. | فرض میانگین شرطی صفر |
73342 | اگر 5 قالب استاندارد 6 طرفه بچرخانید، احتمال اینکه حداقل سه 2 به دست آورید چقدر است؟ تصور می کنم 1 - P(0 دو) - P(1 دو) - P(2 دو) باشد، اما من نمی دانم چگونه احتمال اینها را محاسبه کنم. | احتمال با تاس منصفانه |
113431 | من سعی کرده ام مجموعه داده های دایره ای/زاویه ای را برای تحقیق خود بیابم و به آنها دسترسی داشته باشم. من به ویژه به مجموعه دادههایی که بر اساس توزیع دایرهای متمرکز با منابع مناسب برای استناد توزیع میشوند، علاقهمندم. همچنین، برخی از بینش ها در یافتن این نوع داده ها برای آینده قدردانی خواهند شد. | آیا مجموعه داده دایره ای/زاویه ای عمومی می شناسید؟ |
22419 | این سوال در مورد یافتن متغیرهای ابزاری معتبر است. متغیرها عبارتند از: * متغیر پاسخ برای معادله ساختاری، $y$ * متغیر RHS مشترک درون زا در معادله ساختاری، $m$ * دو متغیر کنترلی ($x_1$ و $x_2$) که همیشه در RHS ظاهر میشوند. معادله ساختاری * چهار متغیر ابزاری بالقوه که با ($z_1$, $z_2$, $z_3$, $z_4$) البته مشکل این است که شما نمی دانید آیا IV های بالقوه قابل قبول هستند یا خیر. ماموریت شما در زندگی این است که متغیرهای ابزاری را شناسایی کنید که محدودیتهای حذف برای آنها معتبر است و تخمین اثر تصادفی $m$ روی $y$ در یک رگرسیون خطی به شکل: $$y=x_1\alpha_1+x_2\ alpha_2+m\beta+u$$ من هیچ پیش زمینه ای در این زمینه ندارم. آیا این سوال بی اهمیت است یا نه؟ | شناسایی متغیرهای ابزاری برای مدل ساختاری |
56429 | من از مثال کتاب Shumway استفاده می کنم. چگونه می توانم مقادیر p را برای همه ضرایب بدست بیاورم؟ آیا ضرایب را بر خطاهای استاندارد تقسیم کنم؟ فراخوانی: arima(x = cmort، سفارش = c(2، 0، 0)، xreg = cbind(روند، دما، temp2، قسمت)) ضرایب: ar1 ar2 intercept trend temp temp2 part 0.3848 0.4326 3075.1482 -1.5165 -0.0154 -0.0154 s.e. 0.0436 0.0400 834.7157 0.4226 0.0495 0.0020 0.0272 sigma^2 تخمین زده شده به عنوان 26.01: احتمال ورود = 1549.04 -، aic = 3114.07 | نحوه بدست آوردن مقادیر p برای مدل |
55880 | در مقاله خود، در روش بخش، زیربخشی به نام **متغیر وابسته** دارم. اما از آنجایی که من یک رگرسیون لجستیک انجام میدهم، به نظر میرسد 2 (یا حتی 3) چیز وجود دارد که میتوان آنها را متغیر وابسته نامید: ابتدا «Y» خود را دارید که یک متغیر اندازهگیری شده است. دوم، احتمال پیش بینی شده وجود دارد. سوم، احتمال پیش بینی شده وجود دارد (به راحتی از روی شانس محاسبه می شود). من نمی دانم کدام یک را در مقاله خود در این بخش شرح دهم؟ ترجیح میدهم در مورد شانسها صحبت نکنم، زیرا پیچیدهتر کردن اوضاع در آن مرحله از مقاله منطقی نیست. می خواستم Y واقعی را بگویم، زیرا این همان چیزی است که مردم در رگرسیون خطی به آن عادت دارند، اما به نظر می رسد Y وابسته به متغیرهای مستقل نیست، بلکه وابسته به احتمال است. آیا می توانم با خیال راحت در مورد احتمال صحبت کنم، بدون اینکه هیچ قانونی را زیر پا بگذارم؟ کسی تجربه ای در این مورد داره؟ شاید نمونه ای از مقاله/مقاله پژوهشی. | مقاله پژوهشی - متغیر وابسته بخش برای رگرسیون لجستیک |
26305 | من در حال مطالعه/دنبال ادبیاتی در مورد رگرسیون های بردار پشتیبان بوده ام که نسبت به نقاط پرت نسبتاً قوی هستند. من میدانم که SVRهای استاندارد میتوانند بهطور قابلتوجهی تحتتاثیر چند نقطه پرت بزرگ قرار بگیرند. از آنچه خوانده ام (و من آکادمیک نیستم که مطمئن باشم)، به نظر می رسد تعدادی رویکرد متفاوت وجود دارد. سوال من دو است: 1) آیا کسی می تواند توضیح دهد که مردم چگونه به ساخت یک SVR قوی برخورد می کنند؟ و 2) آیا کد منبع باز وجود دارد که برخی از این روش ها را اجرا کرده باشد؟ به نظر من بررسی آنها جالب و آموزنده خواهد بود. با تشکر | رگرسیون بردار پشتیبان قوی - نسبت به نقاط پرت مقاوم است |
99902 | من تابعی دارم که میانگین زمان انتظار یک کاربر وب را برمی گرداند. به این معنا که با توجه به طول منبع وب در کلمات، زمان متوسطی را می دهد که یک کاربر متوسط ممکن است در یک صفحه وب بماند. من میخواهم از این تابع (و میانگین حاصل) همراه با یک توزیع برای مدلسازی یک «کاربر وب متوسط» در حال مرور وب استفاده کنم. کدام توزیع(های) ممکن است برای این کار مناسب باشد و چرا؟ ویرایش: من همچنین میخواهم بهویژه قابلیت استفاده از توزیع نمایی برای این منظور را بدانم. متشکرم | از کدام توزیع برای مدلسازی زمان خواندن صفحه وب استفاده کنیم؟ |
3611 | آیا متغیر X (خطر) در تحلیل رگرسیون خطر متناسب کاکس همیشه باید زمان باشد؟ اگر نه، لطفا یک مثال بزنید؟ آیا سن بیمار سرطانی می تواند یک متغیر خطر باشد؟ اگر چنین است، آیا می توان آن را به عنوان خطر ابتلا به سرطان در سن خاصی تعبیر کرد؟ آیا رگرسیون کاکس یک تحلیل مشروع برای مطالعه ارتباط بین بیان ژن و سن است؟ | رگرسیون کاکس و مقیاس زمانی |
107945 | من با مجموعه داده ای کار می کنم که ناپارامتریک است و 12 درمان دارد. من آزمایش Kruskal-Wallis را انجام دادم و مقدار قابل توجهی $p$ دریافت کردم، و اکنون می خواهم یک روش مقایسه چندگانه انجام دهم تا ببینم کدام یک از درمان ها تفاوت قابل توجهی دارند. اطلاعات زیادی در مورد این موضوع وجود دارد، اما من چیزی پیدا نکردم که به طور خاص به این موضوع بپردازد. هیچ ایده ای؟؟ | مقایسه چندگانه در یک آزمون ناپارامتریک |
114593 | من علاقه مند به پیش بینی نتیجه مرتب شده 0،1،2 یا 3 (0<1<2<3) برای پاسخ های فردی در دسته ای از خوشه های مختلف هستم. در هر خوشه $i$ با اندازه $n_i$، یک عدد 3، 2 و 1 به گروهی از پاسخها اختصاص داده میشود، پاسخهای باقیمانده $n_i-3$ روی 0 تنظیم میشوند. برای روشن شدن، وضعیت به شرح زیر است: 2.1 رای به بازیکنان اول، دوم و سوم در یک مسابقه و 0 رای به بقیه داده می شود، هر مسابقه نشان دهنده یک خوشه است. هدف کلی من این است که تعداد آرای کسب شده توسط هر فرد پس از تطابق مثلاً $N$ (در یک مجموعه داده جدید) را پیش بینی کنم. حالا اولین کاری که فکر کردم انجام دهم یک رگرسیون ترتیبی با اثرات مختلط بود، که در آن هر تطابق/خوشه یک قطع تصادفی دارد. اما با استفاده از این فرمول، هیچ تضمینی وجود ندارد که پیشبینیهای 3،2،1 و 0 را به روشی که باید به افراد در یک خوشه جدید اختصاص دهد. دو راه اصلی برای حل این مشکل من فکر کردم: 1. فقط تعداد رای مورد انتظار را به هر بازیکن در خوشه جدید بر اساس احتمال پیش بینی شده برای حضور در هر کلاس بدهید. (فکر می کنم این راه حل است) 2. فقط امتیازهای 3،2،1 را به افراد هر خوشه که بیشترین احتمال را برای به دست آوردن 3 دارند، اختصاص دهید. بقیه 0 می گیرند. در این مرحله، نگرانی بزرگ من این است که آنچه برای به دست آوردن رای در یک مسابقه/خوشه نیاز است، می تواند به طور قابل توجهی با آنچه که برای کسب رای در مسابقه دیگر لازم است متفاوت باشد، زیرا 3،2،1 رای باید بدون توجه به عملکردها تخصیص داده شود. از افراد حاضر در مسابقه نسبت به سایر مسابقات. تصور میکنم یک رهگیری تصادفی برای مسابقه ممکن است این مشکل را کاهش دهد، اما آیا راه بهتری برای مقابله با آن وجود دارد؟ این مشکل کمتری برای (2) است که 3،2،1 رای را بدون توجه به آن اختصاص می دهد، در حالی که (1) ممکن است کمتر یا بیشتر از 6 رای مورد انتظار در هر مسابقه اختصاص دهد. (اما این ممکن است واقعاً یک مسئله نباشد؟) آیا رگرسیون ترتیبی رویکرد مناسبی است؟ آیا روش های مبتنی بر رتبه بندی مورد بحث در اینجا مناسب هستند؟ روشی که من آن را می بینم، روشی که استفاده می کنم نیازی به تخصیص 3،2،1،0 رای ندارد، اگر خروجی روش رتبه بندی برای هر مسابقه/خوشه باشد. پس از کسب رتبه، تخصیص آرا آسان است. آیا چیز دیگری وجود دارد که باید یا باید در نظر بگیرم؟ به سلامتی | رگرسیون ترتیبی سلسله مراتبی (یا رتبه بندی) با محدودیت های پیش بینی در خوشه ها؟ |
56423 | من می دانم که رویدادهای نادر، به ویژه بلایایی مانند زلزله، اغلب می توانند با توزیع پواسون مدل شوند. من به رویدادهای اخیر مانند بمب گذاری بوستون و پاکت ریسین فکر می کردم. این رویدادها بلایای نادر هستند، اما به دلیل کپیبرداری مستقل از رویدادهای گذشته نیستند. برخی از توزیع های خوب که رفتار کپی نادر را مدل می کنند کدامند؟ من تصور میکنم که رویدادها در بستههایی با توزیع پواسون میآیند، اما اندازه هر بسته رویداد به روش دیگری متفاوت است، به عنوان مثال. توزیع نرمال آیا تحقیقی در مورد فجایع «کپیکت» وجود دارد؟ | توزیع های مناسب برای رویدادهای نادر با کپی ها |
93287 | من یک شبکه عصبی یک لایه را با R تطبیق می دهم. من نمی دانم که آیا رویکرد بهینه/پیشنهاد عملی برای تنظیم پارامتر MaxNWts وجود دارد. با تشکر | پارامتر بهینه MaxNWts در بسته nnet R |
8321 | در رگرسیون خطی چندگانه، اجازه دهید بگوییم که آزمون F نشان می دهد که مدل معنادار است. اما آزمون t برای مقادیر بتا نمی گوید که مقادیر بتا غیر صفر هستند. در چنین شرایطی چه نتیجه ای می توانیم بگیریم؟ آیا این واقعیت که آزمایشهای مقادیر بتا با شکست مواجه شدند، بر این واقعیت تأثیر میگذارد که مدل قابل توجه است؟ | مدل رگرسیون خطی چندگانه معنیدار با بتای غیر معنیدار؟ |
99903 | من سعی می کنم معادلات انتخاب و نتیجه را با استفاده از مدل انتخاب دو مرحله ای هکمن در Stata تخمین بزنم. برای معادله انتخاب متغیر وابسته مشارکت (1,0) و متغیرهای مستقل سن، جنس، بعد خانوار، سطح تحصیلات، مقدار تولید شده است. برای معادله نتیجه، متغیر وابسته کسری به بازار عرضه میشود و متغیرهای مستقل عبارتند از: سن، جنس، اندازه خانوار، سطح تحصیلات، مقدار تولید شده، فاصله تا بازار مجاور، قیمت واحد، تجربه بازاریابی و درآمد خانوار. چگونه می توانم دقیقاً دستور Stata را تایپ کنم و تجزیه و تحلیل را اجرا کنم؟ | مشارکت در بازار کشاورزان خرده پا |
114591 | آیا بسته R برای MCMC وجود دارد که میتواند * تابع احتمال (log) خود تعریف شده من را بپذیرد (میتواند در «MCpack» انجام شود) و * به کاربر اجازه میدهد تا محدودیتهایی را برای پیشنهادات تعریف کند (مثلاً فقط مقادیر را از [0،1 بپذیرد». ] فاصله زمانی، یا فقط مقادیر مثبت را بگیرید (ممکن است در `rSTAN`) من قبلاً مدل خود را در کد R تعریف کردهام اما بدیهی است که هیچ بسته MCMC در R نمیتواند محدودیتهای موجود در R را مدیریت کند. پارامترهایی مانند `rstan` و من نمی خواهم آن را در `rstan` دوباره رمزگذاری کنم. | بسته های MCMC در R |
26301 | من با مشکل ** طبقه بندی LDA کلاس 2** روبرو هستم. در طول یک مرحله آزمایشی (پس از آموزش)، من سعی می کنم یک بردار ویژگی را به فضای ابعادی پایین تر ارائه کنم. **بردار ویژگی تست پیش بینی شده را چگونه بدست آوریم**؟ آیا 1 است. **Y = (X-Mean) * W** 2. **Y = X * W** کدام یک از موارد بالا درست است؟ (*X** بردار ویژگی است، **W** بردار وزنی است که در طول تمرین به دست می آید، **Y** بردار پیش بینی شده حاصل است). | طرح ریزی LDA برای طبقه بندی |
56289 | ** من تا حدودی با R جدید هستم و در حال حاضر با مشکل زیر گیر کرده ام: ** من دو متغیر دارم، $X$ و $Y$. در مرحله اول من یک GARCH(1,1) بر روی $Y$ انجام می دهم. در مرحله دوم می خواهم X$$ را به عنوان یک متغیر برون زا در مدل وارد کنم. پس از آن، اگر بتوانم هر دو مدل را با AIC و BIC مقایسه کنم (خوب بودن تناسب مربوطه) و در صورت امکان باقیماندهها را برای هر دو مدل ذخیره کنم، مفید خواهد بود. تا آنجا که من می دانم rugarch بسته بندی صحیح برای استفاده است. شاید کسی می تواند اینقدر مهربان باشد که به من در مورد کد کمک کند - لطفا :) به این ترتیب من یک نمونه کار دارم و می توانم بر روی آن بنا کنم و از آن یاد بگیرم. | افزودن متغیرهای برون زا به مدل GARCH |
114590 | فرض کنید میخواهیم تابع $f^2({\bf{x}})$ را تحت محدودیت $g({\bf{x}})=0$ کمینه کنیم. * * * راه حل کلاسیک ( **روش I** ) این است که یک ضریب لاگرانژ را معرفی کنید و حل کنید: $$\frac{\partial f^2({\bf{x}})}{\partial x_i}+ \lambda \frac{\partial g({\bf{x}})}{\partial x_i}=0$$ با این حال میتوان از روش دیگری استفاده کرد (*روش II**)، که در آن دوباره تعریف میکنیم تابع هزینه به صورت: $$J\equiv f^2({\bf{x}})+\Lambda g^2({\bf{x}})$$ و سپس باید حل کنیم: $$\frac{ \partial f^2({\bf{x}})}{\partial x_i}+\Lambda \frac{\partial g^2({\bf{x}})}{\partial x_i}=0$$ در اینجا $\Lambda$ یک ثابت مجموعه است و مانند $\lambda$ قابل حل نیست. حل منجر به راه حلی می شود که به $\Lambda$ وابسته است و معادل روش I است، وقتی $\Lambda\to\infty$. من فکر میکنم روش دوم زمانی که دادهها نویز دارند مزیتی دارد و بنابراین دقیقاً محدودیت را برآورده نمیکند، اما انتخاب $\Lambda$ باید به صورت دستی انجام شود. ** آیا روش دوم نامی دارد؟ آیا معمولا استفاده می شود؟ مزایا و معایب اصلی به غیر از موارد ذکر شده چیست؟** | ضریب لاگرانژ در عمل |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.