_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
48450
مفروضات برای استفاده و تفسیر مناسب از ضریب همبستگی پیرسون چیست؟ $\DeclareMathOperator{\cov}{cov}\cov(X,Y)$ چگونه تحت تأثیر انحرافات خطی (خفیف) قرار می گیرد؟ چگونه $\cov(X,Y)$ تحت تاثیر حضور ناهمسانی است؟
مفروضات ضریب همبستگی
48455
من 1 عامل طبقه بندی (3 درمان) و 1 عامل پیوسته (وزن) دارم و سپس 5 متغیر پاسخ مستمر دارم. با توجه به مطالبی که خواندم، نباید از ANOVA دو طرفه استفاده کنم زیرا یکی از فاکتورها پیوسته است. آیا این درست است؟ آیا باید به جای آن از رگرسیون چندگانه استفاده کنم؟ به من توصیه شد که می توانم از ANOVA استفاده کنم، اما بر اساس آنچه خوانده ام مطمئن نیستم که درست باشد. من می توانم فاکتور پیوسته را به دسته بندی تبدیل کنم، اما در این سایت نیز خوانده ام که این گزینه ترجیحی نیست. هدف من از داده‌ها این است که ببینم آیا تفاوت معنی‌داری بین 3 درمان در رابطه با متغیرهای پاسخ وجود دارد، که یک ANOVA یک طرفه استاندارد است، اما همچنین می‌خواهم ببینم آیا وزن بر متغیرهای پاسخ تأثیر می‌گذارد یا خیر. تحلیل من با R خواهد بود.
ANOVA یا رگرسیون؟ 1 عامل پیوسته و 1 عامل طبقه بندی با متغیرهای پاسخ پیوسته
62420
آیا کسی می تواند توضیحی مفهومی در مورد چگونگی پیش بینی داده های جدید در هنگام استفاده از هموارسازی / splines برای یک مدل پیش بینی ارائه دهد؟ به عنوان مثال، با توجه به مدلی که با استفاده از «gamboost» در بسته «boost» در R، با p-splines ایجاد شده است، پیش‌بینی داده‌های جدید چگونه انجام می‌شود؟ چه چیزی از داده های آموزشی استفاده می شود؟ بگوییم که مقدار جدیدی از متغیر مستقل x وجود دارد و می خواهیم y را پیش بینی کنیم. آیا فرمولی برای ایجاد spline با استفاده از گره‌ها یا df هنگام آموزش مدل و سپس ضرایب مدل آموزش‌دیده برای خروجی پیش‌بینی اعمال می‌شود؟ در اینجا یک مثال با R آورده شده است، پیش بینی چه کاری برای خروجی 899.4139 برای داده جدید mean_radius = 15.99 انجام می دهد؟ #داده‌های wpbc را به‌عنوان نمونه کتابخانه (boost) داده (wpbc) modNew<-gamboost(mean_area~mean_radius, data = wpbc, baselearner = bbs, dfbase = 4, family=Gaussian(),control = boost_control(mstop = 5)) test<-data.frame(mean_radius=15.99) predict(modNew,test)
چگونه داده های جدید را با رگرسیون spline/smooth پیش بینی کنیم
81957
آیا کسی می داند که ایجاد نمودار لاپلاسی از ماتریس شباهت چه چیزی را برای ما در خوشه بندی طیفی به ارمغان می آورد؟ یا چرا آن را ایجاد می کنیم؟ این الگوریتم است: نمودار لاپلاسی: **L= D-W.**، **D:** ماتریس درجه شباهت، **W=** ماتریس مجاورت وزنی ![توضیح تصویر را اینجا وارد کنید](http:/ /i.stack.imgur.com/muwm2.png)
چرا گراف لاپلاسی را در خوشه بندی طیفی می سازیم؟
78141
فرض کنید من می‌خواستم تفاوت بین میانگین و واریانس را آزمایش کنم، چگونه می‌توانم آمار آزمایشی را برای این منظور بسازم؟ من فرض می‌کنم فرض صفر من این است که میانگین و واریانس در یک جامعه با میانگین و واریانس در جامعه دیگر یکسان است، در حالی که فرضیه جایگزین این است که آنها متفاوت هستند.
چگونه برای هر دو تفاوت در میانگین و تفاوت در واریانس آزمایش می کنید؟
44599
من می‌خواهم از هموارسازی نمایی ساده برای پیش‌بینی تقاضای زمان تحویل برای کنترل موجودی استفاده کنم، داده‌های ماهانه دارم و LT+1 برابر با 5 ماه است، آیا می‌توانم با استفاده از SES یک پیش‌بینی انجام دهم که به من یک دوره قبل می‌دهد. پیش بینی کنید و سپس آن را در 5 ضرب کنید تا پیش بینی LT+1 را بدست آورید؟ بهترین راه حل برای پیش بینی h گام جلوتر (مانند LT+1) در زمانی که روش پیش بینی SES است چیست؟ متشکرم
از هموارسازی نمایی برای پیش‌بینی تقاضای زمان سرب استفاده کنید
16137
آیا ابزاری در R وجود دارد که بتوان از آن برای بهینه سازی تخصیص مشتریان در میان پیشنهادات احتمالی، با توجه به محدودیت ها استفاده کرد؟ آیا کسی می تواند در مورد استفاده از آنها نکات / مثال هایی ارائه دهد؟ امیدوارم راه‌اندازی من منطقی باشد... راه‌اندازی مشکل اینجاست: ** موارد زیر وجود دارد:** * مشتریان $N$ ($N$ بزرگ است) * $F$ پیشنهادات (پیشنهاداتی که می‌توان به مشتری ارائه داد) $F$ نسبتاً کوچک است) * $P_{nf}$ -- احتمال پذیرش $f$ توسط مشتری $n$ * $D_{nf}$ -- ارزش پولی مورد انتظار در صورت پذیرش $n$ توسط مشتری پیشنهاد $f$ * $C_f$ -- هزینه ارائه پیشنهاد $f$ به هر مشتری * $E_{nf}$ -- سود مورد انتظار ارائه پیشنهاد $f$ به مشتری $n$ ($P_{nf} D_{nf} - C_{f}$) **محدودیت ها:** * هر مشتری را می توان تنها به 1 پیشنهاد اختصاص داد (هر مشتری نیازی به دریافت چیزی ندارد). * تعداد کل پیشنهادهای ارائه شده (آن را $T$ بنامید) بین a و b. * هزینه کل $TC<c$. درصد $T$ که توسط هر پیشنهاد $f$ تشکیل شده است $\geq d$ است. این بدان معنی است که گاهی اوقات یک پیشنهاد باید حداقل $d$ بار ارائه شود. برای هر پیشنهاد یکی از این قوانین وجود دارد. **هدف:** * به حداکثر رساندن سود. چیزی در R؟ **ویرایش:** * من در مورد استفاده از چیزی در امتداد خطوط http://cran.r-project.org/web/packages/Rglpk/index.html تعجب می کنم که به نظر می رسد از مشکلات بزرگ و انواع محدودیت ها پشتیبانی می کند. من دارم. البته، بزرگ در زمینه به نظر می رسد بسیار کمتر از میلیون ها برای N من است. * یک فکری که داشتم این بود که سود مورد انتظار را برای هر مشتری و هر پیشنهاد محاسبه کنم. سپس، یک الگوریتم خوشه بندی (ردیف = مشتریان و ستون ها = سود مورد انتظار برای هر تبلیغ) مانند k-means با k بزرگ (مثلاً 1000) اجرا کنید. سپس هر یک از مشتریان را به یک خوشه اختصاص دهید و از مرکز کلاستر به عنوان ارزش سود مورد انتظار برای بهینه ساز استفاده کنید. **ویرایش دوباره** به خاطر کمک به دیگران، نتیجه ای که به آن رسیدم این بود که در واقع مشتریان را خوشه بندی کنم و سپس از یک حل کننده خطی استاندارد استفاده کنم (من lpSolve را در R دریافت کردم تا خوب کار کند). گزینه دیگر استفاده از تقریب غیر خطی است. رابرت اگنیو در این سوال کمک زیادی به من کرد - با استفاده از فرمول دوگانه خود. این پست را ببینید. اسکریپت R او نیز پیوند خورده است و عالی کار می کند - تغییر از محدودیت های برابری برای مقدار پیشنهاد به محدودیت های نابرابری مستلزم استفاده از nlminb().
بهینه سازی برای تخصیص بازاریابی در R
81951
من 400 پاسخ به یک پرسشنامه 20 سوالی دارم که هدف آن اندازه گیری ساختار نگرشی در دانشجویان پزشکی است. این ابزار در ایالات متحده برای یک سال از دانشجویان پزشکی اعتبار سنجی شد و داده های منتشر شده بسیار تمیز است - تمام مقادیر ritc > 0.3، آلفا 0.84، PCA با ساختار چهار عاملی پایدار و غیره. در نمونه خود من 5 مورد را پیدا کردم. 20 مورد دارای ritc<0.2 هستند و در یک زیرجمعیت فرهنگی (n=70) این مقادیر ritc صفر/منفی هستند. اگر همه موارد را حفظ کنم، آنهایی که دارای ریتک ضعیف هستند یا بر روی هیچ عاملی بارگذاری نمی‌شوند یا در یک فاکتور 2 موردی با هم مرتب می‌شوند (عامل 4). من فرض می‌کنم که (و می‌خواهم بررسی کنم) این به دلیل (i) یک زیرجمعیت کوچک فرهنگی است که ممکن است مفهوم آن ضعیف باشد، یا (ب) به دلیل اینکه من در تمام مراحل یک برنامه پاسخ‌هایی از دانش‌آموزان دارم و وجود دارد. یک جنبه توسعه ای سازه که به خوبی توسط آیتم های مقیاس به تصویر کشیده شده است. آیا آزمون آماری وجود دارد که به من اجازه دهد این موضوع را بررسی کنم؟ آیا آیتم های دارای ritc باید از مقیاس حذف شوند و اگر چنین است، این کار را به صورت متوالی از کمترین شروع می کنم و در چه مرحله ای باید حذف موارد را متوقف کنم/ آیا چیزی از پرسشنامه گم کرده ام؟ اگر بخواهم ساختار عاملی مقیاس را بین زیرجمعیت‌های اصلی و فرعی مقایسه کنم، چگونه این کار را انجام دهم یا اینکه نمونه فرعی برای نتیجه‌گیری بسیار کوچک است؟ هر مرجعی بسیار قدردانی خواهد شد. در نهایت، هدف از اعتبارسنجی مقیاس استفاده از آن برای تعیین اثربخشی یک مداخله با استفاده از نمره قبل و بعد از مداخله است - اگر یک آیتم دارای ritc پایین باشد، تصور می‌کنم ممکن است بر پایایی مقیاس در یک محیط آزمایشی تأثیر بگذارد. یا من اشتباه می کنم؟ آیا هیچ راه آماری برای تعیین سودمندی مقیاس طراحی شده برای اندازه‌گیری سازه‌هایی که جنبه رشدی دارند، وجود دارد- یعنی آیا همه آیتم‌ها به درستی عمل می‌کنند، زیرا دانش‌آموز «بیشتر» سازه نگرشی را توسعه می‌دهد؟
اعتبار سنجی پرسشنامه در جامعه جدید
19342
من یک متغیر X1 = (a - b) / (a ​​+ b) دارم. این متغیر همبستگی بالاتری را با Y نسبت به هر یک از (a, Y) و (b, Y) نشان می دهد. در یک مدل رگرسیون چندگانه مانند Y ~ X1، X2، آیا استفاده از فرمول X1 منطقی است یا باید همیشه از متغیرهای پایه a و b استفاده کنم؟ در این پست، شخصی اشاره کرد که > به طور شهودی، در مورد استنباط های مشاهده شده > نسبت 1 (پسران به دختران) بسیار مطمئن تر خواهید بود، اگر از دیدن 100 پسر و 100 دختر > > > از دیدن 2 و 2 حاصل شود. در نتیجه، اگر متغیرهای کمکی داشته باشید، اطلاعات بیشتری در مورد اثرات آنها و احتمالاً یک مدل پیش‌بینی بهتر خواهید داشت. خوب است، اما آیا مدل خطی چندگانه می‌تواند همان رابطه پیش‌بینی‌کننده (X1، Y) را فقط با تحلیل حداقل مربعات و b بازسازی کند؟
فرمول متغیرهای مستقل در رگرسیون چندگانه
81955
مثال زیر نمونه کار شده ای است که در مقالات گذشته دانشگاه من یافت شده است، اما نتوانسته ام آن را حل کنم (من پاسخ را دارم، اما نمی دانم چگونه به آنجا برسم). هر کمکی برای روشن کردن من بسیار قدردانی خواهد شد. یک فروشگاه به طور متوسط ​​روزانه چهار کامپیوتر می فروشد. هر چهارده روز یک بار موجودی فروشگاه با 60 کامپیوتر تکمیل می شود. فروشگاه یک روز در هفته تعطیل است. یک روز وارد فروشگاه می شوید و کامپیوتری در دسترس نیست. زمان انتظار مورد انتظار در روزهای افتتاحیه تا زمانی که کامپیوترهای جدید در انبار وجود داشته باشد، چقدر است؟ (فرض کنید که احتمال انتظار بیش از چهار روز صفر باشد.) ابتدا احتمال اینکه زمان انتظار 1، 2، 3 یا 4 روز باشد را پیدا می کنیم. برای این منظور، $T$ را به عنوان تعداد روزهایی که منتظر می‌شویم و $X\sim \text{Pois}(4)$ را به‌عنوان تعداد رایانه‌های فروخته‌شده تا روز 12-T$ تعریف می‌کنیم، یعنی اگر یک روز صبر کنیم $X= 11 دلار احتمال اینکه ما کامپیوترهای 60 دلاری را قبل از روز 11 فروخته ایم با $\Pr(X>60|\lambda t=44)=0.00875$ داده می شود. احتمالات مربوطه برای $T=2$ 0.001201، برای $T=3$ 9.125e-05 و برای $T=4$ 3.307e-06 است. راه حل داده شده در ادامه احتمالات $\Pr(T|T>0)$ را ارائه می دهد، قبل از اینکه پاسخ را با $E(T)=1\cdot 0.8719+2\cdot 0.1196+3\cdot 0.0091+4 بدهد. \cdot 0.0003=1.1387$. با این حال، به نظر نمی رسد درک کنم که چرا و چگونه به این اعداد می رسد. هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. پیشاپیش سپاس فراوان
زمان انتظار مورد انتظار
55269
می خواستم بدانم آیا بسته ای وجود دارد که بتوانم از آن برای تبدیل 22 مشاهدات سالانه خود به سری فصلی استفاده کنم؟ آیا انجام این کار ضرری خواهد داشت؟ آیا اطلاعات خاصی از داده های مهم را از دست خواهم داد؟ من می خواهم VAR ها را در سطوح با استفاده از روش TY اجرا کنم.
تبدیل داده های سالانه به دفعات سه ماهه
13474
توجه: من حتی مطمئن نیستم که چگونه این سوال را به بهترین شکل عنوان کنم، بنابراین اگر کسی ایده ای دارد، لطفا ویرایش کنید! شش قرعه کشی مستقل از توزیعی را در نظر بگیرید که با cdf $F(x)$ روی 0-1 تعریف شده است. بیایید آنها را X1، X2 دلار بنامیم. . . X6 دلار من می‌خواهم توزیع را برای X1+X3 تعریف کنم، اگر اطلاعات زیر را بدانم: * $X1 +X4 < X2 + X6$ * $X3 <X4$ * $X5 <X6$ ممکن است در نظر گرفتن قرعه‌کشی‌ها مفید باشد. در یک ساختار درختی مرتب می شود. تصویر زیر بهترین تلاش من برای نشان دادن آنچه می دانیم (ردیف اول) و سپس توزیعی که به دنبال آن هستم (ردیف دوم) است. توجه داشته باشید که به طور خاص اهمیتی نمی دهم که X3$$ سومین متغیر ترسیم شده باشد. به‌طور دقیق‌تر می‌توانم بگویم که، با توجه به 2 ترسیم از F(x)$ برای سطح اول درخت، و سپس با توجه به 4 ترسیم برای سطح دوم درخت، ترسیم‌های X1$ به X6$ را طوری علامت بزنید که شرایط مشخص شده درست است ![تجسم درختی](http://i.stack.imgur.com/CMrpg.jpg) این سوال مشابه این سوال است، با این تفاوت که مبالغ استقلال را از بین می برد. من به طور خاص به F(x) = x (توزیع یکنواخت) علاقه دارم، اما پاسخ به حالت کلی بسیار جالب خواهد بود.
چگونه می توان توزیع یک پیچیدگی را زمانی که اطلاعات آماری سفارش جزئی وجود دارد تعریف کرد؟
80023
من مدل زیر را دارم: $$ y_{i} = \alpha + \beta{d_{i}} + X^{'}_{i}\gamma + \epsilon_{i} $$ Where $d_{i} $ یک متغیر ساختگی و $X^{'}_{i}$ بردار متغیرهای کنترل است. من می خواهم اثر علی $d_{i}$ را تخمین بزنم. فرض کنید که رگرسیون در $X_{i}$ اشباع شده است به طوری که $E(d_{i}|X_{i})$ خطی است. اما همچنین فرض کنید که مدل بالا در واقع تابع انتظار شرطی نیست (که غیرخطی است). من می‌خواهم ارتباط $\beta$ را با $E(y_{1,i}-y_{0,i})$ پیدا کنم (اثر علّی روی $y_{i}$ تغییر شکل ساختگی $d_{i}). $ روشن و خاموش). اکنون از آنجایی که رگرسیون در $X_{i}$ اشباع شده است، می توانم $\beta$ را به صورت $\frac{Cov(y_{i},\hat{d_{i}})}{Var(\hat{d_{ بنویسم i}})}$ که $d_{i}$ باقیمانده از رگرسیون $d_{i}$ در متغیرهای کمکی $X^{'}_{i}$ است. و من می دانم $\hat{d_{i}} = d_{i} - E(d_{i}|X_{i})$ بنابراین: $$ \beta = \frac{E(y_{i}(d_ {i}-E(d_{i}|X_{i})))}{E((d_{i}-E(d_{i}|X_{i}))^{2})} $$ * *پس اینجاست سوال من: در یادداشت هایی که از آنها کار می کنم، مرحله بعدی به صورت زیر نوشته شده است:** $$ \beta = \frac{E(E(y_{i}|d_{i},X_{i})(d_{ i}-E(d_{i}|X_{i})))}{E((d_{i}-E(d_{i}|X_{i}))^{2})} $$ من هستم گیج شده زیرا اگر این مرحله داشته باشد با استفاده از قانون انتظارات تکراری به دست آمده است، پس چرا علامت انتظار برای دومین ترم داخل براکت نیز اعمال نشده است (من فرض می کنم می توان آنها را به دلیل استقلال مشروط از هم جدا کرد)؟ و آیا این عبارت برابر با صفر نخواهد بود؟
چگونه می توانم این فرمول ضریب را در یک رگرسیون با تابع انتظار شرطی غیر خطی استخراج کنم
62423
این سوال ممکن است بسیار ابتدایی باشد، اما با این حال باعث تعجب من می شود، بنابراین می خواستم از شما نظر بپرسم. هنگام ایجاد یک متغیر چقدر محاسبه مجاز یا مورد نظر است؟ آیا اصلاً محدودیتی وجود دارد؟ آیا ممکن است بخواهیم تا حد امکان کم با داده ها به هم ریخته و از آنها در خالص ترین شکل خود استفاده کنیم؟ به عنوان مثال، اگر برای هر واحد در نمونه ما سه نوع اطلاعات جداگانه داشته باشیم - a,b,c; آیا خوب است یک متغیر جدید را با معادله (a*b)/c محاسبه کنیم و از آن به این صورت استفاده کنیم؟ همچنین، آیا متغیری که به صورت =a*b محاسبه می شود، نتایج یکسانی را هنگام آزمایش به عنوان برهمکنش بین a و b می دهد؟ یا این دو چیز کاملاً متفاوت هستند؟
محاسبه متغیرها
48459
اثبات کتاب درسی من بسیار کوتاه بود و فقط در مورد گسسته، من هم آن را خوب متوجه نشدم. بنابراین سعی کردم عبارت را از مقدار مورد انتظار یک متغیر تصادفی پیوسته استخراج کنم. من با اجازه دادن به متغیر تابعی از متغیر دیگر شروع کردم، اما سپس در تلاش برای تغییر متغیرها گیر کردم و نمی دانستم با تابع چگالی احتمال و چیزهای دیگر چه کنم.
فرمول مقدار مورد انتظار یک تابع از یک متغیر تصادفی چگونه به دست می آید؟
7319
من تازه وارد آمار هستم، پس هر گونه اشتباهی در سوال من ببخشید. من دو سری زمانی $X_i$ و $Y_i$ دارم. با فرض اینکه آنها فرآیندهای ثابت AR(1) با میانگین های احتمالاً متفاوت هستند، چگونه تفاوت میانگین ها را آزمایش کنم؟ من این پیوند را پیدا کردم (اما فقط یک نمونه را آزمایش می کند) که استفاده از gls را مورد بحث قرار می دهد: https://stat.ethz.ch/pipermail/r-help/2006-May/105495.html بنابراین من در تعجب هستم که چگونه می توان این را به چندین نمونه گسترش داد. (از یک متغیر ساختگی استفاده کنید؟) یا اگر روش دیگری وجود دارد (ترجیحاً در R).
دو نمونه t-test برای داده ها (شاید سری زمانی) با خود همبستگی؟
81954
با مربع ها و مجموع ها کمی گیج شدم. تا آنجا که من می دانم، واریانس یا مجموع مجموع مربع ها (TSS) چیزی شبیه به $\sum_{i}^{n} (x_i - \bar x)^2$ است و مجموع مربع های درون (SSW) $ است. \sum_{j}^{K} \sum_{i}^{n} (x_i - c_j)^2 \qquad i \در C_j$ که k تعداد خوشه‌ها و که $TSS = SSW + SSB$ تا کنون درست است؟ بنابراین می توانم $TSS - SSW = SSB$ انجام دهم اما راه مستقیم برای دریافت $SSB$ از یک کتاب کد مشخص چیست؟ ترجیحاً می‌خواهم بدانم چگونه در numpy/scipy به آنجا برسم، زیرا خواندن معادلات برای من سخت است. وارد کردن numpy به عنوان np از scipy.cluster.vq import vq # X.shape[0] -> مشاهدات # X.shape[1] -> دارای پارتیشن، euc_distance_to_centroids = vq (X، کتاب کد) TSS = np.sum((X-X.mean(0))**2) SSW = np.sum(euc_distance_to_centroids**2) SSB = TSS - SSW فکر می کنم هنگام انجام SSB، تعداد مشاهدات در هر خوشه را از دست می دهم > >> آرایه X([[ 2., 4., 2.], [ 1., 3., 1.], [ 3., 4., 2.], [ 2., 3., 2.], [ 1., 5., 5.]] >>> آرایه کتاب کد ([[ 1. , 3. , 1. ] ، [ 2.33، 3.67، 2. ]، [1.، 5.، 5. ]]) >>> TSS 14.80000000000001 >>> SSW 1.3333333333333333 >>> SSB 13.4666666666666667 >>> ((X.mean(0)-codebook)**2).sum() #num چگونه ob را در اینجا قرار دهم؟ 12.5422222222222223 # بدیهی است که درست نیست..
SSB - مجموع مربعات بین خوشه ها
7313
با توجه به سوال قبلی ام، سعی می کنم یک معیار معقول برای فاصله معنایی بین دو رشته متن کوتاه پیدا کنم. یکی از معیارهایی که در پاسخ به آن سوال ذکر شد، استفاده از کوتاهترین مسیر ابرنام برای ایجاد یک متریک برای عبارات بود. بنابراین، برای مثال، اگر بخواهم فاصله معنایی بین خوک و سگ را پیدا کنم، می‌توانم از WordNet همه نام‌های آنها را بپرسم: **خوک** => خوک => سموردار => پستاندار سمی => پستاندار جفتی= > پستاندار=> مهره داران=> وتر=> حیوان=> ارگانیسم=> موجود زنده=> شی=> موجودیت فیزیکی=> موجودیت **سگ** => سگ=> گوشتخوار=> پستاندار جفت=> پستاندار=> مهره داران=> وتر=> حیوان=> ارگانیسم=> موجود زنده=> شی=> موجودیت فیزیکی=> موجودیت و من متوجه شدم که کوتاه ترین مسیر بین خوک و سگ 8 پرش است - بنابراین فاصله معنایی = 8. اگر می خواستم این مفهوم را به کل عبارات بسط دهم، شاید بتوانم (ساده لوحانه) آن را پیدا کنم. میانگین فاصله بین تمام جفت‌های کلمه در عبارات. (بدیهی است که فرد باید بتواند چیزی بسیار بهتر از این را پیدا کند.) **سوال من:** مطمئنم کسی قبلاً به این موضوع فکر کرده است. برای یافتن اطلاعات بیشتر باید کجای ادبیات را جستجو کنم. و در هنگام استفاده از چنین رویکردی چه چیزهایی پنهان است.
نزدیکترین فاصله در درخت ابرنام به عنوان اندازه گیری فاصله معنایی بین عبارات
80025
من باید یک p-value مبتنی بر جایگشت را با سطح معناداری $\alpha$ محاسبه کنم، به چند جایگشت نیاز دارم؟ از مقاله تست های جایگشت برای مطالعه عملکرد طبقه بندی کننده، صفحه 5: > در عمل، کران بالایی 1/(2*sqrt(k)) معمولاً برای تعیین > تعداد نمونه های مورد نیاز برای دستیابی به دقت مطلوب استفاده می شود. > تست. ... که k تعداد جایگشت ها است. چگونه می توانم تعداد جایگشت های مورد نیاز را از این فرمول محاسبه کنم؟
تعداد جایگشت های مورد نیاز برای یک مقدار p مبتنی بر جایگشت
54516
1. از استنباط آماری Casella: > تعریف 10.1.7 برای یک برآوردگر $T_n$، اگر $\lim_{n\to \infty} k_n Var T_n > = \tau^2 < \infty$، جایی که $\\{k_n \\}$ دنباله ای از ثابت ها است، سپس > $\tau^2$ نامیده می شود **واریانس محدود** یا **محدودیت واریانس** > $T_n$. > > تعریف 10.1.9 برای یک برآوردگر $T_n$، فرض کنید که $k_n(T_n - > \tau(\theta)) \به n(0، \sigma^2)$ در توزیع است. پارامتر $\sigma^2$ > **واریانس مجانبی** یا **واریانس حد > توزیع** $T_n$ نامیده می شود. * من نمی‌دانستم که آیا هر دو تعریف به انتخاب دنباله $k_n$ بستگی دارد، زیرا من گمان می‌کنم برای برخی از انتخاب‌های دنباله $k_n$، همگرایی ممکن است شکست بخورد، در حالی که برای برخی دیگر از انتخاب‌های دنباله $k_n$، همگرایی ممکن است موفق شود پس آیا این دو تعریف به خوبی تعریف نشده اند، زیرا آیا قرار نیست آنها به انتخاب دنباله $k_n$ وابسته نباشند؟ به عنوان مثال، در Lyapunov CLT، $\frac{1}{s_n} \sum_{i=1}^{n} (X_i - \mu_i) \ \xrightarrow{d}\ \mathcal{N}(0,\; 1)$ که در آن $ s_n^2 = \sum_{i=1}^n \sigma_i^2 $. طبق تعریف فوق از واریانس مجانبی، $T_n = \sum_{i=1}^n X_i$, $\tau(\theta) = \sum_{i=1}^n \mu_i$ (باید \tau(\ تتا) مستقل از اندازه نمونه $n$؟) باشد، و واریانس مجانبی $\sum_{i=1}^n X_i$ $1$ است (این باور سخت است، زیرا واریانس $\sigma_i^2$ از $X_i$ می تواند تا زمانی که متناهی باشد)؟ * آیا توزیع محدود کننده در تعریف واریانس مجانبی می تواند غیر از توزیع عادی باشد؟ * واریانس محدود کننده و واریانس مجانبی چه زمانی یکسان خواهند شد؟ 2. به طور مشابه، اما به طور کلی تر، * چگونه می توانیم لحظات محدود کننده و لحظات مجانبی را تعریف کنیم؟ * آیا توزیع محدود کننده در تعریف گشتاور مجانبی لازم است که توزیع نرمال باشد؟ * لحظه محدود کننده و لحظه مجانبی چه زمانی منطبق می شوند؟ به عنوان مثال، آن دو مفهوم برای معنی: میانگین محدود کننده و میانگین مجانبی؟ با تشکر و احترام!
لحظات محدود کننده و لحظات مجانبی یک آمار
46991
$X$ و $Y \sim U(0,1)$. اجازه دهید $$\eqalign{g(x,y) &= x &\text{ if } &x^2+y^2 \le 1 \\\ &=2 &\text{ if } &x^2+y^2 \gt 1 }$$ و $Z = g(X,Y)$. چگونه $F_Z(z)، \mathbb{E}(Z)$، و $\mathbb{E}(Z | X^2+Y^2 \gt 1 )$ را پیدا کنیم؟ من از کمک شما قدردانی می کنم.
چگونه توزیع یک تابع از متغیرهای تصادفی متعدد را محاسبه کنیم؟
7316
من داده‌هایی با بسیاری از ویژگی‌های مرتبط دارم، و می‌خواهم قبل از اجرای LDA، ویژگی‌ها را با یک تابع پایه صاف کاهش دهم. من سعی می‌کنم از اسپلاین‌های مکعبی طبیعی در بسته splines با تابع ns استفاده کنم. چگونه می توانم گره ها را تعیین کنم؟ در اینجا کد اصلی R آمده است: library(splines) lda.pred <- lda(y ~ ns(x, knots=5)) اما من هیچ ایده ای در مورد نحوه انتخاب گره ها در `ns` ندارم.
تنظیم گره در خطوط مکعبی طبیعی در R
11907
عملکرد «انحصاری یا» سابقه طولانی و دشواری در جوامع یادگیری هوش مصنوعی/ماشین دارد. از درک من از یادگیری قوانین انجمن به نظر می رسد که xor برای این نوع یادگیری مشکل ساز باشد. یعنی فرض کنید داده‌های زیر را داریم: A B C 0 0 0 0 1 1 1 0 1 1 1 0 واضح است که قاعده‌ای که من از این داده‌ها جستجو می‌کنم این است که $A\oplus B = C$. با این حال، درک من این است که تکنیک‌های یادگیری قوانین تداعی قوانین $A \Rightarrow C$ و $B \Rightarrow C$ را هر کدام با 50% اطمینان کشف می‌کنند. آیا ارزیابی من درست است که این یک موضوع شناخته شده در یادگیری قوانین انجمن است، و اگر چنین است، آیا روش های استانداردی برای رسیدگی به چنین مسائلی وجود دارد؟ من می‌توانم راه‌حل‌هایی را تصور کنم، اما مطمئن نیستم که در چارچوب یادگیری قوانین تداعی مناسب باشند.
رویکرد یادگیری قانون تداعی برای مسئله منطقی XOR چیست؟
54518
یک مدل خطی با اثر تصادفی بلوکی ($b_i$) $$ y_{ij} = \mu + b_i + \beta x_{ij} + e_{ij} $$ با $b_i \sim N(0, \sigma_b) بگیرید ^2)$، و غیره و غیره. اگر $\sigma^2_b = 0$، آنگاه مدل به یک مدل خطی بسیار ساده کاهش می‌یابد. برای آزمایش فرضیه صفر $H_0: \sigma_b^2 = 0$ در مقابل $H_1 جایگزین: \sigma_b^2 > 0$، می‌توان از آزمون نسبت درستنمایی استفاده کرد. با این حال، توزیع محدود کننده در زیر عدد تهی $\chi_1^2$ نیست، بلکه $\tfrac{1}{2} \chi^2_0 + \tfrac{1}{2} \chi^2_1$ است، یعنی a مخلوط 50:50 از یک جرم نقطه ای در صفر و یک توزیع کای مربع با یک درجه آزادی. چگونه مقدار بحرانی (یا p-value) آن مخلوط را تعیین کنیم؟
مقدار بحرانی جرم نقطه ای در صفر و توزیع کای دو با یک درجه آزادی
48452
آیا بسته ای وجود دارد که شامل آزمون نسبت درستنمایی برای داده های سری زمانی با تعداد نامشخصی از وقفه در R باشد؟ جستجوی من چندان موفقیت آمیز نبود، هنوز ...
آزمون نسبت درستنمایی برای تغییرات ساختاری (سری زمانی) در R
54511
چرا سطل بندی متغیرهای پیوسته در رگرسیون لجستیک ترجیح داده می شود؟ وقتی یک متغیر پیوسته داریم، اساس نسبت شانس ورود به سیستم تعدیل شده و نسبت شانس ورود به سیستم تعدیل نشده چیست؟
نسبت شانس ورود به سیستم و نسبت شانس ورود به سیستم تعدیل نشده زمانی که یک متغیر پیوسته داریم
59144
من سعی می کنم یک مدل ARMA(p,q) را به معادله میانگین سری بازگشتی خود برازم. مشکل این است که acf و pacf تقریباً قابل استفاده نیستند، یعنی پیدا کردن یک مدل خوب برای در نظر گرفتن الگوی acf و pacf دشوار است. من از جایگزین استفاده از هیچ مدلی برای معادله میانگین آگاه هستم. با این حال من یک مشکل خاص دارم. من نمی خواهم در مورد انتخاب مدل خود بحث کنم یا اینکه آیا مناسب بودن چنین مدلی مناسب است، اما یک مشکل خاص دارم. پس از تطبیق (احتمالاً اشتباه) مدل ARMA با داده‌هایم، این احساس را دارم که در سفارش‌های تاخیر زیاد، خود همبستگی القایی را ایجاد کردم. بنابراین قبلاً خودهمبستگی وجود نداشت و بعداً به نظر می‌رسد که در ترتیب تاخیر کم می‌توانم خودهمبستگی را ناپدید کنم، اما در سفارشات تاخیر بالاتر افزایش یافت. بنابراین من اطلاعات زیادی در مورد این موضوع ندارم. بنابراین اول از همه: آیا این امکان القای خودهمبستگی اشتباه وجود دارد؟ پس خودهمبستگی که قبلا وجود نداشت؟ این روش چگونه نامیده می شود؟ آیا مقاله / کتاب خوبی در مورد آن وجود دارد؟
القای همبستگی خودکار با برازش ARMA اشتباه؟
108822
من می دانم که در سیستم های توصیه گر شما یک ماتریس رتبه بندی دارید و سپس این ماتریس را به دو ماتریس فاکتور می کنید و سپس آن ماتریس ها را با نزول گرادیان یاد می گیرید. در آن ماتریس‌ها تعداد ابعاد/ویژگی‌های پنهانی را که می‌خواهیم مشخص می‌کنیم. بنابراین یکی از آنها به اندازه $number\\_of\\_users * k\\_latent\\_features$ خواهد بود. سوال من این است که چرا پارامتر $K$ (تعداد ویژگی های پنهان) را کمتر از تعداد کاربران یا آیتم ها انتخاب می کنیم؟ من نمی توانم این فرض را درک کنم که تعداد ویژگی های پنهان باید کم باشد.
فرضیات پشت چند ویژگی نهفته در سیستم های توصیه گر وجود دارد؟
15958
من داده‌هایی دارم که دارای مقادیر مربع eta و مقادیر جزئی مربع eta هستند که به عنوان معیار اندازه اثر برای تفاوت‌های میانگین گروه محاسبه شده‌اند. * تفاوت مربع eta و مربع eta جزئی چیست؟ آیا می توان هر دو را با استفاده از دستورالعمل های یکسان کوهن (1988: 0.01 = کوچک، 0.06 = متوسط، 0.13 = بزرگ) تفسیر کرد؟ * همچنین، اگر آزمون مقایسه ای (یعنی آزمون t یا ANOVA یک طرفه) غیر معنی دار باشد، در اندازه اثر گزارش استفاده می شود؟ در ذهن من، این مانند این است که بگوییم تفاوت میانگین به معنی آماری نمی رسد، اما همچنان از اهمیت خاصی برخوردار است زیرا اندازه اثر نشان داده شده از مجذور eta متوسط ​​است. یا، آیا اندازه اثر یک ارزش جایگزین برای آزمایش اهمیت است، نه مکمل؟
چگونه می توان eta مربع / جزئی eta مربع را در تحلیل های آماری معنی دار و غیر معنی دار تفسیر و گزارش کرد؟
54519
آیا می‌توانید راهنمایی کنید که آیا باقیمانده‌های دانشجویی زمانی که بر روی یک مدل رگرسیون خطی قوی با استفاده از تخمین‌گر M محاسبه می‌شوند معنی‌دار هستند؟ من می‌خواهم از آن برای تشخیص نقاط پرت با انجام کاری شبیه به این استفاده کنم: rfit = rlm(y~x, data=d) pt(rstudent(rfit), df=nrow(d)-3) آیا این معقول است؟ من با یک معیار نسبتاً خام کاملاً خوشحال خواهم شد و ترجیح می دهم در سمت محافظه کار اشتباه کنم. همچنین به این فکر می‌کنم که آیا باید قبل از انجام این کار، نوعی تشخیص خوب بودن کلی تناسب روی این مدل قوی انجام دهم.
باقیمانده ها و برازش مناسب با رگرسیون خطی قوی
95346
سوال زیر در مورد استقلال شرطی به من داده می شود: فرض کنید ما چهار متغیر تصادفی a، b، c، d داریم. ثابت کنید که اگر a به صورت شرطی مستقل از b باشد و c به d داده شود، آنگاه a به صورت شرطی مستقل از b داده شده d است. به نظر من، این به معنای زیر است: ثابت کنید که اگر a|b,c,d = a|d پس a|b,d = a|d این بسیار ساده به نظر می‌رسد (و شاید خیلی ساده‌لوحانه). اعتراف می کنم که دانش احتمالی مشروط من زنگ زده است. آیا من از زاویه درستی به این سؤال می پردازم یا تفسیر من ناقص است؟ و برای اثبات این ایده از چه زاویه ای باید تلاش کنم؟ ممنون که خواندید، و ببخشید اگر این مطلب را در جای اشتباه پست کردم، مطمئن نبودم که سوالی مانند این کجا مناسب تر است.
اثبات استقلال مشروط خیلی واضح به نظر می رسد، آیا من به اشتباه به آن نگاه می کنم؟
111604
من داده های 5 تکراری را دارم که از یک مدل گرفته شده اند و می خواهم همه 5 تکرار را با هم جا بدهم تا بتوانم پارامترهای مشترک را پیدا کنم. به طور خاص، اگر توزیع اصلی را داشته باشم - $$y = Ae^{-mx} + c$$ و سپس 5 فایل خروجی با x و y داشته باشم (x برای همه تکرارها یکسان است). من می خواهم همه اینها را با هم تطبیق دهم تا $A$، $m$ و $c$ را تخمین بزنم. خروجی های y1،...y5 باید مستقل باشند. y = c(y1، y2، y3، y4، y5) x = c(x1، x2، x3، x4، x5) و سپس پارامترهای مشترک خود را با استفاده از «nls» تخمین می زنم. nls(y ~ Ae^-mx+ c) سوال من این است که اگر مناسب است یک فایل ترکیبی برای تخمین پارامترهای به اشتراک گذاشته شده تولید کنیم یا تکرارها/نمونه ها باید به گونه ای متفاوت مدیریت شوند؟
برازش منحنی nls پارامترهای مشترک
44595
بگویید من برای 5 سال گذشته داده‌هایی دارم و طبقه‌بندی‌کننده‌ام (هر چیزی درخت تصمیم، svm و غیره) را بر اساس آن آموزش داده‌ام، یعنی با توجه به داده‌های ویژگی ورودی مناسب و برچسب‌گذاری صحیح خروجی. اکنون برای سال جاری که باید پیش‌بینی کنم (پیش‌بینی خروجی) می‌توانم داده‌های ویژگی ورودی را که برای سال جاری دارم ارائه کنم و طبقه‌بندی کننده برچسب‌های خروجی صحیح را پیش‌بینی می‌کند. تا اینجای کار خیلی خوبه. با این حال، فرض کنید اگر داده‌های ویژگی ورودی فعلی را نداشته باشم، چگونه می‌توانم پیش‌بینی‌هایی را فقط بر اساس داده‌های گذشته انجام دهم؟ به عنوان مثال پیش بینی انتخابات، یعنی اینکه کدام حزب از هر حوزه انتخابیه برنده خواهد شد. در این ما داده‌های گذشته زیادی داریم اما داده‌های ویژگی ورودی فعلی نداریم، بنابراین چگونه می‌توان این کار را انجام داد؟
پیش بینی با استفاده از یادگیری ماشین
59140
من نقطه زیر را با استفاده از پایتون ترسیم می کنم (a و b غیر گاوسی هستند): x=np.log10(a) y=np.log10(b) xmedian=np.median(x) ymedian=np.median(y ) و من باید نوارهای خطا را روی y از صدک ها اضافه کنم، بنابراین نوشتم (n تعداد نقاط است): y1=np.percentile(y,25)/n y2=np.percentile(y,75)/n چون y log(b) است، خطا را به روش زیر منتشر می کنم: y1=y1/(np.log( 10)*ymedian) y2=y2/(np.log(10)*ymedian) آیا روش دیگری برای اندازه گیری نوارهای خطا بدون استفاده از نمودار با مقیاس ورود به سیستم؟
نوارهای خطا در لگاریتم
88613
چند جمله دارم در درون جملات من چند کلمه خاص دارم: word1 و word2 word1 و word2 دقیقاً یکسان هستند اما معانی متفاوتی دارند. با توجه به جمله ای که حاوی word1 یا word2 است، سعی می کنم حدس بزنم که کلمه خاص در جمله داده شده معنای word1 یا word2 دارد. من فکر می کنم که می توانم از فرمول **Infirmation متقابل** استفاده کنم، اما آیا روش دیگری وجود دارد که بتوانم برای چنین هدفی استفاده کنم **یا** آیا مثالی وجود دارد که چگونه می توانم _اطلاعات متقابل_ را برای هدف خود اعمال کنم؟
تشخیص اینکه کدام جمله با یک کلمه یا کلمه دیگر مرتبط است؟
64500
آیا بین دو کاربرد 95 درصد تفاوت وجود دارد: * میانگین + 2 انحراف معیار (از لحاظ آماری معنی دار) * فاصله اطمینان
95% در 2 انحراف استاندارد بالاتر از فاصله اطمینان 95% چگونه متفاوت است؟
1001
من توزیع‌هایی از دو مجموعه داده متفاوت دارم و می‌خواهم اندازه‌گیری کنم که توزیع‌های آنها (از نظر فرکانس‌های bin) چقدر شبیه است. به عبارت دیگر، من به همبستگی توالی های نقطه داده علاقه مند نیستم، بلکه به خواص توزیعی آنها با توجه به شباهت علاقه مند هستم. در حال حاضر فقط می توانم شباهتی را در چشم انداز مشاهده کنم که کافی نیست. من نمی خواهم علیت را فرض کنم و نمی خواهم در این مرحله پیش بینی کنم. بنابراین، من فرض می کنم که همبستگی راهی است که باید رفت. ضریب همبستگی اسپیرمن برای مقایسه داده‌های غیر عادی استفاده می‌شود و از آنجایی که من چیزی در مورد توزیع واقعی در داده‌هایم نمی‌دانم، فکر می‌کنم این یک شرط ذخیره است. نمی‌دانم که آیا این معیار می‌تواند برای مقایسه داده‌های توزیعی به جای نقاط داده‌ای که در یک توزیع خلاصه می‌شوند، استفاده شود. در اینجا کد مثال در R که نمونه‌ای از مواردی است که می‌خواهم بررسی کنم: aNorm <- rnorm(1000000) bNorm <- rnorm(1000000) cUni <- runif(1000000) ha <- hist(aNorm) hb <- hist(bNorm) hc <- hist(cUni) print(ha$counts) print(hb$counts) print(hc$counts) # n نسبتا مشابه <- دقیقه(c(NROW(ha$counts),NROW(hb$counts))) cor.test(ha$counts[1:n]، hb$counts[1:n], method=spearman) # کاملاً متفاوت n <- min(c(NROW(ha$counts),NROW(hc$counts))) cor.test(ha$counts[1:n], hc$counts[1:n], method=spearman) آیا این منطقی است یا من برخی از مفروضات ضریب را نقض می کنم؟ با تشکر، R.
آیا ضریب همبستگی اسپیرمن برای مقایسه توزیع ها قابل استفاده است؟
54514
من یک متغیر توضیحی دارم، بستن، که قیمت بسته شدن روزانه یک شرکت در بازار سهام است. موارد زیر این متغیر توضیحی را خلاصه می کند: قیمت در بازار بسته --------------------------------------- ---------------------- درصدها کوچکترین 1% .49 0 5% 1.5 0 10% 2.95 0002 Obs 2261717 25% 8.84 .0013 مجموع Wgt. 2261717 50% 19.39 میانگین 44.81048 Largest Std. توسعه دهنده 1510.413 75% 32.78 155411.3 90% 57.02 155431 واریانس 2281348 95% 74.78 155978 چولگی 86.71337 99% 1151.810 1151.81 نمودارهایی که تبدیل‌ها را نشان می‌دهند (من از STATA استفاده می‌کنم): ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MhaIV.png) همانطور که می‌بینید، داده‌ها بسیار ناهموار هستند. مشکل من این است که چگونه می توانم با این مشکل برخورد کنم؟ تنها یک شرکت بالاتر از صدک 99٪ وجود ندارد. برای مثال: sum close if close > 126.81 متغیر | Obs Mean Std. توسعه دهنده حداقل حداکثر -------------+--------------------------------- ---------------------- بستن | 22615 2047.126 14968.92 126.82 155990 و حتی اگر قرار باشد تمام داده های بالای صدک 99 درصد را حذف کنم، چرا این را به عنوان مرز انتخاب کنم و مثلاً صدک 95 درصد را انتخاب نکنم؟ توجه داشته باشید که به نظر می‌رسد انجام یک «افت در صورت بستن > 126.81» داده‌ها را در هنگام استفاده از تبدیل ریشه مربع عادی می‌کند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NAjpR.png) اما دوباره ، رویکرد من چندان علمی به نظر نمی رسد. در نهایت، آیا انتشاراتی وجود دارد که بتوانم بخوانم که به موضوع خاص تبدیل/عادی سازی داده های قیمتی منحرف می پردازد؟ ویرایش: آیا کسی می تواند به من بگوید که چرا نردبان چیزی را پس نمی دهد؟ . نردبان بسته فرمول تبدیل chi2(2) P(chi2) ------------------------------------- ---------------------------- بسته مکعبی^3 . . مربع نزدیک^2 . . هویت نزدیک . . ریشه مربع sqrt (بستن) . . log log (بستن) . . 1/(ریشه مربع) 1/sqrt(بسته) . . معکوس 1/بستن . . 1/مربع 1/(بسته^2) . . 1/مکعب 1/(بسته^3) . .
چگونه می توان با داده های شدید اما واقعی برخورد کرد، به عنوان پرت یا خیر طبقه بندی کرد؟
15951
من اغلب رگرسیون را از یک مجموعه داده کم n اجرا می کنم (~ 100 مشاهده). اغلب نتایج تنها با گنجاندن متغیرهای کنترل معنادار هستند. با این حال، من اغلب مقالات مجلاتی را می بینم که در آن افراد (همیشه با تعداد زیادی مشاهدات) ادعا می کنند که رگرسیون خود را با و بدون متغیرهای کنترل انجام داده اند. چرا مردم اغلب رگرسیون را با و بدون متغیرهای کنترلی انجام می دهند؟
چرا مردم اغلب رگرسیون را با و بدون متغیرهای کنترلی انجام می دهند؟
44590
در مدل مختلط خطی SPSS (تحلیل-> مدل مختلط-> خطی)، می توان مقادیر پیش بینی شده را انتخاب کرد. در فایل داده SPSS، یک ستون با داده های جدید، یعنی مقادیر پیش بینی شده، اضافه می شود. هنگامی که من یک مدل خطی را از طریق مدل ترکیبی خطی تعمیم یافته در SPSS اجرا می کنم (تجزیه و تحلیل->مدل مختلط->خطی تعمیم یافته، که اساساً با مدل اول زمانی که یک مدل خطی را انتخاب می کنید یکسان است)، میانگین تخمین زده شده در یک نمودار ارائه می شود. که به صورت خودکار توسط SPSS تولید می شود. آیا کسی تفاوت بین مقادیر پیش بینی شده و میانگین تخمینی را می داند؟
تفاوت بین مقادیر پیش بینی شده و میانگین های تخمینی
92606
فرض کنید، آزمایشی انجام می‌دهم که در آن یک رویداد a 1000 بار در 1000 آزمایش درست است. بنابراین، احتمال 1000/1000 = 1 می شود. اگر قرار است آزمایش دیگری انجام دهم، پیش بینی من در مورد وقوع رویداد 'a' 1 است. **آیا راهی وجود دارد که در محاسبه احتمال این واقعیت را در نظر بگیرم که من تمام نشده ام. با تمام آزمایش‌ها (احتمالاً بی‌نهایت)، و احتمال پیش‌بینی‌شده رویداد «a» باید کمی کمتر از 1 باشد، حتی اگر همه آزمایش‌های قبلی رویداد داشته باشند. الف درست است.**
احتمال آزمایش در حال انجام
59142
این سوال اولین سوال من را دنبال می کند. من رگرسیون لجستیک را در یک دوره چند ساله اجرا کردم. نویسندگانی که مدلی را که من استفاده می‌کنم ایجاد کرده‌اند، نتایج سالانه خود را جمع‌آوری کرده‌اند تا ضرایب و آمار t را برای همه سال‌ها در یک بار ارائه کنند. آنها توضیح می دهند که ضریب تجمیع یک متغیر صرفاً میانگین تمام ضرایب برازش این متغیر است. به طور مشابه، شبه R2 میانگین شبه R2 است. اما آنها همچنین توضیح می دهند که چگونه آمار t مربوط به هر متغیر را تجمیع می کنند، اما من واقعاً نمی دانم. من ذکر می کنم (ص 400): > آمار t با استفاده از رویکرد فاما و مک بث از سری زمانی ضرایب لاجیت برازش شده محاسبه می شود و این فرضیه را ارزیابی می کند که مقدار ضریب مورد انتظار صفر است Coulton, J. J., & Ruddock, C. (2011). سیاست پرداخت شرکت در استرالیا و آزمون تئوری چرخه عمر. حسابداری و مالی، 51، 381-407. 1.آیا با این روش آشنایی دارید؟ 2. و سوال جزئی اما... من از SPSS استفاده کردم و سطح معنی داری (0.0xx) را دریافت کردم، نه t-stat. آیا t-stat چیزی است که باید از sig استنباط کنم. سطح؟
مجموع آمارهای t سالانه (رگرسیون لجستیک)
111168
من از تابع compareGrowthCurves در بسته آماری R استفاده می‌کنم، اما به نظر نمی‌رسد توضیحی در مورد اینکه این منحنی برای چه نوع منحنی معتبر است پیدا کنم. آیا کسی می داند که آیا خانواده خاصی از توابع وجود دارد که من نباید از آن استفاده کنم؟ به طور خاص، من اطلاعاتی در مورد رشد باکتری دارم و تحت برخی شرایط من رشد لجستیک کتاب درسی را به یک فلات پایدار در فاز ثابت دارم، اما در برخی دیگر من یک مرحله مرگ آشکار پس از شروع فاز ساکن دارم. آیا با این نوع منحنی نتایج معتبری دریافت خواهم کرد؟ (من فقط بین منحنی های یک شکل کلی مقایسه می کنم). ممنون از هر گونه اطلاعاتی، مطمئنم موجود است اما آن را پیدا نکردم.
انواع منحنی های رشد که با استفاده از statmod compareGrowthCurves قابل مقایسه هستند
91970
در مورد آزمون کای دو پیرسون به نظر می رسد تفاوت ظریفی بین آزمون خوب بودن تناسب و آزمون استقلال وجود دارد. چیزی که گیج کننده است این است که به نظر می رسد هر دو آزمون به روشی بسیار مشابه محاسبه می شوند. سوال من: تفاوت واقعی چیست و چگونه می توان آن را در عمل مدیریت کرد؟ (نکته: این سوال مرتبط است، اما یکسان نیست: تست استقلال در مقابل تست همگنی)
آزمون مجذور کای: تفاوت بین آزمون خوب بودن برازش و آزمون استقلال
11903
## پیشینه رویکردهای مرسوم برای برازش مدل‌های پیشینی به داده‌های مشاهده‌شده به دنبال یافتن پارامترهای مدلی هستند که احتمال داده‌ها را به حداکثر می‌رسانند. برای مدل‌های پیچیده‌تر، این امر معمولاً به جستجوی تکراری در یک فضای پارامتر معقول، محاسبه احتمال داده‌های داده‌شده به هر مجموعه پارامتر کاندید و انتخاب از میان نامزدهای ارزیابی‌شده، مجموعه‌ای که داده‌ها را محتمل‌تر می‌کند، نیاز دارد. هنگام مقایسه خانواده‌های مختلف مدل‌ها با توجه به توانایی آنها در محاسبه داده‌های مشاهده‌شده، یک استاندارد طلایی برای معیار مقایسه، عملکرد پیش‌بینی اعتبار متقابل است. یعنی برای هر خانواده مدل مورد علاقه و هر زیر مجموعه از داده‌های مشاهده‌شده، حداکثر احتمال احتمال پارامترهای آن خانواده با توجه به حذف داده‌های آن زیرمجموعه به دست می‌آید و احتمال وجود زیرمجموعه حذف شده با توجه به این پارامترها ارزیابی می‌شود. جمع‌آوری تخمین‌های احتمال در میان زیرمجموعه‌ها معیاری از تناسب را به دست می‌دهد که به مقایسه خانواده‌های مدلی اجازه می‌دهد که با تفاوت‌های بالقوه بین خانواده‌ها در توانایی آنها برای تطبیق نویز بیش از حد و بالاتر از توانایی آنها برای تطبیق پدیده‌های مورد علاقه در داده‌ها آلوده نشده‌اند. ## پیش زمینه به نظرم می رسد که این رویکرد سلسله مراتبی تکرار شده، جستجوی مکرر تخمین پارامترهای ML برای هر زیرمجموعه اعتبارسنجی متقابل، ممکن است از نظر محاسباتی به یک رویکرد یک مرحله ای ساده شود. به طور خاص، نمی‌دانم که آیا یک الگوریتم ژنتیک غیرخود پایان‌پذیر مانند الگوریتم DEoptim ممکن است با یک تابع هدف عرضه شود که به‌طور تصادفی (با جایگزینی) از داده‌های مشاهده‌شده نمونه‌برداری کند، قبل از ارزیابی کفایت یک مجموعه پارامتر کاندید معین از یک مدل معین. (بنابراین، «جستجو» اکنون برای مجموعه پارامترهای کاندید است که احتمال مشاهده داده‌ها را در آینده به حداکثر می‌رساند.) پس از تعداد زیادی نسل، آخرین نسل باقیمانده از مقادیر پارامتر (یا مقداری تجمع N نسل های اخیر) به عنوان تخمین نهایی انتخاب شده و کفایت مدل (برای مقایسه با سایر خانواده های مدل) با محاسبه احتمال داده های مشاهده شده ارزیابی می شود (نه نمونه گیری مجدد) با توجه به این مدل. ## سوالات 1. آیا این ایده جدید است؟ 2. آیا این ایده آشکارا ارزش ندارد؟ (اگر چنین است، چرا؟)
برآورد با حداکثر کردن احتمال آینده
44592
مدل خطی به شکل ماتریس $ \mathbf{y}=\mathbf{X}\beta+\epsilon\textrm{ جایی که }\epsilon\sim\mathbb{N}\left(0,\sigma^{2}\mathbf{) است. V}\راست). $ سپس $\beta$ را می توان از طریق حداقل مربعات تعمیم یافته به صورت $ \widetilde{\beta}=\left(\mathbf{X}^{\prime}\mathbf{V}^{-1}\mathbf{X} تخمین زد. \راست)\mathbf{X}^{\prime}\mathbf{V}^{-1}\mathbf{y}. $ من نمی دانم که چگونه $\mathbf{V}$ را در اینجا تخمین بزنم. بسیار ممنون می شوم اگر راهنمایی بفرمایید یا مرجعی برای خواندن ارائه دهید. با تشکر
حداقل مربعات تعمیم یافته: برآورد ماتریس واریانس-کوواریانس
95345
من برای مدت کمی به استفاده از JMP برای تولید طرح های سفارشی عادت کرده ام و می خواستم تولید طرح ها را با R با استفاده از بسته های DoE.wrapper بررسی کنم. من می‌خواستم طرحی ایجاد کنم که یک فاکتور طبقه‌بندی (3 سطح) و سپس یک عامل پیوسته داشته باشد که بین 10 تا 100 باشد. وقتی به مستندات تابع Dopt.design نگاه کردم، در مورد نحوه تعیین این گیج شدم. آرگومان factor.names برای تابع به نظر مکانی است که این اطلاعات را مشخص می کند، اما به نظر می رسد همه مثال ها فقط فاکتورهای طبقه بندی را مشخص می کنند. plan = Dopt.design(10, factor.names = list( var1 = c('Short', 'Medium', 'Tall'), var2 = c(10, 100)), فرمول = ~ var1 * var2 ) اگر من موارد زیر را انجام دهید به نظر می رسد که من فقط عوامل طبقه بندی را مشخص می کنم. من فکر می کردم که یک آرگومان اضافی برای تابع وجود داشته باشد که نوع متغیر را روشن کند. اینجا چیزی را از دست دادم؟ آیا این اطلاعات در طول طراحی آزمون مورد نیاز است؟
متغیرهای مقوله ای در مقابل متغیرهای پیوسته در AlgDesign و DoE.Wrapper
7318
من آزمایشی دارم که نتایج (متغیرهای وابسته) تولید می‌کند که تست‌های نرمال بودن را قبول نمی‌کنند، بنابراین فرضیه‌ها را با استفاده از آزمون‌های ناپارامتریک آزمایش می‌کنم. DV های من پیوسته هستند، در حالی که عوامل من (متغیرهای مستقل) ترتیبی یا اسمی هستند. من از آزمون Kruskal-Wallis و آزمون Friedman (با استفاده از Matlab) استفاده کرده ام. بیشتر اوقات من فقط علاقه دارم 2 IV را برای تأثیرات مهم آزمایش کنم، اگرچه گاهی اوقات 3 را آزمایش می کنم. می خواهم بدانم که آیا تأثیرات متقابل مهمی روی DV بین IV های من وجود دارد یا خیر. معمولاً من از یک ANOVA دو طرفه برای انجام این کار استفاده می‌کنم، اما با توجه به توزیع‌های غیرعادی مناسب نیست. من نمی خواهم از تبدیل IV های خود استفاده کنم، و با وجود غیر عادی بودن، ANOVA را ادامه دهم. چگونه می توانم بفهمم کدام اثرات متقابل مهم هستند؟ از چه تست ناپارامتریکی می توانم استفاده کنم؟ امیدوارم کسی بتونه کمک کنه نیک
از کدام آزمون ناپارامتریک می توانم برای شناسایی تعاملات معنی دار متغیرهای مستقل استفاده کنم؟
54515
اجازه دهید داده‌های سه بعدی داشته باشیم (مثلاً سرعت زاویه‌ای x، سرعت زاویه‌ای y، سرعت زاویه‌ای z). تصمیم گیری در مورد استفاده از فیلتر کالمن یا فیلتر ذرات.
توزیع گاوسی در مقابل توزیع غیر گاوسی
59141
من دیدم که مفهوم پشیمانی بیشتر برای مشکلات یادگیری آنلاین کاربرد دارد، اما در حالی که تعریف را مرور می‌کنیم، به نظر می‌رسد که محدود به این تنظیمات نیست. من سعی می کنم با یک مثال ساده این مفهوم را در قالب مدل های خطی ساده توضیح دهم. صفحه ویکی‌پدیا تلاش می‌کند این کار را انجام دهد، اما در بهترین حالت ناقص است، آیا کسی مرجعی دارد که در آن نمونه‌ای از پشیمانی وجود داشته باشد که در تنظیمات رگرسیون خطی اعمال شده است. با تشکر
پشیمانی در تنظیمات رگرسیون خطی
111163
من با منابع مختلف بررسی کرده ام، اما هنوز در گیج هستم: 1) فرضیات دقیق آزمون میانه خلق چیست؟ 2) آیا همگنی واریانس برای هر دو گروه لازم است یا معیار شکل یکسان کافی است؟ پیشاپیش از کمک شما بسیار سپاسگزارم
مفروضات دقیق آزمون میانه خلق چیست؟
28254
من داده هایی از یک آزمایش دارم. متغیر مستقل زمان و متغیر وابسته از دست دادن جرم مواد آلی است. حالا میخوام مقایسه کنم که مدل خطی بهتر میاد یا غیرخطی. از درک من، $R^2$ (تنظیم شده یا نه) نباید استفاده شود و به جای آن باید به دنبال اقدامات شبه$R^2$ باشم (مثلاً McFadden، Nagelkerke). آیا این حقیقت دارد؟ اگر چنین است، من نمی‌دانم چگونه می‌توانم مدل‌های تهی را برای مدل خطی و غیرخطی که برای محاسبه McFadden Pseudo-$R^2$ لازم است، بدست بیاورم. من تمام آمار را در `R` انجام می دهم و از تابع nls برای مدل غیر خطی و از تابع lm برای مدل خطی استفاده کردم. اکنون، من می‌خواستم Pseudo-$R^2$ توسط McFadden (1-(LL1/LL0)) را پیاده‌سازی کنم، اما در یافتن مدل‌های تهی گیر کرده‌ام. میشه لطفا یکی بهترین روش مقایسه مدل خطی و غیر خطی رو توضیح بده؟ هر جستجویی در وب راه حلی به همراه نداشت. هر گونه کمک مستقیم یا پیوند به سایر وب سایت ها / پست ها بسیار قدردانی می شود. پیشاپیش ممنون و آخر هفته خوبی داشته باشید، استفان
شبه$R^2$: مدلهای تهی برای رگرسیون خطی و غیرخطی چیست؟
95340
آیا کسی می تواند به من شهودی بدهد که چه زمانی SVM یا LR را انتخاب کنم؟ من می‌خواهم شهود پشت آن را بفهمم که تفاوت بین معیارهای بهینه‌سازی یادگیری ابر صفحه این دو چیست، که در آن اهداف مربوطه به شرح زیر است: الف) SVM: سعی کنید حاشیه بین نزدیک‌ترین بردارهای پشتیبانی 2\ را به حداکثر برسانید. LR: به حداکثر رساندن احتمال کلاس پسین اجازه دهید فضای ویژگی خطی را برای SVM و LR در نظر بگیریم. برخی از تفاوت هایی که قبلاً می دانم: 1\. SVM قطعی است (اما می توانیم از مدل پلاتس برای امتیاز احتمال استفاده کنیم) در حالی که LR احتمالی است. 2\. برای فضای هسته، SVM سریعتر است (فقط از بردارها پشتیبانی می کند)
SVM v/s رگرسیون لجستیک
59149
من چندین سال داده انباشته روزانه دارم که می خواهم یک رگرسیون خطی چند متغیره برای آنها انجام دهم. همبستگی خودکار با یک متغیر خاص بالا است و یک رابطه فیزیکی قوی برای این مورد وجود دارد. در مورد من، مایلم این اثر را با تجمیع در سطح هفتگی به حداقل برسانم. اما به ذهنم خطور می کند که هفته از کدام روز شروع می شود کاملاً دلخواه است. وقتی به میانگین‌های 7 روزه نگاه می‌کنم و روی نمودار X-Y رسم می‌کنم، به وضوح می‌توانم رابطه بین متغیرها را ببینم. در مقابل نگاه کردن به دوره‌های غیر همپوشانی، وضعیت رابطه چندان واضح نیست. بنابراین آیا استفاده از دوره های همپوشانی در تحلیل رگرسیون مشروع و قابل دفاع است؟ آیا نامی برای این وجود دارد؟
انجام رگرسیون خطی بر روی داده های میانگین چرخشی
95343
فرض کنید مدل زیر را داریم: $$Y_i = \alpha + u_{j(i)} + \epsilon_i$$ برای $i=1,\ldots,m$, برای برخی از گروه‌ها $j=1,\ldots,J $، و $$Y_i = \alpha + \epsilon_i$$ برای $i=m+1،\ldots،n$، جایی که $J<m<n$. در اینجا $u_j\stackrel{iid}{\sim}N(0,\sigma_u^2)$ و به طور مستقل، $\epsilon_i\stackrel{iid}{\sim}N(0,\sigma_\epsilon^2)$ . ایده این است که $u_j$ اثرات تصادفی هستند، اما تنها زیر مجموعه ای از مشاهدات تحت تاثیر آنها قرار می گیرند. چگونه می توان چنین مدلی را با استفاده از یک بسته همه منظوره در R (مانند lme، lmer) مناسب کرد؟
چگونه یک افکت تصادفی را فقط برای زیرمجموعه ای از مشاهدات برازش کنیم (با استفاده از R)
11018
بیایید برخی را در سطح مقدماتی، برخی مقالات و برخی کتاب های درسی را هدف قرار دهیم. کاربردی مفیدتر است، از جمله کد R عالی است. با تشکر
ارجاعاتی را در مورد وزن دهی نمونه نظرسنجی توصیه کنید
44596
من نمودار persp را نمی فهمم، مثال من این است: c<-mat.or.vec(5,2) c[1,1]<-1 c[1,2]<-1 c[2,1]< -1 c[2,2]<-1 c[3,1]<-2 c[3,2]<-0 c[4,1]<-1 c[4,2]<-1 c[5 ,1]<-1 c[5,2]<-1 persp(c,xlab = X, theta = -60,ylab = Y, zlab = Z,ticktype = detailed ) گرافیک زیر را دریافت می کنم: ![Plot of Persp درک](http:/ /i.stack.imgur.com/t9Y1Z.png) اما من متوجه نمی شوم؟! منظورم این است که چرا محور x و y از 0 تا 1 هستند؟ طرح چه مقادیری را می گیرد؟ من فکر کردم که مقادیر ستون و ردیف را از ماتریس می گیرد، بنابراین مانند [5،] 5 را به عنوان مثال می دهد. یا این نمودار چگونه ایجاد می شود؟ ماتریس [،1] [،2] [1،] 1 1 [2،] 1 1 [3،] 2 0 [4،] 1 1 [5،] 1 1 است و من فکر کردم اولین نقطه مانند x است =1، y= 1 و z =1 و غیره؟ یا x=3 و y=1 z=2؟
درک طرح persp
112513
من اغلب در عمل، با استفاده از تکنیک‌های رگرسیون غیرخطی مانند شبکه‌های عصبی پیش‌خور یا جنگل‌های تصادفی، دریافته‌ام که نمودار واقعی در مقابل برازش (در مجموعه آموزشی) به‌طور آشکاری کمتر از حد بهینه به نظر می‌رسد، مثلاً. مانند این: ![مشکل واقعی در مقابل طرح برازش شده](http://i.stack.imgur.com/rxv12.png) در اینجا مدل مقادیر بالای $y$ را کمتر برآورد می‌کند، و مقادیر پایین را کمتر از حد تخمین می‌زند. به نظر من طبیعی است که این پیش‌بینی‌ها را با استفاده از رگرسیون خطی $y$ مشاهده‌شده بر روی $y$ پیش‌بینی شده تغییر بدهم: * ابتدا یک مدل رگرسیون غیرخطی را اجرا می‌کنم و اولین پیش‌بینی مجموعه آموزشی $\hat y_ را به دست می‌آورم. {train} = f(X_{train})$ * سپس یک رگرسیون خطی $y_{train}$ روی $\hat y_{train}$ اجرا می‌کنم، و $y_{train} = \hat a + \hat b \times \hat y_{train} + \hat \epsilon$ * دریافت کنید، سپس برای هر مجموعه پیش‌بینی $X_{test}$، یک مقدار مجدد مقیاس‌شده را خروجی می‌دهم پیش‌بینی: $\hat y_{test} = \hat a + \hat b \times f(X_{test})$. به نظر واضح است که این خطای کمتری در مجموعه آموزشی دارد، اما آیا کسی می‌داند که آیا به خطای تعمیم آسیب می‌زند؟
پس از درمان خطی رگرسیون غیرخطی
108824
من در حال خواندن کتاب زیر (عالی!) http://www.inference.phy.cam.ac.uk/itila/ بوده ام که سوالاتی را در مورد MLE ایجاد کرده است. من با این تصور راحت هستم که برآوردگرهای ML اغلب مغرضانه هستند. با این حال، من بسیار کنجکاو بودم که بفهمم در یکی از مثال‌ها، MLE بایاس است، اما مقدار مورد انتظار تابع احتمال بی‌طرف است. به طور خاص این موردی است که ما می خواهیم پس از مشاهده تعدادی پرتاب سکه، سوگیری یک سکه را تخمین بزنیم. به عنوان مثال، فرض کنید HHT را مشاهده می کنیم، آنگاه MLE احتمال سرها 2/3 است، در حالی که مقدار مورد انتظار تابع درستنمایی 0.6 است. یک مثال بسیار مشابه در اینجا بیشتر توضیح داده شده است: http://dustwell.com/maximum-likelihood-vs-expected-value.html به نظر من ممکن است پیام کلی تری در اینجا در مورد توابع احتمال اریب وجود داشته باشد: در مواردی که احتمال وجود دارد تابع چوله است، به دست آوردن مقدار مورد انتظار تابع درستنمایی، تخمین متفاوتی را تا نقطه ای از تابع که در آن احتمال به حداکثر می رسد، به ما می دهد. آیا ویژگی های کلی در اینجا وجود دارد؟ آیا گرفتن مقدار مورد انتظار تابع درستنمایی همیشه یک برآوردگر بی طرفانه (یا حداقل با سوگیری کمتر) به ما می دهد؟ آیا کسی تا به حال از این به عنوان برآوردگر استفاده می کند؟ به عنوان مثال، برآوردگر MLE برای واریانس به خوبی شناخته شده است که بایاس است. اگر مقدار مورد انتظار تابع درستنمایی را برای MLE واریانس بگیریم، آیا این بی طرفانه است؟ خیلی ممنون برای هر فکری من سعی کردم برای بحث در این مورد در گوگل جستجو کنم، اما چیز زیادی پیدا نکردم - اگر کسی یادداشت‌های کتاب/سخنرانی را می‌شناسد که در این مورد بیشتر بحث کند، بسیار عالی خواهد بود. رابین
مقدار مورد انتظار تابع درستنمایی: چرخش سکه، برآوردگرهای مغرضانه و بی طرفانه
11015
آخرین چارچوب کلی که من در روش پوشش مبتنی بر MCMC می شناسم (انجام انتخاب متغیر و خوشه بندی به طور همزمان) مقاله انتخاب متغیر بیزی در خوشه بندی داده های با ابعاد بالا از Tadesse و همکاران (2005) و مقاله انتخاب متغیر در خوشه بندی است. از طریق مدل های مخلوط فرآیند دیریکله کیم و همکاران (2006). نمی دانم آیا تحولات جدیدی در این زمینه وجود دارد؟ به خصوص آیا کسی سعی کرده است مدل تادسه را گسترش دهد؟ پیشاپیش متشکرم
توسعه جدید در انتخاب متغیر در خوشه بندی با استفاده از MCMC؟
59145
من در حال انجام رگرسیون خطی هستم که در آن متغیر وابسته نسبتی است که می تواند از 0.01 تا 100 متغیر باشد. آیا گرفتن لاگ متغیر وابسته و رگرسیون روی آن مشکلی ندارد؟ من نتایج یک مطالعه را تطبیق می دهم و این همان کاری است که آنها انجام دادند. تفاوت گرفتن log با استفاده از نسبت همانطور که هست چیست؟
رگرسیون خطی با یک متغیر وابسته که یک نسبت است
15957
داشتم در مورد آزمون ریشه واحد مطالعه می‌کردم که کمی در مورد تنظیمات فرضیه صفر در مقابل فرضیه جایگزین سردرگم شدم و به این فکر افتادم که نظر کارشناسان را جویا شوم. در آزمون دیکی-فولر تقویت شده، فرضیه صفر این است که یک ریشه واحد وجود دارد. سردرگمی من از این واقعیت ناشی می شود که فکر می کنم فرضیه صفر _باید_ باشد که ریشه واحد وجود ندارد. به من اجازه دهید توضیح دهم: دلیل اینکه چرا اینطور فکر می کنم (و می دانم که احتمالاً اشتباه می کنم اما امیدوارم کسی به اشتباه من اشاره کند) بیشتر فلسفی است تا ریاضی. منظور من از این است: پذیرش فرضیه صفر، به این معنی است که آنچه می گوید ممکن است درست باشد (از نظر آماری)، و رد فرضیه صفر بر اساس داده های مشاهده شده، به این معنی است که شانس بسیار کمی (کم) (p-value) وجود دارد. با توجه به داده ها، فرضیه صفر درست است، اما بسیار بعید است (و از این رو ما فرضیه صفر را رد می کنیم). اما اگر فرضیه صفر را بپذیریم، و داده‌ها را (با تفکیک آن) تبدیل کنیم تا از ریشه واحد خلاص شویم، آن‌گاه به آنچه ممکن است درست باشد، عمل کرده‌ایم و در نتیجه یک سری زمانی متفاوت را مدل‌سازی می‌کنیم. اگر (و اگر بزرگ است) فرضیه صفر این بود که ریشه واحد وجود ندارد، پس از اجرای آزمایش ریشه واحد (فرضی من)، فقط در صورتی که احتمال کمی وجود داشته باشد که بزرگی ریشه کمتر از 1 است. ممنون که قبلا افکار اشتباه من را اصلاح کردید.. :)
آزمون ریشه واحد، ایستایی و فرضیه صفر
11019
من در حال انجام طبقه بندی متن هستم و با طبقه بندی کننده های مختلف بازی می کنم. با این حال، من یک سوال بسیار اساسی دارم: اگر یک سند نادیده جدید وارد شود و به هیچ یک از کلاس های قبلی تعلق نداشته باشد، چه؟ طبقه بندی کننده هایی که من دیده ام (در WEKA، libsvm و غیره) همچنان ادامه می دهند و به هر حال سند نادیده را در یکی از کلاس های موجود قرار می دهند. این وضعیت اغلب در کار من پیش می آید. چگونه می توانم آن را معقولانه اداره کنم؟ در یک یادداشت مرتبط، آیا راهی وجود دارد که بتوانم بفهمم که طبقه‌بندی‌کننده چقدر از تصمیم طبقه‌بندی خود مطمئن است؟ ================================ویرایش 1================= ==================== بعد از خواندن نظرات در اینجا ، فکر می کنم می خواهم یکی از دو مورد را امتحان کنم: (1) از رویکرد شرح داده شده در Zadrozny استفاده کنید ,کاغذ الکان که استفن به من اشاره کرد تا تخمین های احتمال را بدست آورد. اگر احتمالات کمتر از یک آستانه جادویی باشد، من می‌توانم به سادگی نمونه‌ی نادیده را به عنوان نویز کنار بگذارم. (2) من به طور فزاینده ای شروع به فکر می کنم که به جای آن می توانم این مسئله را به عنوان مشکلات _n_ 1-class مدیریت کنم. بیایید بگوییم که من کلاس های _n_ در داده های خود دارم. من می‌توانم طبقه‌بندی‌کننده‌های _n_ 1-class را بسازم و آموزش بدهم که یک تصمیم بله/خیر می‌دهد (خواه یک نمونه متعلق به یک کلاس خاص باشد یا نه). بنابراین وقتی یک نمونه جدید وارد می‌شود، می‌توانم آن را از طریق هر یک از طبقه‌بندی‌کننده‌های کلاس 1 عبور دهم. افکار؟ هر گونه پیاده سازی/بسته ای که کسی از آن آگاه است که به من اجازه می دهد انجام دهم (2)؟ ================================================== ==========================
چگونه یک طبقه‌بندی کننده اسناد نادیده‌ای را که به هیچ یک از کلاس‌های قبلی تعلق ندارند، مدیریت می‌کند؟
112515
من طرح آزمایشی زیر را دارم (طرح بلوک تصادفی). بلوک با 4 درمان (A، B، C، D) تکرار شده در 4 محل مختلف. تیمارها بر روی افراد از گونه های مختلف (عامل با 6 سطح) اعمال شد که متغیر پاسخ قد یک فرد است. تمرکز اصلی بر روی اثر تیمار است، اما با توجه به تنوع بین محل تکثیر و اثر گونه‌ها. با توجه به تعداد افراد یک گونه، طرح بسیار نامتعادل است (بین 40 تا 250 نفر در هر گونه در کل آزمایش). من نتوانستم یک مدل مناسب برای این مورد مشخص کنم، و توصیه کردم که یک مدل اثرات مختلط را در R به شکل lmer (ارتفاع~تکرار+درمان+گونه+درمان:گونه+(1|نقشه)) اجرا کنم که در آن نمودار یک تصادفی است. فاکتور با 16 سطح مربوط به محل های هر تکرار که در آن یکی از 4 تیمار مشاهده شد. من این فرمول را نمی فهمم زیرا به نظر من اثر تصادفی به نوعی تکرار اثرات ثابت است (همانطور که سطوح تکرار و درمان را ترکیب می کند)، بنابراین با ساختار سلسله مراتبی آزمایش مطابقت ندارد، و من سود گنجاندن آن را درک نمی کنم. من در مورد هر توصیه ای خوشحالم که چگونه مدل مناسب را مشخص کنم؟
استفاده صحیح از مدل مختلط برای طراحی بلوک تصادفی؟
59148
من در حال خواندن عناصر آمار بیزی فلورنس و همکاران هستم، که در حال حاضر روی فصل 1، کاهش آزمایشات بیزی کار می کنم. من بیشتر آن را روشن می‌دانم، به جز تعریف آزمایش‌های شرطی منظم (ص 51) و هر چیزی که بر این تعریف متکی است. من از کمک در رمزگشایی آن سپاسگزار خواهم بود. تصور می‌کنم کسانی که به پست من پاسخ می‌دهند با این کتاب و اصطلاحات و نشانه‌های آن آشنا هستند، اما خوشحال می‌شوم که در هر درخواست جزئیات بیشتری ارائه دهم. > اگر یک نسخه معمولی از $\Pi^\mathcal{T}$ وجود داشته باشد، به آزمایش شرطی $\mathcal{E}^\mathcal{T}$ گفته می‌شود _regular_ است به طوری که نسخه‌های معمولی $\ وجود داشته باشد. mu^\mathcal{S}$ و $P^{\mathcal{A}\vee\mathcal{T}}$، > در این مورد داریم: > $$\left(1.4.9\right)\hspace{10mm}\Pi^\mathcal{T}=\mu^\mathcal{T}\otimes > P^{\mathcal{A}\vee\mathcal{T }}=P^\mathcal{T}\otimes\mu^\mathcal{S}$$ چیزی که من نمیفهمم عبارت $\mu^\mathcal{T}\otimes است P^{\mathcal{A}\vee\mathcal{T}}$. نحوه تعریف عملگر $\otimes$ (قضیه 0.3.10، ص 18)، در عبارت $Q\otimes W$ $Q$ یک احتمال در $\left(M,\mathcal{M}\right) است. )$ و $W$ انتقالی از $\left(M,\mathcal{M}\right)$ به $\left(N,\mathcal{N}\right)$ است. با این حال، در مورد حاضر، برای هر $\left(a,s\right)\in A\times S$، $\mu^\mathcal{T}\left(a,s\right)$ یک احتمال در $\sigma$-جبر $\mathcal{A}\times S$، در حالی که $P^{\mathcal{A}\vee\mathcal{T}}$ انتقالی از $\mathcal{A}\vee\mathcal{T}$ تا $A\times\mathcal{S}$. بنابراین عبارت $\mu^\mathcal{T}\otimes P^{\mathcal{A}\vee\mathcal{T}}$ به خوبی تعریف نشده است، بنابراین بی معنی است.
کاهش آزمایشات بیزی: آزمایش شرطی منظم
88614
فرض کنید یک ماتریس A با m ردیف و n ستون وجود دارد. هر عنصر یک بردار 3 بعدی است. این بردار 3 بعدی دارای مقادیر مرتبه های مختلف است. آیا می توانیم کوواریانس چنین ماتریسی را محاسبه کنیم؟
کوواریانس ماتریس با ورودی های عنصر به عنوان بردار
105248
من شبیه‌سازی‌های عددی دو سیستم مختلف را انجام دادم که N=1000 هیستوگرام به من نشان داد که به صورت $\\{x,y,y'\\}$، که $x$ متغیر مستقل است، $y=P(x)$ است. توزیع احتمال (فرکانس x)، $y'=P_0(x)$ احتمال نظری است که یک توزیع Chi-Squared با پارامتر یک است (این فقط تابع توزیعی که هیستوگرام های من باید آن را توزیع پورتر-توماس در زمینه حوزه مطالعه من می نامم. برای هر هیستوگرام، مجموع مربعات باقیمانده را دریافت کردم: $$ RSS(n)=\frac{1}{M}\sum_{i}^{M}(y-y')^2 $$ اینجا $M$ تعداد کل bin ها و $n=1،\cdots،N$ شاخص هیستوگرام است. اکنون، من یک نمودار $n\times RSS(n)$ دارم که به من نشان می‌دهد چگونه تناسب با یک منحنی نظری به صورت $n\rightarrow\infty$ بهتر می‌شود. من از منحنی یکسانی برای 1000 هیستوگرام هر سیستم استفاده کردم و باید همان تمایل کاهش باقیمانده را در هر دو مشاهده کنم. این گرایش همانطور که انتظار می رود وجود دارد اما مشکل این است که دو نمودار RSS(n) در مقیاس های کاملاً متفاوت هستند. من متوجه شدم که به نوعی با $M$ و همچنین با واریانس داده های ورودی قبل از فرکانس محاسبه می شود (2000 واریانس مختلف وجود دارد، یکی برای هر سیستم، من نمی توانم آنها را عادی کنم). این فقط حدس من است. من در آمار آماتور هستم و حتی نمی دانم این روش تجزیه و تحلیل چگونه نامیده می شود. شاید من کاملا گم شده ام. اگر کسی می تواند به من کمک کند تا نمودارهای RSS(n) را به درستی مقیاس بندی کنم تا بتوانم آنها را با هم مقایسه کنم (کدامیک سریعتر مناسب می شوند یا کدام یک میانگین RSS بیشتری دارند) یا نام کتاب های خوب مرتبط با موضوع مورد نظر را به من بدهند. بسیار سپاسگزار خواهد بود
چگونه می توان مجموع مجذور باقیمانده دو مجموعه داده مختلف را به طور همبستگی مقیاس کرد تا آنها را با هم مقایسه کرد؟
15950
آیا می توان سهمیه خطر ورود تخمینی را در R رسم کرد؟ برای مثال، نیاز(بقا) fit1 = coxph(Surv(futime، fustat) ~ rx، تخمدان) پیشاپیش سپاسگزاریم. تو
نمودار تخمینی نسبت خطر ورود به سیستم در R
95349
من به دنبال مجموعه بسته‌های «DoE.wrapper» برای R بودم و علاقه‌مند بودم که طرحی با طرح تقسیم‌بندی مانند JMP ایجاد کنم. در JMP می‌توانم تمام فاکتورهایم را در ابتدا مشخص کنم و مشخص کنم که کدام یک از اینها تغییر دادن سخت است. سپس مشخص می‌کنم که چند قطعه کامل را که می‌خواستم اجرا کنم. هنگامی که JMP طرح را ایجاد کرد، انتخاب می کرد که کدام ترکیب از عوامل کل طرح بهترین باشد. وقتی سعی می‌کنم از «Dopt.design» از مجموعه بسته «DoE.wrapper» استفاده کنم، به نظر می‌رسد که باید قبل از مرحله طراحی، تمام ترکیب‌های کل پلات را خودم مشخص کنم. برای مثال کد زیر را ببینید: N = 90 NBlocks = 15 NPerBlock = N / NBlocks factor = list( Size = c(1, 2, 3), Num = c(5, 10, 15), Sep = c(4 , 6, 8) ) wholePlotFactors = cbind( Mode = rep(c('One', 'Two'), هر = 3), Sun = rep(c('Low', 'Med', 'High')، هر = 5)) plan = Dopt.design (N، factor.names = عوامل، بلوک ها = NBlocks، wholeBlockData = wholePlotFactors، فرمول = ~ . + اندازه + Num + Sep + I (Size^2) ) در این حالت، ساختار عامل مسدود کننده به طور کامل توسط ماتریس wholePlotFactors تعیین می شود و بهینه نشده است JMP من را مجبور به تعیین از قبل نمی کند و برای آن بهینه می شود. آیا راهی برای R برای تقلید کامل از JMP در این زمینه وجود دارد؟ آیا من برای ناهار اینجا هستم؟
بهینه سازی کل طرح برای آزمایش های طراحی شده
108820
اگر بخواهم میانگین کل نمونه را با میانگین کسر نمونه مقایسه کنم از کدام تست استفاده کنم؟ بنابراین برای مثال میانگین کل کلاس درس که در آزمون شرکت می کنند و میانگین دختران آن کلاس درس. خیلی ممنونم!
مقایسه دو وسیله
64829
درباره ICC و Kappa مطالب زیادی نوشته شده است، اما به نظر می رسد در مورد بهترین اقداماتی که باید در نظر گرفته شود، اختلاف نظر وجود دارد. هدف من شناسایی معیارهایی است که نشان می دهد آیا بین پاسخ دهندگان توافق وجود دارد و مصاحبه شونده پرسشنامه را اجرا کرده است. 17 نفر به یک لیست تعریف شده از آیتم ها رتبه بندی 0-5 دادند و آنها را بر اساس اهمیت (نه رتبه بندی) رتبه بندی کردند. من علاقه ای به این ندارم که آیا 17 شرکت کننده دقیقاً به یک امتیاز داده اند یا خیر، بلکه فقط به این موضوع علاقه مندم که آیا توافقی وجود دارد که باید به آن امتیاز داده شود یا خیر. به دنبال پیشنهادات در اینجا، من از ICC و همچنین Kappa استفاده کردم اما نتایج متفاوتی به شرح زیر تولید شد: ![نتایج Kappa](http://i.stack.imgur.com/PMsDA.jpg) ![نتایج ICC](http: //i.stack.imgur.com/rd6z2.jpg) همچنین متذکر می شوم که با توجه به نمونه بسیار کوچک، اعتبار ICC به دلیل استفاده از آزمون f می تواند مشکوک باشد به این سوال مراجعه کنید. پیشنهادات و راه برای اظهار نظر در این مورد
ICC و Kappa کاملاً مخالف هستند
17881
یک آزمون معمولی از اهمیت در هنگام بررسی دو جمعیت، آزمون t است، در صورت امکان، آزمون t زوجی. فرض بر این است که توزیع نرمال است. آیا مفروضات ساده‌سازی مشابهی وجود دارد که یک آزمون معناداری برای یک سری زمانی ایجاد کند؟ به طور خاص، ما دو جمعیت نسبتاً کوچک موش داریم که تحت درمان متفاوتی قرار می‌گیرند و هفته‌ای یک بار وزن را اندازه‌گیری می‌کنیم. هر دو گراف توابع رو به افزایش را به طور هموار نشان می دهند، با یک نمودار قطعا بالاتر از دیگری. چگونه «قطعیت» را در این زمینه کمیت کنیم؟ فرضیه صفر باید این باشد که وزن دو جمعیت با گذشت زمان «به یک شکل رفتار می‌کنند». چگونه می توان این را بر اساس یک مدل ساده که نسبتاً رایج است (همانطور که توزیع های معمولی رایج است) با تعداد کمی از پارامترها فرموله کرد؟ پس از انجام این کار، چگونه می توان اهمیت یا چیزی مشابه با مقادیر p را اندازه گیری کرد؟ در مورد جفت کردن موش ها، تطبیق هر چه بیشتر ویژگی ها، با داشتن هر جفت یک نماینده از هر یک از دو جمعیت، چطور؟ من از اشاره‌ای به برخی کتاب‌ها یا مقاله‌هایی که به خوبی نوشته شده و به راحتی قابل درک هستند، در مورد سری‌های زمانی استقبال می‌کنم. من به عنوان یک نادان شروع می کنم. با تشکر از کمک شما. دیوید اپستین
آزمون فرضیه و اهمیت برای سری های زمانی
89455
من مجموعه داده‌های بسیار بزرگی دارم، اما آن را ساده‌تر می‌کنم زیرا، اگرچه فکر می‌کنم باید از آزمون مجذور خی استفاده کنم، اما در استفاده از آن با مشکلاتی مواجه شده‌ام: فرض کنید فهرستی از 20 «فس» مختلف دارم. تعداد «فو»هایی که «نوارها» را متصل می‌کنند، دارای توزیع فرکانس نرمال هستند. برخی از «فوها» به «میله‌های» مختلف متصل می‌شوند. فرض کنید من 500 میله دارم برخی از فوها از داخل میله می آیند، اما برخی نه. چگونه می‌توانم آزمایش کنم که آیا «فوها» ترجیحاً به «میله‌هایی» که در آن ساکن هستند متصل می‌شوند یا خیر؟ ##### ویرایش |--------------------------------| <= کروموزوم |----------* ** **-----------------| <= miRNA (foo) در کروموزوم (بدون ژن) |------0000000000--------------| <= ژن (بار) در کروموزوم (بدون miRNA در آن) |-----------0000** ***0000--------| <= miRNA در یک ژن در کروموزوم من در حال بررسی اتصالات هدف ژن miRNA هستم. هنگامی که miRNA ها ترجمه می شوند، معمولاً ژن های مختلف (یا به طور خاص محصولات پروتئینی آنها) را هدف قرار می دهند. من اهداف ژنی هر miRNA را دارم که با استفاده از الگوریتمی به نام «میراندا» تعیین شده است. می‌خواهم ببینم آیا miRNAی که از داخل یک ژن سنتز می‌شود، ترجیحاً آن ژن را به هزاران miRNA و اهداف ژنی مختلف آنها متصل می‌کند (زیرا برخی از آنها به ژنی که به طور تصادفی از آن منشأ می‌گیرند، متصل می‌شوند). در ابتدا به این فکر کردم که احتمال مشاهده شده را بگیرم که یک فو در یک نوار به آن نوار متصل شود و آن را از احتمال اینکه فو یک نوار را متصل کند کم کنم. آیا این درست است؟ به نظر می رسد که من واقعا از داده های زیادی استفاده نمی کنم ... آیا این راه درستی است؟
چه به مربع چی یا نه
32815
(موضوع از maths.stackexchange.com منتقل شد) من در حال حاضر در حال توسعه برنامه ای هستم که یک موتور استنتاج احتمالی را برای شبکه های بیزی ادغام می کند. شبکه بیزی نوعی از عدم قطعیت مدل را ادغام می کند، که در آن توزیع های احتمال شرطی (CPDs) متغیرهای خاص در شبکه دارای پارامترهای نامشخصی است که باید از داده ها تخمین زده شود. توزیع هایی با این پارامترهای نامشخص همه به عنوان چندجمله ای در مجموعه کوچکی از رویدادهای جایگزین تعریف می شوند. من می‌خواهم از یک رویکرد بیزی برای تخمین این پارامترها استفاده کنم، که از یک قبلی اولیه شروع می‌شود و به تدریج گسترش آنها را با توجه به داده‌های ثبت شده توسط برنامه کاهش می‌دهد. متأسفانه، پرداختن به داده ها کمی دشوار است، زیرا عمدتاً از شواهد نرم تشکیل شده است، بنابراین به نظر نمی رسد تخمین پارامتر راه حل تحلیلی آسانی مانند به روز رسانی مستقیم شمارش دیریکله داشته باشد. بنابراین فکر کردم استفاده از روش‌های نمونه‌گیری مناسب‌تر است (با یک الگوریتم نمونه‌گیری ساده و مهم شروع کنیم). ایده صرفاً انجام نمونه‌برداری برای محاسبه، برای هر مجموعه پارامتر $\mathbf{θ}$ مربوط به یک چندجمله‌ای نامشخص، توزیع پسین $P(\mathbf{θ}|شواهد)$، و به‌روزرسانی توزیع پارامتر بر این اساس است. توجه داشته باشید که من باید توزیع احتمالات پسینی کامل را استنتاج کنم و نه صرفاً برخی از تخمین‌های نقطه‌ای، زیرا می‌خواهم «عدم قطعیت مدل» را به عنوان بخشی از مدل احتمالی خود حفظ کنم. سوال من کاملاً ساده است: پس از جمع‌آوری نمونه‌ها از این توزیع پسین، چگونه از این آمار برای استخراج یک توزیع احتمال کامل بر روی پارامترهای ممکن استفاده کنم؟ از آنجایی که من با چندجمله‌ای سروکار دارم، پارامترها خودشان به‌عنوان یک بردار تعریف می‌شوند، بنابراین توزیع باید یک توزیع چند متغیره و پیوسته باشد، با این محدودیت اضافی که پارامترها باید از بدیهیات معمول نظریه احتمال تبعیت کنند. من به استفاده از تخمین چگالی هسته چند متغیره (KDE) برای استخراج این توزیع پارامتر از نمونه‌هایم فکر می‌کردم، اما نمی‌دانم که آیا این ایده خوبی است یا نه -- هم از نظر صحت ریاضی و هم از نظر کارایی. به عنوان مثال، آیا توزیع حاصل هنوز هم محورهای احتمال را برآورده می کند (مثلاً احتمالاتی که تا 1.0 جمع می شوند)؟ به نظر من با یک مشکل کاملاً استاندارد روبرو هستم (تخمین توزیع پارامتر یک چندجمله ای از طریق نمونه گیری)، اما تاکنون هیچ پاسخی پیدا نکرده ام. نظر شما چیست؟ آیا باید از KDE، روش دیگری استفاده کنم، یا حتی کل ایده تخمین مجدد تابع چگالی را فراموش کنم و مستقیماً با نمونه ها کار کنم؟ * * * @Reply to Neil G: مشکل این است که، در صورتی که شواهد نامشخصی داشته باشیم، ممکن است توزیع پسین روی پارامترها به شکل قبلی نباشد. در مورد شواهد محکم، ما می دانیم که، برای مثال، اگر توزیع پارامتر قبلی یک دیریکله (مزوج قبل از یک چند جمله ای) باشد، پسین نیز یک دیریکله خواهد بود. اما اگر شواهد نامطمئنی را کنترل کنیم - حداقل بر اساس محاسبات من، دیگر درست به نظر نمی رسد (اگر استدلال من اشتباه است لطفاً من را اصلاح کنید). من یک مثال ساده با الهام از طعم گیلاس/آهک راسل و نورویگ (فصل 20) می زنم. بیایید فرض کنیم می خواهیم نحوه توزیع آب نبات با طعم لیمو یا گیلاس را در یک کیسه بدانیم. در رویکرد بیزی، می‌توانیم یک گره پارامتر $\theta$ اضافه کنیم که این توزیع را توصیف می‌کند: ![ex1](http://folk.uio.no/plison/img/ex1.png) با فرض اینکه پارامتر $\theta$ به شرح زیر است توزیع بتا $\text{beta[a,b]}(\theta)$، با توجه به شواهد ارائه شده توسط یک نقطه داده، به راحتی می توانیم پسین را محاسبه کنیم، بگوییم که یک آب نبات خاص $cherry$: $P(\theta|D_1=گیلاس) = \alpha \ P(D_1=گیلاس|\theta) \ P(\theta)$ $P(\theta|D_1=گیلاس) = \alpha' \ \ تتا \ \text{بتا[a,b]}(\theta) = \alpha' \ \theta \ \theta^{a-1} \ (1-\theta)^{b-1}$ $P(\theta|D_1=گیلاس) = \alpha' \ \ \text{beta[a+1,b]}(\theta)$ بنابراین در اینجا می بینیم که پسین هنوز یک توزیع بتا است (البته اگر توزیع دیریکله بود، همان استدلال وجود داشت). حال، تصور کنید که به جای شواهد سخت که یک آب نبات خاص گیلاس آهک است، فقط یک مدرک نرم داشتیم، به عنوان مثال که یک آب نبات خاص گیلاس با $p=0.9$ و آهک با $p=0.1$ است. . از نظر گرافیکی، این به صورت زیر نمایش داده می‌شود: ![ex1](http://folk.uio.no/plison/img/ex2.png) که در آن ما مدرک $o=true$ را داریم. اگر اکنون توزیع پسین را محاسبه کنیم: $P(\theta|o=true) = \alpha \ P(\theta) \ \sum_{F} P(o =true | F) P(F | \theta)$ $ P(\theta|o=true) = \alpha \ \text{beta[a,b]}(\theta) \ \left[0.9 \theta + 0.1 (1-\theta) \right]$ $P(\theta|o=true) = \alpha \ \text{beta[a,b]}(\theta) \ \left[0.8 \theta + 0.1 \right]$ و مشکل اینجاست که، تا آنجا که من می توانم ببینم، توزیع پسین دیگر یک توزیع بتا نیست (بلکه ترکیبی خطی از توزیع های بتا است). به روز رسانی هایپرپارامترهای $a$ و $b$ با شمارش وزنی (همانطور که شما پیشنهاد کردید) باعث اشتباه می شود
توزیع پسین برای پارامتر چند جمله ای
8617
افزایش تعداد موارد و مرگ و میر در طول اپیدمی ها (افزایش ناگهانی تعداد) به دلیل گردش ویروس (مانند ویروس نیل غربی در آمریکا در سال 2002) یا کاهش مقاومت افراد یا آلودگی غذا یا آب یا افزایش تعداد پشه ها این اپیدمی ها به صورت دوره های پرت ظاهر می شوند که می توانند هر 1 تا 5 سال یکبار رخ دهند. با حذف این موارد پرت، شواهدی از اپیدمی‌هایی که بخش مهمی از پیش‌بینی و درک بیماری را تشکیل می‌دهند، حذف می‌کنیم. آیا پاکسازی داده ها در هنگام برخورد با موارد دورافتاده ناشی از اپیدمی ها ضروری است؟ آیا قرار است نتایج را بهبود ببخشد یا نتایج تحلیل های آماری را بدتر کند؟
آیا پاکسازی داده ها می تواند نتایج تحلیل های آماری را بدتر کند؟
11014
من باید مجموعه بزرگی از مقادیر را با یک منحنی زنگی پیش‌بینی کنم که در آن مجموعه کوچکی از نقاط داده شده محدودیت‌های منحنی را بین -1 و 0\ تعریف می‌کنند. کمک! در نهایت من این را در جاوا اسکریپت کدنویسی خواهم کرد. به طور خاص، من فروش را پیش بینی می کنم. من می دانم که کل فروش تقریبی برای هر یک از پنج سال اول چقدر خواهد بود و فروش از یک منحنی زنگی پیروی می کند. من باید ماهانه پیش بینی کنم من نگران این نیستم که پیش بینی سالانه دقیقاً در ماه صحیح منحنی است، فقط به این دلیل که منحنی توسط اعداد داده شده محدود شده است. آیا ایده ای برای انجام این کار دارید؟
محاسبه تابع گاوسی
113376
فکر می‌کنم بیوانفورماتیک‌های معمولی دسته‌ای از فایل‌های پایگاه داده را روی رایانه‌های خود نگه می‌دارند، پس آنها چه هستند؟ و به طور معمول چگونه از آنها استفاده می کنند (دسترسی دارند)؟
آیا هیچ صفحه وب گالری پایگاه داده های بیوانفورماتیک مانند biocViews of bioconductor وجود دارد؟
28250
من رگرسیون خطی را برای اهداف یادگیری به صورت دستی پیاده‌سازی کرده‌ام و از مجموعه داده‌های Auto MPG به عنوان داده‌های اسباب بازی استفاده می‌کنم. به ذهنم رسید که نمی دانم چگونه کارایی مدلم را تست کنم! با طبقه بندی می توانم کلاس پیش بینی شده را در مقابل کلاس واقعی بررسی کنم، اما با رگرسیون چه کار کنم؟ **ویرایش: البته، من داده‌هایی را که دارم به داده‌های قطار + تست تقسیم می‌کنم... وقتی مدل را روی داده‌های آزمایشی اعمال می‌کنم، در مورد ارزیابی نتایج صحبت می‌کنم. ** به عنوان مثال، با استفاده از مدل خود من 16.76 را پیش‌بینی می‌کنم. mpg برای خودرویی که مقدار واقعی آن در مجموعه داده 15.5 است. چگونه می توانم تصمیم بگیرم که آیا این یک پیش بینی خوب یا بد است؟ من به استفاده از برخی آستانه ها فکر می کنم (اگر مقدار پیش بینی شده در بازه [actual-epsilon, actual+epsilon] => OK باشد!)، اما آیا این رویکرد خوبی است؟ و حتی اگر اینطور باشد، چگونه مقادیر اپسیلون را انتخاب کنم؟ من از این واقعیت آگاه هستم که به احتمال زیاد هیچ پاسخ روشنی وجود ندارد، اما هر پیشنهادی در رابطه با رویکردی که باید اتخاذ شود بسیار مفید خواهد بود. **ویرایش: من تصمیم گرفتم با رویکرد زیر پیش بروم: برای هر نمونه داده آزمایشی، محاسبه می‌کنم که مقدار پیش‌بینی‌شده چقدر از داده‌های آزمایش فاصله دارد به صورت** abs(predicted_value - actual_value) * 100 / actual_value **یعنی. پیش‌بینی چقدر از مقدار واقعی دور است که بر حسب درصد مقدار واقعی بیان می‌شود. هر گونه بازخوردی هنوز پذیرفته می شود، زیرا این فقط ایده ای است که من داشته ام و مطمئن نیستم که بهترین تمرین باشد.**
آزمایش کارایی مدل رگرسیون خطی
8611
من دو ستون مختلف داده دارم که در پیکربندی های مختلف ثبت می شوند و **می خواهم به کاربران نشان دهم که این دو رکورد متفاوت هستند** (داده ها زمان بر حسب ثانیه هستند). اندازه مجموعه داده به اندازه شکل زیر نیست. کاربران نهایی همه افراد با تجربه در آمار و ریاضی هستند. سوال من این است که چگونه می توانم یک نمودار (کدام نوع(؟)) را به راحتی رسم کنم. مجموعه داده اول: 0.000223 0.000206 0.000223 0.000193 0.001321 0.000223 ... مجموعه داده دوم: 0.076975003 0.076724999 0.076600097 0.076600079 0.000397 0.000642 0.000522 0.000772 0.000522 0.076725997 0.158800006 0.159801006 0.159426004 به من رسیدم، زمانی که من با جعبه ای مواجه شدم.
چگونه می توان تفاوت بین دو مجموعه داده تک متغیره را به صورت گرافیکی نشان داد؟
8614
من سعی می کنم تعیین کنم که آیا یک نویز داده شده از یک سنسور قطب نما با زمان همبستگی دارد یا نه (قرار است این باشد!) و برای آن سعی کردم همبستگی متقاطع بین سیگنال نویز و زمان نمونه برداری را با استفاده از تابع Matlab xcorr () محاسبه کنم. . با این حال، من یک مقدار تصادفی دریافت می کنم که نشان می دهد با زمان همبستگی ندارد، در حالی که در واقعیت باید اینطور باشد. آیا من کار اشتباهی انجام می دهم؟ من قادر به یافتن منابعی برای تعیین اینکه آیا یک سیگنال با زمان همبستگی دارد پیدا نمی‌کنم، بنابراین هر ایده‌ای بسیار قدردانی می‌شود! با تشکر ایملزا
چگونه تعیین کنیم که آیا یک سیگنال داده شده با زمان همبستگی دارد؟
28251
نمی دانم دقیقاً چگونه آنچه را که به دنبال آن هستم توصیف کنم، اما سعی می کنم چند مثال بزنم. بیایید سه سری داده مختلف را در نظر بگیریم: * سری A: 1،2،3،4،5،6،7،8،9،10،9،8،7،6،5،4،3،2،1 * سری B: 1،2،1،2،1،2،1،2،1،2،1،2،1،2،1 * سری C: 1،2،3،2،1،2،3،2،1،2،3،2،1 تغییر از نقطه به نقطه به این صورت است: * سری A: +1،+1،+1،+1،+ 1,+1,+1,+1,...,-1,-1,-1,-1,-1,-1,-1,-1... * سری B: +1,-1 ,+1,-1,+1,-1,... * سری C: +1,+1,-1,-1,+1,+1,... یا در قالب باینری 1 برای +1 و 0 برای -1 ساده شده: * سری A: 11111111111111...00000000000... * سری ب: 10101010101010... * سری C: 11001100110011... من دنبال برای تابعی که * بالاترین مقدار را برای سری A برمی گرداند (افزایش داده ها مانند افزایش قبلی است) * کمترین مقدار برای سری B (تغییر داده ها همیشه با قبلی متفاوت است) * چیزی در بین برای سری C (گاهی اوقات تغییر داده ها یکسان، گاهی اوقات متفاوت)
طبقه بندی دنباله های اعداد صحیح بر اساس اولین تفاوت آنها
110692
من یک توزیع نرمال کوتاه شده را محاسبه کرده ام که چگالی احتمال کل آن (یعنی سطح زیر منحنی) برابر با 0.92 است. توزیع به خوبی نشان دهنده واقعیت پدیده ای است که من در حال بررسی آن هستم، یعنی انتظار دارم زمانی که x = 0 احتمال مثبت (غیر صفر) باشد. حالت نیز همان جایی است که انتظار داشتم. با این حال، هر احتمالی که برای x < 0 نشان داده نشده است، منطقی فیزیکی ندارد، بنابراین من می‌خواهم توزیع کوتاه شده خود را مجدداً مقیاس دهم به طوری که کل مساحت زیر چگالی 1 باشد (نه 0.92). توزیع نامتقارن است، چگونه می توانم این کار را انجام دهم؟
مساحت زیر یک توزیع کوتاه = 1
88615
به طور معمول، در بوت استرپ بیزی، شما نمونه های {$x_1,...,x_n$} از یک متغیر تصادفی $X$ را دارید. با مرتب کردن $\\{0,1,u_1,...,u_{n-1}\\}$ از توزیع دیریکله $\\{p_1,...,p_n\\}$ را انتخاب کنید. $ نمونه‌های مستقلی از $U \sim Uniform(0,1)$ هستند و تفاوت‌های همسایه‌های مرتب شده را می‌گیرند. از $\\{p_1,...,p_n\\}$ به عنوان وزن برای $\\{x_1,...,x_n\\}$ برای محاسبه یک نمونه از آمار مورد نظر $\theta$ استفاده کنید. یعنی $$\hat\theta_j = \sum_{i=1}^n f(x_i) \cdot p_i$$ برای تکرار بوت استرپ $j$. من قبلاً وزن‌های $\\{w_1,...,w_n\\}$ را از نمونه‌گیری اهمیت دارم که از آن $$\hat\theta = \frac{\sum_{i=1}^n f(x_i) \ محاسبه می‌کنم cdot w_i}{\sum_{i=1}^n w_i} $$ با مجموعه‌ای از وزن‌های جدید محاسبه‌شده به صورت $w_i' = w_i \cdot p_i$، محاسبه $$\hat\theta_j = \frac{\sum_{i=1}^n f(x_i) \cdot w_i'}{\sum_{i=1}^n w_i'} $$ کار نمی‌کند: توزیع آمار بوت استرپ خیلی باریک است. نمونه‌برداری مجدد از نمونه‌های وزن‌دار برای دریافت $\\{x_1',...,x_n'\\}$ بدون وزن و اعمال بوت استرپ بیزی برای آنها نیز کار نمی‌کند: توزیع آمار بوت استرپ بسیار گسترده است. (اگر برای هر تکرار بوت استرپ بیزی دوباره نمونه برداری کنم، این موضوع نیز صادق است.) فکر می کنم باید وزن مجدد را متفاوت کنم. چگونه این کار انجام می شود؟ ویرایش: در واقع، استفاده از وزن‌های $w_i' = w_i \cdot p_i$ راه‌حل مناسبی بود. من نتایج بوت استرپ خود را با نتایج استفاده از تخمین واریانس مونت کارلو بد و بسیار بالا مقایسه می کردم. با این حال، من حاضر نیستم این foobar را تقصیر خود بنامم، زیرا یافتن فرمول **صحیح** برای واریانس مونت کارلو مقادیر مورد انتظار محاسبه شده با استفاده از نسبت یا اهمیت خود نرمال شده به طرز احمقانه ای سخت است. نمونه ها برای ثبت، بالاخره آن را در اینجا، در صفحه 63 پیدا کردم: http://www.rni.helsinki.fi/~pek/test/mcmbc10.pdf بنابراین از پتری کویستینن بسیار سپاسگزارم. این فرمول برای تخمین واریانس مونت کارلوی بی طرفانه است، در صورتی که پیوند کهنه شود: $$Var[\widehat\theta] \approx \frac{n}{n-1} \frac{\sum_{i=1} ^n \left(f(x_i)-\widehat\theta\right)^2 w_i^2}{\left(\sum_{i=1}^n w_i\right)^2}$$ من فکر می کنم این درست است زیرا 1) واریانس مونت کارلو مقادیر مورد انتظار محاسبه شده با استفاده از نمونه های وزن نشده یک مورد خاص است. 2) تغییر توزیع اهمیت باعث ایجاد تغییرات مورد انتظار در آن می شود. 3) تمام متدهای بوت استرپ که من پیاده‌سازی کرده‌ام با مقادیری که از آن محاسبه می‌کنم موافق هستند (در نهایت). 4) نسبت به جرم گیری وزن ثابت است. و 5) به نظر می رسد که در یادداشت های کویستینن و جای دیگری که آن را پیدا کردم، دلیل مناسبی در پشت آن وجود دارد. (اگرچه در جای دیگر با یک فرمول ساختگی برای محاسبه فاصله اطمینان، با ضرب جعلی در $\sqrt{n}$، دنبال شد.) به عنوان یک امتیاز، عبارت اصلی عبارت استاندارد تصحیح تعصب برای برآوردهای واریانس است. . شما فکر می کنید که با توجه به اینکه نمونه گیری اهمیت اغلب ارائه شده و به عنوان تکنیک کاهش واریانس استفاده می شود، تخمین واریانس معمول خواهد بود. برای سروصدا متاسفم، اما حداقل ممکن است در آینده به شخص دیگری کمک کند.
وزن دهی مجدد نمونه های دارای وزن اهمیت در بوت استرپ بیزی
46802
من در حال انجام تجزیه و تحلیل سری های زمانی به صورت فصلی از سال 1990 تا سه ماهه سوم 2012 هستم. برخی از سری های زمانی در سال 2008 به دلیل رکود کاهش یافتند و سپس به سمت بالا از سر گرفتند. این افت نسبتاً تند است. من به استفاده از اسپرد اعتباری فکر می کنم زیرا اسپرد اعتباری اقتصاد را به خوبی دنبال می کند. سپس می توانم هم انباشتگی و VECM را روی سری اعمال کنم. با تشکر
آیا استفاده از اسپرد اعتبار برای محاسبه افت سری های زمانی مدل تصحیح خطای برداری اشکالی ندارد؟
61309
من اطلاعاتم را به دو قسمت تقسیم کردم. من از داده های 80% خود برای ساخت یک مدل خطی رگرسیون چندگانه استفاده کرده ام. اکنون می‌خواهم آن را با استفاده از داده‌های 20% بقیه آزمایش کنم. چه ابزارهایی در Minitab برای انجام این فرآیند بررسی دارم؟ ویرایش: فکر می کنم بتوانم از آمار PRESS استفاده کنم. پرس من برای دیتای 80% 6000 بود و الان بر اساس این مدل PRESS رو برای 20% دیتا حساب کردم 1000. حالا 6000 رو با 1000 مقایسه کنم یا 6000 رو با 5 ضربدر 1000 یعنی 5000؟
چگونه می توانم مدل رگرسیون خطی چندگانه خود را تأیید کنم؟
114530
رگرسیون ساده من به صورت زیر است: tendaystockreturn = آلفا + بتا * متغیر ساختگی که در صورت خرید سهام توسط مدیر، مقدار 1 را می گیرد. به عبارت دیگر، می خواهم بدانم آیا بتای یک زیرگروه با بتای گروه کلی فرق دارد یا خیر؟ متغیر کارگردان ساختگی کلی دارای 52 مشاهده از 267 مشاهده است که در آن مقدار 1 را می گیرد. متغیر کارگردان ساختگی زیرگروه دارای 17 از 267 مشاهده است که در آن مقدار 1 را می گیرد. چگونه باید این را در رگرسیون قرار دهم؟ آیا باید تعاملی از هر دو متغیر ساختگی ایجاد کنم یا نه؟ یا هر دو رگرسیون رو جدا اجرا کنم و بعد مقایسه کنم؟
چگونه می توان زیر گروه بتا را با گروه بتا کلی مقایسه کرد؟
28255
این یک سوال مبهم است. من تمام تلاشم را می کنم، فکر می کنم پاسخ های قطعی دارد. من به پاسخ هایی از فرم کتاب x بخوانید، این موضوع خاص را بیاموزید، این مقاله/ها را بخوانید امیدوارم. چیزی که من را آزار می دهد این است که هر سیستم هوش مصنوعی که در مورد آن خوانده ام به نظر می رسد یک مدل داخلی دارد که برای کار به روشی خاص تنظیم شده است. وظیفه الگوریتم یادگیری بهینه سازی پارامترهای این مدل برای حل مسئله است. من فکر می‌کنم که این شبیه به راه‌اندازی یک زبان توصیف سفارشی است که ساختاری از چیزهایی که باید مدل‌سازی شوند را حفظ یا ترجمه می‌کند به‌گونه‌ای که از طریق برخی تکنیک‌های الگوریتمی قابل درک قابل حل شدن باشد. نزول گرادیان تکراری، تحلیلی، هر چه باشد. سوال: آیا چارچوبی وجود دارد که بتوان در آن مدل/زبان توصیف بهینه را کشف کرد؟ به عنوان مثال در یک GA، نقشه برداری از ژنوم به فنوتیپ برای عملکرد موثر الگوریتم حیاتی است. این نگاشت به صورت دستی تعریف شده است و، به نظر من، حیاتی ترین مؤلفه GA است. به طور خاص چگونه می توان در فضای نگاشت ها جستجو کرد؟ یا رفتن به متا چگونه می توان در فضای الگوریتم ها برای یافتن بهترین نقشه برداری جستجو کرد؟ به نظر می رسد می توانید برای همیشه از آن نردبان ناپدید شوید. برای حل مشکل ابتدا باید مشکل را حل کنید. به نظر می رسد شبکه های عصبی یک مدل موثر برای حل مسائل دنیای واقعی هستند، چرا؟ چگونه می توان مدل دیگری را برای مجموعه ای از مشکلات ایجاد کرد؟ Automata سلولی برای مدل سازی جریان ترافیک یا انتقال بیماری خوب به نظر می رسد، چرا؟ چگونه می توانم به طور خودکار سیستم های جایگزین را ایجاد کنم که مجموعه ای از مشکلات را نیز به طور موثر مدل می کند؟ و غیره آیا این چیزی است که در مورد آن فکر و بحث می شود؟ کجا پیداش کنم؟ ممنونم :)
تشخیص بهترین مدل برای یک مشکل
28253
من معادله رگرسیونی زیر را دارم که در آن $Y^*$ دستمزد است: $$Y^* = \beta_0 + \beta_1 X_1 + \beta_2 X_1^2 + \beta_3 X_1^3 + \beta_4 X_1^4$$ من دارم مقادیر بتا به صورت $(1.6، 0.2، -0.3، 0.04، -0.002)$ داده شده است، به ترتیب. من یک متغیر جدید $W$، $$W=\begin{cases} 0، & \text{if }Y^* \leq 30 \\\ Y^*-30 و \text{if }Y^* ایجاد کردم \gt 30 \end{cases}$$ بنابراین فکر می‌کنم این مورد سانسور چپ است؟ سوال این است که چگونه می توانم اثر حاشیه ای را در $X_1=10$ در این تنظیم محاسبه کنم؟ من فرمولی پیدا کردم که می‌گفت $\text{marg effect} = \beta_j*\Phi(\frac{X\beta}{ \sigma})$، اما نمی‌دانم چگونه $\sigma$ را پیدا کنم. ? امیدوارم بتونی کمک کنی :)
محاسبه $\sigma$ از ضرایب $\beta$ در رگرسیون سانسور داده
51038
من قبلاً تعداد کمی از این پست‌ها را دیده‌ام، و برای ارسال یک سؤال دیگر در مورد این موضوع کمی احمقانه احساس می‌کنم - اما به نظر نمی‌رسد که نمی‌توانم آن را حل کنم. من با R بسیار تازه کار هستم و با lme جدید هستم، پس با من مدارا کنید. مطالعه من در مورد ویژگی های رفتاری در ماهی است، که در آن از 49 ماهی در یک دوره 3 ماهه نمونه برداری کرده ام. متغیرهای پاسخ من عبارتند از MEANDEPTH (میانگین عمق)، CUMDIST (مسافت تجمعی طی شده) و HRMND (اندازه محدوده خانه). متغیرهای توضیحی من عبارتند از L (طول)، A (سن)، W (وزن)، K (عامل K) و L1 (رشد سال اول). چیزی که من سعی می کنم بفهمم این است که چگونه پاسخ های من به صورت ماهانه متفاوت است و چه چیزی این تغییرات را تحت تاثیر قرار می دهد - به عنوان مثال، آیا ماهی لاگر به شیوه ای متفاوت رفتار می کند؟ نمونه‌ای از آنچه من تا کنون به دست آورده‌ام، mod11<-lme(log(HRMND)~A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID,na است. action=na.exclude) اما آیا این شامل همه ماه‌ها نمی‌شود، و فقط به من یک نمای کلی از چگونگی تغییر همه چیز بین FISH می‌دهد؟ بنابراین من به نوعی به این فکر می کنم که باید با MONTH لانه یا گروه کنم؟ mod11<-lme(log(HRMND)~A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID/MONTH,na.action=na.exclude) یا mod11<-lme(log(HRMND)~MONTH*A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID,na.action=na.exclude) یا mod11<-lme(log(HRMND)~A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID:MONTH,na.action=na.exclude) اما من هنوز این احساس را داشته باشید که همه اینها اشتباه است. در زیر مجموعه داده خود را پیوست کرده ام. > dput(CODDING) ساختار(فهرست(ID = c(7288L, 7288L, 7288L, 7293L, 7293L, 7293L, 7294L, 7294L, 7294L, 7296L, 7296L, 7296L, 7296L, 729L, 729 7298L، 7300L، 7300L، 7300L، 7303L، 7303L، 7303L، 7305L، 7305L، 7305L، 7306L، 7306L، 7306L، 7307L، 7307L. 7308L، 7308L، 7308L، 7309L، 7309L، 7309L، 7311L، 7311L، 7311L، 7312L، 7312L، 7312L، 7313L، 7313L.، 77313L. 7314L، 7314L، 7318L، 7318L، 7318L، 7320L، 7320L، 7320L، 7321L، 7321L، 7321L، 7325L، 7325L، 77326L.، 77326L. 7326L، 7327L، 7327L، 7327L، 7328L، 7328L، 7328L، 7330L، 7330L، 7330L، 7333L، 7333L، 7333L، 7333L، 77334L، 77334L. 7336L، 7336L، 7336L، 7338L، 7338L، 7338L، 7339L، 7339L، 7339L، 7341L، 7341L، 7341L، 7342L، 7342L، 77342L. 7343L، 7343L، 7344L، 7344L، 7344L، 7345L، 7345L، 7345L، 7346L، 7346L، 7346L، 7347L، 7347L، 77349L، 77349L. 7349L, 7351L, 7351L, 7351L, 7353L, 7353L, 7353L, 7356L, 7356L, 7356L, 7357L, 7357L, 7357L, 7357L, 7358L, 7358L 7359L، 7359L، 7359L، 7360L، 7360L، 7360L، 7362L، 7362L، 7362L، 7363L، 7363L، 7363L، 7364L، 7364L.، 77364L. 7365L، 7365L، 7366L، 7366L، 7366L)، MEANDEPTHMND = c(10.725262، 12.200786، 13.564287، 10.707745، 13.52139.13.52071. 8.462647، 8.896712، 16.015541، 8.481038، 7.041678، 7.285891، 8.663365، 9.253053، 17.173524، 1393331، 11. 13.794026، 11.47386، 13.07904، 16.5411، 8.771731، 20.405117، 22.202886، 13.29951، 15.7675، 19.819، 19.41 8.25664، 10.082283، 14.13052، 14.73271، 18.59407، 11.258819، 10.885207، 9.014883، 13.936095، 13.936096، 17.93515، 18. 14.165146، 16.427362، 13.590945، 13.65453، 15.08443، 20.93181، 10.16241، 10.286637، 13.86004، 13.86004، 13.86004، 7014 18.089143، 6.728938، 14.2741، 14.094891، 5.957861، 5.914509، 5.826612، 15.764523، 19.651839، 19.651839، 256، 23. 6.678091، 7.54115، 14.533215، 11.785265، 14.19784، 8.668182، 9.134189، 11.899737، 9.243074، 9.243074، 9.74، 9.70 8.1842، 8.616996، 13.320201، 7.443299، 10.705514، 21.653235، 12.58174، 13.93734، 18.04723، 10.2010، 10.17. 23.451312، 9.314671، 9.801458، 14.862017، 14.532722، 13.119887، 10.412089، 5.341649، 5.094039، 5.094039، 5.094039، 25. 10.050294، 12.503342، 7.170584، 7.343889، 13.018498، 4.978633، 7.359922، 11.55276، 11.61949463، 11.619495، 11.619494، 11.619495، 11.619495، 11.619494، 11.619495، 11.619495. 8.12889، 9.888701، 18.692396، 8.214024، 9.616029، 15.434882، 10.157199، 20.685936، 26.921921، 26.921921، 26.921974، 223. 15.24348، 13.99331، 13.71569، 14.52495، 16.23245، 14.70182، 20.9764، 9.837841، 20.111058، 21.774، 21.775. 8.706451، 11.070614، 10.676216، 14.008959، 25.81545، 10.453505، 4.206622، 3.582907، 12.894، 12.894، 13.834، 13.8 17.55982، 17.32079، 16.53955، 30.602365، 6.328528، 3.704692، 11.696339، 11.786703، 16.052703، 16.052708 = L، 6L، 6L، MONTH 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 8 لیتر، 7 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 7L، 8L)، CUMMND = c(148974.1، 171929.3، 99069.97، 129907، 129835.1، 149201
آشفتگی‌های فرمول تودرتو و گروه‌بندی با استفاده از lme
105743
من سعی کردم رابطه بین استفاده از خدمات (از 0 تا 1) و مسافت طی شده را مدل کنم. ابتدا مسافت سفر را با هر 20 کیلومتر تعیین کردم و سپس میزان استفاده را برای هر سطل محاسبه کردم (تعداد افراد استفاده شده از خدمات / تعداد کل افراد در این سطل). فرضیه این است که با افزایش مسافت سفر، بهره برداری کاهش می یابد. با این حال، از آنجایی که اندازه جمعیت برای برخی از سطل‌هایی که دور هستند کوچک است، استفاده محاسبه‌شده نسبت به سطل‌های نزدیک‌تر «قابل اعتماد» کمتری دارد. به عنوان مثال، در نمودار اول، در برخی از سطل ها، ممکن است فقط 5 مشاهده وجود داشته باشد و همه آنها از سرویس استفاده کرده اند، که منجر به نرخ استفاده 1 می شود. رگرسیون تکه ای (همانطور که در نمودار دوم نشان داده شده است) انجام دهید. اگر چنین است، آستانه مناسب چقدر باید باشد؟ یا اگر راهی برای تعیین وزن بیشتر به سطل های با اندازه بزرگتر وجود دارد؟ ![graph1:all bins](http://i.stack.imgur.com/niL90.png) ![graph2](http://i.stack.imgur.com/PgwY8.png) متشکرم! یبیبه
وزن رگرسیون قطعه ای به نسبت مدل؟
114535
من می خواهم با نمایش هر سند به عنوان مجموعه ای از ویژگی ها، طبقه بندی اسناد را انجام دهم. من می‌دانم که راه‌های زیادی وجود دارد: BOW، TFIDF، ... من می‌خواهم از تخصیص دیریکله پنهان (LDA) برای استخراج کلیدواژه‌های موضوعی EACH SINGLE استفاده کنم. سند با این کلمات موضوعی نشان داده می شود. اما نمی‌دانم معقول است یا نه، زیرا به نظر من LDA معمولاً برای استخراج کلمات موضوعی به اشتراک گذاشته شده توسط یک دسته از اسناد استفاده می‌شود. آیا می توان از LDA برای شناسایی موضوع یک سند واحد استفاده کرد؟
استفاده از کلمات موضوعی تولید شده توسط LDA برای نشان دادن یک سند
61303
**نسخه کوتاه:** _آیا مقدمه ای بر نوشته های رونالد فیشر _(مقاله ها و کتاب ها) در مورد آماری وجود دارد که برای کسانی که پیشینه آماری کمی دارند یا اصلاً پیشینه ندارند؟_ من به چیزی شبیه به یک فیشر حاشیه نویسی فکر می کنم. خواننده» با هدف غیر آمارگیران. انگیزه این سوال را در زیر توضیح می‌دهم، اما به شما هشدار داده می‌شود که طولانی‌تر است (نمی‌دانم چگونه آن را مختصرتر توضیح دهم)، و علاوه بر این، تقریباً مطمئناً بحث‌برانگیز، احتمالاً آزاردهنده و حتی ممکن است عصبانی‌کننده باشد. بنابراین لطفاً از ادامه این پست صرفنظر کنید، مگر اینکه واقعاً فکر کنید که سؤال (همانطور که در بالا ذکر شد) خیلی مختصر است که بدون توضیح بیشتر به آن پاسخ داده شود. * * * من اصول اولیه بسیاری از زمینه ها را به خودم آموخته ام که بسیاری از مردم آن را دشوار می دانند (مانند جبر خطی، جبر انتزاعی، تجزیه و تحلیل واقعی و پیچیده، توپولوژی عمومی، نظریه اندازه گیری، و غیره) اما تمام تلاش من برای آموزش خودم است. آمار شکست خورده است. دلیل این امر این نیست که آمارها را از نظر فنی دشوار می‌دانم (یا بیشتر از سایر حوزه‌هایی که توانسته‌ام راه خود را پیدا کنم)، بلکه این است که آمارها را دائماً بیگانه می‌بینم، اگر نه کاملاً **_عجیب_**، بسیار دور. بیشتر از هر زمینه دیگری که خودم یاد داده ام. آهسته آهسته من شروع به شک کردم که ریشه های این عجیب و غریب بیشتر تاریخی است، و به عنوان کسی که این رشته را از روی کتاب ها یاد می گیرد، و نه از جامعه پزشکان (همانطور که اگر به طور رسمی در مورد آمار آموزش دیده بودم، چنین می شد. من هرگز از این احساس بیگانگی عبور نمی‌کنم تا زمانی که درباره تاریخچه آمار اطلاعات بیشتری کسب کنم. بنابراین من چندین کتاب در مورد تاریخ آمار خوانده‌ام، و انجام این کار، در واقع راه بسیار زیادی در توضیح آنچه که من به عنوان عجیب بودن این رشته می‌دانم، داشته است. اما هنوز راه هایی برای رفتن به این سمت دارم. یکی از چیزهایی که از خوانش‌هایم در تاریخ آمار آموخته‌ام این است که منشأ بسیاری از چیزهایی که در آمار به‌عنوان عجیب و غریب در نظر می‌گیرم، یک مرد است، رونالد فیشر. در واقع، نقل قول زیر 1 (که اخیراً پیدا کردم) هم با درک من که فقط با کاوش در تاریخ می‌خواهم این زمینه را شروع کنم و هم با توجه به فیشر به عنوان هدفم بسیار همخوانی دارد. مرجع: > بیشتر مفاهیم و نظریه های آماری را می توان جدا از > ریشه های تاریخی آنها توصیف کرد. این امر، بدون رمز و راز غیر ضروری، برای مورد «احتمال امانی» امکان پذیر نیست. در واقع، من فکر می کنم که تصور من در اینجا، هرچند ذهنی (البته)، کاملاً بی اساس نیست. فیشر نه تنها برخی از اساسی‌ترین ایده‌های آماری را ارائه کرد، بلکه به دلیل بی‌توجهی به کارهای قبلی، و تکیه بر شهود (یا ارائه شواهدی که به سختی دیگران قادر به درک آن‌ها بودند، یا به کلی حذف آنها) بدنام بود. علاوه بر این، او با بسیاری از آماردانان مهم دیگر در نیمه اول قرن بیستم دشمنی های مادام العمر داشت، دشمنی هایی که به نظر می رسد سردرگمی و سوء تفاهم زیادی را در این زمینه ایجاد کرده است. نتیجه‌گیری من از همه این‌ها این است که، بله، مشارکت فیشر در آمارهای مدرن واقعاً گسترده بود، اگرچه همه آنها مثبت نبودند. من همچنین به این نتیجه رسیده‌ام که برای اینکه واقعاً احساس بیگانگی خود را با آمار درک کنم، باید حداقل برخی از آثار فیشر را به شکل اصلی‌شان بخوانم. اما دریافته‌ام که نوشته‌های فیشر به اعتبار نفوذناپذیری خود ادامه می‌دهد. من سعی کرده ام راهنماهایی برای این ادبیات پیدا کنم، اما، متأسفانه، همه چیزهایی که پیدا کردم برای افرادی که در آمار آموزش دیده اند در نظر گرفته شده است، بنابراین درک آن برای من به همان اندازه دشوار است که هدف از توضیح آن چیست. از این رو این سوال در ابتدای این پست مطرح شد. * * * 1 استون، مروین (1983)، احتمال اعتباری، _ دایره المعارف علوم آماری _ **3** 81-86. وایلی، نیویورک
ماهیگیر برای آدمک؟
110696
آیا کسی می تواند به من کمک کند لطفاً در این مشکل :: من می خواهم توزیع موارد زیر را بدانم: $|h' G(G'G)^{-1}|^2$ یا $(G'G)^{ -1}Ghh'G(G'G)^{-1}$ که در آن $h$ یک بردار گاوسی است و $G$ یک ماتریس گاوسی است و آنها مستقل هستند. مربوط به تکنیک Zero Forcing است.
توزیع ماتریس ها
28877
من لیستی از پروتئین ها را با مقادیر ویژگی آنها دارم. یک جدول نمونه به این صورت است: ...............ویژگی 1...ویژگی2...ویژگی3...ویژگی4پروتئین1پروتئین2پروتئین3پروتئین4 سطرها پروتئین و ستونها ویژگی هستند. من همچنین لیستی از پروتئین هایی دارم که با هم تعامل دارند. به عنوان مثال Protein3, Protein4 Protein1, Protein2 Protein4, Protein1 **مشکل**: برای تجزیه و تحلیل اولیه می خواهم بدانم که کدام ویژگی بیشترین تأثیر را در تعاملات پروتئینی دارد. درک من این است که معمولاً از درخت های تصمیم می توان برای به دست آوردن مهمترین ویژگی بر اساس آنتروپی استفاده کرد، اما مطمئن نیستم که چگونه آن را به جفت پروتئین (یعنی برهمکنش ها) گسترش دهم. آیا روشی برای چنین هدفی وجود دارد؟
یافتن بهترین ویژگی ها در مدل های تعامل
89454
ما در تلاشیم تا این فرضیه را آزمایش کنیم که یک جهش خفیف یک ژن نسبت به حذف کامل اثرات کمی بر بیان رونوشت دارد. علاوه بر این، ما می خواهیم این فرضیه را آزمایش کنیم که ژن های تغییر یافته توسط جهش و حذف بر یک فرآیند خاص تأثیر می گذارد. ما دو داده ریزآرایه خالدار رنگی برای هر دو نوع جهش یافته در مقابل نوع وحشی و حذف در مقابل نوع وحشی داریم (سویه های نوع وحشی برای این دو مقایسه کمی متفاوت هستند زیرا پس زمینه ای که حذف و جهش بر روی آن ایجاد شده است کمی متفاوت است، اما من امیدوارم که بتوان این اثر را کاهش داد و هر دو را به عنوان نوع وحشی در نظر گرفت). آرایه‌ها در بسته limma Bioconductor برای R تجزیه و تحلیل شده‌اند. طراحی اینجاست: آرایه Cy3 Cy5 ----- --- --- 1 WT Mutant 2 WT Mutant 3 WT Deletion 4 WT Deletion من می خواهم یک کنتراست که برای ژن‌هایی با اندازه مطلق برابری در Deletion نسبت به Mutant آزمایش می‌شود. کنتراست Deletion- Mutant برای ژن هایی که در Deletion بالاتر از Mutant هستند آزمایش می کند. سپس می‌توانم شرطی کنم که بر اساس فولد در Mutant تغییر کند (یعنی مواردی را که در Mutant بالا بودند و در Deletion بالاتر هستند و آنهایی که در Mutant پایین هستند و در Deletion پایین‌تر هستند را انتخاب کنید). آیا این معتبر است؟ آیا راه بهتری برای انجام آن وجود دارد؟ چگونه می‌توانم آزمایش کنم که آیا یک فرآیند خاص در ژن‌هایی که تحت تأثیر هر دو آشفتگی هستند، غنی می‌شود، اما سایرین فقط در مجموعه‌ای که در حذف تغییر می‌کنند غنی می‌شوند، اما در جهش یافت نمی‌شوند. من می‌توانم این کار را فقط با استفاده از یک هیپوهندسی بر روی تقاطع موارد تغییر یافته در هر شرایط در مقایسه با آزمایش مشابه روی مواردی که فقط در یک شرایط تغییر کرده‌اند انجام دهم، اما من همیشه نسبت به چنین چیزهایی شک دارم زیرا آنها بسیار به اثرات آستانه وابسته هستند. (ژن A در شرایط A 2.1 برابر است، اما در شرایط B فقط 1.9 برابر است و بنابراین در تقاطع نیست). هر گونه ایده قدردانی می شود.
انتخاب ژن‌هایی که در درمان A بیشتر از درمان B تأثیر می‌گذارند
28872
فرض کنید می خواهیم یک جریان داده از تعداد ناشناخته خوشه ها را خوشه بندی کنیم و آنها را با استفاده از فیلترهای ذرات تخمین بزنیم. با فیلترهای ذرات، ما باید $P(x_t | x_{t-1})$ و $P(z_t | x_t)$ را بدانیم (که در آن z به داده ها (گزارش ها) اشاره دارد، و x به حالت های تخمین زده شده (فرضیه). )). سپس سوال من این است: چگونه می‌توانیم $P(x_t | x_{t-1})$ (احتمال انتقال) و $P(z_t | x_t)$ (احتمال مشاهده/احتمال) را در این زمینه (خوشه‌بندی آنلاین) تعریف کنیم؟
خوشه بندی با فیلترهای ذرات
110690
من سعی می کنم محاسبه کنم که آیا بین دو ستون طبقه بندی وابستگی وجود دارد یا همزمانی قابل توجهی از دو متغیر طبقه بندی وجود دارد. فرض کنید من ستون های A و B را دارم و از 200 هزار ردیف A 13683 برابر '1' و 35171 بار B '1' است. از این تعداد، 2871 ردیف دارای A و B '1' به طور همزمان هستند. اگر بین دو ستون وابستگی وجود دارد چگونه محاسبه کنم؟ من سعی کردم نسبت های مورد انتظار را برای هر دو A و B محاسبه کنم، 0.068 0.175، و اگر فرض کنیم هر دو دو جمله ای باشند، به طور تصادفی هر دو A و B بودن 0.068 * 0.175 = 0.01203 است. بنابراین هر نسبت مشاهده شده به طور قابل توجهی بالاتر از این می تواند نشان دهد که همسویی به دلیل شانس تصادفی نیست؟ برای آن، من ایده استفاده از 0.01203 را به عنوان پارامتر جمعیت داشتم و با تست دوجمله ای بررسی کنید که آیا نسبت مشاهده شده به طور قابل توجهی بالاتر است. آیا تست مربع کای برای این کار بهتر است؟ چگونه می توان از آن در اینجا استفاده کرد؟ با تشکر
همزمانی دو متغیر مقوله ای
28876
من چندین شبیه‌سازی قدرت را برای ANOVA یک طرفه در R اجرا کرده‌ام، و مشکل من این است که نتایج شبیه‌سازی با نتیجه g*power یا _pwr.anova.test_ از بسته pwr مطابقت ندارد. . به عنوان مثال، بیایید توان شبیه سازی شده را با توان تحلیلی با استفاده از این مقادیر مقایسه کنیم: group_size <- c(40,40,40) به معنای <- c(0.2,0,-0.2) sds <- c(1,1,1) Analytical تجزیه و تحلیل توان، f = 0.1632993 از میانگین و انحراف استاندارد بالا محاسبه می شود. اندازه <- 10 plot_df <- data.frame() قدرت <- 0 while(قدرت < 0.80) { قدرت <- pwr.anova.test(k=3، n=size، f= 0.1632993، sig.level=0.05) $power plot_df <- rbind(plot_df, data.frame(n = اندازه، قدرت = قدرت)) اندازه <- اندازه + 2 چاپ (قدرت) } تجزیه و تحلیل توان شبیه سازی شده set.seed(1001) run_sim <- function() { # تولید همه داده ها create_sim_data <- function(i) { #stdev bias correction c4 <- ( sqrt(2/(group_size[1] - 1))) * (گاما(اندازه_گروه[1]/2)/گاما((اندازه_گروه[1] - 1)/2)) sds2 <- sds / c4 # ماتریس_آزمایشی ماتریس پیش‌تخصیص <- ماتریس(nrow=sims، ncol=sum(اندازه_گروه )) # حلقه تو در تو برای ایجاد داده های شبیه سازی شده برای همه اجراها برای (j در 1:sims) { for(i in 1:length(group_size)) { # col_start & cold_end برای داشتن گروه های مختلف در یک ردیف استفاده می شود col_start <- sum(group_size[1:i])-(group_size[i]-1) col_end < - cumsum(group_size)[i] # تولید داده با rnorm test_matrix[j,col_start:col_end] <- rnorm(group_size[i], mean = means[i], sd = sds2[i]) } } return(test_matrix) } # استخراج نتایج از شبیه سازی ها get_power <- function() { sig <- rep(NA, sims ) eta_2 <- rep(NA, sims) omega_2 <- rep(NA, sims) for(i در 1:sims) { # ANOVA را روی نتیجه داده انجام دهید <- خلاصه (aov(test_matrix[i,] ~ group)) # محاسبه اندازه اثر eta_2[i] <- نتیجه[[1]]$'Sum Sq'[1] / sum (نتیجه[ [1]]$'Sum Sq') omega_2[i] <- (نتیجه[[1]]$'Sum Sq'[1] - (نتیجه[[1]]$Df[1] * نتیجه[[1]]$'Mean Sq'[2])) / (جمع (نتیجه[[1]]$'Sum Sq') + نتیجه[[1] ]]$'Mean Sq'[2]) # دریافت p-value از ANOVA sig_result <- result[[1]]$'Pr(>F)'[1] # check sig.level sig[i] <- sig_result < 0.05 } out <- list(power = mean(sig)، eta_2 = mean(eta_2)، omega = mean(omega_2)) } power <- 0 plot_df <- data.frame( ) و <- NULL omega <- NULL # تکرار شبیه سازی تا زمانی که قدرت مورد نظر پیدا شود while(power < 0.8) { # با افزایش اندازه گروه، گروه‌بندی مجدد ایجاد می‌شود. # نتیجه قدرت anova <- get_power() # استخراج مقدار توان قدرت <- result$power # ذخیره eta-squared هر تکرار eta <- rbind(eta, result$eta_2) # ذخیره eta-squared هر تکرار omega <- rbind(omega, result$omega) cat(power =, power, group size =, group_size,\n\ n) # ذخیره اندازه و قدرت گروه برای هر تکرار plot_df <- rbind(plot_df, data.frame(group_n = group_size[1], power = power)) # افزایش اندازه گروه با 2 group_size <- group_size + 2 } out <- list(power = plot_df, f = sqrt(eta / (1 - eta)) , omega = omega) return(out) } sims <- 1000 sim <- run_sim() این تفاوت حدود 10% بین این دو ایجاد می کند روش‌ها (خط کوتاه از شبیه‌سازی است) ![plot](http://i.stack.imgur.com/REjgP.png) فکر من این است که تفاوت به دلیل _f_ کوهن است که یک تخمین‌گر مغرضانه اندازه اثر جمعیت است. . اما چگونه باید نتایج خود را تفسیر کنم، آیا شبیه سازی های من قدرت را بیش از حد برآورد می کنند؟ اگر چنین است، چگونه می توانم آن را با خروجی برآورد توان تحلیلی مطابقت دهم. **برای خلاصه کردن سوالم: چرا این دو روش خروجی یکسانی را هنگامی که با ابزارهای یکسان و انحرافات استاندارد تغذیه می‌شوند، نمی‌دهند؟ پیشاپیش متشکرم
تفاوت بین شبیه سازی توان ANOVA و محاسبه توان
82944
پروژه من شامل 1) مقایسه نمونه های جدید در مقابل یک شاهد و 2) یافتن هر گونه تأثیر بر سرعت رشد و درصد جوانه زنی بذرها با تیمار آنها با نمونه های جدید سوال من این است که چه نوع تجزیه و تحلیل آماری انجام شود و توضیح در مورد چرایی استفاده از آن تست خاص من یک ماده به نام ICR دارم که به عنوان کنترل تنظیم شده است. این مواد قرار است به تنهایی روی رشد بذر عالی عمل کند، اما هنوز نیاز به بهبود دارد. بنابراین با مخلوط کردن مقداری از ICR با مواد دیگر، به 4 فرمول مختلف (KCR، ACR، XKCR، XLCR) رسیدم و آنها را آزمایش کردم تا مقایسه کنم که آیا آنها بهبود یافته اند یا عملکرد بهتری نسبت به ICR دارند. تست 1: نمونه ها همه به صورت پنج قلو ساخته می شوند. همه آنها غلظت و مقدار ICR و مواد افزودنی یکسانی دارند. تنها تفاوت در نوع افزودنی است. داده های نمونه را به دست آوردم، میانگین و انحراف معیار هر چهار نمونه و کنترل را محاسبه کردم. اکنون باید نمونه های خود را با کنترل مقایسه کنم و تأیید کنم که بهبود یافته است. چگونه این کار را انجام دهم؟ من هم میخوام بین نمونه ها مقایسه کنم و بگم یکی هستن یا یکی از بقیه بهتره. تست 2A: نمونه ها همه به صورت پنج قلو ساخته می شوند. همه آنها 20 دانه دارند. من این بار دو کنترل دارم. کنترل 1 فقط 6 میلی لیتر آب مقطر دارد. کنترل 2 دارای 6 میلی لیتر ICR است. من درصد جوانه زنی را بدست آورده ام. می‌خواهم با استفاده از آمار به من بگویم که کدام نمونه بیشترین درصد جوانه‌زنی را داشت و تأیید کنم که آیا بین شاهد و نمونه‌ها و بین نمونه‌ها به دلیل تأثیر تیمارها تفاوت معنی‌داری وجود دارد یا خیر. تست 2B: همان دسته ای که از تست 2A استفاده شد. این بار از هر دسته 30 نهال تصادفی گرفتم و طول ساقه و ریشه را ثبت کردم. می خواهم بدانم که آیا تیمارها نسبت به شاهد یا در بین تیمارها تأثیر معنی داری روی رشد بذر داشته است؟ این بار، من می خواهم هر دو اندازه گیری ریشه و ساقه را ترکیب کنم.
از کدام آزمون آماری استفاده کنیم و چرا؟
110340
من یک رگرسیون لجستیک (N = 15000) و درصد دقت در طبقه‌بندی (حساسیت) مدل با پیش‌بینی‌کننده‌های شامل = 0 (همانند مدل ثابت بدون پیش‌بینی‌کننده) اجرا می‌کنم. در همین حال، ویژگی از مدل ثابت به مدل با پیش بینی کننده ها (هر دو 100٪) بدون تغییر باقی می ماند. من با نرخ موفقیت کلی نسبتاً بالایی از ثابت (95.2٪) شروع می کنم. شاید برای شروع خیلی زیاد باشد و مشکلی را نشان دهد؟ اما به نظر می رسد خروجی رگرسیون لجستیک نشان می دهد که متغیرهای پیش بینی اضافه شده من (جنسیت (دوگانه)؛ سن (مستمر)؛ کشور مبدا (دوگانه کدگذاری شده ساختگی)) هیچ تأثیری بر عضویت در گروه ندارند. آیا این به سادگی به این معنی است که مدل بدون ارزش است و من نباید از هیچ یک از نتایج دیگر آن استفاده کنم؟ ![خروجی](http://i.stack.imgur.com/PSRwp.png)
تفسیر خروجی رگرسیون لجستیک - مدل w پیش بینی بهتر از ثابت نیست