_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
104756
من سعی می کنم پیش بینی کنم که چه زمانی یک وب سایت در گوگل از وب سایت دیگری پیشی می گیرد. من برای هر وب سایت سه متغیر دارم، یک Page Authority (P)، یک Domain Authority (D) و یک Keyword Relevancy (K). آنچه من سعی می کنم مدل کنم اساساً زمانی است که f(P1,D1,K1) > f(P2,D2,K2) باشد. من در حال حاضر تعداد زیادی کلیدواژه و 10 صفحه وب برتر با P، D و K آنها را دارم. من سعی داشتم مقداری رگرسیون خطی انجام دهم، اما نمی دانم چگونه **رگرسیون خطی** را بزرگتر از چیز دیگری مدل کنم. فقط زمانی که نتیجه قطعی داشته باشد. گزینه دیگری که در نظر داشتم **طبقه‌بندی** بود، اما هر کلمه کلیدی دارای سطح رقابت متفاوتی است که صفحات خاصی از p,d,k در رتبه 1 قرار نمی‌گیرند. در یک کلمه کلیدی مبهم (مثلاً جبدیه شترمرغ) می توانید بدون حضور زیاد در وب رتبه 1 را کسب کنید، در حالی که در سایر کلیدواژه ها باید شناخته شده باشید (مثلاً آمار) و به نظر می رسد **رگرسیون لجستیک معمولی** پایین است. مسیر درست است، اما من فقط می‌خواهم بدانم چه چیزی دیگری را شکست می‌دهد نه ترتیبی از 10. اگر یک مجموعه از مقادیر بیشتر از دیگری پیش‌بینی شود، از چه مدلی برای پیدا کردن استفاده می‌کنید؟
پیش بینی رتبه نتایج گوگل
101570
بنابراین من خیلی تازه وارد آمار هستم، اگر احمق به نظر می‌رسم ببخشید. من دو متغیر کیفی دارم، به ترتیب با 4 و 5 سطح (آنها پاسخ های یک نظرسنجی هستند). من آنها را در یک جدول 4×5 مرتب کرده‌ام و یک تست مجذور کای روی آن انجام دادم، اما برای تمام عمرم نمی‌توانم بفهمم که بعداً چه کار کنم. _edit_: متغیرها محدوده سنی را نشان می دهند (به عنوان مثال از 25 تا 35 سال) بنابراین مرتب شده اند. var2-a var2-b var2-c..... var1-a var1-b var1-c var1-d من p<0.05 دارم، عالی است، اما این چیز زیادی به من نمی گوید. من می خواهم بدانم جهت همبستگی و چه مقادیری در صورت مرتبط بودن متغیرها. من به انجام چند تست زوجی فکر کردم: var1-a در مقابل var1-b، var1-a در مقابل var1-c، و غیره، اما این هنوز به من چیزی نمی گوید. از اینجا کجا برم؟ TIA
متغیرهای چندگانه خی دو، بعد چه؟
44474
من یک مدل اثرات مختلط غیر خطی با یک تابع لجستیک چهار پارامتری برازش کردم. علاقه خاص من در توصیف نقطه ای از منحنی است که در آن مولفه افقی منحنی با مولفه مایل برخورد می کند. برای مثال، در نمودار جلوه‌های ثابت زیر، منطقه‌ای روی منحنی را با فلش‌های آبی نشان داده‌ام که می‌خواهم مقداری برای آن استخراج کنم. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/wrakC.png) یکی از گزینه هایی که من با آن برخورد کردم استفاده از گاوسی تجمعی و سپس استفاده از چیزی شبیه $\mu - 1.65\sigma $ است. برای توصیف این نکته با این حال، در صورت امکان، من می خواهم راهی برای توصیف بخشی از منحنی با پارامترهای لجستیک چهار پارامتری که استفاده می کنم: $$ f(x) = \left(\frac{A-D}{1+\left (\frac{x}{C}\right)^B}\right) + D $$
چگونه می توان ویژگی های برازش منحنی را با یک رگرسیون غیر خطی چهار پارامتری توصیف کرد؟
62050
شاید یک سوال بسیار اساسی باشد اما من را گیج کرده است. مثلاً در یک جدول همبستگی، رابطه بین «A» و DV («B») «.351» است، اما «-.150» در مدل OLS (جایی که «C»، «D» و «را اضافه کرده‌اید» است. متغیرهای E)، پس این به چه معناست؟ به عبارت دیگر: اگر متغیرهای «C» به «E» نه تنها ضریب «A» را تغییر دهند، بلکه حتی آن را از منفی به مثبت تبدیل کنند، آیا این نشان دهنده اثر متقابل نامطلوب بین متغیرهای مورد استفاده در OLS است؟ من نمرات VIF را برای این مورد بررسی کرده ام اما بر اساس VIF پایین دلیلی برای ترس از چند خطی بودن ندارم. چه چیزی (اگر چیزی) اشتباه است؟ من سعی می کنم سرم را دور این بپیچم و یک مثال ساده برای خودم بسازم تا بفهمم. بگویید «A» قد یک فرد و «B» مسافتی است که این شخص می پرد. احتمالاً یک همبستگی مثبت وجود دارد (بالاتر به معنای پاهای بلندتر، به معنای پرش از مسافت طولانی تر). چه متغیرهایی از «C» تا «E» قد این فرد را جبران می‌کند، حتی تا حدی که قد این شخص در هنگام پریدن بر خلاف او عمل می‌کند (ضریب بین «A» و «DV» «B» در OLS منفی است)؟
اگر یک ضریب از منهای در جدول همبستگی به مثبت در OLS تغییر کند، آیا مدل اشتباه است؟
62052
من سعی می کنم یک logit تودرتو با استفاده از mlogit در R برای تجزیه و تحلیل داده ها از انتخاب هایی که افراد انجام داده اند اجرا کنم. 4 گزینه احتمالی وجود دارد که آنها می توانند از بین آنها انتخاب کنند، اما در هر موقعیت انتخابی، یک فرد باید بین 2 نوع از 4 نوع کل انتخاب کند. من با مشکل دریافت داده هایم در قالب مناسب برای اجرای logit تودرتو مواجه هستم. داده‌های من در حال حاضر در قالب طولانی هستند، که در آن هر ردیف یک گزینه جایگزین با فیلدهای زیر است (chid شاخص آزمایشی برای آن انتخاب است، نوع می‌تواند A، B، C یا D باشد، DV انتخاب شده است، ترتیب 1 یا 2 برای کدام گزینه در لیست، شخص شناسه شخص منحصر به فرد است، و جایگزین گزینه دیگری است که برای آن آزمایشی موجود است: فرزند، نوع، انتخاب شده، سفارش، شخص، جایگزین 0,A,0,1,P1,_B 0,B,1,2,P1,_A 1,C,0,1,P1,_A 1,A,1,2,P1,_C مشکل من به نظر می رسد داشتن نحوه قالب بندی داده ها و نحوه ایجاد لیست لانه است. من می‌خواهم بتوانم به نحوه مقایسه انواع در انتخاب شدن نگاه کنم، اما مشروط به اینکه انتخاب جایگزین برای هر آزمایشی در دسترس بود. من انواع این دستور را امتحان کرده ام، اما نمی دانم چه چیزی را به عنوان لیست لانه های خود تعریف کنم: nested.logit <- mlogit(انتخاب ~ نوع + سفارش، my.data، shape='long'، alt.var ='type', nests=list(alt.list)) لانه ای که می خواهم استفاده کنم ستون جایگزین است، اما مطمئن نیستم که این روش درستی برای قالب بندی داده های من باشد. من یک خطا دریافت می کنم: 'خطا در `row.names<-.data.frame`(`*tmp*`، مقدار ... خطای تکراری row.names مجاز نیست. PS تودرتو اجرا شود - من از mlogit.data برای قالب بندی داده هایم استفاده نمی کنم، زیرا خطاهایی دریافت کرده ام: >mydata <- mlogit.data(data, Choice=chosen,shape=long,id.var=chid,alt.var=type) خطا در `row.names<-.data.frame`(`*tmp*`, value = c(1.A، 1.B، : row.names تکراری از پست‌های دیگر مجاز نیست (به عنوان مثال http://stackoverflow.com/questions/9355535/how-should-i- format-my-data-for-the-r-mlogit-package) من این تصور را دارم که آنچه داده های mlogit برای آن ساخته شده اند مجموعه های جایگزینی هستند که برای هر انتخاب دقیقاً یکسان می مانند مجموعه‌های جایگزین تغییر می‌کنند (از آنجایی که هر انتخاب فقط 2 مورد از 4 گزینه را ارائه می‌کند (همانطور که در بالا ارائه شد)، همان خطا را دریافت می‌کنم: >alternative.list <- c(_A, _B). ، _C، _D) >nested.logit <- mlogit(انتخاب ~ نوع + سفارش، داده، shape='long', alt.var='type', nests=list(alternative.list)) خطا در ` row.names<-.data.frame`(`*tmp*`, value = c(1.A, 1.B) : تکراری row.names مجاز نیست همه نمونه ها من دیده‌ام که از لانه‌هایی استفاده کرده‌ام که ساده‌تر هستند، مانند جایی که دو نوع همیشه در یک لانه هستند، دو نوع دیگر همیشه در لانه دوم هستند، و غیره، که باعث می‌شود به این فکر کنم که آیا اصلاً می‌توانم از mlogit برای چیزی که دارم استفاده کنم. . من به clogit در بسته بقا نگاه کرده‌ام، اما باز هم داده‌های من دقیقاً با آنچه در نمونه‌ها استفاده می‌شود مطابقت ندارد. با تشکر...
مدل لاجیت تودرتو در r
20195
من مشکلی دارم که با توزیع فوق هندسی (فیشر) به دنبال حل آن هستم. من به یک مشکل باینری نگاه می کنم، وضعیت بیماری $0$ یا $1$. من داده‌های متشکل از بسیاری از فرکانس‌های آللی برای کنترل‌های مربوط به موارد دارم. من می‌خواهم برای هر فرکانس آللی مشاهده‌شده در بین تعداد موارد، یک مقدار p$$ دریافت کنم. آیا از طریق این روش امکان پذیر است؟ اگر به مشکل به عنوان یک urn با آلل‌های $m$ در میان موارد و آلل‌های $n-m$ در بین کنترل‌ها نگاه کنیم. $k$ از این آلل‌ها را به‌عنوان جهش‌یافته «کشش» می‌کنیم، اگر این کشش (بدون جایگزینی) به‌طور تصادفی اتفاق بیفتد، بدون در نظر گرفتن اینکه آیا آلل‌ها در بین موارد یا کنترل‌ها یافت می‌شوند، آنگاه $X$، به تعداد $k$ «مارک‌شده» تبدیل می‌شود. آلل‌های یافت شده در بین موارد، به صورت $X \text{~} Hyp(n,m,k)$ توزیع می‌شوند که در آن $X =$ تعداد واریانت‌های جهش‌یافته در بین موارد یافت می‌شود. بنابراین، $P(X \ge x_{obs}) = {n-m \choose k-x}{m \choose k}/{n \choose k}$. یعنی $m =$ تعداد آللها در بین موارد، $n-m =$ تعداد آللها در بین کنترلها، $k =$ تعداد کل جهشها در بین همه $n$ آللها، $X =$ تعداد $k$ آللهای جهش یافته در بین موارد یافت شده است. اگر بتوان از این روش استفاده کرد، من در مورد اینکه مقدار مشاهده شده من برای هر تعداد توزیع ابر هندسی چقدر خواهد بود سردرگم هستم.
توزیع فرا هندسی در یک مسئله ژنتیکی
67660
من نرم افزاری دارم که ورودی را به عنوان سرمایه گذاری می گیرد و خروجی را به عنوان بازده سهام خاص می دهد. اکنون متریک سود $x_i$ به عنوان نسبت بازده $g_i$ به حداکثر بازده ممکن $g_{max}$ در $i^{th}$ دوره زمانی تعریف می‌شود. بنابراین $x_i = g_i / g_{max}$g_{max}$ برای هر دوره ثابت است اما از سهامی به سهام دیگر متفاوت است. بازده یک سهام خاص در دوره $i_{th}$ g_i$ است که به سرمایه گذاری $s_i$ برای آن دوره بستگی دارد. رابطه بین $g_i$ و $s_i$ از یک دوره به دوره دیگر متفاوت است. **سؤال** این است که چگونه می توان $s_i$ را بر اساس $s_{i-1}$ و $g_{i-1}$ تصمیم گرفت تا برای یک سهام خاص، $x_i$ را به حداکثر برساند. آیا می توان یک مکانیسم یادگیری آنلاین برای تعیین ارزش $s_i$ بر اساس داده های قبلی ایجاد کرد. [توجه: $ 0 < g_i \leq g_{max}$, $ s_{min} \leq s_i \leq s_{max}$, $i_{th}$ دوره زمانی ثابت است، در این مورد شش ماه است]
آموزش آنلاین برای به حداکثر رساندن سود
67668
وقتی میانگین نمونه از قبل مشخص باشد، ضریب تصحیح چیست؟ منظورم این است که آیا تغییری در درجات آزادی مرتبط با توزیع t وجود دارد. آمار آزمون همیشه از میانگین نمونه استفاده می کند.
تست بیرونی گرابس
20196
من با R جدید هستم و می خواهم اعتبار برخی از مقیاس ها را با استفاده از R ارزیابی کنم. آیا بسته ای وجود دارد که بتوانم از آن برای آزمایش اعتبار همگرا و متمایز در R استفاده کنم؟
از کدام بسته برای اعتبار همگرا و متمایز در R استفاده کنیم؟
23554
من همین سوال را در math.stackexchange ارسال کردم، اما هیچ پاسخی دریافت نکردم. بنابراین من شانس خود را در اینجا امتحان خواهم کرد: در زمینه آمارهای قوی، مفهوم نقطه شکست وجود دارد که اساساً نسبت مقادیر پرت را که یک برآوردگر می تواند قبل از ارائه یک نتیجه دلخواه انجام دهد، اندازه گیری می کند: http://en.wikipedia.org/ wiki/Rbust_statistics#Breakdown_point برای مثال، میانگین حسابی دارای نقطه شکست $0$ است، در حالی که میانگین آن را $0.5$، بالاترین حد ممکن است. سوال من این است که چگونه باید نقطه شکست **میانگین وزنی** را تخمین بزنیم، که نقطه داده با کوچکترین $m$ است که موارد زیر را برآورده می کند، وقتی مجموعه نقاط داده $n$ به ترتیب صعودی مرتب شده اند: $$\sum_{i=1}^{m} \Omega_{i} \ge \sum_{j=m+1}^{n}\Omega_{j}$$ کجا $\Omega_{i}$ وزن نقطه $i$ است. به طور دقیق تر، چه رابطه ای را می توانیم بین وزن و نقطه شکست بدست آوریم؟
نقطه شکست میانه وزنی
66532
من حیواناتی دارم که داروی A یا داروی B (فاکتور دارویی) را مصرف کرده‌اند، و همین حیوانات یا کم آب شده‌اند یا آب هیدراته شده‌اند (عامل درمان). تست‌های F برای مدل ANOVA من به من می‌گویند که فقط درمان مهم است (دارو مهم نیست و تداخل دارو*درمان نیز مهم نیست). اما آزمایش‌های پس‌هک Student-Newman-Keuls (SNK) نشان می‌دهد که داروی A-dehydrated با دارو-B-dehydrated متفاوت است. اگر فقط عامل درمان مسئول تفاوت‌ها باشد، چرا آزمایش‌های پس‌هک برای این تفاوت مهم هستند؟ آیا باید بعدا عوض کنم؟ چه سوالاتی (متفاوت) پاسخگوی آزمون F و پس از آن هستند؟
مدت تعامل آنالیز واریانس غیر معنی دار اما آزمون های تعقیبی معنی دار است
62059
اگر دو مدل داشتید - یکی با تناسب بهتر و دیگری با پیش‌بینی‌کننده‌های اهمیت بالاتر - کدام یک را انتخاب می‌کردید؟ به خاطر داشته باشید که هر دو مدل مناسب هستند. یکی 3 درصد قابلیت های پیش بینی بهتری دارد. و همچنین همه پیش‌بینی‌کننده‌های یکسان در هر دو مدل معنی‌دار هستند، اما در یک مدل (با تناسب کمی بدتر) کمی معنی‌دارتر هستند.
خوبی تناسب در مقابل اهمیت
91748
من به اطلاعاتی در مورد نحوه ادامه دادن به داده هایم نیاز دارم. من داده‌ها را از نظرسنجی خانوار بر روی 180 نمونه جمع‌آوری کرده‌ام تا اهمیت داده‌شده به ویژگی‌ها در تصمیم‌گیری مکان مسکونی را بیابم. اهمیت ویژگی های مختلف در مقیاس لیکرت جمع آوری می شود. چهارده سوال وجود دارد که به پنج زیر مجموعه تقسیم می شوند. به عنوان مثال: اهمیت حمل و نقل-(دسترسی به حالت های مختلف و سایر امکانات مرتبط-5 سوال)، امکانات محله-(مدارس، بیمارستان ها و غیره-5 سوال). از آنجایی که نمونه من کوچک است، می‌خواهم قبل از استفاده از آنها به‌عنوان متغیرهای مستقل در یک رگرسیون لجستیک، پنج سؤال مربوط به حمل‌ونقل را به یک ساختار و همه سؤالات مربوط به امکانات محله را در یک ساختار کاهش دهم (من سعی کردم از آنها به طور جداگانه استفاده کنم، اما من نتونستم نتیجه بگیرم). از چه نوع تکنیک آماری باید استفاده کنم؟ خواندم که می توانم از تحلیل مکاتبات چند متغیره استفاده کنم. اگر همه 14 سوال را همزمان وارد کنم، ممکن است ساختارها را به گونه ای دریافت کنم که برخی از پاسخ ها از امکانات حمل و نقل و محله با همبستگی/کوواریانس بالا در سازه اول، تعداد کمی از امکانات محله و تعداد کمی از حلقه اجتماعی به عنوان سازه دوم. و غیره من نمی خواهم آنها اینطور با هم قاطی شوند. من می خواهم ببینم چقدر به متغیرهای حمل و نقل اهمیت داده می شود و این اهمیت چقدر بر تصمیم فرد تأثیر می گذارد و به همین ترتیب می خواهم برای متغیرهای دیگر نیز ببینم. چگونه می توانستم این کار را انجام دهم؟ به من گفته شد اگر متغیر پیوسته است، می توانیم از تحلیل عاملی تاییدی استفاده کنیم. اما من همه پاسخ های مقیاس لیکرت را دارم. آیا می توانیم دو متغیر را در یک ساختار کاهش دهیم؟ همچنین، آیا باید قبل از استفاده از تکنیک کاهش داده، آلفای کرونباخ را پیدا کنم؟ وقتی ما از تکنیک کاهش داده استفاده می کنیم، هدف آن چیست؟ واقعا ممنون میشم اگه کسی به این سوالات جواب بده. تحقیقات من اینجا گیر کرد. ممنون آرونا
کاهش ابعاد برای سوالات لیکرت، آلفای کرونباخ
67667
ExtraTreesClassifier و Random Forest در کتابخانه یادگیری Scikit دارای پارامتر min_density است. مقدار پیش فرض آن 0.1 تنظیم شده است. به نظر نمی‌رسد که بفهمم این پارامتر min_density به چه معناست و چگونه بر آموزش تأثیر می‌گذارد (در اسناد موجود نیست و به نظر نمی‌رسد معادل آن را در مقاله پیدا کنم.) آیا کسی می‌تواند تأثیر این پارامتر را بر روی آموزش و نحوه آموزش توضیح دهد. آن را به درستی تنظیم کنیم؟ با تشکر
پارامتر min_density در scikit-learn Random Forest/ExtraTrees برای چیست؟
62054
من نیاز دارم برای تابع همبستگی خودکار (ACF) یک مدل ثابت و معکوس ARMA(1,1) اثبات کنم، که نشان می دهد ACF در اولین تاخیر به هر دو پارامتر $\theta_1$ و $\phi_1$ بستگی دارد. و برای تاخیرهای بیشتر فقط به $\phi_1$ بستگی دارد ($k>1$). کسی میتونه کمکم کنه؟
اثبات ACF برای مدل ARMA(1,1).
51535
لحظه های توزیع کولموگروف تا چه حدی وجود دارد؟ مراجع قدردانی می شود.
لحظات توزیع کولموگروف
62055
چرا من منحنی ROC خود را می بینم که از خط (0,0) به (1,1) (یعنی خط 0-1) عبور می کند؟ من داده‌های آزمایشی زیر را به‌عنوان یک فایل testdata.txt جدا شده با برگه دارم. با اجرای چندین بار کد R خود (در زیر آورده شده است)، چند منحنی ROC دریافت می کنم که چندین بار از خط 0-1 عبور می کنند. چه توضیحی ممکن است برای این وجود داشته باشد، غیر از داده های کافی؟ با تشکر testdata.txt pred1 pred2 pred3 پاسخ 25 3.8 13.4 0 29 5.3 23.5 1 30 4.3 14.1 1 29 3.8 16.1 0 26 5.7 22.9 0 20 4 23.5 13.1 1 29 3.8 22.9 0 20 4 223 13. 5.1 16.9 0 24 4.3 15.2 0 25 5 15.2 0 29 4.1 13.7 0 24 3.7 14.7 0 29 4.7 13.8 0 28 3.9 14.2 0 29 4.1 0 25. 13.9 0 33 4.3 17.1 0 33 5 16.6 1 28 4.6 15.2 0 29 4.5 15.6 0 26 4.1 14.3 0 31 4.4 12.6 0 214 4.6 2.7 0 214 4.1 13.3 0 29 4.1 17.7 1 29 4.2 18.4 1 27 4.5 17.3 0 27 4.4 16.4 1 28 4.5 17.6 1 29 4.7 15.8 129 4.7 15.8 27 4.4 13.3 0 29 3.9 13 1 27 3.9 17.9 0 25 3.2 13.6 0 22 4.8 13.4 0 26 5.5 14.2 0 24 4 16.6 0 38 3.2 3.2 14.2 0 24 4 16.6 0 38 3.2 13.2 14. 3.1 16.5 1 23 4.8 14.5 0 27 5.4 13.5 0 27 4.1 12.8 1 30 3.9 13.1 0 24 5.4 13 0 25 4 12.3 0 130 254 12.3 0 254 18 3.6 13.7 0 24 3.2 13 0 27 4 14.3 0 33 3.6 17.1 0 24 3.2 15.5 0 24 3.2 13.3 0 24 4 14.2 0 213 264. 0 16 3.4 17.1 0 21 4.3 21.1 0 27 4.5 13.5 0 29 4.1 13.5 0 27 3.9 14.1 0 27 4.1 13.6 0 27 4.5 13.5 0 27 3.9 14.1 0 27 4.1 13.6 0 27 4.5 13.5 129. 3.7 15.1 0 33 3.6 17.1 1 16 5 16.6 0 21 5.4 16.7 0 27 4 11.5 0 29 3.7 12.7 0 26 3.7 11.7 0 1215 4. 0 24 3.8 12.9 0 33 3.2 14.1 0 24 3.4 14.2 0 26 4.1 13.9 0 26 5.3 14.4 0 16 4.3 21.1 0 20 5.4 14.2 17.4 3.1 13.7 0 31 3.8 12.8 0 29 4.8 16.7 0 33 4 14.7 0 16 5 17.1 0 29 4.6 13.2 0 23 3.4 12.7 0 2254 12.7 0 214 4. 31 3.6 13.5 0 32 5.3 13.9 1 33 4.3 16.6 0 29 4.1 15.3 0 18 4.2 14.9 0 24 5.9 16.7 0 25 4.3 11937 1194. 5.7 13.6 0 29 4 12.4 0 24 4.5 13.8 0 27 3.8 14.1 0 34 4.2 12.4 0 30 4.3 13.1 0 26 3.4 15.9 0 3.4 15.9 0 3.8 215. 13.2 0 25 3.2 13.4 0 28 4.6 15.5 0 24 4.8 14.6 0 24 3.9 12 0 29 4.9 14.7 0 28 4.5 13.5 0 224 508 25 15.1 0 27 4.5 12.8 0 31 4.6 15.6 0 22 4.7 14.3 0 25 3.9 13.6 0 28 5.6 14.7 0 21 4.3 19.9 1 3114 19.9 1 3114 4.8 14.4 0 30 4.3 14.7 0 25 5.3 12.1 0 30 4.8 13 0 29 3.9 15.1 0 32 4.4 14.7 1 24 4.3 14.2 0 30 4.8 13 0 29 3.9 15.1 0 32 4.4 14.7 1 24 4.3 14.2 0 30 29. 0 23 3.7 17.5 0 29 4.2 14.8 0 29 4.8 15.2 0 31 6.1 13.6 0 27 4.3 13.1 0 27 4.4 12.3 0 28 5.1 13.6 0 27 4.3 13.1 0 27 4.4 12.3 0 28 5.1 13.1 0 28 5.1 13.1 13.1 4.3 12.5 0 26 3.7 12.2 0 28 4 12.5 0 29 2.8 13.5 0 30 3.6 12.2 0 29 4.1 13.5 0 27 5.2 16.5 0 29 2.8 13.5 0 30 3.6 12.2 0 29 4.1 13.5 0 27 5.2 16.5 0 4026. 12.1 0 24 4 14.2 0 22 3.8 13.3 0 34 4.6 13.4 1 31 4.5 13.6 0 28 4.9 12.5 0 33 4 12.6 0 29 4 0 128 13.4 0 33 4 12.6 0 29 4 128 13.4 12.5 0 27 4.2 14.2 0 29 3.8 15.2 0 26 3.8 13.5 0 27 5.8 13.8 0 22 3.8 11.7 0 28 3.7 13.2 0 26 3.8 13.5 0 27 3.8 11.7 0 28 3.7 13.2 0 1214.4. 0 13 4.3 19.3 0 27 4.5 18.3 0 24 4.6 13.8 0 37 3.8 12.3 0 25 4.8 11.9 0 30 4.1 12.5 0 23 3.7 13.8 13. 4.1 12.9 0 24 4.5 16.9 0 25 3.7 12.7 0 30 4 12.7 0 25 5 12.3 1 29 3.9 14.2 0 25 3.9 13.6 0 2214.8. 0 28 4 13.4 0 28 4.1 13.9 0 27 3.5 13.9 0 26 2.7 18.8 1 30 4.6 12 0 25 4 13.6 0 26 4.9 14.7 0 13.9 14.7 0 1024. 0 16 4.3 15 0 33 5.3 15.7 0 24 4.8 15.5 0 29 3.2 13.6 0 30 4.4 12.6 0 28 3.8 13.5 1 24 4.3 1330 13.3. 4.2 13.2 0 26 3.6 12.5 0 24 4.1 13.5 1 16 3.1 13 0 24 3.4 17.6
منحنی AUC متناوب. به چه معناست؟
61620
من مطمئن نیستم که واریانس از نظر فنی واژه مناسبی باشد، بنابراین اجازه دهید توضیح دهم... من در حال اندازه گیری دو مجموعه داده در محل کار هستم و صدک 50، 90 و 99 را برای هر مجموعه داده به صورت ماهانه بررسی می کنم. مجموعه داده A به طور کلی حدود 10 برابر بیشتر از مجموعه داده B مشاهدات دارد. اگر هر یک از این معیارها به اندازه کافی در یک ماه برای هر یک از مجموعه داده ها تغییر کند، روسای من توضیح می خواهند که چرا تغییر کرده است. آستانه ای که آنها از لحاظ تاریخی برای اینکه آیا توضیح لازم است یا نه استفاده می کردند، دلتای 3 درصدی ماهانه در هر ماه است. (به دلایل طولانی مختلف، انجام یک آزمون معنی‌داری آماری واقعی برای شرایط ما امکان‌پذیر نیست.) این آستانه 3 درصد زمانی ایجاد شد که ما فقط به مجموعه داده‌های A نگاه می‌کردیم، جایی که به طور حکایتی به نظر می‌رسد درست است. اما اکنون برای مجموعه داده B نیز اعمال می شود. بدیهی است که از آنجایی که مجموعه داده B یک دهم مشاهدات دارد، این آستانه را بسیار بیشتر می کند. من می‌خواهم چیزی شبیه این بگویم که «مجموعه داده‌های B یک دهم مشاهدات دارد، بنابراین باید آستانه X برابر بزرگ‌تر را در نظر بگیریم». من فقط مطمئن نیستم که چگونه X را تعیین کنم. من این حس شهودی مبهم را از کلاس‌های آمار قدیمی دارم که باید با sqrt(N) متناسب باشد، یعنی اگر مجموعه داده‌های A اجازه دارد تا 3% از ماه به ماه تغییر کند، مجموعه داده‌های B باید تا حد تغییر کند. به 3٪ * sqrt (10) = ~ 9.5٪ در ماه. سوال من این است: راست می گویم؟ و صرف نظر از اینکه من درست می گویم، استدلال آماری واقعی برای هر پاسخ درست چیست؟ با فرض اینکه اجازه می دهیم مجموعه داده A تا 3 درصد تغییر کند، چقدر باید اجازه داده شود که مجموعه داده B تغییر کند؟
رابطه بین واریانس و حجم نمونه
67662
من یک محقق پژوهشی هستم و از 4 سال گذشته وقایع فنولوژیک خط چوب را در منطقه هیمالیا نظارت می کنم. در طول تجزیه و تحلیل داده ها، من یک مقاله تحقیقاتی تخمین و مقایسه منحنی گلدهی مشابه کار خود پیدا کردم. در این مقاله از بسته «R» «bbmle» استفاده شد و از پنج پارامتر $(\beta_{0},\ldots,\beta_{4})$ استفاده شد که: (i) ارتفاع; (ب) تاریخ اوج. (iii) محدوده؛ (IV) تقارن. و (v) اوج منحنی رگرسیون محاسبه شد. من همچنین جدول ضمیمه را خواندم و کد را برای تخمین این پارامتر دنبال کردم اما به عنوان یک تازه کار نتوانستم محاسبات را انجام دهم. جدول پیوست کامل اینجاست: ![جدول ضمیمه](http://i.stack.imgur.com/wOkDn.jpg) من همچنین startvals را برای سال 2007 همانطور که در ضمیمه ذکر شده است پست می کنم. به مقادیر شکل زیر برای سال 2007 نگاه کنید. سال 2007 همانطور که در شکل نشان داده شده است که در آن $(\beta_{0},\ldots,\beta_{4})$ توضیح می دهد: 1. ارتفاع 2. قله تاریخ 3. محدوده 4. تقارن 5. اوج منحنی رگرسیون.
نحوه برآورد حد اطمینان 95% بر اساس برآورد حداکثر احتمال
23556
هر زمان که تقویت مطرح می شود، Adaboost اولین الگوریتمی است که فهرست می شود. محبوب ترین الگوریتم های تقویتی که Adaboost نیستند چیست؟
قوی ترین جایگزین های تقویت کننده برای Adaboost چیست؟
67661
من GLM ها را اجرا کرده ام و مدل نهایی خود را متناسب با داده هایم دریافت کرده ام. اکنون می خواهم هر یک از متغیرهای کمکی مهم خود را در مقابل مقادیر پیش بینی شده رسم کنم. من می خواهم تمام متغیرهای کمکی دیگر مدل را ثابت نگه دارم و یک متغیر کمکی داشته باشم که متفاوت باشد و آن را رسم کنم. هدف من به دست آوردن خطی با فواصل اطمینان است که در آن بتوانم مقدار پیش بینی شده برای مقدار مشخصی از متغیر کمکی خود را ببینم. من ایده بسیار واضحی از نموداری که می‌خواهم دارم، اما نمی‌دانم چگونه آن را در R رسم کنم. پیشنهادی دارید؟ ممنون
پیش‌بینی نمودار برای متغیرهای کمکی از GLM
28795
به یاد دارم که در مورد یک قانون کلی برای انتخاب تعدادی ویژگی مطالعه کردم. چیزی شبیه $\sqrt{\log_2(n)}$ بود که $n$ تعداد نمونه‌ها یا $\log_2(n)$ است. آیا کسی مقاله (یا کتاب) اصلی را که فرمول را توصیف می کند به یاد دارد؟ از طرف دیگر، می‌توانید با مهربانی یک دستورالعمل خوب برای استخراج تعداد ویژگی‌های مورد استفاده توضیح دهید؟ متشکرم
انتخاب تعداد ویژگی ها
51530
من در حال انجام برخی مدل‌سازی‌های اکتشافی بر روی یک مجموعه داده با 29 متغیر کمکی و 11 متغیر اضافی هستم که برای سؤال تحقیق من جالب هستند. استراتژی من این است که یک مدل با زیرمجموعه ای از بردار متغیرهای کمکی ایجاد کنم و سپس اهمیت مدل را با 11 متغیر تحقیق اضافی ارزیابی کنم. صرف نظر از استراتژی مدل‌سازی خاص، می‌ترسم که مطمئن نیستم چگونه با عدم قطعیت مدل ناشی از تفسیر مقادیر AIC و BIC که می‌بینم مقابله کنم. به عبارت دیگر، اگر من BIC را برای 5000 مدل محاسبه کنم و متوجه شوم که BIC در یک مدل خطی با متغیرهای A, B, C به حداقل می رسد (مثلاً 1711-) و مدل با دومین BIC پایین تر (بیایید مثلاً 1709- =) دارای متغیرهای A، B، C و D است -- از کجا بدانم که تفاوت بین این دو مدل برای توجیه حذف متغیر کافی است D از در نظر گرفتن؟ و چگونه می توانم آن بررسی تفاوت ها را برای در نظر گرفتن 4998 مدل باقی مانده گسترش دهم؟ پیشاپیش از هرگونه کمکی که ممکن است بتوانید ارائه دهید متشکریم.
چگونه می توانم بفهمم که تفاوت IC ها در بین مدل های کاندید قابل توجه است؟
61622
من می خواهم با 2 کلاس طبقه بندی انجام دهم. وقتی بدون _smote_ طبقه‌بندی می‌کنم، دریافت می‌کنم: Precision Recall f-1 0,640950987 0,815410434 0,714925374 وقتی از _smote_ استفاده می‌کنم: (کلاس اقلیت را در **200%** و k = 5) Recall دقیق f-1 ,831024643 0,783434343 0,804894232 همانطور که می بینید این به خوبی کار می کند. با این حال، زمانی که من این مدل آموزش دیده را روی داده های اعتبارسنجی آزمایش می کنم (که هیچ داده مصنوعی ندارد) Precision Recall f-1 0,644335755 0,799044453 0,709791138 که افتضاح است. من از **جنگل تصمیم تصادفی** برای طبقه بندی استفاده کردم. کسی ایده ای دارد که چرا این اتفاق می افتد؟ هر گونه راهنمایی مفید در مورد آزمون های اضافی که می توانم برای به دست آوردن بینش بیشتر امتحان کنم نیز استقبال می شود. اطلاعات بیشتر: من به طبقه اکثریت دست نمی زنم. من در پایتون با scikit- Learn و این الگوریتم برای smote کار می کنم. ماتریس سردرگمی در داده‌های آزمایشی (که داده‌های مصنوعی دارد): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CUIum.jpg) ماتریس سردرگمی در داده‌های اعتبارسنجی با همان مدل ( داده های واقعی، که توسط SMOTE تولید نشده اند) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ol7fW.jpg) * * * **ویرایش:** خواندم که مشکل احتمالاً در این واقعیت است که پیوندهای Tomek ایجاد شده است. بنابراین من کدی برای حذف پیوندهای tomek نوشتم. اگرچه این نمرات طبقه بندی را بهبود نمی بخشد. **ویرایش2:** خواندم که مشکل احتمالاً در این واقعیت است که همپوشانی بیش از حد وجود دارد. یک راه حل برای این، یک الگوریتم تولید نمونه مصنوعی هوشمندتر است. بنابراین من پیاده‌سازی کردم > ADASYN: رویکرد نمونه‌گیری مصنوعی تطبیقی ​​برای یادگیری نامتعادل پیاده‌سازی من را می‌توانید در اینجا پیدا کنید. عملکردش بدتر از smote بود.
با استفاده از SMOTE طبقه بندی مجموعه اعتبارسنجی بد است
23553
من از یک حوزه علوم کامپیوتر با یک مشکل تخمینی می آیم که سعی می کنم به آن بپردازم. سوابق من آمار نیست، بنابراین اگر اصطلاحات بد است عذرخواهی می کنم. من موضوعات مختلف مربوط به تخمین مدل را مطالعه کرده ام، اما منطقه بسیار زیاد به نظر می رسد. بنابراین، من مشکل را در زیر شرح می‌دهم، و دریافت اشاره‌گرها به بخش‌های خاصی که مرتبط هستند برای جلوگیری از رد شدن در ده‌ها صفحه ویکی‌پدیا بسیار مفید خواهد بود :). 1. یک فضای $d$-بعدی $S$ با ابعاد $N_1 \times N_2 \times \dots \times N_d$ را در نظر بگیرید. هر نقطه $s \در S$ توسط یک تاپلی $(n_1، n_2، \dots، n_d)$ با $d$ شاخص‌های مبتنی بر صفر $n_k \in [0، N_k-1]$ مشخص می‌شود. 2. یک تابع 1-1 $f وجود دارد: S \rightarrow \mathbb{N}$ که یک نقطه چند بعدی در $S$ را به یک عدد طبیعی منفرد نگاشت می‌کند. 3. مشکلی که می‌خواهم به آن بپردازم مربوط به تخمین $f$ است، یعنی: با توجه به $S$، محدوده $f(S)$، و $p \in f(S)$، نقطه $ را تخمین بزنید. s \در S$ طوری که $f(s)=p$. 4. (ویرایش): یادم رفت بگویم: فضا را می توان برای ساخت مجموعه آموزشی کاوش کرد. یعنی داده های آموزشی را می توان با ارزیابی $f(s)$ بدست آورد. با این حال، محاسبه $f(s)$ بسیار گران است، بنابراین هدف تخمین $f$ با کمترین ارزیابی ممکن است. بنابراین، در نهایت هدف تخمین معکوس $f$ است. برخی فرضیات در مورد $f$ وجود دارد که شاید مهمترین آنها خطی بودن آن باشد. املاک دیگری نیز وجود دارد، اگر ممکن است مرتبط باشند، لطفاً بپرسید. با تشکر نوح
تخمین نگاشت تابع خطی از n-dim تا 1-dim
67663
من در فینال سوال زیر را گرفتم، اما معلم ادعا می کند که من به این درست پاسخ ندادم، الف را به عنوان پاسخ درست انتخاب کردم، پاسخ درست چیست و چرا؟ سوال اینجاست: در تحقیقی در مورد ارتباط بین دو متغیر کمی مشاهدات جمع آوری شد (بیش از 2) که در آن هر مشاهده مقدار x و y و انحراف معیار x و y دارد. ,$S_x$$S_y$، بزرگتر از `0`. کدام یک از موارد زیر درست است: 1. اگر ضریب همبستگی لحظه-محصول پیرسون 1$ باشد، ضریب همبستگی رتبه اسپیرمن لزوماً 1 نیست. )$ نمی تواند بزرگتر از $S_x$ باشد. 3. اگر $\mathrm{Cov}(x,y) = 0$، درصد واریانس **non** توضیح داده شده باید 0 باشد. 4. اگر شیب خط رگرسیون از مقدار $y$ مورد انتظار به عنوان تابعی از $x$ 1 باشد، ضریب همبستگی لحظه-محصول پیرسون $1 است.
یک سوال از یک آزمون در آمار؟
61625
من دو تعریف از ماتریس اطلاعات فیشر را خوانده ام. آیا آنها معادل هستند؟ (فرمول‌های ارائه شده در زیر، نسخه‌های کمی اصلاح‌شده از آن‌هایی هستند که در منابع ذکر شده ارائه شده‌اند، تا تفاوت‌های بین آنها آشکار شود.) 1. Zacks، Theory of Statistical Inference (1971)، ص. 194: $$ \left[E_\theta\left(\frac{\partial}{\partial\theta_i}\n f\left(X;\theta_1,\dots,\theta_r\right)\cdot\frac{\ partial}{\partial\theta_j}\ln f\left(X;\theta_1,\dots,\theta_r\right)\right)\right]_{i,j} $$ 2. Schervish, Theory of Statistics (1997), Definition 2.79, p. 111: $$ \mathrm{Cov}_\theta\left(\frac{\partial}{\partial\theta_i}\ln f\left(X;\theta_1,\dots,\theta_r\right),\frac{ \partial}{\partial\theta_j}\ln f\left(X;\theta_1,\dots,\theta_r\right)\right) $$
ماتریس اطلاعات فیشر
20224
معیار اطلاعات آکایک، معیاری برای برازش خوب یک مدل است که تعداد پارامترهایی را که برای ساخت آن مدل استفاده شده اند، جبران می کند. دو مدل خطی را در نظر بگیرید، یکی که با استفاده از وزن فرد ($w$) و قد ($h$): $f_1 = a w + b h + c$ ساخته شده است. بدیهی است که این مدل دارای دو پارامتر w و h است. اکنون مدلی را در نظر بگیرید که از شاخص توده بدنی (BMI) استفاده می کند، که به صورت ترکیبی از وزن و قد محاسبه می شود: $f_2 = aB + b$ (در اینجا، $B$ مخفف BMI است). آیا BMI در این مورد باید به عنوان یک پارامتر واحد در مقابل AIC در نظر گرفته شود یا به عنوان دو پارامتر؟ در مورد سایر پارامترهای مدل پیچیده که ممکن است شامل ترکیب غیر خطی از پارامترهای اصلی مختلف باشد، چطور؟
معیار اطلاعات آکایک و متغیرهای ترکیبی
23886
من به تازگی متوجه شدم که مجموعه داده من بسیار آشفته تر از چیزی است که انتظار داشتم و می خواستم بدانم آیا کسی در اینجا توصیه ای دارد. من داده های فروش دارم که به مناطق تقسیم شده است (5 شکست بزرگ در سطح ملی و سپس 4-6 شکست در هر شکست سطح ملی بزرگ، دومین شکست همان چیزی است که من منطقه می نامم. تفکیک بعد از آن همه فروشگاه ها است. که در یک منطقه به فروش می رسند.)، اما من به تازگی متوجه شدم که آنچه در مناطق گنجانده شده است در طول زمان متفاوت است. در 3 سال گذشته، آنها 3 منطقه را حذف کرده اند و سپس فروش خود را به مناطق دیگر منتقل کرده اند (تصور کنید همه فروش ها را برای شهرهای دوقلو گرفته و سپس تصمیم بگیرید که در 1 فوریه آنها باید از ثبت به عنوان شهرهای دوقلو تغییر کنند. نیمی از آنها با مدیسون ضبط شده اند و نیمی دیگر با شیکاگو مرتبط هستند). همچنین بسیار متداول است (هنوز دقیقاً مطمئن نیستم که چقدر رایج است، در حال کار بر روی کشف آن) برای یک فروشگاه جداگانه (تفکیک پس از منطقه) از یک منطقه به منطقه دیگر (بنابراین در 1 فوریه فروشگاه من از ثبت شدن به عنوان فروش در شهرهای دوقلو برای فروش در شیکاگو). طبیعتاً این اطلاعاتی است که در مجموعه داده‌های من موجود نیست (هیچ کسی از افراد آماری وقتی تصمیم می‌گیرند اطلاعات را دریافت نمی‌کنند)، بنابراین من مکعبی دارم که در حال حاضر هیچ پیوندی به این اطلاعات ندارد. در یک پایگاه داده دسترسی من به داده های سطح فروشگاه فردی دسترسی دارم که لیستی از ارتباط ماهانه منطقه آنهاست (بنابراین برای فروشگاه من تا 1 فوریه 2012 در هر سلول شهرهای دوقلو می گوید و سپس به مدیسون تغییر می کند). من دو ایده برای نزدیک شدن به این موضوع دارم. اولین مورد این است که از طریق پایگاه داده دسترسی بروید، فروشگاه‌هایی را شناسایی کنید که در تعریف منطقه‌شان یکسان بوده‌اند و همه فروشگاه‌های دیگر را حذف کنید، سپس با داده‌هایی که قبلاً دارم به آن بپیوندید (زمانی که کارمند فناوری اطلاعات من را به اطلاعات موجود در SSMS دسترسی می‌دهد) . این به معنای حذف هر فروشگاهی است که تا به حال منطقه ای را از داده ها تغییر داده است. مشکلی که من در اینجا می بینم این است که آنچه را که تصور می کنم حجم زیادی از داده ها است حذف می کند و داده ها از برخی مناطق با شدت بیشتری نسبت به سایرین حذف می شوند، زیرا برخی از مناطق حرکت بیشتری نسبت به سایرین دارند (و ما هنوز هم داریم 3 حذف کامل منطقه در راه است). مورد دیگری که من در نظر دارم (مطمئن نیستم که قانونی است یا نه) این است که در صورت تغییر منطقه، یک متغیر ساختگی که 1 است را اضافه کنم و آن را در مدل خود قرار دهم. این به تغییرات متعدد نمی‌پردازد، اما اگر آن اطلاعات را در مدل خود لحاظ کنم، باید با برخی از آن‌ها برخورد کند، بله؟ من می‌خواهم راه‌حلی ارائه کنم که شامل حذف مجموعه داده‌های من نباشد، چیزی که اکنون به آن تمایل دارم. ممکن است تغییر سطح فروشگاه نادیده گرفته شود، زیرا آنها تا حدودی رایج هستند و تغییر چندان بزرگی نیستند، اما به نظر می رسد حذف یک منطقه و جابجایی آن بسیار بزرگ است که بتوان نادیده گرفت. ممنون از پیشنهادات شما به روز رسانی: به نظر می رسد تیم داده ما قبلاً یک راه حل پیاده سازی کرده است، برای راه حل به @peter و نظرات من در زیر مراجعه کنید.
چگونه می توان با تغییر تعاریف مناطق در طول زمان در داده ها برخورد کرد؟
66533
من با یک مدل رگرسیون خطی مشکل دارم که در آن 2 متغیر وابسته دارم. هر دو به شدت با یکدیگر همبستگی دارند و هر دو باید با مدل خطی «y = Xbeta + u» توضیح داده شوند، من از خودم می‌پرسم آیا می‌توانم یک رگرسیون به ظاهر نامرتبط (SUR) یا یک مدل رگرسیون چند متغیره انجام دهم، زیرا مطمئن نیستم. تفاوت بین این دو رویکرد خوشحال میشم اگه کسی بتونه در این مورد کمکم کنه. خیلی ممنون.
رگرسیون به ظاهر نامرتبط و رگرسیون چند متغیره
51537
من در تعجب بودم که چگونه می توان HSD توکی را برای پیگیری یک ANOVA اندازه گیری های مکرر سه طرفه با دست محاسبه کرد. من سعی کردم با اصلاح کاری که در ANOVA بین موضوعی انجام می‌دهم، نحوه انجام آن را استنباط کنم، اما مطمئن نیستم که آیا در مسیر درستی هستم یا خیر. MSE = 18109 n = 59 (من در مجموع 59 آزمودنی دارم که در همه گروه ها شرکت می کنند) df خطا = 55 من می خواهم با استفاده از 8 میانگین 4 مقایسه انجام دهم. با استفاده از k = 8 (آیا این باید 4 باشد؟) و df E = 55، من q = 4.45 را جستجو کردم. من 18109 را بر 59 = 306 تقسیم کردم، جذر آن را 17.49 کردم و آن را (17.49) در 4.45 = 77 = HSD ضرب کردم. آیا این منطقی است؟
محاسبه Tukey HSD به دنبال ANOVA اندازه گیری های مکرر
23884
من در تلاش هستم تا تأثیر چهار مداخله/ قرار گرفتن در معرض را بر کسب عفونت (مداخلات با هدف پیشگیری از عفونت) تعیین کنم. من از داده های رجیستری استفاده می کنم. زمان تجزیه و تحلیل من به 4 سال محدود شده است زیرا نتیجه اولیه من 4 سال است (عفونت / یا نه). این یک رجیستری نسبتاً جدید است و بنابراین داده‌های افراد به طور همزمان وارد شده است (برای کسانی که پس از شروع ثبت نام متولد شده‌اند) و داده‌های دیگری که داده‌های افراد بعداً برای آنها شروع می‌شود، که بسیاری از آنها در تجزیه و تحلیل من نقشی ندارند، زیرا آنها بیش از 4 سال داشتند. سن در هنگام شروع ثبت. من در STATA مبدأ (تولد = زمان 0)، ورود (اولین تاریخ ثبت شده در رجیستری) و شکست (عفونت) خود را مشخص کرده ام. از آنجایی که دریافت عفونت یک شکست مطلق است و زمان تجزیه و تحلیل من مربوط به سن است، انتظار دارم که تعداد در معرض خطر عفونت به مرور زمان کاهش یابد. با این حال، زمانی که من منحنی بقای Kaplan-Meier را با جدول در معرض خطر ترسیم می کنم، در زمان 0، 0 افراد در معرض خطر هستند و افراد بعدی در معرض خطر قرار می گیرند. هیچ ایده ای دارید که چرا اینطور نیست؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ymqrp.png)
تجزیه و تحلیل بقا - کمک به تعیین منبع خطا
74616
من در حال انجام تحقیق در مورد عوامل تعیین کننده سودآوری بانک هستم. من 4 متغیر مستقل و 1 متغیر وابسته گرفتم. داده‌های جمع‌آوری‌شده شامل دوره 5 ساله با توجه به 10 بانک است. R مربع 0.304 و R مربع تنظیم شده 0.243 بود. تنها 2 متغیر در سطح 5 درصد معنی دار بودند. مقدار F 4.919 و معناداری 0.0022 اگر متغیر دیگری را به مدل مدل اضافه کنم مربع R به 0.315 افزایش می یابد. آیا می توانید راه حلی برای افزایش مربع R به من بدهید؟
دلیل پایین بودن مربع R چیست؟
23551
آیا الگوریتم های استاندارد (برخلاف برنامه ها) برای انجام رگرسیون خطی سلسله مراتبی وجود دارد؟ آیا مردم معمولاً فقط MCMC را انجام می دهند یا الگوریتم های تخصصی تر، شاید به شکل نیمه بسته، وجود دارد؟
الگوریتم های استاندارد برای انجام رگرسیون خطی سلسله مراتبی؟
92218
با توجه به داده های سری زمانی روزانه زیر ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/seWDR.jpg) من از auto.arima در R برای ساخت یک مدل استفاده کرده ام. من از «freq = 5» استفاده کردم زیرا داده‌ها فقط در روزهای هفته (دوشنبه تا جمعه) جمع‌آوری می‌شوند. tsdata <- ts(داده، فرکانس = 5) fit <- auto.arima(tsdata، ic = 'aicc') نمودار (پیش‌بینی(مناسب، h = 80)) بازگشت، سری: tsdata ARIMA(3،1،2) (0،0،1)[5] با ضرایب دریفت: ar1 ar2 ar3 ma1 ma2 sma1 دریفت 1.6825 -0.6384 -0.0993 0.0151 -0.9778 -0.0063 -0.0232 s.e. 0.0494 0.0904 0.0487 0.0125 0.0123 0.0483 0.2080 sigma^2 تخمین زده شده به عنوان 33.92: log likelihood=-1393.24 AIC=2806.1 AICc=2806.1 AICc=2806 به دست آمده است. نتیجه: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VJasC.jpg) چرا آریما فقط یک خط مستقیم را به من برمی گرداند؟ آیا مدل ARIMA برای استفاده در اینجا مناسب است؟ چگونه می توانم ویژگی داده های پیش بینی را حفظ کنم؟ من در ساخت مدل سری زمانی بسیار جدید هستم. هر گونه پیشنهادی قدردانی خواهد شد. متشکرم
از چه مدل سری زمانی باید استفاده کرد؟
67664
با استفاده از روش لحظه‌ها، می‌توان سعی کرد مجموع متغیرهای $\chi_{r}^{2}$ را به صورت $\sum a_{i}Y_{i}$ با معادل‌سازی حرکات $n$-th تقریب زد. با حرکت $n$-ام جمعیت نمونه بگیرید و پارامترها را به این ترتیب حل کنید. با این حال من در اشتقاق تقریب Satterthwaite گیر کرده ام. نویسنده (برگر و کاستلا) موارد زیر را پیشنهاد کرد (صفحه 314): .. برای انجام این کار باید لحظات دوم را با هم تطبیق دهیم، و ما نیاز داریم $$\mathrm{E}\left(\sum^{k}_{i=1}a_{i}Y_{i}\right)^{2}=\mathrm{E}\left(\frac{\ chi_{v}^{2}}{v}\right)^{2}=\frac{2}{v}+1$$ با استفاده از روش لحظه‌ها، می‌توانیم **اولین انتظار** را رها کنیم و حل کنیم برای $v$، بازده $$\overline{v}=\frac{2}{\left(\sum^{k}_{i=1}a_{i}Y_i\right)^{2}-1}$$ ساده لوح من سوال این است که چرا اصلاً می‌توانیم انتظارات را از بین ببریم؟ این از توضیحات نویسنده در مورد روش حرکات مشخص نیست، که در آن فقط $$m_{j}=\frac{1}{n}\sum^{n}_{i=1}X_{i} برابر می‌شود. ^{j}\text{ با } EX^{j}$$ و به نظر من واضح است که علامت انتظار قابل حذف نیست. به همین ترتیب، در آخرین مرحله از استخراج فرمول تقریب، نویسنده پیشنهاد کرد: .. با جایگزینی این عبارت به جای واریانس و **حذف انتظارات**، به دست می آوریم... (صفحه 315) آیا کسی می تواند بیان کند. اشاره؟ ببخشید سوال واقعا کم است. ویرایش: یکی از دوستان در اینجا پیشنهاد کرد که روش گشتاورها $E(Z)=Z$ را فرض کند زیرا یک برابر با دو لحظه است. من فکر نمی‌کنم که این موضوع مستقیماً از این تعریف پیروی کند. حتی زمانی که $j=1$ باید $\frac{1}{n}\sum^{n}_{i=1}X_{i}$ را با $EX^{1}$ یکسان کرد. من فکر نمی‌کنم این به طور کلی به معنای $E(Z)=Z$ باشد، به طوری که بتوان از $Z=\sum a_{i}Y_{i}$ استفاده کرد.
اشتقاق تقریب ساترتویت
59046
غیر از چه روشی برای رگرسیون می توان برای بدست آوردن y=f(x1,x2) در مجموعه آموزشی 800 تا 2000 نمونه استفاده کرد؟ y یک عدد کامل است <0،15>، x1،x2 واقعی هستند <0،40>؟ من علاقه مند به پیش بینی هستم اگر واضح نباشد.
روشی مناسب برای یادگیری نظارت شده مجموعه داده های کوچک با متغیرهای کم
61628
من در حال حاضر در حال انجام تجزیه و تحلیل چالش برانگیز هستم و مطمئن نیستم چگونه ادامه دهم. من سه گروه جداگانه دارم که رویه های متفاوتی داشتند. در هر یک از آنها چهار اندازه گیری وجود دارد (آزمودنی ها 4 بار در طول روز از نظر سطح کورتیزول اندازه گیری شدند). در حالت ساده، منجر به ANOVA دو طرفه می شود (لطفاً من را اصلاح کنید، اگر اشتباه می کنم)، اما یک مشکل وجود دارد. متغیر اندازه‌گیری شده (کورتیزول) روند کاهشی دارد، بنابراین اگر کورتیزول را صبح قبل از مداخله اندازه‌گیری کنم، باید در همه گروه‌ها مشابه باشد، اما چگونه می‌توان بعداً که مداخله‌ای انجام شد، تفاوت در سطوح کورتیزول را دریافت کرد؟ مقادیر کورتیزول به طور طبیعی در صبح کمتر از ظهر است و من باید آزمایش کنم که آیا تفاوتی در مداخله وجود دارد یا خیر.
چگونه می توان تفاوت بین گروه ها را مقایسه کرد، زمانی که مقادیر اندازه گیری شده روند کاهشی دارند
66539
من سعی می کنم راهی برای پیش بینی تکامل برخی از داده ها در آینده نزدیک با استفاده از منبع داده دیگری پیدا کنم که با آن منبع مرتبط است اما سریعتر تغییر می کند. به عنوان مثال، من قیمت بشکه نفت را دارم، و می دانم که اگر افزایش یابد، به زودی قیمت بنزین در پمپ های خودکار نیز به میزان مشخصی افزایش می یابد. بنابراین من سعی می کنم با استفاده از قیمت بشکه نفت امروز (یا حتی قیمت بشکه نفت در هفته گذشته یا ماه گذشته) قیمت گاز را در 7 روز آینده محاسبه کنم. اولین رویکرد من استفاده از شبکه عصبی برای حل مشکل بود. به طور رضایت بخشی کار می کند، اما بسیار دست و پا گیر است و من معتقدم که باید یک راه آسان تر و ساده تر وجود داشته باشد.
داده های آینده نزدیک را از منبع داده مرتبط دیگری که سریعتر تغییر می کند، پیش بینی کنید
59047
چگونه همه آنها نسخه های یک روش آماری پایه هستند؟
رگرسیون، آزمون t و ANOVA همه نسخه‌های مدل خطی عمومی چگونه هستند؟
30
کدام روش برای آزمایش الگوریتم های تولید متغیر تصادفی استفاده می شود؟
آزمایش الگوریتم های تولید تغییرات تصادفی
23881
من یک مدل ARIMA(1،1،4) با استفاده از رگرسیور خارجی با خروجی قابل قبول دارم، اما نمی توانم آن را خارج از R تولید کنم. این نتیجه برای مدل است: ضرایب: ar1 ma1 ma2 ma3 ma4 XRegressor[ 1:39، ]_ضریب 0.9500 -1.0202 0.3977 -0.8283 0.6030 0.0084 s.e. 0.1106 0.1999 0.1953 0.2003 0.1526 0.0059 sigma^2 تخمین زده شده به عنوان 9619542: log likelihood=-360.56 AIC=735.11 AICc=738.84: xm با استفاده از 7 فرمول I=76 است. x(t-1)(1+ar1) - ar1*x(t-2) + XRegressor[1:39، ]_coeff* [xreg(t) - (1+ar1)*xreg(t-1) + ar1 *xreg(t-2)] + ma1*e(t-1) + ma2*e(t-2) + ma3*e(t-3) + ma4*e(t-4) دارم استفاده می کنم باقیمانده به عنوان عبارت خطا در فرمول بالا. من می‌توانم در یک پیش‌بینی یک قدم جلوتر به نتیجه درست برسم و برای گام‌های بعدی، باقیمانده‌ای برای جایگزینی در فرمول نخواهم داشت. حتی با حذف قسمت MA از مدل، کار نمی کند. آیا من اینجا چیزی را از دست داده ام؟ آیا می توانم بگویم با حذف قسمت MA، اثرات باقی مانده را پاک می کنم؟ پیشاپیش از کمک شما بسیار سپاسگزارم
بازتولید مدل ARIMA خارج از R
486
من AIC و AICc را برای مقایسه دو مدل مختلط خطی کلی محاسبه کرده ام. AIC ها مثبت هستند و مدل 1 دارای AIC کمتر از مدل 2 است. با این حال، مقادیر AICc هر دو منفی هستند (مدل 1 هنوز <مدل 2 است). آیا استفاده و مقایسه مقادیر منفی AICc معتبر است؟
مقادیر منفی برای AICc (معیار اطلاعات Akaike اصلاح شده)
27647
نگاهی به داده های تأخیر IO برای یک آرایه ذخیره سازی. هنگامی که یک درایو در شرف از کار افتادن است، یک نشانه افزایش در عملیات IO 'زمان برای تکمیل' است. آرایه لطفاً این داده‌ها را در این قالب ارائه می‌کند: کانال‌های دیسک زمان ثانیه A B C D E F G H P S 0.017 5e98bd 64008b 62a559 68eb45 676ccf 5d3a86 46242b 62dd2e 697513cf. 1be769 1c372a 185134 19a2c2 21802c 2fa2ba 1d91c4 17b3ca 14cea6 0.050 6638e 3a93b 4b19f 258aa 28b64329d 4 1290d 0.067 2df3 1c17 1f1b 180f 1291 1f05 5201 15f4 1856 10d8 0.083 365 293 2b9 296 269 226 3c20 ae 3 94 aa 92 86 ce 81 9f 91 ... (تکرار زمان تا 2.00 ثانیه افزایش می یابد، شمارش ها به صورت هگز می باشد). ستون سمت چپ زمانی است که IO در آن کامل می شود، و ستون های دیگر تعداد IO ها در برابر یک دوک معین هستند که در آن زمان تکمیل شده است. هنگامی که یک درایو به خرابی نزدیک می شود، دم آن درایو به طور قابل توجهی عریض می شود... جایی که بیشتر درایوها تعداد انگشت شماری IO> 0.2 ثانیه دارند، درایوهای خراب می توانند تعداد زیادی IO را در مدت زمان 0.2 ثانیه دریافت کنند. مثال : زمان کانال های دیسک ثانیه A B C D E F G H P S ... 0.200 4 52d 2 7 3 2 1 6 1 8 0.217 2 2a6 0 1 0 0 1 4 0 1 0.233 0 1a1 0 02 010. 0 1 0 0 1 1 0 1 0.267 0 73 0 0 0 0 0 0 0 0 0.283 0 44 0 0 0 0 0 0 0 0 0.300 0 2d 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.300 0 2d 0 0 0 0 0 0 0 0 بیش از 10 IO بیش از 0.2 ثانیه، اما من به دنبال یک مدل ریاضی بودم که بتواند خرابی ها را با دقت بیشتری شناسایی کند. اولین فکر من این بود که واریانس هر ستون را محاسبه کنم... هر مجموعه ای از درایوها با طیفی از واریانس ها که بیش از حد وسیع باشد، متخلف را علامت گذاری می کند. با این حال، این نشان می دهد که درایوها به طور معمول رفتار می کنند: حداقل واریانس 0.0000437، حداکثر 0.0001250 است. <== یک مجموعه خوب از درایوها حداقل واریانس 0.0000758، حداکثر 0.0000939 است. <== مجموعه ای با یک درایو بد. من در مورد دور انداختن دو ردیف اول از داده ها (بزرگترین آنها با فاصله زیاد) فکر کرده ام و ببینم که آیا شبه واریانس تمیزتر می شود یا خیر، اما انداختن داده ها در سطل زباله من را خوشحال نمی کند. هر ایده دیگری؟ به روز رسانی: در اینجا تابع محاسبه من (در پایتون) است. من فکر نمی کنم یک خطای ریاضی وجود داشته باشد...: def account(moment=1) : حلقه بین ردیف ها، دریافت میانگین و واریانس در هر درایو در ردیف برای ردیف در datadb.keys() : time_list = datadb[tier]['time_list'] del(datadb[tier]['time_list']) برای درایو در sorted(datadb[tier].keys()): جمع = 0 تعداد کل = 0 برای زمان، شمارش در zip(time_list، datadb[tier][drive]): جمع += ( شناور(زمان) ** لحظه) * شمارش totalcount += countcalled_moment = جمع / totalcount moments.setdefault(tier, []).append( (drive,calculated_moment) ) و در اینجا 4 اجرا مختلف وجود دارد که لحظه آن روی 1..4 تنظیم شده است. برای مرجع، ردیف 1 و 2 هیچ مشکلی ندارند. ردیف 12 و 14 دارای دم بلند هستند و باید جایگزین شوند: sum(t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0198504، حداکثر 0.0263216 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0254473، حداکثر 0.0258425 است. بدترین درایو درجه F است. لحظه 12 دقیقه 0.0229226، حداکثر 0.0240188 است. بدترین درایو S لایه 16 دقیقه لحظه 0.0195339، حداکثر 0.0244102 است. بدترین درایو G sum(t*t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0004377، حداکثر 0.0008179 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0007284، حداکثر 0.0007539 است. بدترین درایو درجه F است. لحظه 12 دقیقه 0.0006069، حداکثر 0.0006693 است. بدترین درایو S لایه 16 دقیقه لحظه 0.0004263، حداکثر 0.0007183 است. بدترین درایو G sum(t*t*t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0000111، حداکثر 0.0000295 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0000234، حداکثر 0.0000251 است. بدترین درایو 12 دقیقه درایو 0.0000185 و حداکثر 0.0000222 است. بدترین درایو درجه H است. لحظه 16 دقیقه 0.0000111، حداکثر 0.0000256 است. بدترین درایو G sum(t*t*t*t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0000003، حداکثر 0.0000013 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0000008، حداکثر 0.0000020 است. بدترین درایو سطح E است. لحظه 12 دقیقه 0.0000007، حداکثر 0.0000015 است. بدترین درایو درجه H است. لحظه 16 دقیقه 0.0000004، حداکثر 0.0000046 است. بدترین درایو F است
به دنبال انحرافات در داده های مبتنی بر زمان
27640
در مقاله زیر http://fic.wharton.upenn.edu/fic/papers/99/9914.pdf در مورد آسیب های فاجعه بار، جمله ای را خواندم که من را متحیر کرد (ص 23): > برای داده های طوفان که پارتو می دهد سنگین ترین تخمین دم در واقع > برآوردهای MLE از پارامترهای پارتو ($\lambda=177.64$، >$\alpha=0.797$) نشان می‌دهد که توزیع _پایدار نیست_و لحظه‌ها تعریف نشده‌اند. چرا این نشان می دهد که توزیع پایدار نیست؟ من دلیل چنین نتیجه گیری را نمی بینم - توزیع پایدار دارای دم های پارتو مانند است (به صورت مجانبی). آیا منظور او از قانون پارت نیست است؟ دلیل نویسنده برای این گفته چه می توانست باشد؟ دلایل زیادی برای رد یک فاصله پایدار وجود دارد، اما یکی بیان کرد؟
توزیع پارتو توزیع پایدار را رد می کند؟
92215
من یک سری داده از یک بررسی بودجه خانوار دارم و می‌خواهم کارهای زیر را در SPSS انجام دهم: سهم مخارج غذا از کل مخارج خانوار را که در صدک‌های 45 و 55 در کل نمونه قرار دارند، شناسایی کنید. اگر نظرسنجی شامل یک متغیر وزنی خانوار باشد، محاسبه صدک باید وزن را در نظر بگیرد. من راه‌های مختلفی را برای تعریف صدک امتحان کرده‌ام، اما مطمئن نیستم که در مورد من چه چیزی درست است. چگونه می توانم این کار را انجام دهم؟ و چگونه می توانم وزن خانوار را در محاسبات لحاظ کنم؟ متشکرم.
صدک 45 و 55
49336
من در این ترم کلاسی را در مورد ادغام توابع چندین متغیر و حساب برداری تدریس می کنم. این کلاس بیشتر از رشته‌های اقتصاد و رشته‌های مهندسی، با تعداد کمی از افراد ریاضی و فیزیک نیز تشکیل شده است. من ترم گذشته این کلاس را تدریس کردم و متوجه شدم که بسیاری از رشته های اقتصاد در نیمه دوم نسبتاً خسته بودند. من توانستم با انجام محاسباتی با متغیرهای تصادفی توزیع شده مشترک، انتگرال‌های متعدد را برانگیختم، اما برای بخش تجزیه و تحلیل برداری درس، تنها انگیزه‌ای که می‌توانستم به آن فکر کنم، مبتنی بر فیزیک بود. بنابراین می‌پرسم آیا کسی تفسیری آماری/احتمالی از هر یک از قضایای اصلی حساب برداری می‌داند: قضیه گرین، قضیه استوکس، و قضیه واگرایی. بخشی از مشکل این است که به نظر نمی‌رسد که میدان‌های برداری اغلب در تئوری احتمال ظاهر می‌شوند، چه رسد به واگرایی، گرادیان یا پیچش. من هم چند روز پیش این سوال را در math.stackexchange ارسال کردم، اما همچنان به دنبال ایده های بیشتری هستم.
محاسبات برداری در آمار
74615
من یک تجزیه و تحلیل خوشه ای بر اساس مولفه های اصلی انجام دادم. حجم کل نمونه حدود 140 است. اکنون می‌خواهم تفاوت‌های میان خوشه‌ها (با استفاده از مؤلفه‌ها) را در حین انجام یک تجزیه و تحلیل post-hoc شرح دهم. با استفاده از آزمون Levene متوجه شدم که می توان همگنی واریانس ها را فرض کرد. من سوالات زیر را دارم: 1) آیا می توانم توزیع نرمال را برای ANOVA فرض کنم، زیرا مولفه ها تبدیل به z هستند؟ 2) کدام آزمون تعقیبی مناسب است؟ من اندازه ساده نابرابر با توجه به خوشه ها دارم. من ممکن است برای تست Tukey-Kramer بروم.
آزمون تعقیبی در زمینه تحلیل خوشه ای
74611
در بسیاری از موارد، قبلی برای $\sigma^2$ طوری انتخاب می‌شود که با ${1/\sigma^2}$ متناسب باشد. من چند سوال در مورد این دارم: 1. شهود برای انتخاب این قبلی چیست؟ 2. اطلاعات منتقل شده توسط این قبلی چیست؟ آیا به این معنی است که مقدار بالاتر برای $\sigma^2$ احتمال کمتری دارد؟ 3. من می دانم که این یک مقدمه نادرست است، اما آیا غیر آموزنده است؟ متأسفم، من کاملاً مطمئن نیستم که چگونه پیشین های غیر آموزنده با پیشین های نامناسب متفاوت است.
چرا از ${1/\sigma^2}$ به عنوان قبلی برای $\sigma^2$ استفاده کنید؟
74617
صرفاً می‌خواهم به جای حذف مغرضانه کلمه توقف، کلماتی را که در اسناد آموزنده نیستند، برای طبقه‌بندی حذف کنم. آیا ابزاری وجود دارد که بتواند در این راه به من کمک کند؟ من NLTK را می شناسم اما یک حذف کننده کلمه توقف ساده ارائه می دهد.
ابزاری که می تواند به من در یافتن کلمات غیر آموزنده در اسناد برای طبقه بندی و حذف آنها کمک کند چیست؟
74612
من از شما برای ایجاد برآوردگر حداکثر احتمال (MLE) و CRLB در مورد زیر کمک می‌خواهم: با توجه به یک بردار دوبعدی (نقطه‌ای در صفحه XY) $ p = ({x}_{p}، {y}_{ p}) $. اندازه‌گیری‌ها اندازه‌گیری‌های پر سر و صدای این ورودی‌های برداری و هنجار آن هستند. یعنی بردار اندازه گیری $ m = ({x}_{m}، {y}_{m}، {r}_{m}) $ است. جایی که توزیع آن‌ها به صورت زیر داده می‌شود: $$ {x}_{m} \sim N({x}_{p}، {\sigma}_{x})، {y}_{m} \sim N({y}_{p}، {\sigma}_{y})، {r}_{m} \sim N(\sqrt{{x}_{p}^{2} + {y}_ {p}^{2}}، {\sigma}_{r}) $$ یعنی اندازه‌گیری‌ها به طور معمول توزیع شده، بی‌طرفانه و مستقل از یکدیگر هستند. پارامترهایی که باید تخمین بزنند $ \Theta = ({x}_{p}، {y}_{p}) $ هستند با توجه به بردار اندازه‌گیری $ m = ({x}_{m}، {y}_{m} ، {r}_{m}) $ همانطور که در بالا تعریف شد. به عبارت ساده، مختصات نقطه ای را در صفحه دوبعدی با توجه به اندازه گیری نویز مختصات آن و برد / فاصله آن از (0، 0) تخمین بزنید. خوشحال می‌شوم راه‌حل‌ها، ایده‌ها، مقالات مرتبط و CRLB (یا هر حد پایین دیگری در برآورد) را بشنوم. متشکرم
تخمین (MLE) ورودی‌های برداری دوبعدی توسط نمونه‌های پر سر و صدا از ورودی‌های آن و هنجار آن
61626
اول از همه از شما برای انجمن عالی تشکر می کنم! من یک سوال در مورد مدل های خطی تعمیم یافته (GLM) دارم. متغیر وابسته من (DV) پیوسته است و نرمال نیست. بنابراین من وارد سیستم شدم آن را تبدیل کردم (هنوز عادی نیست اما آن را بهبود بخشید). من می خواهم DV را با دو متغیر طبقه بندی و یک متغیر کمکی پیوسته مرتبط کنم. برای این من می خواهم یک GLM انجام دهم (من از SPSS استفاده می کنم) اما مطمئن نیستم که چگونه در مورد توزیع و عملکرد انتخاب کنم. من آزمون ناپارامتریک لوین را انجام داده ام و دارای همگنی واریانس هستم، بنابراین تمایل به استفاده از توزیع نرمال دارم. من خوانده ام که برای رگرسیون خطی، داده ها نیازی به نرمال بودن ندارند، باقی مانده ها این کار را انجام می دهند. بنابراین، من باقیمانده های پیرسون استاندارد شده و مقادیر پیش بینی شده برای پیش بینی خطی را از هر GLM به صورت جداگانه چاپ کرده ام (عملکرد هویت عادی GLM و تابع گزارش نرمال). من تست های نرمال (هیستوگرام و Shapiro-Wilk) انجام داده ام و باقیمانده ها را در برابر مقادیر پیش بینی شده (برای بررسی تصادفی بودن و واریانس) برای هر دو به صورت جداگانه رسم کرده ام. باقیمانده های تابع هویت نرمال نیستند اما باقیمانده های تابع log نرمال هستند. من تمایل به انتخاب عادی با تابع پیوند ورود دارم زیرا باقیمانده های پیرسون به طور معمول توزیع می شوند. بنابراین سؤالات من این است: \- آیا می توانم از توزیع نرمال GLM با تابع پیوند LOG در یک DV که قبلاً تبدیل شده است استفاده کنم؟ \- آیا آزمون همگنی واریانس برای توجیه استفاده از توزیع نرمال کافی است؟ \- آیا روش بررسی باقیمانده برای توجیه انتخاب مدل تابع پیوند صحیح است؟ تصویر توزیع DV در سمت چپ و باقی مانده از GLM نرمال با عملکرد پیوند ورود به سیستم در سمت راست. ![توزیع DV در سمت چپ و باقیمانده از GLM عادی در سمت راست](http://i.stack.imgur.com/4BZnk.png)
من متغیر وابسته من را تغییر دادم، آیا می توانم از توزیع نرمال GLM با تابع پیوند LOG استفاده کنم؟
375
> **تکراری احتمالی:** > آزمایش الگوریتم های تولید تغییرات تصادفی چه روشی برای آزمایش یک سری از اعداد برای دیدن تصادفی بودن (یا حداقل تصادفی بودن آنها) وجود دارد؟ آیا معیار آماری خوبی برای تصادفی بودن وجود دارد که بتوان از آن برای تعیین تصادفی بودن یک مجموعه استفاده کرد؟ مهمتر از آن، چگونه می توان ثابت کرد که یک روش تولید اعداد تصادفی است؟
آزمایش (و اثبات) تصادفی بودن اعداد
92211
من دو مجموعه داده از دو آزمایش دارم. همه داده ها را می توان به سه کلاس تقسیم کرد، به عنوان مثال: $$\begin{array}{cccc}\rm{Parameter}1&\rm{Parameter}2 ...&\rm{Parameter}N&\rm{Class}\\ \\\hline a_1&b_1&c_1&A\\\a_2&b_2&c_2&B\\\a_3&b_3&c_3&C\\\\...\end{array}$$ مقادیر پارامترها یک کلاس را تعریف می کنند. من می خواهم معیارهایی را بر اساس یک مجموعه داده (با کلاس های از پیش تعیین شده) ایجاد کنم تا بتوانم کلاس ها را به مجموعه داده دوم اختصاص دهم. از آنجایی که همه پارامترها معنای خاصی دارند، من نمی‌خواهم یک روش جعبه سیاه مانند شبکه‌های عصبی داشته باشم، اما می‌خواهم چیزی شبیه این داشته باشم: «اگر Parameter1 کمتر از X باشد و Parameter2 در بازه [Y، Z] سپس کلاس A است. بهترین راه برای انجام آن چیست؟ آیا چنین راهی در پایتون پیاده سازی شده است؟
از چه روش طبقه بندی استفاده کنید
8570
من به دنبال یک مرجع (یا مراجع) محکم در مورد تکنیک‌های بهینه‌سازی عددی با هدف آماردانان هستم، یعنی این روش‌ها را برای برخی مسائل استنتاجی استاندارد (مانند MAP/MLE در مدل‌های رایج) به کار می‌برد. چیزهایی مانند نزول گرادیان (مستقیم و تصادفی)، EM و اسپین‌آف‌ها/تعمیم‌های آن، بازپخت شبیه‌سازی شده، و غیره. لازم نیست کاملاً صریح باشد، اما حداقل باید یک کتابشناسی محکم ارائه کند. برخی از جستجوهای گذرا چند متن پیدا کرد: تحلیل عددی برای آماردانان اثر کن لانژ و روش‌های عددی آمار توسط جان موناهان. بررسی های هر یک به نظر می رسد مخلوط (و پراکنده). از بین این دو، مطالعه فهرست مطالب نشان می‌دهد که ویرایش دوم کتاب لانگ به آنچه من در پی آن هستم نزدیک‌ترین است.
منابع بهینه سازی عددی برای آماردانان
35746
چرا افزودن متغیر سنی باعث افزایش واریانس شیب تصادفی (زمان ورود به سیستم) می شود؟ آیا قرار نیست با اضافه شدن یک متغیر کمکی کاهش یابد؟ اولاً، فقط $log(time)$ در مدل با قطع تصادفی و شیب تصادفی وجود دارد. $Y=(b_0+e_{b0})+(b_1+e_{b1})*log(time)+e$ سپس سن را به عنوان متغیر کمکی اضافه می کنم:(همچنین با قطع تصادفی و شیب تصادفی) $Y=(b_0+ e_{b0})+(b_1+e_{b1})*log(time)+b_2*سن+e$ دریافتم که واریانس تصادفی شیب در مدل اول حتی کمتر از مدل دوم است. من خیلی گیج شده‌ام، آیا لزوماً درست است که افزودن یک متغیر کمکی به مدل منجر به واریانس کوچک‌تر شیب تصادفی می‌شود؟ آیا توضیح ممکنی وجود دارد؟
چرا افزودن متغیر سنی باعث افزایش واریانس شیب تصادفی (زمان ورود به سیستم) می شود؟
74614
من دو مجموعه از نمونه ها را مقایسه می کنم، X=(x1، x2، ...) و Y=(y1، y2، ...)، که در آن xn و yn یک عدد صحیح (عدد گسسته) از 2-14 هستند که نشان دهنده شمارش یک رویداد خاص که توسط n تولید شده است. مجموعه ها از نظر اندازه متفاوت هستند (X دارای 10000 نمونه و Y دارای 4000 نمونه). هیستوگرام X و Y شبیه توزیع پواسون است. نمودار جعبه X & Y یکسان به نظر می رسد. آمارهای اضافی از دو مجموعه عبارتند از: n میانگین sd میانه حداقل حداکثر محدوده چولگی کشش se X: 10070 3.18 1.76 3 2 14 12 2.37 7.12 0.02 Y: 4003 3.35 1.82 3 1 25 14. آزمون U Mann-Withney (با استفاده از R) روی X & Y (با آلفا=0.95) p-value=1.218e-11 را تولید کرد، در حالی که فاصله اطمینان 95% [-2.475213e-05، -2.503970e- است. 06]. بنابراین، آزمون می گوید که X و Y متفاوت هستند، اما میانه تفاوت ها تقریباً صفر است (همانطور که با فاصله اطمینان نشان داده شده است). چگونه می توانم این یافته را بیشتر توجیه یا تفسیر کنم؟ به نظر من این تفاوت، در عمل، مهم نیست، زیرا بسیار بسیار کوچک است. نمی دانم که آیا آزمون من ویتنی برای مورد من مناسب است؟ اگر نه، پس چه گزینه هایی برای در نظر گرفتن وجود دارد؟ در ابتدا فقط می خواهم بررسی کنم که آیا این دو جمعیت یکسان نیستند. من خوانده ام که من ویتنی میانه تفاوت ها را می دهد (طبق صفحه راهنمای R)، یا برخی ادبیات می گویند که میانگین رتبه را مقایسه می کند، اما حتی در این مورد، نگرانی من این است که فاصله اطمینان تولید شده به صفر نزدیک شود. .
آزمون من ویتنی روی دو مجموعه داده اریب (پواسون) H0 را رد می کند اما فاصله اطمینان تقریباً صفر است.
32214
من نمی‌پرسم آیا قوانین کلی خوبی برای انتخاب الگوریتم استنتاج تقریبی برای یک مسئله/مدل (مخصوصاً زمانی که استنتاج دقیق غیرقابل حل است) وجود دارد؟ هنگامی که با مشکلی مواجه می شوید، چه مواردی را هنگام انتخاب یک رویکرد برای استنتاج در نظر می گیرید (مانند MCMC، انتشار باور، تنوع و غیره)؟
نحوه انتخاب یک الگوریتم برای استنتاج تقریبی بیزی
32212
من داده‌هایی از یک مطالعه با موضوع انسانی دارم که به‌عنوان یک آزمایش 3×2 (سیستم بر اساس نوع کار) با 24 شرکت‌کننده تنظیم شده بود. هر شرکت کننده در مجموع 6 کار را انجام داد که یکی از آنها از 3 سیستم و 2 نوع کار استفاده می کرد. من دو معیار عملکرد دارم: اولی زمان تکمیل و دومی امتیاز تکمیلی است که به انسان اختصاص داده شده است. اگر کار به درستی انجام شده باشد، امتیاز یا 1 است یا اگر کار اشتباه انجام شده باشد 0 است. بنابراین، برای داده های زمانی من از یک RM-ANOVA پایه استفاده کرده ام. با این حال، من در مورد اینکه چگونه باید با داده های امتیازی رفتار کنم، متحیر هستم. از یک طرف امتیاز باینری است، و از آنجایی که در هر سیستم تنها یک آزمایش بر اساس ترکیب نوع کار وجود دارد، توزیع نمی تواند نرمال باشد. از سوی دیگر، این داده‌های امتیازی است، مانند نتایج یک آزمون درست و نادرست، و بنابراین چرا باید به طور متفاوت با آن برخورد شود که نمره ۱۰۰ سؤال داشته باشد (در این صورت می‌توانم اجرا کنم و RM-ANOVA، درست است؟) . فکر می کنم در اینجا یک فرض اساسی را از دست داده ام.
چگونه می توان تفاوت در داده های امتیاز باینری را آزمایش کرد؟
61088
من یک مشکل کوچک در رابطه با انجام یک تحلیل مقطعی با استفاده از مجموعه داده های طولی دارم. من مجموعه ای از کشورها (87 کشور)، با مشاهدات مختلف اندازه گیری شده در سال های مختلف دارم (به عنوان مثال [کشور]، [سال]، [X]: هلند، 1990، 0.5؛ هلند 1991، 0.3؛ آلمان 1991، 0.4). **روش 1** اکنون اگر من یک تحلیل مقطعی انجام می دهم، همه مشاهداتم را از یک سال انتخاب می کنم (یعنی $Y_{1990، i}=\alpha + \beta \cdot X_{1990، i}$) ، درست می گویم؟ با این حال، مشکل این است که من فقط حدود 24 مشاهده خواهم داشت، در حالی که تعداد کل مشاهدات 150 است، به این معنی که در هر سال فقط زیر مجموعه ای از 87 کشور اندازه گیری می شود. **روش 2** بنابراین برای افزایش میزان مشاهدات، می توانم سال ها را نادیده بگیرم. با ارائه 150 مشاهده به من، با این حال، من فکر می کردم که این چه نوع سوگیری ایجاد می کند. من مطمئن هستم که این باعث ایجاد نوعی سوگیری خواهد شد، زیرا برخی از کشورها در چندین سال نمونه گیری شده اند. **روش 3** روش متفاوتی در نظر گرفتن میانگین کشورهایی است که در چند سال نمونه گیری شده اند، البته این منجر به 87 مشاهده می شود. من همچنین متعجبم که این روش چگونه بر تخمین های من تأثیر می گذارد و چه نوع سوگیری هایی را ایجاد می کند. بنابراین سؤالات من این است که با توجه به هر سه روش که باید از کدام یک استفاده کنم و این روش ها چه نوع سوگیری هایی را معرفی می کنند (تئوری، شاید برخی از مراجع). من همچنین در حال تعجب بودم که آیا «روش‌های جایگزین» وجود دارد. پیشاپیش از پاسخ شما متشکرم!
تحلیل مقطعی با استفاده از داده های طولی، بهترین روش چیست؟
51396
نحوه یافتن توزیع $$\sum_{i=1}^n (X_i - X_{1:n})، $$ که در آن $X_i$ i.i.d است. متغیرهای تصادفی و $X_{1:n} = \min(X_1,X_2,...,X_n)$؟ من باید توزیع را در یک مورد خاص پیدا کنم، اما برای اثبات کلی سپاسگزار خواهم بود. * * * (به عنوان یک علامت، $X_{i:n}$ عموماً به معنای کوچکترین $i$th از $n$ مقادیر $(X_1، X_2، \ldots، X_n)$ است.)
توزیع متغیر
59044
من روزها را صرف تلاش برای تعیین تفاوت بین این دو روش کرده ام، که به بهترین نحو می توانم بگویم که نشان دهنده رویکردهای تک متغیره و چند متغیره برای طراحی درون موضوعی است. آیا کسی می تواند به من بگوید که چرا این دو آنالیز مقادیر F متفاوتی را برای تأثیرات خود دریافت می کنند؟ در اینجا داده‌های نمایشی به شکلی است که اندازه‌گیری‌های تکراری از آن استفاده می‌کنند: داده گسترده. موضوع ورودی DV11 DV12 DV13 DV21 DV22 DV23 DV31 DV32 DV33 ; کارت؛ 1 36 52 55 60 68 64 40 42 44 2 30 32 34 40 42 44 20 22 24 3 -10 -8 -6 0 8 6 -30 -25 -15 ; اجرا؛ و تجزیه و تحلیل: داده های PROC GLM = گسترده. موضوع کلاس؛ مدل dv11 dv12 dv13 dv21 dv22 dv23 dv31 dv32 dv33 = /nouni; ضریب تکراری 1 3، ضریب 2 3; اجرا؛ فاکتور 1 دارای F(2,4) = 48.35 است. فاکتور 2 دارای F(2,4) = 11.5 است. برهمکنش F(4,8) = 0.65 دارد. برای رویکرد دیگر، که من فرض می‌کنم رویکرد چند متغیره است (اگر اشتباه می‌کنم، مرا تصحیح کنید!)، داده‌ها را به عنوان یک بردار مسطح می‌خوانیم که با سطوح عوامل درون موضوعی برچسب‌گذاری شده است: Data Narrow. مقدار ضریب 1 موضوع ورودی؛ کارت؛ ۱ ۱ ۱ ۳۶ ۱ ۱ ۲ ۵۲ ۱ ۱ ۳ ۵۵ ۱ ۲ 1 40 2 2 2 42 2 2 3 44 2 3 1 20 2 3 2 22 2 3 24 3 1 1 -10 3 1 2 -8 3 1 3 -6 3 2 1 0 3 2 2 8 3 2 3 3 3 -30 3 3 2 -25 3 3 3 -15؛ اجرا؛ و تجزیه و تحلیل: PROC GLM data=Narrow; فاکتور1 موضوع کلاس 2; مقدار مدل = factor1|factor2 موضوع; اجرا؛ این بار نتایج ما عبارتند از: عامل 1 F(2،16) = 77.57، ضریب 2 F(2،16) = 7.70، تعامل F(4،16) = 0.56. آیا کسی می تواند توضیح دهد که چرا این تجزیه و تحلیل ها نتایج متفاوتی دارند؟ من با روش دوم راحت تر هستم، اما روش اول به طور سنتی در رشته من ترجیح داده می شود. به روز رسانی: همانطور که می توانم بگویم، تفاوت ها این است که: 1. PROC GLM بر اساس حداقل مربعات معمولی است، در حالی که PROC MIXED از حداکثر احتمال استفاده می کند. این تفاوت به همین دلیل است که MIXED می تواند obs های از دست رفته را مدیریت کند اما REPEATED نمی تواند. 2. تجزیه و تحلیل اندازه گیری های مکرر تفاوت های زوجی را تجزیه و تحلیل می کند، در حالی که اثرات مختلط این کار را نمی کند. بنابراین، اندازه‌گیری‌های مکرر شامل یک فرض کروی (واریانس ثابت تفاوت‌های زوجی) می‌شود، در حالی که MIXED نرمال بودن مشاهدات خام را فرض می‌کند (؟). نگرانی ها در مورد: نقض کروییت (؟) منابع: http://www.ats.ucla.edu/stat/sas/library/GLMvsMIXED_os.htm و http://www.ats.ucla.edu/stat/sas/library/mixedglm.pdf
تفاوت بین GLM با رهگیری موضوع در مقابل ANOVA با اندازه گیری های مکرر؟ [کد SAS]
8573
توزیع احتمال دو کلاس توسط $N(5,1)$ و $N(6,1)$ داده می شود که در آن $N(\mu,\sigma^2)$: $$f(x) = \frac{1 }{\sqrt{2\pi \sigma^2}} e^{-\frac{(x-\mu)^2}{2\sigma^2}} $$ * نحوه طبقه بندی آنها و مشاهده میزان خطا ? من این کار را در متلب انجام می دهم و از هر توزیع 500 نمونه می گیرم و بسته به اینکه از کجا آمده اند آنها را برچسب گذاری می کنم. نمونه 1 = 0.8864 -1.0000 0.1560 -1.0000 0.8502 -1.0000 -0.4059 -1.0000 0.9298 -1.0000 نمونه2 = -0.0671 1.0000 0.703070.01 1.0000 -0.7314 1.0000 -0.4524 1.0000 داده = 0.8864 -1.0000 0.1560 -1.0000 0.8502 -1.0000 -0.4059 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000 -1.0001 -0.7314 1.0000 0.7057 1.0000 0.3310 1.0000 -0.7314 1.0000 -0.4524 1.0000 اکنون می‌خواهم آنها را با استفاده از Bayes طبقه‌بندی کنم، من از «normpdf» استفاده می‌کنم، برای آسان‌تر کردن این کار، من از قاعده‌های قبلی استفاده می‌کنم، اما احتمال‌های قبلی را ایجاد می‌کنم. نمی دانم چگونه این را در آن کدنویسی کنم متلب، نظری دارید؟ n=500; sample1=[randn(n,1) -1*ones(n,1)]; sample2=[randn(n,1) ones(n,1)]; data=[sample1; نمونه2]; mu1 = 5; sigma1 =1; mu2 = 6; sigma2 =1; x1=linspace(mu1-1*sigma1,mu1+1*sigma1,500); p1=normpdf(x1,mu1,sigma1); x2=linspace(mu2-1*sigma2,mu2+1*sigma2500); p2=normpdf(x2,mu2,sigma2); نمودار (x1,p1,x2,p2) همچنین آیا برچسب گذاری با '-1 و 1' صحیح است؟ اگر میانگین و واریانس «نمونه 1 و نمونه 2» را محاسبه کنم؟ mean_S1=mean(sample1); mean_S2=mean(sample2); var_S1 = var(sample1); var_S2 = var(sample2); \- مرحله بعدی چیست؟ \- برای نرخ خطا من قصد دارم بین بردار کلاس اصلی (-1،1) و نتیجه طبقه‌بندی کننده مقایسه کنم: errorRate = mean(OriginalClasses ~= ResultOfClassifier); _**_**به روز رسانی شده* _*_** واضح؛ clc; n = 500; mu1 = 5; sigma1 =1; mu2 = 6; sigma2 =1; mu = [mu1,mu2];sigma = [sigma1,sigma2]; % آنها را گروه بندی کنید %فرض کنید داده های آزمایشی خود را از جایی دریافت می کنید. % برای ضربات، داده های تصادفی را در: %xtest = randn(2*n,1); کد نمونه %OP دارای برچسب‌هایی در data var است. ack sample1=[randn(n,1) -1*ones(n,1)]; sample2=[randn(n,1) ones(n,1)]; data=[sample1; نمونه2]; انحراف = bsxfun(@minus,data,mu); %tbc deviance = bsxfun(@rdivide,deviance,sigma); %tbc deviance = انحراف .^ 2; %tbc deviance = bsxfun(@plus,deviance,2*log(abs(sigma))); %tbc deviance = deviance + log(2*pi); در واقع در اینجا ضروری نیست. [ساختگی، مینی] = min(انحراف،[]،2); % پیدا کردن کدام کلاس; ResultOfClassifier = 2 * mini - 3; % اکنون یک -1/1 errorRate = mean(data(:,2) ~= ResultOfClassifier) ​​errorRate = 0.2680 است
طبقه بندی بیز دو توزیع نرمال در متلب
51390
من مشکل زیر را دارم: باید تصمیم گرفت. به طرز متناقضی، ارزش دارد که در تصمیم گیری فقط تا حدی درست باشد، بگویم می خواهم در 60 درصد مواقع درست باشم. یعنی $p(\text{تعدیل صحیح})=0.6$. من از تجربه می دانم که در 90 درصد مواقع می توانم به درستی تصمیم بگیرم، مثلاً $p(\text{من درست هستم})=0.9$. بعد از اینکه تصمیمم را گرفتم، می توانم به جای آن از شخص دیگری بخواهم که تصمیم بگیرد. این شخص بسیار ساده لوح است و فقط در 10 درصد مواقع می تواند تصمیم درستی بگیرد، یعنی $p(\text{نظر جایگزین صحیح})=0.1$. چند درصد از تصمیمات را به آدم ساده لوح اجازه دهم؟ راه حل من: اجازه دهید $x$ نسبت تصمیم گیری شده توسط فرد ساده لوح باشد. $0.1x+0.9(1-x)=0.6$$x=0.375$ آیا این درست است؟ اگر این دو تصمیم مستقل از یکدیگر نباشند چگونه این تغییر خواهد کرد؟ یعنی اگر دقت انتخاب افراد ساده لوح به نحوی به انتخابی که خودم انجام داده ام بستگی داشته باشد چه؟ بگویید اگر تصمیم الف را بگیرم، فرد ساده لوح 30 دلار درصد در انتخابش درست است، اگر تصمیم B را بگیرم، فرد ساده لوح 20 دلار در انتخابش درست است، و اگر تصمیم C را بگیرم، آن فرد ساده لوح است. 10 دلار در انتخاب خود درست است.
چگونه احتمالات را در این سناریوی تصمیم گیری محاسبه کنم؟
63347
من در حال خواندن یادداشت سخنرانی از دانشگاه کمبریج در مورد رتبه‌بندی احتمالی هستم و آنها ادعا می‌کنند که ثابت نرمال شده در فرمول زیر یک شکل بسته دارد اما نمی‌توانم ثابت کنم. لطفا به من کمک کنید تا این رابطه را مدیریت کنم؟ $\int_{-\infty}^{\infty}\int_{-\infty}^{\infty} \mathcal{N}(w_1; \mu_1, \sigma^2_1)\mathcal{N}(w_2; \ mu_2، \sigma^2_2) \Phi(y(w_1 - w_2)) \, \mathrm{d}w_1 \mathrm{d}w_2 = \Phi ( \frac{y(\mu_1 - \mu_2)}{\sqrt{1+ \sigma^2_1 + \sigma^2_2}})$ در این مورد، $\Phi(t ) = \int_{-\infty}^t \mathcal{N}(x; 0، 1)\، \mathrm{d}x$ و $\mathcal{N}$ نشان دهنده توزیع نرمال است. $y$ مشاهده است و مقدار آن +1 یا -1 است. یک اشاره ای که آنها می دهند $\int_{-\infty}^{\infty} \delta(y - sign(t)) \mathcal{N}(t; \mu, \sigma^2) \,\mathrm{ d}t = \Phi(\frac{y\mu}{\sigma}) $ $ \Phi(y(w_1 - w_2)) = \int_{-\infty}^{\infty} \delta(y-sign(t)) \mathcal{N}(t؛ w_1 - w_2,, 1) \, \mathrm{d}t$. $\delta$ تابع دلتای دیراک است که به عنوان نشانگر در مورد متغیرهای پیوسته استفاده می شود. با این حال، من گیر کردم و نمی دانم چگونه این را ثابت کنم. لطفا کمکم کنید تا ثابت کنم؟ متشکرم. نام P/S: لینک اسلاید http://mlg.eng.cam.ac.uk/teaching/4f13/1213/lect0607.pdf است و این دوره قبلاً تمام شده است.
عادی کردن ثابت خلفی
32210
فرض کنید من سعی می کنم $E(y | x_1، x_2،...)$ را تخمین بزنم. مجموعه داده دارای دو زیرمجموعه است، مثلاً URBAN و RURAL. آمار توصیفی دو زیرمجموعه بسیار متفاوت است، همانطور که ضرایب حاصل از رگرسیون به طور جداگانه اجرا می شوند. به عنوان مثال، من می توانم ببینم که $E(y|x_1)$، $E(y|x_2)$ و غیره همه برای URBAN مثبت و همه منفی برای روستایی هستند. در این مورد، آیا اجرای یک رگرسیون تلفیقی با فعل و انفعالات وارد شده هنوز موجه است؟ یا فرض می کنیم که دو نمونه واقعاً از دو جمعیت متفاوت هستند و بنابراین مدل ها باید جداگانه تخمین زده شوند؟ آیا راهی برای آزمایش (تکرارگرا یا بیزی) وجود دارد که این دو نمونه از یک جامعه اصلی آمده باشند؟
نمونه های استخری که خیلی متفاوت به نظر می رسند؟
65297
من تعجب می کنم که چگونه می توانم آزمایش کنم که آیا یک دنباله داده واقعا تصادفی است؟ البته می توانم به طور تصادفی آن را به قطعات مساوی برش دهم و بررسی کنم که آیا ضریب همبستگی بین قطعات مختلف به طور متوسط ​​صفر است یا خیر. اما آیا این کافی است؟ یا اگر این بهترین راه برای انجام آن است؟ متشکرم
چگونه بررسی کنیم که یک توالی داده واقعا تصادفی است؟
61086
من تجزیه و تحلیل خوشه‌ای را اجرا می‌کنم (با استفاده از «mclust» در «R») و سپس به دنبال این هستم که ببینم آیا گروه‌بندی‌های مختلف داده‌های شناخته شده (بر اساس فراداده) ارتباط بین خوشه‌ها و گروه‌های فراداده را نشان می‌دهند. برای هر جدول خوشه/گروه، از آزمون مجذور کای استفاده می‌کنم، و از آنجایی که روش‌های متعددی برای گروه‌بندی داده‌ها وجود دارد، من به سادگی از یک تصحیح بونفرونی روی مقادیر p به دست آمده استفاده می‌کنم. من در پیدا کردن منابع خوب برای نحوه تفسیر تداعی‌های فردی مشکل داشتم، اما درک من در حال حاضر این است که می‌توانم اهمیت یک ارتباط معین را با تبدیل باقیمانده استاندارد شده هر سلول به یک مقدار p با استفاده از توزیع نرمال تعیین کنم. (`p = 2*pnorm(-abs(stdres))`). آیا این درست است، و علاوه بر این، آیا درست است که این مقادیر را بر اساس اندازه جدول داده شده _not_ تنظیم کنیم؟ من چیزی ندیدم که پیشنهاد دهد باید چنین اصلاحی را انجام دهم، بنابراین فرض می‌کنم غیرضروری است. اگر چنین است، پس با توجه به این واقعیت که من چندین جدول را آزمایش می‌کنم، آیا باید به سادگی مقدار p هر سلول را در تعداد جداول ضرب کنم تا به تصحیح آزمایش چندگانه درست برسم؟
تصحیح تست چندگانه برای باقیمانده مجذور کای
51391
من باید از افزایش داده ها استفاده کنم و بر اساس دانستن $x_1،...x_m$، احتمال آن را بنویسم. قبلی در $θ \sim \text{Gamma}(1,1)$ $i=1,\dots,m$ $j=1,\dots,n$$Y_{ij} \sim \text{Po} (X_i)$ $X_i \sim \text{Exp}(\theta)$
نحوه یافتن توزیع پسین $\theta$ با توجه به $Y_{ij}$ که در آن $Y_{ij} \sim \text{Po}(X_i)$
23887
من مدل خطی زیر را دارم: ![Linear model residuals](http://i.stack.imgur.com/qy6Li.jpg) ![Observations توزیع](http://i.stack.imgur.com/XgZ5H. jpg) برای پرداختن به ناهمگنی باقیمانده، سعی کردم یک تبدیل log را روی متغیر وابسته به عنوان $\log(Y + 1)$ اعمال کنم، اما من همچنان همان را می بینم. از بین بردن اثر بر روی باقیمانده ها. مقادیر DV نسبتاً کوچک هستند، بنابراین اضافه کردن ثابت +1 قبل از گرفتن گزارش احتمالاً در این مورد مناسب نیست. > خلاصه (Y) حداقل :-0.0005647 اول اول: 0.0001066 میانه: 0.0003060 میانگین: 0.0004617 سومین چهارم: 0.0006333 حداکثر. : 0.0105730 NA's :30.0000000 چگونه می توانم متغیرها را برای بهبود خطای پیش بینی و واریانس، به ویژه برای مقادیر برازش منتهی به سمت راست، تبدیل کنم؟
ناهمگونی مدل خطی
56547
اگر من یک مدل رگرسیون لجستیک با 3 پیش‌بینی‌کننده داشته باشم، $x_1$، $x_2$، $x_3$، و سپس $x_3$ را از مدل خود حذف کنم (در سمت چپ فقط $x_1$ و $x_2$)، آیا آن مدل‌ها تودرتو هستند. ? و بنابراین می توانم از آزمون نسبت درستنمایی ($\chi^2$ با 1 df در این مورد) برای آزمایش اینکه آیا x_3$ برای نگه داشتن در مدل ضروری است استفاده کنم. یا این مدل ها به دلیل اینکه دقیقاً متغیرهای مشابهی را در بر نمی گیرند، تو در تو نیستند؟
مدل های تودرتو برای تست احتمال
101084
اجازه دهید $X_1، \cdots، X_n$ متغیرهای تصادفی عادی $iid$ با میانگین ناشناخته $\mu$ و واریانس شناخته شده $\sigma^2$ باشند. چگونه $E[\Phi(\bar X)]$ را پیدا کنیم، لطفاً $\bar X:=\frac{\sum_{i=1}^nX_i}{n}$؟ حدس می‌زنم پاسخ باید $\Phi(\mu)$ باشد. در اینجا نحوه شروع من است. توجه داشته باشید که $Y:= \bar X$ با میانگین $\mu$ و واریانس $\frac{\sigma^2}{n}$ نیز عادی است. $$E[\Phi(\bar X)] = \int_{-\infty}^\infty \Phi(y) f_Y(y)dy،$$ که $\Phi(\cdot)$ cdf استاندارد است متغیر تصادفی عادی من نمی توانستم بیشتر از این از اینجا ادامه دهم. کسی میدونه چیکار کنم لطفا؟ متشکرم
چگونه این انتگرال را پیدا کنیم
22685
کدام توزیع با داده های زیر مطابقت دارد؟ داده‌ها توسط این فرآیند تولید می‌شوند: $X_t، \, t=\\{1,2,3,\ldots,n\\}$ برابر است با 1 با احتمال $p$ و 0 با احتمال $(1-p) $ برای هر $t$. توزیع شکاف ها بین هر وقوع 1 چگونه است؟ سری مثال: $0,0,1,0,0,1,1,0,1,0,1,0,1,0,0,0,1$ شکافهای $2,0,1,1,1,3 می دهد $. اگر من $p$ را نمی دانم چگونه آن توزیع را متناسب کنم؟ $p$ تنها پارامتر آزاد آن توزیع خواهد بود، همچنین $\hat p = \frac{n_1}{n}$، که در آن $n_1$ تعداد یک‌های موجود در سری است که یک تخمین‌گر بی‌طرفانه رایگان است. پارامتر در آن توزیع
توزیع طول شکاف ها بین وقوع یک ها در فرآیند برنولی چگونه است؟
52842
ابتدا از کسانی که در تاپیک قبلی در این سایت اطلاعات مفیدی در مورد این پروژه به من دادند تشکر می کنم. من در این مرحله یک سوال جدید در مورد مکانیک MI (استفاده از MI از طریق معادلات زنجیره ای) دارم: سه مجموعه از متغیرها که من می توانم به طور منطقی فرض کنم که به هم مرتبط نیستند. بیایید مجموعه 1 را شرایط، 2 اضافه و 3 را مدیریت فراخوانی کنیم. من هم نتیجه گرفتم مجموعه داده من همه کارآزمایی‌های تصادفی‌سازی و کنترل‌شده است، و منطقی است که فرض کنیم شرایط، اضافات و مدیریت همگی متعامد با یکدیگر هستند - اگر بین این سه همبستگی وجود داشته باشد، از این نظر که نمی‌تواند پیش‌بینی کند، جعلی است. داده های جدید، و اساسا یک تصادف است. (این با داده های رصدی صادق نیست). هر یک از این مجموعه متغیرها دارای داده های گمشده هستند (به جز نتیجه). از آنجایی که مجموعه متغیرها متعامد با یکدیگر هستند، من سه مدل مجزا برای سه مجموعه تنظیم کردم. از این گذشته، چگونه داده های مربوط به مدیریت می توانند شرایط را پیش بینی کنند؟ هر گونه اطلاعات اضافی در اینجا جعلی است. اما سپس چند مقاله خواندم که می‌گفتند باید نتیجه را در مدل انتساب قرار دهم. با فکر کردن به آن، می بینم که چرا منطقی است. اما اکنون یک مشکل دارم: «مدیریت» نتیجه را پیش‌بینی می‌کند، و نتیجه می‌تواند «شرایط» را پیش‌بینی کند. فرض متعامد من سطل زباله است، اینطور نیست؟ دلیل اینکه من سه مدل جداگانه را مشخص کردم این است که مشاهدات بر اساس شرایط و اضافه ها خوشه بندی می شوند و این دو سطح با هم همپوشانی دارند. مدل‌سازی جداگانه آنها بسیار راحت‌تر از ساختن برخی از مدل‌های انتساب چند سطحی پیچیده بود. بنابراین، فراتر از درخواست‌ها برای توصیه‌های کلی در مورد چگونگی فکر کردن در مورد این نوع مشکل، سؤال خاص من این است: اگر تنها راهی که سه مجموعه از متغیرها با هم مرتبط هستند، از طریق نتیجه است، و من برای نتیجه در انتساب کنترل می‌کنم. مدل‌ها، آیا می‌توانم همان‌طور که قبلاً انجام می‌دادم بدون سوگیری برانگیختگی‌هایم از ارزش‌های واقعی (یا به نوعی بهینه) آنها ادامه دهم؟ اگر نه، آیا بسته‌های نرم‌افزاری موجود، MI را با این نوع داده‌های چندسطحی مدیریت می‌کنند؟ من در حال نوشتن کد خودم بوده‌ام (معمولاً تا زمانی که خودم چیزی را پیاده‌سازی نکرده‌ام از استفاده از نرم‌افزارهای کنسرو شده امتناع می‌کنم)، اما احساس می‌کنم مکانیزم آنقدر به دست می‌آید که در صورت لزوم می‌توانم به سراغ چیزهای آماده بپرم. پیشاپیش ممنون
مجموعه متعامد متغیرها در انتساب چندگانه --> مدلهای انتساب جداگانه؟
60975
من در حال تجزیه و تحلیل داده های به دست آمده از مشاهده حدود یک میلیون نفر در طی 24 ماه هستم. برای هر فرد، هر ماه به عنوان موفقیت یا شکست طبقه بندی می شود. من به طور خاص به توزیع زمان‌های انتظار (= طول دوره‌های شکست) بین موفقیت‌ها و مقایسه این توزیع با توزیعی که اگر موفقیت یک فرآیند برنولی بود - توزیع هندسی - به وجود می‌آمد علاقه‌مندم. رویکرد من ابتدا شناسایی سه زیرمجموعه از افراد در گروه اصلی من بوده است - آنهایی که در 24 ماه 3 موفقیت در مجموع داشتند، آنهایی که 8 موفقیت داشتند و آنهایی که 12 داشتند. به یک توزیع هندسی، که خود با یک احتمال موفقیت منفرد پارامتر می شود. سه مقدار خاص 3، 8 و 12 موفقیت در مجموع از 24 مورد را که من به طور کاملاً خودسرانه انتخاب کردم تا محدوده مورد علاقه را منعکس کنم. اجازه دهید از گروه افرادی که 3 موفقیت از 24 موفقیت را دارند به عنوان مثال استفاده کنم. فقط با استفاده از تعداد کل، می‌توانیم احتمال موفقیت این گروه را به صورت $$ \hat{p} = \frac{3}{24} = 0.125 $$ تخمین بزنیم، سپس نمودار هیستوگرام زمان انتظار واقعی را برای 3 مورد از 24 در مقابل توزیع هندسی با پارامتر $p=0.125$ گروه بندی کنید و پیدا کنید که به عنوان مثال. فراوانی مشاهده شده زمان انتظار = 0 ماه به طور قابل ملاحظه ای بیشتر از فراوانی 0 ماه است که توسط توزیع هندسی ارائه شده است و من این را به این معنا تفسیر می کنم که برای 3 گروه از 24 گروه، دو موفقیت پشت سر هم بیشتر از مواردی است که اتفاق می افتد. موفقیت یک فرآیند برنولی بود. با این حال، من همچنین می‌توانم با توزیع هندسی متفاوتی مقایسه کنم که پارامتر آن $p$ را با استفاده از روش لحظه‌ها تخمین می‌زنم، یا با معادل‌سازی میانگین زمان انتظار مشاهده‌شده در نمونه 3 از 24، $\mu$، با مقدار مورد انتظار. زمان انتظار برای توزیع هندسی به شرح زیر 0.169$ که با $\hat{p}=0.125$ بسیار متفاوت است. از نظر بصری، این توزیع با 3 داده از 24 داده زمان انتظار بسیار بهتر مطابقت دارد، اما داده های مشاهده شده هنوز به دلیل توزیع هندسی به وضوح منحرف می شوند، انحرافات فقط در مکان های مختلف نشان داده می شوند. من می‌توانم یک آزمایش آماری از تناسب انجام دهم، اما به دلیل حجم نمونه بسیار بزرگم، شک ندارم که به من می‌گوید که داده‌ها با توزیع هندسی در هر سطح معنی‌داری که دوست دارم متفاوت است. من روش اول را برای یافتن $\hat{p}$ ترجیح داده‌ام زیرا 1. نمی‌خواهم یک توزیع هندسی را به داده‌های خود منطبق کنم. من می دانم که داده ها کاملاً هندسی توزیع نشده اند و من به طور خاص به تفاوت های سیستماتیک (برخلاف خطای اندازه گیری) بین آن و توزیع هندسی مناسب علاقه مند هستم. 2. از آنجایی که داده ها به صورت هندسی توزیع نشده اند، این باعث می شود فکر کنم که روش گشتاورها حذف می شود و پارامتری از توزیع هندسی را که باید به عنوان خط پایه برای مقایسه استفاده کنم، به من نمی دهد، بلکه توزیع هندسی دیگری که اتفاقاً بهتر با داده ها تناسب دارد. آیا کاری که من انجام می دهم مشروع است و چگونه باید $\hat{p}$ را تعیین کنم؟ (اگر در بیان مسئله به عنوان یک مسئله تئوری به اندازه کافی دقیق نبوده باشم، می توانم یک مثال R ارائه کنم.)
مقایسه زمان انتظار با توزیع هندسی
52843
من یک دندروگرام صفت عملکردی را با استفاده از گونه x ویژگی ایجاد کرده‌ام و ماتریس‌های x گونه را از طریق «dbFD» در بسته FD ترسیم کرده‌ام. من می‌خواهم راهنمایی‌های دندروگرام صفت را تصادفی کنم تا بررسی کنم که آیا تجمع درختان در منطقه مورد مطالعه من تصادفی است یا اینکه تفاوت‌های عملکردی آنها بین کرت‌ها وجود دارد. من بردارهای غنای عملکردی، یکنواختی و پراکندگی را از خروجی «dbFD» دارم. لطفاً کسی می تواند به من در گام بعدی نحوه استنباط مکانیسم های مونتاژ جامعه به من کمک کند؟ آیا می توانم ترکیب گونه ها را به صورت تصادفی در پلات ها قرار دهم و تجزیه و تحلیل ها را دوباره اجرا کنم. این بدان معناست که من مجموعه داده اصلی خود را به هم می‌ریزم، هر بار یک ماتریس جامعه جدید ایجاد می‌کنم و آن را در «dbFD» اجرا می‌کنم تا شاخص‌هایی را برای تنوع عملکردی بدست بیاورم؟
چگونه می توان نکات یک دندروگرام ویژگی عملکردی را تصادفی کرد؟
51399
ما یک طرح ترکیبی ANOVA اندازه‌گیری‌های مکرر را برای RCT انجام دادیم که کاربرد یک درمان خاص در دامنه حرکتی زانو (فلکشن) را بررسی می‌کرد. فاکتور بین آزمودنی ها وضعیت مطالعه (درمان در مقابل کنترل) و اندازه گیری مکرر ما خم شدن اولیه در مقابل فلکشن تخلیه بود. ما تأثیر قابل توجهی برای TIME نشان دادیم، اما نه TIME*Condition. اما آزمون بین آزمودنی ها تفاوت معنی داری را برای وضعیت نشان داد. چگونه می توانم این را تفسیر کنم؟
چگونه نتیجه بین موضوع را در ANOVA مختلط تفسیر کنم؟
111515
فرض کنید می خواهیم تابعی را یاد بگیریم: $f(\mathbf{x} \in \mathbf{R}^p) \rightarrow \mathbf{y} \in \mathbf{R}^q$ که در آن $\mathbf{x} $ و $\mathbf{y}$ بردارهایی هستند که سری های زمانی را نشان می دهند. ما چندین نمونه از این نگاشت داریم، به عنوان مثال: $$\begin{pmatrix}\mathbf{x_0}\\\\...\\\\\mathbf{x_N}\end{pmatrix}\rightarrow \begin{pmatrix} \mathbf{y_0}\\\\...\\\\\mathbf{y_N} \end{pmatrix} $$ چه نوع مشکل این است؟ آیا مشکل رگرسیون است؟ اگر چنین است، چه معیارهایی (توابع ضرر) و روش‌هایی برای این مشکل مناسب هستند؟ چیزی به طور خاص در پایتون موجود است؟
آموزش نگاشت بردارها به بردارها
51394
من سعی می کنم پاسخ های مکرر را از یک آزمایش انتخاب گسسته تحلیل کنم. DCE دارای یک پارامتر پیوسته و پنج پارامتر دسته بندی 3 سطحی بود. من با یک logit چند جمله ای شروع کردم و مدل پس از 4 تکرار همگرا شد. ضرایب رمزگذاری شده تخمینی به صورت زیر است که نسبت به سطح میانی محاسبه شده است: برآورد Pr(>|t|) LYg 0.0938639 < 2.2e-16 *** Age.f1 0.2453775 1.521e-10 *** Age.f3 - 0.7102606 < 2.2e-16 *** U0.f1 0.1518566 0.0002932 *** U0.f3 -0.3249684 6.950e-12 *** LE0.f1 0.0603195 0.1727848 LE0.f3 0.034443195 0.03443195 -0.4850307 4.730e-14 *** U1.f3 0.3263514 1.083e-12 *** Pats.f1 -0.1336018 0.0011723 ** Pats.f3 0.0131520 0.0131520 0.7579 از همان Bayarch. ناهمگونی فردی را در بر می گیرد، اما تخمین های ضریب، که در زیر نشان داده شده است، به نظر نمی رسد که حتی پس از 500 هزار تکرار همگرا باشند. از آنجایی که من در تحلیل بیزی جدید هستم، امیدوارم کسی بتواند توضیح دهد که آیا این بدان معناست که مدل HB به سادگی قرار نیست همگرا شود یا اینکه من نیاز به اجرای تکرارهای بیشتری دارم. در چه مرحله ای باید نتیجه بگیرم که مدل HB بیهوده است؟ من همچنین در مورد اندازه ضرایب تخمینی گیج شده ام - همانطور که در شکل می بینید، برخی از ضرایب غیرقابل نمایش به 30 نزدیک می شوند! آیا این صرفاً مصنوع یک مدل غیر همگرا است یا چیز دیگری در جریان است؟ ![ضرایب HB بعد از 500 هزار تکرار](http://i.stack.imgur.com/kMGX3.png) FYI، من از پکیج ChoiceModelR در R استفاده می کنم، اما فکر نمی کنم این یک سوال برنامه نویسی باشد. با تشکر از کمک شما.
ضرایب غیر همگرا در تحلیل سلسله مراتبی بیز انتخاب گسسته
26590
من در حال انجام یک ارزیابی برای یک مداخله با استفاده از داده های ثانویه هستم. متأسفانه طراحی مطالعه ضعیف است زیرا نمی توان شرکت کنندگان را تصادفی کرد. من به دنبال این هستم که ببینم آیا این مداخله تاثیری بر کیفیت زندگی بیماران داشته است؟ اندازه گیری کیفیت زندگی قبل و بعد از مداخله انجام شده است، من همچنین به تعدادی از متغیرها و تأثیر بالقوه آنها بر کیفیت زندگی گزارش شده علاقه مند هستم، از جمله: سن، جنسیت، درمان دارویی، مدت بیماری، وضعیت تاهل و وضعیت اشتغال ). این IV ها هم پیوسته و هم مقوله ای هستند، اما در صورت نیاز می توان همه آنها را به طبقه بندی تبدیل کرد (نمرات QoL پیوسته باقی خواهند ماند). از راهنمایی شما در مورد اینکه کدام طراحی برای این تحقیق مناسب تر است، سپاسگزارم. من در حال بررسی استفاده از ANCOVA هستم، اما تجربه من در مورد نقض مفروضات ممکن است شایستگی طرحی که قبلاً به خطر افتاده است را تضعیف کند.
چگونه می توان تأثیر مداخله را بر کیفیت زندگی بیماران آزمایش کرد؟
32216
بیایید فرض کنیم که یک جنگل داریم. و یک نژاد خرگوش وجود دارد که همیشه از آن جنگل بازدید می کند. می توان هر خرگوش را تشخیص داد. دستگاه‌هایی در آن جنگل وجود دارد که بازدید روزانه هر خرگوش را محاسبه می‌کند. بنابراین دو یا چند بازدید برای یک خرگوش خاص در یک روز وجود ندارد. یک خرگوش تمام روز را می گویند. اطلاعاتی که من دارم به عنوان مثال: * خرگوش شماره 343 در تاریخ 5 می 2012 برای دوازدهمین بار از جنگل بازدید کرد. * خرگوش شماره 793 در 2 ژوئن 2012 برای اولین بار از جنگل بازدید کرد. حالا مدیر عامل جنگل می خواهد **بسنجید که آیا تمایلی به عدم بازگشت خرگوش وجود دارد**. و من مرد داده های مدیر عامل هستم و باید آن را بفهمم. سوال من این است که آیا این نوع مشکل تحت یک برچسب خاص شناخته می شود - حدس می زنم که باشد - و آیا چیزی شبیه یک فرمول ثابت برای نشان دادن نرخ برگشت یا نرخ وفاداری / احتمال بازدید دیگر وجود دارد. برای همه خرگوش ها تعمیم یافته است». کاری که من انجام خواهم داد این است که برای دوره‌های زمانی چند روزه (مثلاً یک هفته) * تعداد خرگوش‌هایی که برای اولین بار بازدید کرده‌اند * و تعداد خرگوش‌هایی که برای آخرین بار بازدید کرده‌اند (مثلاً دانش پیش‌بینی برای شش ماه) نمودار کنم. ) اما من شک دارم که کارآمدترین راه برای حل این سوال باشد.
احتمال اینکه یک خرگوش به یک جنگل (معین) بازگردد چقدر است؟
52844
من باید یک بار سری را از هم متمایز کنم تا یک سری ثابت داشته باشم اما نمی توانم تابع tbats را اجرا کنم زیرا سری های متفاوت من مقادیر منفی دارد. آیا کسی راهی برای مقابله با این موضوع می شناسد؟ من به اضافه کردن یک ثابت فکر می کنم اما نمی دانم که آیا دارم تقلب می کنم یا نه.
TBATS به داده های مثبت پس از تفاوت نیاز دارد - بسته پیش بینی R
8572
من مقدار زیادی در مورد برازش پارامترهای پیوسته به ویژه روش های مبتنی بر گرادیان می دانم، اما در مورد برازش پارامترهای گسسته اطلاعات زیادی ندارم. الگوریتم ها/تکنیک های متداول MCMC برای برازش پارامترهای گسسته کدامند؟ آیا الگوریتم هایی وجود دارند که هم نسبتاً کلی و هم نسبتاً قدرتمند باشند؟ آیا الگوریتم هایی وجود دارند که به خوبی با نفرین ابعادی برخورد کنند؟ به عنوان مثال، من می‌توانم بگویم Hamiltonian MCMC عمومی، قدرتمند است و به خوبی مقیاس‌پذیر است. نمونه برداری از یک توزیع گسسته دلخواه دشوارتر از نمونه برداری از یک توزیع پیوسته به نظر می رسد، اما من کنجکاو هستم که وضعیت هنر چگونه است. **ویرایش**: JMS از من خواست تا توضیح بیشتری بدهم. من برنامه‌های خاصی را در ذهن ندارم، اما در اینجا انواع مدل‌هایی وجود دارد که در نظر دارم: * انتخاب مدل بین چندین نوع مدل رگرسیون پیوسته. شما یک پارامتر مدل منفرد مجزا دارید * یک مدل پیوسته که در آن هر مشاهده ممکن است یک پرت باشد و از توزیع بسیار پراکنده تری گرفته شود. من فکر می کنم این یک مدل مخلوط است. من انتظار دارم بسیاری از مدل ها شامل پارامترهای پیوسته و گسسته باشند.
چه الگوریتم ها/تکنیک های MCMC برای پارامترهای گسسته استفاده می شود؟
35745
فرض کنید من یک آزمایش دارم که در آن 50 توپ را از یک کیسه 1000 تایی بدون تعویض می کشم. کیسه حاوی 50 توپ سفید است - بقیه سیاه هستند. محاسبه احتمال تجمعی برای رسم حداقل x توپ های سفید بی اهمیت است. حالا دوباره آزمایش را تکرار می کنم و از یک کیسه 1000 تای جدید 50 توپ دیگر می کشم (باز هم 50 توپ سفید، 950 سیاه). من به احتمال ترسیم حداقل 2 برابر توپ در هر دوی این آزمایش ها علاقه مند هستم. من فکر می‌کردم که باید تقریباً معادل یک آزمایش ادغام‌شده، کشیدن 100 توپ از 2000 توپ باشد (اصولاً 2 کیسه را با هم ترکیب می‌کند)، اما به نظر می‌رسد در برخی شبیه‌سازی‌هایی که اجرا کردم، اینطور نیست. این یک سوال بسیار ساده به نظر می رسد، اما من هیچ بحث مرتبطی را آنلاین ندیده ام.
احتمال مشترک دو مجموعه آزمایشی فوق هندسی
22680
فرض کنید من یک رگرسیون خطی با دو متغیر عددی توضیحی دارم: A و B. سناریوهای زیر را در نظر بگیرید: 1. A و B هر دو ناچیز هستند. 2. A معنی دار است، B ناچیز است. یا برعکس 3. A و B هر دو مهم هستند حال، سوال من: **در کدام سناریوها ممکن است** (یا باید در اینجا بین از لحاظ نظری ممکن و احتمالا تفاوت قائل شویم؟) **این تعامل عبارت A * B قابل توجه است؟**
آیا جمله تعامل دو ضریب ناچیز می تواند معنی دار باشد؟
65251
من می خواهم رگرسیون زیر را اجرا کنم: 2 DV که 1 از آن به شکل اصلی است و یکی (به دلیل غیر عادی بودن) به یک تبدیل مربع تبدیل شده است. آیا هنوز هم می توانم این رگرسیون را اجرا کنم یا باید DV دیگر را با همان فرمت تبدیل کنم (تبدیل مربع) پیشاپیش با تشکر فراوان! با احترام، کلارا
در یک تحلیل رگرسیون چندگانه (2 DV و 5IV) - آیا می توانم آنالیز را تنها با یک DV تبدیل شده و بقیه به شکل اصلی خود اجرا کنم؟
65258
Challenger-Disaster را در نظر بگیرید: دما <- c(66,67,68,70,72,75,76,79,53,58,70,75,67,67,69,70,73,76,78,81 ,57,63,70) شکست <- ضریب(c(0,0,0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0,0,1,1,1) ) shuttle <- data.frame(Temp, Fail) colnames(shuttle) <- c(Temp، Fail) اکنون می توانم مدل لجستیکی را بسازم که شکست مهر و موم های O-ring را توسط دما: مناسب <- glm(Fail~Temp,data=shuttle, family=binomial); fit خروجی R به این شکل است: فراخوانی: glm(فرمول = Ausfall ~ Temp، خانواده = دو جمله ای، داده = شاتل) ضرایب: (Intercept) Temp 15.0429 -0.2322 Degrees of Freedom: 22 Total (i.e. Null); 21 انحراف تهی باقیمانده: 28.27 انحراف باقیمانده: 20.32 AIC: 24.32 ### سوالات * **به طور کلی، چگونه احتمالات را برای داده های خاص در رگرسیون های لجستیک با استفاده از R پیش بینی می کنید؟** * **یا به طور خاص، چه دستوری وجود دارد. اگر دما در 37 درجه باشد؟** احتمال شکست را محاسبه کنید (که در آن بود شب قبل از فاجعه چلنجر). فکر کردم چیزی شبیه به این باشد: predict(fit, Temp=37) اما 0.9984243 به من نمی دهد (که خودم با آن محاسبه کردم: exp(15.0429 + (37*(-0.2322))) / 1+ exp(15.0429 + (37*(-0.2322))) روش «پیش‌بینی» ماتریسی از اعداد را برمی‌گرداند برای من معنی ندارد
چگونه احتمالات داده های خاص را در رگرسیون های لجستیک با استفاده از R پیش بینی می کنید؟
22684
این سوال از سوال قبلی من پیروی می کند. من اکنون داده های خود را ارائه می دهم تا به شما کمک کنم :) همانطور که قبلاً گفته شد، من N=42 از یک آزمایش کنترل شده دارم. افراد برای ارزیابی خلق و خوی خود پرسشنامه ای تهیه کردند و سپس یک بازی ویدیویی انجام دادند. آنها از این بازی امتیاز گرفتند. با توجه به نمره پرسشنامه، آنها ممکن است به ترتیب با رنگ های قرمز، خاکستری و سبز به عنوان منفی، خنثی یا مثبت در نظر گرفته شوند. نمودار زیر نمودار داده های دست نخورده است. ![Game Score & Mood](http://i.stack.imgur.com/rWeSj.png) من می خواهم چند آزمایش فرضیه بر روی میانگین امتیاز انجام دهم، مانند میانگین (افراد مثبت) > متوسط ​​(افراد خنثی). همانطور که از سوال قبل متوجه شدم، اگر داده ها تقریبا نرمال باشد، می توانم از آزمون T استفاده کنم. چون هیستوگرام حقایق جالبی را نشان نمی دهد، میانگین امتیاز را بوت استرپ کردم. آنچه در ادامه می آید نتایج بوت استرپ است![Bootstrap for the mean](http://i.stack.imgur.com/tV4Qe.png) فراخوانی: boot(data = Tol$Tol.Score, statistic = mean.fun, R = 1500، sim = معمولی) Statistics Bootstrap: original bias std. خطای t1* 2817.702 4.079778 91.06932 چقدر برای انجام تست ها با استفاده از آزمون T ایمن هستم؟ آیا به جای آن از تست جایگشت استفاده کنم؟ افکار دیگر؟ سوال اضافی: یک موضوع وجود دارد که من آن را پرت می دانم. او نمره <5\ را به دست آورد. با آن چه کنم؟ از آنچه یاد گرفتم، هرگز چیزهای پرت را حذف نخواهم کرد. اما، از آنجایی که N 42 است، به ویژه بر میانگین کلاس خود تأثیر می گذارد (یعنی خنثی) باز هم از کمک شما متشکرم. زمینه: آزمایشی که بخشی از پایان نامه کارشناسی ارشد من و شاید یک مقاله علمی خواهد بود. به روز رسانی: خطوط رنگی نقطه چین میانگین نمرات سه گروه است
تست T در مقابل تست جایگشت بر روی داده های عادی (نه مطمئنا).
82055
ممکن است این فقط یک سوال زبان انگلیسی باشد (در این صورت لطفا آن را جابجا کنید) اما اگر منطق آماری یا ریاضی برای پاسخ وجود داشته باشد می پرسم. من مطمئن هستم که عبارت باید خی دو باشد نه خی دو. بالاخره **χ2** است. اگر مربع (جعبه) داشته باشیم و طول ضلع آن χ باشد، اگرچه مساحت آن χ2 باشد، شاید بتوان آن را مربع χ نامید. آیا من فقط به سوال خودم پاسخ دادم؟ متاسفم بر اساس این پست وبلاگ، chi-squared صحیح تر است، اما chi-square محبوب تر است.
چرا اصطلاح «کی دو» قابل قبول است؟
61858
من یک سری بایت دارم. فرضیه صفر من این است که هر بایت به طور مستقل از یک توزیع یکنواخت ترسیم می شود. ابزار آماری صحیح برای آزمون چنین فرضیه ای چیست؟ اولین فکر من تست کای دو پیرسون بود. با این حال... ظاهراً این تنها زمانی به طور قابل اعتماد کار می کند که فرکانس های مورد انتظار بسیار بزرگ باشند. (بسته به اینکه از چه کسی بخواهید، حداقل فرکانس مورد انتظار ده یا بیشتر است.) با توجه به اینکه هر بایت دارای 256 مقدار ممکن است، شما به مقدار زیادی بایت نیاز دارید! ویکی‌پدیا چیزی در مورد آزمایش دقیق فیشر به جای آن می‌گوید... اما فقط نحوه انجام این کار را برای یک جدول $2\times2$ توضیح می‌دهد. من واقعا نمی دانم چگونه آن را در اینجا اعمال کنم. آیا تست کای دو ایده خوبی است؟ آیا ابزارهایی وجود دارند که با داده های کمتر کار کنند؟ چه روش های دیگری را می توانم امتحان کنم؟ من علاقه کمتری به تشخیص تصادفی کامل دارم، و بیشتر علاقه مند به کشف چیزهایی هستم که آشکارا و آشکارا _نه_ تصادفی هستند. توجه: من به دنبال الگوریتمی هستم که یک ماشین بتواند انجام دهد. پاسخ هایی مانند یک نمودار و کره چشم بکشید به من کمک نمی کند. به هر حال انسان ها در دیدن الگوهای غیر تصادفی بسیار خوب هستند. مشکل من این است که به ماشینی یاد بدهم که این کار را به صورت خودکار انجام دهد.
ابزار صحیح برای تست یکنواختی چیست؟
65253
من در حال اجرای تجزیه و تحلیل داده ها برای یک بازار آنلاین هستم. من می‌خواهم تأثیر زمان آنلاین بودن یک کالای فاسد شدنی (مثلاً بلیت کنسرت) را در مقابل احتمال فروش تعیین کنم. من طرحی ساخته ام که نشان می دهد زمان آنلاین یک عامل مهم است: اقلام آنلاین برای 2 روز در مقایسه با 3 ساعت آنلاین، 1.5 برابر احتمال فروش دارند. از چه طریقی می توانم این را از نظر آماری ثابت کنم؟ من به مدل های پروبیت نگاه کرده ام. آیا این راه درستی است؟
تعیین تأثیر متغیر پیوسته بر نتیجه باینری
26591
آیا کسی می داند که آیا مجموعه داده های باینری وجود دارد که بتوانم آزادانه دانلود کنم؟ در صورت امکان، مجموعه داده ها را در قالب متنی و الهام گرفته از برخی پدیده های واقعی ترجیح می دهم. پیشاپیش ممنونم
مجموعه داده باینری در دسترس عمومی
25488
من دانشجوی دکترا هستم و در حال انجام بررسی ادبیات فیزیوتراپی اسکلتی عضلانی هستم و در تلاش برای دریافت راهنمایی در مورد این موضوع هستم زیرا اکثر محققین سلامت متاآنالیز اثرات / اثربخشی مداخله و نه همبستگی را انجام می دهند. من به دنبال پیش بینی کننده های حضور و رعایت توصیه های درمانی در فیزیوتراپی اسکلتی عضلانی هستم. *متغیر وابسته** پایبندی به 4 جنبه عملیاتی می شود - حضور، پایبندی به کلینیک، تبعیت از ورزش در منزل و تبعیت طولانی مدت. *متغیرهای **مستقل** از متغیرهای اسمی مانند جنسیت، ترتیبی مانند وضعیت اقتصادی اجتماعی و همچنین اندازه گیری نسبت فاصله متغیر است. با نگاهی به ادبیات و بحث با چند نفر، احساس می‌کنم که همبستگی «r» اندازه اثری است که باید استفاده کنیم، و برای داده‌های اسمی یا ترتیبی، می‌توانیم از جداول احتمالی 2×2 استفاده کنیم، t یا مربع chi را محاسبه کنیم و سپس آن را به r تبدیل کنید. سپس یک تبدیل 'r' به 'z' اعمال می کنیم تا نتایج را ترکیب کنیم و سپس آن را برای تفسیر مجدد به 'r' تبدیل می کنیم. **آیا این رویکرد درستی است؟ چه عوامل دیگری را باید در نظر گرفت؟** موضوع دیگر این است که من چندین بیماری مختلف مانند گردن درد، کمردرد، آسیب مچ پا و غیره مصرف می کنم. **
چه زمانی از همبستگی به عنوان اندازه اثر هنگام انجام متاآنالیز با پیش بینی های متنوع استفاده کنیم؟
60972
شهود من این است که مقادیر برازش و مقادیر پیش بینی شده یک شی gbm باید یکسان باشند. اما در این مثال فقط با یک درخت، مقادیر متفاوت هستند: b <- c(0,0,.8,0,0) x <- mvrnorm(100,mu=rep(0,5),diag(5) ) colnames(x) <- paste0(x,1:5) y <- x %*% b + rnorm(10) out <- gbm.fit(y=y,x=x,shrinkage=.1, n.trees=1,distribution=gaussian,verbose=F) f <- out$fit p <- predict(out,n.trees= 1) f-p چرا آنها متفاوت هستند؟ اصلا مهمه؟
تفاوت بین مقادیر در ویژگی fit یک شی gbm و مقادیر محاسبه شده توسط gbm.predict چیست؟
25482
فرض کنید من یک مدل پیش‌بینی دارم که برای هر نمونه، یک احتمال برای هر کلاس تولید می‌کند. اکنون می‌دانم که اگر بخواهم از آن احتمالات برای طبقه‌بندی (دقت، فراخوان و غیره) استفاده کنم، راه‌های زیادی برای ارزیابی چنین مدلی وجود دارد. من همچنین تشخیص می‌دهم که منحنی ROC و ناحیه زیر آن می‌تواند برای تعیین میزان تمایز مدل بین کلاس‌ها استفاده شود. اینها چیزی نیست که من در موردش می پرسم. من علاقه مند به ارزیابی _کالیبراسیون_ مدل هستم. می دانم که قانون امتیاز دهی مانند امتیاز بریر می تواند برای این کار مفید باشد. این اشکالی ندارد، و من احتمالاً چیزی را در امتداد این خطوط قرار خواهم داد، اما مطمئن نیستم که چنین معیارهایی برای افراد عادی چقدر شهودی باشد. من به دنبال چیزی بصری تر هستم. من می‌خواهم شخصی که نتایج را تفسیر می‌کند، بتواند ببیند که آیا زمانی که مدل چیزی را پیش‌بینی می‌کند، 70٪ احتمال دارد اتفاق بیفتد یا نه، در 70٪ مواقع واقعاً اتفاق می‌افتد، و غیره. در ابتدا فکر کردم این همان چیزی است که من به دنبال آن هستم. با این حال، به نظر می رسد که واقعاً برای مقایسه دو توزیع _احتمال استفاده شده است. این به طور مستقیم چیزی نیست که من دارم. من برای چند نمونه، احتمال پیش‌بینی‌شده‌ام و سپس اینکه آیا واقعه واقعاً رخ داده است، دارم: شاخص P(Heads) نتیجه واقعی 1 .4 Heads 2.3 Tails 3.7 Heads 4.65 Tails ... .... .. پس آیا طرح Q-Q واقعاً همان چیزی است که من می خواهم یا به دنبال چیز دیگری هستم؟ اگر نمودار Q-Q همان چیزی است که باید استفاده کنم، روش صحیح برای تبدیل داده های من به توزیع های احتمال چیست؟ تصور می کنم بتوانم هر دو ستون را بر اساس احتمال پیش بینی شده مرتب کنم و سپس چند سطل ایجاد کنم. آیا این همان کاری است که من باید انجام دهم، یا در جایی به فکر فرو رفته ام؟ من با تکنیک های مختلف گسسته سازی آشنا هستم، اما آیا روش خاصی برای گسسته سازی در سطل ها وجود دارد که برای این نوع چیزها استاندارد باشد؟
تجسم کالیبراسیون احتمال پیش بینی شده یک مدل
25486
اولین سوال من در اینجا، امیدوارم که مرتبط با جامعه باشد. من در دوره CS هستم و در زمینه آمار کاملاً تازه کار هستم، بنابراین اگر جزئیات بیشتری لازم است به من اطلاع دهید و من پست را ویرایش خواهم کرد. من یک مشکل دارم که می‌خواهیم گروه‌های نمونه را با هم مقایسه کنیم و می‌خواستیم تابعی از آن ایجاد کنیم، بنابراین از ANOVA به ANCOVA منتقل شدیم. مشکل اکنون این است که جهان کامل نیست و ما توزیع طبیعی باقیمانده ها نداریم. این مجله چند رویکرد مختلف را برای ANCOVA پیشنهاد می کند. Kurskall Wallis به عنوان یک جایگزین غیر پارامتری ابتدا مورد توجه قرار گرفت و سپس از مجله Quade's ANCOVA ناپارامتریک و Puri و Sen's ANCOVA ناپارامتریک نیز مورد توجه قرار گرفت. «مشکل» این است که به نظر می‌رسد هر سه این داده‌ها در رتبه‌بندی قرار می‌گیرند، که به نظر می‌رسد منجر به از دست دادن قدرت استنتاج می‌شود. بنابراین سؤال این است: 1. آیا تاکنون روش دیگری برای عدم نیاز به انتقال داده ها به رتبه ها در حالی که نیازی به توزیع نرمال نیست، پیشنهاد شده است؟ 2. در بین 3 مورد (یا دیگری که می خواهید پیشنهاد دهید)، آیا هیچ کدام از آنها بیشتر از دیگری استفاده می شود؟ و اگر بله به چه دلایلی؟ 2.1 آیا می توانید منبعی را به من نشان دهید که مفروضات و محدودیت های آنها را نشان دهد؟ من برای پیدا کردن کتابی که در این مورد در مورد آنها صحبت می کند، مشکل دارم. این می تواند یک کتاب پیچیده برای یک تازه کار باشد، من مشکلی ندارم. 3. من تکنیکی به نام resampling و bootstrapping را در اینجا دیدم، آیا این در این شرایط خاص فایده ای دارد؟ 4. آیا میدان چی ربطی به آنچه در اینجا در نظر گرفته شده است دارد؟ می‌دانم که هیچ داده‌ای در اینجا ارائه نکرده‌ام، اما لطفاً فرض کنید آنچه در اینجا مورد نیاز است همان چیزی است که در عنوان بیان کردم: یک ANCOVA برای توزیع‌های غیرعادی، در صورت امکان (مطمئن نیستم که آیا این پوچ است زیرا تمام چیزی که به عنوان پیشینه دارم یک دوره آمار بسیار ابتدایی) عدم انتقال داده ها به رتبه ها (اگر امکان پذیر نباشد، خوشحال می شوم دلیل آن را نیز بدانم). متشکرم!
استفاده از تغییرات ANCOVA برای توزیع های غیر نرمال
32213
فرض کنید $z\sim\mathcal{N}\left(\lambda^2 e_1,I_n\right)$ که $e_1$ اولین ستون ماتریس هویت $n$-بعدی است که در اینجا با $I_n$ نشان داده شده است. فرض کنید $S\sim\mathcal{W}\left(m,I_n\right)$ یک ماتریس Wishart روی مشاهدات $m$ با پارامتر $I_n$ است. من به توزیع $$ h = \frac{e_1^{\top} S^{-1}z}{||S^{-1}z||_2}، $$ به عنوان تابعی از $ علاقه دارم n، m، $ و $\lambda$. به وضوح $-1 \le h \le 1$. علاوه بر این، به‌عنوان $m\to\inf$، برخی از تبدیل‌های $h$ به‌عنوان یک توزیع غیر مرکزی $t$ توزیع می‌شوند: $\sqrt{n-1} \tan\left(\arcsin\left(h\ راست)\راست) \sim t\left(n-1,\lambda^2\right)$. (احتمالاً برخی از ثابت‌های افت کرده را مدول کنید زیرا شب خیلی دیر است.) آیا چیزی در مورد توزیع $h$ شناخته شده است؟ احتمالاً در حالت $m$ محدود؟ من به فرم سه متغیر برای ایجاد متغیرهایی مانند $l^{\top}S^{-1}z$ نگاه کرده‌ام، اما نمی‌توانم این مورد را با عادی‌سازی مشکلم تطبیق دهم.
توزیع یک معکوس نرمال شده ویشارت بار گوسی
52847
من 5 میلیون رکورد مختصات قطبی فضایی (r و تتا) دارم. این رکوردهای 5 میلیونی از 400 مکان مختلف هستند که من 150 متغیر برای آنها دارم (بدون NA). من همچنین از 1 متغیر باینری استفاده می‌کنم تا هر رکورد را به‌عنوان نقطه‌ی علاقه یا نه علامت‌گذاری کنم. برای رکوردهایی که POI نیستند، متغیر دیگری دارم که جزئیات بیشتری در مورد نوع آن ارائه می دهد. از این 5 میلیون رکورد، حدود 20 هزار نقطه مورد علاقه هستند. من می خواهم روابط فضایی بین این نقاط مورد علاقه و سایر نقاط را بررسی کنم و در نهایت یک مدل پیش بینی بسازم که آیا آنها در یک خوشه فضایی قرار دارند یا خیر. من از DBSCAN برای ایجاد خوشه های فضایی استفاده کرده ام تا تعیین کنم که آیا این نقاط مورد علاقه با موفقیت نزدیک به نقاط مورد علاقه نیستند. اکنون، من می‌خواهم یک مدل پیش‌بینی‌کننده بسازم که آیا یک نقطه مورد علاقه با یک نقطه مورد علاقه با استفاده از تمام سطوح داده‌های موجود خوشه‌بندی می‌شود یا خیر. سطوح داده های من به شرح زیر است (از زیاد به پایین): مکان: 150 متغیر پیوسته خوشه ها: 1 متغیر باینری-- آیا یک POI در خوشه وجود دارد؟ (این متغیر پاسخ من است) امتیاز: 1 توصیفگر متغیر برای غیر نقاط مورد علاقه سوال من این است که از چه نوع مدل سازی برای تعیین اینکه آیا می توان یک مدل پیش بینی نسبتاً دقیق ایجاد کرد، استفاده کنم. اگر نه، می‌خواهم خوشه‌ها را به بهترین شکل ممکن با داده‌های موجود طبقه‌بندی کنم. کسی پیشنهادی در مورد نحوه حرکت به جلو دارد؟ فقط باید در جهت درست به من اشاره شود-- فرض می کنم می خواهم از نوعی تحلیل چندسطحی استفاده کنم. با تشکر PS- من از R استفاده می کنم، اما اگر کاری وجود دارد که فقط آن می تواند انجام دهد، به SAS دسترسی دارم.
مدل سازی همبستگی های فضایی با داده های چندسطحی
61085
من سعی می‌کنم فیلترینگ مبتنی بر آیتم را با یک فضای ویژگی بزرگ که نشان دهنده مصرف‌کنندگانی است که (1) محصول خاصی را خریداری کرده‌اند یا (0) خریداری نکرده‌اند، پیاده‌سازی کنم. من توزیع دم بلندی دارم، بنابراین ماتریس کاملاً پراکنده است. R به خوبی با آن برخورد نمی کند. برای ساده کردن اندازه گیری شباهت کسینوس چه کاری می توانم انجام دهم؟
شباهت کسینوس در ماتریس پراکنده
111518
من در حال بررسی یک نسخه خطی هستم و نویسندگان بیان می کنند که برخی از نتایج توسط آزمون والد برای روند هستند. کسی در مورد این چیزی شنیده است؟ من این کار را نکرده بودم و گوگل چیزی را فاش نکرد. می دانم که همیشه می گویم جزئیات را ارائه کنم، اما در این مورد نمی توانم.
آزمون والد برای روند چیست؟