_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
104756 | من سعی می کنم پیش بینی کنم که چه زمانی یک وب سایت در گوگل از وب سایت دیگری پیشی می گیرد. من برای هر وب سایت سه متغیر دارم، یک Page Authority (P)، یک Domain Authority (D) و یک Keyword Relevancy (K). آنچه من سعی می کنم مدل کنم اساساً زمانی است که f(P1,D1,K1) > f(P2,D2,K2) باشد. من در حال حاضر تعداد زیادی کلیدواژه و 10 صفحه وب برتر با P، D و K آنها را دارم. من سعی داشتم مقداری رگرسیون خطی انجام دهم، اما نمی دانم چگونه **رگرسیون خطی** را بزرگتر از چیز دیگری مدل کنم. فقط زمانی که نتیجه قطعی داشته باشد. گزینه دیگری که در نظر داشتم **طبقهبندی** بود، اما هر کلمه کلیدی دارای سطح رقابت متفاوتی است که صفحات خاصی از p,d,k در رتبه 1 قرار نمیگیرند. در یک کلمه کلیدی مبهم (مثلاً جبدیه شترمرغ) می توانید بدون حضور زیاد در وب رتبه 1 را کسب کنید، در حالی که در سایر کلیدواژه ها باید شناخته شده باشید (مثلاً آمار) و به نظر می رسد **رگرسیون لجستیک معمولی** پایین است. مسیر درست است، اما من فقط میخواهم بدانم چه چیزی دیگری را شکست میدهد نه ترتیبی از 10. اگر یک مجموعه از مقادیر بیشتر از دیگری پیشبینی شود، از چه مدلی برای پیدا کردن استفاده میکنید؟ | پیش بینی رتبه نتایج گوگل |
101570 | بنابراین من خیلی تازه وارد آمار هستم، اگر احمق به نظر میرسم ببخشید. من دو متغیر کیفی دارم، به ترتیب با 4 و 5 سطح (آنها پاسخ های یک نظرسنجی هستند). من آنها را در یک جدول 4×5 مرتب کردهام و یک تست مجذور کای روی آن انجام دادم، اما برای تمام عمرم نمیتوانم بفهمم که بعداً چه کار کنم. _edit_: متغیرها محدوده سنی را نشان می دهند (به عنوان مثال از 25 تا 35 سال) بنابراین مرتب شده اند. var2-a var2-b var2-c..... var1-a var1-b var1-c var1-d من p<0.05 دارم، عالی است، اما این چیز زیادی به من نمی گوید. من می خواهم بدانم جهت همبستگی و چه مقادیری در صورت مرتبط بودن متغیرها. من به انجام چند تست زوجی فکر کردم: var1-a در مقابل var1-b، var1-a در مقابل var1-c، و غیره، اما این هنوز به من چیزی نمی گوید. از اینجا کجا برم؟ TIA | متغیرهای چندگانه خی دو، بعد چه؟ |
44474 | من یک مدل اثرات مختلط غیر خطی با یک تابع لجستیک چهار پارامتری برازش کردم. علاقه خاص من در توصیف نقطه ای از منحنی است که در آن مولفه افقی منحنی با مولفه مایل برخورد می کند. برای مثال، در نمودار جلوههای ثابت زیر، منطقهای روی منحنی را با فلشهای آبی نشان دادهام که میخواهم مقداری برای آن استخراج کنم.  یکی از گزینه هایی که من با آن برخورد کردم استفاده از گاوسی تجمعی و سپس استفاده از چیزی شبیه $\mu - 1.65\sigma $ است. برای توصیف این نکته با این حال، در صورت امکان، من می خواهم راهی برای توصیف بخشی از منحنی با پارامترهای لجستیک چهار پارامتری که استفاده می کنم: $$ f(x) = \left(\frac{A-D}{1+\left (\frac{x}{C}\right)^B}\right) + D $$ | چگونه می توان ویژگی های برازش منحنی را با یک رگرسیون غیر خطی چهار پارامتری توصیف کرد؟ |
62050 | شاید یک سوال بسیار اساسی باشد اما من را گیج کرده است. مثلاً در یک جدول همبستگی، رابطه بین «A» و DV («B») «.351» است، اما «-.150» در مدل OLS (جایی که «C»، «D» و «را اضافه کردهاید» است. متغیرهای E)، پس این به چه معناست؟ به عبارت دیگر: اگر متغیرهای «C» به «E» نه تنها ضریب «A» را تغییر دهند، بلکه حتی آن را از منفی به مثبت تبدیل کنند، آیا این نشان دهنده اثر متقابل نامطلوب بین متغیرهای مورد استفاده در OLS است؟ من نمرات VIF را برای این مورد بررسی کرده ام اما بر اساس VIF پایین دلیلی برای ترس از چند خطی بودن ندارم. چه چیزی (اگر چیزی) اشتباه است؟ من سعی می کنم سرم را دور این بپیچم و یک مثال ساده برای خودم بسازم تا بفهمم. بگویید «A» قد یک فرد و «B» مسافتی است که این شخص می پرد. احتمالاً یک همبستگی مثبت وجود دارد (بالاتر به معنای پاهای بلندتر، به معنای پرش از مسافت طولانی تر). چه متغیرهایی از «C» تا «E» قد این فرد را جبران میکند، حتی تا حدی که قد این شخص در هنگام پریدن بر خلاف او عمل میکند (ضریب بین «A» و «DV» «B» در OLS منفی است)؟ | اگر یک ضریب از منهای در جدول همبستگی به مثبت در OLS تغییر کند، آیا مدل اشتباه است؟ |
62052 | من سعی می کنم یک logit تودرتو با استفاده از mlogit در R برای تجزیه و تحلیل داده ها از انتخاب هایی که افراد انجام داده اند اجرا کنم. 4 گزینه احتمالی وجود دارد که آنها می توانند از بین آنها انتخاب کنند، اما در هر موقعیت انتخابی، یک فرد باید بین 2 نوع از 4 نوع کل انتخاب کند. من با مشکل دریافت داده هایم در قالب مناسب برای اجرای logit تودرتو مواجه هستم. دادههای من در حال حاضر در قالب طولانی هستند، که در آن هر ردیف یک گزینه جایگزین با فیلدهای زیر است (chid شاخص آزمایشی برای آن انتخاب است، نوع میتواند A، B، C یا D باشد، DV انتخاب شده است، ترتیب 1 یا 2 برای کدام گزینه در لیست، شخص شناسه شخص منحصر به فرد است، و جایگزین گزینه دیگری است که برای آن آزمایشی موجود است: فرزند، نوع، انتخاب شده، سفارش، شخص، جایگزین 0,A,0,1,P1,_B 0,B,1,2,P1,_A 1,C,0,1,P1,_A 1,A,1,2,P1,_C مشکل من به نظر می رسد داشتن نحوه قالب بندی داده ها و نحوه ایجاد لیست لانه است. من میخواهم بتوانم به نحوه مقایسه انواع در انتخاب شدن نگاه کنم، اما مشروط به اینکه انتخاب جایگزین برای هر آزمایشی در دسترس بود. من انواع این دستور را امتحان کرده ام، اما نمی دانم چه چیزی را به عنوان لیست لانه های خود تعریف کنم: nested.logit <- mlogit(انتخاب ~ نوع + سفارش، my.data، shape='long'، alt.var ='type', nests=list(alt.list)) لانه ای که می خواهم استفاده کنم ستون جایگزین است، اما مطمئن نیستم که این روش درستی برای قالب بندی داده های من باشد. من یک خطا دریافت می کنم: 'خطا در `row.names<-.data.frame`(`*tmp*`، مقدار ... خطای تکراری row.names مجاز نیست. PS تودرتو اجرا شود - من از mlogit.data برای قالب بندی داده هایم استفاده نمی کنم، زیرا خطاهایی دریافت کرده ام: >mydata <- mlogit.data(data, Choice=chosen,shape=long,id.var=chid,alt.var=type) خطا در `row.names<-.data.frame`(`*tmp*`, value = c(1.A، 1.B، : row.names تکراری از پستهای دیگر مجاز نیست (به عنوان مثال http://stackoverflow.com/questions/9355535/how-should-i- format-my-data-for-the-r-mlogit-package) من این تصور را دارم که آنچه داده های mlogit برای آن ساخته شده اند مجموعه های جایگزینی هستند که برای هر انتخاب دقیقاً یکسان می مانند مجموعههای جایگزین تغییر میکنند (از آنجایی که هر انتخاب فقط 2 مورد از 4 گزینه را ارائه میکند (همانطور که در بالا ارائه شد)، همان خطا را دریافت میکنم: >alternative.list <- c(_A, _B). ، _C، _D) >nested.logit <- mlogit(انتخاب ~ نوع + سفارش، داده، shape='long', alt.var='type', nests=list(alternative.list)) خطا در ` row.names<-.data.frame`(`*tmp*`, value = c(1.A, 1.B) : تکراری row.names مجاز نیست همه نمونه ها من دیدهام که از لانههایی استفاده کردهام که سادهتر هستند، مانند جایی که دو نوع همیشه در یک لانه هستند، دو نوع دیگر همیشه در لانه دوم هستند، و غیره، که باعث میشود به این فکر کنم که آیا اصلاً میتوانم از mlogit برای چیزی که دارم استفاده کنم. . من به clogit در بسته بقا نگاه کردهام، اما باز هم دادههای من دقیقاً با آنچه در نمونهها استفاده میشود مطابقت ندارد. با تشکر... | مدل لاجیت تودرتو در r |
20195 | من مشکلی دارم که با توزیع فوق هندسی (فیشر) به دنبال حل آن هستم. من به یک مشکل باینری نگاه می کنم، وضعیت بیماری $0$ یا $1$. من دادههای متشکل از بسیاری از فرکانسهای آللی برای کنترلهای مربوط به موارد دارم. من میخواهم برای هر فرکانس آللی مشاهدهشده در بین تعداد موارد، یک مقدار p$$ دریافت کنم. آیا از طریق این روش امکان پذیر است؟ اگر به مشکل به عنوان یک urn با آللهای $m$ در میان موارد و آللهای $n-m$ در بین کنترلها نگاه کنیم. $k$ از این آللها را بهعنوان جهشیافته «کشش» میکنیم، اگر این کشش (بدون جایگزینی) بهطور تصادفی اتفاق بیفتد، بدون در نظر گرفتن اینکه آیا آللها در بین موارد یا کنترلها یافت میشوند، آنگاه $X$، به تعداد $k$ «مارکشده» تبدیل میشود. آللهای یافت شده در بین موارد، به صورت $X \text{~} Hyp(n,m,k)$ توزیع میشوند که در آن $X =$ تعداد واریانتهای جهشیافته در بین موارد یافت میشود. بنابراین، $P(X \ge x_{obs}) = {n-m \choose k-x}{m \choose k}/{n \choose k}$. یعنی $m =$ تعداد آللها در بین موارد، $n-m =$ تعداد آللها در بین کنترلها، $k =$ تعداد کل جهشها در بین همه $n$ آللها، $X =$ تعداد $k$ آللهای جهش یافته در بین موارد یافت شده است. اگر بتوان از این روش استفاده کرد، من در مورد اینکه مقدار مشاهده شده من برای هر تعداد توزیع ابر هندسی چقدر خواهد بود سردرگم هستم. | توزیع فرا هندسی در یک مسئله ژنتیکی |
67660 | من نرم افزاری دارم که ورودی را به عنوان سرمایه گذاری می گیرد و خروجی را به عنوان بازده سهام خاص می دهد. اکنون متریک سود $x_i$ به عنوان نسبت بازده $g_i$ به حداکثر بازده ممکن $g_{max}$ در $i^{th}$ دوره زمانی تعریف میشود. بنابراین $x_i = g_i / g_{max}$g_{max}$ برای هر دوره ثابت است اما از سهامی به سهام دیگر متفاوت است. بازده یک سهام خاص در دوره $i_{th}$ g_i$ است که به سرمایه گذاری $s_i$ برای آن دوره بستگی دارد. رابطه بین $g_i$ و $s_i$ از یک دوره به دوره دیگر متفاوت است. **سؤال** این است که چگونه می توان $s_i$ را بر اساس $s_{i-1}$ و $g_{i-1}$ تصمیم گرفت تا برای یک سهام خاص، $x_i$ را به حداکثر برساند. آیا می توان یک مکانیسم یادگیری آنلاین برای تعیین ارزش $s_i$ بر اساس داده های قبلی ایجاد کرد. [توجه: $ 0 < g_i \leq g_{max}$, $ s_{min} \leq s_i \leq s_{max}$, $i_{th}$ دوره زمانی ثابت است، در این مورد شش ماه است] | آموزش آنلاین برای به حداکثر رساندن سود |
67668 | وقتی میانگین نمونه از قبل مشخص باشد، ضریب تصحیح چیست؟ منظورم این است که آیا تغییری در درجات آزادی مرتبط با توزیع t وجود دارد. آمار آزمون همیشه از میانگین نمونه استفاده می کند. | تست بیرونی گرابس |
20196 | من با R جدید هستم و می خواهم اعتبار برخی از مقیاس ها را با استفاده از R ارزیابی کنم. آیا بسته ای وجود دارد که بتوانم از آن برای آزمایش اعتبار همگرا و متمایز در R استفاده کنم؟ | از کدام بسته برای اعتبار همگرا و متمایز در R استفاده کنیم؟ |
23554 | من همین سوال را در math.stackexchange ارسال کردم، اما هیچ پاسخی دریافت نکردم. بنابراین من شانس خود را در اینجا امتحان خواهم کرد: در زمینه آمارهای قوی، مفهوم نقطه شکست وجود دارد که اساساً نسبت مقادیر پرت را که یک برآوردگر می تواند قبل از ارائه یک نتیجه دلخواه انجام دهد، اندازه گیری می کند: http://en.wikipedia.org/ wiki/Rbust_statistics#Breakdown_point برای مثال، میانگین حسابی دارای نقطه شکست $0$ است، در حالی که میانگین آن را $0.5$، بالاترین حد ممکن است. سوال من این است که چگونه باید نقطه شکست **میانگین وزنی** را تخمین بزنیم، که نقطه داده با کوچکترین $m$ است که موارد زیر را برآورده می کند، وقتی مجموعه نقاط داده $n$ به ترتیب صعودی مرتب شده اند: $$\sum_{i=1}^{m} \Omega_{i} \ge \sum_{j=m+1}^{n}\Omega_{j}$$ کجا $\Omega_{i}$ وزن نقطه $i$ است. به طور دقیق تر، چه رابطه ای را می توانیم بین وزن و نقطه شکست بدست آوریم؟ | نقطه شکست میانه وزنی |
66532 | من حیواناتی دارم که داروی A یا داروی B (فاکتور دارویی) را مصرف کردهاند، و همین حیوانات یا کم آب شدهاند یا آب هیدراته شدهاند (عامل درمان). تستهای F برای مدل ANOVA من به من میگویند که فقط درمان مهم است (دارو مهم نیست و تداخل دارو*درمان نیز مهم نیست). اما آزمایشهای پسهک Student-Newman-Keuls (SNK) نشان میدهد که داروی A-dehydrated با دارو-B-dehydrated متفاوت است. اگر فقط عامل درمان مسئول تفاوتها باشد، چرا آزمایشهای پسهک برای این تفاوت مهم هستند؟ آیا باید بعدا عوض کنم؟ چه سوالاتی (متفاوت) پاسخگوی آزمون F و پس از آن هستند؟ | مدت تعامل آنالیز واریانس غیر معنی دار اما آزمون های تعقیبی معنی دار است |
62059 | اگر دو مدل داشتید - یکی با تناسب بهتر و دیگری با پیشبینیکنندههای اهمیت بالاتر - کدام یک را انتخاب میکردید؟ به خاطر داشته باشید که هر دو مدل مناسب هستند. یکی 3 درصد قابلیت های پیش بینی بهتری دارد. و همچنین همه پیشبینیکنندههای یکسان در هر دو مدل معنیدار هستند، اما در یک مدل (با تناسب کمی بدتر) کمی معنیدارتر هستند. | خوبی تناسب در مقابل اهمیت |
91748 | من به اطلاعاتی در مورد نحوه ادامه دادن به داده هایم نیاز دارم. من دادهها را از نظرسنجی خانوار بر روی 180 نمونه جمعآوری کردهام تا اهمیت دادهشده به ویژگیها در تصمیمگیری مکان مسکونی را بیابم. اهمیت ویژگی های مختلف در مقیاس لیکرت جمع آوری می شود. چهارده سوال وجود دارد که به پنج زیر مجموعه تقسیم می شوند. به عنوان مثال: اهمیت حمل و نقل-(دسترسی به حالت های مختلف و سایر امکانات مرتبط-5 سوال)، امکانات محله-(مدارس، بیمارستان ها و غیره-5 سوال). از آنجایی که نمونه من کوچک است، میخواهم قبل از استفاده از آنها بهعنوان متغیرهای مستقل در یک رگرسیون لجستیک، پنج سؤال مربوط به حملونقل را به یک ساختار و همه سؤالات مربوط به امکانات محله را در یک ساختار کاهش دهم (من سعی کردم از آنها به طور جداگانه استفاده کنم، اما من نتونستم نتیجه بگیرم). از چه نوع تکنیک آماری باید استفاده کنم؟ خواندم که می توانم از تحلیل مکاتبات چند متغیره استفاده کنم. اگر همه 14 سوال را همزمان وارد کنم، ممکن است ساختارها را به گونه ای دریافت کنم که برخی از پاسخ ها از امکانات حمل و نقل و محله با همبستگی/کوواریانس بالا در سازه اول، تعداد کمی از امکانات محله و تعداد کمی از حلقه اجتماعی به عنوان سازه دوم. و غیره من نمی خواهم آنها اینطور با هم قاطی شوند. من می خواهم ببینم چقدر به متغیرهای حمل و نقل اهمیت داده می شود و این اهمیت چقدر بر تصمیم فرد تأثیر می گذارد و به همین ترتیب می خواهم برای متغیرهای دیگر نیز ببینم. چگونه می توانستم این کار را انجام دهم؟ به من گفته شد اگر متغیر پیوسته است، می توانیم از تحلیل عاملی تاییدی استفاده کنیم. اما من همه پاسخ های مقیاس لیکرت را دارم. آیا می توانیم دو متغیر را در یک ساختار کاهش دهیم؟ همچنین، آیا باید قبل از استفاده از تکنیک کاهش داده، آلفای کرونباخ را پیدا کنم؟ وقتی ما از تکنیک کاهش داده استفاده می کنیم، هدف آن چیست؟ واقعا ممنون میشم اگه کسی به این سوالات جواب بده. تحقیقات من اینجا گیر کرد. ممنون آرونا | کاهش ابعاد برای سوالات لیکرت، آلفای کرونباخ |
67667 | ExtraTreesClassifier و Random Forest در کتابخانه یادگیری Scikit دارای پارامتر min_density است. مقدار پیش فرض آن 0.1 تنظیم شده است. به نظر نمیرسد که بفهمم این پارامتر min_density به چه معناست و چگونه بر آموزش تأثیر میگذارد (در اسناد موجود نیست و به نظر نمیرسد معادل آن را در مقاله پیدا کنم.) آیا کسی میتواند تأثیر این پارامتر را بر روی آموزش و نحوه آموزش توضیح دهد. آن را به درستی تنظیم کنیم؟ با تشکر | پارامتر min_density در scikit-learn Random Forest/ExtraTrees برای چیست؟ |
62054 | من نیاز دارم برای تابع همبستگی خودکار (ACF) یک مدل ثابت و معکوس ARMA(1,1) اثبات کنم، که نشان می دهد ACF در اولین تاخیر به هر دو پارامتر $\theta_1$ و $\phi_1$ بستگی دارد. و برای تاخیرهای بیشتر فقط به $\phi_1$ بستگی دارد ($k>1$). کسی میتونه کمکم کنه؟ | اثبات ACF برای مدل ARMA(1,1). |
51535 | لحظه های توزیع کولموگروف تا چه حدی وجود دارد؟ مراجع قدردانی می شود. | لحظات توزیع کولموگروف |
62055 | چرا من منحنی ROC خود را می بینم که از خط (0,0) به (1,1) (یعنی خط 0-1) عبور می کند؟ من دادههای آزمایشی زیر را بهعنوان یک فایل testdata.txt جدا شده با برگه دارم. با اجرای چندین بار کد R خود (در زیر آورده شده است)، چند منحنی ROC دریافت می کنم که چندین بار از خط 0-1 عبور می کنند. چه توضیحی ممکن است برای این وجود داشته باشد، غیر از داده های کافی؟ با تشکر testdata.txt pred1 pred2 pred3 پاسخ 25 3.8 13.4 0 29 5.3 23.5 1 30 4.3 14.1 1 29 3.8 16.1 0 26 5.7 22.9 0 20 4 23.5 13.1 1 29 3.8 22.9 0 20 4 223 13. 5.1 16.9 0 24 4.3 15.2 0 25 5 15.2 0 29 4.1 13.7 0 24 3.7 14.7 0 29 4.7 13.8 0 28 3.9 14.2 0 29 4.1 0 25. 13.9 0 33 4.3 17.1 0 33 5 16.6 1 28 4.6 15.2 0 29 4.5 15.6 0 26 4.1 14.3 0 31 4.4 12.6 0 214 4.6 2.7 0 214 4.1 13.3 0 29 4.1 17.7 1 29 4.2 18.4 1 27 4.5 17.3 0 27 4.4 16.4 1 28 4.5 17.6 1 29 4.7 15.8 129 4.7 15.8 27 4.4 13.3 0 29 3.9 13 1 27 3.9 17.9 0 25 3.2 13.6 0 22 4.8 13.4 0 26 5.5 14.2 0 24 4 16.6 0 38 3.2 3.2 14.2 0 24 4 16.6 0 38 3.2 13.2 14. 3.1 16.5 1 23 4.8 14.5 0 27 5.4 13.5 0 27 4.1 12.8 1 30 3.9 13.1 0 24 5.4 13 0 25 4 12.3 0 130 254 12.3 0 254 18 3.6 13.7 0 24 3.2 13 0 27 4 14.3 0 33 3.6 17.1 0 24 3.2 15.5 0 24 3.2 13.3 0 24 4 14.2 0 213 264. 0 16 3.4 17.1 0 21 4.3 21.1 0 27 4.5 13.5 0 29 4.1 13.5 0 27 3.9 14.1 0 27 4.1 13.6 0 27 4.5 13.5 0 27 3.9 14.1 0 27 4.1 13.6 0 27 4.5 13.5 129. 3.7 15.1 0 33 3.6 17.1 1 16 5 16.6 0 21 5.4 16.7 0 27 4 11.5 0 29 3.7 12.7 0 26 3.7 11.7 0 1215 4. 0 24 3.8 12.9 0 33 3.2 14.1 0 24 3.4 14.2 0 26 4.1 13.9 0 26 5.3 14.4 0 16 4.3 21.1 0 20 5.4 14.2 17.4 3.1 13.7 0 31 3.8 12.8 0 29 4.8 16.7 0 33 4 14.7 0 16 5 17.1 0 29 4.6 13.2 0 23 3.4 12.7 0 2254 12.7 0 214 4. 31 3.6 13.5 0 32 5.3 13.9 1 33 4.3 16.6 0 29 4.1 15.3 0 18 4.2 14.9 0 24 5.9 16.7 0 25 4.3 11937 1194. 5.7 13.6 0 29 4 12.4 0 24 4.5 13.8 0 27 3.8 14.1 0 34 4.2 12.4 0 30 4.3 13.1 0 26 3.4 15.9 0 3.4 15.9 0 3.8 215. 13.2 0 25 3.2 13.4 0 28 4.6 15.5 0 24 4.8 14.6 0 24 3.9 12 0 29 4.9 14.7 0 28 4.5 13.5 0 224 508 25 15.1 0 27 4.5 12.8 0 31 4.6 15.6 0 22 4.7 14.3 0 25 3.9 13.6 0 28 5.6 14.7 0 21 4.3 19.9 1 3114 19.9 1 3114 4.8 14.4 0 30 4.3 14.7 0 25 5.3 12.1 0 30 4.8 13 0 29 3.9 15.1 0 32 4.4 14.7 1 24 4.3 14.2 0 30 4.8 13 0 29 3.9 15.1 0 32 4.4 14.7 1 24 4.3 14.2 0 30 29. 0 23 3.7 17.5 0 29 4.2 14.8 0 29 4.8 15.2 0 31 6.1 13.6 0 27 4.3 13.1 0 27 4.4 12.3 0 28 5.1 13.6 0 27 4.3 13.1 0 27 4.4 12.3 0 28 5.1 13.1 0 28 5.1 13.1 13.1 4.3 12.5 0 26 3.7 12.2 0 28 4 12.5 0 29 2.8 13.5 0 30 3.6 12.2 0 29 4.1 13.5 0 27 5.2 16.5 0 29 2.8 13.5 0 30 3.6 12.2 0 29 4.1 13.5 0 27 5.2 16.5 0 4026. 12.1 0 24 4 14.2 0 22 3.8 13.3 0 34 4.6 13.4 1 31 4.5 13.6 0 28 4.9 12.5 0 33 4 12.6 0 29 4 0 128 13.4 0 33 4 12.6 0 29 4 128 13.4 12.5 0 27 4.2 14.2 0 29 3.8 15.2 0 26 3.8 13.5 0 27 5.8 13.8 0 22 3.8 11.7 0 28 3.7 13.2 0 26 3.8 13.5 0 27 3.8 11.7 0 28 3.7 13.2 0 1214.4. 0 13 4.3 19.3 0 27 4.5 18.3 0 24 4.6 13.8 0 37 3.8 12.3 0 25 4.8 11.9 0 30 4.1 12.5 0 23 3.7 13.8 13. 4.1 12.9 0 24 4.5 16.9 0 25 3.7 12.7 0 30 4 12.7 0 25 5 12.3 1 29 3.9 14.2 0 25 3.9 13.6 0 2214.8. 0 28 4 13.4 0 28 4.1 13.9 0 27 3.5 13.9 0 26 2.7 18.8 1 30 4.6 12 0 25 4 13.6 0 26 4.9 14.7 0 13.9 14.7 0 1024. 0 16 4.3 15 0 33 5.3 15.7 0 24 4.8 15.5 0 29 3.2 13.6 0 30 4.4 12.6 0 28 3.8 13.5 1 24 4.3 1330 13.3. 4.2 13.2 0 26 3.6 12.5 0 24 4.1 13.5 1 16 3.1 13 0 24 3.4 17.6 | منحنی AUC متناوب. به چه معناست؟ |
61620 | من مطمئن نیستم که واریانس از نظر فنی واژه مناسبی باشد، بنابراین اجازه دهید توضیح دهم... من در حال اندازه گیری دو مجموعه داده در محل کار هستم و صدک 50، 90 و 99 را برای هر مجموعه داده به صورت ماهانه بررسی می کنم. مجموعه داده A به طور کلی حدود 10 برابر بیشتر از مجموعه داده B مشاهدات دارد. اگر هر یک از این معیارها به اندازه کافی در یک ماه برای هر یک از مجموعه داده ها تغییر کند، روسای من توضیح می خواهند که چرا تغییر کرده است. آستانه ای که آنها از لحاظ تاریخی برای اینکه آیا توضیح لازم است یا نه استفاده می کردند، دلتای 3 درصدی ماهانه در هر ماه است. (به دلایل طولانی مختلف، انجام یک آزمون معنیداری آماری واقعی برای شرایط ما امکانپذیر نیست.) این آستانه 3 درصد زمانی ایجاد شد که ما فقط به مجموعه دادههای A نگاه میکردیم، جایی که به طور حکایتی به نظر میرسد درست است. اما اکنون برای مجموعه داده B نیز اعمال می شود. بدیهی است که از آنجایی که مجموعه داده B یک دهم مشاهدات دارد، این آستانه را بسیار بیشتر می کند. من میخواهم چیزی شبیه این بگویم که «مجموعه دادههای B یک دهم مشاهدات دارد، بنابراین باید آستانه X برابر بزرگتر را در نظر بگیریم». من فقط مطمئن نیستم که چگونه X را تعیین کنم. من این حس شهودی مبهم را از کلاسهای آمار قدیمی دارم که باید با sqrt(N) متناسب باشد، یعنی اگر مجموعه دادههای A اجازه دارد تا 3% از ماه به ماه تغییر کند، مجموعه دادههای B باید تا حد تغییر کند. به 3٪ * sqrt (10) = ~ 9.5٪ در ماه. سوال من این است: راست می گویم؟ و صرف نظر از اینکه من درست می گویم، استدلال آماری واقعی برای هر پاسخ درست چیست؟ با فرض اینکه اجازه می دهیم مجموعه داده A تا 3 درصد تغییر کند، چقدر باید اجازه داده شود که مجموعه داده B تغییر کند؟ | رابطه بین واریانس و حجم نمونه |
67662 | من یک محقق پژوهشی هستم و از 4 سال گذشته وقایع فنولوژیک خط چوب را در منطقه هیمالیا نظارت می کنم. در طول تجزیه و تحلیل داده ها، من یک مقاله تحقیقاتی تخمین و مقایسه منحنی گلدهی مشابه کار خود پیدا کردم. در این مقاله از بسته «R» «bbmle» استفاده شد و از پنج پارامتر $(\beta_{0},\ldots,\beta_{4})$ استفاده شد که: (i) ارتفاع; (ب) تاریخ اوج. (iii) محدوده؛ (IV) تقارن. و (v) اوج منحنی رگرسیون محاسبه شد. من همچنین جدول ضمیمه را خواندم و کد را برای تخمین این پارامتر دنبال کردم اما به عنوان یک تازه کار نتوانستم محاسبات را انجام دهم. جدول پیوست کامل اینجاست:  من همچنین startvals را برای سال 2007 همانطور که در ضمیمه ذکر شده است پست می کنم. به مقادیر شکل زیر برای سال 2007 نگاه کنید. سال 2007 همانطور که در شکل نشان داده شده است که در آن $(\beta_{0},\ldots,\beta_{4})$ توضیح می دهد: 1. ارتفاع 2. قله تاریخ 3. محدوده 4. تقارن 5. اوج منحنی رگرسیون. | نحوه برآورد حد اطمینان 95% بر اساس برآورد حداکثر احتمال |
23556 | هر زمان که تقویت مطرح می شود، Adaboost اولین الگوریتمی است که فهرست می شود. محبوب ترین الگوریتم های تقویتی که Adaboost نیستند چیست؟ | قوی ترین جایگزین های تقویت کننده برای Adaboost چیست؟ |
67661 | من GLM ها را اجرا کرده ام و مدل نهایی خود را متناسب با داده هایم دریافت کرده ام. اکنون می خواهم هر یک از متغیرهای کمکی مهم خود را در مقابل مقادیر پیش بینی شده رسم کنم. من می خواهم تمام متغیرهای کمکی دیگر مدل را ثابت نگه دارم و یک متغیر کمکی داشته باشم که متفاوت باشد و آن را رسم کنم. هدف من به دست آوردن خطی با فواصل اطمینان است که در آن بتوانم مقدار پیش بینی شده برای مقدار مشخصی از متغیر کمکی خود را ببینم. من ایده بسیار واضحی از نموداری که میخواهم دارم، اما نمیدانم چگونه آن را در R رسم کنم. پیشنهادی دارید؟ ممنون | پیشبینی نمودار برای متغیرهای کمکی از GLM |
28795 | به یاد دارم که در مورد یک قانون کلی برای انتخاب تعدادی ویژگی مطالعه کردم. چیزی شبیه $\sqrt{\log_2(n)}$ بود که $n$ تعداد نمونهها یا $\log_2(n)$ است. آیا کسی مقاله (یا کتاب) اصلی را که فرمول را توصیف می کند به یاد دارد؟ از طرف دیگر، میتوانید با مهربانی یک دستورالعمل خوب برای استخراج تعداد ویژگیهای مورد استفاده توضیح دهید؟ متشکرم | انتخاب تعداد ویژگی ها |
51530 | من در حال انجام برخی مدلسازیهای اکتشافی بر روی یک مجموعه داده با 29 متغیر کمکی و 11 متغیر اضافی هستم که برای سؤال تحقیق من جالب هستند. استراتژی من این است که یک مدل با زیرمجموعه ای از بردار متغیرهای کمکی ایجاد کنم و سپس اهمیت مدل را با 11 متغیر تحقیق اضافی ارزیابی کنم. صرف نظر از استراتژی مدلسازی خاص، میترسم که مطمئن نیستم چگونه با عدم قطعیت مدل ناشی از تفسیر مقادیر AIC و BIC که میبینم مقابله کنم. به عبارت دیگر، اگر من BIC را برای 5000 مدل محاسبه کنم و متوجه شوم که BIC در یک مدل خطی با متغیرهای A, B, C به حداقل می رسد (مثلاً 1711-) و مدل با دومین BIC پایین تر (بیایید مثلاً 1709- =) دارای متغیرهای A، B، C و D است -- از کجا بدانم که تفاوت بین این دو مدل برای توجیه حذف متغیر کافی است D از در نظر گرفتن؟ و چگونه می توانم آن بررسی تفاوت ها را برای در نظر گرفتن 4998 مدل باقی مانده گسترش دهم؟ پیشاپیش از هرگونه کمکی که ممکن است بتوانید ارائه دهید متشکریم. | چگونه می توانم بفهمم که تفاوت IC ها در بین مدل های کاندید قابل توجه است؟ |
61622 | من می خواهم با 2 کلاس طبقه بندی انجام دهم. وقتی بدون _smote_ طبقهبندی میکنم، دریافت میکنم: Precision Recall f-1 0,640950987 0,815410434 0,714925374 وقتی از _smote_ استفاده میکنم: (کلاس اقلیت را در **200%** و k = 5) Recall دقیق f-1 ,831024643 0,783434343 0,804894232 همانطور که می بینید این به خوبی کار می کند. با این حال، زمانی که من این مدل آموزش دیده را روی داده های اعتبارسنجی آزمایش می کنم (که هیچ داده مصنوعی ندارد) Precision Recall f-1 0,644335755 0,799044453 0,709791138 که افتضاح است. من از **جنگل تصمیم تصادفی** برای طبقه بندی استفاده کردم. کسی ایده ای دارد که چرا این اتفاق می افتد؟ هر گونه راهنمایی مفید در مورد آزمون های اضافی که می توانم برای به دست آوردن بینش بیشتر امتحان کنم نیز استقبال می شود. اطلاعات بیشتر: من به طبقه اکثریت دست نمی زنم. من در پایتون با scikit- Learn و این الگوریتم برای smote کار می کنم. ماتریس سردرگمی در دادههای آزمایشی (که دادههای مصنوعی دارد):  ماتریس سردرگمی در دادههای اعتبارسنجی با همان مدل ( داده های واقعی، که توسط SMOTE تولید نشده اند)  * * * **ویرایش:** خواندم که مشکل احتمالاً در این واقعیت است که پیوندهای Tomek ایجاد شده است. بنابراین من کدی برای حذف پیوندهای tomek نوشتم. اگرچه این نمرات طبقه بندی را بهبود نمی بخشد. **ویرایش2:** خواندم که مشکل احتمالاً در این واقعیت است که همپوشانی بیش از حد وجود دارد. یک راه حل برای این، یک الگوریتم تولید نمونه مصنوعی هوشمندتر است. بنابراین من پیادهسازی کردم > ADASYN: رویکرد نمونهگیری مصنوعی تطبیقی برای یادگیری نامتعادل پیادهسازی من را میتوانید در اینجا پیدا کنید. عملکردش بدتر از smote بود. | با استفاده از SMOTE طبقه بندی مجموعه اعتبارسنجی بد است |
23553 | من از یک حوزه علوم کامپیوتر با یک مشکل تخمینی می آیم که سعی می کنم به آن بپردازم. سوابق من آمار نیست، بنابراین اگر اصطلاحات بد است عذرخواهی می کنم. من موضوعات مختلف مربوط به تخمین مدل را مطالعه کرده ام، اما منطقه بسیار زیاد به نظر می رسد. بنابراین، من مشکل را در زیر شرح میدهم، و دریافت اشارهگرها به بخشهای خاصی که مرتبط هستند برای جلوگیری از رد شدن در دهها صفحه ویکیپدیا بسیار مفید خواهد بود :). 1. یک فضای $d$-بعدی $S$ با ابعاد $N_1 \times N_2 \times \dots \times N_d$ را در نظر بگیرید. هر نقطه $s \در S$ توسط یک تاپلی $(n_1، n_2، \dots، n_d)$ با $d$ شاخصهای مبتنی بر صفر $n_k \in [0، N_k-1]$ مشخص میشود. 2. یک تابع 1-1 $f وجود دارد: S \rightarrow \mathbb{N}$ که یک نقطه چند بعدی در $S$ را به یک عدد طبیعی منفرد نگاشت میکند. 3. مشکلی که میخواهم به آن بپردازم مربوط به تخمین $f$ است، یعنی: با توجه به $S$، محدوده $f(S)$، و $p \in f(S)$، نقطه $ را تخمین بزنید. s \در S$ طوری که $f(s)=p$. 4. (ویرایش): یادم رفت بگویم: فضا را می توان برای ساخت مجموعه آموزشی کاوش کرد. یعنی داده های آموزشی را می توان با ارزیابی $f(s)$ بدست آورد. با این حال، محاسبه $f(s)$ بسیار گران است، بنابراین هدف تخمین $f$ با کمترین ارزیابی ممکن است. بنابراین، در نهایت هدف تخمین معکوس $f$ است. برخی فرضیات در مورد $f$ وجود دارد که شاید مهمترین آنها خطی بودن آن باشد. املاک دیگری نیز وجود دارد، اگر ممکن است مرتبط باشند، لطفاً بپرسید. با تشکر نوح | تخمین نگاشت تابع خطی از n-dim تا 1-dim |
67663 | من در فینال سوال زیر را گرفتم، اما معلم ادعا می کند که من به این درست پاسخ ندادم، الف را به عنوان پاسخ درست انتخاب کردم، پاسخ درست چیست و چرا؟ سوال اینجاست: در تحقیقی در مورد ارتباط بین دو متغیر کمی مشاهدات جمع آوری شد (بیش از 2) که در آن هر مشاهده مقدار x و y و انحراف معیار x و y دارد. ,$S_x$$S_y$، بزرگتر از `0`. کدام یک از موارد زیر درست است: 1. اگر ضریب همبستگی لحظه-محصول پیرسون 1$ باشد، ضریب همبستگی رتبه اسپیرمن لزوماً 1 نیست. )$ نمی تواند بزرگتر از $S_x$ باشد. 3. اگر $\mathrm{Cov}(x,y) = 0$، درصد واریانس **non** توضیح داده شده باید 0 باشد. 4. اگر شیب خط رگرسیون از مقدار $y$ مورد انتظار به عنوان تابعی از $x$ 1 باشد، ضریب همبستگی لحظه-محصول پیرسون $1 است. | یک سوال از یک آزمون در آمار؟ |
61625 | من دو تعریف از ماتریس اطلاعات فیشر را خوانده ام. آیا آنها معادل هستند؟ (فرمولهای ارائه شده در زیر، نسخههای کمی اصلاحشده از آنهایی هستند که در منابع ذکر شده ارائه شدهاند، تا تفاوتهای بین آنها آشکار شود.) 1. Zacks، Theory of Statistical Inference (1971)، ص. 194: $$ \left[E_\theta\left(\frac{\partial}{\partial\theta_i}\n f\left(X;\theta_1,\dots,\theta_r\right)\cdot\frac{\ partial}{\partial\theta_j}\ln f\left(X;\theta_1,\dots,\theta_r\right)\right)\right]_{i,j} $$ 2. Schervish, Theory of Statistics (1997), Definition 2.79, p. 111: $$ \mathrm{Cov}_\theta\left(\frac{\partial}{\partial\theta_i}\ln f\left(X;\theta_1,\dots,\theta_r\right),\frac{ \partial}{\partial\theta_j}\ln f\left(X;\theta_1,\dots,\theta_r\right)\right) $$ | ماتریس اطلاعات فیشر |
20224 | معیار اطلاعات آکایک، معیاری برای برازش خوب یک مدل است که تعداد پارامترهایی را که برای ساخت آن مدل استفاده شده اند، جبران می کند. دو مدل خطی را در نظر بگیرید، یکی که با استفاده از وزن فرد ($w$) و قد ($h$): $f_1 = a w + b h + c$ ساخته شده است. بدیهی است که این مدل دارای دو پارامتر w و h است. اکنون مدلی را در نظر بگیرید که از شاخص توده بدنی (BMI) استفاده می کند، که به صورت ترکیبی از وزن و قد محاسبه می شود: $f_2 = aB + b$ (در اینجا، $B$ مخفف BMI است). آیا BMI در این مورد باید به عنوان یک پارامتر واحد در مقابل AIC در نظر گرفته شود یا به عنوان دو پارامتر؟ در مورد سایر پارامترهای مدل پیچیده که ممکن است شامل ترکیب غیر خطی از پارامترهای اصلی مختلف باشد، چطور؟ | معیار اطلاعات آکایک و متغیرهای ترکیبی |
23886 | من به تازگی متوجه شدم که مجموعه داده من بسیار آشفته تر از چیزی است که انتظار داشتم و می خواستم بدانم آیا کسی در اینجا توصیه ای دارد. من داده های فروش دارم که به مناطق تقسیم شده است (5 شکست بزرگ در سطح ملی و سپس 4-6 شکست در هر شکست سطح ملی بزرگ، دومین شکست همان چیزی است که من منطقه می نامم. تفکیک بعد از آن همه فروشگاه ها است. که در یک منطقه به فروش می رسند.)، اما من به تازگی متوجه شدم که آنچه در مناطق گنجانده شده است در طول زمان متفاوت است. در 3 سال گذشته، آنها 3 منطقه را حذف کرده اند و سپس فروش خود را به مناطق دیگر منتقل کرده اند (تصور کنید همه فروش ها را برای شهرهای دوقلو گرفته و سپس تصمیم بگیرید که در 1 فوریه آنها باید از ثبت به عنوان شهرهای دوقلو تغییر کنند. نیمی از آنها با مدیسون ضبط شده اند و نیمی دیگر با شیکاگو مرتبط هستند). همچنین بسیار متداول است (هنوز دقیقاً مطمئن نیستم که چقدر رایج است، در حال کار بر روی کشف آن) برای یک فروشگاه جداگانه (تفکیک پس از منطقه) از یک منطقه به منطقه دیگر (بنابراین در 1 فوریه فروشگاه من از ثبت شدن به عنوان فروش در شهرهای دوقلو برای فروش در شیکاگو). طبیعتاً این اطلاعاتی است که در مجموعه دادههای من موجود نیست (هیچ کسی از افراد آماری وقتی تصمیم میگیرند اطلاعات را دریافت نمیکنند)، بنابراین من مکعبی دارم که در حال حاضر هیچ پیوندی به این اطلاعات ندارد. در یک پایگاه داده دسترسی من به داده های سطح فروشگاه فردی دسترسی دارم که لیستی از ارتباط ماهانه منطقه آنهاست (بنابراین برای فروشگاه من تا 1 فوریه 2012 در هر سلول شهرهای دوقلو می گوید و سپس به مدیسون تغییر می کند). من دو ایده برای نزدیک شدن به این موضوع دارم. اولین مورد این است که از طریق پایگاه داده دسترسی بروید، فروشگاههایی را شناسایی کنید که در تعریف منطقهشان یکسان بودهاند و همه فروشگاههای دیگر را حذف کنید، سپس با دادههایی که قبلاً دارم به آن بپیوندید (زمانی که کارمند فناوری اطلاعات من را به اطلاعات موجود در SSMS دسترسی میدهد) . این به معنای حذف هر فروشگاهی است که تا به حال منطقه ای را از داده ها تغییر داده است. مشکلی که من در اینجا می بینم این است که آنچه را که تصور می کنم حجم زیادی از داده ها است حذف می کند و داده ها از برخی مناطق با شدت بیشتری نسبت به سایرین حذف می شوند، زیرا برخی از مناطق حرکت بیشتری نسبت به سایرین دارند (و ما هنوز هم داریم 3 حذف کامل منطقه در راه است). مورد دیگری که من در نظر دارم (مطمئن نیستم که قانونی است یا نه) این است که در صورت تغییر منطقه، یک متغیر ساختگی که 1 است را اضافه کنم و آن را در مدل خود قرار دهم. این به تغییرات متعدد نمیپردازد، اما اگر آن اطلاعات را در مدل خود لحاظ کنم، باید با برخی از آنها برخورد کند، بله؟ من میخواهم راهحلی ارائه کنم که شامل حذف مجموعه دادههای من نباشد، چیزی که اکنون به آن تمایل دارم. ممکن است تغییر سطح فروشگاه نادیده گرفته شود، زیرا آنها تا حدودی رایج هستند و تغییر چندان بزرگی نیستند، اما به نظر می رسد حذف یک منطقه و جابجایی آن بسیار بزرگ است که بتوان نادیده گرفت. ممنون از پیشنهادات شما به روز رسانی: به نظر می رسد تیم داده ما قبلاً یک راه حل پیاده سازی کرده است، برای راه حل به @peter و نظرات من در زیر مراجعه کنید. | چگونه می توان با تغییر تعاریف مناطق در طول زمان در داده ها برخورد کرد؟ |
66533 | من با یک مدل رگرسیون خطی مشکل دارم که در آن 2 متغیر وابسته دارم. هر دو به شدت با یکدیگر همبستگی دارند و هر دو باید با مدل خطی «y = Xbeta + u» توضیح داده شوند، من از خودم میپرسم آیا میتوانم یک رگرسیون به ظاهر نامرتبط (SUR) یا یک مدل رگرسیون چند متغیره انجام دهم، زیرا مطمئن نیستم. تفاوت بین این دو رویکرد خوشحال میشم اگه کسی بتونه در این مورد کمکم کنه. خیلی ممنون. | رگرسیون به ظاهر نامرتبط و رگرسیون چند متغیره |
51537 | من در تعجب بودم که چگونه می توان HSD توکی را برای پیگیری یک ANOVA اندازه گیری های مکرر سه طرفه با دست محاسبه کرد. من سعی کردم با اصلاح کاری که در ANOVA بین موضوعی انجام میدهم، نحوه انجام آن را استنباط کنم، اما مطمئن نیستم که آیا در مسیر درستی هستم یا خیر. MSE = 18109 n = 59 (من در مجموع 59 آزمودنی دارم که در همه گروه ها شرکت می کنند) df خطا = 55 من می خواهم با استفاده از 8 میانگین 4 مقایسه انجام دهم. با استفاده از k = 8 (آیا این باید 4 باشد؟) و df E = 55، من q = 4.45 را جستجو کردم. من 18109 را بر 59 = 306 تقسیم کردم، جذر آن را 17.49 کردم و آن را (17.49) در 4.45 = 77 = HSD ضرب کردم. آیا این منطقی است؟ | محاسبه Tukey HSD به دنبال ANOVA اندازه گیری های مکرر |
23884 | من در تلاش هستم تا تأثیر چهار مداخله/ قرار گرفتن در معرض را بر کسب عفونت (مداخلات با هدف پیشگیری از عفونت) تعیین کنم. من از داده های رجیستری استفاده می کنم. زمان تجزیه و تحلیل من به 4 سال محدود شده است زیرا نتیجه اولیه من 4 سال است (عفونت / یا نه). این یک رجیستری نسبتاً جدید است و بنابراین دادههای افراد به طور همزمان وارد شده است (برای کسانی که پس از شروع ثبت نام متولد شدهاند) و دادههای دیگری که دادههای افراد بعداً برای آنها شروع میشود، که بسیاری از آنها در تجزیه و تحلیل من نقشی ندارند، زیرا آنها بیش از 4 سال داشتند. سن در هنگام شروع ثبت. من در STATA مبدأ (تولد = زمان 0)، ورود (اولین تاریخ ثبت شده در رجیستری) و شکست (عفونت) خود را مشخص کرده ام. از آنجایی که دریافت عفونت یک شکست مطلق است و زمان تجزیه و تحلیل من مربوط به سن است، انتظار دارم که تعداد در معرض خطر عفونت به مرور زمان کاهش یابد. با این حال، زمانی که من منحنی بقای Kaplan-Meier را با جدول در معرض خطر ترسیم می کنم، در زمان 0، 0 افراد در معرض خطر هستند و افراد بعدی در معرض خطر قرار می گیرند. هیچ ایده ای دارید که چرا اینطور نیست؟  | تجزیه و تحلیل بقا - کمک به تعیین منبع خطا |
74616 | من در حال انجام تحقیق در مورد عوامل تعیین کننده سودآوری بانک هستم. من 4 متغیر مستقل و 1 متغیر وابسته گرفتم. دادههای جمعآوریشده شامل دوره 5 ساله با توجه به 10 بانک است. R مربع 0.304 و R مربع تنظیم شده 0.243 بود. تنها 2 متغیر در سطح 5 درصد معنی دار بودند. مقدار F 4.919 و معناداری 0.0022 اگر متغیر دیگری را به مدل مدل اضافه کنم مربع R به 0.315 افزایش می یابد. آیا می توانید راه حلی برای افزایش مربع R به من بدهید؟ | دلیل پایین بودن مربع R چیست؟ |
23551 | آیا الگوریتم های استاندارد (برخلاف برنامه ها) برای انجام رگرسیون خطی سلسله مراتبی وجود دارد؟ آیا مردم معمولاً فقط MCMC را انجام می دهند یا الگوریتم های تخصصی تر، شاید به شکل نیمه بسته، وجود دارد؟ | الگوریتم های استاندارد برای انجام رگرسیون خطی سلسله مراتبی؟ |
92218 | با توجه به داده های سری زمانی روزانه زیر  من از auto.arima در R برای ساخت یک مدل استفاده کرده ام. من از «freq = 5» استفاده کردم زیرا دادهها فقط در روزهای هفته (دوشنبه تا جمعه) جمعآوری میشوند. tsdata <- ts(داده، فرکانس = 5) fit <- auto.arima(tsdata، ic = 'aicc') نمودار (پیشبینی(مناسب، h = 80)) بازگشت، سری: tsdata ARIMA(3،1،2) (0،0،1)[5] با ضرایب دریفت: ar1 ar2 ar3 ma1 ma2 sma1 دریفت 1.6825 -0.6384 -0.0993 0.0151 -0.9778 -0.0063 -0.0232 s.e. 0.0494 0.0904 0.0487 0.0125 0.0123 0.0483 0.2080 sigma^2 تخمین زده شده به عنوان 33.92: log likelihood=-1393.24 AIC=2806.1 AICc=2806.1 AICc=2806 به دست آمده است. نتیجه:  چرا آریما فقط یک خط مستقیم را به من برمی گرداند؟ آیا مدل ARIMA برای استفاده در اینجا مناسب است؟ چگونه می توانم ویژگی داده های پیش بینی را حفظ کنم؟ من در ساخت مدل سری زمانی بسیار جدید هستم. هر گونه پیشنهادی قدردانی خواهد شد. متشکرم | از چه مدل سری زمانی باید استفاده کرد؟ |
67664 | با استفاده از روش لحظهها، میتوان سعی کرد مجموع متغیرهای $\chi_{r}^{2}$ را به صورت $\sum a_{i}Y_{i}$ با معادلسازی حرکات $n$-th تقریب زد. با حرکت $n$-ام جمعیت نمونه بگیرید و پارامترها را به این ترتیب حل کنید. با این حال من در اشتقاق تقریب Satterthwaite گیر کرده ام. نویسنده (برگر و کاستلا) موارد زیر را پیشنهاد کرد (صفحه 314): .. برای انجام این کار باید لحظات دوم را با هم تطبیق دهیم، و ما نیاز داریم $$\mathrm{E}\left(\sum^{k}_{i=1}a_{i}Y_{i}\right)^{2}=\mathrm{E}\left(\frac{\ chi_{v}^{2}}{v}\right)^{2}=\frac{2}{v}+1$$ با استفاده از روش لحظهها، میتوانیم **اولین انتظار** را رها کنیم و حل کنیم برای $v$، بازده $$\overline{v}=\frac{2}{\left(\sum^{k}_{i=1}a_{i}Y_i\right)^{2}-1}$$ ساده لوح من سوال این است که چرا اصلاً میتوانیم انتظارات را از بین ببریم؟ این از توضیحات نویسنده در مورد روش حرکات مشخص نیست، که در آن فقط $$m_{j}=\frac{1}{n}\sum^{n}_{i=1}X_{i} برابر میشود. ^{j}\text{ با } EX^{j}$$ و به نظر من واضح است که علامت انتظار قابل حذف نیست. به همین ترتیب، در آخرین مرحله از استخراج فرمول تقریب، نویسنده پیشنهاد کرد: .. با جایگزینی این عبارت به جای واریانس و **حذف انتظارات**، به دست می آوریم... (صفحه 315) آیا کسی می تواند بیان کند. اشاره؟ ببخشید سوال واقعا کم است. ویرایش: یکی از دوستان در اینجا پیشنهاد کرد که روش گشتاورها $E(Z)=Z$ را فرض کند زیرا یک برابر با دو لحظه است. من فکر نمیکنم که این موضوع مستقیماً از این تعریف پیروی کند. حتی زمانی که $j=1$ باید $\frac{1}{n}\sum^{n}_{i=1}X_{i}$ را با $EX^{1}$ یکسان کرد. من فکر نمیکنم این به طور کلی به معنای $E(Z)=Z$ باشد، به طوری که بتوان از $Z=\sum a_{i}Y_{i}$ استفاده کرد. | اشتقاق تقریب ساترتویت |
59046 | غیر از چه روشی برای رگرسیون می توان برای بدست آوردن y=f(x1,x2) در مجموعه آموزشی 800 تا 2000 نمونه استفاده کرد؟ y یک عدد کامل است <0،15>، x1،x2 واقعی هستند <0،40>؟ من علاقه مند به پیش بینی هستم اگر واضح نباشد. | روشی مناسب برای یادگیری نظارت شده مجموعه داده های کوچک با متغیرهای کم |
61628 | من در حال حاضر در حال انجام تجزیه و تحلیل چالش برانگیز هستم و مطمئن نیستم چگونه ادامه دهم. من سه گروه جداگانه دارم که رویه های متفاوتی داشتند. در هر یک از آنها چهار اندازه گیری وجود دارد (آزمودنی ها 4 بار در طول روز از نظر سطح کورتیزول اندازه گیری شدند). در حالت ساده، منجر به ANOVA دو طرفه می شود (لطفاً من را اصلاح کنید، اگر اشتباه می کنم)، اما یک مشکل وجود دارد. متغیر اندازهگیری شده (کورتیزول) روند کاهشی دارد، بنابراین اگر کورتیزول را صبح قبل از مداخله اندازهگیری کنم، باید در همه گروهها مشابه باشد، اما چگونه میتوان بعداً که مداخلهای انجام شد، تفاوت در سطوح کورتیزول را دریافت کرد؟ مقادیر کورتیزول به طور طبیعی در صبح کمتر از ظهر است و من باید آزمایش کنم که آیا تفاوتی در مداخله وجود دارد یا خیر. | چگونه می توان تفاوت بین گروه ها را مقایسه کرد، زمانی که مقادیر اندازه گیری شده روند کاهشی دارند |
66539 | من سعی می کنم راهی برای پیش بینی تکامل برخی از داده ها در آینده نزدیک با استفاده از منبع داده دیگری پیدا کنم که با آن منبع مرتبط است اما سریعتر تغییر می کند. به عنوان مثال، من قیمت بشکه نفت را دارم، و می دانم که اگر افزایش یابد، به زودی قیمت بنزین در پمپ های خودکار نیز به میزان مشخصی افزایش می یابد. بنابراین من سعی می کنم با استفاده از قیمت بشکه نفت امروز (یا حتی قیمت بشکه نفت در هفته گذشته یا ماه گذشته) قیمت گاز را در 7 روز آینده محاسبه کنم. اولین رویکرد من استفاده از شبکه عصبی برای حل مشکل بود. به طور رضایت بخشی کار می کند، اما بسیار دست و پا گیر است و من معتقدم که باید یک راه آسان تر و ساده تر وجود داشته باشد. | داده های آینده نزدیک را از منبع داده مرتبط دیگری که سریعتر تغییر می کند، پیش بینی کنید |
59047 | چگونه همه آنها نسخه های یک روش آماری پایه هستند؟ | رگرسیون، آزمون t و ANOVA همه نسخههای مدل خطی عمومی چگونه هستند؟ |
30 | کدام روش برای آزمایش الگوریتم های تولید متغیر تصادفی استفاده می شود؟ | آزمایش الگوریتم های تولید تغییرات تصادفی |
23881 | من یک مدل ARIMA(1،1،4) با استفاده از رگرسیور خارجی با خروجی قابل قبول دارم، اما نمی توانم آن را خارج از R تولید کنم. این نتیجه برای مدل است: ضرایب: ar1 ma1 ma2 ma3 ma4 XRegressor[ 1:39، ]_ضریب 0.9500 -1.0202 0.3977 -0.8283 0.6030 0.0084 s.e. 0.1106 0.1999 0.1953 0.2003 0.1526 0.0059 sigma^2 تخمین زده شده به عنوان 9619542: log likelihood=-360.56 AIC=735.11 AICc=738.84: xm با استفاده از 7 فرمول I=76 است. x(t-1)(1+ar1) - ar1*x(t-2) + XRegressor[1:39، ]_coeff* [xreg(t) - (1+ar1)*xreg(t-1) + ar1 *xreg(t-2)] + ma1*e(t-1) + ma2*e(t-2) + ma3*e(t-3) + ma4*e(t-4) دارم استفاده می کنم باقیمانده به عنوان عبارت خطا در فرمول بالا. من میتوانم در یک پیشبینی یک قدم جلوتر به نتیجه درست برسم و برای گامهای بعدی، باقیماندهای برای جایگزینی در فرمول نخواهم داشت. حتی با حذف قسمت MA از مدل، کار نمی کند. آیا من اینجا چیزی را از دست داده ام؟ آیا می توانم بگویم با حذف قسمت MA، اثرات باقی مانده را پاک می کنم؟ پیشاپیش از کمک شما بسیار سپاسگزارم | بازتولید مدل ARIMA خارج از R |
486 | من AIC و AICc را برای مقایسه دو مدل مختلط خطی کلی محاسبه کرده ام. AIC ها مثبت هستند و مدل 1 دارای AIC کمتر از مدل 2 است. با این حال، مقادیر AICc هر دو منفی هستند (مدل 1 هنوز <مدل 2 است). آیا استفاده و مقایسه مقادیر منفی AICc معتبر است؟ | مقادیر منفی برای AICc (معیار اطلاعات Akaike اصلاح شده) |
27647 | نگاهی به داده های تأخیر IO برای یک آرایه ذخیره سازی. هنگامی که یک درایو در شرف از کار افتادن است، یک نشانه افزایش در عملیات IO 'زمان برای تکمیل' است. آرایه لطفاً این دادهها را در این قالب ارائه میکند: کانالهای دیسک زمان ثانیه A B C D E F G H P S 0.017 5e98bd 64008b 62a559 68eb45 676ccf 5d3a86 46242b 62dd2e 697513cf. 1be769 1c372a 185134 19a2c2 21802c 2fa2ba 1d91c4 17b3ca 14cea6 0.050 6638e 3a93b 4b19f 258aa 28b64329d 4 1290d 0.067 2df3 1c17 1f1b 180f 1291 1f05 5201 15f4 1856 10d8 0.083 365 293 2b9 296 269 226 3c20 ae 3 94 aa 92 86 ce 81 9f 91 ... (تکرار زمان تا 2.00 ثانیه افزایش می یابد، شمارش ها به صورت هگز می باشد). ستون سمت چپ زمانی است که IO در آن کامل می شود، و ستون های دیگر تعداد IO ها در برابر یک دوک معین هستند که در آن زمان تکمیل شده است. هنگامی که یک درایو به خرابی نزدیک می شود، دم آن درایو به طور قابل توجهی عریض می شود... جایی که بیشتر درایوها تعداد انگشت شماری IO> 0.2 ثانیه دارند، درایوهای خراب می توانند تعداد زیادی IO را در مدت زمان 0.2 ثانیه دریافت کنند. مثال : زمان کانال های دیسک ثانیه A B C D E F G H P S ... 0.200 4 52d 2 7 3 2 1 6 1 8 0.217 2 2a6 0 1 0 0 1 4 0 1 0.233 0 1a1 0 02 010. 0 1 0 0 1 1 0 1 0.267 0 73 0 0 0 0 0 0 0 0 0.283 0 44 0 0 0 0 0 0 0 0 0.300 0 2d 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.300 0 2d 0 0 0 0 0 0 0 0 بیش از 10 IO بیش از 0.2 ثانیه، اما من به دنبال یک مدل ریاضی بودم که بتواند خرابی ها را با دقت بیشتری شناسایی کند. اولین فکر من این بود که واریانس هر ستون را محاسبه کنم... هر مجموعه ای از درایوها با طیفی از واریانس ها که بیش از حد وسیع باشد، متخلف را علامت گذاری می کند. با این حال، این نشان می دهد که درایوها به طور معمول رفتار می کنند: حداقل واریانس 0.0000437، حداکثر 0.0001250 است. <== یک مجموعه خوب از درایوها حداقل واریانس 0.0000758، حداکثر 0.0000939 است. <== مجموعه ای با یک درایو بد. من در مورد دور انداختن دو ردیف اول از داده ها (بزرگترین آنها با فاصله زیاد) فکر کرده ام و ببینم که آیا شبه واریانس تمیزتر می شود یا خیر، اما انداختن داده ها در سطل زباله من را خوشحال نمی کند. هر ایده دیگری؟ به روز رسانی: در اینجا تابع محاسبه من (در پایتون) است. من فکر نمی کنم یک خطای ریاضی وجود داشته باشد...: def account(moment=1) : حلقه بین ردیف ها، دریافت میانگین و واریانس در هر درایو در ردیف برای ردیف در datadb.keys() : time_list = datadb[tier]['time_list'] del(datadb[tier]['time_list']) برای درایو در sorted(datadb[tier].keys()): جمع = 0 تعداد کل = 0 برای زمان، شمارش در zip(time_list، datadb[tier][drive]): جمع += ( شناور(زمان) ** لحظه) * شمارش totalcount += countcalled_moment = جمع / totalcount moments.setdefault(tier, []).append( (drive,calculated_moment) ) و در اینجا 4 اجرا مختلف وجود دارد که لحظه آن روی 1..4 تنظیم شده است. برای مرجع، ردیف 1 و 2 هیچ مشکلی ندارند. ردیف 12 و 14 دارای دم بلند هستند و باید جایگزین شوند: sum(t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0198504، حداکثر 0.0263216 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0254473، حداکثر 0.0258425 است. بدترین درایو درجه F است. لحظه 12 دقیقه 0.0229226، حداکثر 0.0240188 است. بدترین درایو S لایه 16 دقیقه لحظه 0.0195339، حداکثر 0.0244102 است. بدترین درایو G sum(t*t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0004377، حداکثر 0.0008179 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0007284، حداکثر 0.0007539 است. بدترین درایو درجه F است. لحظه 12 دقیقه 0.0006069، حداکثر 0.0006693 است. بدترین درایو S لایه 16 دقیقه لحظه 0.0004263، حداکثر 0.0007183 است. بدترین درایو G sum(t*t*t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0000111، حداکثر 0.0000295 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0000234، حداکثر 0.0000251 است. بدترین درایو 12 دقیقه درایو 0.0000185 و حداکثر 0.0000222 است. بدترین درایو درجه H است. لحظه 16 دقیقه 0.0000111، حداکثر 0.0000256 است. بدترین درایو G sum(t*t*t*t*n)/sum(n) ردیف 1 دقیقه لحظه 0.0000003، حداکثر 0.0000013 است. بدترین درایو G Tier 2 دقیقه لحظه 0.0000008، حداکثر 0.0000020 است. بدترین درایو سطح E است. لحظه 12 دقیقه 0.0000007، حداکثر 0.0000015 است. بدترین درایو درجه H است. لحظه 16 دقیقه 0.0000004، حداکثر 0.0000046 است. بدترین درایو F است | به دنبال انحرافات در داده های مبتنی بر زمان |
27640 | در مقاله زیر http://fic.wharton.upenn.edu/fic/papers/99/9914.pdf در مورد آسیب های فاجعه بار، جمله ای را خواندم که من را متحیر کرد (ص 23): > برای داده های طوفان که پارتو می دهد سنگین ترین تخمین دم در واقع > برآوردهای MLE از پارامترهای پارتو ($\lambda=177.64$، >$\alpha=0.797$) نشان میدهد که توزیع _پایدار نیست_و لحظهها تعریف نشدهاند. چرا این نشان می دهد که توزیع پایدار نیست؟ من دلیل چنین نتیجه گیری را نمی بینم - توزیع پایدار دارای دم های پارتو مانند است (به صورت مجانبی). آیا منظور او از قانون پارت نیست است؟ دلیل نویسنده برای این گفته چه می توانست باشد؟ دلایل زیادی برای رد یک فاصله پایدار وجود دارد، اما یکی بیان کرد؟ | توزیع پارتو توزیع پایدار را رد می کند؟ |
92215 | من یک سری داده از یک بررسی بودجه خانوار دارم و میخواهم کارهای زیر را در SPSS انجام دهم: سهم مخارج غذا از کل مخارج خانوار را که در صدکهای 45 و 55 در کل نمونه قرار دارند، شناسایی کنید. اگر نظرسنجی شامل یک متغیر وزنی خانوار باشد، محاسبه صدک باید وزن را در نظر بگیرد. من راههای مختلفی را برای تعریف صدک امتحان کردهام، اما مطمئن نیستم که در مورد من چه چیزی درست است. چگونه می توانم این کار را انجام دهم؟ و چگونه می توانم وزن خانوار را در محاسبات لحاظ کنم؟ متشکرم. | صدک 45 و 55 |
49336 | من در این ترم کلاسی را در مورد ادغام توابع چندین متغیر و حساب برداری تدریس می کنم. این کلاس بیشتر از رشتههای اقتصاد و رشتههای مهندسی، با تعداد کمی از افراد ریاضی و فیزیک نیز تشکیل شده است. من ترم گذشته این کلاس را تدریس کردم و متوجه شدم که بسیاری از رشته های اقتصاد در نیمه دوم نسبتاً خسته بودند. من توانستم با انجام محاسباتی با متغیرهای تصادفی توزیع شده مشترک، انتگرالهای متعدد را برانگیختم، اما برای بخش تجزیه و تحلیل برداری درس، تنها انگیزهای که میتوانستم به آن فکر کنم، مبتنی بر فیزیک بود. بنابراین میپرسم آیا کسی تفسیری آماری/احتمالی از هر یک از قضایای اصلی حساب برداری میداند: قضیه گرین، قضیه استوکس، و قضیه واگرایی. بخشی از مشکل این است که به نظر نمیرسد که میدانهای برداری اغلب در تئوری احتمال ظاهر میشوند، چه رسد به واگرایی، گرادیان یا پیچش. من هم چند روز پیش این سوال را در math.stackexchange ارسال کردم، اما همچنان به دنبال ایده های بیشتری هستم. | محاسبات برداری در آمار |
74615 | من یک تجزیه و تحلیل خوشه ای بر اساس مولفه های اصلی انجام دادم. حجم کل نمونه حدود 140 است. اکنون میخواهم تفاوتهای میان خوشهها (با استفاده از مؤلفهها) را در حین انجام یک تجزیه و تحلیل post-hoc شرح دهم. با استفاده از آزمون Levene متوجه شدم که می توان همگنی واریانس ها را فرض کرد. من سوالات زیر را دارم: 1) آیا می توانم توزیع نرمال را برای ANOVA فرض کنم، زیرا مولفه ها تبدیل به z هستند؟ 2) کدام آزمون تعقیبی مناسب است؟ من اندازه ساده نابرابر با توجه به خوشه ها دارم. من ممکن است برای تست Tukey-Kramer بروم. | آزمون تعقیبی در زمینه تحلیل خوشه ای |
74611 | در بسیاری از موارد، قبلی برای $\sigma^2$ طوری انتخاب میشود که با ${1/\sigma^2}$ متناسب باشد. من چند سوال در مورد این دارم: 1. شهود برای انتخاب این قبلی چیست؟ 2. اطلاعات منتقل شده توسط این قبلی چیست؟ آیا به این معنی است که مقدار بالاتر برای $\sigma^2$ احتمال کمتری دارد؟ 3. من می دانم که این یک مقدمه نادرست است، اما آیا غیر آموزنده است؟ متأسفم، من کاملاً مطمئن نیستم که چگونه پیشین های غیر آموزنده با پیشین های نامناسب متفاوت است. | چرا از ${1/\sigma^2}$ به عنوان قبلی برای $\sigma^2$ استفاده کنید؟ |
74617 | صرفاً میخواهم به جای حذف مغرضانه کلمه توقف، کلماتی را که در اسناد آموزنده نیستند، برای طبقهبندی حذف کنم. آیا ابزاری وجود دارد که بتواند در این راه به من کمک کند؟ من NLTK را می شناسم اما یک حذف کننده کلمه توقف ساده ارائه می دهد. | ابزاری که می تواند به من در یافتن کلمات غیر آموزنده در اسناد برای طبقه بندی و حذف آنها کمک کند چیست؟ |
74612 | من از شما برای ایجاد برآوردگر حداکثر احتمال (MLE) و CRLB در مورد زیر کمک میخواهم: با توجه به یک بردار دوبعدی (نقطهای در صفحه XY) $ p = ({x}_{p}، {y}_{ p}) $. اندازهگیریها اندازهگیریهای پر سر و صدای این ورودیهای برداری و هنجار آن هستند. یعنی بردار اندازه گیری $ m = ({x}_{m}، {y}_{m}، {r}_{m}) $ است. جایی که توزیع آنها به صورت زیر داده میشود: $$ {x}_{m} \sim N({x}_{p}، {\sigma}_{x})، {y}_{m} \sim N({y}_{p}، {\sigma}_{y})، {r}_{m} \sim N(\sqrt{{x}_{p}^{2} + {y}_ {p}^{2}}، {\sigma}_{r}) $$ یعنی اندازهگیریها به طور معمول توزیع شده، بیطرفانه و مستقل از یکدیگر هستند. پارامترهایی که باید تخمین بزنند $ \Theta = ({x}_{p}، {y}_{p}) $ هستند با توجه به بردار اندازهگیری $ m = ({x}_{m}، {y}_{m} ، {r}_{m}) $ همانطور که در بالا تعریف شد. به عبارت ساده، مختصات نقطه ای را در صفحه دوبعدی با توجه به اندازه گیری نویز مختصات آن و برد / فاصله آن از (0، 0) تخمین بزنید. خوشحال میشوم راهحلها، ایدهها، مقالات مرتبط و CRLB (یا هر حد پایین دیگری در برآورد) را بشنوم. متشکرم | تخمین (MLE) ورودیهای برداری دوبعدی توسط نمونههای پر سر و صدا از ورودیهای آن و هنجار آن |
61626 | اول از همه از شما برای انجمن عالی تشکر می کنم! من یک سوال در مورد مدل های خطی تعمیم یافته (GLM) دارم. متغیر وابسته من (DV) پیوسته است و نرمال نیست. بنابراین من وارد سیستم شدم آن را تبدیل کردم (هنوز عادی نیست اما آن را بهبود بخشید). من می خواهم DV را با دو متغیر طبقه بندی و یک متغیر کمکی پیوسته مرتبط کنم. برای این من می خواهم یک GLM انجام دهم (من از SPSS استفاده می کنم) اما مطمئن نیستم که چگونه در مورد توزیع و عملکرد انتخاب کنم. من آزمون ناپارامتریک لوین را انجام داده ام و دارای همگنی واریانس هستم، بنابراین تمایل به استفاده از توزیع نرمال دارم. من خوانده ام که برای رگرسیون خطی، داده ها نیازی به نرمال بودن ندارند، باقی مانده ها این کار را انجام می دهند. بنابراین، من باقیمانده های پیرسون استاندارد شده و مقادیر پیش بینی شده برای پیش بینی خطی را از هر GLM به صورت جداگانه چاپ کرده ام (عملکرد هویت عادی GLM و تابع گزارش نرمال). من تست های نرمال (هیستوگرام و Shapiro-Wilk) انجام داده ام و باقیمانده ها را در برابر مقادیر پیش بینی شده (برای بررسی تصادفی بودن و واریانس) برای هر دو به صورت جداگانه رسم کرده ام. باقیمانده های تابع هویت نرمال نیستند اما باقیمانده های تابع log نرمال هستند. من تمایل به انتخاب عادی با تابع پیوند ورود دارم زیرا باقیمانده های پیرسون به طور معمول توزیع می شوند. بنابراین سؤالات من این است: \- آیا می توانم از توزیع نرمال GLM با تابع پیوند LOG در یک DV که قبلاً تبدیل شده است استفاده کنم؟ \- آیا آزمون همگنی واریانس برای توجیه استفاده از توزیع نرمال کافی است؟ \- آیا روش بررسی باقیمانده برای توجیه انتخاب مدل تابع پیوند صحیح است؟ تصویر توزیع DV در سمت چپ و باقی مانده از GLM نرمال با عملکرد پیوند ورود به سیستم در سمت راست.  | من متغیر وابسته من را تغییر دادم، آیا می توانم از توزیع نرمال GLM با تابع پیوند LOG استفاده کنم؟ |
375 | > **تکراری احتمالی:** > آزمایش الگوریتم های تولید تغییرات تصادفی چه روشی برای آزمایش یک سری از اعداد برای دیدن تصادفی بودن (یا حداقل تصادفی بودن آنها) وجود دارد؟ آیا معیار آماری خوبی برای تصادفی بودن وجود دارد که بتوان از آن برای تعیین تصادفی بودن یک مجموعه استفاده کرد؟ مهمتر از آن، چگونه می توان ثابت کرد که یک روش تولید اعداد تصادفی است؟ | آزمایش (و اثبات) تصادفی بودن اعداد |
92211 | من دو مجموعه داده از دو آزمایش دارم. همه داده ها را می توان به سه کلاس تقسیم کرد، به عنوان مثال: $$\begin{array}{cccc}\rm{Parameter}1&\rm{Parameter}2 ...&\rm{Parameter}N&\rm{Class}\\ \\\hline a_1&b_1&c_1&A\\\a_2&b_2&c_2&B\\\a_3&b_3&c_3&C\\\\...\end{array}$$ مقادیر پارامترها یک کلاس را تعریف می کنند. من می خواهم معیارهایی را بر اساس یک مجموعه داده (با کلاس های از پیش تعیین شده) ایجاد کنم تا بتوانم کلاس ها را به مجموعه داده دوم اختصاص دهم. از آنجایی که همه پارامترها معنای خاصی دارند، من نمیخواهم یک روش جعبه سیاه مانند شبکههای عصبی داشته باشم، اما میخواهم چیزی شبیه این داشته باشم: «اگر Parameter1 کمتر از X باشد و Parameter2 در بازه [Y، Z] سپس کلاس A است. بهترین راه برای انجام آن چیست؟ آیا چنین راهی در پایتون پیاده سازی شده است؟ | از چه روش طبقه بندی استفاده کنید |
8570 | من به دنبال یک مرجع (یا مراجع) محکم در مورد تکنیکهای بهینهسازی عددی با هدف آماردانان هستم، یعنی این روشها را برای برخی مسائل استنتاجی استاندارد (مانند MAP/MLE در مدلهای رایج) به کار میبرد. چیزهایی مانند نزول گرادیان (مستقیم و تصادفی)، EM و اسپینآفها/تعمیمهای آن، بازپخت شبیهسازی شده، و غیره. لازم نیست کاملاً صریح باشد، اما حداقل باید یک کتابشناسی محکم ارائه کند. برخی از جستجوهای گذرا چند متن پیدا کرد: تحلیل عددی برای آماردانان اثر کن لانژ و روشهای عددی آمار توسط جان موناهان. بررسی های هر یک به نظر می رسد مخلوط (و پراکنده). از بین این دو، مطالعه فهرست مطالب نشان میدهد که ویرایش دوم کتاب لانگ به آنچه من در پی آن هستم نزدیکترین است. | منابع بهینه سازی عددی برای آماردانان |
35746 | چرا افزودن متغیر سنی باعث افزایش واریانس شیب تصادفی (زمان ورود به سیستم) می شود؟ آیا قرار نیست با اضافه شدن یک متغیر کمکی کاهش یابد؟ اولاً، فقط $log(time)$ در مدل با قطع تصادفی و شیب تصادفی وجود دارد. $Y=(b_0+e_{b0})+(b_1+e_{b1})*log(time)+e$ سپس سن را به عنوان متغیر کمکی اضافه می کنم:(همچنین با قطع تصادفی و شیب تصادفی) $Y=(b_0+ e_{b0})+(b_1+e_{b1})*log(time)+b_2*سن+e$ دریافتم که واریانس تصادفی شیب در مدل اول حتی کمتر از مدل دوم است. من خیلی گیج شدهام، آیا لزوماً درست است که افزودن یک متغیر کمکی به مدل منجر به واریانس کوچکتر شیب تصادفی میشود؟ آیا توضیح ممکنی وجود دارد؟ | چرا افزودن متغیر سنی باعث افزایش واریانس شیب تصادفی (زمان ورود به سیستم) می شود؟ |
74614 | من دو مجموعه از نمونه ها را مقایسه می کنم، X=(x1، x2، ...) و Y=(y1، y2، ...)، که در آن xn و yn یک عدد صحیح (عدد گسسته) از 2-14 هستند که نشان دهنده شمارش یک رویداد خاص که توسط n تولید شده است. مجموعه ها از نظر اندازه متفاوت هستند (X دارای 10000 نمونه و Y دارای 4000 نمونه). هیستوگرام X و Y شبیه توزیع پواسون است. نمودار جعبه X & Y یکسان به نظر می رسد. آمارهای اضافی از دو مجموعه عبارتند از: n میانگین sd میانه حداقل حداکثر محدوده چولگی کشش se X: 10070 3.18 1.76 3 2 14 12 2.37 7.12 0.02 Y: 4003 3.35 1.82 3 1 25 14. آزمون U Mann-Withney (با استفاده از R) روی X & Y (با آلفا=0.95) p-value=1.218e-11 را تولید کرد، در حالی که فاصله اطمینان 95% [-2.475213e-05، -2.503970e- است. 06]. بنابراین، آزمون می گوید که X و Y متفاوت هستند، اما میانه تفاوت ها تقریباً صفر است (همانطور که با فاصله اطمینان نشان داده شده است). چگونه می توانم این یافته را بیشتر توجیه یا تفسیر کنم؟ به نظر من این تفاوت، در عمل، مهم نیست، زیرا بسیار بسیار کوچک است. نمی دانم که آیا آزمون من ویتنی برای مورد من مناسب است؟ اگر نه، پس چه گزینه هایی برای در نظر گرفتن وجود دارد؟ در ابتدا فقط می خواهم بررسی کنم که آیا این دو جمعیت یکسان نیستند. من خوانده ام که من ویتنی میانه تفاوت ها را می دهد (طبق صفحه راهنمای R)، یا برخی ادبیات می گویند که میانگین رتبه را مقایسه می کند، اما حتی در این مورد، نگرانی من این است که فاصله اطمینان تولید شده به صفر نزدیک شود. . | آزمون من ویتنی روی دو مجموعه داده اریب (پواسون) H0 را رد می کند اما فاصله اطمینان تقریباً صفر است. |
32214 | من نمیپرسم آیا قوانین کلی خوبی برای انتخاب الگوریتم استنتاج تقریبی برای یک مسئله/مدل (مخصوصاً زمانی که استنتاج دقیق غیرقابل حل است) وجود دارد؟ هنگامی که با مشکلی مواجه می شوید، چه مواردی را هنگام انتخاب یک رویکرد برای استنتاج در نظر می گیرید (مانند MCMC، انتشار باور، تنوع و غیره)؟ | نحوه انتخاب یک الگوریتم برای استنتاج تقریبی بیزی |
32212 | من دادههایی از یک مطالعه با موضوع انسانی دارم که بهعنوان یک آزمایش 3×2 (سیستم بر اساس نوع کار) با 24 شرکتکننده تنظیم شده بود. هر شرکت کننده در مجموع 6 کار را انجام داد که یکی از آنها از 3 سیستم و 2 نوع کار استفاده می کرد. من دو معیار عملکرد دارم: اولی زمان تکمیل و دومی امتیاز تکمیلی است که به انسان اختصاص داده شده است. اگر کار به درستی انجام شده باشد، امتیاز یا 1 است یا اگر کار اشتباه انجام شده باشد 0 است. بنابراین، برای داده های زمانی من از یک RM-ANOVA پایه استفاده کرده ام. با این حال، من در مورد اینکه چگونه باید با داده های امتیازی رفتار کنم، متحیر هستم. از یک طرف امتیاز باینری است، و از آنجایی که در هر سیستم تنها یک آزمایش بر اساس ترکیب نوع کار وجود دارد، توزیع نمی تواند نرمال باشد. از سوی دیگر، این دادههای امتیازی است، مانند نتایج یک آزمون درست و نادرست، و بنابراین چرا باید به طور متفاوت با آن برخورد شود که نمره ۱۰۰ سؤال داشته باشد (در این صورت میتوانم اجرا کنم و RM-ANOVA، درست است؟) . فکر می کنم در اینجا یک فرض اساسی را از دست داده ام. | چگونه می توان تفاوت در داده های امتیاز باینری را آزمایش کرد؟ |
61088 | من یک مشکل کوچک در رابطه با انجام یک تحلیل مقطعی با استفاده از مجموعه داده های طولی دارم. من مجموعه ای از کشورها (87 کشور)، با مشاهدات مختلف اندازه گیری شده در سال های مختلف دارم (به عنوان مثال [کشور]، [سال]، [X]: هلند، 1990، 0.5؛ هلند 1991، 0.3؛ آلمان 1991، 0.4). **روش 1** اکنون اگر من یک تحلیل مقطعی انجام می دهم، همه مشاهداتم را از یک سال انتخاب می کنم (یعنی $Y_{1990، i}=\alpha + \beta \cdot X_{1990، i}$) ، درست می گویم؟ با این حال، مشکل این است که من فقط حدود 24 مشاهده خواهم داشت، در حالی که تعداد کل مشاهدات 150 است، به این معنی که در هر سال فقط زیر مجموعه ای از 87 کشور اندازه گیری می شود. **روش 2** بنابراین برای افزایش میزان مشاهدات، می توانم سال ها را نادیده بگیرم. با ارائه 150 مشاهده به من، با این حال، من فکر می کردم که این چه نوع سوگیری ایجاد می کند. من مطمئن هستم که این باعث ایجاد نوعی سوگیری خواهد شد، زیرا برخی از کشورها در چندین سال نمونه گیری شده اند. **روش 3** روش متفاوتی در نظر گرفتن میانگین کشورهایی است که در چند سال نمونه گیری شده اند، البته این منجر به 87 مشاهده می شود. من همچنین متعجبم که این روش چگونه بر تخمین های من تأثیر می گذارد و چه نوع سوگیری هایی را ایجاد می کند. بنابراین سؤالات من این است که با توجه به هر سه روش که باید از کدام یک استفاده کنم و این روش ها چه نوع سوگیری هایی را معرفی می کنند (تئوری، شاید برخی از مراجع). من همچنین در حال تعجب بودم که آیا «روشهای جایگزین» وجود دارد. پیشاپیش از پاسخ شما متشکرم! | تحلیل مقطعی با استفاده از داده های طولی، بهترین روش چیست؟ |
51396 | نحوه یافتن توزیع $$\sum_{i=1}^n (X_i - X_{1:n})، $$ که در آن $X_i$ i.i.d است. متغیرهای تصادفی و $X_{1:n} = \min(X_1,X_2,...,X_n)$؟ من باید توزیع را در یک مورد خاص پیدا کنم، اما برای اثبات کلی سپاسگزار خواهم بود. * * * (به عنوان یک علامت، $X_{i:n}$ عموماً به معنای کوچکترین $i$th از $n$ مقادیر $(X_1، X_2، \ldots، X_n)$ است.) | توزیع متغیر |
59044 | من روزها را صرف تلاش برای تعیین تفاوت بین این دو روش کرده ام، که به بهترین نحو می توانم بگویم که نشان دهنده رویکردهای تک متغیره و چند متغیره برای طراحی درون موضوعی است. آیا کسی می تواند به من بگوید که چرا این دو آنالیز مقادیر F متفاوتی را برای تأثیرات خود دریافت می کنند؟ در اینجا دادههای نمایشی به شکلی است که اندازهگیریهای تکراری از آن استفاده میکنند: داده گسترده. موضوع ورودی DV11 DV12 DV13 DV21 DV22 DV23 DV31 DV32 DV33 ; کارت؛ 1 36 52 55 60 68 64 40 42 44 2 30 32 34 40 42 44 20 22 24 3 -10 -8 -6 0 8 6 -30 -25 -15 ; اجرا؛ و تجزیه و تحلیل: داده های PROC GLM = گسترده. موضوع کلاس؛ مدل dv11 dv12 dv13 dv21 dv22 dv23 dv31 dv32 dv33 = /nouni; ضریب تکراری 1 3، ضریب 2 3; اجرا؛ فاکتور 1 دارای F(2,4) = 48.35 است. فاکتور 2 دارای F(2,4) = 11.5 است. برهمکنش F(4,8) = 0.65 دارد. برای رویکرد دیگر، که من فرض میکنم رویکرد چند متغیره است (اگر اشتباه میکنم، مرا تصحیح کنید!)، دادهها را به عنوان یک بردار مسطح میخوانیم که با سطوح عوامل درون موضوعی برچسبگذاری شده است: Data Narrow. مقدار ضریب 1 موضوع ورودی؛ کارت؛ ۱ ۱ ۱ ۳۶ ۱ ۱ ۲ ۵۲ ۱ ۱ ۳ ۵۵ ۱ ۲ 1 40 2 2 2 42 2 2 3 44 2 3 1 20 2 3 2 22 2 3 24 3 1 1 -10 3 1 2 -8 3 1 3 -6 3 2 1 0 3 2 2 8 3 2 3 3 3 -30 3 3 2 -25 3 3 3 -15؛ اجرا؛ و تجزیه و تحلیل: PROC GLM data=Narrow; فاکتور1 موضوع کلاس 2; مقدار مدل = factor1|factor2 موضوع; اجرا؛ این بار نتایج ما عبارتند از: عامل 1 F(2،16) = 77.57، ضریب 2 F(2،16) = 7.70، تعامل F(4،16) = 0.56. آیا کسی می تواند توضیح دهد که چرا این تجزیه و تحلیل ها نتایج متفاوتی دارند؟ من با روش دوم راحت تر هستم، اما روش اول به طور سنتی در رشته من ترجیح داده می شود. به روز رسانی: همانطور که می توانم بگویم، تفاوت ها این است که: 1. PROC GLM بر اساس حداقل مربعات معمولی است، در حالی که PROC MIXED از حداکثر احتمال استفاده می کند. این تفاوت به همین دلیل است که MIXED می تواند obs های از دست رفته را مدیریت کند اما REPEATED نمی تواند. 2. تجزیه و تحلیل اندازه گیری های مکرر تفاوت های زوجی را تجزیه و تحلیل می کند، در حالی که اثرات مختلط این کار را نمی کند. بنابراین، اندازهگیریهای مکرر شامل یک فرض کروی (واریانس ثابت تفاوتهای زوجی) میشود، در حالی که MIXED نرمال بودن مشاهدات خام را فرض میکند (؟). نگرانی ها در مورد: نقض کروییت (؟) منابع: http://www.ats.ucla.edu/stat/sas/library/GLMvsMIXED_os.htm و http://www.ats.ucla.edu/stat/sas/library/mixedglm.pdf | تفاوت بین GLM با رهگیری موضوع در مقابل ANOVA با اندازه گیری های مکرر؟ [کد SAS] |
8573 | توزیع احتمال دو کلاس توسط $N(5,1)$ و $N(6,1)$ داده می شود که در آن $N(\mu,\sigma^2)$: $$f(x) = \frac{1 }{\sqrt{2\pi \sigma^2}} e^{-\frac{(x-\mu)^2}{2\sigma^2}} $$ * نحوه طبقه بندی آنها و مشاهده میزان خطا ? من این کار را در متلب انجام می دهم و از هر توزیع 500 نمونه می گیرم و بسته به اینکه از کجا آمده اند آنها را برچسب گذاری می کنم. نمونه 1 = 0.8864 -1.0000 0.1560 -1.0000 0.8502 -1.0000 -0.4059 -1.0000 0.9298 -1.0000 نمونه2 = -0.0671 1.0000 0.703070.01 1.0000 -0.7314 1.0000 -0.4524 1.0000 داده = 0.8864 -1.0000 0.1560 -1.0000 0.8502 -1.0000 -0.4059 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000 -1.0001 -0.7314 1.0000 0.7057 1.0000 0.3310 1.0000 -0.7314 1.0000 -0.4524 1.0000 اکنون میخواهم آنها را با استفاده از Bayes طبقهبندی کنم، من از «normpdf» استفاده میکنم، برای آسانتر کردن این کار، من از قاعدههای قبلی استفاده میکنم، اما احتمالهای قبلی را ایجاد میکنم. نمی دانم چگونه این را در آن کدنویسی کنم متلب، نظری دارید؟ n=500; sample1=[randn(n,1) -1*ones(n,1)]; sample2=[randn(n,1) ones(n,1)]; data=[sample1; نمونه2]; mu1 = 5; sigma1 =1; mu2 = 6; sigma2 =1; x1=linspace(mu1-1*sigma1,mu1+1*sigma1,500); p1=normpdf(x1,mu1,sigma1); x2=linspace(mu2-1*sigma2,mu2+1*sigma2500); p2=normpdf(x2,mu2,sigma2); نمودار (x1,p1,x2,p2) همچنین آیا برچسب گذاری با '-1 و 1' صحیح است؟ اگر میانگین و واریانس «نمونه 1 و نمونه 2» را محاسبه کنم؟ mean_S1=mean(sample1); mean_S2=mean(sample2); var_S1 = var(sample1); var_S2 = var(sample2); \- مرحله بعدی چیست؟ \- برای نرخ خطا من قصد دارم بین بردار کلاس اصلی (-1،1) و نتیجه طبقهبندی کننده مقایسه کنم: errorRate = mean(OriginalClasses ~= ResultOfClassifier); _**_**به روز رسانی شده* _*_** واضح؛ clc; n = 500; mu1 = 5; sigma1 =1; mu2 = 6; sigma2 =1; mu = [mu1,mu2];sigma = [sigma1,sigma2]; % آنها را گروه بندی کنید %فرض کنید داده های آزمایشی خود را از جایی دریافت می کنید. % برای ضربات، داده های تصادفی را در: %xtest = randn(2*n,1); کد نمونه %OP دارای برچسبهایی در data var است. ack sample1=[randn(n,1) -1*ones(n,1)]; sample2=[randn(n,1) ones(n,1)]; data=[sample1; نمونه2]; انحراف = bsxfun(@minus,data,mu); %tbc deviance = bsxfun(@rdivide,deviance,sigma); %tbc deviance = انحراف .^ 2; %tbc deviance = bsxfun(@plus,deviance,2*log(abs(sigma))); %tbc deviance = deviance + log(2*pi); در واقع در اینجا ضروری نیست. [ساختگی، مینی] = min(انحراف،[]،2); % پیدا کردن کدام کلاس; ResultOfClassifier = 2 * mini - 3; % اکنون یک -1/1 errorRate = mean(data(:,2) ~= ResultOfClassifier) errorRate = 0.2680 است | طبقه بندی بیز دو توزیع نرمال در متلب |
51390 | من مشکل زیر را دارم: باید تصمیم گرفت. به طرز متناقضی، ارزش دارد که در تصمیم گیری فقط تا حدی درست باشد، بگویم می خواهم در 60 درصد مواقع درست باشم. یعنی $p(\text{تعدیل صحیح})=0.6$. من از تجربه می دانم که در 90 درصد مواقع می توانم به درستی تصمیم بگیرم، مثلاً $p(\text{من درست هستم})=0.9$. بعد از اینکه تصمیمم را گرفتم، می توانم به جای آن از شخص دیگری بخواهم که تصمیم بگیرد. این شخص بسیار ساده لوح است و فقط در 10 درصد مواقع می تواند تصمیم درستی بگیرد، یعنی $p(\text{نظر جایگزین صحیح})=0.1$. چند درصد از تصمیمات را به آدم ساده لوح اجازه دهم؟ راه حل من: اجازه دهید $x$ نسبت تصمیم گیری شده توسط فرد ساده لوح باشد. $0.1x+0.9(1-x)=0.6$$x=0.375$ آیا این درست است؟ اگر این دو تصمیم مستقل از یکدیگر نباشند چگونه این تغییر خواهد کرد؟ یعنی اگر دقت انتخاب افراد ساده لوح به نحوی به انتخابی که خودم انجام داده ام بستگی داشته باشد چه؟ بگویید اگر تصمیم الف را بگیرم، فرد ساده لوح 30 دلار درصد در انتخابش درست است، اگر تصمیم B را بگیرم، فرد ساده لوح 20 دلار در انتخابش درست است، و اگر تصمیم C را بگیرم، آن فرد ساده لوح است. 10 دلار در انتخاب خود درست است. | چگونه احتمالات را در این سناریوی تصمیم گیری محاسبه کنم؟ |
63347 | من در حال خواندن یادداشت سخنرانی از دانشگاه کمبریج در مورد رتبهبندی احتمالی هستم و آنها ادعا میکنند که ثابت نرمال شده در فرمول زیر یک شکل بسته دارد اما نمیتوانم ثابت کنم. لطفا به من کمک کنید تا این رابطه را مدیریت کنم؟ $\int_{-\infty}^{\infty}\int_{-\infty}^{\infty} \mathcal{N}(w_1; \mu_1, \sigma^2_1)\mathcal{N}(w_2; \ mu_2، \sigma^2_2) \Phi(y(w_1 - w_2)) \, \mathrm{d}w_1 \mathrm{d}w_2 = \Phi ( \frac{y(\mu_1 - \mu_2)}{\sqrt{1+ \sigma^2_1 + \sigma^2_2}})$ در این مورد، $\Phi(t ) = \int_{-\infty}^t \mathcal{N}(x; 0، 1)\، \mathrm{d}x$ و $\mathcal{N}$ نشان دهنده توزیع نرمال است. $y$ مشاهده است و مقدار آن +1 یا -1 است. یک اشاره ای که آنها می دهند $\int_{-\infty}^{\infty} \delta(y - sign(t)) \mathcal{N}(t; \mu, \sigma^2) \,\mathrm{ d}t = \Phi(\frac{y\mu}{\sigma}) $ $ \Phi(y(w_1 - w_2)) = \int_{-\infty}^{\infty} \delta(y-sign(t)) \mathcal{N}(t؛ w_1 - w_2,, 1) \, \mathrm{d}t$. $\delta$ تابع دلتای دیراک است که به عنوان نشانگر در مورد متغیرهای پیوسته استفاده می شود. با این حال، من گیر کردم و نمی دانم چگونه این را ثابت کنم. لطفا کمکم کنید تا ثابت کنم؟ متشکرم. نام P/S: لینک اسلاید http://mlg.eng.cam.ac.uk/teaching/4f13/1213/lect0607.pdf است و این دوره قبلاً تمام شده است. | عادی کردن ثابت خلفی |
32210 | فرض کنید من سعی می کنم $E(y | x_1، x_2،...)$ را تخمین بزنم. مجموعه داده دارای دو زیرمجموعه است، مثلاً URBAN و RURAL. آمار توصیفی دو زیرمجموعه بسیار متفاوت است، همانطور که ضرایب حاصل از رگرسیون به طور جداگانه اجرا می شوند. به عنوان مثال، من می توانم ببینم که $E(y|x_1)$، $E(y|x_2)$ و غیره همه برای URBAN مثبت و همه منفی برای روستایی هستند. در این مورد، آیا اجرای یک رگرسیون تلفیقی با فعل و انفعالات وارد شده هنوز موجه است؟ یا فرض می کنیم که دو نمونه واقعاً از دو جمعیت متفاوت هستند و بنابراین مدل ها باید جداگانه تخمین زده شوند؟ آیا راهی برای آزمایش (تکرارگرا یا بیزی) وجود دارد که این دو نمونه از یک جامعه اصلی آمده باشند؟ | نمونه های استخری که خیلی متفاوت به نظر می رسند؟ |
65297 | من تعجب می کنم که چگونه می توانم آزمایش کنم که آیا یک دنباله داده واقعا تصادفی است؟ البته می توانم به طور تصادفی آن را به قطعات مساوی برش دهم و بررسی کنم که آیا ضریب همبستگی بین قطعات مختلف به طور متوسط صفر است یا خیر. اما آیا این کافی است؟ یا اگر این بهترین راه برای انجام آن است؟ متشکرم | چگونه بررسی کنیم که یک توالی داده واقعا تصادفی است؟ |
61086 | من تجزیه و تحلیل خوشهای را اجرا میکنم (با استفاده از «mclust» در «R») و سپس به دنبال این هستم که ببینم آیا گروهبندیهای مختلف دادههای شناخته شده (بر اساس فراداده) ارتباط بین خوشهها و گروههای فراداده را نشان میدهند. برای هر جدول خوشه/گروه، از آزمون مجذور کای استفاده میکنم، و از آنجایی که روشهای متعددی برای گروهبندی دادهها وجود دارد، من به سادگی از یک تصحیح بونفرونی روی مقادیر p به دست آمده استفاده میکنم. من در پیدا کردن منابع خوب برای نحوه تفسیر تداعیهای فردی مشکل داشتم، اما درک من در حال حاضر این است که میتوانم اهمیت یک ارتباط معین را با تبدیل باقیمانده استاندارد شده هر سلول به یک مقدار p با استفاده از توزیع نرمال تعیین کنم. (`p = 2*pnorm(-abs(stdres))`). آیا این درست است، و علاوه بر این، آیا درست است که این مقادیر را بر اساس اندازه جدول داده شده _not_ تنظیم کنیم؟ من چیزی ندیدم که پیشنهاد دهد باید چنین اصلاحی را انجام دهم، بنابراین فرض میکنم غیرضروری است. اگر چنین است، پس با توجه به این واقعیت که من چندین جدول را آزمایش میکنم، آیا باید به سادگی مقدار p هر سلول را در تعداد جداول ضرب کنم تا به تصحیح آزمایش چندگانه درست برسم؟ | تصحیح تست چندگانه برای باقیمانده مجذور کای |
51391 | من باید از افزایش داده ها استفاده کنم و بر اساس دانستن $x_1،...x_m$، احتمال آن را بنویسم. قبلی در $θ \sim \text{Gamma}(1,1)$ $i=1,\dots,m$ $j=1,\dots,n$$Y_{ij} \sim \text{Po} (X_i)$ $X_i \sim \text{Exp}(\theta)$ | نحوه یافتن توزیع پسین $\theta$ با توجه به $Y_{ij}$ که در آن $Y_{ij} \sim \text{Po}(X_i)$ |
23887 | من مدل خطی زیر را دارم:   برای پرداختن به ناهمگنی باقیمانده، سعی کردم یک تبدیل log را روی متغیر وابسته به عنوان $\log(Y + 1)$ اعمال کنم، اما من همچنان همان را می بینم. از بین بردن اثر بر روی باقیمانده ها. مقادیر DV نسبتاً کوچک هستند، بنابراین اضافه کردن ثابت +1 قبل از گرفتن گزارش احتمالاً در این مورد مناسب نیست. > خلاصه (Y) حداقل :-0.0005647 اول اول: 0.0001066 میانه: 0.0003060 میانگین: 0.0004617 سومین چهارم: 0.0006333 حداکثر. : 0.0105730 NA's :30.0000000 چگونه می توانم متغیرها را برای بهبود خطای پیش بینی و واریانس، به ویژه برای مقادیر برازش منتهی به سمت راست، تبدیل کنم؟ | ناهمگونی مدل خطی |
56547 | اگر من یک مدل رگرسیون لجستیک با 3 پیشبینیکننده داشته باشم، $x_1$، $x_2$، $x_3$، و سپس $x_3$ را از مدل خود حذف کنم (در سمت چپ فقط $x_1$ و $x_2$)، آیا آن مدلها تودرتو هستند. ? و بنابراین می توانم از آزمون نسبت درستنمایی ($\chi^2$ با 1 df در این مورد) برای آزمایش اینکه آیا x_3$ برای نگه داشتن در مدل ضروری است استفاده کنم. یا این مدل ها به دلیل اینکه دقیقاً متغیرهای مشابهی را در بر نمی گیرند، تو در تو نیستند؟ | مدل های تودرتو برای تست احتمال |
101084 | اجازه دهید $X_1، \cdots، X_n$ متغیرهای تصادفی عادی $iid$ با میانگین ناشناخته $\mu$ و واریانس شناخته شده $\sigma^2$ باشند. چگونه $E[\Phi(\bar X)]$ را پیدا کنیم، لطفاً $\bar X:=\frac{\sum_{i=1}^nX_i}{n}$؟ حدس میزنم پاسخ باید $\Phi(\mu)$ باشد. در اینجا نحوه شروع من است. توجه داشته باشید که $Y:= \bar X$ با میانگین $\mu$ و واریانس $\frac{\sigma^2}{n}$ نیز عادی است. $$E[\Phi(\bar X)] = \int_{-\infty}^\infty \Phi(y) f_Y(y)dy،$$ که $\Phi(\cdot)$ cdf استاندارد است متغیر تصادفی عادی من نمی توانستم بیشتر از این از اینجا ادامه دهم. کسی میدونه چیکار کنم لطفا؟ متشکرم | چگونه این انتگرال را پیدا کنیم |
22685 | کدام توزیع با داده های زیر مطابقت دارد؟ دادهها توسط این فرآیند تولید میشوند: $X_t، \, t=\\{1,2,3,\ldots,n\\}$ برابر است با 1 با احتمال $p$ و 0 با احتمال $(1-p) $ برای هر $t$. توزیع شکاف ها بین هر وقوع 1 چگونه است؟ سری مثال: $0,0,1,0,0,1,1,0,1,0,1,0,1,0,0,0,1$ شکافهای $2,0,1,1,1,3 می دهد $. اگر من $p$ را نمی دانم چگونه آن توزیع را متناسب کنم؟ $p$ تنها پارامتر آزاد آن توزیع خواهد بود، همچنین $\hat p = \frac{n_1}{n}$، که در آن $n_1$ تعداد یکهای موجود در سری است که یک تخمینگر بیطرفانه رایگان است. پارامتر در آن توزیع | توزیع طول شکاف ها بین وقوع یک ها در فرآیند برنولی چگونه است؟ |
52842 | ابتدا از کسانی که در تاپیک قبلی در این سایت اطلاعات مفیدی در مورد این پروژه به من دادند تشکر می کنم. من در این مرحله یک سوال جدید در مورد مکانیک MI (استفاده از MI از طریق معادلات زنجیره ای) دارم: سه مجموعه از متغیرها که من می توانم به طور منطقی فرض کنم که به هم مرتبط نیستند. بیایید مجموعه 1 را شرایط، 2 اضافه و 3 را مدیریت فراخوانی کنیم. من هم نتیجه گرفتم مجموعه داده من همه کارآزماییهای تصادفیسازی و کنترلشده است، و منطقی است که فرض کنیم شرایط، اضافات و مدیریت همگی متعامد با یکدیگر هستند - اگر بین این سه همبستگی وجود داشته باشد، از این نظر که نمیتواند پیشبینی کند، جعلی است. داده های جدید، و اساسا یک تصادف است. (این با داده های رصدی صادق نیست). هر یک از این مجموعه متغیرها دارای داده های گمشده هستند (به جز نتیجه). از آنجایی که مجموعه متغیرها متعامد با یکدیگر هستند، من سه مدل مجزا برای سه مجموعه تنظیم کردم. از این گذشته، چگونه داده های مربوط به مدیریت می توانند شرایط را پیش بینی کنند؟ هر گونه اطلاعات اضافی در اینجا جعلی است. اما سپس چند مقاله خواندم که میگفتند باید نتیجه را در مدل انتساب قرار دهم. با فکر کردن به آن، می بینم که چرا منطقی است. اما اکنون یک مشکل دارم: «مدیریت» نتیجه را پیشبینی میکند، و نتیجه میتواند «شرایط» را پیشبینی کند. فرض متعامد من سطل زباله است، اینطور نیست؟ دلیل اینکه من سه مدل جداگانه را مشخص کردم این است که مشاهدات بر اساس شرایط و اضافه ها خوشه بندی می شوند و این دو سطح با هم همپوشانی دارند. مدلسازی جداگانه آنها بسیار راحتتر از ساختن برخی از مدلهای انتساب چند سطحی پیچیده بود. بنابراین، فراتر از درخواستها برای توصیههای کلی در مورد چگونگی فکر کردن در مورد این نوع مشکل، سؤال خاص من این است: اگر تنها راهی که سه مجموعه از متغیرها با هم مرتبط هستند، از طریق نتیجه است، و من برای نتیجه در انتساب کنترل میکنم. مدلها، آیا میتوانم همانطور که قبلاً انجام میدادم بدون سوگیری برانگیختگیهایم از ارزشهای واقعی (یا به نوعی بهینه) آنها ادامه دهم؟ اگر نه، آیا بستههای نرمافزاری موجود، MI را با این نوع دادههای چندسطحی مدیریت میکنند؟ من در حال نوشتن کد خودم بودهام (معمولاً تا زمانی که خودم چیزی را پیادهسازی نکردهام از استفاده از نرمافزارهای کنسرو شده امتناع میکنم)، اما احساس میکنم مکانیزم آنقدر به دست میآید که در صورت لزوم میتوانم به سراغ چیزهای آماده بپرم. پیشاپیش ممنون | مجموعه متعامد متغیرها در انتساب چندگانه --> مدلهای انتساب جداگانه؟ |
60975 | من در حال تجزیه و تحلیل داده های به دست آمده از مشاهده حدود یک میلیون نفر در طی 24 ماه هستم. برای هر فرد، هر ماه به عنوان موفقیت یا شکست طبقه بندی می شود. من به طور خاص به توزیع زمانهای انتظار (= طول دورههای شکست) بین موفقیتها و مقایسه این توزیع با توزیعی که اگر موفقیت یک فرآیند برنولی بود - توزیع هندسی - به وجود میآمد علاقهمندم. رویکرد من ابتدا شناسایی سه زیرمجموعه از افراد در گروه اصلی من بوده است - آنهایی که در 24 ماه 3 موفقیت در مجموع داشتند، آنهایی که 8 موفقیت داشتند و آنهایی که 12 داشتند. به یک توزیع هندسی، که خود با یک احتمال موفقیت منفرد پارامتر می شود. سه مقدار خاص 3، 8 و 12 موفقیت در مجموع از 24 مورد را که من به طور کاملاً خودسرانه انتخاب کردم تا محدوده مورد علاقه را منعکس کنم. اجازه دهید از گروه افرادی که 3 موفقیت از 24 موفقیت را دارند به عنوان مثال استفاده کنم. فقط با استفاده از تعداد کل، میتوانیم احتمال موفقیت این گروه را به صورت $$ \hat{p} = \frac{3}{24} = 0.125 $$ تخمین بزنیم، سپس نمودار هیستوگرام زمان انتظار واقعی را برای 3 مورد از 24 در مقابل توزیع هندسی با پارامتر $p=0.125$ گروه بندی کنید و پیدا کنید که به عنوان مثال. فراوانی مشاهده شده زمان انتظار = 0 ماه به طور قابل ملاحظه ای بیشتر از فراوانی 0 ماه است که توسط توزیع هندسی ارائه شده است و من این را به این معنا تفسیر می کنم که برای 3 گروه از 24 گروه، دو موفقیت پشت سر هم بیشتر از مواردی است که اتفاق می افتد. موفقیت یک فرآیند برنولی بود. با این حال، من همچنین میتوانم با توزیع هندسی متفاوتی مقایسه کنم که پارامتر آن $p$ را با استفاده از روش لحظهها تخمین میزنم، یا با معادلسازی میانگین زمان انتظار مشاهدهشده در نمونه 3 از 24، $\mu$، با مقدار مورد انتظار. زمان انتظار برای توزیع هندسی به شرح زیر 0.169$ که با $\hat{p}=0.125$ بسیار متفاوت است. از نظر بصری، این توزیع با 3 داده از 24 داده زمان انتظار بسیار بهتر مطابقت دارد، اما داده های مشاهده شده هنوز به دلیل توزیع هندسی به وضوح منحرف می شوند، انحرافات فقط در مکان های مختلف نشان داده می شوند. من میتوانم یک آزمایش آماری از تناسب انجام دهم، اما به دلیل حجم نمونه بسیار بزرگم، شک ندارم که به من میگوید که دادهها با توزیع هندسی در هر سطح معنیداری که دوست دارم متفاوت است. من روش اول را برای یافتن $\hat{p}$ ترجیح دادهام زیرا 1. نمیخواهم یک توزیع هندسی را به دادههای خود منطبق کنم. من می دانم که داده ها کاملاً هندسی توزیع نشده اند و من به طور خاص به تفاوت های سیستماتیک (برخلاف خطای اندازه گیری) بین آن و توزیع هندسی مناسب علاقه مند هستم. 2. از آنجایی که داده ها به صورت هندسی توزیع نشده اند، این باعث می شود فکر کنم که روش گشتاورها حذف می شود و پارامتری از توزیع هندسی را که باید به عنوان خط پایه برای مقایسه استفاده کنم، به من نمی دهد، بلکه توزیع هندسی دیگری که اتفاقاً بهتر با داده ها تناسب دارد. آیا کاری که من انجام می دهم مشروع است و چگونه باید $\hat{p}$ را تعیین کنم؟ (اگر در بیان مسئله به عنوان یک مسئله تئوری به اندازه کافی دقیق نبوده باشم، می توانم یک مثال R ارائه کنم.) | مقایسه زمان انتظار با توزیع هندسی |
52843 | من یک دندروگرام صفت عملکردی را با استفاده از گونه x ویژگی ایجاد کردهام و ماتریسهای x گونه را از طریق «dbFD» در بسته FD ترسیم کردهام. من میخواهم راهنماییهای دندروگرام صفت را تصادفی کنم تا بررسی کنم که آیا تجمع درختان در منطقه مورد مطالعه من تصادفی است یا اینکه تفاوتهای عملکردی آنها بین کرتها وجود دارد. من بردارهای غنای عملکردی، یکنواختی و پراکندگی را از خروجی «dbFD» دارم. لطفاً کسی می تواند به من در گام بعدی نحوه استنباط مکانیسم های مونتاژ جامعه به من کمک کند؟ آیا می توانم ترکیب گونه ها را به صورت تصادفی در پلات ها قرار دهم و تجزیه و تحلیل ها را دوباره اجرا کنم. این بدان معناست که من مجموعه داده اصلی خود را به هم میریزم، هر بار یک ماتریس جامعه جدید ایجاد میکنم و آن را در «dbFD» اجرا میکنم تا شاخصهایی را برای تنوع عملکردی بدست بیاورم؟ | چگونه می توان نکات یک دندروگرام ویژگی عملکردی را تصادفی کرد؟ |
51399 | ما یک طرح ترکیبی ANOVA اندازهگیریهای مکرر را برای RCT انجام دادیم که کاربرد یک درمان خاص در دامنه حرکتی زانو (فلکشن) را بررسی میکرد. فاکتور بین آزمودنی ها وضعیت مطالعه (درمان در مقابل کنترل) و اندازه گیری مکرر ما خم شدن اولیه در مقابل فلکشن تخلیه بود. ما تأثیر قابل توجهی برای TIME نشان دادیم، اما نه TIME*Condition. اما آزمون بین آزمودنی ها تفاوت معنی داری را برای وضعیت نشان داد. چگونه می توانم این را تفسیر کنم؟ | چگونه نتیجه بین موضوع را در ANOVA مختلط تفسیر کنم؟ |
111515 | فرض کنید می خواهیم تابعی را یاد بگیریم: $f(\mathbf{x} \in \mathbf{R}^p) \rightarrow \mathbf{y} \in \mathbf{R}^q$ که در آن $\mathbf{x} $ و $\mathbf{y}$ بردارهایی هستند که سری های زمانی را نشان می دهند. ما چندین نمونه از این نگاشت داریم، به عنوان مثال: $$\begin{pmatrix}\mathbf{x_0}\\\\...\\\\\mathbf{x_N}\end{pmatrix}\rightarrow \begin{pmatrix} \mathbf{y_0}\\\\...\\\\\mathbf{y_N} \end{pmatrix} $$ چه نوع مشکل این است؟ آیا مشکل رگرسیون است؟ اگر چنین است، چه معیارهایی (توابع ضرر) و روشهایی برای این مشکل مناسب هستند؟ چیزی به طور خاص در پایتون موجود است؟ | آموزش نگاشت بردارها به بردارها |
51394 | من سعی می کنم پاسخ های مکرر را از یک آزمایش انتخاب گسسته تحلیل کنم. DCE دارای یک پارامتر پیوسته و پنج پارامتر دسته بندی 3 سطحی بود. من با یک logit چند جمله ای شروع کردم و مدل پس از 4 تکرار همگرا شد. ضرایب رمزگذاری شده تخمینی به صورت زیر است که نسبت به سطح میانی محاسبه شده است: برآورد Pr(>|t|) LYg 0.0938639 < 2.2e-16 *** Age.f1 0.2453775 1.521e-10 *** Age.f3 - 0.7102606 < 2.2e-16 *** U0.f1 0.1518566 0.0002932 *** U0.f3 -0.3249684 6.950e-12 *** LE0.f1 0.0603195 0.1727848 LE0.f3 0.034443195 0.03443195 -0.4850307 4.730e-14 *** U1.f3 0.3263514 1.083e-12 *** Pats.f1 -0.1336018 0.0011723 ** Pats.f3 0.0131520 0.0131520 0.7579 از همان Bayarch. ناهمگونی فردی را در بر می گیرد، اما تخمین های ضریب، که در زیر نشان داده شده است، به نظر نمی رسد که حتی پس از 500 هزار تکرار همگرا باشند. از آنجایی که من در تحلیل بیزی جدید هستم، امیدوارم کسی بتواند توضیح دهد که آیا این بدان معناست که مدل HB به سادگی قرار نیست همگرا شود یا اینکه من نیاز به اجرای تکرارهای بیشتری دارم. در چه مرحله ای باید نتیجه بگیرم که مدل HB بیهوده است؟ من همچنین در مورد اندازه ضرایب تخمینی گیج شده ام - همانطور که در شکل می بینید، برخی از ضرایب غیرقابل نمایش به 30 نزدیک می شوند! آیا این صرفاً مصنوع یک مدل غیر همگرا است یا چیز دیگری در جریان است؟  FYI، من از پکیج ChoiceModelR در R استفاده می کنم، اما فکر نمی کنم این یک سوال برنامه نویسی باشد. با تشکر از کمک شما. | ضرایب غیر همگرا در تحلیل سلسله مراتبی بیز انتخاب گسسته |
26590 | من در حال انجام یک ارزیابی برای یک مداخله با استفاده از داده های ثانویه هستم. متأسفانه طراحی مطالعه ضعیف است زیرا نمی توان شرکت کنندگان را تصادفی کرد. من به دنبال این هستم که ببینم آیا این مداخله تاثیری بر کیفیت زندگی بیماران داشته است؟ اندازه گیری کیفیت زندگی قبل و بعد از مداخله انجام شده است، من همچنین به تعدادی از متغیرها و تأثیر بالقوه آنها بر کیفیت زندگی گزارش شده علاقه مند هستم، از جمله: سن، جنسیت، درمان دارویی، مدت بیماری، وضعیت تاهل و وضعیت اشتغال ). این IV ها هم پیوسته و هم مقوله ای هستند، اما در صورت نیاز می توان همه آنها را به طبقه بندی تبدیل کرد (نمرات QoL پیوسته باقی خواهند ماند). از راهنمایی شما در مورد اینکه کدام طراحی برای این تحقیق مناسب تر است، سپاسگزارم. من در حال بررسی استفاده از ANCOVA هستم، اما تجربه من در مورد نقض مفروضات ممکن است شایستگی طرحی که قبلاً به خطر افتاده است را تضعیف کند. | چگونه می توان تأثیر مداخله را بر کیفیت زندگی بیماران آزمایش کرد؟ |
32216 | بیایید فرض کنیم که یک جنگل داریم. و یک نژاد خرگوش وجود دارد که همیشه از آن جنگل بازدید می کند. می توان هر خرگوش را تشخیص داد. دستگاههایی در آن جنگل وجود دارد که بازدید روزانه هر خرگوش را محاسبه میکند. بنابراین دو یا چند بازدید برای یک خرگوش خاص در یک روز وجود ندارد. یک خرگوش تمام روز را می گویند. اطلاعاتی که من دارم به عنوان مثال: * خرگوش شماره 343 در تاریخ 5 می 2012 برای دوازدهمین بار از جنگل بازدید کرد. * خرگوش شماره 793 در 2 ژوئن 2012 برای اولین بار از جنگل بازدید کرد. حالا مدیر عامل جنگل می خواهد **بسنجید که آیا تمایلی به عدم بازگشت خرگوش وجود دارد**. و من مرد داده های مدیر عامل هستم و باید آن را بفهمم. سوال من این است که آیا این نوع مشکل تحت یک برچسب خاص شناخته می شود - حدس می زنم که باشد - و آیا چیزی شبیه یک فرمول ثابت برای نشان دادن نرخ برگشت یا نرخ وفاداری / احتمال بازدید دیگر وجود دارد. برای همه خرگوش ها تعمیم یافته است». کاری که من انجام خواهم داد این است که برای دورههای زمانی چند روزه (مثلاً یک هفته) * تعداد خرگوشهایی که برای اولین بار بازدید کردهاند * و تعداد خرگوشهایی که برای آخرین بار بازدید کردهاند (مثلاً دانش پیشبینی برای شش ماه) نمودار کنم. ) اما من شک دارم که کارآمدترین راه برای حل این سوال باشد. | احتمال اینکه یک خرگوش به یک جنگل (معین) بازگردد چقدر است؟ |
52844 | من باید یک بار سری را از هم متمایز کنم تا یک سری ثابت داشته باشم اما نمی توانم تابع tbats را اجرا کنم زیرا سری های متفاوت من مقادیر منفی دارد. آیا کسی راهی برای مقابله با این موضوع می شناسد؟ من به اضافه کردن یک ثابت فکر می کنم اما نمی دانم که آیا دارم تقلب می کنم یا نه. | TBATS به داده های مثبت پس از تفاوت نیاز دارد - بسته پیش بینی R |
8572 | من مقدار زیادی در مورد برازش پارامترهای پیوسته به ویژه روش های مبتنی بر گرادیان می دانم، اما در مورد برازش پارامترهای گسسته اطلاعات زیادی ندارم. الگوریتم ها/تکنیک های متداول MCMC برای برازش پارامترهای گسسته کدامند؟ آیا الگوریتم هایی وجود دارند که هم نسبتاً کلی و هم نسبتاً قدرتمند باشند؟ آیا الگوریتم هایی وجود دارند که به خوبی با نفرین ابعادی برخورد کنند؟ به عنوان مثال، من میتوانم بگویم Hamiltonian MCMC عمومی، قدرتمند است و به خوبی مقیاسپذیر است. نمونه برداری از یک توزیع گسسته دلخواه دشوارتر از نمونه برداری از یک توزیع پیوسته به نظر می رسد، اما من کنجکاو هستم که وضعیت هنر چگونه است. **ویرایش**: JMS از من خواست تا توضیح بیشتری بدهم. من برنامههای خاصی را در ذهن ندارم، اما در اینجا انواع مدلهایی وجود دارد که در نظر دارم: * انتخاب مدل بین چندین نوع مدل رگرسیون پیوسته. شما یک پارامتر مدل منفرد مجزا دارید * یک مدل پیوسته که در آن هر مشاهده ممکن است یک پرت باشد و از توزیع بسیار پراکنده تری گرفته شود. من فکر می کنم این یک مدل مخلوط است. من انتظار دارم بسیاری از مدل ها شامل پارامترهای پیوسته و گسسته باشند. | چه الگوریتم ها/تکنیک های MCMC برای پارامترهای گسسته استفاده می شود؟ |
35745 | فرض کنید من یک آزمایش دارم که در آن 50 توپ را از یک کیسه 1000 تایی بدون تعویض می کشم. کیسه حاوی 50 توپ سفید است - بقیه سیاه هستند. محاسبه احتمال تجمعی برای رسم حداقل x توپ های سفید بی اهمیت است. حالا دوباره آزمایش را تکرار می کنم و از یک کیسه 1000 تای جدید 50 توپ دیگر می کشم (باز هم 50 توپ سفید، 950 سیاه). من به احتمال ترسیم حداقل 2 برابر توپ در هر دوی این آزمایش ها علاقه مند هستم. من فکر میکردم که باید تقریباً معادل یک آزمایش ادغامشده، کشیدن 100 توپ از 2000 توپ باشد (اصولاً 2 کیسه را با هم ترکیب میکند)، اما به نظر میرسد در برخی شبیهسازیهایی که اجرا کردم، اینطور نیست. این یک سوال بسیار ساده به نظر می رسد، اما من هیچ بحث مرتبطی را آنلاین ندیده ام. | احتمال مشترک دو مجموعه آزمایشی فوق هندسی |
22680 | فرض کنید من یک رگرسیون خطی با دو متغیر عددی توضیحی دارم: A و B. سناریوهای زیر را در نظر بگیرید: 1. A و B هر دو ناچیز هستند. 2. A معنی دار است، B ناچیز است. یا برعکس 3. A و B هر دو مهم هستند حال، سوال من: **در کدام سناریوها ممکن است** (یا باید در اینجا بین از لحاظ نظری ممکن و احتمالا تفاوت قائل شویم؟) **این تعامل عبارت A * B قابل توجه است؟** | آیا جمله تعامل دو ضریب ناچیز می تواند معنی دار باشد؟ |
65251 | من می خواهم رگرسیون زیر را اجرا کنم: 2 DV که 1 از آن به شکل اصلی است و یکی (به دلیل غیر عادی بودن) به یک تبدیل مربع تبدیل شده است. آیا هنوز هم می توانم این رگرسیون را اجرا کنم یا باید DV دیگر را با همان فرمت تبدیل کنم (تبدیل مربع) پیشاپیش با تشکر فراوان! با احترام، کلارا | در یک تحلیل رگرسیون چندگانه (2 DV و 5IV) - آیا می توانم آنالیز را تنها با یک DV تبدیل شده و بقیه به شکل اصلی خود اجرا کنم؟ |
65258 | Challenger-Disaster را در نظر بگیرید: دما <- c(66,67,68,70,72,75,76,79,53,58,70,75,67,67,69,70,73,76,78,81 ,57,63,70) شکست <- ضریب(c(0,0,0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0,0,1,1,1) ) shuttle <- data.frame(Temp, Fail) colnames(shuttle) <- c(Temp، Fail) اکنون می توانم مدل لجستیکی را بسازم که شکست مهر و موم های O-ring را توسط دما: مناسب <- glm(Fail~Temp,data=shuttle, family=binomial); fit خروجی R به این شکل است: فراخوانی: glm(فرمول = Ausfall ~ Temp، خانواده = دو جمله ای، داده = شاتل) ضرایب: (Intercept) Temp 15.0429 -0.2322 Degrees of Freedom: 22 Total (i.e. Null); 21 انحراف تهی باقیمانده: 28.27 انحراف باقیمانده: 20.32 AIC: 24.32 ### سوالات * **به طور کلی، چگونه احتمالات را برای داده های خاص در رگرسیون های لجستیک با استفاده از R پیش بینی می کنید؟** * **یا به طور خاص، چه دستوری وجود دارد. اگر دما در 37 درجه باشد؟** احتمال شکست را محاسبه کنید (که در آن بود شب قبل از فاجعه چلنجر). فکر کردم چیزی شبیه به این باشد: predict(fit, Temp=37) اما 0.9984243 به من نمی دهد (که خودم با آن محاسبه کردم: exp(15.0429 + (37*(-0.2322))) / 1+ exp(15.0429 + (37*(-0.2322))) روش «پیشبینی» ماتریسی از اعداد را برمیگرداند برای من معنی ندارد | چگونه احتمالات داده های خاص را در رگرسیون های لجستیک با استفاده از R پیش بینی می کنید؟ |
22684 | این سوال از سوال قبلی من پیروی می کند. من اکنون داده های خود را ارائه می دهم تا به شما کمک کنم :) همانطور که قبلاً گفته شد، من N=42 از یک آزمایش کنترل شده دارم. افراد برای ارزیابی خلق و خوی خود پرسشنامه ای تهیه کردند و سپس یک بازی ویدیویی انجام دادند. آنها از این بازی امتیاز گرفتند. با توجه به نمره پرسشنامه، آنها ممکن است به ترتیب با رنگ های قرمز، خاکستری و سبز به عنوان منفی، خنثی یا مثبت در نظر گرفته شوند. نمودار زیر نمودار داده های دست نخورده است.  من می خواهم چند آزمایش فرضیه بر روی میانگین امتیاز انجام دهم، مانند میانگین (افراد مثبت) > متوسط (افراد خنثی). همانطور که از سوال قبل متوجه شدم، اگر داده ها تقریبا نرمال باشد، می توانم از آزمون T استفاده کنم. چون هیستوگرام حقایق جالبی را نشان نمی دهد، میانگین امتیاز را بوت استرپ کردم. آنچه در ادامه می آید نتایج بوت استرپ است فراخوانی: boot(data = Tol$Tol.Score, statistic = mean.fun, R = 1500، sim = معمولی) Statistics Bootstrap: original bias std. خطای t1* 2817.702 4.079778 91.06932 چقدر برای انجام تست ها با استفاده از آزمون T ایمن هستم؟ آیا به جای آن از تست جایگشت استفاده کنم؟ افکار دیگر؟ سوال اضافی: یک موضوع وجود دارد که من آن را پرت می دانم. او نمره <5\ را به دست آورد. با آن چه کنم؟ از آنچه یاد گرفتم، هرگز چیزهای پرت را حذف نخواهم کرد. اما، از آنجایی که N 42 است، به ویژه بر میانگین کلاس خود تأثیر می گذارد (یعنی خنثی) باز هم از کمک شما متشکرم. زمینه: آزمایشی که بخشی از پایان نامه کارشناسی ارشد من و شاید یک مقاله علمی خواهد بود. به روز رسانی: خطوط رنگی نقطه چین میانگین نمرات سه گروه است | تست T در مقابل تست جایگشت بر روی داده های عادی (نه مطمئنا). |
82055 | ممکن است این فقط یک سوال زبان انگلیسی باشد (در این صورت لطفا آن را جابجا کنید) اما اگر منطق آماری یا ریاضی برای پاسخ وجود داشته باشد می پرسم. من مطمئن هستم که عبارت باید خی دو باشد نه خی دو. بالاخره **χ2** است. اگر مربع (جعبه) داشته باشیم و طول ضلع آن χ باشد، اگرچه مساحت آن χ2 باشد، شاید بتوان آن را مربع χ نامید. آیا من فقط به سوال خودم پاسخ دادم؟ متاسفم بر اساس این پست وبلاگ، chi-squared صحیح تر است، اما chi-square محبوب تر است. | چرا اصطلاح «کی دو» قابل قبول است؟ |
61858 | من یک سری بایت دارم. فرضیه صفر من این است که هر بایت به طور مستقل از یک توزیع یکنواخت ترسیم می شود. ابزار آماری صحیح برای آزمون چنین فرضیه ای چیست؟ اولین فکر من تست کای دو پیرسون بود. با این حال... ظاهراً این تنها زمانی به طور قابل اعتماد کار می کند که فرکانس های مورد انتظار بسیار بزرگ باشند. (بسته به اینکه از چه کسی بخواهید، حداقل فرکانس مورد انتظار ده یا بیشتر است.) با توجه به اینکه هر بایت دارای 256 مقدار ممکن است، شما به مقدار زیادی بایت نیاز دارید! ویکیپدیا چیزی در مورد آزمایش دقیق فیشر به جای آن میگوید... اما فقط نحوه انجام این کار را برای یک جدول $2\times2$ توضیح میدهد. من واقعا نمی دانم چگونه آن را در اینجا اعمال کنم. آیا تست کای دو ایده خوبی است؟ آیا ابزارهایی وجود دارند که با داده های کمتر کار کنند؟ چه روش های دیگری را می توانم امتحان کنم؟ من علاقه کمتری به تشخیص تصادفی کامل دارم، و بیشتر علاقه مند به کشف چیزهایی هستم که آشکارا و آشکارا _نه_ تصادفی هستند. توجه: من به دنبال الگوریتمی هستم که یک ماشین بتواند انجام دهد. پاسخ هایی مانند یک نمودار و کره چشم بکشید به من کمک نمی کند. به هر حال انسان ها در دیدن الگوهای غیر تصادفی بسیار خوب هستند. مشکل من این است که به ماشینی یاد بدهم که این کار را به صورت خودکار انجام دهد. | ابزار صحیح برای تست یکنواختی چیست؟ |
65253 | من در حال اجرای تجزیه و تحلیل داده ها برای یک بازار آنلاین هستم. من میخواهم تأثیر زمان آنلاین بودن یک کالای فاسد شدنی (مثلاً بلیت کنسرت) را در مقابل احتمال فروش تعیین کنم. من طرحی ساخته ام که نشان می دهد زمان آنلاین یک عامل مهم است: اقلام آنلاین برای 2 روز در مقایسه با 3 ساعت آنلاین، 1.5 برابر احتمال فروش دارند. از چه طریقی می توانم این را از نظر آماری ثابت کنم؟ من به مدل های پروبیت نگاه کرده ام. آیا این راه درستی است؟ | تعیین تأثیر متغیر پیوسته بر نتیجه باینری |
26591 | آیا کسی می داند که آیا مجموعه داده های باینری وجود دارد که بتوانم آزادانه دانلود کنم؟ در صورت امکان، مجموعه داده ها را در قالب متنی و الهام گرفته از برخی پدیده های واقعی ترجیح می دهم. پیشاپیش ممنونم | مجموعه داده باینری در دسترس عمومی |
25488 | من دانشجوی دکترا هستم و در حال انجام بررسی ادبیات فیزیوتراپی اسکلتی عضلانی هستم و در تلاش برای دریافت راهنمایی در مورد این موضوع هستم زیرا اکثر محققین سلامت متاآنالیز اثرات / اثربخشی مداخله و نه همبستگی را انجام می دهند. من به دنبال پیش بینی کننده های حضور و رعایت توصیه های درمانی در فیزیوتراپی اسکلتی عضلانی هستم. *متغیر وابسته** پایبندی به 4 جنبه عملیاتی می شود - حضور، پایبندی به کلینیک، تبعیت از ورزش در منزل و تبعیت طولانی مدت. *متغیرهای **مستقل** از متغیرهای اسمی مانند جنسیت، ترتیبی مانند وضعیت اقتصادی اجتماعی و همچنین اندازه گیری نسبت فاصله متغیر است. با نگاهی به ادبیات و بحث با چند نفر، احساس میکنم که همبستگی «r» اندازه اثری است که باید استفاده کنیم، و برای دادههای اسمی یا ترتیبی، میتوانیم از جداول احتمالی 2×2 استفاده کنیم، t یا مربع chi را محاسبه کنیم و سپس آن را به r تبدیل کنید. سپس یک تبدیل 'r' به 'z' اعمال می کنیم تا نتایج را ترکیب کنیم و سپس آن را برای تفسیر مجدد به 'r' تبدیل می کنیم. **آیا این رویکرد درستی است؟ چه عوامل دیگری را باید در نظر گرفت؟** موضوع دیگر این است که من چندین بیماری مختلف مانند گردن درد، کمردرد، آسیب مچ پا و غیره مصرف می کنم. ** | چه زمانی از همبستگی به عنوان اندازه اثر هنگام انجام متاآنالیز با پیش بینی های متنوع استفاده کنیم؟ |
60972 | شهود من این است که مقادیر برازش و مقادیر پیش بینی شده یک شی gbm باید یکسان باشند. اما در این مثال فقط با یک درخت، مقادیر متفاوت هستند: b <- c(0,0,.8,0,0) x <- mvrnorm(100,mu=rep(0,5),diag(5) ) colnames(x) <- paste0(x,1:5) y <- x %*% b + rnorm(10) out <- gbm.fit(y=y,x=x,shrinkage=.1, n.trees=1,distribution=gaussian,verbose=F) f <- out$fit p <- predict(out,n.trees= 1) f-p چرا آنها متفاوت هستند؟ اصلا مهمه؟ | تفاوت بین مقادیر در ویژگی fit یک شی gbm و مقادیر محاسبه شده توسط gbm.predict چیست؟ |
25482 | فرض کنید من یک مدل پیشبینی دارم که برای هر نمونه، یک احتمال برای هر کلاس تولید میکند. اکنون میدانم که اگر بخواهم از آن احتمالات برای طبقهبندی (دقت، فراخوان و غیره) استفاده کنم، راههای زیادی برای ارزیابی چنین مدلی وجود دارد. من همچنین تشخیص میدهم که منحنی ROC و ناحیه زیر آن میتواند برای تعیین میزان تمایز مدل بین کلاسها استفاده شود. اینها چیزی نیست که من در موردش می پرسم. من علاقه مند به ارزیابی _کالیبراسیون_ مدل هستم. می دانم که قانون امتیاز دهی مانند امتیاز بریر می تواند برای این کار مفید باشد. این اشکالی ندارد، و من احتمالاً چیزی را در امتداد این خطوط قرار خواهم داد، اما مطمئن نیستم که چنین معیارهایی برای افراد عادی چقدر شهودی باشد. من به دنبال چیزی بصری تر هستم. من میخواهم شخصی که نتایج را تفسیر میکند، بتواند ببیند که آیا زمانی که مدل چیزی را پیشبینی میکند، 70٪ احتمال دارد اتفاق بیفتد یا نه، در 70٪ مواقع واقعاً اتفاق میافتد، و غیره. در ابتدا فکر کردم این همان چیزی است که من به دنبال آن هستم. با این حال، به نظر می رسد که واقعاً برای مقایسه دو توزیع _احتمال استفاده شده است. این به طور مستقیم چیزی نیست که من دارم. من برای چند نمونه، احتمال پیشبینیشدهام و سپس اینکه آیا واقعه واقعاً رخ داده است، دارم: شاخص P(Heads) نتیجه واقعی 1 .4 Heads 2.3 Tails 3.7 Heads 4.65 Tails ... .... .. پس آیا طرح Q-Q واقعاً همان چیزی است که من می خواهم یا به دنبال چیز دیگری هستم؟ اگر نمودار Q-Q همان چیزی است که باید استفاده کنم، روش صحیح برای تبدیل داده های من به توزیع های احتمال چیست؟ تصور می کنم بتوانم هر دو ستون را بر اساس احتمال پیش بینی شده مرتب کنم و سپس چند سطل ایجاد کنم. آیا این همان کاری است که من باید انجام دهم، یا در جایی به فکر فرو رفته ام؟ من با تکنیک های مختلف گسسته سازی آشنا هستم، اما آیا روش خاصی برای گسسته سازی در سطل ها وجود دارد که برای این نوع چیزها استاندارد باشد؟ | تجسم کالیبراسیون احتمال پیش بینی شده یک مدل |
25486 | اولین سوال من در اینجا، امیدوارم که مرتبط با جامعه باشد. من در دوره CS هستم و در زمینه آمار کاملاً تازه کار هستم، بنابراین اگر جزئیات بیشتری لازم است به من اطلاع دهید و من پست را ویرایش خواهم کرد. من یک مشکل دارم که میخواهیم گروههای نمونه را با هم مقایسه کنیم و میخواستیم تابعی از آن ایجاد کنیم، بنابراین از ANOVA به ANCOVA منتقل شدیم. مشکل اکنون این است که جهان کامل نیست و ما توزیع طبیعی باقیمانده ها نداریم. این مجله چند رویکرد مختلف را برای ANCOVA پیشنهاد می کند. Kurskall Wallis به عنوان یک جایگزین غیر پارامتری ابتدا مورد توجه قرار گرفت و سپس از مجله Quade's ANCOVA ناپارامتریک و Puri و Sen's ANCOVA ناپارامتریک نیز مورد توجه قرار گرفت. «مشکل» این است که به نظر میرسد هر سه این دادهها در رتبهبندی قرار میگیرند، که به نظر میرسد منجر به از دست دادن قدرت استنتاج میشود. بنابراین سؤال این است: 1. آیا تاکنون روش دیگری برای عدم نیاز به انتقال داده ها به رتبه ها در حالی که نیازی به توزیع نرمال نیست، پیشنهاد شده است؟ 2. در بین 3 مورد (یا دیگری که می خواهید پیشنهاد دهید)، آیا هیچ کدام از آنها بیشتر از دیگری استفاده می شود؟ و اگر بله به چه دلایلی؟ 2.1 آیا می توانید منبعی را به من نشان دهید که مفروضات و محدودیت های آنها را نشان دهد؟ من برای پیدا کردن کتابی که در این مورد در مورد آنها صحبت می کند، مشکل دارم. این می تواند یک کتاب پیچیده برای یک تازه کار باشد، من مشکلی ندارم. 3. من تکنیکی به نام resampling و bootstrapping را در اینجا دیدم، آیا این در این شرایط خاص فایده ای دارد؟ 4. آیا میدان چی ربطی به آنچه در اینجا در نظر گرفته شده است دارد؟ میدانم که هیچ دادهای در اینجا ارائه نکردهام، اما لطفاً فرض کنید آنچه در اینجا مورد نیاز است همان چیزی است که در عنوان بیان کردم: یک ANCOVA برای توزیعهای غیرعادی، در صورت امکان (مطمئن نیستم که آیا این پوچ است زیرا تمام چیزی که به عنوان پیشینه دارم یک دوره آمار بسیار ابتدایی) عدم انتقال داده ها به رتبه ها (اگر امکان پذیر نباشد، خوشحال می شوم دلیل آن را نیز بدانم). متشکرم! | استفاده از تغییرات ANCOVA برای توزیع های غیر نرمال |
32213 | فرض کنید $z\sim\mathcal{N}\left(\lambda^2 e_1,I_n\right)$ که $e_1$ اولین ستون ماتریس هویت $n$-بعدی است که در اینجا با $I_n$ نشان داده شده است. فرض کنید $S\sim\mathcal{W}\left(m,I_n\right)$ یک ماتریس Wishart روی مشاهدات $m$ با پارامتر $I_n$ است. من به توزیع $$ h = \frac{e_1^{\top} S^{-1}z}{||S^{-1}z||_2}، $$ به عنوان تابعی از $ علاقه دارم n، m، $ و $\lambda$. به وضوح $-1 \le h \le 1$. علاوه بر این، بهعنوان $m\to\inf$، برخی از تبدیلهای $h$ بهعنوان یک توزیع غیر مرکزی $t$ توزیع میشوند: $\sqrt{n-1} \tan\left(\arcsin\left(h\ راست)\راست) \sim t\left(n-1,\lambda^2\right)$. (احتمالاً برخی از ثابتهای افت کرده را مدول کنید زیرا شب خیلی دیر است.) آیا چیزی در مورد توزیع $h$ شناخته شده است؟ احتمالاً در حالت $m$ محدود؟ من به فرم سه متغیر برای ایجاد متغیرهایی مانند $l^{\top}S^{-1}z$ نگاه کردهام، اما نمیتوانم این مورد را با عادیسازی مشکلم تطبیق دهم. | توزیع یک معکوس نرمال شده ویشارت بار گوسی |
52847 | من 5 میلیون رکورد مختصات قطبی فضایی (r و تتا) دارم. این رکوردهای 5 میلیونی از 400 مکان مختلف هستند که من 150 متغیر برای آنها دارم (بدون NA). من همچنین از 1 متغیر باینری استفاده میکنم تا هر رکورد را بهعنوان نقطهی علاقه یا نه علامتگذاری کنم. برای رکوردهایی که POI نیستند، متغیر دیگری دارم که جزئیات بیشتری در مورد نوع آن ارائه می دهد. از این 5 میلیون رکورد، حدود 20 هزار نقطه مورد علاقه هستند. من می خواهم روابط فضایی بین این نقاط مورد علاقه و سایر نقاط را بررسی کنم و در نهایت یک مدل پیش بینی بسازم که آیا آنها در یک خوشه فضایی قرار دارند یا خیر. من از DBSCAN برای ایجاد خوشه های فضایی استفاده کرده ام تا تعیین کنم که آیا این نقاط مورد علاقه با موفقیت نزدیک به نقاط مورد علاقه نیستند. اکنون، من میخواهم یک مدل پیشبینیکننده بسازم که آیا یک نقطه مورد علاقه با یک نقطه مورد علاقه با استفاده از تمام سطوح دادههای موجود خوشهبندی میشود یا خیر. سطوح داده های من به شرح زیر است (از زیاد به پایین): مکان: 150 متغیر پیوسته خوشه ها: 1 متغیر باینری-- آیا یک POI در خوشه وجود دارد؟ (این متغیر پاسخ من است) امتیاز: 1 توصیفگر متغیر برای غیر نقاط مورد علاقه سوال من این است که از چه نوع مدل سازی برای تعیین اینکه آیا می توان یک مدل پیش بینی نسبتاً دقیق ایجاد کرد، استفاده کنم. اگر نه، میخواهم خوشهها را به بهترین شکل ممکن با دادههای موجود طبقهبندی کنم. کسی پیشنهادی در مورد نحوه حرکت به جلو دارد؟ فقط باید در جهت درست به من اشاره شود-- فرض می کنم می خواهم از نوعی تحلیل چندسطحی استفاده کنم. با تشکر PS- من از R استفاده می کنم، اما اگر کاری وجود دارد که فقط آن می تواند انجام دهد، به SAS دسترسی دارم. | مدل سازی همبستگی های فضایی با داده های چندسطحی |
61085 | من سعی میکنم فیلترینگ مبتنی بر آیتم را با یک فضای ویژگی بزرگ که نشان دهنده مصرفکنندگانی است که (1) محصول خاصی را خریداری کردهاند یا (0) خریداری نکردهاند، پیادهسازی کنم. من توزیع دم بلندی دارم، بنابراین ماتریس کاملاً پراکنده است. R به خوبی با آن برخورد نمی کند. برای ساده کردن اندازه گیری شباهت کسینوس چه کاری می توانم انجام دهم؟ | شباهت کسینوس در ماتریس پراکنده |
111518 | من در حال بررسی یک نسخه خطی هستم و نویسندگان بیان می کنند که برخی از نتایج توسط آزمون والد برای روند هستند. کسی در مورد این چیزی شنیده است؟ من این کار را نکرده بودم و گوگل چیزی را فاش نکرد. می دانم که همیشه می گویم جزئیات را ارائه کنم، اما در این مورد نمی توانم. | آزمون والد برای روند چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.