_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
64051
اول از همه، ببخشید اگر از اصطلاحات مناسب برای این مشکل استفاده نمی کنم. من یک زنجیره مارکوف دارم که از دو حالت تشکیل شده است: * وقتی در حالت 1 خروجی از یک توزیع نمایی با پارامتر میانگین mu_exp گرفته می شود * وقتی در حالت 2 خروجی از یک توزیع گاوسی با میانگین mu_gaus و انحراف استاندارد gamma_gaus گرفته می شود، من یک سری‌های زمانی که من فرض می‌کنم با آن مدل مارکوف اداره می‌شوند. هدف من این است که بسیاری از نتایج تصادفی را از آن مدل مارکوف ایجاد کنم و احتمال آن را با سری زمانی اصلی آزمایش کنم. آیا آزمونی مانند کولموگروف-اسمیرنوف یا من-ویتنی-ویلکاکسون برای رد فرضیه تهی این دو سری نتایج یک زنجیره مارکوف هستند وجود دارد؟ بازم ببخشید برای اصطلاحات، امیدوارم به اندازه کافی واضح بوده باشم
تست خواص زنجیره مارکوف سری های زمانی
45651
> **تکراری احتمالی:** > احتمال پرتاب k سر در n آزمایش یک سکه منصفانه چقدر است؟ احتمال پرتاب سر $k$ در آزمایشات $n$ چقدر است مشروط به اینکه در اولین تلاش $t$ یک سر وجود داشته باشد؟ و سکه منصفانه است. آیا $p(k - 1، n - t)$ است؟
توزیع دو جمله ای احتمال شرطی
46314
## سابقه من در حال حاضر در حال آزمایش تبدیل ها در یک صفحه وب هستم و می خواهم آزمایش کنم که آیا تغییراتی که دیروز انجام دادم تغییر قابل توجهی در تبدیل ایجاد کرده است یا خیر. ## مجموعه داده ها برای هر روزی که آزمایش می کنم، تعداد کل بازدیدکنندگان سایت و تعداد بازدیدکنندگانی که از طریق یک لینک خاص کلیک می کنند را دارم. سپس تعداد بازدیدکنندگانی که از طریق لینک کلیک می کنند بر تعداد کل بازدیدکنندگان تقسیم می کنم. این به من نسبت کلیک من را می دهد. ## مشکلی که می‌خواهم آزمایش کنم که آیا یک روز خاص نسبت کلیک به‌طور قابل توجهی متفاوت با روزهای قبل دارد.
آزمایش اهمیت یک نقطه داده در برابر یک مجموعه داده
21297
> یک سکه باید برای انصاف آزمایش شود. 30 سر بعد از 50 تلنگر بالا می آیند. > با فرض منصفانه بودن سکه، احتمال اینکه در 50 تلنگر حداقل 30 سر به دست آورید چقدر است؟ راه درست برای انجام این مشکل، به گفته معلم من، انجام normalcdf (min = 0.6, max = ∞, p = 0.5, σ = sqrt(.5 * 0.5 / 50) = 0.0786 است. یک تابع توزیع تجمعی دو جمله ای مانند این 1 - binomcdf(n = 50, p = 0.5, x = 29) = 0.1013 من معتقدم که معیارهای توزیع دوجمله ای برآورده می شوند: رویدادهای فردی مستقل هستند، تنها دو نتیجه ممکن وجود دارد (سر در مقابل دم)، احتمال برای سوال ثابت است (0.5)، و تعداد آزمایش ها در ثابت است. 50. اما بدیهی است که دو روش پاسخ های متفاوتی می دهند و یک شبیه سازی پاسخ من را پشتیبانی می کند (حداقل چند باری که آن را اجرا کردم؛ بدیهی است که نمی توانم تضمین کنم که شما همان نتایج را دریافت خواهید کرد، آیا معلم من در این فرض که منحنی توزیع نرمال نیز روشی معتبر برای انجام این مشکل است (در هیچ نقطه ای گفته نشده است که توزیع نرمال است، اما _n*p_ و _n*) اشتباه می کند. (1-p)_ هر دو بزرگتر از 10 هستند، یا من چیزی در مورد توزیع های دوجمله ای اشتباه متوجه شده ام؟
آیا باید از cdf دوجمله ای یا cdf معمولی هنگام ورق زدن سکه استفاده کنم؟
64057
من در حال کار برای ایجاد نقشه ای از مجاورت بین 100 کالای مصرفی هستم. من یک ماتریس مجاورت بر اساس ویژگی های محصول ایجاد کرده ام، و سپس یک نمودار i از گراف/شبکه ​​(با استفاده از tkplot / igraph) ایجاد کرده ام. از 8-10 دسته متصل. احتمالاً تا حدودی به دلیل عدم درک درستی از نحوه عملکرد الگوهای نگاشت مستقیم پیش بینی شده است (و شاید لازم باشد که مطالعات اولیه بیشتری انجام دهم)، اما آیا موقعیت یابی دسته های مختلف در سراسر صفحه توسط الگوریتم فروچترمن-رینگولد شامل هر گونه اطلاعات به عنوان مثال - آیا این واقعیت که من دو دسته در گوشه پایین سمت راست دارم، یک دسته کوچک در وسط و یک دسته بزرگ در گوشه سمت چپ بالا چیزی در مورد ویژگی ها / شباهت های بین این دسته ها می گوید، یا فقط فاصله گذاری تصادفی در سراسر فضا وجود دارد. بهبود وضوح بصری؟ اگر واضح نیست پوزش می طلبیم - W ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IoaO0.gif)
روش های اجباری برای رسم نمودارها
341
آیا فکر می‌کنید که کلاس‌های نامتعادل مشکل بزرگی برای k-نزدیک‌ترین همسایه است؟ اگر چنین است، آیا راه هوشمندانه ای برای مدیریت این موضوع می شناسید؟
kNN و کلاس های نامتعادل
20524
لطفاً به من کمک کنید تا ویژگی های اساسی آزمون کای دو برای مقایسه توزیع را درک کنم. تا آنجایی که من متوجه شدم، اگر دو نمونه از یک توزیع بکشیم، **و یک نمونه را به عنوان مشاهده و دیگری را به عنوان مورد انتظار در نظر بگیریم**، در اغلب موارد مقدار chi2 مرتبط کم و p مربوطه خواهد بود. -مقدار برای رد فرضیه صفر که دو نمونه از یک توزیع آمده اند بالا خواهد بود. بنابراین، من انتظار دارم که اگر این فرآیند را بارها تکرار کنم و این مقدار p را در برابر آستانه از پیش تعریف شده (مثلاً 0.05) آزمایش کنم، آنگاه فقط a در کسری کوچک از زمان‌ها (5% در مورد ما) مقدار p مرتبط خواهد شد. زیر آستانه بحرانی باشد. با این حال، در شبیه سازی های من این فرضیه صفر در حدود 23 درصد از جفت های نمونه رد می شود. چه چیزی را از دست داده ام؟ در زیر کد پایتون من است. در این کد، من دو نمونه از 100 عدد صحیح تصادفی بین 0 و 3 تولید می‌کنم. سپس مقدار p را با استفاده از آزمایش‌های chi2 محاسبه می‌کنم (من صحت تابع تست chi2 خود را در برابر یک ماشین حساب آنلاین تأیید کردم) و این مقدار را با یک آستانه (ALPHA = 0.05). من این فرآیند را 1000 بار تکرار می‌کنم و درصد دفعاتی را محاسبه می‌کنم که مقدار p زیر ALPHA import numpy به‌عنوان np import scipy.stats به عنوان stats def chi2testTwoSamples (مشاهده‌شده، مورد انتظار): countO = defaultdict (int) countE = defaultdict (int) nPoints = len (مشاهده شده) اظهار nPoints == len (مورد انتظار) برای o در مشاهده شده: countO[o] += 1 برای e در مورد انتظار: countE[e] += 1 keysO = set(countO.keys()) keysE = set(countE.keys()) keys = list(keysO.union( keysE)) keys.sort() countExpected = np.array([countE[k] برای k در کلیدها]، dtype=float) countObserved = np.array([countO[k] برای k در کلیدها]، dtype=float) sel = (countExpected != 0) countExpected = countExpected[sel] countObserved = countObserved[sel] chi2 = np.xpsect -(count تعداد مشاهده شده) ** 2 / countExpected) df = len(کلیدها) - 1 pVal = 1.0 - stats.distributions.chi2.cdf(chi2, df) بازگشت (chi2، pVal) TIMES = 1000 نمونه = 100 ALPHA = 0.05 بار پایین‌تر از ان pValpha. 9999) برای من در محدوده (TIMES): a = np.random.randint(0, 3, SAMPLES) #بسیاری از اعداد صحیح بین 0 و 3 رسم کنید b = np.random.randint(0, 3, SAMPLES) p = chi2testTwoSamples(a, b)[ 1] اگر p < ALPHA: بار کمتر از آلفا += 1 درصد = 100.0 * بار زیر آلفا / TIMES چاپ %.1f%%%(درصد)
استفاده و تفسیر صحیح از آزمون کای دو
96799
آیا پیشنهادی دارید که از کدام تست استفاده کنم تا بررسی کنم که آیا تغییر نسبی از نظر آماری با 0 متفاوت است یا خیر. مطمئن هستم که باید تغییرات نسبی (تا) را بررسی کنم. به طور خاص، برای هر مشاهده دو اندازه گیری دارم: اول و دوم. من می خواهم بررسی کنم که آیا $\rm \frac{measurement_{second} -meterment_{first}}{mesurement_{first}}$ با 0 متفاوت است یا خیر. در این سوال: نتیجه تغییر مطلق و تغییر نسبی در آزمون t متفاوت، پیشنهاد می شود از لگاریتم تغییر استفاده شود. چگونه از این لگاریتم ها استفاده کنیم؟ چیزی شبیه این: من داده‌ها را تبدیل می‌کنم: $\rm \log (mesurement_{second}) - \log (mesurement_{first})$ و از t-test جفتی استفاده می‌کنم؟ بعد از چنین تغییری از چه تست های دیگری می توانم استفاده کنم؟ آیا تست هایی وجود دارند که مستقیماً بدون تغییر داده ها مشکل من را حل کنند؟
آزمون آماری زوجی برای تغییر نسبی
12232
چگونه می توانم پارامترهای $\alpha$ و $\beta$ را برای یک توزیع بتا محاسبه کنم اگر میانگین و واریانسی را که می خواهم توزیع داشته باشد بدانم؟ نمونه هایی از دستور R برای انجام این کار بسیار مفید خواهد بود. با تشکر
محاسبه پارامترهای یک توزیع بتا با استفاده از میانگین و واریانس
45664
سوال ساده، آیا کسی بسته‌ای را می‌شناسد (R ترجیح می‌دهم، اما من هر چیزی را انتخاب می‌کنم، SAS، Stata، SPSS) که رگرسیون گام به گام مجموعه داده‌های مضاعف را پیاده‌سازی کند. من خوانده‌ام که انجام آن با دست امکان‌پذیر است، اما باید ۱۰ بار آن را با دست انجام دهم، بنابراین فکر می‌کنم باید کمی آن را خودکار (در R) کنم، که باعث می‌شود به کسی فکر کنم که کدنویسی بهتری داشته باشد. skills از من باید قبلاً چنین کاری را انجام داده باشد. با تشکر فراوان.
اجرای نرم افزار رگرسیون گام به گام پس از انتساب چندگانه
80374
دو تا سوال داشتم 1. من می دانم که در مسابقات تحلیل پیشگویانه، وقتی با مشکلات بله/خیر مواجه می شویم، با تابع هزینه مطلق $f(x) = \frac{1}{n}\sum_{i=1}^n\lvert x_i- \hat x_i\rvert$ بهترین روش این است که $1 بدهید\ if\ \hat x_i>=0.5$ یا $0\ if\ \hat x_i <0.5$ آیا کسی می داند اثبات رسمی خوب برای آن؟ 2. به طور کلی، آیا مقالات قابل خواندنی در مورد بهترین رویکرد برای توابع هزینه های مختلف (مانند MSE و غیره...) می شناسید؟
به حداقل رساندن خطای تابع هزینه مطلق
16923
من چندین مورد ترتیب رتبه در مورد استفاده از زبان ها در زمینه های مختلف دارم. به طور خاص، از پاسخ دهندگان خواسته شد که سه زبان را از بیشترین به کم استفاده ترین زبان در موقعیت هایی مانند در محل کار، مدرسه، هنگام صحبت با والدین و غیره سفارش دهند. * چگونه می توانم داده ها را تجزیه و تحلیل کنم؟ * آیا می توانم مقداری امتیاز ترکیبی را برای نشان دادن کاربرد زبان عمومی برای هر پاسخگو محاسبه کنم؟
چگونه امتیاز ترکیبی متغیرهای مرتبه رتبه را محاسبه کنیم؟
64056
من سه متغیر دارم: * جنسیت {مرد، مونث} * سن {0-18، 19-30، 30-60، 60+} * REGION {اروپا، آسیا»، «آفریقا»، «آمریکا»} از ادبیات «می دانم» که: **مردان** که در **آسیا** زندگی می کنند و در گروه سنی **19-30** قرار می گیرند. 5 درصد احتمال ابتلا به بیماری خاص **مردان** به طور کلی 3% احتمال ابتلا به همین بیماری را دارند **آسیایی** .. **نوجوان** میانگین 2% دارند **آمریکایی***4% و غیره. نکته این است که من مقداری اطلاعات دارم. و من می خواهم آن را در یک فرمت شبکه ضبط کنم و می خواهم در آینده از آن شبکه استفاده کنم. من متخصص R نیستم اما اخیراً در مورد بسته bnlearn مطالعه می کردم. به نظر می رسد دقیقاً همان چیزی است که من به آن نیاز دارم، اما نمی توانم سرم را دور بزنم! آیا من در مسیر درست هستم؟ چگونه احتمالاتم را مشخص کنم؟ کتابخانه (bnlearn); net <- model2network( [Gender.Male] [Gender.Female] [Region.Asia] [Region.Europe] [Region.America] [سن.18.24] [سن.24.30] [سن.30.35] [سن.45.50 ] [Age.50.plus] ); طرح (شبکه); من در واقع 30 متغیر با حداکثر 10 سطح دارم.
شبکه ساده بیزی
45663
من می خواهم روندهای رفتار جستجو را مدل و پیش بینی کنم. برای بهبود دقت پیش‌بینی، می‌خواهم از «روندهای مشابه» استفاده کنم و از رفتار آن‌ها بیاموزم (از تحقیقات من به نظر می‌رسد که این یک ورودی برون‌زا نامیده می‌شود). این می تواند رفتاری مشابه در همان نقطه از زمان (احتمالا آسان تر) اما همچنین در گذشته باشد. یک مثال ممکن است این باشد که علاقه به مرگ ویتنی هیوستون کمی قبل از آن شبیه مرگ مایکل جکسون است. آیا ماشینی وجود دارد که به طور خودکار این مکاتبات را در سری های زمانی پیدا کرده و از آنها استفاده کند؟ شاید چیزی که اوج ها را تراز می کند یا از همبستگی یا تاب زمانی پویا برای تراز کردن دنباله ها به روش درست برای مدل سازی/پیش بینی استفاده می کند. در اینجا دو مثال دیگر وجود دارد: * ترندهای گوگل برای بازی های Madden NFL. یک سری زمانی اطلاعات کمی در مورد آینده دارد اما روندهای مشابه (بازی های قبلی) رفتار بسیار مشابهی از خود نشان می دهند. * ترندهای گوگل برای فوتبال دولتی. این نمونه ای است که کمی پیچیده تر است. در اینجا برخی از روندها در بیشتر بازه های زمانی تا حدودی مستقل هستند، اما در زمان اوج به طور ناگهانی بسیار مرتبط هستند (رسوایی فوتبال و سرمربی). خیلی خوب است که در ابتدای اوج به طور خودکار بفهمم که اکنون واقعاً می توانم از اطلاعات سری های زمانی دیگر استفاده کنم. هر گونه ایده و اشاره بسیار استقبال می شود. از نظر کدنویسی ترجیح می دهم از پایتون استفاده کنم، اگرچه به نظر می رسد که ممکن است مجبور باشم نحوه استفاده از R را یاد بگیرم. شاید بتوانم این دو را نیز ترکیب کنم (یعنی فراخوانی روش های R از پایتون).
پیش‌بینی سری زمانی با ورودی‌های برون‌زا (حالا و تاریخی)
48787
من در حال انجام یک مطالعه همبستگی برای تعیین اینکه آیا رابطه ای بین ویژگی های رهبری خدمتگزار در ایجاد مدیران و سطوح خودکارآمدی معلم به عنوان معیارهای مقیاس حس اثربخشی معلم وجود دارد یا خیر. من به تحلیل رگرسیون فکر کردم، اما مطمئن نیستم که از ANOVA یا پیرسون استفاده کنم. ابزار نظرسنجی برای رهبری خدمتگزار برای همه پرسنل در ساختمان اجرا می شود تا سطح رهبری خدمتگزار را تعیین کند و مقیاس اثربخشی برای معلمان در ساختمان اجرا می شود تا مشخص شود ویژگی های رهبری خدمتگزار سطوح کارآمدی را در کلاس افزایش می دهد. هر گونه کمکی بسیار قدردانی خواهد شد!
آمار همبستگی؟ از کدوم استفاده کنم؟
64054
من یک متغیر پاسخ و تعدادی پیش بینی دارم. من باید درصد سهم هر پیش بینی کننده را محاسبه کنم. من می دانم که این کار را می توان با استفاده از رگرسیون ارزش Shapley انجام داد، اما آیا راهی برای انجام آن از طریق SPSS، Excel یا Minitab وجود دارد؟ آیا روش جایگزینی مشابه روش ارزش Shapley وجود دارد؟
جایگزینی برای رگرسیون ارزش شپلی
10562
من یک ماتریس فاصله بزرگ 3400 دلار \ برابر 3400 دلار دارم. من باید آنها را به صورت سلسله مراتبی دسته بندی کنم و سپس درخت را به خوشه برش دهم (مانند یک رویکرد پارتیشن). کدام الگوریتم برای یافتن خوشه های طبیعی در داده ها بر اساس ماتریس فاصله حساس تر است؟ چگونه می توانم نتیجه را ارزیابی کنم؟ من در حال برنامه ریزی برای استفاده از میانگین ضریب شبح درخت در سطوح مختلف برای شناسایی خوشه های طبیعی از درخت هستم. با تشکر
کدام الگوریتم خوشه بندی سلسله مراتبی؟
12231
من یک مجموعه داده با یک متغیر وابسته در مقیاس 0 تا 100 (n=198) دارم. مشکل این است که بسیاری از آزمودنی ها (25) دقیقاً 100 امتیاز گرفتند اما کمتر از 100 هر نمره فقط یک بار به دست می آید. این هیستوگرام را همانطور که در لینک زیر می بینید تحریف می کند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fZOCF.jpg) من سعی می کنم یک ANOVA (رگرسیون با دو کنتراست) اجرا کنم پیش بینی های رمزگذاری شده) و یک تعامل. این تعامل غیرمعنی‌دار است، اما من فکر می‌کردم که شاید ناشی از غیرعادی بودن متغیر وابسته باشد. آیا روش های قوی برای جلوگیری از این مشکل وجود دارد؟ با تشکر
رگرسیون قوی یا ANOVA برای متغیر وابسته غیر نرمال
80375
من مدل رگرسیونی $y_i = \beta_0 + \beta_1x_{1i} + \beta_2x_{2i} + \varepsilon_i$ را در نظر می‌گیرم که در آن $\varepsilon_i$ iid و $\mathcal N(0,\sigma^2)$ است. یک سوال مطالعه نشان می دهد که رابطه بین واریانس برآوردهای حداقل مربعات $\beta_i$ و ${\rm VIF}_i$ برای $i = 1.2$. آیا این کافی است که بگوییم واریانس واقعی ضریب رگرسیون در مدل برابر است با واریانس برآورد حداقل مربع ضرب در ضریب تورم واریانس یا چیزی را کنار می گذارم؟
سوال در مورد عوامل تورم واریانس
81439
من رگرسیون لجستیک باینری را برای یک نتیجه دوگانه انجام داده ام و از 5 پیش بینی کننده (3 پیوسته و 2 دوگانه) استفاده کرده ام. یکی از پیش بینی کننده های دوگانه، تعداد زیادی OR و 95% CI را ارائه می دهد (108.28، CI= 6.64- 1764.6، $p <.001$). آیا چنین عدد بزرگی قابل گزارش است یا مشکلی وجود دارد؟ حجم نمونه 55 مورد بود. به هر حال، متغیرهای مستقل پیوسته به صورت خطی با logit متغیر وابسته مرتبط بودند. من این رویه Box-Tidwell را با افزودن شرایط تعامل بین متغیرهای مستقل پیوسته موجود و تبدیل‌های گزارش طبیعی آنها به رگرسیون لجستیک آزمایش کردم، و آنها معنی‌دار نبودند.
OR و 95% CI برای رگرسیون لجستیک بسیار بالا بود!
45666
من داده‌هایی برای دو گروه دارم (یعنی نمونه‌ها) می‌خواهم مقایسه کنم، اما حجم کل نمونه کوچک است (n = 29) و به شدت نامتعادل (n = 22 در مقابل n = 7). جمع آوری این داده ها از نظر لجستیکی دشوار و پرهزینه است، بنابراین در حالی که جمع آوری داده های بیشتر به عنوان یک راه حل واضح در این مورد مفید نیست. تعدادی از متغیرهای مختلف (تاریخ عزیمت، تاریخ ورود، مدت مهاجرت و غیره) اندازه‌گیری شد، بنابراین تست‌های متعددی وجود دارد که برخی از آنها واریانس‌ها بسیار متفاوت هستند (نمونه کوچکتر واریانس بالاتری دارد). در ابتدا یکی از همکاران آزمون‌های t را بر روی این داده‌ها انجام داد و برخی از آنها با P<0.001 معنی‌دار بودند، و دیگری با P=0.069 معنی‌دار نبود. برخی از نمونه ها به طور معمول توزیع شدند، برخی دیگر توزیع نشدند. برخی از آزمون‌ها شامل انحرافات زیادی از واریانس‌های «برابر» بودند. من چندین سوال دارم: 1. آیا آزمون های t در اینجا مناسب هستند؟ اگر نه، چرا؟ آیا این فقط در مورد آزمون هایی که مفروضات نرمال بودن و برابری واریانس ها برآورده می شوند صدق می کند؟ 2. جایگزین(های) مناسب چیست؟ شاید یک تست جایگشت؟ 3. واریانس نابرابر خطای نوع I را باد می کند، اما چگونه؟ و اندازه نمونه کوچک و نامتعادل چه تأثیری بر خطای نوع I دارد؟
حجم نمونه کوچک و نامتعادل برای دو گروه - چه باید کرد؟
80378
برای یک رگرسیون خطی $Y = \بتا X + \epsilon$، که در آن $\epsilon$ خطا است، می دانم که وقتی همبستگی خودکار در عبارت خطا وجود دارد، تخمین های بتا سازگار هستند اما واریانس تخمین های بتا نیست. اما به هر حال بتاها سازگار هستند. سوال من این است که چگونه می توانیم بگوییم که تخمین های بتا سازگار هستند. همانطور که همبستگی خودکار می تواند از این واقعیت حاصل شود که یک متغیر مستقل وجود ندارد. در صورتی که یک متغیر مستقل وجود نداشته باشد، عادلانه است که فرض کنیم همبستگی بین $X$ و متغیر گمشده صفر نخواهد بود. اگر این درست باشد، همبستگی بین خطا (e) و $X$ نیز صفر نخواهد بود. اگر این همبستگی صفر نباشد، OLS معتبر نیست و بتا سازگار نیست. قطعه گم شده در این منطق چیست؟ این پیوند توضیح می دهد که وقتی همبستگی خودکار سریال وجود دارد این بدان معنا نیست که تخمین های بتا اشتباه هستند. http://www.nku.edu.tw/~account/chinese/course/eco91/lecture10.pdf
خود همبستگی در اعتبار OLS و OLS
99517
من می خواهم بخوانم، آماری مطالعه کنم و تصاویر عددی را اصلاح کنم. در دوران مدرسه با توابع داخلی متلب کار می کردم. من دیگه این امکان رو ندارم اکنون می خواهم کارم را از سر بگیرم. می خواهم بدانم از کجا شروع کنم. از چه زبانی باید استفاده کنم (من مقداری R، python و c را می شناسم)؟ چه بسته ای جالب خواهد بود؟ چه کتاب/درسی را باید بخوانم تا دانش اولیه خود را در مورد تصویر عددی، فرمت ها، معیارها بهبود بخشم؟ (از منابع پیشرفته نمی ترسیم)
منابع برای پردازش تصویر
46312
من در R کار می کنم و از glm.nb (از بسته MASS) برای مدل سازی داده های شمارش با یک مدل رگرسیون دو جمله ای منفی استفاده می کنم. من می خواهم ضرایب استاندارد شده ( _beta_ ) را از مدل دریافت کنم، اما ضرایب غیر استاندارد ( _b_ تخمین) به من داده می شود. به نظر نمی رسد که اسناد R راهی برای بازیابی وزن های بتای استاندارد شده برای یک مدل رگرسیون بیونومیال منفی به راحتی نشان دهد. اسکریپت R چیزی شبیه به این است: library(MASS) nb = glm.nb(responseCountVar ~ predictor1 + predictor2 + predictor3 + predictor4 + predictor5 + predictor6 + predictor7 + predictor8 + predictor9 + predictor10 + predictor11 + predictor +14 predictor + predictor16 + predictor17 + predictor18 + predictor19 + predictor20 + predictor21, data=myData, control=glm.control(maxit=125)) summary(nb) و خروجی موارد فوق این است: Deviance Residuals: Min 1Q Median 3Q6 Max -5. 1.0080 -0.4247 0.2277 3.4336 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -3.059e+00 3.782e-01 -8.088 6.05e-16 *** predictor1 -2.447e+00 4.930e-01 -4.965 6.88e-07 *** پیش بینی 2 -1.004e+00 1.313e-01 -7.650 2.00e-14 *** predictor3 1.158e+00 1.440e-01 8.047 8.46e-16 *** predictor4 1.334e+00 7.034e-02 *** predictor4 189. 9.862e-01 2.006e-01 4.915 8.87e-07 *** predictor6 1.166e+00 2.378e+00 0.490 0.62392 predictor7 -1.057e-01 1.494-7 -1.494e-01 4.051e-01 7.318e-02 5.536 3.10e-08 *** predictor9 -3.320e-01 1.132e-01 -2.933 0.00336 ** پیش بینی 10 3.761e-01 3.761e-01 0.561 *01.01. predictor11 8.660e-02 4.332e-02 1.999 0.04557 * predictor12 -1.583e-01 2.044e-01 -0.774 0.43872 predictor13 6.404e-021-02-13. *** predictor14 4.264e-03 2.297e-04 18.563 < 2e-16 *** predictor15 3.279e-03 5.697e-04 5.755 8.68e-09 *** predictor16 3.410-3.430. 0.31177 پیش بین 17 1.534e-04 1.647e-04 0.931 0.35182 پیش بینی 18 -7.606e-05 9.021e-05 -0.843 0.39917 پیش بینی 19 2.433-2.433-2.433-2.535 < 2e-16 *** predictor20 2.997e-02 4.977e-03 6.021 1.73e-09 *** predictor21 2.756e+01 3.508e+00 7.856 3.98e-15 *** --- Sign کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای منفی (0.9232) 1) انحراف صفر: 5631.1 در 1835 درجه آزادی انحراف: 2120.7 در 1814 درجه آزادی AIC: 19268 تعداد تکرارهای امتیازدهی فیشر: 1 تتا: 0.9232 Std. Err.: 0.0282 2 x log-likelihood: -19221.9910 **سوال من این است**: آیا راهی برای بدست آوردن وزن بتا وجود دارد یا باید سعی کنم ضرایب b غیر استاندارد خود را به ضرایب بتا استاندارد تبدیل کنم (اگر چنین است، چگونه این کار را انجام دهم)؟
چگونه ضرایب بتا استاندارد شده را از رگرسیون glm.nb در R بدست آوریم؟
49169
در تئوری تصمیم، امضای تابع ضرر قرار است فضای خروجی * فضای خروجی -> خطا باشد به نظر می رسد تعاریف مختلفی از «از دست دادن لجستیک» در وب وجود دارد * برخی آن را به عنوان «منفی احتمال گزارش» تعریف می کنند. : این به وضوح یک تابع ضرر در دیدگاه تئوری تصمیم نیست * برخی آن را به عنوان تابعی از R * [K ] -> R upen : همان pb با دامنه تعریف می کنند * * * بنابراین آیا **_نظریه تصمیم گیری** ضرر_ صحیح بر حسب توزیع بیان می شود؟ یعنی: * با توجه به x، توزیعی را بر روی موارد K برمی گردانم، _که توسط معادله softmax_ در مورد رگرسیون لجستیک (فضای خروجی = توزیع ها) داده می شود * تابع ضرر من فاصله KL بین این توزیع و مشاهده شده است. یک (امضا = توزیع ها * توزیع -> R) PS: R برای عدد واقعی و [K] مجموعه گسسته اعداد صحیح از 1 تا K است.
رگرسیون لجستیک، تابع ضرر و واگرایی KL
49160
در تئوری، وزن اهمیت یک ذره باید یک احتمال باشد، یعنی $w_{s_t} = p(z_t|s_t)$. سوال من این است: از آنجایی که ما در نهایت وزن ها را با مجموع آنها نرمال می کنیم و توزیع احتمال می گیریم، آیا وزن های اهمیت خود در عمل باید احتمال باشند؟ آیا نمی‌توانیم فقط از تابعی استفاده کنیم که اعداد غیر منفی را به دست می‌دهد؟
وزن های اهمیت فیلتر ذرات
90793
در رگرسیون خطی، اغلب R و R چندگانه را مجذور می کنیم. چه تفاوت هایی بین آنها وجود دارد؟
تفاوت بین R و R مجذور چندگانه چیست؟
10567
من در حال حاضر در حال بررسی یک مسئله شیمی‌فورماتیک هستم که در آن به رابطه بین ساختار شیمیایی و واکنش‌پذیری نگاه می‌کنم، به عنوان مثال. چگونه زاویه نزدیک شدن دو مولکول به یکدیگر بر سرعت واکنش بعدی تأثیر می گذارد. بدیهی است که زاویه فقط می تواند بین 0 تا 360 درجه تغییر کند. این سوال بررسی سریع از یک متخصص غیرآمار محتاط است. من درک می کنم که در تحلیل رگرسیون، متغیر وابسته باید پیوسته و نامحدود باشد. من فقط تعجب کردم - آیا متغیرهای پیش بینی کننده پیوسته در رگرسیون نیز باید نامحدود باشند؟ به طور غریزی فکر می کنم نه.
آیا می توانیم از متغیرهای پیوسته محدود به عنوان پیش بینی کننده در رگرسیون و رگرسیون لجستیک استفاده کنیم؟
109845
من می خواهم یک شاخص به عنوان ترکیبی از چندین متغیر ایجاد کنم. استفاده از PCA به من توصیه شد. با این حال، PCA اطلاعات بیش از حد را دور می اندازد - اساساً چندین متغیر را به نفع یک متغیر دور می اندازد. من آن را مشکل ساز و توجیه آن سخت می دانم. من نمی خواهم اطلاعات موجود در متغیرهای خود را از دست بدهم. من فقط یک مقدار می خواهم که ترکیبی از همه متغیرهای اساسی باشد. برای رسیدن به این هدف چه ابزاری را به عنوان یک ابزار اقتصاد سنجی پیشنهاد می کنید؟
نحوه ایجاد ترکیبی از چندین متغیر بدون دور ریختن اطلاعات
80370
من دو متغیر وابسته Prime Type (پنج سطح)، و Prime Relatedness (دو سطح) و یک متغیر وابسته دارم. زمان واکنش (RT). من یک مدل خطی اثر مختلط را در R با استفاده از فرمول زیر برای بسته lme4 اجرا کردم: data.mod1=lmer(RT~Related*PrimeType*(1|Subject)+(1|Item),mydata) سپس یک مشابه را اجرا کردم. فرمول بسته nlme data.mod1.lme=lme(RT~Related*PrimeType, random=~1|موضوع/موضوع،mydata) با توجه به اینکه این مدل‌ها مجموعه داده‌های مشابهی را با استفاده از مدل‌های اثر مختلط خطی تجزیه و تحلیل می‌کنند، آزمون t مقادیر متفاوتی را نشان می‌دهد! در واقع، برای یکی از متغیرها مقدار p قابل توجهی در مدل nlme نشان می دهد اما در بسته lme4 نه: nlme.variable t=-1.98707 p-value=0.0470 lme4. متغیر t=-1.14 p-value=0.2917866* p-value در lme4 محاسبه نشده است و sampMCMC دیگر در دسترس نیست، من مجبور شدم با استفاده از فرمول زیر محاسبه کنم 2_ (1 - pt(abs(x), df)) --> 2*(1 - pt(abs(-1.14), 7)) سوال من این است که چرا t- مقادیر بین دو بسته متفاوت است. آیا باید چیزی را در R تغییر دهم یا اضافه کنم تا هر دو مدل مقادیر t یکسانی را نشان دهند؟ همچنین آیا محاسبه من از p-value اشتباه است؟ اگر بله، روش صحیح محاسبه آن چیست؟ ویرایش: کارشناسان nlme - کد صحیح فرمول ذکر شده در بالا برای افزودن افکت تصادفی متقاطع چیست؟
مقدار t متفاوت برای داده های یکسان در R (بسته nlme در مقابل lme4)
97445
تجزیه و تحلیل من شامل برخی از داده های رفتاری در خوکی بود. یکی از معیارهای ما زمان ایستادن (دقیقه) برای خوک ها با استفاده از شتاب سنج بود. با استفاده از SAS، نرمال بودن را بررسی کردم و نتایج نشان داد که داده ها غیرعادی هستند (Shapiro-Wilk < 0.05). سپس تجزیه و تحلیل باقیمانده را انجام دادم که دوباره داده های غیر عادی را نشان داد. چولگی 0.42- بود. دلیل چولگی منفی احتمالاً به این دلیل بود که یک حد بالایی تعیین شده (60 دقیقه) برای متغیر اندازه‌گیری شده وجود داشت. بنابراین من داده ها را منعکس کردم و یک SQRT منعکس شده انجام دادم. سپس داده‌های تبدیل‌شده را در مدل قرار دادم و باقی‌مانده‌ها را دوباره بررسی کردم. نتایج هنوز غیر طبیعی بود. هر گونه پیشنهادی در مورد آنچه می توانم انجام دهم؟
تبدیل برای داده های چولگی منفی
29363
اگر من یک رگرسیون لجستیک (دو جمله ای) انجام داده باشم. آیا از روی ضرایب می توان درصدی از میزان تأثیر هر یک از متغیرها بر متغیر وابسته را محاسبه کرد؟ بگوییم که برای مثال var1 داریم: 0.635، var2: 0.245، var3: 1.243. اگر بدانیم که متغیر وابسته Y در داده ها 1 در 0.64 زمان است. آیا می‌توانیم از این برای محاسبه خط‌های طولانی استفاده کنیم: متغیر 1 تأثیر 25% بر Y، متغیر 2 15% و متغیر 3 60% دارد؟
آیا امکان برون یابی درصدی از ضرایب رگرسیون لجستیک داده شده وجود دارد؟
48786
ظاهراً، هدف تجزیه و تحلیل فیشر، به حداکثر رساندن همزمان جداسازی بین طبقاتی است، در حالی که پراکندگی درون کلاس را به حداقل می‌رساند. یک معیار مفید > از قدرت تمایز یک متغیر از این رو با قطر > کمیت داده می شود: $B_{ii}/W_{ii}$. http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html من می دانم که اندازه (n x n) ماتریس های بین (B) و درون کلاس (W) با تعداد متغیرهای ورودی، n داده می شود. با توجه به این، چگونه $B_{ii}/W_{ii}$ می‌تواند «معیار مفیدی برای قدرت تمایز» یک متغیر باشد؟ حداقل دو متغیر برای ساخت ماتریس های B و W مورد نیاز است، بنابراین ردیابی های مربوطه بیش از یک متغیر را نشان می دهند. به‌روزرسانی: آیا من درست فکر می‌کنم که $B_{ii}/W_{ii}$ یک ردیابی بر روی یک ردیابی نیست، که در آن مجموع ذکر شده است، بلکه عنصر ماتریس $B_{ii}$ تقسیم بر $W_{ii} است. دلار؟ در حال حاضر این تنها راهی است که می توانم بیان را با مفهوم تطبیق دهم.
قدرت تفکیک فیشر یک متغیر و تجزیه و تحلیل تشخیصی. جبر LDA
57879
مشکل زیر است: _شما پنج سکه منصف دارید. همه آنها را به گونه ای پرتاب می کنید که به طور تصادفی سر یا دم بیفتند. آنهایی که در اولین پرتابی که برمی دارید و پرتاب می کنید دم می افتند. دوباره آنهایی را که بعد از پرتاب دوم دم نشان می دهند و به همین ترتیب پرتاب می کنید، تا زمانی که همه سرهای نمایش داده شوند. اجازه دهید X تعداد سکه های درگیر باشد. در آخرین پرتاب راه حل P(X=1)_ را پیدا کنید: بنابراین ابتدا، اجازه دهید زنبور حالت به صورت **تعداد دنباله**هایی که از 5 به 0 در امتداد شاخص زمان گسسته می رود دیده شود. بنابراین، **وضعیت جذب 0 است زیرا ما به دنبال حالتی هستیم که در آن هیچ سکه دیگری برای نشان دادن دم باقی نمانده باشد** با استفاده از این، ماتریس زیر را دارم اما نمی دانم چگونه P(X=1) را از آن بدست بیاورم. آن $\begin{matrix} \hdashline 1 & 0 & 0 & 0 & 0 & 0 \\\ 1/2 & 1/2 & 0 & 0 & 0 & 0\\\ 1/4 و 1/2 و 1/4 و 0 و 0 و 0 \\\ 1/8 و 3/8 و 3/8 و 1/8 و 0 و 0 \\\ 1/16 و 1/4 و 3/8 و 1/4 و 1/16 و 0 \\\ 1/32 و 5/32 و 5/16 و 5/16 و 5/32 و 1/32 \end{matrix}$
تحلیل گام اول مدل مارکوف
49166
برخی از بهترین کتاب ها برای مطالعه کدامند: i) تنوع متغیرهای تک متغیره و چند متغیره (واقعی، داده های شمارش) در یک حوزه فضایی. ii) نمونه برداری از یک متغیر تک متغیره یا چند متغیره بر اساس توزیع آن در مکان های مکانی. (نمونه برداری مکانی به طور خلاصه)
کتاب های پیشنهادی در زمینه آمار فضایی
100168
من در حال تجزیه و تحلیل داده های پانل هستم. ابتدا باید تصمیم بگیرم که از تخمینگر اثر تصادفی یا ثابت استفاده کنم. آزمون هاسمن استفاده از برآوردگر اثر ثابت (که در تخمینگر گروه نیز نامیده می شود) پیشنهاد می کند. بنابراین، این همان چیزی است که من استفاده می کنم. با این حال، این روش اثرات ثابت فردی، یعنی Ui را حذف می کند، چیزی که من بیشتر به آن علاقه دارم. از این رو، من به مرحله دوم ادامه می دهم. دوم، من یک تخمین‌گر بین گروهی اجرا می‌کنم که در آن اثرات فردی پیش‌بینی‌شده را پس‌انداز می‌کنم، یعنی Ui پیش‌بینی‌شده از مرحله اول، در برابر فهرستی از اثرات ثابت ثابت زمان که به آنها علاقه‌مندم سؤالات من سه عبارتند: 1. این به من آموزش داده شد. روش دو مرحله ای در دوره فوق لیسانس تابستانی و هیچ کتابی که خوانده ام به آن اشاره نکرده است، می دانید اسمش چیست؟ 2. آیا خوشه بندی خطاهای استاندارد روی افراد در مرحله اول معنادار است؟ (یعنی برآوردگر درون گروهی) 3. آیا استفاده از یک متغیر هم به عنوان متغیر کمکی و هم به عنوان خوشه برای خطای استاندارد در یک مدل معنادار است؟
داده های پانل - برآورد درون گروهی - اثرات ثابت فردی بازیابی شده است
12235
من می‌دانم که از fitness می‌توان برای بررسی خوبی بین یک مجموعه داده و یک نوع توزیع استفاده کرد. من نمی دانم که آیا می توان خوبی دو دیتا فریم را در R بدست آورد؟ e <- c(1,1,1,1,3,3) f <- c(2,2,2,2,4,5) g <- goodfit(e,f, method=MinChisq) خطا در match.arg(type): 'arg' باید NULL یا یک بردار کاراکتر باشد
چگونه خوب بودن تناسب بین دو فریم داده را در R آزمایش کنیم؟
10569
من یک سوال بسیار اساسی دارم. من یک مدل لجستیک را در SAS Entreprise Miner اجرا کردم و خروجی را دریافت کردم. فرض کنید یک متغیر دسته بندی با 3 دسته داریم. یک متغیر ساختگی برای 2 دسته ایجاد می کند و بنابراین برای هر کدام 2 ضریب به ما می دهد. وقتی معادله لجستیک مشابهی را با Base SAS با استفاده از proc logistic اجرا می کنیم، تنها یک ضریب برای آن متغیر طبقه بندی می کنیم. آیا این دو خروجی یک چیز را می گویند؟ چگونه Base SAS تعداد دسته ها را در نظر می گیرد در حالی که فقط یک ضریب برای متغیر طبقه بندی می دهد؟ علاوه بر این، آیا راهی برای بدست آوردن همان نوع خروجی با Base SAS وجود دارد که من در Entreprise Miner دریافت کردم (عموماً، یکی با ضرایب متفاوت برای دسته های مختلف)؟ هر گونه اشاره اضافی بسیار قدردانی خواهد شد.
تفسیر خروجی رگرسیون لجستیک از SAS
80377
من بوم شناس جامعه نیستم اما این روزها روی داده های بوم شناسی جامعه کار می کنم. چیزی که من نمی‌توانستم بفهمم، جدای از ریاضیات این فاصله‌ها، معیارهایی است که باید از کدام فاصله و چه زمانی استفاده کرد. به عنوان مثال، از چه چیزی با داده های شمارش استفاده کنیم؟ چگونه زاویه شیب بین دو مکان را به فاصله تبدیل کنیم؟ یا دما یا بارندگی در دو مکان؟ مفروضات برای هر فاصله چیست و چه زمانی مناسب است! با تشکر
از کدام فاصله استفاده کنیم؟ به عنوان مثال، منهتن، اقلیدسی، بری کورتیس، و غیره
78446
من با یک سوال بسیار ساده گیر کردم، اما من واقعاً نمونه برداری را نمی فهمم، پس لطفا به من کمک کنید. فرض کنید که من نمونه برداری برنولی را با پارامتر q روی داده D انجام می دهم و نمونه S1 را بدست می آوریم. سپس در S1، یک نمونه برنولی دیگر با پارامتر q' انجام می دهم و نمونه S2 را به دست می آوریم. آیا نمونه S2 حاصل، نمونه تصادفی داده اصلی D است؟ خیلی ممنون
نمونه فرعی یک نمونه تصادفی؟
57876
اگر نسبت آسیاب مدل انتخابی هکمن (با/بدون محدودیت حذف) قابل توجه نباشد، آیا ترجیح می دهم مدل خود را با OLS تخمین بزنم؟ یا بهتر است از تخمین‌های مدل هکمن استفاده کنیم، اگرچه به نظر می‌رسد انتخاب نمونه وجود ندارد؟
انتخاب نمونه هکمن در مقابل OLS
29361
من به دنبال تقسیم 50 ایالت ایالات متحده به مناطق n هستم. الزامات در تقسیم عبارتند از: * به هر ایالت یک مقدار اختصاص داده می شود * مقادیر حالت در هر منطقه باید جمع شود تا مجموع گروه زوج (تا حد امکان نزدیکتر) شود. که به نظر می رسد این یک تغییر مشکل بسته بندی سطل زباله است. * ایالت‌های هر منطقه باید از نظر جغرافیایی خوشه‌بندی شوند، برای مثال، CA+OR+WA باید خوشه‌بندی شوند، حتی اگر CA+GA+RI انحراف استاندارد کمتری از مجموع ارزش‌های منطقه‌ای ایجاد کند. این پست یک سوال مشابه را مطرح می کند. خوشه بندی K-Means بیش از حد به نظر می رسد زیرا ایالت ها فقط باید همسایه باشند، با این حال من نسبت به آمار بسیار سبز هستم. به عنوان یک نکته جانبی، من در نهایت به دنبال پیاده سازی آن در Ruby (که دارای یک پلاگین کتابخانه R است) هستم. **به روز رسانی** انگیزه پشت خوشه بندی سهولت سفر است، بنابراین فشردگی خوشه مهم تر از مجاورت حالت است (یعنی از خوشه های بلند، باریک و رشته ای شکل باید اجتناب شود).
الگوریتم خوشه بندی وزنی
21434
نام تبعیض منجر به تعاریف ذاتی می شود که به نظر من درست نیست. هنگامی که برای اولین بار در مورد مدل های متمایز صحبت شد، شهود می گوید: این مدلی است که دقت آموزش بین کلاس های مختلف را با تمرکز بر ویژگی هایی که هر کلاس را از یک طبقه دیگر متمایز می کند، بهبود می بخشد. هر چند فکر نمی کنم این درست باشد. چرا آنها را تبعیض آمیز می نامند؟ و بیانیه بالا من چقدر غیر قابل قبول است؟
چرا مدل های تبعیض آمیز «تبعیض کننده» نامیده می شوند؟
92871
$(X_{i1}، X_{i2})، i=1، \ldots،n $ را در نظر بگیرید، جایی که $X_{i1}، X_{i2}$ از توزیع نرمال دو متغیره با همبستگی $\rho$ پیروی می کنند. میانگین نمونه را به صورت $\bar X_j= \dfrac{1}{n}\sum_{i=1}^n X_{ij}, j=1,2$ و همبستگی نمونه را به صورت $\hat \rho = تعریف کنید \dfrac{\sum_i (X_{i1}-\bar X_1)(X_{i2}-\bar X_2)}{\sqrt{\sum_i (X_{i1}-\bar X_1)^2\sum_i (X_{i2}-\bar X_2)^2}}$. آیا نتیجه ای در توزیع مشترک $\bar X_1، \bar X_2$ مشروط به ضریب همبستگی نمونه $\hat \rho$ وجود دارد؟
توزیع میانگین نمونه مشروط به ضریب همبستگی نمونه است
21437
توجه: من به 'SAS' دسترسی ندارم، بنابراین سعی می کنم کد را از نحو ماکرو تفسیر کنم. من داده های وزنی فرکانس دریافتی های تغذیه را دارم. وزن فرکانس عدد صحیح است. این از یک مطالعه رژیم غذایی با اندازه‌گیری‌های مکرر است که در آن برخی از پاسخ‌دهندگان دو معیار مصرف و برخی دیگر یک اندازه دارند. (توجه: این داده‌های آزمایشی برای تأیید اعتبار روش «R» من در برابر روش «SAS» است، داده‌های مورد علاقه اکثر پاسخ‌دهندگان، اگر نه همه پاسخ‌دهنده‌ها، دو تکرار دارند.) داده‌ها دارای تبدیل Box Cox به خطی بودن هستند. و من از یک روش ترکیبی غیرخطی برای تخمین دریافت مواد مغذی درازمدت استفاده کرده ام (وزن فرکانس در این تجزیه و تحلیل استفاده شد). گام بعدی برای تولید 100 تکرار برای هر فرد و تبدیل مجدد با استفاده از تقریب سری تیلور (عموماً خطوط 355 تا 360 کد پیوند شده). برخی از جزئیات روش MC برای تکرارها: تکرارها با گرفتن اثر تصادفی برای فرد از تجزیه و تحلیل روش های غیرخطی ترکیبی، و تنظیم بر اساس انحراف استاندارد آنها * یک کشش از توزیع نرمال تصادفی ایجاد می شوند. این در خطوط 322 و 323 کد پیوند داده شده در اینجا نشان داده شده است. من از «Notepad++» برای دریافت شماره‌گذاری خط کد استفاده می‌کنم. کد ماکرو من را با آنچه که در مورد وزن‌ها اتفاق می‌افتد کمی از دست داده است، زیرا یک ماکرو قبلی ساختار وزن زیادی را در خود داشت، به ویژه محاسبه وزن گروه (مجموع در گروه سنی) و وزن کل. خطوط 173-203 کد به نظر می‌رسد که این کار قبلی را تکرار می‌کنند، که توزیع‌ها را قادر می‌سازد برای هر گروه خروجی داشته باشند. خطوط 206 تا 229 فقط گروه کلی را ایجاد می کنند، دوباره به نظر می رسد که محتوای یک ماکرو قبلی را تکرار می کند (به پاراگراف آخر مراجعه کنید). یک محاسبه وزن تنظیم شده در خط 306 در داخل شبیه سازی MC وجود دارد که به نظر می رسد وزن فردی را بر تعداد تکرارها تقسیم می کند و سپس بر وزن گروه تقسیم می کند. من فکر می‌کنم این محاسبه طوری انجام می‌شود که در خط 380، «totsum» یکی از مقادیر نشان‌داده‌شده در نظر را بگیرد، و بنابراین «adjwt» شاید یک وزن «واقعی» نباشد. خطوط 411 تا 536 توزیع جمعیت را تخمین می‌زنند و خروجی می‌دهند - و من نمی‌توانم هیچ استفاده‌ای برای وزن‌ها به غیر از نقاط برش (خط 473) ببینم. سوال تحقیق این است: توزیع بلندمدت دریافت مواد مغذی در جمعیت چگونه است؟ سوال من این است: آیا من درست فکر می کنم که وزن فرکانس فقط برای تصمیم گیری در مورد نقاط برش استفاده می شود؟ اگر نه، چه کار کردند؟ اگر درست می گویم، آیا هنگام ساخت توزیع تخمینی جمعیت در این نوع تحلیل (مدل اثر مختلط غیرخطی به دنبال شبیه سازی مونت کارلو) معمولاً وزن فرکانس نادیده گرفته می شود؟ (من با داده‌های مقدار کار می‌کنم، بنابراین جنبه‌های احتمال (احتمال مصرف) مورد توجه نیستند زیرا فقط زمانی استفاده می‌شوند که ماده مغذی مورد علاقه به طور منظم مصرف نشود. برای مثال، مواد مغذی مانند انرژی یا پروتئین هیچ احتمالی ندارند. جزء مصرفی که معادل 1 است، در حالی که الکل، یا غذاهای خاص، به احتمال جزء مصرفی نیاز دارند زیرا به طور منظم توسط بسیاری از مردم مصرف نمی‌شوند. گروه اولیه و محاسبات وزن کل در اینجا است، خطوط 426 تا 516 را ببینید. این ماکرو جلوتر از دیگری اجرا می شود تا تخمین های مورد استفاده برای تخمین های شبیه سازی و توزیع را تولید کند، بنابراین کد تبدیل Box Cox و غیره را در خود دارد. اگر می خواهید روش را برای خودتان بررسی کنید، من از مثال 1 از اینجا استفاده می کنم. برای اجرای کد به SAS نیاز خواهید داشت، اگرچه نحو، خروجی و فایل های گزارش فایل های متنی هستند.
روش های غیرخطی ترکیبی، شبیه سازی مونت کارلو و استفاده مناسب از وزن دهی برای تخمین توزیع جمعیت
48784
فرض کنید که ما تصاویر اسناد دیجیتالی کرده ایم. این مدارک را از طریق OCR می گذرانیم و اسناد متنی به دست می آوریم که با توجه به موضوعات آنها در کلاس های مختلف مانند حقوق و دستمزد، صورتحساب های مختلف، نامه های اطلاعاتی ... آیا این طبقه بندی برای کاربرد استخراج اطلاعات مفید است؟ چگونه؟ مثالها به یاد داشته باشید، اسناد یک سند دیجیتالی تصاویر (مانند فاکتورها و غیره) هستند. آیا می توانید لطفاً به من بگویید که طبقه بندی این اسناد بر اساس متن آنها (در زمینه استخراج اطلاعات) چه کاربردی می تواند مفید باشد؟
آیا طبقه بندی اسناد بر اساس موضوع آنها برای هر کاربردی مفید است؟
11109
اگر متغیری دارید که صفرها و یک ها را در متغیر هدف کاملاً از هم جدا می کند، R پیام هشدار جدایی کامل یا شبه کامل زیر را نشان می دهد: پیام هشدار: glm.fit: احتمالات برازش عددی 0 یا 1 رخ داده است، ما هنوز مدل را دریافت می کنیم اما برآورد ضرایب متورم است. در عمل چگونه با این موضوع برخورد می کنید؟
چگونه با جداسازی کامل در رگرسیون لجستیک مقابله کنیم؟
16928
من همیشه از رگرسیون لجستیک زمانی استفاده می‌کردم که Y داده‌های مقوله‌ای 0 یا 1 بود. اکنون این متغیر وابسته را دارم که واقعاً یک نسبت/احتمال است. این بدان معناست که می‌تواند هر عددی بین 0 و 1 باشد. من واقعاً فکر می‌کنم شکل لجستیکی خیلی خوب جا می‌شود، اما به یاد دارم که Y مقوله‌ای برای اثبات اینکه چرا MLE کار می‌کند بسیار مهم بود. نکته اینجاست که من در استفاده از رگرسیون لاجیت برای این Y اشتباه می کنم یا مهم نیست؟ آیا باید به جای آن از probit استفاده کنم؟ آیا من مرتکب جرم بزرگی هستم؟
کدام تابع پیوند برای یک رگرسیون زمانی که Y بین 0 و 1 پیوسته است؟
63201
من درگیر نوشتن استانداردی هستم که در آن آزمایشگاه‌های آزمایشی سعی در تصمیم‌گیری اندازه‌های نمونه برای یک دستگاه جدید دارند. پیشنهاد شده است که با استفاده از ISO 16269-6: جدول F.1 (اندازه نمونه برای نسبت _p_ در سطح اطمینان $1-\alpha$) که $1-\alpha=0.95$ و $p=0.95$ را انتخاب کنید. اندازه نمونه 59. می توانید محاسبه را با بسته تحمل انجام دهید: distfree.est(alpha=0.05,P=0.95,side=1) آیا من در تفسیر خود از این موضوع درست هستم - که اگر ما 59 دستگاه را آزمایش کنیم و هیچ یک از آنها شکست نخورد، این به ما اطمینان می دهد (در سطح 0.05) که 95٪ دوره تولید مطابقت دارد؟
فواصل تلرانس و تست یک طرفه بدون فاصله
21298
من دو نسبت دارم (به عنوان مثال، نرخ کلیک (CTR) روی یک پیوند در یک طرح بندی کنترلی، و CTR در یک پیوند در یک طرح آزمایشی)، و می خواهم یک فاصله اطمینان 95٪ را حول نسبت این نسبت ها محاسبه کنم. چگونه این کار را انجام دهم؟ من می دانم که می توانم از روش دلتا برای محاسبه واریانس این نسبت استفاده کنم، اما مطمئن نیستم که علاوه بر آن چه کاری انجام دهم. از چه چیزی باید به عنوان نقطه میانی فاصله اطمینان استفاده کنم (نسبت مشاهده شده من، یا نسبت مورد انتظار که متفاوت است)، و چند انحراف استاندارد در اطراف این نسبت باید بگیرم؟ آیا اصلاً باید از واریانس روش دلتا استفاده کنم؟ (من واقعاً به واریانس اهمیت نمی دهم، فقط یک فاصله اطمینان). آیا باید فقط یک نمونه بوت استرپ را محاسبه کنم؟
فاصله اطمینان حول نسبت دو نسبت
2457
من فقط می خواهم کسی درک من را تأیید کند یا اگر چیزی را گم کرده ام. تعریف فرآیند مارکوف می‌گوید که مرحله بعدی فقط به وضعیت فعلی بستگی دارد و به حالت‌های گذشته بستگی ندارد. بنابراین، فرض کنید فضای حالتی از a,b,c,d داشتیم و از a->b->c->d می رویم. این بدان معنی است که انتقال به d فقط می تواند به این واقعیت بستگی داشته باشد که ما در c هستیم. با این حال، آیا این درست است که شما فقط می‌توانید مدل را پیچیده‌تر کنید و به نوعی این محدودیت را دور بزنید؟ به عبارت دیگر، اگر فضای حالت شما اکنون aa، ab، ac، ad، ba، bb، bc، bd، ca، cb، cc، cd، da، db، dc، dd بود، به این معنی که فضای حالت جدید شما تبدیل به حالت قبلی با حالت فعلی ترکیب می شود، سپس انتقال فوق *a->ab->bc->cd خواهد بود و بنابراین انتقال به cd (معادل در مدل قبلی به d) اکنون است. وابسته به حالتی که اگر به گونه ای متفاوت مدل شود، حالت قبلی است (در زیر به آن به عنوان یک حالت فرعی اشاره می کنم). آیا من درست می گویم که می توان آن را به حالت های قبلی (دولت فرعی) وابسته کرد (من می دانم که از نظر فنی در مدل جدید اینطور نیست زیرا حالت فرعی دیگر یک حالت واقعی نیست) ویژگی مارکوف را با گسترش حفظ کند. فضای دولت همانطور که من انجام دادم؟ بنابراین، در واقع می توان یک فرآیند مارکوف ایجاد کرد که می تواند به هر تعداد از حالت های فرعی قبلی بستگی داشته باشد.
فرآیند مارکوف فقط بسته به حالت قبلی است
45665
من یک دوره آموزشی در فرآیندهای مارکوف را در دانشگاه خود خوانده ام (من دانشجوی کارشناسی ارشد در لوند، سوئد هستم) و می خواهم کمی عمیق تر در این زمینه کاوش کنم. کتاب ارائه شده برای آن دوره توسط یک استاد به زبان سوئدی نوشته شده است و برای سلیقه من بسیار ابتدایی است. برای اینکه بفهمید به چه سطحی علاقه دارم، چندین دوره دیگر را در نظریه استنتاج، سری های زمانی و نظریه احتمال خوانده ام بنابراین در این موضوع کاملاً جدید نیستم. من همچنین سعی می کنم درباره تئوری اندازه گیری اطلاعات بیشتری کسب کنم تا بتوانم در این زمینه عمیق تر کاوش کنم. آیا نکاتی در مورد ادبیات خوب در مورد زنجیره ها و فرآیندهای مارکوف دارید؟
نکاتی در مورد ادبیات خوب در مورد زنجیره ها و فرآیندهای مارکوف
48782
در قضیه بری اسن، چرا از توزیع نرمال استاندارد در زمینه بسته بودن دو توزیع استفاده می شود؟ چرا نمی‌توانیم از توزیع نرمال عمومی استفاده کنیم که در آن همه چیز اشتباه می‌شود؟
قضیه بری اسین
63203
برای داده‌هایی که تقریباً به طور معمول توزیع می‌شوند، نمودارهای جعبه روشی عالی برای تجسم سریع میانگین و گسترش داده‌ها، و همچنین وجود هر گونه نقاط پرت است. با این حال، برای توزیع‌های با دنباله سنگین‌تر، بسیاری از نقاط به‌عنوان نقاط پرت نشان داده می‌شوند، زیرا نقاط پرت به عنوان خارج از فاکتور ثابت IQR تعریف می‌شوند، و البته این اتفاق در توزیع‌های دم سنگین بسیار بیشتر می‌شود. بنابراین مردم از چه چیزی برای تجسم این نوع داده ها استفاده می کنند؟ آیا چیزی سازگارتر وجود دارد؟ من از ggplot در R استفاده می کنم، اگر این مهم باشد.
معادل باکس پلات برای توزیع های سنگین؟
29362
اجازه دهید $X \sim N_q(\mu, \Sigma)$ با یک Normal-Inverse-Wishart قبل از $(\mu, \Sigma)$ یعنی $(\mu, \Sigma) \sim N_q(\mu | m، \Sigma / k) IW_q(\Sigma | \nu, \Lambda)$ جایی که ما از پارامترسازی وارونه Wishart استفاده می کنیم که $E را می دهد. [\Sigma] = \frac{\Lambda^{-1}}{\nu - q -1}$. من به توزیع حاشیه ای X$ نیاز دارم. من فکر می کنم باید چند متغیره $t$ باشد اما مطمئن نیستم. من می دانم که اگر $X_1، ...، X_n$ را مشاهده کردم، پس قسمت عقبی $\mu$، $t$ چند متغیره است و اینکه توزیع پیش بینی پسین $X_{n+1}$ نیز چند متغیره $t$ است. اما من با محاسبات آنقدر خوب نیستم که حاشیه X$ واحد را تحت Normal-Inverse-Wishart بدست بیاورم و نمی توانم آن را در هیچ کجا مشتق شده پیدا کنم. امیدوارم کسی این را از سر خود بداند. من نیازی به اشتقاق ندارم اگرچه یک مرجع خوب است.
توزیع حاشیه ای یک قرعه کشی از Normal-Inverse-Wishart قبلی چقدر است؟
8836
من سعی داشتم از طریق الگوریتم حداکثر احتمال (MLE) و انتظارات و حداکثر سازی (EM) مطالعه کنم. اما در حین خواندن آنها به دو تفسیر رسیدم. من سعی می کنم سوالات، خوانده ها و سردرگمی های خود را در اینجا به صورت زیر ارسال کنم. اگر یکی از اعضای دانش آموخته گروه بتواند سوالات من را رد کند، به اندازه کافی سپاسگزار خواهم بود. * * * خواندنی ها/سوال های من * * * I. MLE و EM VERSION I ما احتمال را محاسبه کرده ایم که L(f;p)=Πp(x)f(x)، که در آن x€X و : f یک است پیکره غیر خالی و متناهی روی یک مجموعه قابل شمارش از انواع X. حداکثر تابع Likelihood، argmax (L(f;p)) است. پس از در نظر گرفتن حداکثر احتمال، ما سعی می‌کنیم هموارسازی لاپلاس را انتخاب کنیم و الگوریتم انتظار و حداکثرسازی را انتخاب کنیم، که هدف آن یافتن تخمین‌های حداکثر احتمال برای تنظیماتی است که به نظر می‌رسد این امر اگر غیرممکن نیست، دشوار است. ترفند الگوریتم EM این است که داده های داده شده را به داده های کامل نگاشت می کند که نحوه انجام تخمین حداکثر احتمال را کاملاً شناخته شده است. به جای یک مجموعه داده کامل، ورودی الگوریتم EM یک مجموعه داده ناقص همراه با به اصطلاح تحلیلگر نمادین است. تجزیه و تحلیل نمادین دستگاهی است که به هر نوع داده ناقص مجموعه ای از تجزیه و تحلیل اختصاص می دهد که در آن هر تجزیه و تحلیل یک نوع داده کامل است. بنابراین، بخش داده کامل از دست رفته را می توان تا حدی جبران کرد. استفاده از تحلیلگر نمادین برای مجموعه داده های ناقص منجر به یک مجموعه داده کامل مبهم می شود. ابهام در نتیجه ابهام تحلیلی ذاتی تحلیلگر نمادین ایجاد می‌شود: الگوریتم حداکثرسازی انتظار، دنباله‌ای از اجراها را بر روی مجموعه داده‌های کامل مبهم حاصل انجام می‌دهد. هر یک از این اجراها شامل یک مرحله انتظار و به دنبال آن یک مرحله حداکثرسازی است. در مرحله E، الگوریتم انتظار-بیشینه سازی تحلیلگر نمادین را با نمونه ای از مدل احتمال ترکیب می کند. نتیجه این ترکیب یک تحلیلگر آماری است که قادر به رفع ابهام تحلیلی معرفی شده توسط تحلیلگر نمادین است. در مرحله M، الگوریتم انتظار-بیشینه سازی یک تخمین حداکثر احتمال معمولی را بر روی پیکره داده های کامل حل شده محاسبه می کند. بگذارید X و Y مجموعه غیر خالی و قابل شمارش باشند. یک تابع، A: Y->2X، آنالیزگر نمادین نامیده می شود، اگر مجموعه خالی ممکن تحلیل، A(y) ⊆ X جفت جدا شوند، و اتحاد همه مجموعه های همه مجموعه های تحلیل، A(y ) X=ΣA(y)، y€Y کامل است. (1) در این مورد، Y مجموعه ای از انواع داده های ناقص نامیده می شود، در حالی که X مجموعه ای از انواع داده های کامل نامیده می شود. بنابراین، به عبارت دیگر، تجزیه و تحلیل A(y) از انواع داده های ناقص y یک پارتیشن به نوع داده کامل X را تشکیل می دهد. بنابراین، برای هر x€ X یک Y€Y منحصر به فرد وجود دارد، به اصطلاح بازده x وجود دارد. ، به طوری که x تحلیلی از y است، Y=بازده(x) اگر و فقط اگر x€A(y) باشد. یک جفت متشکل از یک تحلیلگر نمادین A و یک توزیع احتمال p بر روی انواع داده های کامل X، تحلیلگر آماری نامیده می شود. ما از یک تحلیلگر آماری برای القای احتمالات برای انواع داده های ناقص y€Y، p(y):=Σp(x)، x€A(Y) استفاده می کنیم. X x2A(y) p(x) مهمتر از آن، ما از یک تحلیلگر آماری برای حل ابهام تحلیلی یک نوع داده ناقص y€Y با نگاه کردن به احتمالات مشروط تحلیل های x€A(y) p(x استفاده می کنیم. |y) := p(x) p(y) که در آن y = بازده (x). ورودی، رویه و خروجی یک الگوریتم EM: (i) یک تحلیلگر نمادین، به عنوان مثال، یک تابع A که مجموعه ای از تجزیه و تحلیل، A(y) ⊆X را به هر نوع داده ناقص، y€Y اختصاص می دهد، به طوری که همه مجموعه ها تجزیه و تحلیل ها پارتیشنی از مجموعه X از انواع داده های کامل را تشکیل می دهند، X=ΣA(Y) y€Y. (ii) یک پیکره داده ناقص غیر خالی و متناهی، به عنوان مثال، توزیع فرکانس f روی مجموعه ای از انواع داده های ناقص، f:Y->R. به طوری که f(y)>=0، برای همه y€Y، و 0<|f|<α. (iii) یک مدل داده کامل M(M(X)، به عنوان مثال، هر نمونه p€ M یک توزیع احتمال بر روی مجموعه ای از انواع داده های کامل است، p:X->[0,1] و Σp(x) =1، که در آن x€X (2) (iv) ورودی ضمنی: یک مدل داده ناقص M ⊆ M(Y) که توسط تحلیلگر نمادین و مدل داده کامل القا شده است. همراه با یک نمونه معین از مدل داده کامل، تحلیلگر نمادین یک تحلیلگر آماری را تشکیل می دهد که به نوبه خود، نمونه زیر را از مدل داده ناقص القا می کند: p:Y[0,1] و p(Y)=Σp (x)، x€ A(y) (3) (v) a (تولید شده به طور تصادفی) نمونه شروع p0 از مدل داده کامل M. (توجه: اگر). توسط M مجاز است، پس p0 نباید به هیچ x€X احتمال صفر نسبت دهد. روش الگوریتم EM به این صورت است که (i) برای هر i=1,2,3,…do, (ii) q:=pi -1 (iii) مرحله E: کل پیکره fq را محاسبه کنید: X->R، مورد انتظار q، fq(x)=f(y)*q(x|y)، که در آن y=بازده(x). (iv) گام M: یک MLE p' از M را روی fq محاسبه کنید، L(fq;p')=maxL(fq, p) (v) pi=p' (vi) end//برای هر i (vii) نسخه 2 MLE و EM را چاپ کنید. freq(c') (4) که در آن freq(c) تعداد دفعاتی است که دسته c در داده های آموزشی نشان داده شده است، که مخرج آن کل است.
سردرگمی در MLE و EM
63206
من در حال حاضر در حال تلاش برای یافتن خوشه‌هایی در مجموعه داده‌ای هستم که شبیه این است: Dienstag 19 Mittwoch 20 Donnerstag 21 Freitag 22 Montag 25 Dienstag 26 Donnerstag 28 [1,] 0 0 0 0 0 0 NA [2,] 0 0 0 0 0 NA [3،] 0 0 0 0 0 0 NA [4،] 0 0 0 0 1 0 NA [5،] 1 0 1 1 1 1 NA [6،] 0 0 0 0 0 NA [7،] 4 0 1 0 2 1 NA [8،] 0 1 2 1 0 2 NA [9،] 0 0 1 0 0 0 NA [10،] 1 0 0 0 0 1 0 [11،] 2 0 1 0 0 5 0 [12،] 1 0 0 0 0 1 1 [13،] 0 1 0 0 0 0 0 [14،] 0 0 1 0 4 1 0 با شمارش دفعاتی که کاربر از یک سرویس در روز و ساعت استفاده کرده است مطابقت دارد. من می خواهم الگو/خوشه هایی را پیدا کنم که استفاده از یک روز هفته را با ساعت مرتبط می کند، اما نمی دانم چگونه آن را مدیریت کنم. مثلاً بگوییم که از دوشنبه تا جمعه، استفاده بیشتر بین 5 تا 16 ساعت متمرکز است، یا اینکه دو بلوک استفاده از شهردار در طول روز وجود دارد. هدف نهایی از این کار، پیش‌بینی ساعاتی است که مصرف در روزهای آینده برای اعمال یک الگوریتم کنترل متمرکز می‌شود. اگر بتوانید در مورد روش ها یا روش های انجام این کار به من پیشنهاد دهید واقعاً مفید خواهد بود. با تشکر
خوشه بندی داده های شمارش
10564
من یک رگرسیون لجستیک چند متغیره با «glm» در «R» با چند متغیر پیوسته و چند متغیر طبقه‌ای اجرا کردم. فقط متغیر پیوسته $A$ یک مقدار p کمتر از 0.05 و یک فاصله اطمینان را نشان داد که در 1 قرار نداشت. اجرای یک تست Wilcoxon (در واقع یک تست من ویتنی زیرا نمونه‌ها جفت نشده‌اند) با $A$ به این دو تقسیم شد. نتایج گروه ها مقدار p 0.15 را برمی گرداند. این نشان می دهد که تفاوتی بین میانگین $A$ در دو گروه وجود ندارد. چگونه می توانم این دو نتیجه را تطبیق دهم؟ نتیجه رگرسیون لجستیک نشان می دهد که $A$ پیش بینی کننده نتیجه است، اما Wilcoxon/Mann-Whitney نشان می دهد که هیچ تفاوتی بین دو گروه وجود ندارد.
رگرسیون لجستیک و آزمون ویلکاکسون
49782
من می خواهم میانگین ها/میانگین های دو نمونه را که ممکن است از نظر اندازه بسیار منحرف باشند مقایسه کنم، به عنوان مثال. 25 امتیاز و 1 یا 2 امتیاز و شباهت آنها را به جای تفاوت آزمایش کنید. من متوجه هستم که قدرت چنین آزمایشی به احتمال زیاد کم است، با این حال من می خواهم آن را محاسبه کنم. من در مورد تست های هم ارزی مطالعه کرده ام، اما تاکنون چیز زیادی در مورد ناپارامتریک ندیده ام. به دلیل حجم نمونه کوچک، اگر ایده هایی برای تست های جایگشت/شبیه سازی/بوت استرپ برای تشابه وجود دارد، مایلم آن ها را هم بشنوم. خیلی ممنون
آزمون های هم ارزی دو نمونه ای ناپارامتریک با حجم نمونه نابرابر
112553
می‌دانم که چند سؤال در مورد این موضوع به خوبی پاسخ داده شده است، اما این بار خودم را در یک مورد خاص دیدم. من از AIC برای انتخاب مدل استفاده می کنم و در شمارش تعداد پارامترها مشکل دارم. پروژه ما شامل یک رگرسیون چند خطی با پارامترهای بسیار کمی است که سعی می کنیم آنها را کاهش دهیم. ما آن را بر روی داده های مغناطیس سنج برای یک مکان خاص در سطح زمین انجام می دهیم. ما داده‌های سری زمانی 1 دقیقه‌ای به ارزش سال‌ها برای متغیرهای پیش‌بین و پاسخ داریم. بر اساس دلایل قبلی و مطالعات قبلی، ما در حال ساخت چندین مدل مختلف برای ساعات مختلف روز هستیم. ممکن است در ابتدا عجیب به نظر برسد، اما زمان های مختلف روز با جهت گیری های مختلف ایستگاه نسبت به خورشید مطابقت دارد، و می دانیم که پاسخ داده ها به متغیرهای پیش بینی کننده برای زمان های مختلف روز بسیار متفاوت است. ما همچنین چندین مکان مختلف داریم که سعی در مدل سازی آنها داریم. بنابراین برای هر ایستگاه مدل متفاوتی وجود خواهد داشت. همه ایستگاه‌ها تقریباً از داده‌های پیش‌بینی‌کننده یکسانی استفاده می‌کنند، اگرچه برخی تفاوت‌ها وجود دارد زیرا برخی از ایستگاه‌ها داده‌های گمشده دارند و غیره. بنابراین من p ایستگاه‌های متفاوتی دارم، هر کدام با q مدل‌های متفاوت، که هر کدام r پارامترهای متفاوتی دارند. بنابراین در مدل جهانی خود، من مدل‌های p*q را برای مجموع پارامترهای p*q*r دارم. سعی می‌کنم معیاری از AIC بدست بیاورم که عملکرد را در تمام ایستگاه‌ها و کل مجموعه داده‌ها اندازه‌گیری می‌کند. من این را می خواهم تا بتوانم بین مدل های جهانی تولید شده با تغییر تعداد پارامترهای ورودی، r مقایسه کنم. چیزی که می‌پرسم این است که آیا یک AIC را با انجام این کار محاسبه کنم: AIC=n*ln(RSS در همه ایستگاه‌ها و زمان‌ها/n) + 2*p*q*r یا آیا برای هر ایستگاه به یک AIC متفاوت نیاز دارم؟ یا حتی یک AIC متفاوت برای هر ایستگاه و بازه زمانی، که مجموع اندازه گیری های p*q AIC را برای هر مدل جهانی ارائه می دهد؟ یا این فقط یک کار احمقانه است؟ بدیهی است که من بهترین گزینه اول را می خواهم، اما یک AIC متفاوت برای هر ایستگاه همچنان قابل مدیریت خواهد بود. هر گونه کمکی بسیار قدردانی می شود، و اگر چیزی را کنار گذاشته ام، فقط به من اطلاع دهید
تعداد پارامترهای AIC برای یک مدل خاص
67580
من مجموعه ای از مجموعه داده های مستقل تک بعدی مشاهده شده دارم: X[1...N]. نام رسمی تخمین ساده تابع CDF با تابع گام به گام P(x[i]) == i / N چیست؟
نام رسمی تخمین ساده گام به گام CDF چیست
112558
من با فرض همگنی واریانس مدل مختلط خطی گیج شدم. آیا همگنی واریانس برابر با همگنی خطا است؟ آیا می توانم بدانم آیا همگنی واریانس به واریانس متغیر وابسته اشاره دارد؟ یا باقیمانده مدل توسعه یافته؟ من برخی از منابع آنلاین را با استفاده از آزمون levene برای برابری واریانس ها خوانده ام؟ یک گزینه spread vs level در SPSS و چندین گزینه (تخمین قدرت، تبدیل، تبدیل نشده) وجود دارد، لطفاً کسی به من بگوید چه تفاوتی دارد و چگونه از آن استفاده کنم؟ در حالی که برخی پیشنهاد می کنند که یک نمودار پراکندگی با مقدار پیش بینی شده در مقابل باقیمانده استاندارد شده مدل انجام شود، من همچنین مقالاتی را با استفاده از باقیمانده غیراستاندارد و باقیمانده دانشجویی برای رسم در برابر مقدار پیش بینی شده مطالعه کرده ام. آیا می توانم بدانم آیا تفاوت هایی وجود دارد؟ اگر نقض جزئی از فرض وجود داشته باشد، آیا می توانم همچنان از مدل مختلط خطی استفاده کنم؟ خیلی ممنون از همه کمک ها!
همگنی واریانس در مدل مختلط خطی
95179
من روی یک پروژه آکادمیک کار می کنم، می خواهم بدانم بهترین رویکرد برای ساختن یک مدل پیش بینی برای پیش بینی زمان وقوع رویداد بعدی چیست. من روی پیش‌بینی نوع خاصی از «جنایت» کار می‌کنم، این یک رویداد تصادفی است که در زمان‌های مختلف روز، توسط انواع مختلف افراد رخ می‌دهد. معمولاً، پیش‌بینی توانایی پیش‌بینی آماری وقوع رویدادهای آینده را در داده‌های انبوه در مورد نحوه رفتار آن جمعیت‌ها در گذشته مورد بحث قرار می‌دهد، شما می‌توانید رفتارهای آنها را با درجه قابل قبولی از اطمینان پیش‌بینی کنید. مشکل «رویدادهای تصادفی» این است که نمی‌توانیم الگوهایی را بر اساس داده‌های گذشته بسازیم، بنابراین یافتن یک رویکرد خوب برای تشخیص زمان وقوع رویداد بعدی کمی چالش برانگیز است. من می خواهم بدانم بهترین روش برای مقابله با این مشکل چیست. من پیشنهادات مختلفی را در وب سایت پیدا کردم، اما نمی دانم که آیا با رویدادهای تصادفی مطابقت دارد یا خیر: * مدل کم توان (Duane) * مدل پواسون * مدل فرآیند نقطه پواسون * مدل پنهان مارکوف * فرآیند پواسون ناهمگن از آنچه من می دانم، فرض مهم در فرآیند پواسون این است که آنچه اکنون اتفاق می‌افتد، مستقل از آن چیزی است که لحظه‌ای پیش اتفاق می‌افتد یا در لحظه‌ی بعد (یا در هر لحظه دیگر، برای آن موضوع). بنابراین توزیع رویدادها در طول هر دوره زمانی (قابل اندازه‌گیری) فقط به طول زمان بستگی دارد، نه به نحوه تجزیه آن. وقتی صحبت از «جنایت» می شود، رویدادها مستقل هستند. در این صورت آیا از مدل پواسون برای پیش بینی «جرایم» استفاده کنم؟ فکر می کنم در مورد زمین لرزه ها هم همینطور باشد. آیا راه حل بهتری وجود دارد زیرا من (داده های مثبت) زیادی ندارم. منظور من این است که در جاهایی که جرم هرگز اتفاق نیفتاده است، چگونه می توانم در این مورد از سم استفاده کنم، در حال حاضر هیچ رویدادی وجود ندارد. آیا کسی می تواند یک روش موثر برای مقابله با این مشکل را توضیح دهد؟
چگونه می توان زمان رخداد بعدی را با داده های تصادفی پیش بینی کرد
67585
من یک نرم افزار معاملاتی دارم که وام خرید و فروش می کند. یک سایت حراجی وجود دارد که در آن وام گیرندگان مقداری پول می‌خواهند و وام‌دهنده‌ها برای آن پیشنهاد می‌دهند تا زمانی که وام‌گیرنده به طور کامل تامین مالی شود و حراج به پایان برسد. اطلاعات زیادی در مورد هر درخواست وام وجود دارد. ربات معاملاتی من همیشه با بالاترین نرخ بهره ممکن پیشنهاد می دهد، اگر بیشتر از قیمت پیشنهادی باشد، فقط کمی کمتر پیشنهاد می دهد. پس از برنده شدن قطعات وام، می توانم آنها را با نشانه گذاری بفروشم. در حال حاضر، من با حداقل نشانه گذاری می فروشم، به طوری که با کارمزد به سختی سود می کنم. چیزی که من مطمئن نیستم این است که چه نشانه گذاری را باید بفروشم؟ هرچه نشانه گذاری کمتر باشد قطعات وام من سریعتر فروخته می شود، اما من نیز سود کمتری دریافت خواهم کرد. برای چه وام هایی باید پیشنهاد داد؟ آیا باید در یک مزایده وام با نرخ سود بالاتر که قرار است چند روز به پایان نرسد و در نتیجه پولم را کهنه می‌کنم پیشنهاد بدهم یا باید در حراجی با نرخ بهره پایین‌تر شرکت کنم، اما خیلی به پایان می‌رسد. به زودی گاهی اوقات در مورد اول، وام گیرنده ممکن است تصمیم بگیرد وام را بگیرد و تا پایان حراج منتظر نماند، بنابراین من می‌توانم نرخ بهره بهتری نسبت به پیشنهاد صرف در مزایده وام که به زودی به پایان می‌رسد، تضمین کنم. من به این فکر می کردم که این مشکل را به عنوان یادگیری تقویتی در نظر بگیرم، اما مطمئن نیستم که چگونه این کار را انجام دهم. هدف من به حداکثر رساندن سودی است که از تجارت وام به دست می‌آورم. هر ایده ای؟
چگونه این مسئله را به عنوان یک مشکل یادگیری ماشین در نظر می گیرید؟
112552
من ANOVA طراحی مختلط را با استفاده از R اجرا می کنم. به نحوی، مقادیر نادرستی برای درجه آزادی (Df) دریافت کردم. دو عامل وجود دارد: دما (2 سطح) و هویت (7 سطح) و وقتی این دستور را انجام می دهم: aov4<- aov(NO3.means~ دما*هویت،داده=mydata) دریافت می کنم: Df مجموع مربع میانگین مربع F مقدار Pr(>F) درجه حرارت 1 3936158 3936158 24.519 1.54e-05 *** شناسه 1 71125 71125 0.443 0.50967 دما: هویت 1 1363345 1363345 8.493 0.00595 ** باقیمانده ها 38 6100236 160533 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 درجه آزادی برای هویت باید 6 باشد نه 1. مشکل چیست؟
چگونه درجات آزادی را اصلاح کنیم؟
40789
> **تکراری احتمالی:** > احتمال مرتبط با عدم محاسبه ناوگان با فرض اینکه من 7 کارت (Ace - 7) مخلوط کرده ام، و من یک کارت را می کشم و آن را جایگزین می کنم، تغییر می دهم و به طور تصادفی کارت دیگری را می کشم، به طور متوسط ​​چند تساوی آیا لازم است هر کارت حداقل یک بار انتخاب شود؟ من روی این مشکل کار کرده ام و به این نتیجه رسیده ام که 7 رویداد جداگانه وجود دارد، به این ترتیب که اولی شانس 7/7 است که یک کارت جدید انتخاب شود، رویداد دوم 6/7 خواهد بود و به همین ترتیب تا 1/7 ادامه دارد. چیزی که من از آن مطمئن نیستم این است که چگونه می توان رویدادها را طوری ترکیب کرد که تعداد تساوی ها را به دست آورد. باید اضافه کنم که این پاسخ خاص در این مثال به اندازه چگونه مهم نیست. من می خواهم همان تفکر را برای یک مشکل متفاوت به کار ببرم.
چند تلاش برای کشیدن هر 7 کارت از 7 کارت با جایگزینی به صورت تصادفی انجام شده است؟
21439
فرض کنید وضعیت زیر را دارید: در طول زمان 1000 بازیکن بولینگ را مشاهده کردید که هر کدام تعداد نسبتاً کمی بازی انجام دادند (مثلاً 1 تا 20). شما درصد ضربه را برای هر یک از آن بازیکنان در مورد تعداد بازی هایی که هر یک از آن بازیکنان انجام داده اند، یادداشت کرده اید. یک بازیکن بولینگ جدید وارد می شود و 10 بازی انجام می دهد و 3 ضربه می گیرد. توزیع تعداد ضربات برای هر بازیکن دو جمله ای فرض می شود. من می خواهم احتمال واقعی موفقیت آن بازیکن را تخمین بزنم. لطفاً به موارد زیر توجه کنید: 1. این یک وضعیت واقعی یا یک مشکل مدرسه نیست، فقط یک مشکل خوداندیشی است. 2. من دانشجویی هستم با تحصیلات آماری کمی بیشتر از دوره آمار 101. من کمی در مورد استنتاج مانند تخمین حداکثر احتمال می دانم... بنابراین با خیال راحت به من مناطقی را در آمار بگویید که باید در مورد آنها مطالعه کنم. 3. مشکل من ممکن است فاقد اطلاعات باشد، یا اگر برای مثال، توزیع احتمال موفقیت تقریباً نرمال باشد، مفید است، لطفاً به من بگویید. خیلی ممنون
تخمین احتمال موفقیت، با توجه به جمعیت مرجع
49785
وظیفه بهینه سازی یافتن عملگر $F(x_1, x_2, ...,x_n) \rightarrow y$ است. **سوال:** تحت چه شرایطی NN باید نتایج بهتری نسبت به LS (از نظر میانگین خطای برازش مربع) ارائه دهد؟ به طور خاص، منظور من دو رویکرد در متلب (با فرض بردارهای ستون) است: 1. NN `net = fitnet(num_hidden_layers);`````net = train(net, in_train', out_train')؛` ``out_test = net(in_test') ';' 2. حداقل مربعات: $y = w_0 + \sum_i{x_i*w_i}$ `w = in_train \ out_train;` `out_test = in_test * w;` با در نظر گرفتن اینکه رویکرد NN دارای آستانه هایی به عنوان عملگرهای غیر خطی است، سعی کردم نویزهای غیر گاوسی و ورودی های غیرخطی را به وابستگی های مصنوعی اضافه کنم. اما نتوانستیم شرایطی را پیدا کنم که در آن NN بهتر از LS باشد.
چه زمانی یک شبکه عصبی بهتر از تخمین OLS عمل می کند؟
115025
من 3 سنسور دما دارم که هر دقیقه یک بار اطلاعات را ضبط می کند. هر 3 دما دارای مقدار تاپلی (فوری، دما) هستند. مشکل این است که آنها ممکن است به ترتیب تصادفی بیایند و بنابراین هیچ راهی برای تضمین اینکه دمای معین از یک سنسور مشخص شده باشد وجود ندارد. اگر فرض کنید که حسگرها هر بار یکسان هستند، در اینجا تصویری از شکل نموداری مقادیر به نظر می رسد: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/TSyER.png) یک انسان می تواند ببیند که 3 تابع متمایز وجود دارد - یک خط روند مسطح نزدیک به 66 درجه، یک خط دوره ای ملایم نزدیک به 63، و یک عملکرد دوره ای تهاجمی که در محدوده بین آنها شناور است. آیا روش آماری وجود دارد که بتوانم از آن برای مرتب کردن مقادیر در خطوط صحیح استفاده کنم؟ ویرایش: اگر من این را به عنوان یک طرح پراکنده ترسیم کنم، خطوط واقعی بسیار قابل توجه تر می شوند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/adgA5.png)
آیا روشی برای جدا کردن چندین خط داده که در هم آمیخته اند وجود دارد؟
58696
من به دنبال متنی هستم که به من در ارائه توضیحات مناسب برای مقطع کارشناسی کمک کند. دریافته‌ام که مجموعه «کشف آمار با استفاده از...» اندی فیلد به من این امکان را می‌دهد که موضوعات را در سطح مناسبی برای تحلیل عاملی اکتشافی بیان کنم، اما هیچ فصلی در مورد CFA ندارد.
توصیه کتاب/فصل/مقاله برای تحلیل عاملی تاییدی سطح مبتدیان؟
26804
**عمومی:** تقریباً یک نیاز دائمی در تحقیق پیشرفت است که به اولین مخترع، پیشنهاد دهنده یا توسعه دهنده مفاهیمی که این روزها به طور گسترده مورد استفاده قرار می گیرند، مراجعه می کند. هیچ ایده روشنی برای مدیریت این نیازها ندارید اما با تکیه بر دانش شخصی و گاهی اوقات ویکی کمک می کند. اما این همیشه کار نمی کند، متأسفانه همانطور که نیاز است. **سوالات خاص:** **به طور کلی از چه منابعی برای یافتن یک مرجع مناسب به ادبیات اول استفاده می کنید؟** گاهی متوجه شدم که نویسندگان فقط برای جلوگیری از سرقت ادبی به مقالات مراجعه می کنند و در عین حال دقت نمی کنند که ادعا واقعاً درست باشد. مثلاً می گوید: «اولین مقاله در ... ظاهر شد» در حالی که برای همین مفهوم نویسنده دیگری به دیگری اشاره می کند. بنابراین، **اولین مخترع واقعی یک مفهوم را در نهایت و در میدان چگونه پیدا می کنید؟** **سوالات بیشتر:** اولین مخترعان/پیشنهادکننده/توسعه دهندگان موضوعات زیر در آمار: *نظریه تصادفی/مدل سازی/ {به راحتی اضافه کنید...} * فرآیندهای نقطه‌ای/علامت‌ها... * مدل‌سازی فضایی... من فکر می‌کنم اگر بتوانیم به آنچه در آن می‌بینیم اعتماد کنیم، مقاله‌های بررسی و نظرسنجی می‌توانند کمک کنند. آنها، **چه چیز دیگری؟**
مخترعان واقعی مفاهیم
78449
من می خواهم بدانم چگونه با اقدامات مکرر یک تحلیل میانجی انجام دهم. در اینجا یک آزمایش جعلی است که همان شکل آزمایشی است که من قصد انجام آن را دارم (استفاده از آزمایش جعلی به من امکان می دهد برخی از عوارض عجیب و غریب را که قبلاً می دانم چگونه با آنها کنار بیایم ساده کنم): برای هر یک از 5 هدف، 100 شرکت کننده به 3 سؤال پاسخ می دهند: * (1) چقدر این شخص را گرم می دانید؟ * (2) چقدر این شخص را قابل اعتماد می دانید؟ * (3) چقدر احتمال دارد که از توصیه های این شخص پیروی کنید. اگر فقط 1 هدف وجود داشت، می‌دانستم که چگونه یک تحلیل میانجی انجام دهم تا ببینم آیا رابطه بین (1) و (3) توسط (2) واسطه شده است یا خیر. با این حال، من نمی دانم چگونه این کار را با 5 هدف انجام دهم. واضح است که من نباید فقط نمرات را در تمام 5 سناریو با هم میانگین بگیرم. و من نباید با هر مورد متفاوت برخورد کنم (انگار که 500 شرکت کننده داشتم). هر گونه پیشنهاد بسیار قدردانی خواهد شد!
تجزیه و تحلیل میانجی اقدامات چندگانه
26809
داده های من 1785000 رکورد با 271 ویژگی است. من سعی می کنم تعداد ویژگی های مورد استفاده برای ساخت مدل را کاهش دهم. Q1. در حین کاوش در داده‌ها، متوجه شدم که برخی از ویژگی‌ها تقریباً همه داده‌های گمشده هستند، مانند تنها 25 رکورد برای این ویژگی ارزش دارند و سایر رکوردها دارای مقادیر گم شده‌اند، بنابراین فکر کردم که به اندازه کافی آموزنده نیست و بهتر است آن ویژگی‌ها را حذف کنم. درست است؟ و اگر درست می گویم، برای چه سطحی می توانم این کار را انجام دهم، منظورم این است که اگر 90٪، 80٪، و غیره از هر ویژگی مقادیر گم شده باشد، چه زمانی می توانم تصمیم بگیرم که از شر این ویژگی ها خلاص شوم؟ (با در نظر گرفتن اینکه متغیر وابسته N/Y است و فقط 1.157% از کل داده ها متعلق به Y است). Q2. برای هر فرد در مجموعه داده، 64 trait_type فهرست شده است که هر کدام می توانند یکی از مقادیر [1 یا 3 یا 5] را بگیرند. سوال من این است: اگر یک نوع صفت فقط مقدار [5] را دریافت کند یا برای تمام رکوردها داده از دست رفته باشد، آیا ارزشی دارد یا دوباره می‌توانیم آن ویژگی را حذف کنیم؟ متشکرم
داده ها و انتخاب ویژگی از دست رفته است
26805
من نمونه ای دارم که تقریباً به طور معمول با میانگین 0 بیشتر توزیع شده است. آیا راهی برای بدست آوردن تخمین _closed form_ برای میانگین همه مقادیری که کمتر از 0 هستند وجود دارد؟ به عبارت دیگر، با توجه به میانگین، واریانس و متغیر «x»، آیا می‌توانم میانگین همه مقادیر کوچک‌تر از «x» را تخمین بزنم؟
میانگین یک دم از توزیع نرمال
74549
این برگرفته از کتاب _The Statistical Sleuth--A course in Methods of Data Analysis_ فصل 20، تمرین 12(c)-(e) است. من از رگرسیون لجستیک برای پیش‌بینی حامل با پیش‌بینی‌کننده‌های احتمالی «CK» و «H» استفاده می‌کنم. راه حل من اینجاست: حامل <- c(0,0,0,0,0,1,1,1,1,1) CK <- c(52,20,28,30,40,167,104,30,65,440) H <- c(83.5,77,86.5,104,83,89,81,108,87,107) logCK <- log(CK) fit4 <- glm(Carrier~logCK+H, family=binomial, control=list(maxit=100)) پیام اخطار: glm.fit: برازش احتمالات عددی 0 یا 1 خلاصه اتفاق افتاده (fit4) ## ## تماس: ## glm(فرمول = حامل ~ logCK + H، خانواده = دوجمله ای، کنترل = لیست (حداکثر = 100)) ## ## انحراف باقیمانده: ## حداقل 1Q میانه 3Q Max ## -1.480e-05 -2.110e-08 0.000e+00 2.110e-08 1.376e-05 ## ## ضرایب: ## تخمین Std. خطای z مقدار Pr(>|z|) ## (Intercept) -2292.8 4130902.8 -0.001 1 ## logCK 315.6 589675.2 0.001 1 ## H 11.5 21279.6 به نظر می رسد که همه این نتایج همسو نیستند، به نظر می رسد که نتایج 0.001 به 1. قابل توجه است. همچنین سوال بعدی این است که برای این مدل کامل و مدل کاهش یافته یک تست انحرافی انجام دهیم که هیچ یک از «logCK» و «H» پیش بینی کننده مفیدی نیستند. دریافت می‌کنم: fit5 <- glm(Carrier~1، family=binomial) 1-pchisq(deviance(fit5)-deviance(fit4)، df.residual(fit5)-df.residual(fit4)) ## [1 ] 0.0009765625 بنابراین مقدار p نشان می دهد که حداقل یکی از «logCK» و «H» مفید است. سپس من در سوال بعدی گیر کرده ام، از من می خواهد که نسبت شانس را برای یک زن با (CK, H)=(300,100) بیش از یک با (CK, H)=(80,85) محاسبه کنم. اما چگونه می توانم با وجود همه ضرایب در این مدل به نتیجه ای معنادار دست پیدا کنم؟ آیا روشی که من این رگرسیون لجستیک را انجام دادم اشکالی دارد؟ آیا اقدامات اصلاحی وجود دارد؟
ضرایب بزرگ در رگرسیون لجستیک
68601
**سوال کوتاه:** از کجا می توانم کتابی برای تئوری احتمالات و آمار پیدا کنم که از ابتدا به روش **دقیق** (شرایط بسیار مهم) آموزش دهد؟ کتاب نباید ابتدایی باشد، اما باید از صفر شروع شود. (به عنوان مثال، من فکر می کنم متون جبر لانگ/هانگرفورد با تعریف گروه شروع می شود: از این نظر آنها از ابتدا شروع می کنند.) ** سوال طولانی: ** من فقط یک دوره مهندسی در احتمالات و آمار گذراندم. به نظر من خیلی لوس/غیر سختگیرانه است. شما ممکن است فرض کنید من هیچ اطلاعی از احتمال و آمار ندارم. من امسال باید یک دوره آمار مطالعاتی مستقل بگذرانم. من مجاز به انتخاب کتاب برای دوره هستم. باید دوره آمار باشد. مربی من فرض می کند که من احتمال را می دانم زیرا دوره ذکر شده در بالا را گذرانده ام. (اعتراف می کنم که درک ضعیفی از احتمالات دارم و این من را بسیار آزار می دهد.) من می خواهم کتابی داشته باشم که: 1) ریاضی محور و دقیق باشد 2) آمار قابل توجهی داشته باشد قسمت 3) میزان احتمال مورد نیاز را آموزش دهد. برای انجام آمار
به دنبال کتاب ریاضی احتمال و آمار
112550
من در حال حاضر با فیلتر هودریک-پرسکات کار می کنم. من می خواهم معادله را به صورت عادی درک کنم.
اشتقاق هودریک-پرسکات در اصطلاح غیرمعمول
68603
در یک بازی آنلاین، شانس موفقیت در یک عمل از 5% شروع می شود و هر بار که عمل شکست می خورد، 5% افزایش می یابد. پس از موفقیت، شانس مجدد به 5٪ باز می گردد. (بنابراین می دانید که چگونه می گویند یک قالب هیچ خاطره ای از رول های قبلی ندارد؟ در اینجا چنین است). سوال جایگزین: چه درصدی از شانس ثابت می تواند میزان موفقیت کلی این سیستم را تکرار کند؟ (بیش از تعداد زیادی رول.)
درصد شانس، زمانی که میزان موفقیت با هر شکست بالا می رود
57878
پروفسور براون در روشهای اعتبارسنجی متقاطع. مجله روانشناسی ریاضی، جلد 44، شماره 1. (مارس 2000)، صفحات 108-132 اشاره کرد که شاخص اعتبارسنجی متقاطع نمونه تکی و معیار اطلاعات آکایک معادل هستند. . اگر چنین است، چه نشانه هایی برای اعتبارسنجی متقابل پر زحمت در پیش بینی وجود دارد؟
هم ارزی بین شاخص اعتبار متقابل نمونه تک و معیار اطلاعات آکایک برای پیش بینی
29589
من یک سری زمانی دارم که کمی غیرخطی به نظر می رسد، اما شبیه یک sin یا cos است که توسط یک ثابت اصلاح شده است. 1,0 2,2 3,1 4,0 5,5 یک مثال و 1,0 2,1 3,2 4,0 5,5 مثالی دیگر است. ![مثال](http://i.stack.imgur.com/FWoPB.gif) محاسبه شیب تابع خطی برای خط، تفسیر کلی داده ها را با درجه افزایش می دهد، اما من می خواهم خط را با بهترین برازش معادله غیرخطی ساده آیا راهی برای محاسبه معادله کلی یک مجموعه چند جمله ای یا تابعی از نقاط در R وجود دارد؟ یعنی مشخص کنید که مجموعه نقاط تابعی هستند یا چند جمله ای؟ هدف اصلی من شناسایی الگوهای معادلات است که با ثابت هایی مانند 1,0 2,2 3,0 4,2 و 1,0 2,1 3,0 4,1 و مانند آن جدا شده اند.
رگرسیون ناپارامتریک در R
68607
من می خواهم یک رگرسیون سری زمانی ساده وانیلی را اجرا کنم تا حساسیت متغیر وابسته خود را به مجموعه ای از متغیرهای توضیحی تخمین بزنم. با این حال، به‌جای اجرای رگرسیون در کل سری‌های زمانی، می‌خواهم آن را فقط در بازه‌های زمانی خاص اجرا کنم، همه در کنار هم به عنوان یک مجموعه داده پیوسته انباشته شده‌اند. به عنوان مثال، یک سری زمانی از بازده سهام را می توان به یک زیر مجموعه بازار صعودی و یک زیر مجموعه بازار نزولی تقسیم کرد. من می خواهم رگرسیون را فقط در دوره های افزایشی یا فقط در دوره های بازار نزولی اجرا کنم. مسئله این است که این شرایط بازار (رژیم ها) ناپیوسته است. به عبارت دیگر، شما یک دوره زمانی از بازار صعودی دارید، به دنبال آن یکی از بازار نزولی، سپس گاو نر، سپس نزولی،... ناپیوستگی بین دو دوره بازار صعودی یا دو دوره نزولی می‌تواند چندین سال باشد. آیا مشروع است که همه زیرمجموعه های یک رژیم را روی هم قرار دهیم، به عنوان مثال؟ گاو نر، و اجرای رگرسیون؟ هدف به دست آوردن حساسیت ویژه رژیم به متغیرهای توضیحی است. ممنون
اجرای رگرسیون های سری زمانی روی یک مجموعه داده با شکاف های بزرگ: آیا قانونی است؟
29583
من با WEKA کار کرده‌ام تا با استفاده از این مجموعه داده سرطان پستان (نسبتا قدیمی...) پیش‌بینی‌کننده‌های کلاس بسازم. مجموعه داده به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم می شود. من در حال آزمایش طرح‌های یادگیری مختلف (بیشتر بر انتخاب ویژگی‌ها) با استفاده از آزمایش‌های اعتبارسنجی متقابل 10 برابری در مجموعه آموزشی بوده‌ام. متأسفانه، هنگامی که من مدل های آموزش دیده را در مجموعه آزمون امتحان می کنم، به نظر می رسد هیچ ارتباطی بین نمرات در اعتبارسنجی متقاطع و عملکرد واقعی مجموعه آزمون وجود ندارد. آیا این یک مشکل ثابت برای ریزآرایه یا سایر داده های تعداد نمونه با ابعاد بالا / کم است؟ آیا رویکرد دیگری وجود دارد که مناسب‌تر از اعتبارسنجی متقابل برای ارزیابی مدل‌ها بر روی داده‌های آموزشی باشد؟
آیا اعتبارسنجی متقاطع یک رویکرد موثر برای انتخاب ویژگی/مدل برای داده‌های ریزآرایه است؟
115023
امیدوارم کسی بتواند در این پاسخ به من کمک کند. من یک Imputation منفرد روی مجموعه داده‌هایم برای سن انجام دادم (<5% وجود ندارد). مشاور من سؤال زیر را پرسید: «برای من عجیب است که یک متغیر جمعیتی را نسبت بدهم - آیا واقعاً می‌توانید سن را بر اساس پاسخ‌های دیگر آن‌ها به طور معتبر نسبت دهید؟» کسی جوابی داره و همچنین مرجعی داره که من هم بهش مراجعه کنم؟ خیلی ممنون هلو
احتساب مجرد در سن مورد نیاز است؟
17997
من باید تضادهای متعامد را با مدل زیر مطابقت دهم. داده های نمونه زیر rep <- c(rep( 1, 15), rep(2, 15)) parent1 <- c(1, 2, 3, 4, 5, 1, 1, 1, 1, 2, 2, 2, 3, 3، 4، 1، 2، 3، 4، 5، 1، 1، 1، 1، 2، 2، 2، 3، 3، 4) والدین 2 <- c(1، 2، 3، 4، 5، 2، 3، 4، 5، 3، 4، 5، 4، 5، 5،1، 2، 3، 4، 5، 2 , 3, 4, 5, 3, 4, 5, 4, 5, 5) yld <- c(10, 12, 13، 14، 15، 12، 13، 14، 15، 13، 14، 15، 14، 15، 15،11، 13، 12، 13، 15، 14، 12، 13، 15، 12، 15، 15 13، 15، 16) mydf <- data.frame(rep، parent1، parent2، yld) mydf$parent1 <- as.factor(mydf$parent1) mydf$parent2 <- as.factor(mydf$parent2) Parent1 و Parent2 عوامل هستند. mode11 <- lm(yld ~ rep + parent1:parent2، data = mydf) anova(mode11) من باید تضادها را برازش کنم، فرض می‌کنم ترتیب درمان‌ها برای ضرایب تعامل این است: Parent1 1، 2، 3، 4 , 5, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4 Parent2 1, 2, 3, 4, 5, 2, 3, 4, 5, 3, 4, 5, 4, 5, 5 # تضاد برای مایکنتراست تعامل Parent1:Parent2 <- c(-4, -4, -4 ، -4، 4، 2، 2، 2، 2، 2، 2، 2، 2، 2،2) می خواهم در بالا درخواست کنم تضادهای متعامد (مایکنتراست). من به SAS به این تحلیل کوتاه عادت دارم اما نه در R. دو سوال دارم: (الف) چگونه می توانم به درستی کنتراست را در مدل بالا اعمال کنم؟ (ب) در حین نوشتن ضرایب نگران هستم که ترتیب درمان‌ها چیست (به ترتیب‌های فرضی من مراجعه کنید، آیا درست است؟) - فرض می‌کنم این باید یا بر اساس حروف الفبا باشد یا به ترتیب در پرونده.
در مقابل ANOVA با اصطلاح تعامل
29582
من در حال ارزیابی عملکرد یک برآوردگر آماری تحت تعدادی از تنظیمات پارامتر هستم. تخمین‌گر برای همه پارامترها بی‌طرف است، بنابراین من واریانس نمونه را به‌عنوان معیار کیفیت گزارش می‌دهم، یعنی اگر به تقریب کردن علاقه‌مندم: $$ \int h(x)\pi(x)dx $$ جایی که $h(x): \mathbb{R}^d \rightarrow \mathbb{R}$ و $\pi$ یک توزیع نرمال شده روی $\mathbb{R}^d$ است. و من از نمونه برداری اهمیت با توزیع پیشنهادی $q$ استفاده می کنم که نمونه های $\\{x_1، ...، x_n\\}$ را می دهد. من برآوردگر را دارم: $$ \bar{h} = \frac{1}{n}\sum_{i=1}^n h(x_i)\pi(x_i)/q(x_i) $$ واریانس $\ bar{h}$ توسط: $$ \frac{1}{n}\mbox{var}(h(x)\pi(x)/q(x)) $$ می‌توانم این واریانس را با اجرای آزمایشی $m$ نمونه، و محاسبه واریانس نمونه: $$ \bar{v} = \frac{1}{m-1}\sum_{i=1}^m (h(x_i)\pi(x_i )/q(x_i)-\bar{h})^2 $$ مقدار تقریبی واریانس برآوردگر من را برای هر تعداد نمونه به من می دهد $n$: $$ \mathcal{V} = \frac{1}{n}\bar{v} $$ با فرض اینکه تا به حال کار احمقانه‌ای انجام نداده‌ام، اگر $\mathcal{V}$ را به عنوان راهی برای قضاوت در مورد تخمین‌گر گزارش می‌کنم، باید میله‌های خطا آن را، و من مطمئن نیستم که چگونه آن را انجام دهم. ویرایش: در واقع این گزارش بسیار مفید است، آنها نشان می دهند: $$ \mbox{var}(\bar{v}) = \frac{1}{m}(\mu_4 - \mu_2^2) + \mathcal{O} (m^{-2}) $$ که در آن $\mu_k$، $k$-امین لحظه RV است، بنابراین من فرض می‌کنم که می‌توانم این لحظه‌ها را تقریبی کنم و آنها را به این فرمول متصل کنم.
نوارهای خطا در واریانس نمونه
29585
فرض کنید من نمونه‌هایی دارم که از دسته‌های A، B، C گرفته شده‌اند. در این دسته‌ها، من زیرمجموعه‌های d,e,f دارم که در هر 3 دسته یافت می‌شوند. من می خواهم تجسم کنم که چند نمونه از دسته های A، B، C _و_ ترکیب متناسب زیرمجموعه های d,e,f در هر دسته را دارم. یکی از راه‌های انجام این کار، نمودار میله‌ای است (من از ggplot2 استفاده می‌کنم، نه اینکه خیلی مهم باشد) با میله‌هایی برای A، B، C، ارتفاع متناسب با تعداد کل نمونه‌های آن‌ها. در هر نوار آن را بر اساس رنگ پر بر اساس ترکیب d,e,f در دسته تقسیم می کنم. مشکل این است که از آنجایی که A، B و C ارتفاع های متفاوتی خواهند داشت، مقایسه بصری نسبت ها تقریبا غیرممکن است - به عنوان مثال. نسبت d در A با نسبت d در B. برای دیدن نسبت‌ها، می‌توانم به جای تعداد نمونه، ارتفاع‌ها را به 100% مجدداً عادی کنم به طوری که میله‌های A، B و C اکنون با ارتفاع برابر باشند. با این حال، اکنون نمی‌توانم شمارش‌های A، B و C را تجسم کنم. آیا راهی زیبا برای تجسم هر دوی این اطلاعات به طور همزمان وجود دارد؟
چگونه می توان تعداد کل دسته ها و نسبت زیرمجموعه ها را در یک طرح تجسم کرد؟
58525
من یک نمونه از 608 آزمودنی دارم و باید موارد پرت را برای سن حذف کنم. در R، نمودار جعبه به این صورت ظاهر می شود: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LwAV8.jpg) 74 نقطه پرت را نشان می دهد: > length(boxplot(mydata)$out) [1 ] 74 پس از حذف این نقاط پرت، آیا باید با داده های جدید نگاه جدیدی به نمودار جعبه بیندازم؟ اگر این کار را انجام دهم، نمودار جعبه همچنان حاوی موارد پرت دیگر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/L7vtg.jpg) **سوالات:** **1\. آیا این یک مشکل است؟ ** **2\. آیا این روش برای حذف نقاط پرت برای سن مناسب است؟** _EDIT: من از سن به عنوان یک متغیر در مدل رگرسیون استفاده نمی کنم. من فقط می خواهم برای به دست آوردن یک نمونه یکنواخت تر (این یک نمونه دانش آموزی است) موارد پرت را برای سن حذف کنم. به عنوان مثال، من یک آزمودنی 60 ساله دارم، در حالی که میانگین سنی نمونه من 26.6 است. به همین دلیل، من همچنین در نظر داشتم که نقاط پرت را نه با نمودار جعبه، بلکه با 3± انحراف استاندارد از میانگین حذف کنم. از نمونه خود، من دو گروه از موضوعات را برای آزمایش بیشتر انتخاب خواهم کرد._
پس از حذف نقاط پرت، جعبه را دوباره بررسی کنید
26801
من از بسته **mlogit** R استفاده می کنم. برای زیرمجموعه ای از مجموعه داده من، «mlogit» خوب یاد گرفته می شود. برای زیر مجموعه دیگری از مجموعه داده من، این خطا را دریافت می کنم. خطا در solve.default(H, g[!fixed]) : سیستم از نظر محاسباتی مفرد است: شماره شرط متقابل = 1.12239e-16 وقتی این خطا را در زمینه های خارج از mlogit جستجو کردم، یکی پیشنهاد کرد آن را با استفاده از `qr اصلاح کنید. .solve()` به جای `solve.default()`. 1. چگونه می توانم mlogit را برای استفاده از qr.solve() تغییر دهم؟ 2. چه چیزی در داده های من می تواند باعث این مشکل شود؟ 3. آیا این خطا می تواند ناشی از قابل پیش بینی بودن یک دسته خاص از یک ویژگی باشد؟ 4. چگونه چک کنم؟
خطای یادگیری mlogit
67582
من یک مجموعه داده اندازه گیری مکرر با 5 نقطه زمانی و یک متغیر وابسته دودویی (بله/خیر پاسخ به یک سوال) دارم. حدود 20 موضوع وجود دارد. اگر درک من درست باشد، هم «معادلات برآورد تعمیم‌یافته» و هم «مدل‌های مختلط خطی تعمیم‌یافته» روش‌های ممکنی برای آزمایش هستند که آیا تأثیر زمان بر این متغیر وابسته وجود دارد یا خیر. این تا حدی بر اساس این پاسخ رزومه است: http://stats.stackexchange.com/a/32421/6389 برخی از آزمودنی‌های من در برخی از مقاطع زمانی داده‌های گمشده‌ای دارند. درک من از مدل های مختلط خطی این است که آنها با نقاط داده از دست رفته کنار می آیند. آیا این به مدل های مختلط خطی تعمیم یافته نیز تعمیم می یابد؟ تأثیر داده های از دست رفته بر معادلات برآورد تعمیم یافته چیست؟
داده های گمشده: معادلات برآورد تعمیم یافته و مدل های مختلط خطی تعمیم یافته
77932
من مجموعه داده ای از داده های نظرسنجی دارم که در آن ~4٪ از پاسخ ها برای یکی از متغیرهای کنترل جمعیتی من (AGE) وجود ندارد. برای متغیرهای وابسته و مستقلی که به آنها علاقه دارم، تعداد مقادیر از دست رفته ناچیز است (کمتر از 0.02%). من می‌خواهم مشاهدات با مقادیر گمشده برای AGE را در تحلیل لحاظ کنم. در حالی که من درک می کنم که مشکلات مربوط به سوگیری ایجاد شده با جایگزینی مقادیر از دست رفته با مقادیر میانگین (میانگین انتساب)، با توجه به اینکه AGE یک متغیر کنترل است و تنها 4 درصد از مشاهدات از دست رفته است، در این مورد به این معنی است که انتساب باعث ایجاد مشکلات جدی برای اعتبار تحلیل؟ یک گزینه دوم: مشاهدات از 10 سازمان می‌آیند، و من یک متغیر شاخص دارم که نشان می‌دهد مشاهده‌ای از کدام سازمان می‌آید. آیا جایگزینی مقادیر گمشده برای AGE با مقادیر میانگین AGE از همان سازمان مناسب تر است؟ یا، آیا تنها گزینه معتبر من برای استفاده از انتساب چندگانه است؟
محاسبه میانگین برای متغیر کنترل با مقادیر کم تعداد کم
24521
من یک داده با ارزش گسسته به طور موقت سفارش داده ام. تنها حالت های ممکن برای داده ها عبارتند از: {1،2،3،4،5،6}. بنابراین سری چیزی شبیه به {1،2،3،5،6،4،3،5،2،......} است که می‌خواهم مقدار بعدی سری را بر اساس داده‌های گذشته پیش‌بینی کنم. روش های مناسب برای این؟ حالا لطفا توجه داشته باشید که سوال من تکراری نیست. من از این اطلاع دارم چگونه سری های زمانی طبقه بندی شده (مقدار گسسته) را مدل کنیم؟ که در آن مردم پیشنهاد کردند که مدل HMM یا مارکوف مناسب است. من سایت را برای آن جستجو کردم، بسته‌های R مانند HiddenMarkov، hmm.discnp و غیره را دانلود کردم. Esp در نسخه‌های بعدی، از تابع Viterbi استفاده کردم و محتمل‌ترین توالی حالت‌های پنهان را دریافت کردم که منجر به تولید حالت‌های مشاهده‌شده، یعنی داده‌ها شد. به آن داده شده است. اما این چیزی نیست که من می خواهم! آنچه من می خواهم مقدار FUTURE دنباله مشاهده شده از مقادیر PRESENT و PAST است و تابع Viterbi آن را نشان نمی دهد. راه حل این کار چیست؟ همچنین چه روش های دیگری مفید است که برخی از بسته ها برای آنها موجود است؟ من در مورد روش های ARMA گسسته خواندم، اما نه برای داده های چند کلاسه و سپس بدون هیچ گونه پیاده سازی. واقعا این مشکل اینقدر سخته؟ لطفا ترجیحا پیاده سازی نرم افزار یا روشی را پیشنهاد دهید.
مشکل در پیش بینی سری های زمانی با ارزش گسسته
115024
من مجموعه ای از داده ها با چولگی مثبت دارم، هنگامی که من تغییر شکل می دهم، تمایل به کج شدن منفی دارد. آیا تغییر دیگری وجود دارد که بتوانم از آن استفاده کنم یا هر روش آماری کار می کند؟ ممنون!!!
تبدیل لاگ داده ها را عادی نمی کند
112556
اسم من ابی است. من سعی می کنم با حل برخی از مشکلات موجود در اینترنت به خودم علم داده بیاموزم. مجموعه داده فعلی من حدود 900 رکورد و 10 ویژگی دارد. من سعی می کنم از جنگل تصادفی برای طبقه بندی برخی از داده ها استفاده کنم. مدل فعلی من به طرز وحشتناکی بیش از اندازه داده است، بنابراین سعی می کنم از تابع rfcv استفاده کنم. من در درک خروجی این تابع مشکل دارم. در اینجا چند نمونه کد کد (fgl, package=MASS) tst <- rfcv(trainx = fgl[,-10], trainy = fgl[,10], scale = log, step=0.7) وجود دارد. برخی از خروجی ها از این اما من مطمئن نیستم چگونه این را تفسیر کنم؟ 9 6 4 3 2 1 0.2102804 0.2196262 0.2429907 0.2523364 0.3551402 0.5607477 من همچنین log تابع اهمیت MeanDecreaseGini RI 2301323015 را دارم. 25.923452 Al 24.587295 Si 12.586816 K 13.731823 Ca 19.680839 Ba 14.206922 Fe 6.774196 هر گونه کمکی بسیار قدردانی می شود
R - جنگل تصادفی - برای درک عملکرد rfcv به کمک نیاز دارید
58527
من کتاب پیتر جکل روش‌های مونت کارلو در امور مالی را دنبال می‌کنم، که در آن الگوریتمی برای تبدیل ماتریس‌های همبستگی بدشکل به ماتریس‌های همبستگی قابل قبول (نیمه معین مثبت) برای انجام تجزیه Cholesky بعداً وجود دارد. رویکرد اصلی تبدیل مقادیر ویژه منفی به 0 و سپس تبدیل ماتریس برای تنظیم با این مقادیر جدید است. در http://www.mathworks.com/matlabcentral/fileexchange/26475-salvaging-a-linear-correlation-matrix/content/SpectralDecomp.m پیاده سازی برای matlab از این روش وجود دارد. مشکل در این مورد در محاسبات ممیز شناور است. فرض کنید من این ماتریس را دارم: 1 1 1 1 1 1 1 1 1 مقادیر ویژه برای این ماتریس عبارتند از: -9.11271925974066E-17 1.11022302462516E-16 3 این ماتریس مثبت نیست، زیرا مقدار e-fain اول است. با این حال، وقتی سعی می کنم آن را با یک ماتریس جدید که نیمه قطعی مثبت است تنظیم کنم، در نهایت با همان ماتریس بالا مواجه می شوم! و دلیل کاملاً واضح است: 2 مقدار ویژه اول از قبل خیلی نزدیک به صفر هستند - اگر با صفر جایگزین شوند، واقعاً هیچ چیز تغییر نمی کند. در واقع، با وارد کردن این ماتریس در یک سیستم با دقت کمتر (یعنی http://www.mathstools.com/section/main/system_equations_solver#.UYrN5rV-jK0)، آنها به نظر صفر می رسند. در ضرب ماتریس نهایی، به جمعی می رسم که از نظر ریاضی درست نیست، اما نتیجه محاسبات ممیز شناور است: 3.57e-33 + 1 = 1 من از VBA برای این محاسبات استفاده می کنم، با عملیات اصلی که عمدتا توسط در کتابخانه عالی Alglib عمل می کند، اما اکسل فقط 15 رقم دقیق را برای اعداد ممیز شناور ذخیره می کند. شاید بتوانم به جای تجزیه طیفی، رویکرد تجزیه hypershpere را امتحان کنم، اما فکر می‌کنم احتمالاً به همان مشکل برخورد خواهم کرد. آیا R، Matlab یا هر نرم افزار ریاضی دیگری با این مشکل برخورد می کند؟ برای بازتولید مسئله، سعی کنید ماتریس زیر را در جابجایی خودش ضرب کنید: 0 7.45058059692383E-09 1 0 -7.45058059692383E-09 1 0 0 1 نتیجه نباید یک ماتریس باشد، بلکه ماتریسی برابر با 1 است. . آیا راهی برای دور زدن این محدودیت وجود دارد؟ یا هر روش دیگری برای به دست آوردن یک ماتریس نیمه معین مثبت از یک ماتریس همبستگی دلخواه؟ من به تجزیه Cholesky این ماتریس نیاز دارم تا نمونه های تصادفی برای یک کوپول تولید کنم، شاید روش دیگری برای این کار وجود داشته باشد که شامل تجزیه Cholesky و محدودیت در نتیجه مثبت بودن نیمه معین بودن ماتریس نباشد؟
مسائل ممیز شناور هنگام تبدیل یک ماتریس همبستگی دلخواه به نیمه معین مثبت
81436
فرض کنید من یک مدل 2 سطحی را با glmer به این صورت نصب کرده ام: data.model <- glmer(y ~ 1 + level1.var11 + level2.var21 + (1 | ID)، خانواده = دوجمله ای (لینک = logit) ، داده = مجموعه داده) که در آن گروه بندی سطح 2 توسط ID انجام می شود، level1.var11 پیش بینی کننده سطح 1 است و level2.var21 پیش بینی سطح 2 است. مثلاً فرض کنید که واحدهای سطح 2 مدارس هستند و واحدهای سطح 1 دانش آموزان این مدارس هستند. (من از نماد استفاده شده توسط Raudenbush و Byrk در کتاب _Hierarchical Linear Models_ Edition استفاده می کنم.) فرض کنید پیش بینی کننده سطح 1 معدل دانش آموز و پیش بینی کننده سطح 2 SECTOR است که مدرسه دولتی یا خصوصی است. متغیر پاسخ اگر دانش آموز یک کلاس را تکرار کند 1 و اگر دانش آموز کلاس را تکرار نکند 0 است. مدل ترکیبی در این مورد این است: $\eta_{ij} = \gamma_{00} + \gamma_{10}Student\\_GPA_{ij} + \gamma_{01}SECTOR_{j} + u_{0j}$ I رهگیری ثابت، $\gamma_{00}$، و شیب ثابت، $\gamma_{10}$ و $\gamma_{01}$، و اثر تصادفی (قطع تصادفی) برای هر مدرسه، $u_{0j}$. $\eta_{ij}$ شانس ورود دانش آموز $i$ در مدرسه $j$ برای تکرار کلاس است. با استفاده از این مدل، می توانم احتمال، $p_{ij}$، را برای هر دانش آموزی که یک کلاس را تکرار می کند، پیش بینی کنم. (می‌توانم تصمیم بگیرم از افکت‌های تصادفی استفاده کنم یا نه. فرض کنید نمی‌خواهم از جلوه‌های تصادفی استفاده کنم.) حالا می‌خواهم احتمال $p_{ij}$ را بدانم که دانش‌آموز متعلق به مدرسه $j$ این احتمال را تکرار می‌کند. کلاس ایده من این است که بر اساس مدلی که ایجاد کردم، احتمالات را برای هر دانش آموز پیش بینی کنم و سپس میانگین احتمال را برای هر مدرسه محاسبه کنم. $\overline{p}_{.j} = \frac{\sum_{i = 1}^{n_{j}}p_{ij}}{n_j}$ مطمئن نیستم که این رویکرد درستی است یا خیر. آیا چیزی مهم را از دست داده ام؟ من می‌دانم که می‌توانم از روش «پیش‌بینی» از بسته «lme4» برای پیش‌بینی در سطح 1 مانند این استفاده کنم: predict(data.model، newdata = داده، REform = NA، type = «response»، allow.new. سطوح = درست) می‌خواهم بدانم چگونه می‌توانم با استفاده از مدلی که با پیش‌بینی‌کننده‌های سطح ۱ و سطح ۲ نصب کرده‌ام، پیش‌بینی‌هایی در سطح ۲ انجام دهم. آیا باید فقط میانگین پیش بینی سطح 1 را برای هر گروه انجام دهم یا رویکرد بهتری وجود دارد؟
پیش بینی های سطح 2 با مدل lme4/glmer
685
آیا چیزی در مورد آمار وجود دارد که به این نوع گفته ها کمک کند، یا فقط این است که مردم برای حمایت از ادعای خود چیزی می گویند، و این شامل استناد به آمارهای نامربوط یا ناقص است؟
دروغ، دروغ لعنتی و آمار
66180
در مدل های خطی تعمیم یافته توسط پیتر مک کولا، جان اشورث نلدر، 1. توزیع خانواده نمایی به شکل زیر است: $$ f_Y(y; \theta, \phi) = \exp \\{ (y\theta - b(\theta ))/a(\phi) + c(y, \phi)\\} (2.4) $$ سپس میانگین $$ EY = b'(\theta) است. $$ می خواستم بدانم که آیا به طور کلی، آیا $b'$ در مدل های خطی تعمیم یافته معکوس یا تزریقی فرض می شود، تا بتوانیم $\theta = b'^{-1}(EY)$ را بنویسیم؟ 2. میانگین از طریق $g(EY) = X \beta$ به پیش بینی خطی مربوط می شود. آیا تابع پیوند $g$ به صورت تزریقی یا معکوس در مدل های خطی تعمیم یافته فرض می شود، به طوری که $EY= g^{-1}(X\beta)$؟ هدف از دو سوال این است که به من کمک کند تا بفهمم چگونه پارامتر $\beta$ در مدل های خطی تعمیم یافته از طریق MLE تخمین زده می شود. به طور خاص، آیا می توان pdf $Y$ را به صورت $f_Y(y; \beta، X، \phi)$ نوشت، به عنوان مثال، توسط $\theta = b'^{-1}(g^{-1} (X\beta))$، تا بتوانیم MLE را روی $f_Y(y; \beta، X، \phi)$ اعمال کنیم؟ با تشکر
آیا تابع درستنمایی در مدل خطی تعمیم یافته را می توان بر حسب پارامتر مدل و متغیر ورودی نوشت؟
87481
هنگام ارزیابی یک مدل رگرسیون با اعتبارسنجی متقاطع، فکر کردم که معیار معنادار تقسیم بر MSE مدل صفر است که شامل پیش‌بینی میانگین، $\frac{\hat E[(y-\hat{y}) است. )^2]}{\hat E[(y-\bar{y})^2]}$. اگر مدل چیزی اضافه نکند، این عدد 1 است، و اگر پیش‌بینی کامل باشد، 0 است (و حتی اگر مدل به طور فعال مضر باشد، می‌تواند بزرگ‌تر از 1 باشد)، برای تفسیرپذیرتر کردن آن، می‌توانم آن را برگردانم: $1 - \frac {\hat E[(y-\hat{y})^2]}{\hat E[(y-\bar{y})^2]}$. اگر پیش‌بینی بدتر از مدل صفر باشد، این حتی می‌تواند منفی باشد. من دیده ام که افرادی از $1 - \frac{\rm{var}(y-\hat{y})}{\rm{var}(y)}$ استفاده می‌کنند و آن را توضیح داده واریانس می‌نامند، اما این برای مدل خیلی سخاوتمندانه به نظر می‌رسد. زیرا آن را برای تعصبات افزایشی یا ضربی جریمه نمی کند. معیاری که در بالا گفتم چیست؟ آیا دلیلی برای عدم استفاده از آن وجود دارد یا من فقط نمونه های مربوطه را از دست داده ام؟
این معیار چیست: تقسیم MSE بر واریانس متغیر وابسته
66186
من از اصل حداکثر آنتروپی برای توجیه استفاده از چندین توزیع در تنظیمات مختلف استفاده کرده ام. با این حال، من هنوز قادر به تدوین یک تفسیر آماری، بر خلاف نظری-اطلاعاتی، از حداکثر آنتروپی نیستم. به عبارت دیگر، به حداکثر رساندن آنتروپی در مورد ویژگی های آماری توزیع دلالت دارد؟ آیا کسی با یک تفسیر آماری از حداکثر مواجه شده است یا شاید برای خود یک تفسیر آماری کشف کرده است. توزیع های آنتروپی که برای اطلاعات جذابیتی ندارد، بلکه فقط برای مفاهیم احتمالی جذاب است؟ به عنوان نمونه ای از چنین تفسیری (الزاماً درست نیست): برای بازه ای با طول دلخواه L در دامنه RV (با فرض 1-d پیوسته آن برای سادگی)، حداکثر احتمالی که می تواند در این بازه وجود داشته باشد به حداقل می رسد. با حداکثر توزیع آنتروپی. بنابراین، می بینید که هیچ صحبتی در مورد اطلاع رسانی یا سایر ایده های فلسفی تر وجود ندارد، فقط مفاهیم احتمالی. ممنون :)
تفسیر آماری حداکثر توزیع آنتروپی
115020
من مجموعه‌ای از مقادیر «فعالیت» برای برخی از سنجش‌های آنزیمی که انجام می‌دادم، که از تجزیه و تحلیل‌هایی که انجام می‌دادم ناشی می‌شوند، دارم. مشکل این است که داده ها نسبتاً مزخرف هستند، و نکات زیادی وجود ندارد، اما برای پروژه کارشناسی ارشد من است، بنابراین من با آن گیر کرده ام. من قدردانی می‌کنم که تلاش برای پسرفت 4 نقطه داده، و به‌ویژه برون‌یابی از آن‌ها یک نه آماری است، اما این کاری است که دانشجوی دکتری که من از او تقلید می‌کنم انجام داد (البته با کمک بخش Biostats دانشگاه ما - منبعی که نمی‌توانم واقعاً در این مرحله استفاده می شود) - و بنابراین من می خواهم نتایج به طور مستقیم قابل مقایسه باشد. DPConc DPActivity 0 100.000000 83 67.709971 166 6.296231 416 16.546593 من باید از این مقدار IC50 را برون یابی کنم که مقدار غلظت (محور x) است که 50% فعالیت برای آن مشاهده می شود. من می خواهم (باید) این کار را با برازش نوعی منحنی / اسپلاین روی نقاط انجام دهم، اما کمی از دست داده ام. بهترین چیزی که من تا به حال به آن رسیده ام این است: نیاز (splines) library(splines) plot (DPConc, DPActivity) splineDP <- smooth.spline(DPConc, DPActivity, spar=0.45) خطوط (splineDP) که برای مقادیر مختلف از `spar` این نمودار را به من می دهد (ببخشید زبری آن - من واقعاً در پایان کارم هستم!) ![Dipeptide Activity در مقابل تمرکز](http://i.stack.imgur.com/z6P3Y.png) به نظر می رسد که نوعی فروپاشی نمایی در حال انجام است، اما من آنقدر ریاضیدان نیستم که بتوانم مطالب مورد نیاز را بسازم. تابع من ترجیح می‌دهم تابع را از داده‌ها استخراج کنم، تا اینکه در صورت امکان، داده‌ها را متناسب با تابع قرار دهم (به ویژه به این دلیل که داده‌های دیگری دارم که از همان روند پیروی نمی‌کنند، اگرچه گمان می‌کنم که این خطای آزمایشی باشد). من چندین روش مختلف را از سراسر وب امتحان کرده ام، اما مهلت من نزدیک است و من واقعاً به ساده ترین راه حل نیاز دارم. اگر راه حل را می توان با 'ggplot' پیاده سازی کرد، این یک امتیاز خواهد بود زیرا طرح های دیگر من تا کنون با آن ساخته شده اند، موارد بالا فقط یک ماکت سریع بود.
بهترین رویکرد در R برای درونیابی و برازش منحنی یک مجموعه داده کوچک؟