_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
44502
من نتایج عجیبی را برای داده های زیر هنگام انجام رگرسیون پواسون در R به دست آورده ام. > RHT1b f x1 y1 y2 1 f1 0 35 1 2 f2 2 70 4 3 f3 0 5 1 4 f4 9 37 4 5 f5 0 3 0 > خلاصه (amod2b) تماس بگیرید: glm(فرمول = x1 ~ y2، خانواده = سم، داده = RHT1b) باقیمانده های انحراف: 1 2 3 4 5 -0.00008 -1.71860 -0.00008 1.36550 0.00000 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -26.61 9977.85 -0.003 0.998 y2 7.08 2494.46 0.003 0.998 (پارامتر پراکندگی برای خانواده پواسون 1 گرفته شده است. انحراف تهی 49 درجه آزادی: 62 4.8182 در 3 درجه آزادی AIC: 15.485 تعداد تکرارهای امتیازدهی فیشر: 18 من قبلاً با داده ها مشکل داشتم که در آن x1 ردیف 4 8 و ردیف 5 1 را نشان می داد. هنگامی که من رگرسیون را اجرا کردم، نتایج قابل اعتماد و تقریباً معنی دار به نظر می رسید. پس از تصحیح داده ها به نحوه نشان داده شده در بالا و به روز رسانی مدل، نتایجی دارم که به معنای واقعی کلمه برای من معنی ندارد. سوال من این است که چرا این اتفاق افتاده است؟ آیا ممکن است مقدار 1 که به 0 تغییر می کند از نوعی آستانه شمارش صفر فراتر رفته است که مدل پواسون نمی تواند از عهده آن برآید؟ آیا یک مدل دوجمله ای منفی مناسب تر است؟
نتایج عجیب از رگرسیون پواسون در R
59282
با توجه به دو گاوس وزن دار با وزن دلخواه، میانگین و واریانس، پارامترهای حداقل گاوس محصور چیست؟ میانگین و واریانس باید به گونه ای انتخاب شود که وزن حداقل باشد، به گونه ای که یک کران بالایی محکم بر روی تفاوت های مثبت بین مقادیر دو گاوسی اولیه تقریبی و گاوسی محصور کننده ایجاد کند. حداکثر خطای نسبی با یک اپسیلون محدود تقریبی داده شده > 0 تعیین می شود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/63MK4.png) شکل: با توجه به دو هسته آبی (وزن = 1 ، میانگین = -1، var = 2) و (وزن = 2، میانگین = 2، var = 1)، راه حلی برای اپسیلون = 0.001 می تواند شبیه گاوس قرمز باشد (وزن ~= 5.2). چگونه پارامترهای آن را محاسبه کنیم؟
حداقل گاوسی محصور کننده
111468
شک من در مورد Down-Sampling است. من یک داده نامتعادل دارم و از نمونه‌برداری پایین استفاده می‌کنم، اما مطمئن نیستم که آیا همه ردیف‌ها در هر تاشده‌ای انتخاب شده‌اند که من از ۱۰ برابر استفاده کرده‌ام.
نمونه گیری پایین از کلاس اکثریت-چگونه می توانم مطمئن شوم که همه ردیف ها انتخاب شده اند؟
59281
در حال حاضر من از یک بسته r برای تطبیق فرآیند ARMA-GARCH استفاده می کنم. پس از آن، من می خواهم از مقادیر برازش برای محاسبه ارزش در معرض خطر استفاده کنم. بنابراین این مقادیر پیش‌بینی‌ها نیستند، بلکه «در نمونه مناسب» هستند. حالا من در مورد کلمه انتخاب، یعنی تفاوت بین کلمه مناسب و برآورد سوال دارم؟ از چه کلمه ای استفاده کنم؟ آیا همین طور است؟ به عنوان مثال Tsay صفحه 136 در شکل 3.8 می گوید: نقشه سری زمانی نوسانات تخمینی ($\sigma_t$) برای مازاد ماهانه > بازده .... در حالی که در کتابچه راهنمای R می گوید: > مقادیر برازنده
تفاوت بین تخمین زده و مناسب؟
8371
موسسات نظرسنجی فرانسه در حال حاضر با یک بحران بزرگ روبرو هستند، زیرا اخیراً آنچه را که می‌توان مضحک‌ترین نظرسنجی تاکنون در مورد مسابقه اسب‌سواری انتخابات ریاست‌جمهوری 2012 نامید، منتشر کردند. سنای فرانسه اکنون در نظر دارد تا با وادار کردن مؤسسات نظرسنجی به انتشار فواصل اطمینان برای نتایج خود، در مورد این موضوع قانونی وضع کند. با این حال، برخی از نظرسنجی ها با این اقدام مخالف هستند و ادعا می کنند که فواصل اطمینان در مورد نمونه گیری سهمیه ای که روشی است که توسط موسسات نظرسنجی در فرانسه استفاده می شود، اعمال نمی شود. از آنجایی که نمونه‌گیری سهمیه‌ای به طور رسمی نمونه‌گیری غیراحتمالی است، این ادعا صحت دارد. اما از آنجایی که نمونه گیری سهمیه ای اساساً نمونه گیری طبقه ای است، فواصل اطمینان باید اعمال شود، درست است؟ آیا می توانم در خارج از فرانسه، در کشورهایی که نظرسنجی ها از نمونه گیری سهمیه ای نیز استفاده می کنند، تجربیاتی در مورد این موضوع بپرسم؟
آیا فواصل اطمینان برای نمونه گیری سهمیه ای اعمال می شود؟
90694
من باید بدانم برای بدست آوردن فراوانی آللی در جمعیتی که بسیار نزدیک به فرکانس آللی واقعی است، چند نمونه باید نمونه برداری شود، با این فرض که اندازه جامعه و فراوانی آلل واقعی را می دانیم. به عنوان مثال می دانیم که در یک جمعیت 100 نفر وجود دارد و فراوانی های ژنوتیپی (AA=30% BB=10% و AB=60%) و فراوانی آلل B (40%). 10، 20، 30، 40 یا 50 نمونه از جمعیت (100=N) (بدون جایگزینی) نمونه برداری می شود تا تفاوت بین فراوانی ژنوتیپی یا آللی تخمینی و واقعی مشاهده شود. این کار 200 بار یا بیشتر تکرار می شود... برای مشاهده تفاوت در واریانس بین اندازه های مختلف نمونه. بعد، من یک جمعیت را به 500، 1000، 3000 افزایش خواهم داد... می دانم که می توانم از تابع R بوت استفاده کنم. اما من باید تابع آمار را برای آن ایجاد کنم و نمی توانم بفهمم چگونه. اگر بتوانید به من بگویید چگونه این کار را در R انجام دهم خوشحال می شوم. هر نمونه دارای یک مقدار ژنوتیپی، AA، BB و AB است. شاید بتوانیم از مقادیر عددی برای سه ژنوتیپ (یعنی AA=1، BB=0 و AB=0.5) استفاده کنیم؟ با تشکر فراوان،
Bootstrapping برای یافتن تعداد نمونه هایی که باید نمونه برداری شوند
29535
ریسک پس زمینه یا ریسک پایه چیست؟ و همچنین APE در EBM به چه چیزی اشاره دارد؟
ریسک پس زمینه یا ریسک پایه چیست؟
92108
فرض کنید می خواهم زمان واکنش افراد را قبل و بعد از درمان با استفاده از کد R ارزیابی کنم. اکنون برای تجزیه و تحلیل نتایج در صورت داشتن درمان های اضافی، می توانم از اندازه گیری های مکرر ANOVA در R با استفاده از تابع aov() استفاده کنم. با این حال، این رویکردها فرض می کنند که تنها یک اندازه گیری زمان واکنش به ازای هر فرد، در هر درمان وجود دارد. با این حال فرض کنید برای هر فرد، زمان واکنش او را 5 بار قبل از درمان و 5 بار بعد از درمان اندازه گیری کنیم. چگونه باید آزمون t یا ANOVA اندازه‌گیری‌های مکرر را برای توضیح این موضوع تنظیم کنم؟ می‌دانم که می‌توانم به سادگی قبل از تجزیه و تحلیل میانگین بگیرم، اما آیا می‌توان تمام 5 آزمایش را در تجزیه و تحلیل در R گنجاند و اگر بله چگونه؟ توجه داشته باشید که داده‌ها ممکن است چیزی شبیه به این باشد: نتیجه زمان درمان موضوع Subj1 صبح کک 15 Subj1 صبح کوک 14 صبح آبی 17 Subj1 صبح آبی 20 صبح Subj2 کک صبح 45 صبح سوژ2 کک صبح 46 Subj2 صبح آبی 58 صبح آبی Subj2 75
چندین اندازه گیری در هر آزمایش در R
111463
من در حال کار بر روی برخی رگرسیون ها برای شهرهای انگلستان هستم و یک سوال در مورد چگونگی تفسیر ضرایب رگرسیون دارم. در یک رگرسیون معمولی، می توان با داده های یک نمونه کار کرد و بنابراین خطاهای استاندارد روی ضرایب را می توان به عنوان منعکس کننده عدم قطعیت در انتخاب نمونه تفسیر کرد. در مورد من، من با هر شهر در بریتانیا کار می کنم، بنابراین تفسیر خطا آنقدر واضح نیست. دو منبع سردرگمی وجود دارد: 1. از آنجایی که من با جمعیت کامل کار می‌کنم، آیا می‌توانم خطاهای ضریب را نادیده بگیرم یا آنها تفسیر اضافی دارند که ممکن است مرتبط باشد؟ من برخی از ذکر جمعیت های محدود را دیده ام اما مطمئن نیستم که چگونه ممکن است در یک رگرسیون اعمال شود. 2. تعریف شهر به خودی خود تا حدودی نامشخص است. در مطالعه‌ام به شش تعریف نگاه می‌کنم که هر کدام شامل یک جمعیت کامل از شهرهای بریتانیا است (اگرچه هر تعریف دارای تعداد متفاوتی از شهرها است؛ این فقط ویژگی‌های هر شهر نیست که تغییر می‌کند، بلکه خود اندازه جمعیت نیز تغییر می‌کند). آیا تفسیر خطاهای ضریب رگرسیون به عنوان ثبت این عدم قطعیت معقول خواهد بود یا یک فرمول مدل جایگزین مناسب تر است؟ آنچه من به دنبال آن هستم راهنمایی در مورد بهترین عملکرد در این شرایط است.
تفسیر خطاهای ضریب در رگرسیون از جمعیت نامشخص
44508
به طور خلاصه، مشکل از تعیین یک قیمت رزرو در حراج قیمت دوم ناشی می‌شود، جایی که بدون قیمت رزرو $a_t$، برنده دومین پیشنهاد بالاترین $b_t$ را پرداخت می‌کند. اما با قیمت رزرو، برنده $$ \left\\{ \begin{matrix} a_t,& \text{if } a_t > b_t \\\ b_t, & \text{if } a_t\leq b_t \\ پرداخت می کند \ 0,& \text{اگر } a_t \text{ بالاتر از هر پیشنهادی باشد} \end{matrix} \right. $$ سوال این است که مقدار مورد انتظار $\mathbb{E}[r_t]$ پس از تعیین قیمت رزرو $a_t$ در هر مرحله زمانی چقدر است، با توجه به اینکه $b_t \sim \mathcal{N}(\mu, \sigma ^2) دلار. اگرچه من نمی دانم چگونه احتمال بالای 3 مورد را استخراج کنم، می توانم مثال زیر را بزنم: 1) اگر $a_t=1000$، پس $pr(r_t=0)=1$، زیرا $a_t$ خیلی زیاد است. 2) اگر $a_t=0$، آنگاه $p_r(r_t=b_t)=1$. آیا باید از cdf $b_t$ و $a_t$ برای استخراج احتمالات هر مورد استفاده کنم؟ با تشکر
چگونه می توان ارزش مورد انتظار درآمد را با قیمت ذخیره در مزایده قیمت دوم بیان کرد؟
59280
آیا راهی برای آزمایش برابری ضرایب رگرسیون چندک با استفاده از Stata وجود دارد؟ برای مثال آیا می توانم ضرایب چندک های 10، 25، 50، 75 و 90 را با استفاده از یک دستور در Stata مقایسه کنم؟
رگرسیون چندکی با Stata
111467
من در حال ساخت مدل های رگرسیون هستم. به عنوان یک مرحله پیش پردازش، مقادیر ویژگی های خود را به طور میانگین 0 و انحراف استاندارد 1 مقیاس می کنم. آیا لازم است مقادیر هدف نیز عادی شود؟
آیا برای تجزیه و تحلیل رگرسیون، علاوه بر مقیاس‌بندی ویژگی‌ها، مقیاس‌بندی مقدار هدف ضروری است؟
92101
من به نوعی مبتدی در منطقه یادگیری ماشین هستم و برخی از ابزارها و غیره را ارزیابی می کنم تا احساسی نسبت به آن پیدا کنم. برای یک پروژه من از ابزاری استفاده می کنم که یک هسته از پیش محاسبه شده (ماتریس گرم) ایجاد می کند و همچنین می تواند آن را عادی کند (مقادیر بین 0 و 1). مشکل من این است که هنگام استفاده از هسته از پیش محاسبه شده نمی توانم چیزی غیر از مجموعه آموزشی را پیش بینی کنم. خلاصه خلاصه شرح مشکل: * مجموعه داده اصلی 1285 نمونه است * با استفاده از `k_folds = sklearn.cross_validation.StratifiedKFold(list_of_annotations, k=5)` به 5 تا (تقسیم دستی، با استفاده از شاخص های روش) تقسیم آن (در حال حاضر فقط برای اهداف آزمایشی در یک برابر) `Classifier = svm.SVC(kernel='precomputed', probability=True) `clf = classifier.fit(train_matrix, train_annotations)` \--> به نظر کار می کند / مشکلی وجود ندارد تا اینجا * `clf.predict(test_matrix)` به من می دهد پیام خطای زیر: > > ValueError: X.shape[1] = 257 باید برابر باشد 1028، تعداد > نمونه در زمان آموزش > آیا رویکرد من اشتباه است؟ من واقعاً پیام خطا را درک نمی کنم - اگر SVM را با هسته از پیش محاسبه شده آموزش دهم، همیشه همان شکل داده های ورودی (هسته از پیش محاسبه شده روی داده های ورودی) را برای پیش بینی نخواهم داشت. آموزش- مجموعه؟!
پیش بینی با scikit و هسته از پیش محاسبه شده (SVM)
58827
تجزیه و تحلیل ANOVA یک طرفه برای بررسی سطح اشتراک دانش در بین کارکنان بر اساس تفاوت‌های سنی انجام شد. ANOVA یک طرفه نشان داد که در سطح KS تفاوت معنی‌داری وجود دارد در حالی که آزمون تعقیبی توکی نشان داد که بر اساس تفاوت سنی پاسخ‌دهنده، تفاوت آماری معنی‌داری در سطح اشتراک دانش بین گروه‌ها وجود ندارد. بنابراین، _نتیجه گیری از این نتیجه چیست و چرا نتیجه نتیجه متفاوتی را نشان می دهد؟_ و، چگونه این نتیجه را تفسیر کنم؟ جدول: میانگین نمرات در سطح اشتراک دانش در میان کارکنان - بر اساس سن. تعداد سن. میانگین انحراف معیار 20-29 34 3.82 1.13 30-39 54 3.87 0.92 40-49 56 3.41 1.06 بیش از 50 45 3.32 1.24 مجموع 189 3.59 1.1 مربع F مربع F سیگ بین گروه‌ها 11.029 3 3.676 3.120 .027 درون گروه‌ها 218.021 185 1.178 مجموع 229.050 188 جدول: مقایسه‌های چندگانه (I) سن (J) تفاوت میانگین سنی (I-J) Error Sig. 95% CI پایین کران بالا 20-29 30-39 -.047-.238.997 -.66-.57 .40-49.408.236.311 -.20- 1.02 بیش از 50.501.247. .14- 1.14 30-39 20-29 .047 0.238.997 -.57-.66 40-49.455.207.127 -.08-.99 بیش از 50.548.219.063 -.02- 1.12 40-292 - 1.12 .408- .236 .311 -1.02- 0.20 30-39 -.455-.207.127 -.99-.08 بیش از 50.093.217.974 -.47-.66 بیش از 50 20-29 -.501-.247.180 -. 1.14- 0.14 30-39 -.548- 0.219 .063 -1.12- .02 40-49 -.093- 0.217 .974 -.66-.47 بسیار سپاسگزارم که در یافتن پاسخ سوالم به من کمک کردید.
نتایج ANOVA نشان داد که علامت وجود دارد. در حالی که آزمون تعقیبی توکی نشان داد که هیچ علامت آماری وجود ندارد. تفاوت ها
22445
من می خواهم متغیرهایی را برای ساخت یک مدل رگرسیون لجستیک با مقایسه GOF انواع مختلف انتخاب کنم. مشکل این است که برخی از کاندیداها مقادیری از دست داده اند، بنابراین من نمی توانم از آزمون نسبت درستنمایی برای مقایسه مدل ها استفاده کنم، با توجه به اینکه وقتی می خواهم مدل ها را با آن متغیرها مقایسه کنم، آنها دیگر تو در تو نیستند. بنابراین پس از بررسی برخی گزینه ها، متوجه شدم که AIC یا حتی BIC ممکن است گزینه ای برای این منظور باشد. آیا هر کدام از این دو گزینه معتبر است؟ من با استفاده از BIC آشنا نیستم، آیا همان AIC است که هر چه مقدار آن کوچکتر باشد بهتر است؟
گزینه هایی برای مقایسه مدل های رگرسیون لجستیک
29531
اگر یک قالب را 8 بار بچرخانید، احتمال اینکه هم 1 و هم 2 بدست آید چقدر است. ) = 0.15$ $P(5) = 0.15$$P(6) = 0.15$
احتمال چرخاندن 1 و 2 هنگام چرخاندن یک قالب ناعادلانه 8 بار
8373
من یک مدل رگرسیونی می بینم که بازده سال به سال شاخص سهام را در بازده سال به سال عقب مانده (12 ماهه) سال به سال همان شاخص سهام، اسپرد اعتبار (تفاوت بین میانگین ماهانه اوراق بدون ریسک و اوراق قرضه شرکتی رگرسیون می کند). بازده)، نرخ تورم سالانه و شاخص سالانه تولید صنعتی. به نظر می رسد (اگرچه در این مورد، داده های مخصوص هند را جایگزین می کنید): SP500YOY(T) = a + b1*SP500YOY(T-12) + b2*CREDITSPREAD(T) + b4*INDUSTRIAL PRODUCTION(T+2) + b3*INFLATION(T+2) + b4*INFLATIONASYMM(T+2) SP500YOY بازده سالیانه شاخص SP500 است برای محاسبه این، میانگین ماهانه مقادیر SP500 محاسبه می شود و سپس به بازده سال به سال برای هر ماه تبدیل می شود (یعنی Jan'10-Jan'11, Feb'10- 11 فوریه، 10-مارس، . در سمت متغیرهای توضیحی، یک مقدار تاخیر 12 ماهه SP500YOY همراه با CREDITSPREAD در زمان T و INFLATION و INDUSTRIAL PRODUCTION دو دوره AHEAD استفاده می شود. INFLATIONASYMM ساختگی است برای اینکه آیا Inflation بالاتر از مقدار آستانه 5.0٪ است یا خیر. شاخص داخل پرانتز شاخص زمانی را برای هر متغیر نشان می دهد. این با رگرسیون خطی استاندارد OLS تخمین زده می شود. برای استفاده از این مدل برای پیش‌بینی بازده سالانه SP500 1،2 و 3 ماهه، باید پیش‌بینی‌های 3،4 و 5 ماهه برای تورم و شاخص تولید صنعتی تولید کرد. این پیش بینی ها پس از برازش یک مدل ARIMA برای هر یک از این دو به صورت جداگانه انجام می شود. پیش بینی های CreditSpread برای 1،2 و 3 ماه آینده فقط به عنوان تخمین های ذهنی مطرح می شوند. می‌خواهم بدانم آیا این رگرسیون خطی OLS درست/نادرست، کارآمد/ناکارآمد است یا به طور کلی روش آماری معتبر است. اولین مشکلی که می بینم استفاده از داده های همپوشانی است. یعنی مقادیر روزانه شاخص سهام در هر ماه به طور میانگین محاسبه می شود و سپس برای محاسبه بازده سالانه که به صورت ماهانه تغییر می کند، استفاده می شود. این باید عبارت خطا را به صورت خودکار مرتبط کند. من فکر می‌کنم که باید از برخی «اصلاح» در خطوط یکی از موارد زیر استفاده کرد: * تخمین‌گر کوواریانس سازگار ناهمسانی وایت * تخمین‌گر ناهم‌همبستگی و خودهمبستگی نیوی و وست (HAC) * نسخه سازگار با ناهمسانی هانسن و هودریک دوز واقعا منطقی است که رگرسیون خطی استاندارد OLS (بدون هیچ گونه) را اعمال کنیم اصلاحات) به چنین داده های همپوشانی، و بیشتر، استفاده از پیش بینی های 3 دوره ای ARIMA برای متغیرهای توضیحی برای استفاده در رگرسیون خطی OLS اصلی برای پیش بینی SP500YOY؟ من قبلاً چنین شکلی را ندیده‌ام، و از این رو نمی‌توانم واقعاً در مورد آن قضاوت کنم، بدون استثناء تصحیح برای استفاده از مشاهدات همپوشانی.
رگرسیون سری زمانی با داده های همپوشانی
44506
(این سوال کمی با سوال قبلی من مرتبط است، اما این سوال در مورد مقایسه موضوعی بود در حالی که این سوال به طور خاص در مورد استنتاج کردن منظور گروه است.) هنگام تجزیه و تحلیل داده ها با استفاده از یک مدل بیزی سلسله مراتبی، گاهی اوقات نمی خواهید استنباط‌هایی را در مورد موضوعات فردی انجام دهید، بلکه در سطح گروهی (مثلاً برای دختران 10 ساله، معتبرترین نمره آزمون 100 با فاصله زمانی معتبر 95٪ است. [75، 125]). هنگام ساختن چنین مدلی با استفاده از چارچوب MCMC، به عنوان مثال JAGS/BUGS، دو راه برای رسیدن به میانگین سطح گروه می بینم. یا می توانم از میانگین قبلی ($\mu_\text{gr}$ در نمودار زیر.) روی میانگین توزیع نمونه استفاده کنم یا برای هر تکرار الگوریتم MCMC می توانم میانگین همه موضوع را محاسبه کنم. معنی (این میانگین تمام $\mu_\text{subj}$ در نمودار زیر است). **اگر بخواهم در مورد گروه استنتاج کنم به این معناست که از کدام یک از این دو جایگزین استفاده کنم؟** به عنوان آزمایشی برای اینکه ببینم هنگام استفاده از دو گزینه مختلف چه اتفاقی می افتد، مدلی را با داده های شبیه سازی شده اجرا کردم. در اینجا یک نمودار سبک کروشکه از یک مدل سلسله مراتبی است که در آن ما میانگین $\mu_\text{subj}$ را برای تعدادی از موضوعات با یک گروه به طور معمول توزیع شده قبل از $\mu_\text{subj}$ با میانگین $\mu_ تخمین می زنیم. \text{gr}$. ![نمودار کروشکه](http://i.stack.imgur.com/IvFiO.png) در اینجا کد JAGS و R برای مشخص کردن مدل بالا و شبیه‌سازی داده‌ها برای 50 آزمودنی وجود دارد که در آن هر آزمودنی میانگینی را دریافت می‌کند که به طور تصادفی به طور عادی توزیع شده است. با $\mu=0$ و $\sigma=1$. سپس مدل JAGS برای 5000 تکرار اجرا می‌شود و در هر تکرار میانگین قبلی، «گروه_mu»، و میانگین محاسبه‌شده موضوعات، «mean_mu <-mean(mu[])» ذخیره می‌شود. library(rjags) model_string <- model { for(i in 1:length(y)) { y[i] ~ dnorm( mu[subject[i]], precision[subject[i]]) } mean_mu <- mean (mu[]) برای (subject_i در 1:n_subject) { mu[subject_i] ~ dnorm(group_mu، group_precision) precision[subject_i] <- 1/pow(sigma[subject_i], 2) sigma[subject_i] ~ dunif(0, 10) } group_mu ~ dunif(-10, 10) group_precision <- (group_sd, 2) group_sd ~ dunif(0, 10) } # ایجاد داده های جعلی n <- 10 n_subject <- 50 subject_mean <- rnorm(n_subject, mean=0, sd=1) y <- rnorm(n * n_subject, mean=rep(subject_mean, هر=n)، sd=1) موضوع <- rep(1:n_subject, every=n) # اجرای مدل با JAGS jags_model <- jags.model(textConnection(model_string), data=list(y=y, subject=subject, n_subject=n_subject), n.chains= 3, n.adapt= 1000 ) update(jags_model, 1000) jags_samples <- jags.samples(jags_model, variable.names=c(group_mu, mean_mu)، n.iter=5000) با نگاه کردن به چندک ها و نمودارهای جعبه mean_mu و group_mu نشان می دهد که هر دو حول گروه واقعی متمرکز شده اند. میانگین، اما از نظر پراکندگی بسیار متفاوت هستند، به طوری که فاصله زمانی معتبر 95% برای group_mu بسیار گسترده تر از group_mu است. mean_mu. quantile(jags_samples$mean_mu, c(0.025, 0.5, 0.975)) ## 2.5% 50% 97.5% ## -0.10804263 -0.00741235 0.09216414 quantile(jags_0,5$group) 0.5, 0.975)) ## 2.5% 50% 97.5% ## -0.262734656 -0.008996673 0.248624938 boxplot(jags_samples, outline=F, horizontal=T) ![http://imagetur. com/NieRD.png) **بنابراین اگر بخواهم در مورد گروه استنباط کنم منظورم این است که از کدام توزیع استفاده کنم، «group_mu» یا «mean_mu»**؟ برای من این واضح نیست و هر توضیحی که چرا یکی بر دیگری ترجیح داده می شود بسیار قدردانی می شود!
در تحلیل بیزی سلسله مراتبی هنگام استنباط در مورد معنای گروه از چه سطحی استفاده کنیم؟
8375
همه، من به دنبال ایجاد یک مدل پیش‌بینی برای پیش‌بینی ریزش هستم و به دنبال استفاده از یک مدل بقای گسسته زمانی هستم که بر روی مجموعه داده‌های آموزشی دوره فرد (یک ردیف برای هر مشتری و دوره گسسته‌ای که در معرض خطر بودند، با یک نشانگر برای رویداد) استفاده کنم. مساوی 1 اگر ریزش در آن دوره اتفاق افتاده باشد، در غیر این صورت 0). * من مدل را با استفاده از رگرسیون لجستیک معمولی با استفاده از تکنیک سینگر و ویلت برازش می کنم. * ریزش یک مشتری می تواند در هر جایی در طول یک ماه اتفاق بیفتد، اما فقط در پایان ماه است که از آن مطلع می شویم (یعنی زمانی در طول آن ماه که آنها رفته اند). 24 ماه برای آموزش استفاده می شود. * متغیر زمانی مورد استفاده، زمان مبدأ نمونه است - همه مشتریان فعال تا 12/31/2008 - همه آنها t=0 را از ژانویه 2009 دریافت می کنند (روش کلاسیک برای انجام آن نیست، اما من معتقدم به روشی که ساخت یک مدل پیش بینی در مقابل یک مدل آماری سنتی). متغیری که استفاده می شود، دوره تصدی مشتری در آن نقطه از زمان است. * یک سری متغیرهای کمکی ساخته شده اند - برخی از آنها در ردیف های مجموعه داده (برای یک مشتری معین) تغییر نمی کنند و برخی تغییر می کنند. * این متغیرهای کمکی متغیر زمانی موضوع هستند و آنچه باعث می‌شود من یک مدل بقا برای پیش‌بینی ریزش را زیر سؤال ببرم (در مقایسه با یک طبقه‌بندی معمولی که ریزش را در ماه‌های x آینده بر اساس داده‌های عکس فوری پیش‌بینی می‌کند). موارد ثابت زمان، فعالیت ماه قبل را توصیف می کنند و انتظار می رود محرک های مهمی باشند. پیاده‌سازی این مدل پیش‌بینی، حداقل بر اساس تفکر فعلی من، امتیاز دادن به پایگاه مشتری در پایان هر ماه، محاسبه احتمال / خطر ریزش در زمانی در طول ماه آینده است. سپس دوباره برای 1،2 یا 3 ماه آینده. سپس برای 1،2،3،4،5،6 ماه آینده. برای احتمال ریزش 3 و 6 ماهه، من از منحنی بقای تخمینی استفاده خواهم کرد. **مشکل:** وقتی نوبت به فکر کردن به امتیاز دهی می رسد، چگونه می توانم پیش بینی کننده های متغیر با زمان را ترکیب کنم؟ به نظر می‌رسد که من فقط می‌توانم با پیش‌بینی‌کننده‌های زمان ثابت امتیاز بگیرم یا برای گنجاندن آن‌هایی که زمان‌ناپذیر هستند، باید آن‌ها را زمان‌ناپذیر کنید – مقدار «در حال حاضر» را تنظیم کنید. آیا کسی تجربه یا نظری در مورد استفاده از مدل بقا دارد؟ **به روز رسانی بر اساس نظر JVM@:** مشکل در تخمین مدل، تفسیر ضرایب، ترسیم نمودارهای خطر/بقای مقادیر متغیر کمکی جالب با استفاده از داده های آموزشی و غیره نیست. مسئله در استفاده از مدل برای پیش بینی ریسک برای یک مشتری داده شده بگو در پایان این ماه، من می خواهم به همه کسانی که هنوز مشتری فعال هستند با این مدل امتیاز بدهم. من می‌خواهم تخمین ریسک را از x دوره‌ها پیش‌بینی کنم (خطر بستن حساب در پایان ماه آینده. خطر بسته شدن حساب در پایان دو ماه از هم‌اکنون و غیره). اگر متغیرهای کمکی متغیر زمانی وجود داشته باشد، مقادیر آنها در هر دوره آتی ناشناخته است، بنابراین چگونه می توان از مدل استفاده کرد؟ **به روز رسانی نهایی:** مجموعه داده های دوره یک فرد برای هر فرد و هر دوره زمانی که در معرض خطر هستند ورودی دارد. فرض کنید دوره های زمانی J وجود دارد (شاید J=1...24 برای 24 ماه) فرض کنید من یک مدل بقای زمانی گسسته می سازم، جایی که برای سادگی، زمان T را خطی در نظر می گیریم و دو متغیر کمکی X و Z داریم که در آن X زمان است. -invariant، به این معنی که در هر دوره برای شخص iثانیه ثابت است و Z زمان متغیر است، به این معنی که هر رکورد برای شخص i می تواند مقدار متفاوتی به خود بگیرد. برای مثال، X ممکن است جنسیت مشتریان باشد و Z ممکن است میزان ارزش آنها برای شرکت در ماه قبل باشد. مدل logit خطر برای نفر چهارم در دوره زمانی j: $logit(h(t_{ij}))=\alpha_{0}+\alpha_{1}T_{j}+\beta_{ 1}X_{i}+\beta_{2}Z_{ij}$ بنابراین مسئله این است که هنگام استفاده از متغیرهای کمکی تغییر زمان، و پیش‌بینی (به آینده‌ای که هنوز دیده نشده است) با داده های جدید، $Z_{j}$ ناشناخته است. تنها راه‌حل‌هایی که می‌توانم فکر کنم این است: * از متغیرهای کمکی متغییر زمان مانند Z استفاده نکنید. این به شدت مدل را برای پیش‌بینی رویداد ریزش تضعیف می‌کند، زیرا، برای مثال، مشاهده کاهش Z به ما می‌گوید که مشتری در حال جدا شدن است و شاید آماده شدن برای رفتن * از متغیرهای کمکی متغیر با زمان استفاده کنید اما آنها را با تأخیر (مانند Z در بالا) استفاده کنید که به ما امکان می‌دهد هر چند دوره زمانی که متغیر با تأخیر مواجه شده‌ایم پیش‌بینی کنیم (دوباره به مدلی فکر می‌کنیم که داده‌های فعلی جدید را امتیاز می‌دهد). * از متغیرهای کمکی متغیر با زمان استفاده کنید اما آنها را به عنوان ثابت در پیش بینی نگه دارید (بنابراین مدل برای داده های مختلف برازش داده شد، اما برای پیش بینی آنها را ثابت می گذاریم و شبیه سازی می کنیم که چگونه تغییرات در این مقادیر، اگر بعداً واقعاً مشاهده شوند، بر خطر ریزش تأثیر می گذارد. * استفاده کنید. متغیرهای کمکی با زمان تغییر می کنند، اما مقادیر آتی آنها را بر اساس پیش بینی از داده های شناخته شده، به عنوان مثال، برای هر مشتری پیش بینی کنید.
مدل بقا برای پیش بینی ریزش - پیش بینی کننده های متغیر زمان؟
22441
من در تلاش برای یافتن راه حلی برای مقایسه دو تست خوبی تناسب هستم. به طور دقیق تر، من می خواهم نتایج دو آزمایش مستقل را با هم مقایسه کنم. در این آزمایش‌ها، نویسندگان از مربع کای برازش برای مقایسه حدس‌زنی تصادفی (فرکانس‌های مورد انتظار) با فرکانس‌های مشاهده‌شده استفاده کردند. دو آزمایش تعداد شرکت کنندگان یکسانی داشتند و رویه های آزمایشی یکسان هستند، فقط محرک ها تغییر کردند. نتایج دو آزمایش حاکی از chi-square قابل توجهی بود (تعریف 1: X2(18)=45؛ p<.0005 و exp. 2: X²(18)=79؛ p<.0001). حالا کاری که می‌خواهم انجام دهم این است که آزمایش کنم که آیا بین این دو نتیجه تفاوت وجود دارد یا خیر. من فکر می کنم راه حل می تواند استفاده از فواصل اطمینان باشد اما نمی دانم چگونه این فاصله های اطمینان را فقط با این نتایج محاسبه کنم. یا شاید تستی برای مقایسه اندازه اثر (W کوهن)؟ کسی راه حلی داره؟ خیلی ممنون F.D.
فاصله اطمینان برای کای اسکوئر
110597
سوال من ساده است: آیا تابعی در R وجود دارد که مدل رگرسیون خطی را به روشی مشابه lm تخمین بزند، اما فقط با استفاده از میانگین، واریانس و کوواریانس (همبستگی)، یعنی آمار کافی؟ من به دنبال تابعی هستم که بتوانم این آمارها را وارد کنم (به اضافه حجم نمونه) و ضرایب رگرسیون و تست ها را برمی گرداند.
چگونه می توانم از آمار کافی (واریانس ها، کوواریانس ها، میانگین ها) برای تخمین مدل رگرسیون خطی در R استفاده کنم؟
66622
آیا متغیرهای کمکی متغیرهای تعدیل کننده در نظر گرفته می شوند یا متغیرهای کنترل؟ برای توضیح بیشتر در مورد سوالم، یک مطالعه تحقیقاتی انجام می دهم که دارای: 1. متغیرهایی که قرار است بر متغیر وابسته تأثیر بگذارند اما در هیچ تحلیلی در نظر نمی گیرند (مثلاً آزمایش انجام شده در طول روز) 2. متغیرهایی که به عنوان معیارهای خروج استفاده می شود، به طوری که برخی از افراد از تجزیه و تحلیل حذف (فیلتر) می شوند (به عنوان مثال، داشتن شرایط پزشکی) 3. متغیرهایی که قرار است بر روی متغیر وابسته و بنابراین من آن را به عنوان متغیرهای کمکی در مدل خود لحاظ می کنم (به عنوان مثال، GLM یا MANCOVA). هر یک از این سه نوع متغیر را چه می نامید؟
متغیرهای کمکی به عنوان متغیرهای تعدیل کننده یا کنترل در نظر گرفته می شوند؟
115271
به من داده‌هایی داده شده است که پیش‌بینی کنم، اما در داخل داده‌ها یک رقم منفی دارد که پس از انجام یک تبدیل گزارش برای ثابت کردن سری، اسکریپت ARIMA که من نوشته‌ام کار نخواهد کرد. datan<-c(144627.7451,575166.2487,854245.7137,1230639.153,1160052.421 ,479928.7072,-261427.4238,1181746.229,168251.621,556741.5149,1840484 0.518,1704679.404,1878380.278,1865288.502,1849340.253,1965974.112,209 3192.242,1912399.391,2633179.421,2134618.008,2070856.492,1238565.331) freqdata<-4 startdata<-c(9,2) horiz<-4 datats<-ts(datan,frequency=freqdata,start=startdata) force.log<-log datadates<-as.character(c(9q2،9q3،9q4،10q1،10q2،10q3،10q4،11q1،11q2،11 q3، 11q4، 12q1، 12q2، 12q3، 12q4، 13q1،13q2،13q3،13q4،14q1،14q2،14q3 )) dataMAT<-matrix(0,ncol=freqdata,nrow=(length(datats)+freqdata),byrow=TRUE) برای (i در 1:freqdata) {dataMAT[,i]<-c(rep(0,length= i-1)، تاخیر (داده‌ها، k=-i+1)، تکرار (0، طول = داده‌های فرکانس-i+1))} dataind<-dataMAT[c(-1:(-freqdata+1),-(length(dataMAT[,1])-freqdata+1):-(length(dataMAT[,1])))،] dataind2<- data.frame(dataind) lm1<-lm(X1~.,data=dataind2) lm2<-lm(X1~X2+dataind2[,length(dataind2[1,])],data=dataind2) library(lmtest) library(car) bptest1<-bptest(lm1) bptest2<-bptest(lm2) gqtest1< -gqtest(lm1) ncvtest1<-ncvTest(lm1) ncvtest2<-ncvTest(lm2) if(force.log==level) {aslog<-n}else {{if(force.log==log) {aslog<-y}else {if(bptest1$p.value<0.1|bptest2$p.value<0.1|gqtest1$p.value<0.1|ncvtest1$p<0.1|ncvtest2$p<0.1) {aslog<-y}دیگر {aslog <-n}}}} if(aslog==y) {dataa<-log(datats)}دیگر {dataa<-datats} startLa<-startdata[1]+trunc((1/freqdata)*(length(dataa)-horiz)) startLb<-1+((1/freqdata)*(length(dataa)-horiz )-trunc((1/freqdata)*(length(dataa)-horiz)))*freqdata startL<-c(startLa,startLb) K<-ts(rep(dataa,length=length(dataa)-horiz),frequency=freqdata,start=startdata) L<-ts(dataa[-1:-(طول( dataa)-horiz)],frequency=freqdata,start=startL) library(strucchange) efp1rc<-efp(lm1,data=dataind2,type=Rec-CUSUM) efp2rc<-efp(lm2,data=dataind2,type=Rec-CUSUM) efp1rm<-efp(lm1,data=dataind2,type Rec-MOSUM) efp2rm<-efp(lm2,data=dataind2,type=Rec-MOSUM) plot(efp2rc) lines(efp1rc$process,col =darkblue) plot(efp2rm) lines(efp1rm$process,col=darkblue ) gefp2<-gefp(lm2,data=dataind2) plot(gefp2) plot(dataa) pacf(dataa) sctest(efp2rc) cat(log series,y/n?:,aslog) سپس می‌خواهم arima را اجرا کنم تا کتابخانه پیش‌بینی‌ها (tseries) library(forecast) max.sdiff<- 3 arima.force.seasonality<-n kpssW<-kpss.test(dataa,null=Level) ppW<-tryCatch({ppW<-pp.test(dataa,alternative=stationary)},error=function(ppW){ppW<-list(error=TRUE,p.value=0.99)}) adfW <-adf.test(dataa,alternative=stationary,k=trunc((length(dataa)-1)^(1/3))) if(kpssW$p.value<0.05|ppW$p.value>0.05|adfW$p.value>0.05) {ndiffsW=1}دیگر {ndiffsW=0} aaW<-auto.arima(dataa,max.D=max.sdiff,d=ndiffsW,seasonal=TRUE,allowdrift=FALSE,stepwise=FALSE,trace=TRUE,seasonal.test=ch) orderWA<-c( aaW$arma[1],aaW$arma[6],aaW$arma[2]) orderWS<-c(aaW$arma[3],aaW$arma[7],aaW$arma[4]) if(sum(aaW$arma[1:2])==0) {orderWA[1]<- 1}دیگر {NULL} if(arima.force.seasonality==y) {if(sum(aaW$arma[3:4])==0) {orderWS[1]<-1}else {NULL}}else {NULL} Arimab<-Arima(dataa,order=orderWA,seasonal=list(order=orderWS),method=ML) fArimab<-forecast(Arimab ,h=8, simulate=TRUE,fan=TRUE) if(aslog==y) {fArimabF<-exp(fArimab$mean[1:horiz])}دیگر {fArimabF<-fArimab$mean[1:horiz]} plot(fArimab,main=ARIMA Forecast,sub=blue=fitted,red= واقعی) خطوط (dataa,col=red,lwd=2) #رنگ و اندازه dataa را تغییر می دهد lines(ts(append(fitted(Arimab),fArimab$mean[1]),frequency=freqdata,start=startdata),col=blue,lwd=2) if(aslog==y) {Arimab2f< -exp(fArimab$mean[1:horiz])}دیگر {Arimab2f<-fArimab$mean[1:horiz]} start(fArimab$mean)->startARIMA ArimaALTf<-ts(prettyNum(Arimab2f,big.interval=3L,big.mark=,),frequency=freqdata,start=startARIMA) نمایش(ArimaALTf,title=ARIMA2 final پیش بینی) #جدول خلاصه پیش بینی ها را می آورد (آریماب) اگر کسی می تواند کمک کند من بفهمم که چگونه این داده ها را با منفی پیش بینی کنم، واقعاً سپاسگزار خواهم بود!
تبدیل یک سری زمانی با عدد منفی
8377
من دانشجوی سال اول روانشناسی هستم. من در حال انجام کارهای تحقیقاتی با یک پروفسور هستم، متأسفانه مطالبی که در حال حاضر باید از آنها استفاده کنم فقط در سال دوم من پوشش داده شده است. اما الان باید از قبل بدانم. بنابراین من در حال سوزاندن منابعی هستم که می توانم پیدا کنم تا به سرعت به سرعت برسم. من برای درک این وضعیت خاص در اینجا به کمک نیاز دارم. شامل SAS، تجزیه و تحلیل رگرسیون. وقتی یک رگرسیون در SAS (proc reg) با استفاده از دو متغیر a و b اجرا کردم. اینو گرفتم من این را به این صورت می فهمم که هر دو این متغیرها (a&b) به طور قابل توجهی متغیر هدف من را پیش بینی نمی کنند. در اینجا خروجی SAS است. تجزیه و تحلیل مجموع واریانس مجموع میانگین منبع DF مربعات مربع F مقدار Pr > F مدل 2 3.32392 1.66196 1.00 0.3774 خطا 46 76.80649 1.66971 تصحیح شده مجموع 48 80.13017S29 R. 0.0415 میانگین وابسته -0.23698 Adj R-Sq -0.0002 Coeff Var -545.26074 پارامتر تخمین پارامتر متغیر استاندارد استاندارد شده DF برآورد خطا t مقدار Pr > |t| تخمین رهگیری 1 -0.25713 0.18515 -1.39 0.1716 0 a 1 -0.35394 0.28797 -1.23 0.2253 -0.19510 b 1 -0.04706 I -0.04706 0.395806 - 0.39589 - سعی شد تعامل a و b را در تصویر لحاظ کند. اجازه دهید آن را aXb بنامیم، اکنون خروجی نشان می دهد که a و aXb به طور قابل توجهی متغیر هدف من را پیش بینی می کنند. تجزیه و تحلیل مجموع واریانس مجموع میانگین منبع DF مربعات مربع F مقدار Pr > F مدل 3 16.64439 5.54813 3.93 0.0142 خطای 45 63.48602 1.41080 تصحیح شده مجموع 48 80.13017SR. 0.2077 میانگین وابسته -0.23698 Adj R-Sq 0.1549 Coeff Var -501.20683 پارامتر تخمین پارامتر متغیر استاندارد استاندارد شده DF برآورد خطا t مقدار Pr > |t| تخمین رهگیری 1 -0.06807 0.18098 -0.38 0.7086 0 a 1 3.01517 1.12795 2.67 0.0104 1.66201 b 1 -0.00994 0.36030307 -0.360309 -0. aXb 1 -1.13782 0.37029 -3.07 0.0036 -1.90743 ** در اینجا سؤالات من وجود دارد:** من مطمئن نیستم که از این وضعیت چه کنم. روی هم رفته این چه چیزی را به من نشان می دهد؟ همچنین در حالی که به این سوال پاسخ می دهید، می توانید آن را با برخی منابع، کلمات کلیدی goog و غیره تکمیل کنید تا من درباره این موضوعات بیشتر بیاموزم. از کمک شما بسیار سپاسگزارم.
درک خروجی رگرسیون چندگانه
110845
مجموعه داده من یک مجموعه داده پانل سالانه در مورد درآمد افراد، سال بیکاری و تعدادی از متغیرهای جمعیتی است. من یک رگرسیون OLS به شکل $y_{it} = \sum _{j=1} ^n D_{j,it} \beta_j + \sum_k x_k\delta_k + u_{it}، $ که $y$ نشان می‌دهد اجرا می‌کنم درآمد و $D_1,...,D_n$ متغیرهای ساختگی متقابل $n$ هستند که نشان دهنده زمان بیکاری هستند. آنها متقابل هستند زیرا بیکاری دقیقا یک بار اتفاق می افتد. به عنوان مثال، اگر $D_1$=1 و همه آدمک های دیگر برابر با 0 باشند، آنگاه فرد 1 سال قبل بیکار بوده است. سایر متغیرهای کمکی با $x_k,k=1,...,K$ نشان داده می شوند که همگی متغیرهای ساختگی هستند. علاوه بر این، $i$ نشان دهنده افراد، $t$ نشان دهنده زمان است. بعد از تخمین، متغیر $c = \frac{\hat{\beta_3}-\hat{\beta_2}}{\bar{y}}$ را می‌سازم که $\hat{\beta_j}$ تخمین پارامتر مربوط به $D_j$ و $\bar{y}$ میانگین پیش‌بینی شده $y$ برای کسانی است که $D_2 = 1$ دارند. توجه داشته باشید که $\hat{\beta_3}-\hat{\beta_2}$ بیانگر تفاوت تخمینی درآمد بین بیکار شدن 2 نسبت به 3 سال قبل است. علاوه بر این، $\bar{y}$ درآمد پیش بینی شده برای افرادی است که 2 سال قبل بیکار شده اند. بنابراین، $c$ درصد تخمینی تغییر درآمد از 2 تا 3 سال پس از بیکاری است. سوال من این است: چگونه می توانم واریانس $c$ را بسازم؟ حدس می‌زنم واریانس صورت‌گر باید $var(\hat{\beta_2})+var(\hat{\beta_3})-2covar(\hat{\beta_2},\hat{\beta_3})$ باشد - اما چگونه آیا واریانس کل چیز را می سازم؟
واریانس یک متغیر ساخته شده از تخمین پارامترها و مقادیر پیش بینی شده یک رگرسیون خطی
8370
من ماتریسی از اعداد حقیقی مثبت بین 0 و 1 دارم. سطرها نشان دهنده ژن ها و ستون ها نشان دهنده نمونه ها هستند. تعداد سطرها با بزرگی 10^4$ از تعداد ستون ها بیشتر است. من در تعجبم که چگونه این را در R تجسم کنم. می دانم که نقشه حرارتی یکی از راه های انجام این کار است، اما آیا ایده های دیگری نیز وجود دارد. در اینجا چند نکته وجود دارد که می خواهم در تجسم بر آنها تأکید کنم: **داده ها:** 1. ردیف ها و ستون ها ترتیبی ندارند (همانطور که ممکن است قبلاً متوجه شده باشید). به طور خاص سطرها و ستون ها قابل تعویض هستند. 2. ورودی های ماتریس اعداد حقیقی مثبت بین 0 و 1 هستند. 3. بخش کوچکی از داده ها (10% از ردیف ها یا ژن ها، حدود 1000) در واقع جالب هستند. 4. ماتریس نشان دهنده احتمال تخمین زده شده فعال تر بودن ژن ها در یک نمونه است. **هدف:** 1. من می خواهم نشان دهم: کدام ژن فعال تر است و در کدام نمونه. ماتریس دارای ردیف های زیادی است که در آن ها احتمالات در ستون ها بسیار مشابه است. 2. من با نظم دادن به ردیف ها (ژن ها) برای واضح تر شدن الگو مشکلی ندارم. ** افکار من: ** در حال حاضر می توانم با انتخاب یک برش (مثلا $\ge 95\%$) ژن های فعال را در یک نمونه تعیین کنم و ژن ها را به گونه ای مرتب کنم که اولین مجموعه ردیف ها ژن های فعال در نمونه باشند. 1، مجموعه دوم ردیف‌ها ژن‌های فعال در نمونه 2 هستند، ... من همچنین به تجسم زیر مجموعه‌ای از داده‌ها فکر می‌کردم، ممکن است با نمونه‌برداری از ردیف‌ها باشد. اما هیچ موفقیتی نداشتم. می‌دانم که این ایده‌ها ممکن است خیلی ظریف نباشند، اما داده‌های من را به گونه‌ای تنظیم می‌کنند که الگو را بیشتر قابل تشخیص می‌کند. من می دانم که قبلاً سؤالات مشابهی پرسیده شده است، اما فکر می کردم سؤال من کمی دقیق تر است، بنابراین امیدوارم بتوانم ورودی های بهتری از اعضای این انجمن دریافت کنم.
چگونه یک ماتریس را با تعداد ردیف $\gg$ تعداد ستون تجسم/خلاصه کنیم؟
92100
این مقاله از یک مدل ترکیبی خطی تعمیم یافته با فرض توزیع دو جمله ای برای خطاها استفاده می کند. در بخش نتایج، از آماره F و P-value مرتبط برای مدل استفاده می‌شود (صفحه 2150، پاراگراف شروع «مردان و مونث‌ها نیز متفاوت بودند») من فکر می‌کردم که آماره F فقط در ANOVA و رگرسیون خطی قابل استفاده است. آیا کسی می تواند به من بگوید که چگونه و چرا از آماره F در رگرسیون لجستیک در مقاله پیوندی استفاده می شود؟
استفاده از آماره F در رگرسیون لجستیک
111461
تفاوت بین رگرسیون خطی سلسله مراتبی و رگرسیون چندگانه تعدیل شده چیست؟ اگر یک و دو متغیر تعدیل کننده داشته باشم و مدل های من عبارتند از: * مدل 1- IV * مدل 2- اضافه کردن دو ModV * مدل 3- اضافه کردن تمام اصطلاحات تعاملی، مدل من HLM است یا MMR؟
تفاوت بین رگرسیون خطی سلسله مراتبی و رگرسیون چندگانه تعدیل شده
32504
در 2 ماه گذشته، من سعی کردم هر نوع رگرسیون چند متغیره را انجام دهم، اما شانس زیادی نداشتم. شنیده ام که Octave برای این نوع کارها ساده تر و شهودی تر است، بنابراین فکر کردم آن را امتحان کنم. در اینجا یک نسخه ساده شده از نوع داده ای است که من استفاده می کنم: روز = [4، 5، 6، 8] دما = [97، 100، 98، 80] رطوبت [62، 46، 50، 55] من می خواهم برای استفاده از این داده ها و برون یابی دما برای روز 7 و روز 9. آیا هیچ آموزشی وجود دارد که به طور واضح و مختصر نحوه انجام این کار را با اکتاو؟ یا شاید کسی اینجا بتواند به من بگوید که از کدام دستورات اکتاو برای انجام این کار استفاده کنم؟ کمک شما بسیار قدردانی خواهد شد.
رگرسیون چند متغیره ساده با اکتاو
16665
من با R و ANOVA اجرا کردم و تفاوت های قابل توجهی پیدا کردم. با این حال، هنگام بررسی اینکه کدام جفت ها با استفاده از روش Tukey تفاوت قابل توجهی دارند، هیچ یک از آنها را دریافت نکردم. این چگونه ممکن است؟ کد اینجاست: fit5_snow<- lm(Response ~ Stimulus, data=audio_snow) anova(fit5_snow) > anova(fit5_snow) تجزیه و تحلیل جدول واریانس پاسخ: پاسخ Df Sum Sq Mean Sq F value Pr(>F) 173.7.5 Stimulus 17.7.5 2.6308 0.02929 * باقیمانده 84 471.20 5.6095 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 df<-df.residual(fit5_snow) MSerror<-deviance(fit5_snow)/df مقایسه <- HSD.test(audio_snow$Response, audio_snow$Stimulus, df, MSerror, group=FALSE) > مقایسه <- .test(audio_snow$Response, audio_snow$Stimulus, df, MSerror, group=FALSE) مطالعه: تست HSD برای audio_snow$Response میانگین مربع خطا: 5.609524 audio_snow$Stimulus، یعنی audio_snow.Response std.err replication snow_dry_leaves.3309530 snow_gravel 6.866667 0.5679258 15 snow_metal 6.333333 0.5662463 15 snow_sand 6.733333 0.5114561 15 snow_snow 7.3333315 40659 4095 0.7713110 15 آلفا: 0.05 ; خطای Df: 84 مقدار بحرانی محدوده دانش‌آموزی: 4.124617 مقایسه بین تیمارها به معنای تفاوت pvalue sig LCL UCL snow_gravel - snow_dry_leaves 1.9333333 0.232848 -0.5889913 4.48_dry_vele 1.4000000 0.588616 -1.1223246 3.922325 برف_شن - برف_خشک_برگ 1.8000000 0.307012 -0.7223246 4.322325 4.322325 برف_برف_40_برف_40_برف_0. 0.071587 . -0.1223246 4.922325 برف_چوب - برف_خشک_برگ 0.1333333 0.999987 -2.3889913 2.655658 برف_شن - برف_فلز 0.53333333 0.9333333 0.98958 -18958 شن_برف - برف_شن 0.1333333 0.999987 -2.3889913 2.655658 برف_برف - برف_شن 0.4666667 0.994348 -2.0556579 2.999908 2.988991 چوب برف 0.307012 -0.7223246 4.322325 snow_sand - snow_metal 0.4000000 0.997266 -2.1223246 2.922325 snow_snow - snow_metal 1.000000000 - برف_فلز 1.000000000 3.522325 snow_metal - snow_wood 1.2666667 0.687424 -1.2556579 3.788991 snow_snow - snow_sand 0.6000000 0.982179 -1.9223_2246 -1.9223_2246 -235. 1.6666667 0.393171 -0.8556579 4.188991 snow_snow - snow_wood 2.2666667 0.103505 -0.2556579 4.788991
چگونه می توانم ANOVA کلی قابل توجهی داشته باشم اما تفاوت دوتایی قابل توجهی با روش توکی نداشته باشم؟
51084
من سعی می کنم یک مقاله تحقیقاتی را درک کنم، اما با چند مشکل مواجه هستم، هر کمکی واقعا قدردانی می شود. یک فرآیند مارکوف سه حالته با احتمالات انتقال برای حالت ها: 0 --> -1 = λ(1-u)+s 0 --> 1 = λu 1 --> 0 = μ من یک سیستم معادلات رو به جلو کولموگروف دارم P '-1(t) = (λ(1-u)+s)P0(t) P'0(t) = -(λ+s)P0(t)+ μP1(t) P'1(t) = -μP1(t) + λuP0(t) و من باید راه حلی برای P0(t) و P1(t) پیدا کنم که احتمال این است که فرآیند در هر دو حالت 0/1 در دوره زمانی باشد. 't'. می خواستم بدانم آیا کسی می تواند راه حلی برای این سیستم معادلات به دست آورد. (اگر مرتبط باشد، مقاله پژوهشی از روش نمرات جمعی ون دانتسیگز استفاده می‌کند، اما این تنها مرحله‌ای است که من آن را دنبال نمی‌کنم) از هرگونه بینش مرتبط بسیار قدردانی می‌شود! با تشکر
روش رویدادهای اضافی برای فرآیند مارکوف دو حالته
56508
من می خواهم فاصله اطمینان را برای تابع همبستگی خود محاسبه کنم. آیا این محاسبه با روش معمولی محاسبه فواصل اطمینان تفاوتی دارد؟ چگونه می توانم CF را برای همبستگی متقابل بین دو سری زمانی محاسبه کنم؟ ممنون میشم اگه راهنمایی کنید =)
چگونه فاصله اطمینان را برای توابع همبستگی خودکار و همبستگی متقابل محاسبه کنیم؟
85373
من 2 سری زمانی دارم. ![](http://i.stack.imgur.com/fFfPq.png) هر دو سری تورم را دنبال می‌کنند. (فرکانس‌های نمونه‌گیری متفاوتی دارند) آبی CPI رسمی منتشر شده توسط دولت ایالات متحده است. قرمز معیار تورم یک گروه مستقل است اگر اجازه بدهم خط آبی حالت اساسی سیستم باشد و خط قرمز داده ورودی نویزدار باشد، آیا می توانم وضعیت سیستم را با استفاده از خط قرمز تخمین بزنم (و شاید برخی متغیرهای توضیحی دیگر که فکر می کنم). معتبر هستند) من قبلاً یک مدل رگرسیون نمونه‌گیری داده‌های مختلط (MIDAS) را به این داده‌ها برازش می‌دهم، اما مدل‌های دیگری را می‌خواهم تا بتوانم پیش‌بینی‌ها را مقایسه کنم.
آیا این یک برنامه معتبر برای فیلتر کالمن است؟
110595
می‌خواستم بدانم که آیا روش خاصی برای تبدیل نتایج رگرسیون پروبیت به احتمال عضویت یک آزمودنی در گروه 1 (در مقابل گروه 0) وجود دارد، اگر متغیر وابسته را به 2 گروه تقسیم کنید (مثلاً موفقیت در مقابل شکست). می دانم که برای رگرسیون لجستیک از لوجیت معکوس مجموع ضرایب * مقادیر موضوع + ثابت استفاده می کنید، اما من از نحوه انجام آن با پروبیت مطمئنم راهی وجود دارد زیرا Stata می‌تواند توانایی مدل را برای طبقه‌بندی با طبقه‌بندی estat بررسی کند. من در درجه اول در حال حاضر از R برای تجزیه و تحلیل داده های خود استفاده می کنم، بنابراین اگر می دانید چگونه این کار را در R انجام دهید، از کمک شما حتی بیشتر سپاسگزارم (در حال حاضر از inv.logit از بسته بوت استفاده می کنم.)
احتمال و احتمال عضویت در یک گروه
112737
اگر سطوح پراکندگی مختلف را انتخاب کنیم (یعنی کنترل‌های $\lambda$)، می‌توانیم راه‌حل‌های متفاوتی با سطوح پراکندگی مختلف به دست آوریم. آیا به این معنی است که مسیر منظم سازی نحوه انتخاب مختصاتی است که می تواند همگرایی سریع تری داشته باشد؟ من کمی گیج هستم اگرچه اغلب در مورد پراکندگی آن دل می‌کنم. علاوه بر این، لطفاً توضیح ساده ای در مورد راه حل های موجود برای مسئله «LASSO» بدهید؟ پیشاپیش متشکرم
منظور از مسیر منظم سازی در کمند یا مشکلات پراکندگی مربوط به آن چیست؟
51081
من وظیفه دارم یک مدل بیزی برای حمایت از تصمیم گیری برای بازاریابی جستجوی پولی بسازم. من به صورت آنلاین تحقیق کرده‌ام و چندین مقاله علمی در مورد استفاده از مدل بیزی سلسله مراتبی یا MCMC در تخمین پارامترهای مدل پیدا کرده‌ام، اما هنوز جزئیات را متوجه نشده‌ام. آیا در جایی مثال خوبی وجود دارد که هم مدل و هم نحوه استفاده از یک بسته نرم افزاری برای تخمین گام به گام پارامترها را توضیح دهد؟ متشکرم!
آیا کسی می تواند به من یک مثال خوب از استفاده از مدل های بیزی برای تصمیم گیری بازاریابی اشاره کند؟
3623
من یک رگرسیون لجستیک (برای مرجع در SAS) با پیش‌بینی‌کننده‌های پیوسته و مقوله‌ای (با کدگذاری مرجع) و یک عبارت تعاملی بین یکی از هر نوع دارم (فعلاً فرض کنید که متغیر طبقه‌بندی مورد نظر دارای سه سطح پاسخ است، مرجع کدگذاری شده به $c_1$ و $c_2$): $logit(p) = a + (اصطلاحات پیوسته) + (اصطلاحات طبقه بندی) + b_1 (c_1 x) + b_2 (c_2 x)$ که در آن $b_1$ و $b_2$ ضرایب تخمینی از کد من هستند. از این به وضوح می توانم یک عبارت برای احتمال $p$ نتیجه خود دریافت کنم. من می‌خواهم میانگین p را با وارد کردن میانگین‌های مستمر و نسبت‌های عبارات طبقه‌ای تخمین بزنم. اما با اصطلاح(های) تعامل چه کار کنم؟ آیا $(c_i x) = mean(x)$ را تنظیم کنم؟ یا آن را روی $proportion(c_i)mean(x)$ قرار دهم؟
وصل کردن مقادیر/نسبت‌های میانگین به یک رگرسیون لجستیک با تعامل گسسته پیوسته
26508
> **تکراری احتمالی:** > تجزیه و تحلیل PCA با متغیرهای مرکزی در تجزیه و تحلیل PCA من در یک جزء دارای متغیرهای منفی و مثبت هستم. این احتمالاً بسیار ابتدایی است، اما چیزهای مختلفی در مورد تفسیر متغیرهای درون یک جزء به من گفته شده است، بنابراین من فقط نیاز به توضیح دارم. اول؛ آیا به این صورت است که مقادیر منفی درون یک جزء در یک جهت و مثبت در عکس حرکت می کنند؟ یا اینکه من فقط باید به مقادیر مطلق متغیرهای درون یک جزء نگاه کنم؟
در مورد مقادیر منفی درون یک جزء در تجزیه و تحلیل PCA چه می کنید؟
51089
من یک جدول احتمالی برای آزمایش نتیجه باینری خود تشکیل داده‌ام که در سؤال قبلی‌ام مورد بحث قرار گرفته است: آزمایش نتیجه باینری یکی از فرضیه‌های من می‌گوید که زنان در شناسایی اتومبیل‌ها بهتر هستند و من سعی می‌کنم از **آزمایش مربع کای** استفاده کنم. بنابراین من جدولی مانند این دریافت می کنم که در آن همه پیش بینی ها را خلاصه کرده ام: | دوچرخه پیش بینی شده (واقعی 100) | ماشین پیش بینی شده (واقعی 100)| مرد | 50 | 50 | زن | 40 | 60 | من 2 سوال در رابطه با فرمول بالا دارم. 1. آیا راهی وجود دارد که بتوانم تصویر واقعی را توضیح دهم؟ من اساساً می خواهم این فرضیه بگوید که زنان در تشخیص **صحیح** تصاویر ماشین بهتر هستند. 2. با استفاده از تست Chi-Square می توانم ثابت کنم که پیش بینی لاستیک مستقل/وابسته به جنسیت است. با این حال، اگر وابسته است، آیا عدد واقعی می تواند ثابت کند که ماده ها بهتر از مردان هستند؟ اگر نه، کسی می تواند به من در این مورد کمک کند!
تست مربع چی - تجزیه و تحلیل نتیجه باینری
3628
از خروجی یک رگرسیون لجستیک در JMP، من در مورد دو متغیر باینری خواندم: تخمین Var1 -0.1007384 تخمین Var2 0.21528927 و سپس نسبت شانس برای Var1 lev1/lev2 1.2232078 متقابل 0.81752125 برای Varlev2 Odds. 0.6501329 متقابل 1.5381471 اکنون «1.2232078» را به عنوان «exp(2*0.1007384)» به دست می‌آورم، و به طور مشابه برای سایر نسبت شانس. بنابراین، سوال من این است: چرا باید در دو ضرب کنم؟ آیا رابطه بین ضریب c و نسبت شانس آن r برابر با r=exp(c) است؟ اینطور نیست؟
رابطه بین ضریب رگرسیون لجستیک و نسبت شانس در JMP
110337
من یک رگرسیون لجستیک و برای اندازه گیری رابطه بین دو متغیر (Categorical) اجرا می کردم. من از شبه R-squared مک فادن به عنوان معیار استفاده کردم. متوجه شدم که متغیرهای خاصی مقدار R-squared نزدیک به 1 را نشان می دهند. چگونه باید این مقدار را تفسیر کنم؟ اساساً، R = 1-ln(Lm)/ln(L0) مک فادن در اینجا Lm - احتمال مدل L0 - احتمال زمانی که فقط از Intercept استفاده می‌کنید، بنابراین اگر R 0.99 باشد، به این معنی است که Lm در مقایسه با L0 بسیار کوچک است. آیا این بدان معناست که این دو متغیر کاملاً همبسته هستند؟
Pseudo-R2 مک فادن بسیار بالاست
32501
با توجه به توصیه user603، من یک تاپیک جدید برای این سوال باز کردم. برای مرجع شما، سوال اصلی اینجاست: اشاره گرهایی برای درک بهتر rlm در R؟ * * * سوال من این است: چگونه rlm برای هر تکرار IRLS w خود را تعیین می کند؟ همچنین، آیا درک من در زیر صحیح است؟ آرگومان ورودی w برای مقادیر اولیه وزن دهی rlm IRLS استفاده می شود و مقدار خروجی w همان w همگرا است. آرگومان ورودی وزن در واقع همان چیزی است که من می خواهم اعمال کنم. و وزن‌های واقعی/واقعی حاصل ضرب «وزن‌ها» (من ارائه کردم) و خروجی همگرا «w» (خروجی) هستند. با تشکر از همه.
rlm در R چگونه وزن w خود را تعیین می کند؟
93273
من اتفاقاً رگرسیون خطی زیادی انجام می‌دهم، مورد استفاده معمولی پیش‌بینی $Y$ با چند پیش‌بینی کننده است که می‌گویند $X = [X_1;X_2;X_3]$. بنابراین ما $\hat{\beta}$ را چنین می یابیم که $$\hat{\beta} = \underset{\beta}{argmin} ||Y-X.\beta||^2$$ اما در واقع من بیشتر هستم علاقه مند به یافتن تخمین خطی $Y$ به طوری که $$corr(Y,\hat{Y}) = corr(Y,X.\hat{\beta})$$ حداکثر باشد. من از این واقعیت آزارم می‌دهد که برای $\beta_0$ معین، $corr(Y,X.a.\beta_0)$ برای همه $a$ یکسان است، سوال‌ها پس از آن آیا تخمین‌گر خطی بهینه $\beta$ حداقل است؟ معنای مربع نیز در عبارت همبستگی من بهینه است، و اگر بله باید اذیت شوم که $\beta$ بهینه منحصر به فرد نیست؟
ارتباط بین رگرسیون خطی و همبستگی
110598
برای مشکل زیر به کمک نیاز دارم. من راه حل فعلی (جزئی) خود را ارائه کردم، و امیدوارم کسی بتواند من را اصلاح کند و/یا پیشنهاداتی در مورد چگونگی حل قسمت هایی که از قلم انداخته ام به من بدهد. > با توجه به SVM با هسته: > > $$K(x,z) = \theta(x)^T \theta(z) = \left\\{ \begin{array}{ll} 1 & \text{if } > x = z \\\ 0 & \text{در غیر این صورت} \end{array} \right.$$ > > به ما نمونه‌های آموزشی $N$ داده شده است $(x_1، y_1) \ldots (x_N، y_N)$ با $y_i > = \pm 1$. برای سادگی، فرض کنید که $x_i$ها متمایز هستند، و ما > فقط SVM را در نظر می گیریم که در آن ابرصفحه در فضای ویژگی از مبدا عبور می کند، به عنوان مثال، وقفه $b=0$. > > 1. به یاد بیاورید که بردار وزن $w$ استفاده شده در SVM به شکل > $$w = \sum_{i=1}^N \alpha_i y_i \theta(x_i)$$ $\alpha_i$ را محاسبه کنید > به صراحت که با استفاده از SVM با این هسته پیدا می شود. > > 2. به یاد بیاورید که الگوریتم SVM یک طبقه بندی کننده را خروجی می دهد که در ورودی $x$، علامت $w^T \theta(x)$ را محاسبه می کند. ارزش این محصول داخلی > در مثال آموزشی $x_i$ چقدر است؟ ارزش این محصول داخلی > در هر نمونه $x$ که در طول آموزش دیده نمی شود چقدر است؟ بر اساس این پاسخ ها، > انتظار دارید چه نوع خطای تعمیم توسط SVM ها > با استفاده از این هسته به دست آید؟ > > 3. به یاد بیاورید که خطای تعمیم SVMها را می توان با استفاده از > margin $\delta$ (که برابر است با $1/\|w\|$)، یا با استفاده از تعداد > بردارهای پشتیبانی محدود کرد. $\delta$ در این مورد چیست؟ در این مورد چند بردار پشتیبان > وجود دارد؟ چگونه این پاسخ ها با پاسخ شما در > بخش (2) مطابقت دارند؟ > > برای قسمت (1)، شکل دوگانه تابع هدف را به حداکثر رساندم $$ \max_{\alpha} \sum_{n=1}^N \alpha_n - \frac{1}{2} \sum_{n= 1}^N \sum_{m=1}^N y_n y_m \alpha_n \alpha_m K(x_n، x_m) $$ با توجه به محدودیت‌های $\alpha_n \geq 0، n=1،\ldots،N$ و $\sum_{n=1}^N \alpha_n y_n = 0$. من این کار را با تشکیل لاگرانژ $$ \mathcal{L}(\alpha, \beta, \lambda) = \sum_{n=1}^N \alpha_n - \frac{1}{2} \sum_{n= انجام دادم 1}^N \sum_{m=1}^N y_n y_m \alpha_n \alpha_m K(x_n، x_m) - \sum_{n=1}^N \beta_n \alpha_n - \lambda \sum_{n=1}^N \alpha_n y_n $$ سپس مشتق را با توجه به $\alpha_i$ گرفته و آن را روی صفر قرار دهید. راه حلی که برای $\alpha_i$ گرفتم، $$ \alpha_i = \frac{1}{y_i} \left[ \frac{1}{y_i} - \frac{1}{N} \sum_{n=1} است. ^N \frac{1}{y_n}\right] $$ برای قسمت (2)، با جایگزین کردن $\alpha_i$ موجود در قسمت (1) در محصول داخلی $$ w^T شروع کردم. \theta(x) = \sum_{j=1}^N \alpha_j y_j \theta(x_j)^T \theta(x) $$ وقتی $x_i$ در مجموعه آموزشی باشد، من $$ w^T \ دریافت می کنم تتا(x_i) = \frac{1}{y_i} - \frac{1}{N} \sum_{n=1}^N \frac{1}{y_n} $$ وقتی $x$ باشد در مجموعه آموزشی نیست، من $$ w^T \theta(x) = 0 $$ دریافت می کنم آیا این درست است که این نشان می دهد که هسته عملکرد تعمیم ضعیفی دارد؟ آیا راهی وجود دارد که بتوانم آن را به صورت رسمی نشان دهم؟ در نهایت، برای قسمت (3)، من $\delta$ توسط $$ \delta = \frac{1}{\|w\|} = \frac{1}{\sqrt{\sum_{n=1} دریافت کردم. N \alpha_n^2 y_n^2}} $$ چگونه تعداد بردارهای پشتیبانی را محاسبه کنم؟ و این چه ارتباطی با قسمت (ب) دارد؟
سوال ماشین وکتور پشتیبانی
55703
آیا کسی قبلاً تجربه برخورد با جفریس را دارد؟ من در حال حاضر با مدل سلسله مراتبی کار می کنم که گفته می شود پارامتر σ^2 از توزیع نرمال بر اساس توزیع گامای معکوس از جفریس قبلی انتخاب شده است. چگونه باید کار کند؟ و چرا از توزیع گامای معکوس اغلب به عنوان قبلی برای واریانس استفاده می شود؟ در برخی از ارائه‌ها متوجه شدم که می‌توانم Jeffreys را به‌عنوان مثال IG(0.001،0.001) انتخاب کنم، اما وقتی آلفا و بتا هر دو <1 هستند، عملکرد گاما به طرز عجیبی رفتار می‌کند. اگر بخواهم مقادیری از IG(0.001,0.001) در R با کدهایی مانند a=rgamma(1000,0.001,0.001) aa=1/a mean(aa) تولید کنم، مقدار Inf را دریافت می کنم زیرا همه مقادیر a نزدیک به 0 هستند. و برخی از آنها دقیقا 0 هستند. پس چگونه باید جفریز را انتخاب کرد؟
Jeffreys برای توزیع گامای معکوس
93272
من 480 رکورد را به یک مدل درخت رگرسیون برازش داده بودم و آن را با مجموعه داده های اعتبارسنجی 120 رکوردی اعتبارسنجی کردم (من از تقسیم 80/20 استفاده کردم)، خطای پیش بینی MSE را حدود 5.6037 محاسبه کردم. درخت رگرسیون: rpart(فرمول = HeatLoad ~ RelComp + SurfA + WallA + RoofA + Height + Orient + GlazeA + GlazeD, data = EnergyE.train) متغیرهایی که واقعاً در ساخت درخت استفاده می شوند: [1] خطای گره ریشه GlazeA SurfA: `49168/ 480 = 102.43` n = 480 CP nsplit rel error xerror xstd 1 0.793780 0 1.000000 1.003270 0.0393036 2 0.090992 1 0.206220 0.207071 0.0163478 3.0163478 3 0.0163478 3 411 0.118873 0.0101955 4 0.012391 3 0.089587 0.098468 0.0072328 5 0.012206 4 0.077196 0.091905 0.091905 0.091905 0.0072328 0.064990 0.087126 0.0069405 7 0.010000 6 0.053440 0.068864 0.0054837 سؤال من این است که برای کاهش بیشتر خطای پیش بینی مجموعه خطای معتبر مربعی (SEM) در مقایسه با یک مجموعه خطای معتبر مربعی 0.0.0.
نحوه کاهش بیشتر خطای پیش بینی در مدل درختی رگرسیون
57709
این به صورت متقاطع در StackExchange ارسال شده است، اما از آنجایی که به آمار مربوط می شود، فکر کردم اینجا را امتحان کنم. من سعی می‌کنم داده‌های تجربی را با استفاده از بسته «ez» با یک عامل بین آزمودنی‌ها («رتبه») و دو عامل درون موضوعی («هزینه»، «msg») تجزیه و تحلیل کنم. شرکت‌کنندگان در دو مقطع زمانی به‌طور تصادفی به هر دو «هزینه» و «پیام‌ها» اختصاص داده شدند، بنابراین از نظر تئوری می‌توانستند ترکیبی از «هزینه» و «پیام» را در هر دو مقطع زمانی داشته باشند. «ezDesign» نشان می‌دهد که **داده‌های من متعادل‌شده و بدون مقادیر از دست رفته است.** فرض کنید مجموعه داده من «ez_data» به این صورت است: id Choice_num انتخاب پیام هزینه رتبه محصول id_r 1.1 1 1 1 استانی هزینه مشابه پاک‌کننده کمترین اهمیت 1.1 2.1 2 1 1 بدون هنجار پاک کننده گران تر مهم ترین 2.1 3.1 3 1 1 صابون بدون نرمال هزینه یکسان کمترین اهمیت 3.1 4.1 4 1 1 معمولی هزینه مشابه قهوه مهم ترین 4.1 5.1 5 1 1 صابون با هزینه مشابه استانی مهم ترین 5.1 6.1 6 1 1 بدون استاندارد هزینه مشابه شکلات مهم ترین هزینه 6.1 7.1 استانی 71 Cleaner مهمترین 7.1 8.1 8 1 0 استانی همان هزینه قهوه کمترین اهمیت 8.1 9.1 9 1 1 استانی همان هزینه تمیزتر کمترین اهمیت 9.1 10.1 10 1 1 1 عادی شکلات گران تر مهم ترین 10.1 11.1 11 1 1 1 هنجار Same 11 1 1. استانی همان هزینه قهوه مهم ترین 12.1 13.1 13 1 1 معمولی صابون همان هزینه مهم ترین 13.1 14.1 14 1 1 صابون استانی هزینه مشابه کمترین اهمیت 14.1 15.1 15 1 0 هنجار گران تر قهوه 11 11 15. Cleaner کمترین اهمیت 16.1 17.1 17 1 1 بدون هنجار شکلات گران تر کمترین اهمیت 17.1 18.1 18 1 0 صابون استانی گران تر کمترین اهمیت 18.1 19.1 19 1 1 1 Norm گران تر Sam Chocolate مهم ترین 19.1 19.1 201 . 20.1 بر اساس نظرات اینجا، من یک متغیر ID جدید ایجاد کرده‌ام که «choice_num» را با متغیر «id» پیوند می‌دهد تا مقادیر تکراری برای برچسب‌های «id» در سطوح مختلف فاکتورها وجود نداشته باشد. سپس، من به سادگی دستور را اجرا می کنم: ezANOVA(data=ez_data, dv=.(انتخاب)، wid=.(id_r), inside=.(cost,msg), between=.(rank), type=3) اما این همچنان این خطا را نشان می دهد: خطا در ezANOVA_main(داده = داده، dv = dv، wid = wid، درون = درون، : یک یا چند سلول داده از دست رفته است. سعی کنید از ezDesign() برای بررسی اطلاعات خود استفاده کنید؟
خطا در «ezANOVA» با مجموعه داده متعادل و بدون داده از دست رفته
96175
من یک عامل بین موضوعی با چهار سطح و یک متغیر وابسته دوگانه دارم. من می‌خواهم آزمایش کنم که آیا هر جفت در عامل بین موضوعی به طور متفاوتی با متغیر وابسته مرتبط است (بنابراین اگر سطح اول در متغیر وابسته بیشتر از سطح دوم امتیاز بیشتری کسب کند، اگر سطح اول امتیازهای بیشتری را در متغیر وابسته کسب کند. متغیر وابسته نسبت به سطح سوم و غیره). تنها راهی که می توانم برای انجام این کار به آن فکر کنم، انجام شش تست زوجی (2x2) مجذور کای است. آیا این راه برای پاسخ به سوال من است، و اگر جواب داده است، چگونه می توانم تورم خطای نوع 1 را کنترل کنم؟
تست های مجذور کای متعدد برای مقایسه های زوجی
60119
من n (~ 100) دارایی با داده های زیان در R دارم که هر کدام از توزیع کلی پارتو خود استخراج شده اند. فرض کنید که من هر کدام 100 مشاهده دارم که به ما یک ماتریس 100*100 می دهد. برای تجمیع این مجموعه‌ها در یک «پرتفولیو»، باید مزایای تنوع را تقلید کنم، یعنی برای همبستگی تنظیم کنم. من با ایجاد یک ماتریس همبستگی تصادفی از این سوال شروع کردم: آیا می توانم ماتریس 100*100 داده های همبسته خود را با تجزیه Cholesky جابجا شده ماتریس همبستگی p.d (همچنین 100*100) ضرب کنم تا به اثر مورد نظر خود برسم؟ (براساس http://www.sitmo.com/article/generating-correlated-random-numbers/) آیا این راه حل معقولی است؟ (توجه داشته باشید. من از nearPD{Matrix} برای اطمینان از p.d استفاده کردم) راه حل های جایگزین نیز خوب هستند.
تقلید همبستگی در داده های از دست دادن در طول تجمع
52067
بگویید من یک رگرسیون چند متغیره (چند متغیر مستقل) دارم که از 3 متغیر تشکیل شده است. هر کدام از آن متغیرها دارای ضریب مشخصی هستند. اگر تصمیم بگیرم متغیر چهارم را معرفی کنم و رگرسیون را دوباره اجرا کنم، آیا ضرایب 3 متغیر اصلی تغییر می کند؟ به طور گسترده تر: در یک رگرسیون چند متغیره (متغیرهای مستقل چندگانه)، آیا ضریب یک متغیر معین تحت تأثیر ضریب متغیر دیگری است؟
آیا افزودن متغیرهای بیشتر به یک رگرسیون چند متغیره، ضرایب متغیرهای موجود را تغییر می دهد؟
104427
من 11 پاسخ به سوالی جمع آوری کردم که در آن گزینه ها A، B یا C بودند. 9 نفر به A پاسخ دادند. 2 نفر به B پاسخ دادند. 0 نفر به C پاسخ دادند. با استفاده از فاصله اطمینان 95% Clopper-Pearson، به این نتیجه رسیدم که محدوده P(A) از (0.48، 0.97)، P(B) از (0.2 تا 0.52)، و P(C) از (0، 0.28). چه عباراتی می توانم این نتایج را بیان کنم؟ آیا می توانم بگویم که P (A) > P (C) در سطح اطمینان 95٪؟ به نظر می رسد بیش از این باشد.
مقایسه نسبت ها در همان نمونه
93277
من در حال آموزش یک طبقه‌بندی کننده SVM بر روی یک مجموعه داده با استفاده از LibSVM از طریق Weka هستم، اما پس از اینکه طبقه‌بندی‌کننده آموزش‌دیده‌ام را داشتم، می‌خواهم بدانم کدام ویژگی برای طبقه‌بندی‌کننده من مهم است و کدام ویژگی کاربرد زیادی ندارد. در حال حاضر یک روش متوسط ​​برای انجام این کار این است که انتخاب ویژگی نظارت شده را در Weka با استفاده از جستجوی رتبه‌بندی و برخی از روش‌های جستجو (مطمئن نیستم که کدام یک بهترین است، در حال حاضر از CorrelationAttributeEval استفاده می‌کند)، اجرا می‌شود، اما این مختص مدل من نیست، بلکه فقط بیان می کنم که چقدر ویژگی های من با ویژگی طبقه بندی من مرتبط است. من آنقدرها با SVM آشنا نیستم، اما می‌دانم که طبقه‌بندی‌کننده آموزش‌دیده دارای مقادیر وزنی برای هر ویژگی است. آیا می‌توانم ویژگی‌ها را بر اساس قدر مطلق وزن‌هایشان رتبه‌بندی کنم و به من بگویم که این ویژگی‌ها چقدر ویژگی طبقه‌بندی را پیش‌بینی می‌کنند؟ اگر این یک روش معتبر است، آیا کسی با نحوه انجام این کار (از لحاظ کد) با استفاده از LibSVM در Weka آشنا است؟ با تشکر
رتبه بندی ویژگی ها بر اساس قدرت پیش بینی در طبقه بندی کننده آموزش دیده (LibSVM)
52069
من مقالاتی را در مورد سیستم های توصیه گر و بازیابی اطلاعات خواندم که در آنها میانگین خطای مطلق و میانگین مربعات خطا ذکر شده است. اما من بین تعریف رسمی این دو فرمول تفاوت هایی پیدا کردم. در یک مقاله MAE و MSE با ریشه مربع و در مقالات دیگر (یا فقط منابع) بدون هستند. اساساً من این نسخه ها را دیدم: $$ MAE_1 = \frac{1}{|TS|} \sum_{(u,i) \in TS} |\hat r_{ui} - r_{ui}| $$ $$ MAE_2 = \sqrt{ \frac{1}{|TS|} \sum_{(u,i) \in TS} |\hat r_{ui} - r_{ui}| } $$ $$ MSE_1 = \frac{1}{|TS|} \sum_{(u,i) \in TS} (\hat r_{ui} - r_{ui})^2 $$ $$ MSE_2 = \sqrt{ \frac{1}{|TS|} \sum_{(u,i) \in TS} (\hat r_{ui} - r_{ui})^2 } $$ فکر می‌کنم که MSE بدون جذر است، زیرا در غیر این صورت RMSE یکسان خواهد بود. اما من مطمئن نیستم. با MAE نیز مطمئن نیستم. آیا MAE **با** یک ریشه مربع است، یا چیزی شبیه خطای میانگین مطلق ریشه (RMAE) وجود دارد که RMSE برای MSE است؟ امیدوارم کسی بتواند به من کمک کند. thx!
MAE/MSE با یا بدون جذر
109270
من در درک نحوه عملکرد تابع varImp برای یک مدل جنگلی تصادفی با بسته caret مشکل دارم. در مثال زیر، ویژگی var3 با استفاده از تابع «varImp» caret اهمیت صفر می‌گیرد، اما مدل نهایی تصادفی Forest برای ویژگی var3 اهمیت غیرصفری دارد. چرا این طور است؟ require(randomForest) require(caret) rf <- train(x, y, method = rf, trControl = trainControl(method = oob), اهمیت = TRUE, verbose = TRUE, tuneGrid = data.frame(mtry = num.predictors) ) fm <- rf$finalModel > varImp(f) rf اهمیت متغیر کلی var1 100.00 var2 80.14 var3 0.00 > اهمیت(fm) %IncMSE IncNodePurity var2 872.7935 40505276 var1 1021.4707 55682866 var3 273.0168 3078731
Caret varImp برای مدل randomForest
106373
همه درمان‌های رایج کرانه‌های PAC بر اساس پیچیدگی Rademacher یک تابع ضرر محدود را در نظر می‌گیرند (برای یک درمان مستقل، به این جزوه توسط Schapire مراجعه کنید. با این حال، من نتوانستم هیچ نتیجه‌ای برای تلفات نامحدود (با لحظه‌های محدود یا احتمالاً subgaussian) پیدا کنم. تنها مقاله ای که من می شناسم کورتس و همکاران است، اما در مورد کران های _نسبی_ است، نه مطلق آیا کسی می داند نتیجه ای که به صراحت مرزهای Rademacher را برای توابع ضرر عمومی پوشش می دهد؟
Rademacher برای توابع از دست دادن نامحدود مرزبندی می کند
99309
من اکنون چند بار خوانده‌ام که میزان مثبت‌های کاذب با مرز آلفای سطح معنی‌داری در رابطه با آزمون فرضیه، کران بالایی دارد و به حجم نمونه بستگی ندارد. اما چطور؟ تا جایی که من می بینم، احتمال ترسیم فقط مقادیر افراطی زمانی که حجم نمونه 1000 باشد بسیار کمتر از مثلاً 3 است.. با تشکر
چرا خطای نوع I به حجم نمونه بستگی ندارد؟
96174
من در حال تجزیه و تحلیل یک مجموعه داده به عنوان پروژه نهایی هستم. این یک دوره تجزیه و تحلیل داده های طبقه بندی شده است، بنابراین من بر تحلیل رگرسیون لجستیک تمرکز خواهم کرد. من مجموعه داده ها را از داده های پرواز و آب و هوا جمع آوری کردم. داده ها برای پروازهایی است که به ORD وارد می شوند. من می خواهم تاخیر پرواز را مدل کنم (خواه پرواز با تاخیر باشد یا خیر). در اینجا خلاصه ای از متغیرهای درگیر آمده است: > خلاصه (داده_پرواز) DAY_OF_MONTH DAY_OF_WEEK AIRLINE_ID CRS_DEP_TIME DEP_DELAY TAXI_OUT TAXI_IN حداقل. : 1.00 دقیقه :1.000 19977 :7838 دقیقه. : 333.0 دقیقه :-21000 دقیقه : 1.00 دقیقه : 1.000 1st Qu.: 6.00 Qu. 1st:2.000 19805 :6082 Qu. 1: 510.0 Qu. 1: -4.000 Qu. 1: 10.00 Qu. 1st: 5.000 Median: 5.000 Median :1020 Median :17 :3974 میانه : 761.0 میانه : -1.000 میانه : 12.00 میانه : 7.000 میانگین : 15.17 میانگین : 4.058 19386 : 576 میانگین : 760.2 میانگین : 760.2 میانگین : 9.072 میانگین : 9.072 میانگین . س 3:24.00 س 3:6.000 19790 : 553 س 3: 985.0 س 3: 7.000 س 3: 17.00 س 3: 9.000 حداکثر. حداکثر :30.00 :7.000 20355 : 453 حداکثر. حداکثر :1439.0 حداکثر :931.000 حداکثر :301.00 :179.000 (سایر): 866 CRS_ARR_TIME AIR_TIME DISTANCE آب و هوا.نوع باد.سرعت باد.دیر منطقه حداقل. : 1.0 دقیقه : 11.0 دقیقه : 67.0 نم نم باران : 219 دقیقه. : 0.000 دقیقه : 1.00 Midwest :5856 1st Qu.: 625.0 1st Qu.: 55.0 1st Qu.: 334.0 FOG : 35 Qu. 1: 6.000 1st Qu.: 8.00 Northeast:4487 Median :0.9 Median : 086 Median 647.0 MIST : 569 Median : 8.000 Median :20.00 south :5833 Mean : 849.9 Mean :105.8 Mean : 762.1 None :17823 Mean : 8.462 Mean :1741 West. س 3: 130.0 3rd Qu.: 925.0 RAIN : 1420 3rd Qu.: 11.000 3rd Qu.: 29.75 حداکثر. حداکثر: 1438.0 حداکثر :486.0 :4244.0 رعد و برق: 276 حداکثر. حداکثر : 25000 :37.00 چند سوال دارم: 1. متغیرهای طبقه بندی و همچنین متغیرهای کمی دارم. واضح است که بسیاری از متغیرها در مقیاس های مختلف (زمان، درجه و غیره) هستند. آیا باید متغیرهایم را استاندارد کنم؟ آیا این مهم است؟ آیا این کار را فقط با موارد کمی انجام دهم؟ 2. ما در کلاس خود کمی در مورد GAM ها یاد گرفتیم. می‌خواهم بررسی کنم که آیا برخی از متغیرهای من در احتمال ورود-تأخیر خطی به نظر می‌رسند (اگر نه، استفاده از GAM را توجیه می‌کند). آیا این کد زیر رویکرد مناسبی برای این سوال است؟ سرعت باد: `logodds <- NULL x<-NULL for( i in unique(flight_data[,13])){ idx <- which(flight_data[,13] == i) x <- c(x,i) logodds < - c(logodds,log(sum(flight_data[idx,9])/(nrow(flight_data) - sum(flight_data[idx,9])))) } plot(logodds~x)` ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/65Ky0.jpg)
استانداردسازی داده ها با داده های مقوله ای و کمی
52064
من به تازگی پرسشنامه ای را انجام داده ام که دارای تعدادی سوال چند پاسخی و چند گزینه ای است. یعنی پاسخ دهنده می تواند هر تعداد از گزینه ها را که در مورد آنها اعمال می شود علامت بزند - بنابراین ممکن است هیچ موردی را انتخاب نکند، یک، دو یا هفت! همچنین یک فیلد «سایر» برای کسانی که می‌بینند گزینه‌ها برای آنها اعمال نمی‌شود وجود دارد. سوال من این است: چگونه باید این داده ها را (در زبان R) ذخیره کنم تا بتوانم به راحتی آن ها را تجزیه و تحلیل کنم؟ نوع تجزیه و تحلیلی که من می خواهم انجام دهم به طور کلی نسبتاً ساده است - به درصد پاسخ های مختلف در سؤالات نگاه می کنم، و شامل آمارهای بسیار عمیق نمی شود (من واقعاً حجم نمونه به اندازه کافی بزرگ ندارم تا بتوانم این کار را انجام دهید). من می‌توانم به چندین روش برای ذخیره داده‌ها فکر کنم، همانطور که در زیر ذکر شده است، اما مطمئن نیستم که کدام یک بهتر کار می‌کند و رسیدگی به آن راحت‌تر است. افراد دیگر باید قبلاً با این مسائل برخورد کرده باشند و بهترین روش انجام آن را یافته باشند - پس نظر شما چیست؟ ایده های احتمالی که داشته ام عبارتند از: * از یک ستون واحد از یک چارچوب داده برای هر سوال استفاده کنید، که حاوی نوعی لیست جدا شده با کاما است - ورود داده ها آسان است، اما من گمان می کنم تجزیه و تحلیل آن دشوار باشد * ستون های متعدد برای هر سوال - تا حداکثر تعداد پاسخ هایی که فکر می کنم هر کسی تیک بزند (5-6 من گمان می کنم - اما اگر بیشتر گرفتم؟) و نام پاسخ را در هر یک از این ستون ها قرار دهید * یک ستون برای هر کدام پاسخ ممکن را داده و از مقادیر بولی در ستون ها برای نشان دادن آنچه که علامت زده شده است استفاده کنید. این احتمالاً بهتر به نظر می رسد، اما مطمئن نیستم که چگونه آن را تجزیه و تحلیل کنم. مردم چه فکری می کنند؟
نحوه ذخیره (و تجزیه و تحلیل) داده های پرسشنامه چند گزینه ای چند پاسخی
106377
من با آمار نسبتاً تازه کار هستم، بنابراین اگر این مشکل به طرز ناامیدکننده ای ابتدایی یا نادرست است، ببخشید. اساساً، می‌خواهم به من کمک کنید تا بفهمم آیا از F-Test برای واریانس درست استفاده می‌کنم یا خیر. من دو جمعیت نسبتاً کوچک دارم (15=n)، و می‌خواهم از یک آزمون آماری برای تعیین واریانس‌های مربوطه به‌طور قابل‌توجهی استفاده کنم. گروه A به طور نسبی توزیع شده است و گروه B به سمت چپ منحرف شده است. در ابتدا، من از یک آزمون F برای واریانس برای آزمایش تفاوت در واریانس استفاده کردم، اما پس از آن متوجه شدم که اگر یک جامعه به طور معمول توزیع نشده باشد (همانطور که در مورد گروه B وجود دارد، آزمون F می تواند مثبت کاذب باشد). برای رفع این مشکل، توزیعی از میانگین های نمونه برای هر یک از دو گروه ایجاد کردم و سپس آزمون F را برای مقایسه واریانس آن توزیع ها انجام دادم. آن توزیع میانگین های نمونه آشکارا نرمال است. با این حال، آیا انجام F-Test برای واریانس آن توزیع ها مناسب است؟ و دقیقاً چگونه باید نتایج آزمایش را تفسیر کنم؟ فقط در صورت مهم بودن، نرم افزاری که من استفاده می کنم R است و F-test در R از طریق var.test() قابل دسترسی است.
استفاده از آزمون F برای واریانس در جمعیت های غیر نرمال
1207
این پست ادامه پست دیگری در رابطه با روشی عمومی برای تشخیص پرت در سری های زمانی است. اساساً، در این مرحله من به روشی قوی برای کشف تناوب/فصل یک سری زمانی عمومی که تحت تأثیر نویز زیاد قرار گرفته اند علاقه مند هستم. از نقطه نظر توسعه دهنده، من یک رابط ساده مانند: unsigned int discover_period(vector v); جایی که v آرایه حاوی نمونه ها است و مقدار بازگشتی دوره سیگنال است. نکته اصلی این است که، باز هم، نمی توانم هیچ فرضی در مورد سیگنال تحلیل شده داشته باشم. من قبلاً یک رویکرد مبتنی بر همبستگی خودکار سیگنال (تشخیص قله های همبستگی) را امتحان کردم، اما آنطور که می خواهم قوی نیست.
تشخیص دوره یک سری زمانی عمومی
114655
آیا شکل عملکردی یک مدل میانگین متحرک با ضرایب «h = [1 0.2 -0.5]» خواهد بود y(t) = 0.2e(t-1) - 0.5e(t-2) یا y(t) = 1+ 0.2e(t-1) - 0.5e(t-2)
سردرگمی در نمایش مدل
60114
سوال اساسی من: آیا چیزی وجود دارد که شما **_نمیتوانید_** آن را با استفاده از MI نسبت دهید؟ سوال پیچیده تر من: رگرسیون $Y=\rho T+X'\beta+\epsilon$ را در نظر بگیرید. به هر دلیلی، شما می خواهید رگرسیون را وزن کنید. با فرض اینکه چنین امتیازی شما را به استقلال و علیت مشروط می‌رساند، بگویید که با یک نمره گرایش معکوس وزن می‌دهید. به طور خاص، $pr(T==1) = logit(Z'\gamma + \eta)$، که به شما وزن‌هایی را به صورت $$ w = (T_i/pr(T)+(1-T_i)/(1-pr) می‌دهد. (T))^.5 $$ فرض کنید عناصر Z را از دست داده اید. شما بارها از رگرسیون اصلی استفاده می کنید؟ یک مجموعه داده با پوشش خوب در $X$ دریافت کرد، اما مقادیر زیادی از دست رفته در $Z$.
انتساب چندگانه برای متغیرهای مورد استفاده برای محاسبه وزن رگرسیون
96178
من الگوریتم طبقه بندی SVM را در کتابم با توجه به فرضیات درک می کنم. کتاب من می گوید، فرض کنید این دو خط از بردارهای پشتیبان دو کلاس عبور می کنند. سپس آرگومان خطای تعمیم مینیمم کردن را ارائه می کنند و به حداکثر رساندن حاشیه بین خطوطی که از بردارهای پشتیبان می گذرند، ادامه می دهند. ** چیزی که من متوجه نمی شوم این است که چگونه می توان دو خط اصلی را که از بردارهای پشتیبانی دو کلاس عبور می کنند به دست آورد؟** این خطوط واقعاً توسط بردارهای پشتیبانی تعریف می شوند. 1. هنگام پیاده سازی الگوریتم، چگونه بردارهای پشتیبانی را انتخاب می کنید؟ 2. معمولاً در عمل یا در بسیاری از کتابخانه ها چه کاری انجام می شود؟ **ویرایش:** منظور من از دو خط اصلی خطوط مرزی تصمیم گیری است. با تشکر از همه کمک!
درک الگوریتم ماشین بردار پشتیبان
114653
من کاملاً با R آشنا هستم و می‌خواهم بدانم چگونه نرخ بازده داخلی و ارزش فعلی خالص مجموعه‌ای از جریان‌های نقدی را به طور مؤثر پیاده‌سازی کنم. در حال حاضر من پیاده‌سازی apache را به R همانطور که هست منتقل می‌کنم، اما احساس می‌کنم می‌توانم از توابع application برای دریافت نتایج سریع‌تر استفاده کنم.
اجرای R نرخ بازده داخلی و NPV
44487
صندلی من از من می خواهد که داده های خود را برای رگرسیون چندگانه سلسله مراتبی خود، از جمله چندین تعدیل کننده و اثرات متقابل، متمرکز کنم. به نظر می رسد انجام این کار توصیه می شود، اگر نه برای کمک به به حداقل رساندن چند خطی بودن، بلکه علاوه بر این (و مهمتر از آن) برای کمک به تفسیرپذیری تعاملات من. با این حال، جایی که من مطمئن نیستم این است که با برخی از متغیرهایی که قبلاً به دلیل مشکلات چولگی فکر می‌کردم تغییر بدهم، چه کنم. آیا این متغیرها را در مرکز قرار دهم؟ من احساس می کنم که ممکن است به معنای تغییر آنها، در اصل، دو بار باشد، اما مطمئن نیستم. اگر آنها را تبدیل نکنم، چگونه می توانم از آنها در تعامل با یک متغیر متمرکز استفاده کنم؟
آیا یک متغیر از قبل تبدیل شده را در مرکز قرار دهم؟
52060
بنابراین، من در واقع یک زیست‌شناس هستم که سعی می‌کنم ایده قدرت تجزیه و تحلیل را برای کمک به طراحی آزمایشی با حجم نمونه مناسب بپیچم. من می دانم که قدرت تجزیه و تحلیل برای کمک به جلوگیری از خطاهای نوع دوم استفاده می شود، اما به این مقاله برخورد کردم: http://www.benthamscience.com/open/toepij/articles/V003/16TOEPIJ.pdf که به نظر می رسد (اگر من اشتباه نمی کنم) که در مطالعات ضعیف، خطر ابتلا به موارد مثبت کاذب را نیز افزایش می دهید. چیز دیگری که من را گیج می‌کند این است که اگر برای افزایش قدرت خود، نمونه‌های بیشتری اضافه کنید، مطمئناً هر یافته‌ای را از نظر آماری معنادار می‌کنید، حتی اگر تأثیر شما کم باشد. آیا نوعی توازن بین توان و تعداد نمونه‌ها وجود دارد تا فرد از دام‌های آزمایشی با قدرت کم و همچنین آزمایشی با قدرت بیش از حد اجتناب کند که در آن نتایج یک نتیجه از نظر آماری معنی‌دار ایجاد می‌کند که ممکن است جالب نباشد زیرا اندازه اثر بسیار کوچک است؟
اهمیت آماری در یک مطالعه کم توان، مثبت کاذب؟
114651
من یک kmeans را با حجم نمونه 1000 داده اجرا می کنم. داده ها دارای مقیاس (z) هستند. وقتی kmeans را اجرا می کنم (df، nstart=25، centers=5)- اجرا می شود و می توانم اندازه هر خوشه را بدست بیاورم. بزرگترین گروه دارای 620 نفر است. دوباره آن را اجرا کردم (منظورم این نبود)، اما متوجه شدم که بزرگترین خوشه در آن زمان دارای 450 بود. از روی علاقه، به تلاش ادامه دادم و بزرگترین خوشه را بین 450 تا 800 بدست آوردم. اکنون می دانم که مقداردهی اولیه می تواند روی خوشه ها و اندازه های خوشه تاثیر بگذارد. با این حال، من تعجب می کنم که بسیار متفاوت است. اگر اندازه های خوشه من 10-20 تغییر می کرد، آن را دریافت می کردم. اما اینها نوسانات بزرگی هستند. البته من می توانم تنظیم کنم تا آن را متوقف کنم- اما به نظر می رسد خیلی عجیب است که بتوانم آن تنوع گسترده ای از نتایج را دریافت کنم. خیلی تصادفی به نظر می رسد که بر اساس زمانی که آن را اجرا کردم (یا جایی که مقداردهی اولیه شده است) بزرگترین خوشه 450 یا 600 یا 775 را دریافت کنم. الان با نتایج احساس ناراحتی می کنم. افکار یا توضیحات.
اندازه خوشه Kmeans در هر اجرا کمی تغییر می کند
29781
در برخی ادبیات، خوانده ام که یک رگرسیون با متغیرهای توضیحی متعدد، اگر در واحدهای مختلف باشد، نیاز به استانداردسازی دارد. (استانداردسازی شامل تفریق میانگین و تقسیم بر انحراف معیار است.) در کدام موارد دیگر باید داده های خود را استاندارد کنم؟ آیا مواردی وجود دارد که من فقط باید داده های خود را در مرکز قرار دهم (یعنی بدون تقسیم بر انحراف معیار)؟
چه زمانی باید داده های خود را در مرکز قرار دهید و چه زمانی باید استانداردسازی کنید؟
87204
در ادبیات اغلب گزارش هایی از مقایسه بقای یک نمونه با بقای جمعیت عمومی وجود دارد. جداول زندگی و مرگ و میر ذکر شده است، اما آزمایش ها و روش های آماری پشت این مقایسه وجود ندارد. این مقایسه چگونه انجام می شود؟ کدام آزمایش ها، رویه ها و محاسبات درگیر هستند؟ من با این سوال آشنا هستم بقای یک جمعیت را با جمعیت عمومی مقایسه کنید اما به سوال من پاسخ نمی دهد. من به دنبال جزئیات بیشتر هستم.
آزمایش‌های مربوط به مقایسه بقای یک نمونه با بقای جمعیت عمومی
22214
> **تکراری احتمالی:** > در رگرسیون خطی، چه زمانی استفاده از گزارش یک متغیر مستقل > به جای مقادیر واقعی مناسب است؟ من در حال حاضر در حال انجام یک تحلیل رگرسیون فضایی هستم. من سعی می‌کنم تصمیم بگیرم که آیا متغیر پاسخ من باید تبدیل به گزارش شود یا خیر. من می‌دانم که تحلیل‌های رگرسیونی نرمال بودن باقیمانده‌ها را فرض می‌کنند. من همچنین می‌دانم که بهترین راه برای محاسبه میزان نزدیکی داده‌ها به نرمال بودن، بررسی ارقام چولگی/کورتوزیس است (نزدیک به صفر، بهتر). بسته آماری که من استفاده می کنم (S.A.M.) دو رقم مختلف برای چولگی و کشیدگی ارائه می دهد. یکی برای داده های متغیر پاسخ و دیگری چولگی/کورتوز باقیمانده ها است. من کمی گیج هستم که کدام یک از این ارقام باید روی آن تمرکز کنم، چولگی متغیر پاسخ یا چولگی باقیمانده؟ امیدوارم همه اینها منطقی باشد. خیلی ممنون برای هر کمکی بن
از کدام شکل چولگی/کورتوزیس در تحلیل رگرسیون فضایی استفاده کنم
102864
> > در یک ایستگاه اندازه گیری در مونیخ به مدت 14 روز غلظت دی اکسید گوگرد > اندازه گیری شد. تأثیر میانگین دما > در روز بر حسب درجه سانتیگراد (X_1$) را بر غلظت $SO_2$-$(Y)$ تجزیه و تحلیل کنید. آیا جلوه خاصی در تعطیلات آخر هفته وجود دارد؟ متغیر $X_2$ اگر اندازه‌گیری شود > در شنبه یا یکشنبه 1$ است در غیر این صورت 0$ است. داده‌های زیر اندازه‌گیری شدند: $$ \begin{array}{c|c|c|c|c|c|c|c} \hline y & -3.15 & -2.83 & -3.02 > & -3.08 & -3.54 & -2.98 & -2.78\\\ x_1 & 16.47 & 16.02 & 16.81 & 22.87 & > 21.68 & 21.23 و 20.55\\\ x_2 & 0 & 0 & 0 & 1 & 1 & 0 & 0\\\ \hline > \end{array} $$ \begin{array}{c|c|c|c| c|c|c|c} \hline y & -3.35 & -2.76 & > -1.90 & -2.12 & -2.45 & -1.97 & -2.23\\\ x_1 & 18.32 & 15.96 & 15.36 & 12.47 > & 12.46 & 11.77 & 11.72\\\ x_2 & 0 & 0 & 0 & 0 & 1 & 1 & 0 & end > **(a)** تخمین بزنید ضرایب رگرسیون مدل خطی چندگانه > و نتایج خود را نظر دهید. **(ب)** به عنوان $R^2$، یک $R^2=0.5805$ دریافت می کند. آیا رگرسیورهای > نقشی با توضیح تمرکز $SO_2$ دارند؟ یک > F-test سراسری سطح $\alpha=0.01$ انجام دهید. **(c)** واریانس های تخمین زده شده > $\hat{\sigma}_1=0.0267$ و $\hat{\sigma}_2=0.2166$ هستند. فرضیه > $\theta_i=0$ را برای $i=2,3$ تا سطح $\alpha=0.05$ با اطمینان > فواصل آزمایش کنید. متغیر کمکی را که تأثیری ندارد حذف کنید و سپس یک رگرسیون خطی ساده انجام دهید. رگرسیون چندگانه و ساده > را به صورت گرافیکی مقایسه کنید. سلام و روز بخیر! من اکثر کارهای این کار را قبلاً مدیریت کردم. اول از همه با ANOVA بررسی کردم که آیا اثر آخر هفته وجود دارد. من $\alpha=0.05$ را انتخاب کردم. برای $F$-statstic من $F=0.1$ و p-value 0.76$ دریافت کردم. بنابراین این فرضیه صفر که $\theta_1=\theta_2$ را نمی توان رد کرد و بنابراین هیچ اثر آخر هفته وجود ندارد. **(الف)** ضرایب برآورد شده $$ \hat{\theta}_1=-1.0019،~~~\hat{\theta}_2=-0.1032،~~~\hat{\theta}_3=- است. 0.0025، $$ که در آن ضریب اول رهگیری است، ضریب دوم به $X_1$ و ضریب سوم به $X_2$ تعلق دارد. حالا نمیدونم اینجا چی باید نظر بدم؟ منظور چه می تواند باشد؟ چه چیزی باید اظهار نظر کرد؟ **(ب)** آزمون جهانی $F$ می گوید که فرضیه $H_0: \theta_2=\theta_3=0$ را می توان رد کرد. بنابراین رگرسیورها برای توضیح تمرکز $SO_2$ نقش دارند. **(c)** برای $\theta_2$، فاصله اطمینان $$ C_2^{0.05}=(-0.156863,-0.049537)، $$ است، زیرا $0\نه در C_{2}^{0.05}$، فرضیه $H_0^2: \theta_2=0$ را می توان رد کرد. برای $\theta_3$، فاصله اطمینان با $$ C_3^{0.05}=(-0.437834,0.432834)، $$ داده می شود، بنابراین به دلیل $0\در C_3^{0.05}$، فرضیه $H_0^3: \theta_3 =0$ را نمی توان رد کرد، بنابراین متغیر کمکی $X_3$ تأثیری ندارد و می تواند از آن حذف شود. مدل من اکنون رگرسیون خطی ساده را انجام دادم، دوباره با استفاده از R، اکنون $$ \hat{\theta}_1=-1.0020،~~~\hat{\theta}_2=-0.1033 را دریافت کردم. $$ چیزی که من می بینم این است که ضرایب در مقایسه با ضرایب رگرسیون چندگانه تقریباً یکسان هستند. اما من نمی دانم چگونه رگرسیون خطی ساده و رگرسیون خطی چندگانه را به صورت گرافیکی مقایسه کنم. البته من می توانم رگرسیون خطی ساده را رسم کنم: ![رگرسیون خطی ساده](http://i.stack.imgur.com/K6suM.png) اما نمی دانم چگونه رگرسیون چندگانه را برای مقایسه آن ترسیم کنم. سپس با رگرسیون خطی ساده. آیا می توانید در این مورد به من کمک کنید؟ * * * بنابراین به طور خلاصه: در مورد **(a)** من نمی دانم چه چیزی باید اظهار نظر شود و در مورد **(c)** نمی دانم چگونه می توانم رگرسیون چندگانه و ساده را به صورت گرافیکی مقایسه کنم. . اگر بتوانید در این مورد به من کمک کنید عالی خواهد بود! میروسلاو میبینمت
داده های مربوط به غلظت دی اکسید گوگرد (رگرسیون خطی)
103726
آیا متغیر هدف در رگرسیون خطی باید همراه با متغیرهای پیش بینی مقیاس شود؟ به نظر می رسد من زباله ها را بیرون می آورم اگر نه؟ همچنین چه تفاوت هایی در تبدیل log در مقابل تبدیل z-score برای متغیرها وجود دارد؟ آیا شرایطی وجود دارد که یکی از دیگری مناسب تر باشد؟
متغیرهای مقیاس بندی رگرسیون خطی
33370
> **تکراری احتمالی:** > در رگرسیون خطی، چه زمانی استفاده از گزارش یک متغیر مستقل > به جای مقادیر واقعی مناسب است؟ من یک سری مدل های میانجی چندگانه را اجرا می کنم. هر مدل شامل یک IV، دو واسطه و یک DV است. من از یک ماکرو ایجاد شده برای SPSS (ارائه شده توسط Preacher و Hayes) استفاده می کنم که از bootstrapping برای بررسی اثرات غیر مستقیم واسطه ها استفاده می کند. DV های من افسردگی و اضطراب اجتماعی هستند (هر کدام در یک مدل جداگانه اجرا می شوند) و هر دو دارای انحراف مثبت هستند. معمولاً من یک تبدیل گزارش روی این متغیرها انجام می‌دهم، با این حال، bootstrapping یک روش نمونه‌گیری مجدد ناپارامتریک است که فرض نرمال بودن توزیع نمونه‌گیری را ندارد. بنابراین، سوال من این است: آیا با وجود اینکه من از bootstrapping استفاده می‌کنم، لازم است DVهای دارای انحراف مثبت را تغییر دهیم؟ توجه: من مدل‌هایم را با میانگین‌های تبدیل‌شده log در مقابل میانگین‌های تبدیل نشده برای DV اجرا کرده‌ام و الگوی نتایج اساساً یکسان است. با این حال، ترجیح می‌دهم از میانگین تبدیل نشده استفاده کنم زیرا ضرایب رگرسیون غیراستاندارد پیش‌بینی‌های من را قوی‌تر پشتیبانی می‌کنند.
آیا با وجود اینکه من از بوت استرپینگ استفاده می کنم، لازم است که DVهای دارای انحراف مثبت را وارد کنید؟
82641
من در تحلیل رگرسیون بسیار تازه کار هستم. من یک متغیر وابسته و 9 متغیر مستقل دارم. من می‌خواهم بهترین مدل ممکن را از آنها بسازم و نمی‌دانم چه زمانی باید از یک متغیر وارد شوید.
چگونه بفهمم که چه زمانی باید از تبدیل log بر روی یک متغیر با رگرسیون چندگانه استفاده کنم؟
60115
من دوست دارم یک فاصله اطمینان مدل پیش‌بینی سفارشی خود ایجاد کنم (نه یکی از موارد استاندارد در بسته «پیش‌بینی» که شامل فاصله زمانی می‌شود). سوابق تجربی نشان می‌دهد که خطاهای پیش‌بینی توزیع نرمال هستند و بنابراین من می‌توانم پیش‌بینی نقطه‌ای را بگیرم و فواصل را محاسبه کنم، مانند آنچه که با فواصل توزیع نرمال منظم انجام می‌دهید: میانگین +/- z * sqrt (میانگین مربع خطا) آیا کسی می‌تواند کمی به آن توجه کند. در هنگام پیش‌بینی برای دوره‌های فراتر از آینده نزدیک، راه مناسب برای رفع خطا چیست؟
نحوه تعیین فاصله پیش بینی پس از دوره بعدی.
113020
مقدار گودمن-کروسکال گاما = 1 یا -1 به این معنی است که X و Y یکنواخت هستند اما نه کاملاً بنابراین، یعنی $X_1 < X_2$ دلالت بر $Y_1 \leq Y_2 $ دارد. کسی میتونه اینو با مثال برام توضیح بده؟
تفسیر گودمن کروسکال گاما
66673
در تجزیه و تحلیل وب، ما اغلب نرخ تبدیل را برای گروهی از کاربران (تعداد کاربرانی که خرید کرده اند / تعداد کاربران) محاسبه می کنیم. اگر این را برگردانیم و کاربر جدیدی روی یک سایت قرار بگیرد، معتقدم که احتمال تبدیل این کاربر (با توجه به اینکه کاربر در گروه خاصی قرار دارد) با نرخ تبدیل آن گروه یکسان نیست. با نگاهی به نرخ تبدیل برای بخش کاربران در گروه سنی 30 تا 35 سال، داریم: * P( تبدیل | در گروه سنی 30 تا 35 سال) - آنچه می خواهیم بدانیم: با توجه به یک کاربر جدید در گروه سنی 30 تا 35 سال احتمال تبدیل او چقدر است؟ * P (در گروه سنی 30-35 | تبدیل) - این از سوابق ما است (تعداد تبدیل توسط کاربران در گروه سنی 30-35 / تعداد کل تبدیل) * P (تبدیل) - نرخ تبدیل کلی (کاربرانی که تبدیل شده / همه کاربران) * P (در گروه سنی 30 تا 35 سال) - نسبت همه کاربرانی که در گروه سنی 30 تا 35 سال قرار دارند به طور شهودی ممکن است فکر کنیم که احتمال تبدیل کاربر جدید در گروه سنی 30-35 سال [P(تبدیل | در گروه سنی 30-35)] همان نرخ تبدیل [P(در گروه سنی 30-35 | تبدیل)] است. اما از قضیه بیز: P(تبدیل | در گروه سنی 30-35) = P(در گروه سنی 30-35 | تبدیل) * P(تبدیل) / P(در گروه سنی 30-35 سال) آیا این درست است روش محاسبه احتمال تبدیل برای کاربر جدید در گروه سنی 30 تا 35 سال؟
مثال قضیه بیز - آیا نرخ تبدیل برابر با احتمال تبدیل کاربر است؟
60110
من می‌خواهم امتیازی را بر اساس ارتباط چند متغیر با متغیر وابسته خود محاسبه کنم و متعاقباً ارتباط نمره را با متغیر وابسته در یک نمونه مستقل آزمایش کنم. متاسفانه نمونه اکتشاف و تکرار طبیعی ندارم. با این حال، هر گونه تقسیم نمونه دلخواه به نظر می رسد و داوران ممکن است پیشنهاد کنند که من تقسیمی را انتخاب کردم که بهترین نتایج را ارائه می دهد. از این رو، من فکر می کردم که راه ساده برای نزدیک شدن به این، نمونه برداری تصادفی از 1000 تقسیم مختلف است. این بدان معناست که من نمره را در یک نمونه اکتشافی محاسبه می کنم و آن را در یک نمونه مستقل 1000 بار آزمایش می کنم. بنابراین من 1000 مقدار بتا برای قدرت ارتباط دریافت می کنم. سپس یک آزمون t یک نمونه انجام می دهم تا ببینم آیا 1000 مقدار بتا که به دست می آورم به طور قابل توجهی بزرگتر از 0 هستند. یک استراتژی معتبر است یا اگر راهبردهای جایگزین/بهتری وجود دارد. آیا می‌توان آمار t را با افزایش تعداد نمونه‌های تصادفی به 10000 (من حدس می‌زنم در مقطعی مجانبی شود) افزایش داد؟ آیا این کار قانونی است؟ با تشکر از کمک شما! من از هر نکته ای قدردانی می کنم زیرا این نوع تحلیل به ندرت در زمینه تحقیقاتی من انجام می شود.
چگونه می توان استنتاج آماری را بر اساس نمونه کشف/تکرار تصادفی انجام داد؟
298
آیا من به دنبال توزیعی با رفتار بهتر برای متغیر مستقل مورد نظر هستم یا برای کاهش اثر نقاط پرت یا چیز دیگری؟
در رگرسیون خطی چه زمانی مناسب است که از لاگ یک متغیر مستقل به جای مقادیر واقعی استفاده شود؟
93222
من با یک تصفیه خانه بی هوازی کار می کنم که در آن 3 متغیر اصلی تولید گاز (l/d)، سرعت جریان (l/h) و ورودی COD (g/l) را دارم. اگر بخواهم رگرسیون چندگانه انجام دهم، آیا لازم است که متغیرها (گاز ~ جریان + COD) را استاندارد کنیم؟
استاندارد کردن متغیرها
86478
چه زمانی باید داده ها را عادی سازی کنم؟ اگر همیشه داده ها را عادی کنم، مشکل چیست؟ به عنوان مثال، مجموعه ای از داده های گاوسی چند متغیره به من داده می شود. من از حداکثر استفاده می کنم. احتمال تخمین برآورد ماتریس میانگین و کوواریانس. و سپس، من می خواهم از طبقه بندی کننده Bayes برای طبقه بندی نقطه داده جدید استفاده کنم. در این شرایط، آیا همیشه خوب است که داده ها را قبل از انجام حداکثر، عادی سازی کنید. احتمال
چه زمانی باید داده ها را عادی سازی کنم؟
82515
مجموعه داده من یک تجزیه و تحلیل بیولوژیکی از یک بیماری است که 3 ماه طول می کشد تا ایجاد شود، و ما در حال بررسی درمان آن بیماری هستیم. داده ها داده های بیان ژن هستند و ما می خواهیم تغییرات بیان ژن را در طول زمان شناسایی کنیم. این شبیه یک طرح 2x2 است که در آن گروه‌هایی با اندازه‌های مساوی دارم: trtmnt بدون trtmnt 1 ماه 10 10 3 ماه 10 10 پس از فکر کردن در مورد آن، مطمئن نیستم که آیا واقعاً برای ANOVA دو طرفه معتبر است یا خیر. این بیماری در مدت 3 ماه ایجاد می شود، بنابراین افراد 1 ماهه بدون توجه به درمان باید یکسان به نظر برسند. راه های مختلفی برای بررسی این موضوع وجود دارد: 1) من می توانم trtmnt و no-trtmnt را در مرحله 3 ماهه مقایسه کنم. تجزیه و تحلیل ساده دو گروهی. 2) من می توانم به 1 ماه در مقابل 3 ماه برای trtmnt و سپس 1 ماه در مقابل 3 ماه برای no-trtmnt نگاه کنم. این می تواند 2، تجزیه و تحلیل دو گروهی باشد. اما پس از آن باید دو تجزیه و تحلیل مختلف را با هم مقایسه کنم تا به دنبال تغییر ژن مشترک یا متفاوت بگردم. اینجاست که شروع به شبیه‌سازی یک ANOVA دو طرفه می‌کند، اما واقعاً نه. من قدردان هر فکری هستم. ویرایش: باید اشاره می کردم که اینها مطالعات حیوانی است، بنابراین در هر گروه 10 حیوان داریم. به جای نمونه برداری از هر حیوان دو بار - یک بار در 1 ماه و یک بار در 3 ماه - ما 4 گروه مختلف داریم که همه آنها برای نمونه گیری استفاده شدند. امیدوارم منطقی باشد.
آیا این واقعا برای ANOVA دو طرفه مناسب است؟
72482
این سوال را به این دلیل مطرح کردم که در حین خواندن مزایای استانداردسازی متغیرهای توضیحی یا خیر، نظرات خوب اما متضاد را در مورد استانداردسازی وقتی که در مدل تعامل وجود دارد، خواندم. برخی در مورد چگونگی حذف مشکلات همخطی هنگام استاندارد کردن صحبت می کنند (به عنوان مثال، تشخیص هم خطی تنها زمانی که عبارت تعامل گنجانده شود مشکل ساز است)، که اساساً مورد GLMM من است. با این حال، دیگران ادعا می‌کنند که خطاهای استاندارد و مقادیر p تعاملات مدل‌های استاندارد قابل اعتماد نیستند... (مثلاً متغیرها اغلب قبل از ساخت یک مدل تنظیم می‌شوند (مثلاً استاندارد می‌شوند) - چه زمانی این ایده خوب است و چه زمانی بد است. یکی یا http://quantpsy.org/interact/interactions.htm) بنابراین، هر ایده ای در مورد اینکه کار درست چیست؟
مزایا و معایب متغیر استاندارد در حضور یک تعامل چیست؟
82513
من روی یک آنالیز ANOVA دو طرفه با طراحی 2x2 کار می کنم - دو افکت اصلی با 2 سطح هر کدام. در اجرای تجزیه و تحلیل، من به وضوح تعامل و همچنین هر اثر اصلی را دریافت می کنم. آیا نتایج (مقادیر p و F) برای جلوه های اصلی یکسان است که اگر من به سادگی یک ANOVA استاندارد را روی هر یک از جلوه های اصلی به طور مستقل اجرا کرده باشم؟ این تفسیر من است، اما وقتی واقعاً آزمایش را انجام می‌دهم، مقادیر مختلف p و F را دریافت می‌کنم.
اثرات اصلی ANOVA دو طرفه - همان ANOVA یک طرفه بر روی هر اثر اصلی؟
113026
پاسخ زیر به تمرینی در یک کتاب درسی وجود دارد: فرضیه‌ها عبارتند از \begin{align*} H_0 &: Var_1 = Var_2\\\ H_1 &: Var_1 \neq Var_2 \end{align*} محاسبه: $f = 78.800 /913.333 = 0.086 $. از آنجایی که $\text{P-value} = 2P(f <0.086) = (2)(0.0164) =0.0328$ برای $4$ و $6$ درجه آزادی، تنوع زمان اجرا برای شرکت $1$ به طور قابل توجهی کمتر از در سطح $0.0328$، متغیر بودن زمان اجرا برای شرکت $2$. بنابراین سؤال این است که چرا آنها $\text{P-value}$ را در $2$ ضرب می‌کنند؟ دیدم وقتی از توزیع‌های $T$ یا Normal استفاده می‌کردند این کار را انجام دادند، اما توزیع $F$ متقارن نیست.
P-value ضربدر 2 برای دو فرضیه دم آزمون F
60155
من نمونه‌های زیادی از تبدیل متغیرهای مرتبط با زمان (مانند سن، سال، روز و غیره) دیده‌ام، اما دلیل انجام این کار را نمی‌دانم. فکر نمی کنم برای تثبیت واریانس باشد (چون متغیر کمکی است). من فکر می کنم به دلیل چیزی است که به خطی بودن مربوط می شود. هنگامی که متغیر کمکی تبدیل شده در یک مدل ترکیبی باشد، این حتی بیشتر گیج کننده است. **چرا متغیرهای زمانی اغلب تبدیل به گزارش می شوند؟**
چرا متغیرهای کمکی مرتبط با زمان در مدل سازی تبدیل می شوند؟
24840
من باید تعیین کنم که آیا بین دو متغیر تعداد رابطه وجود دارد یا خیر. من بیش از 60 مشاهده برای 4 متغیر دارم و می خواهم ببینم آیا هر یک از جفت های این متغیرها به طور قابل توجهی با یکدیگر همبستگی دارند یا خیر. من بیشتر از R استفاده می کنم، پس اگر آشنا نیستید ببخشید. من از توابع cor(...,method=pearson) و cor.test() برای آزمایش هر جفت استفاده کرده ام، اما اکنون چندان مطمئن نیستم که این روش/آزمون درستی باشد. آیا یک رگرسیون غیر خطی مانند `glm(...,family=poisson)` مناسب تر است؟ شروع کردم به این فکر کردن، زیرا وقتی به هیستوگرام شمارش‌های مشاهداتم نگاه کردم، متوجه شدم که به نظر می‌رسد تمایل کمی برای بالا و پایین رفتن متغیرهای صورتی و سبز وجود دارد. من یک نمودار پراکنده از هر یک از متغیرهای ترسیم شده در برابر هر یک از متغیرهای دیگر تولید کردم. من از تست های ذکر شده در بالا استفاده کردم تا این رابطه را کمی سازی کنم و آزمایش آب و هوا واقعی یا فقط نویز بودن آن را انجام دهم. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rNFTE.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iZ3hW.png)
از چه نوع آزمونی برای تعیین همبستگی/رابطه بین دو متغیر غیر پیوسته استفاده شود
97228
این سوال از این سوال در مورد .632 قانون گرفته شده است. من با اشاره ای خاص به پاسخ/نشان کاربر603 می نویسم تا جایی که مسائل را ساده می کند. این پاسخ با نمونه‌ای به اندازه $n،$ با جایگزینی، از $n$ موارد متمایز در مجموعه شروع می‌شود (آن را N صدا کنید. احتمال اینکه $i^{th}$ نمونه $s_i$ متفاوت از یک عنصر خاص باشد. $m$ از N است سپس $(1 - 1/n).$ در آن پاسخ همه عناصر N شانس مساوی برای ترسیم تصادفی دارند. سوال من این است: در عوض فرض کنید در سوال بالا مواردی که قرار است ترسیم شوند به گونه ای هستند که به طور معمول توزیع شده اند. یعنی منحنی نرمال استاندارد را از $Z = -4$ به $Z = 4$ به (مثلا) 100 زیر بازه با طول مساوی تقسیم می کنیم. هر یک از 100 مورد در N دارای احتمال ترسیمی است که برابر با مساحتی است که منحنی در بازه مربوطه خود به آن می افزاید. فکر من به این صورت بود: فکر می‌کنم استدلال مشابهی است که در پاسخ پیوندی وجود دارد. احتمال اینکه $s_i \ne m$، با $m$ عنصری از N، $P(s_i \neq m) = (1 - F_i)$ است که در آن $F_i$ احتمال ترسیم $s_i است.$ احتمال اینکه یک عنصر خاص m در نمونه S با اندازه n باشد، $$P(m\in S) = 1 - P(m \ نه S) = 1 - \Pi_1^n است. P(s_i \neq m)$$ $$ = 1 - \Pi_1^n(1 - F_i). $$ یک محاسبه نشان می‌دهد که با کوچک شدن طول زیر بازه‌ها، پاسخ به همان عدد مورد اول همگرا می‌شود (احتمالات $s_i$ همه برابر هستند). این (به نظر من) غیر منطقی به نظر می رسد، زیرا به نظر می رسد ساختار عناصر N را که کمیاب هستند، وارد می کند، بنابراین من انتظار دارم عددی کوچکتر از 0.632 داشته باشم. همچنین، اگر این درست باشد، حدس می‌زنم $$ \lim_{n \to \infty} \Pi_1^n(1 - F_i) =\lim (1- 1/n)^n = 1/e, $ داشته باشیم $ که من هنوز درست یا نادرست را نمی دانم. ویرایش: اگر درست باشد احتمالاً برخی را تعمیم می دهد. با تشکر برای هر گونه بینش.
اگر احتمالات در قانون .632 برابر نباشند چه می شود؟
2469
**سوال:** روش خوبی برای انجام آزمون های تعقیبی تفاوت بین میانگین های گروهی پس از تنظیم اثر متغیر کمکی چیست؟ **نمونه اولیه:** * چهار گروه، 30 شرکت کننده در هر گروه (به عنوان مثال، چهار جمعیت مختلف روانشناسی بالینی) * متغیر وابسته عددی است (به عنوان مثال، نمرات هوش) * متغیر کمکی عددی است (مثلاً شاخص وضعیت اجتماعی-اقتصادی) * سوالات تحقیق این نگرانی است که آیا هر جفت گروهی پس از کنترل متغیر وابسته به طور قابل توجهی بر روی متغیر وابسته متفاوت است **مرتبط سوالات ** : * روش ترجیحی چیست؟ * چه پیاده سازی هایی در R موجود است؟ * آیا ارجاعات کلی در مورد چگونگی تغییر روش های متغیر کمکی برای انجام آزمون های تعقیبی وجود دارد؟
تست های تعقیبی در ANCOVA
24848
من تازه وارد این تجارت داده کاوی هستم. من دوست دارم کسی به من در جهت درست اشاره کند، لطفا. در تجارت من - من یک پایگاه داده با چندین جدول خواهم داشت (فرض کنید MS SQL Server). به عنوان مثال، من یک میز «شخص» و یک میز «خرید» دارم (هر فرد می تواند چندین خرید مختلف انجام دهد). در اینجا نمونه ای از جدول فرد آمده است: * شناسه * نام * نام خانوادگی * آدرس * تاریخ تولد در اینجا نمونه ای از جدول خرید آمده است: * تاریخ خرید * زمان خرید * محل فروشگاه * تعداد اقلام خریداری شده * مجموع مبلغ خرید آنچه من می خواهم انجام دهم این است: می خواهم داده کاوی را انجام دهم تا دسته ها را پیدا کنم، یا «گروه‌هایی» از ویژگی‌ها، که هر «مبلغ خرید» را تعریف می‌کنند. به عنوان مثال - من می خواهم بدانم برای همه افرادی که بین 2000 تا 2500\$ خرید کرده اند چیست؟ آیا همه آنها از یک محله آمده بودند؟ شاید همه آنها جوان بودند و از یک محله آمده بودند؟ شاید 2 گروه متفاوت وجود داشته باشد که برای گروه خرج کننده '2000\$-2500\$' مناسب باشد؟ تقریباً مطمئن هستم که دسته بندی های مختلفی (یا زمینه های متمایز) وجود دارد که با هر گروه قیمت مطابقت دارد ... یکی ممکن است افراد مسن باشند که شب ها برای خرید می آیند، دیگری ممکن است افراد میانسال باشند که بیش از 10 کالا می خرند و دیگری ممکن است افراد میانسالی باشند که یک یکشنبه خرید می کنند. با توجه به آنچه که من درک می کنم، این در منطقه داده کاوی قرار می گیرد (شاید خوشه بندی؟) آیا این درست است؟ و اگر چنین است، ابزارهایی که باید برای یافتن این مجموعه پارامترهایی که گروه‌های مختلف را برای هر دسته قیمت‌گذاری تعریف می‌کنند، پیدا کنم، چیست؟ خیلی ممنونم جان
تازه وارد تجارت داده کاوی
45589
بار دوم که به این سایت مراجعه می کنم، قبلاً کمک کرده است. من به دنبال کمکی برای کدنویسی برای انجام یک آنووا با اندازه های مکرر در R هستم. من در مجموع 4 درمان دارم که هر کدام 3 بار تکرار شده است. آنها به مدت چندین ماه روزانه تحت نظارت قرار می گرفتند و به من مقدار X را هر روز می داد. بنابراین داده ها به این صورت تنظیم می شوند: Day Trt Rep X 1 1 1 0 1 1 2 0 1 1 3 1 1 2 1 0 1 2 2 0 1 2 3 0 1 3 1 0 1 3 2 0 1 3 3 0 1 4 1 1 1 4 2 1 1 4 3 1 کد نمونه چیست که به من اجازه می دهد یک ANOVA اندازه گیری های مکرر روی این داده ها انجام دهم؟
سوال با R و اندازه های مکرر
99047
این فراتر از یک سوال R است، اما چرا منطقی نیست که یک مدل، مثلاً یک مدل تفکیک‌کننده خطی (LDA)، با اعتبارسنجی متقاطع ترک-خارج - و سپس برای پیش‌بینی داده‌های جدید از این مدل استفاده کنیم. مجموعه؟ آیا این استدلال **درست است یا خیر**: استفاده از چنین اعتبارسنجی متقاطع راهی برای اندازه گیری عملکرد مدل است (به جای آزمایش مدل بر روی داده های آزمایشی جدید). اگر مدل عملکرد خوبی داشت، دوباره آن را بر روی مجموعه داده های آموزشی کامل مدل می کنید و سپس از این مدل نهایی برای پیش بینی مقادیر جدید استفاده می کنید.
مدل سازی: گزینه ای برای اعتبارسنجی متقابل و پیش بینی پس از آن
82519
من سعی می کنم توزیع احتمال (مانند میانگین و واریانس) مجموعه ای از دنباله ها را پیدا کنم که طول متفاوتی دارند. من به مدل‌های اندازه‌گیری مختلفی رسیدم که فاصله بین توالی‌های تفاوت را کمیت می‌کنند، اما نمی‌توانم چیزی در مورد توزیع احتمال توالی‌ها پیدا کنم. آیا به هر حال می توان پارامترهای توزیع مجموعه ای از دنباله ها را استخراج کرد؟
میانگین و واریانس مجموعه ای از دنباله ها
24844
من 3 مدل را روی 3 زیر مجموعه از همان داده ها اجرا می کنم. راه‌اندازی به شرح زیر است: 1. نتیجه (DV) دسته‌بندی باینری است 2. زمان (IV) دو بار (قبل و پس از آن) تکرار می‌شود. درمان بر نتیجه تأثیر داشته است. من از بسته lme4 استفاده کردم و از کد R زیر استفاده کردم: tot.null<-lmer(as.factor(outcome)~Time+(1|id), family=binomial(link='logit'), data=df.total) tot.mod<-lmer(as.factor(نتیجه)~trt*Time+(Time|id)، family=binomial(link='logit'), data=df.total) anova(tot.null,tot.mod) خلاصه (tot.mod) **سر داده** id trt نتیجه زمانی 1 1 بحث همتا -1 1 2 2 بحث همتا -1 1 3 3 بحث همتا -1 0 4 4 همتا بحث -1 1 5 5 بحث همتا -1 1 **str of data** > str(df.total) 'data.frame': 872 obs. از 4 متغیر: $ id : int 1 2 3 4 5 6 7 8 9 10 ... $ trt : فاکتور w/ 2 سطح بحث همتایان،..: 1 1 1 1 1 1 1 1 1 1 ... $ زمان : num -1 -1 -1 -1 -1 -1 -1 -1 - 1-1... $ outcome: num 1 1 1 1 1 1 0 1 0 ... مشکل این است که من یک پیام خطا در `tot.mod` دریافت می کنم: > tot.mod<-glmer(as.factor(outcome)~trt* Time+(Time|id)، family=binomial(link='logit'), data=df.total) پیام هشدار: در mer_finalize(ans) : همگرایی کاذب (8) من فکر می کنم این دلیلی است که مدل قابل توجه است اما هیچ یک از پیش بینی کننده ها اینگونه نیستند. به SE های متورم نگاه کنید. **مقایسه با مدل تهی و خلاصه مدل کامل** > anova(tot.null,tot.mod) داده ها: df.total مدل ها: tot.null: as.factor(نتیجه) ~ Time + (1 | ID ) tot.mod: as.factor(نتیجه) ~ trt * زمان + (زمان | شناسه) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) tot.null 3 689.54 703.85 -341.77 tot.mod 7 410.67 444.07 -198.34 286.86 4 < 0.000000000000000000022 *** کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 > خلاصه (tot.mod) مدل ترکیبی خطی تعمیم یافته با فرمول تقریبی لاپلاس: به عنوان عامل (نتیجه) ~ trt2 * زمان + (زمان | شناسه) داده: df.total AIC BIC logLik انحراف 410.7 444.1 -198.3 396.7 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr id (Intercept) 396.46 19.911 Time 1441.98 37.973 0.470 تعداد obs: 872, group: id, 436 Fixed effect: Estimate Std. خطای z مقدار Pr(>|z|) (قطع) 10.09866 3.33921 ​​3.024 0.00249 ** trt21 0.01792 5.10796 0.004 0.99720 زمان -0.93756 0.93756 0.00249 -0.93756 0.0019 trt21:Time -0.84882 10.41073 -0.082 0.93502 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) trt21 زمان trt21 -0.654 زمان 0.558 -0.365 trt21 -0.31 -0.31 چه خبر است؟ چرا مدل قابل توجه است اما هیچ یک از نسخه های بتا وجود ندارد؟ در OLS می دانم که این نشانگر چند خطی بودن در بین پیش بینی ها است. فکر نمی کنم دلیلش اینجا باشد. لطفا برای درک این مشکل و همچنین پیام خطا (من فکر می کنم آنها ممکن است متصل شده باشند) کمک کنید. چه مواردی را باید بررسی کنم؟ دو مدل دیگر از یک مجموعه داده («تقسیم» بر روی یک متغیر گروه‌بندی متفاوت) مشکل ظاهری نداشتند. پیشاپیش از شما متشکرم. _استفاده از R 2.14.2، lme4 v. 0.999375-42 در ماشین win 7_
مدل قابل توجهی بدون بتای قابل توجه؟
9656
من یک اسکریپت R ساده برای آزمایش الگوریتم خوشه بندی طیفی می نویسم اما برای مقادیر ویژه همه آنها را مثبت نمی گیرم و lambda0 با 0 متفاوت است. اینجا اسکریپت من Dsqrt<-matrix(0,length(V(g)) است. طول(V(g))) # ماتریس D^-0.5 برای (i در 1:(طول(V(g))-1)) Dsqrt[i,i]<-1/sqrt(درجه(g,V(g)[i-1])) L<-graph.laplacian(g, normalized=TRUE) #Here L[i,i]=1 و L[i,j]= 1/sqrt(d[i]*d[j]) L<-Dsqrt %*% L %*% Dsqrt Eigns<-eigen(L) و وقتی «Eigns$values» را بررسی می‌کنم، گاهی مقادیر منفی دریافت می‌کنم. آیا کسی می تواند به اشتباه من اشاره کند؟ پیشاپیش ممنون
مشکل با کد R برای خوشه بندی طیفی
9654
بسیاری از مقالات کارآزمایی کنترل‌شده تصادفی‌سازی شده (RCT) آزمایش‌های معنی‌داری را روی پارامترهای پایه درست بعد از/قبل از تصادفی‌سازی گزارش می‌کنند تا نشان دهند که گروه‌ها واقعاً مشابه هستند. این اغلب بخشی از جدول ویژگی های پایه است. با این حال، آزمون های معناداری احتمال به دست آوردن اختلاف مشاهده شده (یا قوی تر) را به طور تصادفی اندازه گیری می کنند، اینطور نیست؟ و اگر آزمون معنی دار باشد، نتیجه می گیریم که **تفاوت واقعی وجود دارد زیرا تفاوت تصادفی در این حد بعید است**. آیا وقتی می دانیم که هر **تفاوتی باید ناشی از شانس باشد**، آزمون معناداری پس از تصادفی سازی معنا پیدا می کند؟
آیا آزمون معنی‌داری برای مقایسه گروه‌های تصادفی‌سازی شده در ابتدا معنا دارد؟
97225
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kCFOf.png) استاد سری زمانی من امروز نظری را ارائه کرد که اجرای این مدل به معنای از دست دادن مشاهدات k+1 است. فکر می‌کنم فهمیده‌ام که چگونه مشاهدات هدر می‌روند، اما به دلیل این که به اشتباه فکر می‌کنم چیزی را فهمیده‌ام (خود تشخیصی) بدنام هستم. یک توضیح ساده قدردانی می شود!
چگونه شامل کردن تاخیرها به معنای از دست دادن مشاهدات است
9653
من آموخته ام که حجم نمونه کوچک ممکن است منجر به قدرت ناکافی و خطای نوع 2 شود. با این حال، من این احساس را دارم که نمونه های کوچک ممکن است به طور کلی غیر قابل اعتماد باشند و ممکن است به طور تصادفی به هر نوع نتیجه ای منجر شوند. آیا این درست است؟
آیا حجم نمونه کوچک می تواند باعث خطای نوع 1 شود؟
107426
من در حال طراحی آزمایشی هستم که دارای فاکتورهای (A,B) با 4 و 5 سطح است. از آنجایی که این مقدار بسیار زیاد است، من متوجه شدم که از طرح فاکتوریل استفاده می کنم. با این حال، مشخص نیست که آیا درمان اصلاً، در هر سطح یا عاملی مؤثر خواهد بود یا خیر. بنابراین آزمایش زیر را طراحی کردم: > همه شرکت‌کنندگان آزمایشی را انجام می‌دهند که یک کنترل منفی است (بدون > افزودن/درمان) و سپس همان شرکت‌کنندگان آزمایشی را با سطح > به‌طور تصادفی از هر عامل انجام می‌دهند. این به من اجازه می دهد تا آزمایش کنم که آیا درمان در هر سطحی تأثیری دارد (تست T) و سپس بررسی کنم که کدام ترکیب از فاکتور/سطح به طور خاص مؤثر است (ANOVA). من به دنبال یک منبع مناسب در این مورد بوده‌ام، تصور می‌کنم این یک طرح فاکتوریل است، اما افزودن کنترل روی همه شرکت‌کنندگان قبل از درمان تصادفی، یافتن عنوان/منبع مناسب در این طرح را دشوار می‌کند. آیا کسی می تواند من را در جهت مناسب راهنمایی کند؟
طراحی آزمایش فاکتوریل کنترل شده: کدام نام یا منبع؟
97224
فرض کنید تابع چگالی احتمال مشترک $X,Y$ $$f(x,y)=\frac{1}{2}\\\ x>0 ,y>0,x+y<2$$چگونه می توانم تابع چگالی احتمال $U=Y-X$ را پیدا کنید
یافتن تابع چگالی احتمال $U=Y-X$