_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
44502
|
من نتایج عجیبی را برای داده های زیر هنگام انجام رگرسیون پواسون در R به دست آورده ام. > RHT1b f x1 y1 y2 1 f1 0 35 1 2 f2 2 70 4 3 f3 0 5 1 4 f4 9 37 4 5 f5 0 3 0 > خلاصه (amod2b) تماس بگیرید: glm(فرمول = x1 ~ y2، خانواده = سم، داده = RHT1b) باقیمانده های انحراف: 1 2 3 4 5 -0.00008 -1.71860 -0.00008 1.36550 0.00000 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -26.61 9977.85 -0.003 0.998 y2 7.08 2494.46 0.003 0.998 (پارامتر پراکندگی برای خانواده پواسون 1 گرفته شده است. انحراف تهی 49 درجه آزادی: 62 4.8182 در 3 درجه آزادی AIC: 15.485 تعداد تکرارهای امتیازدهی فیشر: 18 من قبلاً با داده ها مشکل داشتم که در آن x1 ردیف 4 8 و ردیف 5 1 را نشان می داد. هنگامی که من رگرسیون را اجرا کردم، نتایج قابل اعتماد و تقریباً معنی دار به نظر می رسید. پس از تصحیح داده ها به نحوه نشان داده شده در بالا و به روز رسانی مدل، نتایجی دارم که به معنای واقعی کلمه برای من معنی ندارد. سوال من این است که چرا این اتفاق افتاده است؟ آیا ممکن است مقدار 1 که به 0 تغییر می کند از نوعی آستانه شمارش صفر فراتر رفته است که مدل پواسون نمی تواند از عهده آن برآید؟ آیا یک مدل دوجمله ای منفی مناسب تر است؟
|
نتایج عجیب از رگرسیون پواسون در R
|
59282
|
با توجه به دو گاوس وزن دار با وزن دلخواه، میانگین و واریانس، پارامترهای حداقل گاوس محصور چیست؟ میانگین و واریانس باید به گونه ای انتخاب شود که وزن حداقل باشد، به گونه ای که یک کران بالایی محکم بر روی تفاوت های مثبت بین مقادیر دو گاوسی اولیه تقریبی و گاوسی محصور کننده ایجاد کند. حداکثر خطای نسبی با یک اپسیلون محدود تقریبی داده شده > 0 تعیین می شود.  شکل: با توجه به دو هسته آبی (وزن = 1 ، میانگین = -1، var = 2) و (وزن = 2، میانگین = 2، var = 1)، راه حلی برای اپسیلون = 0.001 می تواند شبیه گاوس قرمز باشد (وزن ~= 5.2). چگونه پارامترهای آن را محاسبه کنیم؟
|
حداقل گاوسی محصور کننده
|
111468
|
شک من در مورد Down-Sampling است. من یک داده نامتعادل دارم و از نمونهبرداری پایین استفاده میکنم، اما مطمئن نیستم که آیا همه ردیفها در هر تاشدهای انتخاب شدهاند که من از ۱۰ برابر استفاده کردهام.
|
نمونه گیری پایین از کلاس اکثریت-چگونه می توانم مطمئن شوم که همه ردیف ها انتخاب شده اند؟
|
59281
|
در حال حاضر من از یک بسته r برای تطبیق فرآیند ARMA-GARCH استفاده می کنم. پس از آن، من می خواهم از مقادیر برازش برای محاسبه ارزش در معرض خطر استفاده کنم. بنابراین این مقادیر پیشبینیها نیستند، بلکه «در نمونه مناسب» هستند. حالا من در مورد کلمه انتخاب، یعنی تفاوت بین کلمه مناسب و برآورد سوال دارم؟ از چه کلمه ای استفاده کنم؟ آیا همین طور است؟ به عنوان مثال Tsay صفحه 136 در شکل 3.8 می گوید: نقشه سری زمانی نوسانات تخمینی ($\sigma_t$) برای مازاد ماهانه > بازده .... در حالی که در کتابچه راهنمای R می گوید: > مقادیر برازنده
|
تفاوت بین تخمین زده و مناسب؟
|
8371
|
موسسات نظرسنجی فرانسه در حال حاضر با یک بحران بزرگ روبرو هستند، زیرا اخیراً آنچه را که میتوان مضحکترین نظرسنجی تاکنون در مورد مسابقه اسبسواری انتخابات ریاستجمهوری 2012 نامید، منتشر کردند. سنای فرانسه اکنون در نظر دارد تا با وادار کردن مؤسسات نظرسنجی به انتشار فواصل اطمینان برای نتایج خود، در مورد این موضوع قانونی وضع کند. با این حال، برخی از نظرسنجی ها با این اقدام مخالف هستند و ادعا می کنند که فواصل اطمینان در مورد نمونه گیری سهمیه ای که روشی است که توسط موسسات نظرسنجی در فرانسه استفاده می شود، اعمال نمی شود. از آنجایی که نمونهگیری سهمیهای به طور رسمی نمونهگیری غیراحتمالی است، این ادعا صحت دارد. اما از آنجایی که نمونه گیری سهمیه ای اساساً نمونه گیری طبقه ای است، فواصل اطمینان باید اعمال شود، درست است؟ آیا می توانم در خارج از فرانسه، در کشورهایی که نظرسنجی ها از نمونه گیری سهمیه ای نیز استفاده می کنند، تجربیاتی در مورد این موضوع بپرسم؟
|
آیا فواصل اطمینان برای نمونه گیری سهمیه ای اعمال می شود؟
|
90694
|
من باید بدانم برای بدست آوردن فراوانی آللی در جمعیتی که بسیار نزدیک به فرکانس آللی واقعی است، چند نمونه باید نمونه برداری شود، با این فرض که اندازه جامعه و فراوانی آلل واقعی را می دانیم. به عنوان مثال می دانیم که در یک جمعیت 100 نفر وجود دارد و فراوانی های ژنوتیپی (AA=30% BB=10% و AB=60%) و فراوانی آلل B (40%). 10، 20، 30، 40 یا 50 نمونه از جمعیت (100=N) (بدون جایگزینی) نمونه برداری می شود تا تفاوت بین فراوانی ژنوتیپی یا آللی تخمینی و واقعی مشاهده شود. این کار 200 بار یا بیشتر تکرار می شود... برای مشاهده تفاوت در واریانس بین اندازه های مختلف نمونه. بعد، من یک جمعیت را به 500، 1000، 3000 افزایش خواهم داد... می دانم که می توانم از تابع R بوت استفاده کنم. اما من باید تابع آمار را برای آن ایجاد کنم و نمی توانم بفهمم چگونه. اگر بتوانید به من بگویید چگونه این کار را در R انجام دهم خوشحال می شوم. هر نمونه دارای یک مقدار ژنوتیپی، AA، BB و AB است. شاید بتوانیم از مقادیر عددی برای سه ژنوتیپ (یعنی AA=1، BB=0 و AB=0.5) استفاده کنیم؟ با تشکر فراوان،
|
Bootstrapping برای یافتن تعداد نمونه هایی که باید نمونه برداری شوند
|
29535
|
ریسک پس زمینه یا ریسک پایه چیست؟ و همچنین APE در EBM به چه چیزی اشاره دارد؟
|
ریسک پس زمینه یا ریسک پایه چیست؟
|
92108
|
فرض کنید می خواهم زمان واکنش افراد را قبل و بعد از درمان با استفاده از کد R ارزیابی کنم. اکنون برای تجزیه و تحلیل نتایج در صورت داشتن درمان های اضافی، می توانم از اندازه گیری های مکرر ANOVA در R با استفاده از تابع aov() استفاده کنم. با این حال، این رویکردها فرض می کنند که تنها یک اندازه گیری زمان واکنش به ازای هر فرد، در هر درمان وجود دارد. با این حال فرض کنید برای هر فرد، زمان واکنش او را 5 بار قبل از درمان و 5 بار بعد از درمان اندازه گیری کنیم. چگونه باید آزمون t یا ANOVA اندازهگیریهای مکرر را برای توضیح این موضوع تنظیم کنم؟ میدانم که میتوانم به سادگی قبل از تجزیه و تحلیل میانگین بگیرم، اما آیا میتوان تمام 5 آزمایش را در تجزیه و تحلیل در R گنجاند و اگر بله چگونه؟ توجه داشته باشید که دادهها ممکن است چیزی شبیه به این باشد: نتیجه زمان درمان موضوع Subj1 صبح کک 15 Subj1 صبح کوک 14 صبح آبی 17 Subj1 صبح آبی 20 صبح Subj2 کک صبح 45 صبح سوژ2 کک صبح 46 Subj2 صبح آبی 58 صبح آبی Subj2 75
|
چندین اندازه گیری در هر آزمایش در R
|
111463
|
من در حال کار بر روی برخی رگرسیون ها برای شهرهای انگلستان هستم و یک سوال در مورد چگونگی تفسیر ضرایب رگرسیون دارم. در یک رگرسیون معمولی، می توان با داده های یک نمونه کار کرد و بنابراین خطاهای استاندارد روی ضرایب را می توان به عنوان منعکس کننده عدم قطعیت در انتخاب نمونه تفسیر کرد. در مورد من، من با هر شهر در بریتانیا کار می کنم، بنابراین تفسیر خطا آنقدر واضح نیست. دو منبع سردرگمی وجود دارد: 1. از آنجایی که من با جمعیت کامل کار میکنم، آیا میتوانم خطاهای ضریب را نادیده بگیرم یا آنها تفسیر اضافی دارند که ممکن است مرتبط باشد؟ من برخی از ذکر جمعیت های محدود را دیده ام اما مطمئن نیستم که چگونه ممکن است در یک رگرسیون اعمال شود. 2. تعریف شهر به خودی خود تا حدودی نامشخص است. در مطالعهام به شش تعریف نگاه میکنم که هر کدام شامل یک جمعیت کامل از شهرهای بریتانیا است (اگرچه هر تعریف دارای تعداد متفاوتی از شهرها است؛ این فقط ویژگیهای هر شهر نیست که تغییر میکند، بلکه خود اندازه جمعیت نیز تغییر میکند). آیا تفسیر خطاهای ضریب رگرسیون به عنوان ثبت این عدم قطعیت معقول خواهد بود یا یک فرمول مدل جایگزین مناسب تر است؟ آنچه من به دنبال آن هستم راهنمایی در مورد بهترین عملکرد در این شرایط است.
|
تفسیر خطاهای ضریب در رگرسیون از جمعیت نامشخص
|
44508
|
به طور خلاصه، مشکل از تعیین یک قیمت رزرو در حراج قیمت دوم ناشی میشود، جایی که بدون قیمت رزرو $a_t$، برنده دومین پیشنهاد بالاترین $b_t$ را پرداخت میکند. اما با قیمت رزرو، برنده $$ \left\\{ \begin{matrix} a_t,& \text{if } a_t > b_t \\\ b_t, & \text{if } a_t\leq b_t \\ پرداخت می کند \ 0,& \text{اگر } a_t \text{ بالاتر از هر پیشنهادی باشد} \end{matrix} \right. $$ سوال این است که مقدار مورد انتظار $\mathbb{E}[r_t]$ پس از تعیین قیمت رزرو $a_t$ در هر مرحله زمانی چقدر است، با توجه به اینکه $b_t \sim \mathcal{N}(\mu, \sigma ^2) دلار. اگرچه من نمی دانم چگونه احتمال بالای 3 مورد را استخراج کنم، می توانم مثال زیر را بزنم: 1) اگر $a_t=1000$، پس $pr(r_t=0)=1$، زیرا $a_t$ خیلی زیاد است. 2) اگر $a_t=0$، آنگاه $p_r(r_t=b_t)=1$. آیا باید از cdf $b_t$ و $a_t$ برای استخراج احتمالات هر مورد استفاده کنم؟ با تشکر
|
چگونه می توان ارزش مورد انتظار درآمد را با قیمت ذخیره در مزایده قیمت دوم بیان کرد؟
|
59280
|
آیا راهی برای آزمایش برابری ضرایب رگرسیون چندک با استفاده از Stata وجود دارد؟ برای مثال آیا می توانم ضرایب چندک های 10، 25، 50، 75 و 90 را با استفاده از یک دستور در Stata مقایسه کنم؟
|
رگرسیون چندکی با Stata
|
111467
|
من در حال ساخت مدل های رگرسیون هستم. به عنوان یک مرحله پیش پردازش، مقادیر ویژگی های خود را به طور میانگین 0 و انحراف استاندارد 1 مقیاس می کنم. آیا لازم است مقادیر هدف نیز عادی شود؟
|
آیا برای تجزیه و تحلیل رگرسیون، علاوه بر مقیاسبندی ویژگیها، مقیاسبندی مقدار هدف ضروری است؟
|
92101
|
من به نوعی مبتدی در منطقه یادگیری ماشین هستم و برخی از ابزارها و غیره را ارزیابی می کنم تا احساسی نسبت به آن پیدا کنم. برای یک پروژه من از ابزاری استفاده می کنم که یک هسته از پیش محاسبه شده (ماتریس گرم) ایجاد می کند و همچنین می تواند آن را عادی کند (مقادیر بین 0 و 1). مشکل من این است که هنگام استفاده از هسته از پیش محاسبه شده نمی توانم چیزی غیر از مجموعه آموزشی را پیش بینی کنم. خلاصه خلاصه شرح مشکل: * مجموعه داده اصلی 1285 نمونه است * با استفاده از `k_folds = sklearn.cross_validation.StratifiedKFold(list_of_annotations, k=5)` به 5 تا (تقسیم دستی، با استفاده از شاخص های روش) تقسیم آن (در حال حاضر فقط برای اهداف آزمایشی در یک برابر) `Classifier = svm.SVC(kernel='precomputed', probability=True) `clf = classifier.fit(train_matrix, train_annotations)` \--> به نظر کار می کند / مشکلی وجود ندارد تا اینجا * `clf.predict(test_matrix)` به من می دهد پیام خطای زیر: > > ValueError: X.shape[1] = 257 باید برابر باشد 1028، تعداد > نمونه در زمان آموزش > آیا رویکرد من اشتباه است؟ من واقعاً پیام خطا را درک نمی کنم - اگر SVM را با هسته از پیش محاسبه شده آموزش دهم، همیشه همان شکل داده های ورودی (هسته از پیش محاسبه شده روی داده های ورودی) را برای پیش بینی نخواهم داشت. آموزش- مجموعه؟!
|
پیش بینی با scikit و هسته از پیش محاسبه شده (SVM)
|
58827
|
تجزیه و تحلیل ANOVA یک طرفه برای بررسی سطح اشتراک دانش در بین کارکنان بر اساس تفاوتهای سنی انجام شد. ANOVA یک طرفه نشان داد که در سطح KS تفاوت معنیداری وجود دارد در حالی که آزمون تعقیبی توکی نشان داد که بر اساس تفاوت سنی پاسخدهنده، تفاوت آماری معنیداری در سطح اشتراک دانش بین گروهها وجود ندارد. بنابراین، _نتیجه گیری از این نتیجه چیست و چرا نتیجه نتیجه متفاوتی را نشان می دهد؟_ و، چگونه این نتیجه را تفسیر کنم؟ جدول: میانگین نمرات در سطح اشتراک دانش در میان کارکنان - بر اساس سن. تعداد سن. میانگین انحراف معیار 20-29 34 3.82 1.13 30-39 54 3.87 0.92 40-49 56 3.41 1.06 بیش از 50 45 3.32 1.24 مجموع 189 3.59 1.1 مربع F مربع F سیگ بین گروهها 11.029 3 3.676 3.120 .027 درون گروهها 218.021 185 1.178 مجموع 229.050 188 جدول: مقایسههای چندگانه (I) سن (J) تفاوت میانگین سنی (I-J) Error Sig. 95% CI پایین کران بالا 20-29 30-39 -.047-.238.997 -.66-.57 .40-49.408.236.311 -.20- 1.02 بیش از 50.501.247. .14- 1.14 30-39 20-29 .047 0.238.997 -.57-.66 40-49.455.207.127 -.08-.99 بیش از 50.548.219.063 -.02- 1.12 40-292 - 1.12 .408- .236 .311 -1.02- 0.20 30-39 -.455-.207.127 -.99-.08 بیش از 50.093.217.974 -.47-.66 بیش از 50 20-29 -.501-.247.180 -. 1.14- 0.14 30-39 -.548- 0.219 .063 -1.12- .02 40-49 -.093- 0.217 .974 -.66-.47 بسیار سپاسگزارم که در یافتن پاسخ سوالم به من کمک کردید.
|
نتایج ANOVA نشان داد که علامت وجود دارد. در حالی که آزمون تعقیبی توکی نشان داد که هیچ علامت آماری وجود ندارد. تفاوت ها
|
22445
|
من می خواهم متغیرهایی را برای ساخت یک مدل رگرسیون لجستیک با مقایسه GOF انواع مختلف انتخاب کنم. مشکل این است که برخی از کاندیداها مقادیری از دست داده اند، بنابراین من نمی توانم از آزمون نسبت درستنمایی برای مقایسه مدل ها استفاده کنم، با توجه به اینکه وقتی می خواهم مدل ها را با آن متغیرها مقایسه کنم، آنها دیگر تو در تو نیستند. بنابراین پس از بررسی برخی گزینه ها، متوجه شدم که AIC یا حتی BIC ممکن است گزینه ای برای این منظور باشد. آیا هر کدام از این دو گزینه معتبر است؟ من با استفاده از BIC آشنا نیستم، آیا همان AIC است که هر چه مقدار آن کوچکتر باشد بهتر است؟
|
گزینه هایی برای مقایسه مدل های رگرسیون لجستیک
|
29531
|
اگر یک قالب را 8 بار بچرخانید، احتمال اینکه هم 1 و هم 2 بدست آید چقدر است. ) = 0.15$ $P(5) = 0.15$$P(6) = 0.15$
|
احتمال چرخاندن 1 و 2 هنگام چرخاندن یک قالب ناعادلانه 8 بار
|
8373
|
من یک مدل رگرسیونی می بینم که بازده سال به سال شاخص سهام را در بازده سال به سال عقب مانده (12 ماهه) سال به سال همان شاخص سهام، اسپرد اعتبار (تفاوت بین میانگین ماهانه اوراق بدون ریسک و اوراق قرضه شرکتی رگرسیون می کند). بازده)، نرخ تورم سالانه و شاخص سالانه تولید صنعتی. به نظر می رسد (اگرچه در این مورد، داده های مخصوص هند را جایگزین می کنید): SP500YOY(T) = a + b1*SP500YOY(T-12) + b2*CREDITSPREAD(T) + b4*INDUSTRIAL PRODUCTION(T+2) + b3*INFLATION(T+2) + b4*INFLATIONASYMM(T+2) SP500YOY بازده سالیانه شاخص SP500 است برای محاسبه این، میانگین ماهانه مقادیر SP500 محاسبه می شود و سپس به بازده سال به سال برای هر ماه تبدیل می شود (یعنی Jan'10-Jan'11, Feb'10- 11 فوریه، 10-مارس، . در سمت متغیرهای توضیحی، یک مقدار تاخیر 12 ماهه SP500YOY همراه با CREDITSPREAD در زمان T و INFLATION و INDUSTRIAL PRODUCTION دو دوره AHEAD استفاده می شود. INFLATIONASYMM ساختگی است برای اینکه آیا Inflation بالاتر از مقدار آستانه 5.0٪ است یا خیر. شاخص داخل پرانتز شاخص زمانی را برای هر متغیر نشان می دهد. این با رگرسیون خطی استاندارد OLS تخمین زده می شود. برای استفاده از این مدل برای پیشبینی بازده سالانه SP500 1،2 و 3 ماهه، باید پیشبینیهای 3،4 و 5 ماهه برای تورم و شاخص تولید صنعتی تولید کرد. این پیش بینی ها پس از برازش یک مدل ARIMA برای هر یک از این دو به صورت جداگانه انجام می شود. پیش بینی های CreditSpread برای 1،2 و 3 ماه آینده فقط به عنوان تخمین های ذهنی مطرح می شوند. میخواهم بدانم آیا این رگرسیون خطی OLS درست/نادرست، کارآمد/ناکارآمد است یا به طور کلی روش آماری معتبر است. اولین مشکلی که می بینم استفاده از داده های همپوشانی است. یعنی مقادیر روزانه شاخص سهام در هر ماه به طور میانگین محاسبه می شود و سپس برای محاسبه بازده سالانه که به صورت ماهانه تغییر می کند، استفاده می شود. این باید عبارت خطا را به صورت خودکار مرتبط کند. من فکر میکنم که باید از برخی «اصلاح» در خطوط یکی از موارد زیر استفاده کرد: * تخمینگر کوواریانس سازگار ناهمسانی وایت * تخمینگر ناهمهمبستگی و خودهمبستگی نیوی و وست (HAC) * نسخه سازگار با ناهمسانی هانسن و هودریک دوز واقعا منطقی است که رگرسیون خطی استاندارد OLS (بدون هیچ گونه) را اعمال کنیم اصلاحات) به چنین داده های همپوشانی، و بیشتر، استفاده از پیش بینی های 3 دوره ای ARIMA برای متغیرهای توضیحی برای استفاده در رگرسیون خطی OLS اصلی برای پیش بینی SP500YOY؟ من قبلاً چنین شکلی را ندیدهام، و از این رو نمیتوانم واقعاً در مورد آن قضاوت کنم، بدون استثناء تصحیح برای استفاده از مشاهدات همپوشانی.
|
رگرسیون سری زمانی با داده های همپوشانی
|
44506
|
(این سوال کمی با سوال قبلی من مرتبط است، اما این سوال در مورد مقایسه موضوعی بود در حالی که این سوال به طور خاص در مورد استنتاج کردن منظور گروه است.) هنگام تجزیه و تحلیل داده ها با استفاده از یک مدل بیزی سلسله مراتبی، گاهی اوقات نمی خواهید استنباطهایی را در مورد موضوعات فردی انجام دهید، بلکه در سطح گروهی (مثلاً برای دختران 10 ساله، معتبرترین نمره آزمون 100 با فاصله زمانی معتبر 95٪ است. [75، 125]). هنگام ساختن چنین مدلی با استفاده از چارچوب MCMC، به عنوان مثال JAGS/BUGS، دو راه برای رسیدن به میانگین سطح گروه می بینم. یا می توانم از میانگین قبلی ($\mu_\text{gr}$ در نمودار زیر.) روی میانگین توزیع نمونه استفاده کنم یا برای هر تکرار الگوریتم MCMC می توانم میانگین همه موضوع را محاسبه کنم. معنی (این میانگین تمام $\mu_\text{subj}$ در نمودار زیر است). **اگر بخواهم در مورد گروه استنتاج کنم به این معناست که از کدام یک از این دو جایگزین استفاده کنم؟** به عنوان آزمایشی برای اینکه ببینم هنگام استفاده از دو گزینه مختلف چه اتفاقی می افتد، مدلی را با داده های شبیه سازی شده اجرا کردم. در اینجا یک نمودار سبک کروشکه از یک مدل سلسله مراتبی است که در آن ما میانگین $\mu_\text{subj}$ را برای تعدادی از موضوعات با یک گروه به طور معمول توزیع شده قبل از $\mu_\text{subj}$ با میانگین $\mu_ تخمین می زنیم. \text{gr}$.  در اینجا کد JAGS و R برای مشخص کردن مدل بالا و شبیهسازی دادهها برای 50 آزمودنی وجود دارد که در آن هر آزمودنی میانگینی را دریافت میکند که به طور تصادفی به طور عادی توزیع شده است. با $\mu=0$ و $\sigma=1$. سپس مدل JAGS برای 5000 تکرار اجرا میشود و در هر تکرار میانگین قبلی، «گروه_mu»، و میانگین محاسبهشده موضوعات، «mean_mu <-mean(mu[])» ذخیره میشود. library(rjags) model_string <- model { for(i in 1:length(y)) { y[i] ~ dnorm( mu[subject[i]], precision[subject[i]]) } mean_mu <- mean (mu[]) برای (subject_i در 1:n_subject) { mu[subject_i] ~ dnorm(group_mu، group_precision) precision[subject_i] <- 1/pow(sigma[subject_i], 2) sigma[subject_i] ~ dunif(0, 10) } group_mu ~ dunif(-10, 10) group_precision <- (group_sd, 2) group_sd ~ dunif(0, 10) } # ایجاد داده های جعلی n <- 10 n_subject <- 50 subject_mean <- rnorm(n_subject, mean=0, sd=1) y <- rnorm(n * n_subject, mean=rep(subject_mean, هر=n)، sd=1) موضوع <- rep(1:n_subject, every=n) # اجرای مدل با JAGS jags_model <- jags.model(textConnection(model_string), data=list(y=y, subject=subject, n_subject=n_subject), n.chains= 3, n.adapt= 1000 ) update(jags_model, 1000) jags_samples <- jags.samples(jags_model, variable.names=c(group_mu, mean_mu)، n.iter=5000) با نگاه کردن به چندک ها و نمودارهای جعبه mean_mu و group_mu نشان می دهد که هر دو حول گروه واقعی متمرکز شده اند. میانگین، اما از نظر پراکندگی بسیار متفاوت هستند، به طوری که فاصله زمانی معتبر 95% برای group_mu بسیار گسترده تر از group_mu است. mean_mu. quantile(jags_samples$mean_mu, c(0.025, 0.5, 0.975)) ## 2.5% 50% 97.5% ## -0.10804263 -0.00741235 0.09216414 quantile(jags_0,5$group) 0.5, 0.975)) ## 2.5% 50% 97.5% ## -0.262734656 -0.008996673 0.248624938 boxplot(jags_samples, outline=F, horizontal=T) ![http://imagetur. com/NieRD.png) **بنابراین اگر بخواهم در مورد گروه استنباط کنم منظورم این است که از کدام توزیع استفاده کنم، «group_mu» یا «mean_mu»**؟ برای من این واضح نیست و هر توضیحی که چرا یکی بر دیگری ترجیح داده می شود بسیار قدردانی می شود!
|
در تحلیل بیزی سلسله مراتبی هنگام استنباط در مورد معنای گروه از چه سطحی استفاده کنیم؟
|
8375
|
همه، من به دنبال ایجاد یک مدل پیشبینی برای پیشبینی ریزش هستم و به دنبال استفاده از یک مدل بقای گسسته زمانی هستم که بر روی مجموعه دادههای آموزشی دوره فرد (یک ردیف برای هر مشتری و دوره گسستهای که در معرض خطر بودند، با یک نشانگر برای رویداد) استفاده کنم. مساوی 1 اگر ریزش در آن دوره اتفاق افتاده باشد، در غیر این صورت 0). * من مدل را با استفاده از رگرسیون لجستیک معمولی با استفاده از تکنیک سینگر و ویلت برازش می کنم. * ریزش یک مشتری می تواند در هر جایی در طول یک ماه اتفاق بیفتد، اما فقط در پایان ماه است که از آن مطلع می شویم (یعنی زمانی در طول آن ماه که آنها رفته اند). 24 ماه برای آموزش استفاده می شود. * متغیر زمانی مورد استفاده، زمان مبدأ نمونه است - همه مشتریان فعال تا 12/31/2008 - همه آنها t=0 را از ژانویه 2009 دریافت می کنند (روش کلاسیک برای انجام آن نیست، اما من معتقدم به روشی که ساخت یک مدل پیش بینی در مقابل یک مدل آماری سنتی). متغیری که استفاده می شود، دوره تصدی مشتری در آن نقطه از زمان است. * یک سری متغیرهای کمکی ساخته شده اند - برخی از آنها در ردیف های مجموعه داده (برای یک مشتری معین) تغییر نمی کنند و برخی تغییر می کنند. * این متغیرهای کمکی متغیر زمانی موضوع هستند و آنچه باعث میشود من یک مدل بقا برای پیشبینی ریزش را زیر سؤال ببرم (در مقایسه با یک طبقهبندی معمولی که ریزش را در ماههای x آینده بر اساس دادههای عکس فوری پیشبینی میکند). موارد ثابت زمان، فعالیت ماه قبل را توصیف می کنند و انتظار می رود محرک های مهمی باشند. پیادهسازی این مدل پیشبینی، حداقل بر اساس تفکر فعلی من، امتیاز دادن به پایگاه مشتری در پایان هر ماه، محاسبه احتمال / خطر ریزش در زمانی در طول ماه آینده است. سپس دوباره برای 1،2 یا 3 ماه آینده. سپس برای 1،2،3،4،5،6 ماه آینده. برای احتمال ریزش 3 و 6 ماهه، من از منحنی بقای تخمینی استفاده خواهم کرد. **مشکل:** وقتی نوبت به فکر کردن به امتیاز دهی می رسد، چگونه می توانم پیش بینی کننده های متغیر با زمان را ترکیب کنم؟ به نظر میرسد که من فقط میتوانم با پیشبینیکنندههای زمان ثابت امتیاز بگیرم یا برای گنجاندن آنهایی که زمانناپذیر هستند، باید آنها را زمانناپذیر کنید – مقدار «در حال حاضر» را تنظیم کنید. آیا کسی تجربه یا نظری در مورد استفاده از مدل بقا دارد؟ **به روز رسانی بر اساس نظر JVM@:** مشکل در تخمین مدل، تفسیر ضرایب، ترسیم نمودارهای خطر/بقای مقادیر متغیر کمکی جالب با استفاده از داده های آموزشی و غیره نیست. مسئله در استفاده از مدل برای پیش بینی ریسک برای یک مشتری داده شده بگو در پایان این ماه، من می خواهم به همه کسانی که هنوز مشتری فعال هستند با این مدل امتیاز بدهم. من میخواهم تخمین ریسک را از x دورهها پیشبینی کنم (خطر بستن حساب در پایان ماه آینده. خطر بسته شدن حساب در پایان دو ماه از هماکنون و غیره). اگر متغیرهای کمکی متغیر زمانی وجود داشته باشد، مقادیر آنها در هر دوره آتی ناشناخته است، بنابراین چگونه می توان از مدل استفاده کرد؟ **به روز رسانی نهایی:** مجموعه داده های دوره یک فرد برای هر فرد و هر دوره زمانی که در معرض خطر هستند ورودی دارد. فرض کنید دوره های زمانی J وجود دارد (شاید J=1...24 برای 24 ماه) فرض کنید من یک مدل بقای زمانی گسسته می سازم، جایی که برای سادگی، زمان T را خطی در نظر می گیریم و دو متغیر کمکی X و Z داریم که در آن X زمان است. -invariant، به این معنی که در هر دوره برای شخص iثانیه ثابت است و Z زمان متغیر است، به این معنی که هر رکورد برای شخص i می تواند مقدار متفاوتی به خود بگیرد. برای مثال، X ممکن است جنسیت مشتریان باشد و Z ممکن است میزان ارزش آنها برای شرکت در ماه قبل باشد. مدل logit خطر برای نفر چهارم در دوره زمانی j: $logit(h(t_{ij}))=\alpha_{0}+\alpha_{1}T_{j}+\beta_{ 1}X_{i}+\beta_{2}Z_{ij}$ بنابراین مسئله این است که هنگام استفاده از متغیرهای کمکی تغییر زمان، و پیشبینی (به آیندهای که هنوز دیده نشده است) با داده های جدید، $Z_{j}$ ناشناخته است. تنها راهحلهایی که میتوانم فکر کنم این است: * از متغیرهای کمکی متغییر زمان مانند Z استفاده نکنید. این به شدت مدل را برای پیشبینی رویداد ریزش تضعیف میکند، زیرا، برای مثال، مشاهده کاهش Z به ما میگوید که مشتری در حال جدا شدن است و شاید آماده شدن برای رفتن * از متغیرهای کمکی متغیر با زمان استفاده کنید اما آنها را با تأخیر (مانند Z در بالا) استفاده کنید که به ما امکان میدهد هر چند دوره زمانی که متغیر با تأخیر مواجه شدهایم پیشبینی کنیم (دوباره به مدلی فکر میکنیم که دادههای فعلی جدید را امتیاز میدهد). * از متغیرهای کمکی متغیر با زمان استفاده کنید اما آنها را به عنوان ثابت در پیش بینی نگه دارید (بنابراین مدل برای داده های مختلف برازش داده شد، اما برای پیش بینی آنها را ثابت می گذاریم و شبیه سازی می کنیم که چگونه تغییرات در این مقادیر، اگر بعداً واقعاً مشاهده شوند، بر خطر ریزش تأثیر می گذارد. * استفاده کنید. متغیرهای کمکی با زمان تغییر می کنند، اما مقادیر آتی آنها را بر اساس پیش بینی از داده های شناخته شده، به عنوان مثال، برای هر مشتری پیش بینی کنید.
|
مدل بقا برای پیش بینی ریزش - پیش بینی کننده های متغیر زمان؟
|
22441
|
من در تلاش برای یافتن راه حلی برای مقایسه دو تست خوبی تناسب هستم. به طور دقیق تر، من می خواهم نتایج دو آزمایش مستقل را با هم مقایسه کنم. در این آزمایشها، نویسندگان از مربع کای برازش برای مقایسه حدسزنی تصادفی (فرکانسهای مورد انتظار) با فرکانسهای مشاهدهشده استفاده کردند. دو آزمایش تعداد شرکت کنندگان یکسانی داشتند و رویه های آزمایشی یکسان هستند، فقط محرک ها تغییر کردند. نتایج دو آزمایش حاکی از chi-square قابل توجهی بود (تعریف 1: X2(18)=45؛ p<.0005 و exp. 2: X²(18)=79؛ p<.0001). حالا کاری که میخواهم انجام دهم این است که آزمایش کنم که آیا بین این دو نتیجه تفاوت وجود دارد یا خیر. من فکر می کنم راه حل می تواند استفاده از فواصل اطمینان باشد اما نمی دانم چگونه این فاصله های اطمینان را فقط با این نتایج محاسبه کنم. یا شاید تستی برای مقایسه اندازه اثر (W کوهن)؟ کسی راه حلی داره؟ خیلی ممنون F.D.
|
فاصله اطمینان برای کای اسکوئر
|
110597
|
سوال من ساده است: آیا تابعی در R وجود دارد که مدل رگرسیون خطی را به روشی مشابه lm تخمین بزند، اما فقط با استفاده از میانگین، واریانس و کوواریانس (همبستگی)، یعنی آمار کافی؟ من به دنبال تابعی هستم که بتوانم این آمارها را وارد کنم (به اضافه حجم نمونه) و ضرایب رگرسیون و تست ها را برمی گرداند.
|
چگونه می توانم از آمار کافی (واریانس ها، کوواریانس ها، میانگین ها) برای تخمین مدل رگرسیون خطی در R استفاده کنم؟
|
66622
|
آیا متغیرهای کمکی متغیرهای تعدیل کننده در نظر گرفته می شوند یا متغیرهای کنترل؟ برای توضیح بیشتر در مورد سوالم، یک مطالعه تحقیقاتی انجام می دهم که دارای: 1. متغیرهایی که قرار است بر متغیر وابسته تأثیر بگذارند اما در هیچ تحلیلی در نظر نمی گیرند (مثلاً آزمایش انجام شده در طول روز) 2. متغیرهایی که به عنوان معیارهای خروج استفاده می شود، به طوری که برخی از افراد از تجزیه و تحلیل حذف (فیلتر) می شوند (به عنوان مثال، داشتن شرایط پزشکی) 3. متغیرهایی که قرار است بر روی متغیر وابسته و بنابراین من آن را به عنوان متغیرهای کمکی در مدل خود لحاظ می کنم (به عنوان مثال، GLM یا MANCOVA). هر یک از این سه نوع متغیر را چه می نامید؟
|
متغیرهای کمکی به عنوان متغیرهای تعدیل کننده یا کنترل در نظر گرفته می شوند؟
|
115271
|
به من دادههایی داده شده است که پیشبینی کنم، اما در داخل دادهها یک رقم منفی دارد که پس از انجام یک تبدیل گزارش برای ثابت کردن سری، اسکریپت ARIMA که من نوشتهام کار نخواهد کرد. datan<-c(144627.7451,575166.2487,854245.7137,1230639.153,1160052.421 ,479928.7072,-261427.4238,1181746.229,168251.621,556741.5149,1840484 0.518,1704679.404,1878380.278,1865288.502,1849340.253,1965974.112,209 3192.242,1912399.391,2633179.421,2134618.008,2070856.492,1238565.331) freqdata<-4 startdata<-c(9,2) horiz<-4 datats<-ts(datan,frequency=freqdata,start=startdata) force.log<-log datadates<-as.character(c(9q2،9q3،9q4،10q1،10q2،10q3،10q4،11q1،11q2،11 q3، 11q4، 12q1، 12q2، 12q3، 12q4، 13q1،13q2،13q3،13q4،14q1،14q2،14q3 )) dataMAT<-matrix(0,ncol=freqdata,nrow=(length(datats)+freqdata),byrow=TRUE) برای (i در 1:freqdata) {dataMAT[,i]<-c(rep(0,length= i-1)، تاخیر (دادهها، k=-i+1)، تکرار (0، طول = دادههای فرکانس-i+1))} dataind<-dataMAT[c(-1:(-freqdata+1),-(length(dataMAT[,1])-freqdata+1):-(length(dataMAT[,1])))،] dataind2<- data.frame(dataind) lm1<-lm(X1~.,data=dataind2) lm2<-lm(X1~X2+dataind2[,length(dataind2[1,])],data=dataind2) library(lmtest) library(car) bptest1<-bptest(lm1) bptest2<-bptest(lm2) gqtest1< -gqtest(lm1) ncvtest1<-ncvTest(lm1) ncvtest2<-ncvTest(lm2) if(force.log==level) {aslog<-n}else {{if(force.log==log) {aslog<-y}else {if(bptest1$p.value<0.1|bptest2$p.value<0.1|gqtest1$p.value<0.1|ncvtest1$p<0.1|ncvtest2$p<0.1) {aslog<-y}دیگر {aslog <-n}}}} if(aslog==y) {dataa<-log(datats)}دیگر {dataa<-datats} startLa<-startdata[1]+trunc((1/freqdata)*(length(dataa)-horiz)) startLb<-1+((1/freqdata)*(length(dataa)-horiz )-trunc((1/freqdata)*(length(dataa)-horiz)))*freqdata startL<-c(startLa,startLb) K<-ts(rep(dataa,length=length(dataa)-horiz),frequency=freqdata,start=startdata) L<-ts(dataa[-1:-(طول( dataa)-horiz)],frequency=freqdata,start=startL) library(strucchange) efp1rc<-efp(lm1,data=dataind2,type=Rec-CUSUM) efp2rc<-efp(lm2,data=dataind2,type=Rec-CUSUM) efp1rm<-efp(lm1,data=dataind2,type Rec-MOSUM) efp2rm<-efp(lm2,data=dataind2,type=Rec-MOSUM) plot(efp2rc) lines(efp1rc$process,col =darkblue) plot(efp2rm) lines(efp1rm$process,col=darkblue ) gefp2<-gefp(lm2,data=dataind2) plot(gefp2) plot(dataa) pacf(dataa) sctest(efp2rc) cat(log series,y/n?:,aslog) سپس میخواهم arima را اجرا کنم تا کتابخانه پیشبینیها (tseries) library(forecast) max.sdiff<- 3 arima.force.seasonality<-n kpssW<-kpss.test(dataa,null=Level) ppW<-tryCatch({ppW<-pp.test(dataa,alternative=stationary)},error=function(ppW){ppW<-list(error=TRUE,p.value=0.99)}) adfW <-adf.test(dataa,alternative=stationary,k=trunc((length(dataa)-1)^(1/3))) if(kpssW$p.value<0.05|ppW$p.value>0.05|adfW$p.value>0.05) {ndiffsW=1}دیگر {ndiffsW=0} aaW<-auto.arima(dataa,max.D=max.sdiff,d=ndiffsW,seasonal=TRUE,allowdrift=FALSE,stepwise=FALSE,trace=TRUE,seasonal.test=ch) orderWA<-c( aaW$arma[1],aaW$arma[6],aaW$arma[2]) orderWS<-c(aaW$arma[3],aaW$arma[7],aaW$arma[4]) if(sum(aaW$arma[1:2])==0) {orderWA[1]<- 1}دیگر {NULL} if(arima.force.seasonality==y) {if(sum(aaW$arma[3:4])==0) {orderWS[1]<-1}else {NULL}}else {NULL} Arimab<-Arima(dataa,order=orderWA,seasonal=list(order=orderWS),method=ML) fArimab<-forecast(Arimab ,h=8, simulate=TRUE,fan=TRUE) if(aslog==y) {fArimabF<-exp(fArimab$mean[1:horiz])}دیگر {fArimabF<-fArimab$mean[1:horiz]} plot(fArimab,main=ARIMA Forecast,sub=blue=fitted,red= واقعی) خطوط (dataa,col=red,lwd=2) #رنگ و اندازه dataa را تغییر می دهد lines(ts(append(fitted(Arimab),fArimab$mean[1]),frequency=freqdata,start=startdata),col=blue,lwd=2) if(aslog==y) {Arimab2f< -exp(fArimab$mean[1:horiz])}دیگر {Arimab2f<-fArimab$mean[1:horiz]} start(fArimab$mean)->startARIMA ArimaALTf<-ts(prettyNum(Arimab2f,big.interval=3L,big.mark=,),frequency=freqdata,start=startARIMA) نمایش(ArimaALTf,title=ARIMA2 final پیش بینی) #جدول خلاصه پیش بینی ها را می آورد (آریماب) اگر کسی می تواند کمک کند من بفهمم که چگونه این داده ها را با منفی پیش بینی کنم، واقعاً سپاسگزار خواهم بود!
|
تبدیل یک سری زمانی با عدد منفی
|
8377
|
من دانشجوی سال اول روانشناسی هستم. من در حال انجام کارهای تحقیقاتی با یک پروفسور هستم، متأسفانه مطالبی که در حال حاضر باید از آنها استفاده کنم فقط در سال دوم من پوشش داده شده است. اما الان باید از قبل بدانم. بنابراین من در حال سوزاندن منابعی هستم که می توانم پیدا کنم تا به سرعت به سرعت برسم. من برای درک این وضعیت خاص در اینجا به کمک نیاز دارم. شامل SAS، تجزیه و تحلیل رگرسیون. وقتی یک رگرسیون در SAS (proc reg) با استفاده از دو متغیر a و b اجرا کردم. اینو گرفتم من این را به این صورت می فهمم که هر دو این متغیرها (a&b) به طور قابل توجهی متغیر هدف من را پیش بینی نمی کنند. در اینجا خروجی SAS است. تجزیه و تحلیل مجموع واریانس مجموع میانگین منبع DF مربعات مربع F مقدار Pr > F مدل 2 3.32392 1.66196 1.00 0.3774 خطا 46 76.80649 1.66971 تصحیح شده مجموع 48 80.13017S29 R. 0.0415 میانگین وابسته -0.23698 Adj R-Sq -0.0002 Coeff Var -545.26074 پارامتر تخمین پارامتر متغیر استاندارد استاندارد شده DF برآورد خطا t مقدار Pr > |t| تخمین رهگیری 1 -0.25713 0.18515 -1.39 0.1716 0 a 1 -0.35394 0.28797 -1.23 0.2253 -0.19510 b 1 -0.04706 I -0.04706 0.395806 - 0.39589 - سعی شد تعامل a و b را در تصویر لحاظ کند. اجازه دهید آن را aXb بنامیم، اکنون خروجی نشان می دهد که a و aXb به طور قابل توجهی متغیر هدف من را پیش بینی می کنند. تجزیه و تحلیل مجموع واریانس مجموع میانگین منبع DF مربعات مربع F مقدار Pr > F مدل 3 16.64439 5.54813 3.93 0.0142 خطای 45 63.48602 1.41080 تصحیح شده مجموع 48 80.13017SR. 0.2077 میانگین وابسته -0.23698 Adj R-Sq 0.1549 Coeff Var -501.20683 پارامتر تخمین پارامتر متغیر استاندارد استاندارد شده DF برآورد خطا t مقدار Pr > |t| تخمین رهگیری 1 -0.06807 0.18098 -0.38 0.7086 0 a 1 3.01517 1.12795 2.67 0.0104 1.66201 b 1 -0.00994 0.36030307 -0.360309 -0. aXb 1 -1.13782 0.37029 -3.07 0.0036 -1.90743 ** در اینجا سؤالات من وجود دارد:** من مطمئن نیستم که از این وضعیت چه کنم. روی هم رفته این چه چیزی را به من نشان می دهد؟ همچنین در حالی که به این سوال پاسخ می دهید، می توانید آن را با برخی منابع، کلمات کلیدی goog و غیره تکمیل کنید تا من درباره این موضوعات بیشتر بیاموزم. از کمک شما بسیار سپاسگزارم.
|
درک خروجی رگرسیون چندگانه
|
110845
|
مجموعه داده من یک مجموعه داده پانل سالانه در مورد درآمد افراد، سال بیکاری و تعدادی از متغیرهای جمعیتی است. من یک رگرسیون OLS به شکل $y_{it} = \sum _{j=1} ^n D_{j,it} \beta_j + \sum_k x_k\delta_k + u_{it}، $ که $y$ نشان میدهد اجرا میکنم درآمد و $D_1,...,D_n$ متغیرهای ساختگی متقابل $n$ هستند که نشان دهنده زمان بیکاری هستند. آنها متقابل هستند زیرا بیکاری دقیقا یک بار اتفاق می افتد. به عنوان مثال، اگر $D_1$=1 و همه آدمک های دیگر برابر با 0 باشند، آنگاه فرد 1 سال قبل بیکار بوده است. سایر متغیرهای کمکی با $x_k,k=1,...,K$ نشان داده می شوند که همگی متغیرهای ساختگی هستند. علاوه بر این، $i$ نشان دهنده افراد، $t$ نشان دهنده زمان است. بعد از تخمین، متغیر $c = \frac{\hat{\beta_3}-\hat{\beta_2}}{\bar{y}}$ را میسازم که $\hat{\beta_j}$ تخمین پارامتر مربوط به $D_j$ و $\bar{y}$ میانگین پیشبینی شده $y$ برای کسانی است که $D_2 = 1$ دارند. توجه داشته باشید که $\hat{\beta_3}-\hat{\beta_2}$ بیانگر تفاوت تخمینی درآمد بین بیکار شدن 2 نسبت به 3 سال قبل است. علاوه بر این، $\bar{y}$ درآمد پیش بینی شده برای افرادی است که 2 سال قبل بیکار شده اند. بنابراین، $c$ درصد تخمینی تغییر درآمد از 2 تا 3 سال پس از بیکاری است. سوال من این است: چگونه می توانم واریانس $c$ را بسازم؟ حدس میزنم واریانس صورتگر باید $var(\hat{\beta_2})+var(\hat{\beta_3})-2covar(\hat{\beta_2},\hat{\beta_3})$ باشد - اما چگونه آیا واریانس کل چیز را می سازم؟
|
واریانس یک متغیر ساخته شده از تخمین پارامترها و مقادیر پیش بینی شده یک رگرسیون خطی
|
8370
|
من ماتریسی از اعداد حقیقی مثبت بین 0 و 1 دارم. سطرها نشان دهنده ژن ها و ستون ها نشان دهنده نمونه ها هستند. تعداد سطرها با بزرگی 10^4$ از تعداد ستون ها بیشتر است. من در تعجبم که چگونه این را در R تجسم کنم. می دانم که نقشه حرارتی یکی از راه های انجام این کار است، اما آیا ایده های دیگری نیز وجود دارد. در اینجا چند نکته وجود دارد که می خواهم در تجسم بر آنها تأکید کنم: **داده ها:** 1. ردیف ها و ستون ها ترتیبی ندارند (همانطور که ممکن است قبلاً متوجه شده باشید). به طور خاص سطرها و ستون ها قابل تعویض هستند. 2. ورودی های ماتریس اعداد حقیقی مثبت بین 0 و 1 هستند. 3. بخش کوچکی از داده ها (10% از ردیف ها یا ژن ها، حدود 1000) در واقع جالب هستند. 4. ماتریس نشان دهنده احتمال تخمین زده شده فعال تر بودن ژن ها در یک نمونه است. **هدف:** 1. من می خواهم نشان دهم: کدام ژن فعال تر است و در کدام نمونه. ماتریس دارای ردیف های زیادی است که در آن ها احتمالات در ستون ها بسیار مشابه است. 2. من با نظم دادن به ردیف ها (ژن ها) برای واضح تر شدن الگو مشکلی ندارم. ** افکار من: ** در حال حاضر می توانم با انتخاب یک برش (مثلا $\ge 95\%$) ژن های فعال را در یک نمونه تعیین کنم و ژن ها را به گونه ای مرتب کنم که اولین مجموعه ردیف ها ژن های فعال در نمونه باشند. 1، مجموعه دوم ردیفها ژنهای فعال در نمونه 2 هستند، ... من همچنین به تجسم زیر مجموعهای از دادهها فکر میکردم، ممکن است با نمونهبرداری از ردیفها باشد. اما هیچ موفقیتی نداشتم. میدانم که این ایدهها ممکن است خیلی ظریف نباشند، اما دادههای من را به گونهای تنظیم میکنند که الگو را بیشتر قابل تشخیص میکند. من می دانم که قبلاً سؤالات مشابهی پرسیده شده است، اما فکر می کردم سؤال من کمی دقیق تر است، بنابراین امیدوارم بتوانم ورودی های بهتری از اعضای این انجمن دریافت کنم.
|
چگونه یک ماتریس را با تعداد ردیف $\gg$ تعداد ستون تجسم/خلاصه کنیم؟
|
92100
|
این مقاله از یک مدل ترکیبی خطی تعمیم یافته با فرض توزیع دو جمله ای برای خطاها استفاده می کند. در بخش نتایج، از آماره F و P-value مرتبط برای مدل استفاده میشود (صفحه 2150، پاراگراف شروع «مردان و مونثها نیز متفاوت بودند») من فکر میکردم که آماره F فقط در ANOVA و رگرسیون خطی قابل استفاده است. آیا کسی می تواند به من بگوید که چگونه و چرا از آماره F در رگرسیون لجستیک در مقاله پیوندی استفاده می شود؟
|
استفاده از آماره F در رگرسیون لجستیک
|
111461
|
تفاوت بین رگرسیون خطی سلسله مراتبی و رگرسیون چندگانه تعدیل شده چیست؟ اگر یک و دو متغیر تعدیل کننده داشته باشم و مدل های من عبارتند از: * مدل 1- IV * مدل 2- اضافه کردن دو ModV * مدل 3- اضافه کردن تمام اصطلاحات تعاملی، مدل من HLM است یا MMR؟
|
تفاوت بین رگرسیون خطی سلسله مراتبی و رگرسیون چندگانه تعدیل شده
|
32504
|
در 2 ماه گذشته، من سعی کردم هر نوع رگرسیون چند متغیره را انجام دهم، اما شانس زیادی نداشتم. شنیده ام که Octave برای این نوع کارها ساده تر و شهودی تر است، بنابراین فکر کردم آن را امتحان کنم. در اینجا یک نسخه ساده شده از نوع داده ای است که من استفاده می کنم: روز = [4، 5، 6، 8] دما = [97، 100، 98، 80] رطوبت [62، 46، 50، 55] من می خواهم برای استفاده از این داده ها و برون یابی دما برای روز 7 و روز 9. آیا هیچ آموزشی وجود دارد که به طور واضح و مختصر نحوه انجام این کار را با اکتاو؟ یا شاید کسی اینجا بتواند به من بگوید که از کدام دستورات اکتاو برای انجام این کار استفاده کنم؟ کمک شما بسیار قدردانی خواهد شد.
|
رگرسیون چند متغیره ساده با اکتاو
|
16665
|
من با R و ANOVA اجرا کردم و تفاوت های قابل توجهی پیدا کردم. با این حال، هنگام بررسی اینکه کدام جفت ها با استفاده از روش Tukey تفاوت قابل توجهی دارند، هیچ یک از آنها را دریافت نکردم. این چگونه ممکن است؟ کد اینجاست: fit5_snow<- lm(Response ~ Stimulus, data=audio_snow) anova(fit5_snow) > anova(fit5_snow) تجزیه و تحلیل جدول واریانس پاسخ: پاسخ Df Sum Sq Mean Sq F value Pr(>F) 173.7.5 Stimulus 17.7.5 2.6308 0.02929 * باقیمانده 84 471.20 5.6095 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 df<-df.residual(fit5_snow) MSerror<-deviance(fit5_snow)/df مقایسه <- HSD.test(audio_snow$Response, audio_snow$Stimulus, df, MSerror, group=FALSE) > مقایسه <- .test(audio_snow$Response, audio_snow$Stimulus, df, MSerror, group=FALSE) مطالعه: تست HSD برای audio_snow$Response میانگین مربع خطا: 5.609524 audio_snow$Stimulus، یعنی audio_snow.Response std.err replication snow_dry_leaves.3309530 snow_gravel 6.866667 0.5679258 15 snow_metal 6.333333 0.5662463 15 snow_sand 6.733333 0.5114561 15 snow_snow 7.3333315 40659 4095 0.7713110 15 آلفا: 0.05 ; خطای Df: 84 مقدار بحرانی محدوده دانشآموزی: 4.124617 مقایسه بین تیمارها به معنای تفاوت pvalue sig LCL UCL snow_gravel - snow_dry_leaves 1.9333333 0.232848 -0.5889913 4.48_dry_vele 1.4000000 0.588616 -1.1223246 3.922325 برف_شن - برف_خشک_برگ 1.8000000 0.307012 -0.7223246 4.322325 4.322325 برف_برف_40_برف_40_برف_0. 0.071587 . -0.1223246 4.922325 برف_چوب - برف_خشک_برگ 0.1333333 0.999987 -2.3889913 2.655658 برف_شن - برف_فلز 0.53333333 0.9333333 0.98958 -18958 شن_برف - برف_شن 0.1333333 0.999987 -2.3889913 2.655658 برف_برف - برف_شن 0.4666667 0.994348 -2.0556579 2.999908 2.988991 چوب برف 0.307012 -0.7223246 4.322325 snow_sand - snow_metal 0.4000000 0.997266 -2.1223246 2.922325 snow_snow - snow_metal 1.000000000 - برف_فلز 1.000000000 3.522325 snow_metal - snow_wood 1.2666667 0.687424 -1.2556579 3.788991 snow_snow - snow_sand 0.6000000 0.982179 -1.9223_2246 -1.9223_2246 -235. 1.6666667 0.393171 -0.8556579 4.188991 snow_snow - snow_wood 2.2666667 0.103505 -0.2556579 4.788991
|
چگونه می توانم ANOVA کلی قابل توجهی داشته باشم اما تفاوت دوتایی قابل توجهی با روش توکی نداشته باشم؟
|
51084
|
من سعی می کنم یک مقاله تحقیقاتی را درک کنم، اما با چند مشکل مواجه هستم، هر کمکی واقعا قدردانی می شود. یک فرآیند مارکوف سه حالته با احتمالات انتقال برای حالت ها: 0 --> -1 = λ(1-u)+s 0 --> 1 = λu 1 --> 0 = μ من یک سیستم معادلات رو به جلو کولموگروف دارم P '-1(t) = (λ(1-u)+s)P0(t) P'0(t) = -(λ+s)P0(t)+ μP1(t) P'1(t) = -μP1(t) + λuP0(t) و من باید راه حلی برای P0(t) و P1(t) پیدا کنم که احتمال این است که فرآیند در هر دو حالت 0/1 در دوره زمانی باشد. 't'. می خواستم بدانم آیا کسی می تواند راه حلی برای این سیستم معادلات به دست آورد. (اگر مرتبط باشد، مقاله پژوهشی از روش نمرات جمعی ون دانتسیگز استفاده میکند، اما این تنها مرحلهای است که من آن را دنبال نمیکنم) از هرگونه بینش مرتبط بسیار قدردانی میشود! با تشکر
|
روش رویدادهای اضافی برای فرآیند مارکوف دو حالته
|
56508
|
من می خواهم فاصله اطمینان را برای تابع همبستگی خود محاسبه کنم. آیا این محاسبه با روش معمولی محاسبه فواصل اطمینان تفاوتی دارد؟ چگونه می توانم CF را برای همبستگی متقابل بین دو سری زمانی محاسبه کنم؟ ممنون میشم اگه راهنمایی کنید =)
|
چگونه فاصله اطمینان را برای توابع همبستگی خودکار و همبستگی متقابل محاسبه کنیم؟
|
85373
|
من 2 سری زمانی دارم.  هر دو سری تورم را دنبال میکنند. (فرکانسهای نمونهگیری متفاوتی دارند) آبی CPI رسمی منتشر شده توسط دولت ایالات متحده است. قرمز معیار تورم یک گروه مستقل است اگر اجازه بدهم خط آبی حالت اساسی سیستم باشد و خط قرمز داده ورودی نویزدار باشد، آیا می توانم وضعیت سیستم را با استفاده از خط قرمز تخمین بزنم (و شاید برخی متغیرهای توضیحی دیگر که فکر می کنم). معتبر هستند) من قبلاً یک مدل رگرسیون نمونهگیری دادههای مختلط (MIDAS) را به این دادهها برازش میدهم، اما مدلهای دیگری را میخواهم تا بتوانم پیشبینیها را مقایسه کنم.
|
آیا این یک برنامه معتبر برای فیلتر کالمن است؟
|
110595
|
میخواستم بدانم که آیا روش خاصی برای تبدیل نتایج رگرسیون پروبیت به احتمال عضویت یک آزمودنی در گروه 1 (در مقابل گروه 0) وجود دارد، اگر متغیر وابسته را به 2 گروه تقسیم کنید (مثلاً موفقیت در مقابل شکست). می دانم که برای رگرسیون لجستیک از لوجیت معکوس مجموع ضرایب * مقادیر موضوع + ثابت استفاده می کنید، اما من از نحوه انجام آن با پروبیت مطمئنم راهی وجود دارد زیرا Stata میتواند توانایی مدل را برای طبقهبندی با طبقهبندی estat بررسی کند. من در درجه اول در حال حاضر از R برای تجزیه و تحلیل داده های خود استفاده می کنم، بنابراین اگر می دانید چگونه این کار را در R انجام دهید، از کمک شما حتی بیشتر سپاسگزارم (در حال حاضر از inv.logit از بسته بوت استفاده می کنم.)
|
احتمال و احتمال عضویت در یک گروه
|
112737
|
اگر سطوح پراکندگی مختلف را انتخاب کنیم (یعنی کنترلهای $\lambda$)، میتوانیم راهحلهای متفاوتی با سطوح پراکندگی مختلف به دست آوریم. آیا به این معنی است که مسیر منظم سازی نحوه انتخاب مختصاتی است که می تواند همگرایی سریع تری داشته باشد؟ من کمی گیج هستم اگرچه اغلب در مورد پراکندگی آن دل میکنم. علاوه بر این، لطفاً توضیح ساده ای در مورد راه حل های موجود برای مسئله «LASSO» بدهید؟ پیشاپیش متشکرم
|
منظور از مسیر منظم سازی در کمند یا مشکلات پراکندگی مربوط به آن چیست؟
|
51081
|
من وظیفه دارم یک مدل بیزی برای حمایت از تصمیم گیری برای بازاریابی جستجوی پولی بسازم. من به صورت آنلاین تحقیق کردهام و چندین مقاله علمی در مورد استفاده از مدل بیزی سلسله مراتبی یا MCMC در تخمین پارامترهای مدل پیدا کردهام، اما هنوز جزئیات را متوجه نشدهام. آیا در جایی مثال خوبی وجود دارد که هم مدل و هم نحوه استفاده از یک بسته نرم افزاری برای تخمین گام به گام پارامترها را توضیح دهد؟ متشکرم!
|
آیا کسی می تواند به من یک مثال خوب از استفاده از مدل های بیزی برای تصمیم گیری بازاریابی اشاره کند؟
|
3623
|
من یک رگرسیون لجستیک (برای مرجع در SAS) با پیشبینیکنندههای پیوسته و مقولهای (با کدگذاری مرجع) و یک عبارت تعاملی بین یکی از هر نوع دارم (فعلاً فرض کنید که متغیر طبقهبندی مورد نظر دارای سه سطح پاسخ است، مرجع کدگذاری شده به $c_1$ و $c_2$): $logit(p) = a + (اصطلاحات پیوسته) + (اصطلاحات طبقه بندی) + b_1 (c_1 x) + b_2 (c_2 x)$ که در آن $b_1$ و $b_2$ ضرایب تخمینی از کد من هستند. از این به وضوح می توانم یک عبارت برای احتمال $p$ نتیجه خود دریافت کنم. من میخواهم میانگین p را با وارد کردن میانگینهای مستمر و نسبتهای عبارات طبقهای تخمین بزنم. اما با اصطلاح(های) تعامل چه کار کنم؟ آیا $(c_i x) = mean(x)$ را تنظیم کنم؟ یا آن را روی $proportion(c_i)mean(x)$ قرار دهم؟
|
وصل کردن مقادیر/نسبتهای میانگین به یک رگرسیون لجستیک با تعامل گسسته پیوسته
|
26508
|
> **تکراری احتمالی:** > تجزیه و تحلیل PCA با متغیرهای مرکزی در تجزیه و تحلیل PCA من در یک جزء دارای متغیرهای منفی و مثبت هستم. این احتمالاً بسیار ابتدایی است، اما چیزهای مختلفی در مورد تفسیر متغیرهای درون یک جزء به من گفته شده است، بنابراین من فقط نیاز به توضیح دارم. اول؛ آیا به این صورت است که مقادیر منفی درون یک جزء در یک جهت و مثبت در عکس حرکت می کنند؟ یا اینکه من فقط باید به مقادیر مطلق متغیرهای درون یک جزء نگاه کنم؟
|
در مورد مقادیر منفی درون یک جزء در تجزیه و تحلیل PCA چه می کنید؟
|
51089
|
من یک جدول احتمالی برای آزمایش نتیجه باینری خود تشکیل دادهام که در سؤال قبلیام مورد بحث قرار گرفته است: آزمایش نتیجه باینری یکی از فرضیههای من میگوید که زنان در شناسایی اتومبیلها بهتر هستند و من سعی میکنم از **آزمایش مربع کای** استفاده کنم. بنابراین من جدولی مانند این دریافت می کنم که در آن همه پیش بینی ها را خلاصه کرده ام: | دوچرخه پیش بینی شده (واقعی 100) | ماشین پیش بینی شده (واقعی 100)| مرد | 50 | 50 | زن | 40 | 60 | من 2 سوال در رابطه با فرمول بالا دارم. 1. آیا راهی وجود دارد که بتوانم تصویر واقعی را توضیح دهم؟ من اساساً می خواهم این فرضیه بگوید که زنان در تشخیص **صحیح** تصاویر ماشین بهتر هستند. 2. با استفاده از تست Chi-Square می توانم ثابت کنم که پیش بینی لاستیک مستقل/وابسته به جنسیت است. با این حال، اگر وابسته است، آیا عدد واقعی می تواند ثابت کند که ماده ها بهتر از مردان هستند؟ اگر نه، کسی می تواند به من در این مورد کمک کند!
|
تست مربع چی - تجزیه و تحلیل نتیجه باینری
|
3628
|
از خروجی یک رگرسیون لجستیک در JMP، من در مورد دو متغیر باینری خواندم: تخمین Var1 -0.1007384 تخمین Var2 0.21528927 و سپس نسبت شانس برای Var1 lev1/lev2 1.2232078 متقابل 0.81752125 برای Varlev2 Odds. 0.6501329 متقابل 1.5381471 اکنون «1.2232078» را به عنوان «exp(2*0.1007384)» به دست میآورم، و به طور مشابه برای سایر نسبت شانس. بنابراین، سوال من این است: چرا باید در دو ضرب کنم؟ آیا رابطه بین ضریب c و نسبت شانس آن r برابر با r=exp(c) است؟ اینطور نیست؟
|
رابطه بین ضریب رگرسیون لجستیک و نسبت شانس در JMP
|
110337
|
من یک رگرسیون لجستیک و برای اندازه گیری رابطه بین دو متغیر (Categorical) اجرا می کردم. من از شبه R-squared مک فادن به عنوان معیار استفاده کردم. متوجه شدم که متغیرهای خاصی مقدار R-squared نزدیک به 1 را نشان می دهند. چگونه باید این مقدار را تفسیر کنم؟ اساساً، R = 1-ln(Lm)/ln(L0) مک فادن در اینجا Lm - احتمال مدل L0 - احتمال زمانی که فقط از Intercept استفاده میکنید، بنابراین اگر R 0.99 باشد، به این معنی است که Lm در مقایسه با L0 بسیار کوچک است. آیا این بدان معناست که این دو متغیر کاملاً همبسته هستند؟
|
Pseudo-R2 مک فادن بسیار بالاست
|
32501
|
با توجه به توصیه user603، من یک تاپیک جدید برای این سوال باز کردم. برای مرجع شما، سوال اصلی اینجاست: اشاره گرهایی برای درک بهتر rlm در R؟ * * * سوال من این است: چگونه rlm برای هر تکرار IRLS w خود را تعیین می کند؟ همچنین، آیا درک من در زیر صحیح است؟ آرگومان ورودی w برای مقادیر اولیه وزن دهی rlm IRLS استفاده می شود و مقدار خروجی w همان w همگرا است. آرگومان ورودی وزن در واقع همان چیزی است که من می خواهم اعمال کنم. و وزنهای واقعی/واقعی حاصل ضرب «وزنها» (من ارائه کردم) و خروجی همگرا «w» (خروجی) هستند. با تشکر از همه.
|
rlm در R چگونه وزن w خود را تعیین می کند؟
|
93273
|
من اتفاقاً رگرسیون خطی زیادی انجام میدهم، مورد استفاده معمولی پیشبینی $Y$ با چند پیشبینی کننده است که میگویند $X = [X_1;X_2;X_3]$. بنابراین ما $\hat{\beta}$ را چنین می یابیم که $$\hat{\beta} = \underset{\beta}{argmin} ||Y-X.\beta||^2$$ اما در واقع من بیشتر هستم علاقه مند به یافتن تخمین خطی $Y$ به طوری که $$corr(Y,\hat{Y}) = corr(Y,X.\hat{\beta})$$ حداکثر باشد. من از این واقعیت آزارم میدهد که برای $\beta_0$ معین، $corr(Y,X.a.\beta_0)$ برای همه $a$ یکسان است، سوالها پس از آن آیا تخمینگر خطی بهینه $\beta$ حداقل است؟ معنای مربع نیز در عبارت همبستگی من بهینه است، و اگر بله باید اذیت شوم که $\beta$ بهینه منحصر به فرد نیست؟
|
ارتباط بین رگرسیون خطی و همبستگی
|
110598
|
برای مشکل زیر به کمک نیاز دارم. من راه حل فعلی (جزئی) خود را ارائه کردم، و امیدوارم کسی بتواند من را اصلاح کند و/یا پیشنهاداتی در مورد چگونگی حل قسمت هایی که از قلم انداخته ام به من بدهد. > با توجه به SVM با هسته: > > $$K(x,z) = \theta(x)^T \theta(z) = \left\\{ \begin{array}{ll} 1 & \text{if } > x = z \\\ 0 & \text{در غیر این صورت} \end{array} \right.$$ > > به ما نمونههای آموزشی $N$ داده شده است $(x_1، y_1) \ldots (x_N، y_N)$ با $y_i > = \pm 1$. برای سادگی، فرض کنید که $x_i$ها متمایز هستند، و ما > فقط SVM را در نظر می گیریم که در آن ابرصفحه در فضای ویژگی از مبدا عبور می کند، به عنوان مثال، وقفه $b=0$. > > 1. به یاد بیاورید که بردار وزن $w$ استفاده شده در SVM به شکل > $$w = \sum_{i=1}^N \alpha_i y_i \theta(x_i)$$ $\alpha_i$ را محاسبه کنید > به صراحت که با استفاده از SVM با این هسته پیدا می شود. > > 2. به یاد بیاورید که الگوریتم SVM یک طبقه بندی کننده را خروجی می دهد که در ورودی $x$، علامت $w^T \theta(x)$ را محاسبه می کند. ارزش این محصول داخلی > در مثال آموزشی $x_i$ چقدر است؟ ارزش این محصول داخلی > در هر نمونه $x$ که در طول آموزش دیده نمی شود چقدر است؟ بر اساس این پاسخ ها، > انتظار دارید چه نوع خطای تعمیم توسط SVM ها > با استفاده از این هسته به دست آید؟ > > 3. به یاد بیاورید که خطای تعمیم SVMها را می توان با استفاده از > margin $\delta$ (که برابر است با $1/\|w\|$)، یا با استفاده از تعداد > بردارهای پشتیبانی محدود کرد. $\delta$ در این مورد چیست؟ در این مورد چند بردار پشتیبان > وجود دارد؟ چگونه این پاسخ ها با پاسخ شما در > بخش (2) مطابقت دارند؟ > > برای قسمت (1)، شکل دوگانه تابع هدف را به حداکثر رساندم $$ \max_{\alpha} \sum_{n=1}^N \alpha_n - \frac{1}{2} \sum_{n= 1}^N \sum_{m=1}^N y_n y_m \alpha_n \alpha_m K(x_n، x_m) $$ با توجه به محدودیتهای $\alpha_n \geq 0، n=1،\ldots،N$ و $\sum_{n=1}^N \alpha_n y_n = 0$. من این کار را با تشکیل لاگرانژ $$ \mathcal{L}(\alpha, \beta, \lambda) = \sum_{n=1}^N \alpha_n - \frac{1}{2} \sum_{n= انجام دادم 1}^N \sum_{m=1}^N y_n y_m \alpha_n \alpha_m K(x_n، x_m) - \sum_{n=1}^N \beta_n \alpha_n - \lambda \sum_{n=1}^N \alpha_n y_n $$ سپس مشتق را با توجه به $\alpha_i$ گرفته و آن را روی صفر قرار دهید. راه حلی که برای $\alpha_i$ گرفتم، $$ \alpha_i = \frac{1}{y_i} \left[ \frac{1}{y_i} - \frac{1}{N} \sum_{n=1} است. ^N \frac{1}{y_n}\right] $$ برای قسمت (2)، با جایگزین کردن $\alpha_i$ موجود در قسمت (1) در محصول داخلی $$ w^T شروع کردم. \theta(x) = \sum_{j=1}^N \alpha_j y_j \theta(x_j)^T \theta(x) $$ وقتی $x_i$ در مجموعه آموزشی باشد، من $$ w^T \ دریافت می کنم تتا(x_i) = \frac{1}{y_i} - \frac{1}{N} \sum_{n=1}^N \frac{1}{y_n} $$ وقتی $x$ باشد در مجموعه آموزشی نیست، من $$ w^T \theta(x) = 0 $$ دریافت می کنم آیا این درست است که این نشان می دهد که هسته عملکرد تعمیم ضعیفی دارد؟ آیا راهی وجود دارد که بتوانم آن را به صورت رسمی نشان دهم؟ در نهایت، برای قسمت (3)، من $\delta$ توسط $$ \delta = \frac{1}{\|w\|} = \frac{1}{\sqrt{\sum_{n=1} دریافت کردم. N \alpha_n^2 y_n^2}} $$ چگونه تعداد بردارهای پشتیبانی را محاسبه کنم؟ و این چه ارتباطی با قسمت (ب) دارد؟
|
سوال ماشین وکتور پشتیبانی
|
55703
|
آیا کسی قبلاً تجربه برخورد با جفریس را دارد؟ من در حال حاضر با مدل سلسله مراتبی کار می کنم که گفته می شود پارامتر σ^2 از توزیع نرمال بر اساس توزیع گامای معکوس از جفریس قبلی انتخاب شده است. چگونه باید کار کند؟ و چرا از توزیع گامای معکوس اغلب به عنوان قبلی برای واریانس استفاده می شود؟ در برخی از ارائهها متوجه شدم که میتوانم Jeffreys را بهعنوان مثال IG(0.001،0.001) انتخاب کنم، اما وقتی آلفا و بتا هر دو <1 هستند، عملکرد گاما به طرز عجیبی رفتار میکند. اگر بخواهم مقادیری از IG(0.001,0.001) در R با کدهایی مانند a=rgamma(1000,0.001,0.001) aa=1/a mean(aa) تولید کنم، مقدار Inf را دریافت می کنم زیرا همه مقادیر a نزدیک به 0 هستند. و برخی از آنها دقیقا 0 هستند. پس چگونه باید جفریز را انتخاب کرد؟
|
Jeffreys برای توزیع گامای معکوس
|
93272
|
من 480 رکورد را به یک مدل درخت رگرسیون برازش داده بودم و آن را با مجموعه داده های اعتبارسنجی 120 رکوردی اعتبارسنجی کردم (من از تقسیم 80/20 استفاده کردم)، خطای پیش بینی MSE را حدود 5.6037 محاسبه کردم. درخت رگرسیون: rpart(فرمول = HeatLoad ~ RelComp + SurfA + WallA + RoofA + Height + Orient + GlazeA + GlazeD, data = EnergyE.train) متغیرهایی که واقعاً در ساخت درخت استفاده می شوند: [1] خطای گره ریشه GlazeA SurfA: `49168/ 480 = 102.43` n = 480 CP nsplit rel error xerror xstd 1 0.793780 0 1.000000 1.003270 0.0393036 2 0.090992 1 0.206220 0.207071 0.0163478 3.0163478 3 0.0163478 3 411 0.118873 0.0101955 4 0.012391 3 0.089587 0.098468 0.0072328 5 0.012206 4 0.077196 0.091905 0.091905 0.091905 0.0072328 0.064990 0.087126 0.0069405 7 0.010000 6 0.053440 0.068864 0.0054837 سؤال من این است که برای کاهش بیشتر خطای پیش بینی مجموعه خطای معتبر مربعی (SEM) در مقایسه با یک مجموعه خطای معتبر مربعی 0.0.0.
|
نحوه کاهش بیشتر خطای پیش بینی در مدل درختی رگرسیون
|
57709
|
این به صورت متقاطع در StackExchange ارسال شده است، اما از آنجایی که به آمار مربوط می شود، فکر کردم اینجا را امتحان کنم. من سعی میکنم دادههای تجربی را با استفاده از بسته «ez» با یک عامل بین آزمودنیها («رتبه») و دو عامل درون موضوعی («هزینه»، «msg») تجزیه و تحلیل کنم. شرکتکنندگان در دو مقطع زمانی بهطور تصادفی به هر دو «هزینه» و «پیامها» اختصاص داده شدند، بنابراین از نظر تئوری میتوانستند ترکیبی از «هزینه» و «پیام» را در هر دو مقطع زمانی داشته باشند. «ezDesign» نشان میدهد که **دادههای من متعادلشده و بدون مقادیر از دست رفته است.** فرض کنید مجموعه داده من «ez_data» به این صورت است: id Choice_num انتخاب پیام هزینه رتبه محصول id_r 1.1 1 1 1 استانی هزینه مشابه پاککننده کمترین اهمیت 1.1 2.1 2 1 1 بدون هنجار پاک کننده گران تر مهم ترین 2.1 3.1 3 1 1 صابون بدون نرمال هزینه یکسان کمترین اهمیت 3.1 4.1 4 1 1 معمولی هزینه مشابه قهوه مهم ترین 4.1 5.1 5 1 1 صابون با هزینه مشابه استانی مهم ترین 5.1 6.1 6 1 1 بدون استاندارد هزینه مشابه شکلات مهم ترین هزینه 6.1 7.1 استانی 71 Cleaner مهمترین 7.1 8.1 8 1 0 استانی همان هزینه قهوه کمترین اهمیت 8.1 9.1 9 1 1 استانی همان هزینه تمیزتر کمترین اهمیت 9.1 10.1 10 1 1 1 عادی شکلات گران تر مهم ترین 10.1 11.1 11 1 1 1 هنجار Same 11 1 1. استانی همان هزینه قهوه مهم ترین 12.1 13.1 13 1 1 معمولی صابون همان هزینه مهم ترین 13.1 14.1 14 1 1 صابون استانی هزینه مشابه کمترین اهمیت 14.1 15.1 15 1 0 هنجار گران تر قهوه 11 11 15. Cleaner کمترین اهمیت 16.1 17.1 17 1 1 بدون هنجار شکلات گران تر کمترین اهمیت 17.1 18.1 18 1 0 صابون استانی گران تر کمترین اهمیت 18.1 19.1 19 1 1 1 Norm گران تر Sam Chocolate مهم ترین 19.1 19.1 201 . 20.1 بر اساس نظرات اینجا، من یک متغیر ID جدید ایجاد کردهام که «choice_num» را با متغیر «id» پیوند میدهد تا مقادیر تکراری برای برچسبهای «id» در سطوح مختلف فاکتورها وجود نداشته باشد. سپس، من به سادگی دستور را اجرا می کنم: ezANOVA(data=ez_data, dv=.(انتخاب)، wid=.(id_r), inside=.(cost,msg), between=.(rank), type=3) اما این همچنان این خطا را نشان می دهد: خطا در ezANOVA_main(داده = داده، dv = dv، wid = wid، درون = درون، : یک یا چند سلول داده از دست رفته است. سعی کنید از ezDesign() برای بررسی اطلاعات خود استفاده کنید؟
|
خطا در «ezANOVA» با مجموعه داده متعادل و بدون داده از دست رفته
|
96175
|
من یک عامل بین موضوعی با چهار سطح و یک متغیر وابسته دوگانه دارم. من میخواهم آزمایش کنم که آیا هر جفت در عامل بین موضوعی به طور متفاوتی با متغیر وابسته مرتبط است (بنابراین اگر سطح اول در متغیر وابسته بیشتر از سطح دوم امتیاز بیشتری کسب کند، اگر سطح اول امتیازهای بیشتری را در متغیر وابسته کسب کند. متغیر وابسته نسبت به سطح سوم و غیره). تنها راهی که می توانم برای انجام این کار به آن فکر کنم، انجام شش تست زوجی (2x2) مجذور کای است. آیا این راه برای پاسخ به سوال من است، و اگر جواب داده است، چگونه می توانم تورم خطای نوع 1 را کنترل کنم؟
|
تست های مجذور کای متعدد برای مقایسه های زوجی
|
60119
|
من n (~ 100) دارایی با داده های زیان در R دارم که هر کدام از توزیع کلی پارتو خود استخراج شده اند. فرض کنید که من هر کدام 100 مشاهده دارم که به ما یک ماتریس 100*100 می دهد. برای تجمیع این مجموعهها در یک «پرتفولیو»، باید مزایای تنوع را تقلید کنم، یعنی برای همبستگی تنظیم کنم. من با ایجاد یک ماتریس همبستگی تصادفی از این سوال شروع کردم: آیا می توانم ماتریس 100*100 داده های همبسته خود را با تجزیه Cholesky جابجا شده ماتریس همبستگی p.d (همچنین 100*100) ضرب کنم تا به اثر مورد نظر خود برسم؟ (براساس http://www.sitmo.com/article/generating-correlated-random-numbers/) آیا این راه حل معقولی است؟ (توجه داشته باشید. من از nearPD{Matrix} برای اطمینان از p.d استفاده کردم) راه حل های جایگزین نیز خوب هستند.
|
تقلید همبستگی در داده های از دست دادن در طول تجمع
|
52067
|
بگویید من یک رگرسیون چند متغیره (چند متغیر مستقل) دارم که از 3 متغیر تشکیل شده است. هر کدام از آن متغیرها دارای ضریب مشخصی هستند. اگر تصمیم بگیرم متغیر چهارم را معرفی کنم و رگرسیون را دوباره اجرا کنم، آیا ضرایب 3 متغیر اصلی تغییر می کند؟ به طور گسترده تر: در یک رگرسیون چند متغیره (متغیرهای مستقل چندگانه)، آیا ضریب یک متغیر معین تحت تأثیر ضریب متغیر دیگری است؟
|
آیا افزودن متغیرهای بیشتر به یک رگرسیون چند متغیره، ضرایب متغیرهای موجود را تغییر می دهد؟
|
104427
|
من 11 پاسخ به سوالی جمع آوری کردم که در آن گزینه ها A، B یا C بودند. 9 نفر به A پاسخ دادند. 2 نفر به B پاسخ دادند. 0 نفر به C پاسخ دادند. با استفاده از فاصله اطمینان 95% Clopper-Pearson، به این نتیجه رسیدم که محدوده P(A) از (0.48، 0.97)، P(B) از (0.2 تا 0.52)، و P(C) از (0، 0.28). چه عباراتی می توانم این نتایج را بیان کنم؟ آیا می توانم بگویم که P (A) > P (C) در سطح اطمینان 95٪؟ به نظر می رسد بیش از این باشد.
|
مقایسه نسبت ها در همان نمونه
|
93277
|
من در حال آموزش یک طبقهبندی کننده SVM بر روی یک مجموعه داده با استفاده از LibSVM از طریق Weka هستم، اما پس از اینکه طبقهبندیکننده آموزشدیدهام را داشتم، میخواهم بدانم کدام ویژگی برای طبقهبندیکننده من مهم است و کدام ویژگی کاربرد زیادی ندارد. در حال حاضر یک روش متوسط برای انجام این کار این است که انتخاب ویژگی نظارت شده را در Weka با استفاده از جستجوی رتبهبندی و برخی از روشهای جستجو (مطمئن نیستم که کدام یک بهترین است، در حال حاضر از CorrelationAttributeEval استفاده میکند)، اجرا میشود، اما این مختص مدل من نیست، بلکه فقط بیان می کنم که چقدر ویژگی های من با ویژگی طبقه بندی من مرتبط است. من آنقدرها با SVM آشنا نیستم، اما میدانم که طبقهبندیکننده آموزشدیده دارای مقادیر وزنی برای هر ویژگی است. آیا میتوانم ویژگیها را بر اساس قدر مطلق وزنهایشان رتبهبندی کنم و به من بگویم که این ویژگیها چقدر ویژگی طبقهبندی را پیشبینی میکنند؟ اگر این یک روش معتبر است، آیا کسی با نحوه انجام این کار (از لحاظ کد) با استفاده از LibSVM در Weka آشنا است؟ با تشکر
|
رتبه بندی ویژگی ها بر اساس قدرت پیش بینی در طبقه بندی کننده آموزش دیده (LibSVM)
|
52069
|
من مقالاتی را در مورد سیستم های توصیه گر و بازیابی اطلاعات خواندم که در آنها میانگین خطای مطلق و میانگین مربعات خطا ذکر شده است. اما من بین تعریف رسمی این دو فرمول تفاوت هایی پیدا کردم. در یک مقاله MAE و MSE با ریشه مربع و در مقالات دیگر (یا فقط منابع) بدون هستند. اساساً من این نسخه ها را دیدم: $$ MAE_1 = \frac{1}{|TS|} \sum_{(u,i) \in TS} |\hat r_{ui} - r_{ui}| $$ $$ MAE_2 = \sqrt{ \frac{1}{|TS|} \sum_{(u,i) \in TS} |\hat r_{ui} - r_{ui}| } $$ $$ MSE_1 = \frac{1}{|TS|} \sum_{(u,i) \in TS} (\hat r_{ui} - r_{ui})^2 $$ $$ MSE_2 = \sqrt{ \frac{1}{|TS|} \sum_{(u,i) \in TS} (\hat r_{ui} - r_{ui})^2 } $$ فکر میکنم که MSE بدون جذر است، زیرا در غیر این صورت RMSE یکسان خواهد بود. اما من مطمئن نیستم. با MAE نیز مطمئن نیستم. آیا MAE **با** یک ریشه مربع است، یا چیزی شبیه خطای میانگین مطلق ریشه (RMAE) وجود دارد که RMSE برای MSE است؟ امیدوارم کسی بتواند به من کمک کند. thx!
|
MAE/MSE با یا بدون جذر
|
109270
|
من در درک نحوه عملکرد تابع varImp برای یک مدل جنگلی تصادفی با بسته caret مشکل دارم. در مثال زیر، ویژگی var3 با استفاده از تابع «varImp» caret اهمیت صفر میگیرد، اما مدل نهایی تصادفی Forest برای ویژگی var3 اهمیت غیرصفری دارد. چرا این طور است؟ require(randomForest) require(caret) rf <- train(x, y, method = rf, trControl = trainControl(method = oob), اهمیت = TRUE, verbose = TRUE, tuneGrid = data.frame(mtry = num.predictors) ) fm <- rf$finalModel > varImp(f) rf اهمیت متغیر کلی var1 100.00 var2 80.14 var3 0.00 > اهمیت(fm) %IncMSE IncNodePurity var2 872.7935 40505276 var1 1021.4707 55682866 var3 273.0168 3078731
|
Caret varImp برای مدل randomForest
|
106373
|
همه درمانهای رایج کرانههای PAC بر اساس پیچیدگی Rademacher یک تابع ضرر محدود را در نظر میگیرند (برای یک درمان مستقل، به این جزوه توسط Schapire مراجعه کنید. با این حال، من نتوانستم هیچ نتیجهای برای تلفات نامحدود (با لحظههای محدود یا احتمالاً subgaussian) پیدا کنم. تنها مقاله ای که من می شناسم کورتس و همکاران است، اما در مورد کران های _نسبی_ است، نه مطلق آیا کسی می داند نتیجه ای که به صراحت مرزهای Rademacher را برای توابع ضرر عمومی پوشش می دهد؟
|
Rademacher برای توابع از دست دادن نامحدود مرزبندی می کند
|
99309
|
من اکنون چند بار خواندهام که میزان مثبتهای کاذب با مرز آلفای سطح معنیداری در رابطه با آزمون فرضیه، کران بالایی دارد و به حجم نمونه بستگی ندارد. اما چطور؟ تا جایی که من می بینم، احتمال ترسیم فقط مقادیر افراطی زمانی که حجم نمونه 1000 باشد بسیار کمتر از مثلاً 3 است.. با تشکر
|
چرا خطای نوع I به حجم نمونه بستگی ندارد؟
|
96174
|
من در حال تجزیه و تحلیل یک مجموعه داده به عنوان پروژه نهایی هستم. این یک دوره تجزیه و تحلیل داده های طبقه بندی شده است، بنابراین من بر تحلیل رگرسیون لجستیک تمرکز خواهم کرد. من مجموعه داده ها را از داده های پرواز و آب و هوا جمع آوری کردم. داده ها برای پروازهایی است که به ORD وارد می شوند. من می خواهم تاخیر پرواز را مدل کنم (خواه پرواز با تاخیر باشد یا خیر). در اینجا خلاصه ای از متغیرهای درگیر آمده است: > خلاصه (داده_پرواز) DAY_OF_MONTH DAY_OF_WEEK AIRLINE_ID CRS_DEP_TIME DEP_DELAY TAXI_OUT TAXI_IN حداقل. : 1.00 دقیقه :1.000 19977 :7838 دقیقه. : 333.0 دقیقه :-21000 دقیقه : 1.00 دقیقه : 1.000 1st Qu.: 6.00 Qu. 1st:2.000 19805 :6082 Qu. 1: 510.0 Qu. 1: -4.000 Qu. 1: 10.00 Qu. 1st: 5.000 Median: 5.000 Median :1020 Median :17 :3974 میانه : 761.0 میانه : -1.000 میانه : 12.00 میانه : 7.000 میانگین : 15.17 میانگین : 4.058 19386 : 576 میانگین : 760.2 میانگین : 760.2 میانگین : 9.072 میانگین : 9.072 میانگین . س 3:24.00 س 3:6.000 19790 : 553 س 3: 985.0 س 3: 7.000 س 3: 17.00 س 3: 9.000 حداکثر. حداکثر :30.00 :7.000 20355 : 453 حداکثر. حداکثر :1439.0 حداکثر :931.000 حداکثر :301.00 :179.000 (سایر): 866 CRS_ARR_TIME AIR_TIME DISTANCE آب و هوا.نوع باد.سرعت باد.دیر منطقه حداقل. : 1.0 دقیقه : 11.0 دقیقه : 67.0 نم نم باران : 219 دقیقه. : 0.000 دقیقه : 1.00 Midwest :5856 1st Qu.: 625.0 1st Qu.: 55.0 1st Qu.: 334.0 FOG : 35 Qu. 1: 6.000 1st Qu.: 8.00 Northeast:4487 Median :0.9 Median : 086 Median 647.0 MIST : 569 Median : 8.000 Median :20.00 south :5833 Mean : 849.9 Mean :105.8 Mean : 762.1 None :17823 Mean : 8.462 Mean :1741 West. س 3: 130.0 3rd Qu.: 925.0 RAIN : 1420 3rd Qu.: 11.000 3rd Qu.: 29.75 حداکثر. حداکثر: 1438.0 حداکثر :486.0 :4244.0 رعد و برق: 276 حداکثر. حداکثر : 25000 :37.00 چند سوال دارم: 1. متغیرهای طبقه بندی و همچنین متغیرهای کمی دارم. واضح است که بسیاری از متغیرها در مقیاس های مختلف (زمان، درجه و غیره) هستند. آیا باید متغیرهایم را استاندارد کنم؟ آیا این مهم است؟ آیا این کار را فقط با موارد کمی انجام دهم؟ 2. ما در کلاس خود کمی در مورد GAM ها یاد گرفتیم. میخواهم بررسی کنم که آیا برخی از متغیرهای من در احتمال ورود-تأخیر خطی به نظر میرسند (اگر نه، استفاده از GAM را توجیه میکند). آیا این کد زیر رویکرد مناسبی برای این سوال است؟ سرعت باد: `logodds <- NULL x<-NULL for( i in unique(flight_data[,13])){ idx <- which(flight_data[,13] == i) x <- c(x,i) logodds < - c(logodds,log(sum(flight_data[idx,9])/(nrow(flight_data) - sum(flight_data[idx,9])))) } plot(logodds~x)` 
|
استانداردسازی داده ها با داده های مقوله ای و کمی
|
52064
|
من به تازگی پرسشنامه ای را انجام داده ام که دارای تعدادی سوال چند پاسخی و چند گزینه ای است. یعنی پاسخ دهنده می تواند هر تعداد از گزینه ها را که در مورد آنها اعمال می شود علامت بزند - بنابراین ممکن است هیچ موردی را انتخاب نکند، یک، دو یا هفت! همچنین یک فیلد «سایر» برای کسانی که میبینند گزینهها برای آنها اعمال نمیشود وجود دارد. سوال من این است: چگونه باید این داده ها را (در زبان R) ذخیره کنم تا بتوانم به راحتی آن ها را تجزیه و تحلیل کنم؟ نوع تجزیه و تحلیلی که من می خواهم انجام دهم به طور کلی نسبتاً ساده است - به درصد پاسخ های مختلف در سؤالات نگاه می کنم، و شامل آمارهای بسیار عمیق نمی شود (من واقعاً حجم نمونه به اندازه کافی بزرگ ندارم تا بتوانم این کار را انجام دهید). من میتوانم به چندین روش برای ذخیره دادهها فکر کنم، همانطور که در زیر ذکر شده است، اما مطمئن نیستم که کدام یک بهتر کار میکند و رسیدگی به آن راحتتر است. افراد دیگر باید قبلاً با این مسائل برخورد کرده باشند و بهترین روش انجام آن را یافته باشند - پس نظر شما چیست؟ ایده های احتمالی که داشته ام عبارتند از: * از یک ستون واحد از یک چارچوب داده برای هر سوال استفاده کنید، که حاوی نوعی لیست جدا شده با کاما است - ورود داده ها آسان است، اما من گمان می کنم تجزیه و تحلیل آن دشوار باشد * ستون های متعدد برای هر سوال - تا حداکثر تعداد پاسخ هایی که فکر می کنم هر کسی تیک بزند (5-6 من گمان می کنم - اما اگر بیشتر گرفتم؟) و نام پاسخ را در هر یک از این ستون ها قرار دهید * یک ستون برای هر کدام پاسخ ممکن را داده و از مقادیر بولی در ستون ها برای نشان دادن آنچه که علامت زده شده است استفاده کنید. این احتمالاً بهتر به نظر می رسد، اما مطمئن نیستم که چگونه آن را تجزیه و تحلیل کنم. مردم چه فکری می کنند؟
|
نحوه ذخیره (و تجزیه و تحلیل) داده های پرسشنامه چند گزینه ای چند پاسخی
|
106377
|
من با آمار نسبتاً تازه کار هستم، بنابراین اگر این مشکل به طرز ناامیدکننده ای ابتدایی یا نادرست است، ببخشید. اساساً، میخواهم به من کمک کنید تا بفهمم آیا از F-Test برای واریانس درست استفاده میکنم یا خیر. من دو جمعیت نسبتاً کوچک دارم (15=n)، و میخواهم از یک آزمون آماری برای تعیین واریانسهای مربوطه بهطور قابلتوجهی استفاده کنم. گروه A به طور نسبی توزیع شده است و گروه B به سمت چپ منحرف شده است. در ابتدا، من از یک آزمون F برای واریانس برای آزمایش تفاوت در واریانس استفاده کردم، اما پس از آن متوجه شدم که اگر یک جامعه به طور معمول توزیع نشده باشد (همانطور که در مورد گروه B وجود دارد، آزمون F می تواند مثبت کاذب باشد). برای رفع این مشکل، توزیعی از میانگین های نمونه برای هر یک از دو گروه ایجاد کردم و سپس آزمون F را برای مقایسه واریانس آن توزیع ها انجام دادم. آن توزیع میانگین های نمونه آشکارا نرمال است. با این حال، آیا انجام F-Test برای واریانس آن توزیع ها مناسب است؟ و دقیقاً چگونه باید نتایج آزمایش را تفسیر کنم؟ فقط در صورت مهم بودن، نرم افزاری که من استفاده می کنم R است و F-test در R از طریق var.test() قابل دسترسی است.
|
استفاده از آزمون F برای واریانس در جمعیت های غیر نرمال
|
1207
|
این پست ادامه پست دیگری در رابطه با روشی عمومی برای تشخیص پرت در سری های زمانی است. اساساً، در این مرحله من به روشی قوی برای کشف تناوب/فصل یک سری زمانی عمومی که تحت تأثیر نویز زیاد قرار گرفته اند علاقه مند هستم. از نقطه نظر توسعه دهنده، من یک رابط ساده مانند: unsigned int discover_period(vector v); جایی که v آرایه حاوی نمونه ها است و مقدار بازگشتی دوره سیگنال است. نکته اصلی این است که، باز هم، نمی توانم هیچ فرضی در مورد سیگنال تحلیل شده داشته باشم. من قبلاً یک رویکرد مبتنی بر همبستگی خودکار سیگنال (تشخیص قله های همبستگی) را امتحان کردم، اما آنطور که می خواهم قوی نیست.
|
تشخیص دوره یک سری زمانی عمومی
|
114655
|
آیا شکل عملکردی یک مدل میانگین متحرک با ضرایب «h = [1 0.2 -0.5]» خواهد بود y(t) = 0.2e(t-1) - 0.5e(t-2) یا y(t) = 1+ 0.2e(t-1) - 0.5e(t-2)
|
سردرگمی در نمایش مدل
|
60114
|
سوال اساسی من: آیا چیزی وجود دارد که شما **_نمیتوانید_** آن را با استفاده از MI نسبت دهید؟ سوال پیچیده تر من: رگرسیون $Y=\rho T+X'\beta+\epsilon$ را در نظر بگیرید. به هر دلیلی، شما می خواهید رگرسیون را وزن کنید. با فرض اینکه چنین امتیازی شما را به استقلال و علیت مشروط میرساند، بگویید که با یک نمره گرایش معکوس وزن میدهید. به طور خاص، $pr(T==1) = logit(Z'\gamma + \eta)$، که به شما وزنهایی را به صورت $$ w = (T_i/pr(T)+(1-T_i)/(1-pr) میدهد. (T))^.5 $$ فرض کنید عناصر Z را از دست داده اید. شما بارها از رگرسیون اصلی استفاده می کنید؟ یک مجموعه داده با پوشش خوب در $X$ دریافت کرد، اما مقادیر زیادی از دست رفته در $Z$.
|
انتساب چندگانه برای متغیرهای مورد استفاده برای محاسبه وزن رگرسیون
|
96178
|
من الگوریتم طبقه بندی SVM را در کتابم با توجه به فرضیات درک می کنم. کتاب من می گوید، فرض کنید این دو خط از بردارهای پشتیبان دو کلاس عبور می کنند. سپس آرگومان خطای تعمیم مینیمم کردن را ارائه می کنند و به حداکثر رساندن حاشیه بین خطوطی که از بردارهای پشتیبان می گذرند، ادامه می دهند. ** چیزی که من متوجه نمی شوم این است که چگونه می توان دو خط اصلی را که از بردارهای پشتیبانی دو کلاس عبور می کنند به دست آورد؟** این خطوط واقعاً توسط بردارهای پشتیبانی تعریف می شوند. 1. هنگام پیاده سازی الگوریتم، چگونه بردارهای پشتیبانی را انتخاب می کنید؟ 2. معمولاً در عمل یا در بسیاری از کتابخانه ها چه کاری انجام می شود؟ **ویرایش:** منظور من از دو خط اصلی خطوط مرزی تصمیم گیری است. با تشکر از همه کمک!
|
درک الگوریتم ماشین بردار پشتیبان
|
114653
|
من کاملاً با R آشنا هستم و میخواهم بدانم چگونه نرخ بازده داخلی و ارزش فعلی خالص مجموعهای از جریانهای نقدی را به طور مؤثر پیادهسازی کنم. در حال حاضر من پیادهسازی apache را به R همانطور که هست منتقل میکنم، اما احساس میکنم میتوانم از توابع application برای دریافت نتایج سریعتر استفاده کنم.
|
اجرای R نرخ بازده داخلی و NPV
|
44487
|
صندلی من از من می خواهد که داده های خود را برای رگرسیون چندگانه سلسله مراتبی خود، از جمله چندین تعدیل کننده و اثرات متقابل، متمرکز کنم. به نظر می رسد انجام این کار توصیه می شود، اگر نه برای کمک به به حداقل رساندن چند خطی بودن، بلکه علاوه بر این (و مهمتر از آن) برای کمک به تفسیرپذیری تعاملات من. با این حال، جایی که من مطمئن نیستم این است که با برخی از متغیرهایی که قبلاً به دلیل مشکلات چولگی فکر میکردم تغییر بدهم، چه کنم. آیا این متغیرها را در مرکز قرار دهم؟ من احساس می کنم که ممکن است به معنای تغییر آنها، در اصل، دو بار باشد، اما مطمئن نیستم. اگر آنها را تبدیل نکنم، چگونه می توانم از آنها در تعامل با یک متغیر متمرکز استفاده کنم؟
|
آیا یک متغیر از قبل تبدیل شده را در مرکز قرار دهم؟
|
52060
|
بنابراین، من در واقع یک زیستشناس هستم که سعی میکنم ایده قدرت تجزیه و تحلیل را برای کمک به طراحی آزمایشی با حجم نمونه مناسب بپیچم. من می دانم که قدرت تجزیه و تحلیل برای کمک به جلوگیری از خطاهای نوع دوم استفاده می شود، اما به این مقاله برخورد کردم: http://www.benthamscience.com/open/toepij/articles/V003/16TOEPIJ.pdf که به نظر می رسد (اگر من اشتباه نمی کنم) که در مطالعات ضعیف، خطر ابتلا به موارد مثبت کاذب را نیز افزایش می دهید. چیز دیگری که من را گیج میکند این است که اگر برای افزایش قدرت خود، نمونههای بیشتری اضافه کنید، مطمئناً هر یافتهای را از نظر آماری معنادار میکنید، حتی اگر تأثیر شما کم باشد. آیا نوعی توازن بین توان و تعداد نمونهها وجود دارد تا فرد از دامهای آزمایشی با قدرت کم و همچنین آزمایشی با قدرت بیش از حد اجتناب کند که در آن نتایج یک نتیجه از نظر آماری معنیدار ایجاد میکند که ممکن است جالب نباشد زیرا اندازه اثر بسیار کوچک است؟
|
اهمیت آماری در یک مطالعه کم توان، مثبت کاذب؟
|
114651
|
من یک kmeans را با حجم نمونه 1000 داده اجرا می کنم. داده ها دارای مقیاس (z) هستند. وقتی kmeans را اجرا می کنم (df، nstart=25، centers=5)- اجرا می شود و می توانم اندازه هر خوشه را بدست بیاورم. بزرگترین گروه دارای 620 نفر است. دوباره آن را اجرا کردم (منظورم این نبود)، اما متوجه شدم که بزرگترین خوشه در آن زمان دارای 450 بود. از روی علاقه، به تلاش ادامه دادم و بزرگترین خوشه را بین 450 تا 800 بدست آوردم. اکنون می دانم که مقداردهی اولیه می تواند روی خوشه ها و اندازه های خوشه تاثیر بگذارد. با این حال، من تعجب می کنم که بسیار متفاوت است. اگر اندازه های خوشه من 10-20 تغییر می کرد، آن را دریافت می کردم. اما اینها نوسانات بزرگی هستند. البته من می توانم تنظیم کنم تا آن را متوقف کنم- اما به نظر می رسد خیلی عجیب است که بتوانم آن تنوع گسترده ای از نتایج را دریافت کنم. خیلی تصادفی به نظر می رسد که بر اساس زمانی که آن را اجرا کردم (یا جایی که مقداردهی اولیه شده است) بزرگترین خوشه 450 یا 600 یا 775 را دریافت کنم. الان با نتایج احساس ناراحتی می کنم. افکار یا توضیحات.
|
اندازه خوشه Kmeans در هر اجرا کمی تغییر می کند
|
29781
|
در برخی ادبیات، خوانده ام که یک رگرسیون با متغیرهای توضیحی متعدد، اگر در واحدهای مختلف باشد، نیاز به استانداردسازی دارد. (استانداردسازی شامل تفریق میانگین و تقسیم بر انحراف معیار است.) در کدام موارد دیگر باید داده های خود را استاندارد کنم؟ آیا مواردی وجود دارد که من فقط باید داده های خود را در مرکز قرار دهم (یعنی بدون تقسیم بر انحراف معیار)؟
|
چه زمانی باید داده های خود را در مرکز قرار دهید و چه زمانی باید استانداردسازی کنید؟
|
87204
|
در ادبیات اغلب گزارش هایی از مقایسه بقای یک نمونه با بقای جمعیت عمومی وجود دارد. جداول زندگی و مرگ و میر ذکر شده است، اما آزمایش ها و روش های آماری پشت این مقایسه وجود ندارد. این مقایسه چگونه انجام می شود؟ کدام آزمایش ها، رویه ها و محاسبات درگیر هستند؟ من با این سوال آشنا هستم بقای یک جمعیت را با جمعیت عمومی مقایسه کنید اما به سوال من پاسخ نمی دهد. من به دنبال جزئیات بیشتر هستم.
|
آزمایشهای مربوط به مقایسه بقای یک نمونه با بقای جمعیت عمومی
|
22214
|
> **تکراری احتمالی:** > در رگرسیون خطی، چه زمانی استفاده از گزارش یک متغیر مستقل > به جای مقادیر واقعی مناسب است؟ من در حال حاضر در حال انجام یک تحلیل رگرسیون فضایی هستم. من سعی میکنم تصمیم بگیرم که آیا متغیر پاسخ من باید تبدیل به گزارش شود یا خیر. من میدانم که تحلیلهای رگرسیونی نرمال بودن باقیماندهها را فرض میکنند. من همچنین میدانم که بهترین راه برای محاسبه میزان نزدیکی دادهها به نرمال بودن، بررسی ارقام چولگی/کورتوزیس است (نزدیک به صفر، بهتر). بسته آماری که من استفاده می کنم (S.A.M.) دو رقم مختلف برای چولگی و کشیدگی ارائه می دهد. یکی برای داده های متغیر پاسخ و دیگری چولگی/کورتوز باقیمانده ها است. من کمی گیج هستم که کدام یک از این ارقام باید روی آن تمرکز کنم، چولگی متغیر پاسخ یا چولگی باقیمانده؟ امیدوارم همه اینها منطقی باشد. خیلی ممنون برای هر کمکی بن
|
از کدام شکل چولگی/کورتوزیس در تحلیل رگرسیون فضایی استفاده کنم
|
102864
|
> > در یک ایستگاه اندازه گیری در مونیخ به مدت 14 روز غلظت دی اکسید گوگرد > اندازه گیری شد. تأثیر میانگین دما > در روز بر حسب درجه سانتیگراد (X_1$) را بر غلظت $SO_2$-$(Y)$ تجزیه و تحلیل کنید. آیا جلوه خاصی در تعطیلات آخر هفته وجود دارد؟ متغیر $X_2$ اگر اندازهگیری شود > در شنبه یا یکشنبه 1$ است در غیر این صورت 0$ است. دادههای زیر اندازهگیری شدند: $$ \begin{array}{c|c|c|c|c|c|c|c} \hline y & -3.15 & -2.83 & -3.02 > & -3.08 & -3.54 & -2.98 & -2.78\\\ x_1 & 16.47 & 16.02 & 16.81 & 22.87 & > 21.68 & 21.23 و 20.55\\\ x_2 & 0 & 0 & 0 & 1 & 1 & 0 & 0\\\ \hline > \end{array} $$ \begin{array}{c|c|c|c| c|c|c|c} \hline y & -3.35 & -2.76 & > -1.90 & -2.12 & -2.45 & -1.97 & -2.23\\\ x_1 & 18.32 & 15.96 & 15.36 & 12.47 > & 12.46 & 11.77 & 11.72\\\ x_2 & 0 & 0 & 0 & 0 & 1 & 1 & 0 & end > **(a)** تخمین بزنید ضرایب رگرسیون مدل خطی چندگانه > و نتایج خود را نظر دهید. **(ب)** به عنوان $R^2$، یک $R^2=0.5805$ دریافت می کند. آیا رگرسیورهای > نقشی با توضیح تمرکز $SO_2$ دارند؟ یک > F-test سراسری سطح $\alpha=0.01$ انجام دهید. **(c)** واریانس های تخمین زده شده > $\hat{\sigma}_1=0.0267$ و $\hat{\sigma}_2=0.2166$ هستند. فرضیه > $\theta_i=0$ را برای $i=2,3$ تا سطح $\alpha=0.05$ با اطمینان > فواصل آزمایش کنید. متغیر کمکی را که تأثیری ندارد حذف کنید و سپس یک رگرسیون خطی ساده انجام دهید. رگرسیون چندگانه و ساده > را به صورت گرافیکی مقایسه کنید. سلام و روز بخیر! من اکثر کارهای این کار را قبلاً مدیریت کردم. اول از همه با ANOVA بررسی کردم که آیا اثر آخر هفته وجود دارد. من $\alpha=0.05$ را انتخاب کردم. برای $F$-statstic من $F=0.1$ و p-value 0.76$ دریافت کردم. بنابراین این فرضیه صفر که $\theta_1=\theta_2$ را نمی توان رد کرد و بنابراین هیچ اثر آخر هفته وجود ندارد. **(الف)** ضرایب برآورد شده $$ \hat{\theta}_1=-1.0019،~~~\hat{\theta}_2=-0.1032،~~~\hat{\theta}_3=- است. 0.0025، $$ که در آن ضریب اول رهگیری است، ضریب دوم به $X_1$ و ضریب سوم به $X_2$ تعلق دارد. حالا نمیدونم اینجا چی باید نظر بدم؟ منظور چه می تواند باشد؟ چه چیزی باید اظهار نظر کرد؟ **(ب)** آزمون جهانی $F$ می گوید که فرضیه $H_0: \theta_2=\theta_3=0$ را می توان رد کرد. بنابراین رگرسیورها برای توضیح تمرکز $SO_2$ نقش دارند. **(c)** برای $\theta_2$، فاصله اطمینان $$ C_2^{0.05}=(-0.156863,-0.049537)، $$ است، زیرا $0\نه در C_{2}^{0.05}$، فرضیه $H_0^2: \theta_2=0$ را می توان رد کرد. برای $\theta_3$، فاصله اطمینان با $$ C_3^{0.05}=(-0.437834,0.432834)، $$ داده می شود، بنابراین به دلیل $0\در C_3^{0.05}$، فرضیه $H_0^3: \theta_3 =0$ را نمی توان رد کرد، بنابراین متغیر کمکی $X_3$ تأثیری ندارد و می تواند از آن حذف شود. مدل من اکنون رگرسیون خطی ساده را انجام دادم، دوباره با استفاده از R، اکنون $$ \hat{\theta}_1=-1.0020،~~~\hat{\theta}_2=-0.1033 را دریافت کردم. $$ چیزی که من می بینم این است که ضرایب در مقایسه با ضرایب رگرسیون چندگانه تقریباً یکسان هستند. اما من نمی دانم چگونه رگرسیون خطی ساده و رگرسیون خطی چندگانه را به صورت گرافیکی مقایسه کنم. البته من می توانم رگرسیون خطی ساده را رسم کنم:  اما نمی دانم چگونه رگرسیون چندگانه را برای مقایسه آن ترسیم کنم. سپس با رگرسیون خطی ساده. آیا می توانید در این مورد به من کمک کنید؟ * * * بنابراین به طور خلاصه: در مورد **(a)** من نمی دانم چه چیزی باید اظهار نظر شود و در مورد **(c)** نمی دانم چگونه می توانم رگرسیون چندگانه و ساده را به صورت گرافیکی مقایسه کنم. . اگر بتوانید در این مورد به من کمک کنید عالی خواهد بود! میروسلاو میبینمت
|
داده های مربوط به غلظت دی اکسید گوگرد (رگرسیون خطی)
|
103726
|
آیا متغیر هدف در رگرسیون خطی باید همراه با متغیرهای پیش بینی مقیاس شود؟ به نظر می رسد من زباله ها را بیرون می آورم اگر نه؟ همچنین چه تفاوت هایی در تبدیل log در مقابل تبدیل z-score برای متغیرها وجود دارد؟ آیا شرایطی وجود دارد که یکی از دیگری مناسب تر باشد؟
|
متغیرهای مقیاس بندی رگرسیون خطی
|
33370
|
> **تکراری احتمالی:** > در رگرسیون خطی، چه زمانی استفاده از گزارش یک متغیر مستقل > به جای مقادیر واقعی مناسب است؟ من یک سری مدل های میانجی چندگانه را اجرا می کنم. هر مدل شامل یک IV، دو واسطه و یک DV است. من از یک ماکرو ایجاد شده برای SPSS (ارائه شده توسط Preacher و Hayes) استفاده می کنم که از bootstrapping برای بررسی اثرات غیر مستقیم واسطه ها استفاده می کند. DV های من افسردگی و اضطراب اجتماعی هستند (هر کدام در یک مدل جداگانه اجرا می شوند) و هر دو دارای انحراف مثبت هستند. معمولاً من یک تبدیل گزارش روی این متغیرها انجام میدهم، با این حال، bootstrapping یک روش نمونهگیری مجدد ناپارامتریک است که فرض نرمال بودن توزیع نمونهگیری را ندارد. بنابراین، سوال من این است: آیا با وجود اینکه من از bootstrapping استفاده میکنم، لازم است DVهای دارای انحراف مثبت را تغییر دهیم؟ توجه: من مدلهایم را با میانگینهای تبدیلشده log در مقابل میانگینهای تبدیل نشده برای DV اجرا کردهام و الگوی نتایج اساساً یکسان است. با این حال، ترجیح میدهم از میانگین تبدیل نشده استفاده کنم زیرا ضرایب رگرسیون غیراستاندارد پیشبینیهای من را قویتر پشتیبانی میکنند.
|
آیا با وجود اینکه من از بوت استرپینگ استفاده می کنم، لازم است که DVهای دارای انحراف مثبت را وارد کنید؟
|
82641
|
من در تحلیل رگرسیون بسیار تازه کار هستم. من یک متغیر وابسته و 9 متغیر مستقل دارم. من میخواهم بهترین مدل ممکن را از آنها بسازم و نمیدانم چه زمانی باید از یک متغیر وارد شوید.
|
چگونه بفهمم که چه زمانی باید از تبدیل log بر روی یک متغیر با رگرسیون چندگانه استفاده کنم؟
|
60115
|
من دوست دارم یک فاصله اطمینان مدل پیشبینی سفارشی خود ایجاد کنم (نه یکی از موارد استاندارد در بسته «پیشبینی» که شامل فاصله زمانی میشود). سوابق تجربی نشان میدهد که خطاهای پیشبینی توزیع نرمال هستند و بنابراین من میتوانم پیشبینی نقطهای را بگیرم و فواصل را محاسبه کنم، مانند آنچه که با فواصل توزیع نرمال منظم انجام میدهید: میانگین +/- z * sqrt (میانگین مربع خطا) آیا کسی میتواند کمی به آن توجه کند. در هنگام پیشبینی برای دورههای فراتر از آینده نزدیک، راه مناسب برای رفع خطا چیست؟
|
نحوه تعیین فاصله پیش بینی پس از دوره بعدی.
|
113020
|
مقدار گودمن-کروسکال گاما = 1 یا -1 به این معنی است که X و Y یکنواخت هستند اما نه کاملاً بنابراین، یعنی $X_1 < X_2$ دلالت بر $Y_1 \leq Y_2 $ دارد. کسی میتونه اینو با مثال برام توضیح بده؟
|
تفسیر گودمن کروسکال گاما
|
66673
|
در تجزیه و تحلیل وب، ما اغلب نرخ تبدیل را برای گروهی از کاربران (تعداد کاربرانی که خرید کرده اند / تعداد کاربران) محاسبه می کنیم. اگر این را برگردانیم و کاربر جدیدی روی یک سایت قرار بگیرد، معتقدم که احتمال تبدیل این کاربر (با توجه به اینکه کاربر در گروه خاصی قرار دارد) با نرخ تبدیل آن گروه یکسان نیست. با نگاهی به نرخ تبدیل برای بخش کاربران در گروه سنی 30 تا 35 سال، داریم: * P( تبدیل | در گروه سنی 30 تا 35 سال) - آنچه می خواهیم بدانیم: با توجه به یک کاربر جدید در گروه سنی 30 تا 35 سال احتمال تبدیل او چقدر است؟ * P (در گروه سنی 30-35 | تبدیل) - این از سوابق ما است (تعداد تبدیل توسط کاربران در گروه سنی 30-35 / تعداد کل تبدیل) * P (تبدیل) - نرخ تبدیل کلی (کاربرانی که تبدیل شده / همه کاربران) * P (در گروه سنی 30 تا 35 سال) - نسبت همه کاربرانی که در گروه سنی 30 تا 35 سال قرار دارند به طور شهودی ممکن است فکر کنیم که احتمال تبدیل کاربر جدید در گروه سنی 30-35 سال [P(تبدیل | در گروه سنی 30-35)] همان نرخ تبدیل [P(در گروه سنی 30-35 | تبدیل)] است. اما از قضیه بیز: P(تبدیل | در گروه سنی 30-35) = P(در گروه سنی 30-35 | تبدیل) * P(تبدیل) / P(در گروه سنی 30-35 سال) آیا این درست است روش محاسبه احتمال تبدیل برای کاربر جدید در گروه سنی 30 تا 35 سال؟
|
مثال قضیه بیز - آیا نرخ تبدیل برابر با احتمال تبدیل کاربر است؟
|
60110
|
من میخواهم امتیازی را بر اساس ارتباط چند متغیر با متغیر وابسته خود محاسبه کنم و متعاقباً ارتباط نمره را با متغیر وابسته در یک نمونه مستقل آزمایش کنم. متاسفانه نمونه اکتشاف و تکرار طبیعی ندارم. با این حال، هر گونه تقسیم نمونه دلخواه به نظر می رسد و داوران ممکن است پیشنهاد کنند که من تقسیمی را انتخاب کردم که بهترین نتایج را ارائه می دهد. از این رو، من فکر می کردم که راه ساده برای نزدیک شدن به این، نمونه برداری تصادفی از 1000 تقسیم مختلف است. این بدان معناست که من نمره را در یک نمونه اکتشافی محاسبه می کنم و آن را در یک نمونه مستقل 1000 بار آزمایش می کنم. بنابراین من 1000 مقدار بتا برای قدرت ارتباط دریافت می کنم. سپس یک آزمون t یک نمونه انجام می دهم تا ببینم آیا 1000 مقدار بتا که به دست می آورم به طور قابل توجهی بزرگتر از 0 هستند. یک استراتژی معتبر است یا اگر راهبردهای جایگزین/بهتری وجود دارد. آیا میتوان آمار t را با افزایش تعداد نمونههای تصادفی به 10000 (من حدس میزنم در مقطعی مجانبی شود) افزایش داد؟ آیا این کار قانونی است؟ با تشکر از کمک شما! من از هر نکته ای قدردانی می کنم زیرا این نوع تحلیل به ندرت در زمینه تحقیقاتی من انجام می شود.
|
چگونه می توان استنتاج آماری را بر اساس نمونه کشف/تکرار تصادفی انجام داد؟
|
298
|
آیا من به دنبال توزیعی با رفتار بهتر برای متغیر مستقل مورد نظر هستم یا برای کاهش اثر نقاط پرت یا چیز دیگری؟
|
در رگرسیون خطی چه زمانی مناسب است که از لاگ یک متغیر مستقل به جای مقادیر واقعی استفاده شود؟
|
93222
|
من با یک تصفیه خانه بی هوازی کار می کنم که در آن 3 متغیر اصلی تولید گاز (l/d)، سرعت جریان (l/h) و ورودی COD (g/l) را دارم. اگر بخواهم رگرسیون چندگانه انجام دهم، آیا لازم است که متغیرها (گاز ~ جریان + COD) را استاندارد کنیم؟
|
استاندارد کردن متغیرها
|
86478
|
چه زمانی باید داده ها را عادی سازی کنم؟ اگر همیشه داده ها را عادی کنم، مشکل چیست؟ به عنوان مثال، مجموعه ای از داده های گاوسی چند متغیره به من داده می شود. من از حداکثر استفاده می کنم. احتمال تخمین برآورد ماتریس میانگین و کوواریانس. و سپس، من می خواهم از طبقه بندی کننده Bayes برای طبقه بندی نقطه داده جدید استفاده کنم. در این شرایط، آیا همیشه خوب است که داده ها را قبل از انجام حداکثر، عادی سازی کنید. احتمال
|
چه زمانی باید داده ها را عادی سازی کنم؟
|
82515
|
مجموعه داده من یک تجزیه و تحلیل بیولوژیکی از یک بیماری است که 3 ماه طول می کشد تا ایجاد شود، و ما در حال بررسی درمان آن بیماری هستیم. داده ها داده های بیان ژن هستند و ما می خواهیم تغییرات بیان ژن را در طول زمان شناسایی کنیم. این شبیه یک طرح 2x2 است که در آن گروههایی با اندازههای مساوی دارم: trtmnt بدون trtmnt 1 ماه 10 10 3 ماه 10 10 پس از فکر کردن در مورد آن، مطمئن نیستم که آیا واقعاً برای ANOVA دو طرفه معتبر است یا خیر. این بیماری در مدت 3 ماه ایجاد می شود، بنابراین افراد 1 ماهه بدون توجه به درمان باید یکسان به نظر برسند. راه های مختلفی برای بررسی این موضوع وجود دارد: 1) من می توانم trtmnt و no-trtmnt را در مرحله 3 ماهه مقایسه کنم. تجزیه و تحلیل ساده دو گروهی. 2) من می توانم به 1 ماه در مقابل 3 ماه برای trtmnt و سپس 1 ماه در مقابل 3 ماه برای no-trtmnt نگاه کنم. این می تواند 2، تجزیه و تحلیل دو گروهی باشد. اما پس از آن باید دو تجزیه و تحلیل مختلف را با هم مقایسه کنم تا به دنبال تغییر ژن مشترک یا متفاوت بگردم. اینجاست که شروع به شبیهسازی یک ANOVA دو طرفه میکند، اما واقعاً نه. من قدردان هر فکری هستم. ویرایش: باید اشاره می کردم که اینها مطالعات حیوانی است، بنابراین در هر گروه 10 حیوان داریم. به جای نمونه برداری از هر حیوان دو بار - یک بار در 1 ماه و یک بار در 3 ماه - ما 4 گروه مختلف داریم که همه آنها برای نمونه گیری استفاده شدند. امیدوارم منطقی باشد.
|
آیا این واقعا برای ANOVA دو طرفه مناسب است؟
|
72482
|
این سوال را به این دلیل مطرح کردم که در حین خواندن مزایای استانداردسازی متغیرهای توضیحی یا خیر، نظرات خوب اما متضاد را در مورد استانداردسازی وقتی که در مدل تعامل وجود دارد، خواندم. برخی در مورد چگونگی حذف مشکلات همخطی هنگام استاندارد کردن صحبت می کنند (به عنوان مثال، تشخیص هم خطی تنها زمانی که عبارت تعامل گنجانده شود مشکل ساز است)، که اساساً مورد GLMM من است. با این حال، دیگران ادعا میکنند که خطاهای استاندارد و مقادیر p تعاملات مدلهای استاندارد قابل اعتماد نیستند... (مثلاً متغیرها اغلب قبل از ساخت یک مدل تنظیم میشوند (مثلاً استاندارد میشوند) - چه زمانی این ایده خوب است و چه زمانی بد است. یکی یا http://quantpsy.org/interact/interactions.htm) بنابراین، هر ایده ای در مورد اینکه کار درست چیست؟
|
مزایا و معایب متغیر استاندارد در حضور یک تعامل چیست؟
|
82513
|
من روی یک آنالیز ANOVA دو طرفه با طراحی 2x2 کار می کنم - دو افکت اصلی با 2 سطح هر کدام. در اجرای تجزیه و تحلیل، من به وضوح تعامل و همچنین هر اثر اصلی را دریافت می کنم. آیا نتایج (مقادیر p و F) برای جلوه های اصلی یکسان است که اگر من به سادگی یک ANOVA استاندارد را روی هر یک از جلوه های اصلی به طور مستقل اجرا کرده باشم؟ این تفسیر من است، اما وقتی واقعاً آزمایش را انجام میدهم، مقادیر مختلف p و F را دریافت میکنم.
|
اثرات اصلی ANOVA دو طرفه - همان ANOVA یک طرفه بر روی هر اثر اصلی؟
|
113026
|
پاسخ زیر به تمرینی در یک کتاب درسی وجود دارد: فرضیهها عبارتند از \begin{align*} H_0 &: Var_1 = Var_2\\\ H_1 &: Var_1 \neq Var_2 \end{align*} محاسبه: $f = 78.800 /913.333 = 0.086 $. از آنجایی که $\text{P-value} = 2P(f <0.086) = (2)(0.0164) =0.0328$ برای $4$ و $6$ درجه آزادی، تنوع زمان اجرا برای شرکت $1$ به طور قابل توجهی کمتر از در سطح $0.0328$، متغیر بودن زمان اجرا برای شرکت $2$. بنابراین سؤال این است که چرا آنها $\text{P-value}$ را در $2$ ضرب میکنند؟ دیدم وقتی از توزیعهای $T$ یا Normal استفاده میکردند این کار را انجام دادند، اما توزیع $F$ متقارن نیست.
|
P-value ضربدر 2 برای دو فرضیه دم آزمون F
|
60155
|
من نمونههای زیادی از تبدیل متغیرهای مرتبط با زمان (مانند سن، سال، روز و غیره) دیدهام، اما دلیل انجام این کار را نمیدانم. فکر نمی کنم برای تثبیت واریانس باشد (چون متغیر کمکی است). من فکر می کنم به دلیل چیزی است که به خطی بودن مربوط می شود. هنگامی که متغیر کمکی تبدیل شده در یک مدل ترکیبی باشد، این حتی بیشتر گیج کننده است. **چرا متغیرهای زمانی اغلب تبدیل به گزارش می شوند؟**
|
چرا متغیرهای کمکی مرتبط با زمان در مدل سازی تبدیل می شوند؟
|
24840
|
من باید تعیین کنم که آیا بین دو متغیر تعداد رابطه وجود دارد یا خیر. من بیش از 60 مشاهده برای 4 متغیر دارم و می خواهم ببینم آیا هر یک از جفت های این متغیرها به طور قابل توجهی با یکدیگر همبستگی دارند یا خیر. من بیشتر از R استفاده می کنم، پس اگر آشنا نیستید ببخشید. من از توابع cor(...,method=pearson) و cor.test() برای آزمایش هر جفت استفاده کرده ام، اما اکنون چندان مطمئن نیستم که این روش/آزمون درستی باشد. آیا یک رگرسیون غیر خطی مانند `glm(...,family=poisson)` مناسب تر است؟ شروع کردم به این فکر کردن، زیرا وقتی به هیستوگرام شمارشهای مشاهداتم نگاه کردم، متوجه شدم که به نظر میرسد تمایل کمی برای بالا و پایین رفتن متغیرهای صورتی و سبز وجود دارد. من یک نمودار پراکنده از هر یک از متغیرهای ترسیم شده در برابر هر یک از متغیرهای دیگر تولید کردم. من از تست های ذکر شده در بالا استفاده کردم تا این رابطه را کمی سازی کنم و آزمایش آب و هوا واقعی یا فقط نویز بودن آن را انجام دهم.  
|
از چه نوع آزمونی برای تعیین همبستگی/رابطه بین دو متغیر غیر پیوسته استفاده شود
|
97228
|
این سوال از این سوال در مورد .632 قانون گرفته شده است. من با اشاره ای خاص به پاسخ/نشان کاربر603 می نویسم تا جایی که مسائل را ساده می کند. این پاسخ با نمونهای به اندازه $n،$ با جایگزینی، از $n$ موارد متمایز در مجموعه شروع میشود (آن را N صدا کنید. احتمال اینکه $i^{th}$ نمونه $s_i$ متفاوت از یک عنصر خاص باشد. $m$ از N است سپس $(1 - 1/n).$ در آن پاسخ همه عناصر N شانس مساوی برای ترسیم تصادفی دارند. سوال من این است: در عوض فرض کنید در سوال بالا مواردی که قرار است ترسیم شوند به گونه ای هستند که به طور معمول توزیع شده اند. یعنی منحنی نرمال استاندارد را از $Z = -4$ به $Z = 4$ به (مثلا) 100 زیر بازه با طول مساوی تقسیم می کنیم. هر یک از 100 مورد در N دارای احتمال ترسیمی است که برابر با مساحتی است که منحنی در بازه مربوطه خود به آن می افزاید. فکر من به این صورت بود: فکر میکنم استدلال مشابهی است که در پاسخ پیوندی وجود دارد. احتمال اینکه $s_i \ne m$، با $m$ عنصری از N، $P(s_i \neq m) = (1 - F_i)$ است که در آن $F_i$ احتمال ترسیم $s_i است.$ احتمال اینکه یک عنصر خاص m در نمونه S با اندازه n باشد، $$P(m\in S) = 1 - P(m \ نه S) = 1 - \Pi_1^n است. P(s_i \neq m)$$ $$ = 1 - \Pi_1^n(1 - F_i). $$ یک محاسبه نشان میدهد که با کوچک شدن طول زیر بازهها، پاسخ به همان عدد مورد اول همگرا میشود (احتمالات $s_i$ همه برابر هستند). این (به نظر من) غیر منطقی به نظر می رسد، زیرا به نظر می رسد ساختار عناصر N را که کمیاب هستند، وارد می کند، بنابراین من انتظار دارم عددی کوچکتر از 0.632 داشته باشم. همچنین، اگر این درست باشد، حدس میزنم $$ \lim_{n \to \infty} \Pi_1^n(1 - F_i) =\lim (1- 1/n)^n = 1/e, $ داشته باشیم $ که من هنوز درست یا نادرست را نمی دانم. ویرایش: اگر درست باشد احتمالاً برخی را تعمیم می دهد. با تشکر برای هر گونه بینش.
|
اگر احتمالات در قانون .632 برابر نباشند چه می شود؟
|
2469
|
**سوال:** روش خوبی برای انجام آزمون های تعقیبی تفاوت بین میانگین های گروهی پس از تنظیم اثر متغیر کمکی چیست؟ **نمونه اولیه:** * چهار گروه، 30 شرکت کننده در هر گروه (به عنوان مثال، چهار جمعیت مختلف روانشناسی بالینی) * متغیر وابسته عددی است (به عنوان مثال، نمرات هوش) * متغیر کمکی عددی است (مثلاً شاخص وضعیت اجتماعی-اقتصادی) * سوالات تحقیق این نگرانی است که آیا هر جفت گروهی پس از کنترل متغیر وابسته به طور قابل توجهی بر روی متغیر وابسته متفاوت است **مرتبط سوالات ** : * روش ترجیحی چیست؟ * چه پیاده سازی هایی در R موجود است؟ * آیا ارجاعات کلی در مورد چگونگی تغییر روش های متغیر کمکی برای انجام آزمون های تعقیبی وجود دارد؟
|
تست های تعقیبی در ANCOVA
|
24848
|
من تازه وارد این تجارت داده کاوی هستم. من دوست دارم کسی به من در جهت درست اشاره کند، لطفا. در تجارت من - من یک پایگاه داده با چندین جدول خواهم داشت (فرض کنید MS SQL Server). به عنوان مثال، من یک میز «شخص» و یک میز «خرید» دارم (هر فرد می تواند چندین خرید مختلف انجام دهد). در اینجا نمونه ای از جدول فرد آمده است: * شناسه * نام * نام خانوادگی * آدرس * تاریخ تولد در اینجا نمونه ای از جدول خرید آمده است: * تاریخ خرید * زمان خرید * محل فروشگاه * تعداد اقلام خریداری شده * مجموع مبلغ خرید آنچه من می خواهم انجام دهم این است: می خواهم داده کاوی را انجام دهم تا دسته ها را پیدا کنم، یا «گروههایی» از ویژگیها، که هر «مبلغ خرید» را تعریف میکنند. به عنوان مثال - من می خواهم بدانم برای همه افرادی که بین 2000 تا 2500\$ خرید کرده اند چیست؟ آیا همه آنها از یک محله آمده بودند؟ شاید همه آنها جوان بودند و از یک محله آمده بودند؟ شاید 2 گروه متفاوت وجود داشته باشد که برای گروه خرج کننده '2000\$-2500\$' مناسب باشد؟ تقریباً مطمئن هستم که دسته بندی های مختلفی (یا زمینه های متمایز) وجود دارد که با هر گروه قیمت مطابقت دارد ... یکی ممکن است افراد مسن باشند که شب ها برای خرید می آیند، دیگری ممکن است افراد میانسال باشند که بیش از 10 کالا می خرند و دیگری ممکن است افراد میانسالی باشند که یک یکشنبه خرید می کنند. با توجه به آنچه که من درک می کنم، این در منطقه داده کاوی قرار می گیرد (شاید خوشه بندی؟) آیا این درست است؟ و اگر چنین است، ابزارهایی که باید برای یافتن این مجموعه پارامترهایی که گروههای مختلف را برای هر دسته قیمتگذاری تعریف میکنند، پیدا کنم، چیست؟ خیلی ممنونم جان
|
تازه وارد تجارت داده کاوی
|
45589
|
بار دوم که به این سایت مراجعه می کنم، قبلاً کمک کرده است. من به دنبال کمکی برای کدنویسی برای انجام یک آنووا با اندازه های مکرر در R هستم. من در مجموع 4 درمان دارم که هر کدام 3 بار تکرار شده است. آنها به مدت چندین ماه روزانه تحت نظارت قرار می گرفتند و به من مقدار X را هر روز می داد. بنابراین داده ها به این صورت تنظیم می شوند: Day Trt Rep X 1 1 1 0 1 1 2 0 1 1 3 1 1 2 1 0 1 2 2 0 1 2 3 0 1 3 1 0 1 3 2 0 1 3 3 0 1 4 1 1 1 4 2 1 1 4 3 1 کد نمونه چیست که به من اجازه می دهد یک ANOVA اندازه گیری های مکرر روی این داده ها انجام دهم؟
|
سوال با R و اندازه های مکرر
|
99047
|
این فراتر از یک سوال R است، اما چرا منطقی نیست که یک مدل، مثلاً یک مدل تفکیککننده خطی (LDA)، با اعتبارسنجی متقاطع ترک-خارج - و سپس برای پیشبینی دادههای جدید از این مدل استفاده کنیم. مجموعه؟ آیا این استدلال **درست است یا خیر**: استفاده از چنین اعتبارسنجی متقاطع راهی برای اندازه گیری عملکرد مدل است (به جای آزمایش مدل بر روی داده های آزمایشی جدید). اگر مدل عملکرد خوبی داشت، دوباره آن را بر روی مجموعه داده های آموزشی کامل مدل می کنید و سپس از این مدل نهایی برای پیش بینی مقادیر جدید استفاده می کنید.
|
مدل سازی: گزینه ای برای اعتبارسنجی متقابل و پیش بینی پس از آن
|
82519
|
من سعی می کنم توزیع احتمال (مانند میانگین و واریانس) مجموعه ای از دنباله ها را پیدا کنم که طول متفاوتی دارند. من به مدلهای اندازهگیری مختلفی رسیدم که فاصله بین توالیهای تفاوت را کمیت میکنند، اما نمیتوانم چیزی در مورد توزیع احتمال توالیها پیدا کنم. آیا به هر حال می توان پارامترهای توزیع مجموعه ای از دنباله ها را استخراج کرد؟
|
میانگین و واریانس مجموعه ای از دنباله ها
|
24844
|
من 3 مدل را روی 3 زیر مجموعه از همان داده ها اجرا می کنم. راهاندازی به شرح زیر است: 1. نتیجه (DV) دستهبندی باینری است 2. زمان (IV) دو بار (قبل و پس از آن) تکرار میشود. درمان بر نتیجه تأثیر داشته است. من از بسته lme4 استفاده کردم و از کد R زیر استفاده کردم: tot.null<-lmer(as.factor(outcome)~Time+(1|id), family=binomial(link='logit'), data=df.total) tot.mod<-lmer(as.factor(نتیجه)~trt*Time+(Time|id)، family=binomial(link='logit'), data=df.total) anova(tot.null,tot.mod) خلاصه (tot.mod) **سر داده** id trt نتیجه زمانی 1 1 بحث همتا -1 1 2 2 بحث همتا -1 1 3 3 بحث همتا -1 0 4 4 همتا بحث -1 1 5 5 بحث همتا -1 1 **str of data** > str(df.total) 'data.frame': 872 obs. از 4 متغیر: $ id : int 1 2 3 4 5 6 7 8 9 10 ...
$ trt : فاکتور w/ 2 سطح بحث همتایان،..: 1 1 1 1 1 1 1 1 1 1 ... $ زمان : num -1 -1 -1 -1 -1 -1 -1 -1 - 1-1...
$ outcome: num 1 1 1 1 1 1 0 1 0 ... مشکل این است که من یک پیام خطا در `tot.mod` دریافت می کنم: > tot.mod<-glmer(as.factor(outcome)~trt* Time+(Time|id)، family=binomial(link='logit'), data=df.total) پیام هشدار: در mer_finalize(ans) : همگرایی کاذب (8) من فکر می کنم این دلیلی است که مدل قابل توجه است اما هیچ یک از پیش بینی کننده ها اینگونه نیستند. به SE های متورم نگاه کنید. **مقایسه با مدل تهی و خلاصه مدل کامل** > anova(tot.null,tot.mod) داده ها: df.total مدل ها: tot.null: as.factor(نتیجه) ~ Time + (1 | ID ) tot.mod: as.factor(نتیجه) ~ trt * زمان + (زمان | شناسه) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) tot.null 3 689.54 703.85 -341.77 tot.mod 7 410.67 444.07 -198.34 286.86 4 < 0.000000000000000000022 *** کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 > خلاصه (tot.mod) مدل ترکیبی خطی تعمیم یافته با فرمول تقریبی لاپلاس: به عنوان عامل (نتیجه) ~ trt2 * زمان + (زمان | شناسه) داده: df.total AIC BIC logLik انحراف 410.7 444.1 -198.3 396.7 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr id (Intercept) 396.46 19.911 Time 1441.98 37.973 0.470 تعداد obs: 872, group: id, 436 Fixed effect: Estimate Std. خطای z مقدار Pr(>|z|) (قطع) 10.09866 3.33921 3.024 0.00249 ** trt21 0.01792 5.10796 0.004 0.99720 زمان -0.93756 0.93756 0.00249 -0.93756 0.0019 trt21:Time -0.84882 10.41073 -0.082 0.93502 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) trt21 زمان trt21 -0.654 زمان 0.558 -0.365 trt21 -0.31 -0.31 چه خبر است؟ چرا مدل قابل توجه است اما هیچ یک از نسخه های بتا وجود ندارد؟ در OLS می دانم که این نشانگر چند خطی بودن در بین پیش بینی ها است. فکر نمی کنم دلیلش اینجا باشد. لطفا برای درک این مشکل و همچنین پیام خطا (من فکر می کنم آنها ممکن است متصل شده باشند) کمک کنید. چه مواردی را باید بررسی کنم؟ دو مدل دیگر از یک مجموعه داده («تقسیم» بر روی یک متغیر گروهبندی متفاوت) مشکل ظاهری نداشتند. پیشاپیش از شما متشکرم. _استفاده از R 2.14.2، lme4 v. 0.999375-42 در ماشین win 7_
|
مدل قابل توجهی بدون بتای قابل توجه؟
|
9656
|
من یک اسکریپت R ساده برای آزمایش الگوریتم خوشه بندی طیفی می نویسم اما برای مقادیر ویژه همه آنها را مثبت نمی گیرم و lambda0 با 0 متفاوت است. اینجا اسکریپت من Dsqrt<-matrix(0,length(V(g)) است. طول(V(g))) # ماتریس D^-0.5 برای (i در 1:(طول(V(g))-1)) Dsqrt[i,i]<-1/sqrt(درجه(g,V(g)[i-1])) L<-graph.laplacian(g, normalized=TRUE) #Here L[i,i]=1 و L[i,j]= 1/sqrt(d[i]*d[j]) L<-Dsqrt %*% L %*% Dsqrt Eigns<-eigen(L) و وقتی «Eigns$values» را بررسی میکنم، گاهی مقادیر منفی دریافت میکنم. آیا کسی می تواند به اشتباه من اشاره کند؟ پیشاپیش ممنون
|
مشکل با کد R برای خوشه بندی طیفی
|
9654
|
بسیاری از مقالات کارآزمایی کنترلشده تصادفیسازی شده (RCT) آزمایشهای معنیداری را روی پارامترهای پایه درست بعد از/قبل از تصادفیسازی گزارش میکنند تا نشان دهند که گروهها واقعاً مشابه هستند. این اغلب بخشی از جدول ویژگی های پایه است. با این حال، آزمون های معناداری احتمال به دست آوردن اختلاف مشاهده شده (یا قوی تر) را به طور تصادفی اندازه گیری می کنند، اینطور نیست؟ و اگر آزمون معنی دار باشد، نتیجه می گیریم که **تفاوت واقعی وجود دارد زیرا تفاوت تصادفی در این حد بعید است**. آیا وقتی می دانیم که هر **تفاوتی باید ناشی از شانس باشد**، آزمون معناداری پس از تصادفی سازی معنا پیدا می کند؟
|
آیا آزمون معنیداری برای مقایسه گروههای تصادفیسازی شده در ابتدا معنا دارد؟
|
97225
|
 استاد سری زمانی من امروز نظری را ارائه کرد که اجرای این مدل به معنای از دست دادن مشاهدات k+1 است. فکر میکنم فهمیدهام که چگونه مشاهدات هدر میروند، اما به دلیل این که به اشتباه فکر میکنم چیزی را فهمیدهام (خود تشخیصی) بدنام هستم. یک توضیح ساده قدردانی می شود!
|
چگونه شامل کردن تاخیرها به معنای از دست دادن مشاهدات است
|
9653
|
من آموخته ام که حجم نمونه کوچک ممکن است منجر به قدرت ناکافی و خطای نوع 2 شود. با این حال، من این احساس را دارم که نمونه های کوچک ممکن است به طور کلی غیر قابل اعتماد باشند و ممکن است به طور تصادفی به هر نوع نتیجه ای منجر شوند. آیا این درست است؟
|
آیا حجم نمونه کوچک می تواند باعث خطای نوع 1 شود؟
|
107426
|
من در حال طراحی آزمایشی هستم که دارای فاکتورهای (A,B) با 4 و 5 سطح است. از آنجایی که این مقدار بسیار زیاد است، من متوجه شدم که از طرح فاکتوریل استفاده می کنم. با این حال، مشخص نیست که آیا درمان اصلاً، در هر سطح یا عاملی مؤثر خواهد بود یا خیر. بنابراین آزمایش زیر را طراحی کردم: > همه شرکتکنندگان آزمایشی را انجام میدهند که یک کنترل منفی است (بدون > افزودن/درمان) و سپس همان شرکتکنندگان آزمایشی را با سطح > بهطور تصادفی از هر عامل انجام میدهند. این به من اجازه می دهد تا آزمایش کنم که آیا درمان در هر سطحی تأثیری دارد (تست T) و سپس بررسی کنم که کدام ترکیب از فاکتور/سطح به طور خاص مؤثر است (ANOVA). من به دنبال یک منبع مناسب در این مورد بودهام، تصور میکنم این یک طرح فاکتوریل است، اما افزودن کنترل روی همه شرکتکنندگان قبل از درمان تصادفی، یافتن عنوان/منبع مناسب در این طرح را دشوار میکند. آیا کسی می تواند من را در جهت مناسب راهنمایی کند؟
|
طراحی آزمایش فاکتوریل کنترل شده: کدام نام یا منبع؟
|
97224
|
فرض کنید تابع چگالی احتمال مشترک $X,Y$ $$f(x,y)=\frac{1}{2}\\\ x>0 ,y>0,x+y<2$$چگونه می توانم تابع چگالی احتمال $U=Y-X$ را پیدا کنید
|
یافتن تابع چگالی احتمال $U=Y-X$
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.