_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
41863
|
من یک مجموعه داده از یک کیسه کلمات دارم. چند نقطه را به صورت تصادفی انتخاب می کنم و از آنها برای تست استفاده می کنم و از بقیه برای آموزش استفاده می کنم. * مورد (1) من فقط هر نقطه داده را از مجموعه آزمایشی می گیرم و آن را به عنوان دارای برچسب کلاس مشابه به عنوان نزدیکترین نقطه آن از مجموعه قطار طبقه بندی می کنم. * مورد (2) من طبقه بندی را با استفاده از هر طبقه بندی نظارت شده شناخته شده انجام می دهم. من همیشه در مورد (1) نرخ تشخیص بهتری دارم. یعنی انجام ندادن هیچ یادگیری برای این مجموعه داده (و سایرین) بهتر از استفاده از هر یادگیری نظارت شده است! آیا این وضعیت مکرر است؟
|
وقتی هیچ یادگیری روی مجموعه داده انجام نمیدهم، خطای طبقهبندی کمتر است؟
|
49644
|
فرض کنید من مجموعه ای از مقادیر اسکالر $V$ دارم که از مجموعه $S$ نمونه برداری کردم. میخواهم آزمایش کنم که آیا یک مقدار معین $X$ میتواند عضوی از $S$ باشد یا خیر. میدانم که اگر مقادیر $V$ به طور معمول توزیع شوند، میتوانیم میانگین و انحراف استاندارد را پیدا کنیم، پس از آن میتوانید احتمال وقوع را برای هر مقدار خاص بر اساس تعداد انحرافات استاندارد که مقدار شما با میانگین متفاوت است تعیین کنید. با این حال، اگر مقادیر به طور معمول توزیع نشوند، چه اتفاقی میافتد؟ به عنوان مثال، اگر 2 قله در داده های خود داشته باشید چه می شود؟ مثال: اگر از نسبت پهنای لگن به طول استخوان ران در تعداد زیادی از بزرگسالان نمونه برداری کنید، 2 پیک خواهید داشت، یکی برای مردان و دیگری برای زنان. حال سوال من این است که با توجه به یک نسبت خاص، چگونه می توانیم احتمال انسان بودن موضوع را تعیین کنیم؟ (یعنی احتمال اینکه این نسبت بخشی از مجموعه $S$ ما باشد.)
|
چگونه می توانید این احتمال را پیدا کنید که یک عنصر بخشی از یک مجموعه نمونه برداری شده است؟
|
49640
|
ابتدا چند آزمایش انجام دادم. پس از آن، من به دنبال پارامتر $p_{max}$ گشتم که برای آن میتوانم ادعا کنم که شانس یک ماتریس دارای ویژگی ESP $p_{max}$ یا کمتر به معنی دقیقاً 99٪ است. آیا این بر مبنای فلسفی تر درست است؟ من در حال انجام تحقیق در علوم کامپیوتر هستم و آزمایشی برای تعیین اینکه آیا یک ماتریس تصادفی دارای خاصیت ESP است یا خیر، دارم. اگر این آزمایش برنوئی را به طور مکرر اجرا کنید، یک توزیع دوجمله ای از ماتریس هایی دریافت می کنم که خاصیت ESP را نگه می دارند یا ندارند که من پارامتر $p$ آن را تخمین می زنم. این شانس $p$ عدم نگه داشتن ویژگی ESP واقعاً کم است (مثل 0.001٪). بنابراین کاری که من انجام می دهم این است که شانس $p_{max}$ را پیدا کنم که یک ماتریس دارای ویژگی ESP است، با سطح معنی داری دقیقاً 0.99. پیدا کردن این مقدار مشکلی ندارد. با این حال، آیا دلایل خوبی وجود دارد که این رویکرد بد برای مشکل است؟ زیرا اساساً این یک رویکرد پیشرفته تر از این است: آیا افزایش سطح اهمیت همیشه خوب است؟ تفاوت در این مورد این است که من سطح اهمیت را ثابت نگه میدارم، در حالی که به دنبال پارامتر $p$ میگردم که نتایج تجربی من را به بهترین شکل توضیح دهد.
|
یافتن پارامتر $p$ از توزیع برنوئی که دقیقاً 99٪ معنی دار است
|
41867
|
من می خواهم بفهمم که چگونه می توانم بردارهای ویژه و مقادیر ویژه یک ماتریس را با استفاده از کاهش ابعادی محاسبه کنم. من یک ماتریس $M$ با ابعاد $n$ x $d$ با استفاده از کاهش ابعاد دارم می توانم بردارهای ویژه و مقادیر ویژه کوواریانس را محاسبه کنم. ماتریس $MM^t$. پس از محاسبه این بردارهای ویژه و مقادیر ویژه چگونه می توانم بردارهای ویژه ماتریس اصلی را محاسبه کنم؟
|
بردارهای ویژه PCA با کاهش ابعاد
|
41862
|
من متون مختلف را طبقه بندی می کنم و در مورد برخی از ویژگی هایی که ارتباط زیادی با هم دارند تعجب می کنم. من 49 ویژگی دارم. برخی از ویژگی ها شمارنده مطلق (اعداد صحیح) هستند اما بیشتر ویژگی ها شمارنده های نسبی هستند (شناور بین 0-1). من F-score (تک متغیره) را اجرا می کنم و سه ویژگی زیر را با بالاترین امتیاز کسب می کنم: 1-ریشه چهارم تعداد فرم های کلمه، 2- تعداد فرم های کلمه و 3-تعداد جملات. من یک رتبه بندی ویژگی را بر اساس درختان بسیار تصادفی اجرا می کنم (جنگل های گروهی با یادگیری scikit) و دقیقاً همان سه ویژگی را به عنوان ویژگی های بالاترین رتبه دریافت می کنم. رتبه بندی بر اساس درختان تصادفی با استفاده از bootstrapping و GINI است. در نتایج F-scores می توانم متوجه شوم که ویژگی های بسیار همبسته ممکن است بالاترین رتبه را داشته باشند زیرا مبتنی بر تک متغیره است (در آن زمان فقط یک ویژگی را اندازه گیری کنید). در رتبه بندی درختی تصادفی انتظار داشتم که فقط یکی از ویژگی های مربوط به طول متن دارای رتبه بالا و بقیه دارای رتبه پایین تر و مشکل همبستگی حل شود. اما نتایج مطابق انتظار من نیست. حتما دارم اشتباه می کنم! آیا می توان به این واقعیت پی برد که هر سه ویژگی شمارنده های عدد صحیح هستند (مقادیر در محدوده 1000) و سایر ویژگی ها شمارنده های نسبی هستند (0-1). اما همانطور که میدانم رتبهبندی براساس درختهای تصادفی باید بتواند اختلافات زیادی بین ویژگیها را مدیریت کند. سوال من این است که چگونه باید با این موضوع برخورد کنم. آیا باید برخی از ویژگی ها را کنار بگذارم؟ چگونه می توانم بهترین ویژگی را که طول متن را مشخص می کند، پیدا کنم؟ هر گونه کمک در اینجا قدردانی می شود!
|
ویژگی های بسیار مرتبط و رتبه بالا
|
17660
|
من یک متغیر تصادفی پیوسته $X$ دارم (مثبت). من می خواهم توزیع آن را با یک توزیع گسسته شبیه سازی کنم و $E[X]$ را از آن توزیع گسسته محاسبه کنم. بنابراین، رویکرد واضح این است که محدوده متغیر تصادفی را به اندازه مرحله $h$ تقسیم کنیم. اجازه دهید مقادیر CDF در نقاط $0,h,2h,\ldots,Nh$ $P_0,P_1,P_2,\ldots,P_N$ باشد. بنابراین، $\text{Prob}(0 < X \leq h)=P_1-P_0$، $\text{Prob}(h < X \leq 2h)=P2-P1$ و غیره. اکنون این توده های احتمالی با یک بازه مرتبط هستند. ما باید یک نقطه نماینده برای هر بازه پیدا کنیم، و مشکل من اینجاست. برای بازه $(a,b]$ کدام نقطه را باید به عنوان نقطه نماینده در نظر بگیریم؟ نقطه چپ، راست ترین نقطه، نقطه میانی؟ اساساً با توجه به رابطه زیر F'(t)=P(X<=t)= $1-(1-F(t))^{n}$ من باید انتظار X را پیدا کنم، یعنی E[X] که در آن F(t) CDF برخی از متغیرهای تصادفی دیگر Y است. عبارت F(t) شناخته نشده است برای من فقط به یک جعبه سیاه دسترسی دارم که به من مقدار F(t) را به عنوان ورودی می دهد. سوال دیگر این است که چگونه می توان یک مقدار h مناسب (اندازه مرحله) را با توجه به یک خطای محدود epsilon در مقدار مورد انتظار انتخاب کرد.
|
شبیه سازی توزیع پیوسته با استفاده از توزیع گسسته
|
90502
|
آیا راهی وجود دارد که بتوانم یک پیاده روی تصادفی زمان گسسته را با واریانس تصادفی مدل کنم؟ مدلهای vol تصادفی که من پیدا کردم، همگی پیوسته هستند و حجم را نرمال فرض میکنند.
|
پیاده روی تصادفی با واریانس تصادفی
|
41861
|
من سعی میکنم اندازههای افکت ANOVA را از کاغذهایی که مقدار F را بدون اطلاعات دیگر ارائه میدهند، محاسبه کنم. اگر درست متوجه شده باشم، اندازه اثر برای ANOVA تک عاملی $$ \eta {2} = \frac{ss_{between}}{ss_{between} + ss_{error}} $$ است و مقدار F برابر است: $$ F = \frac{(N-k)ss_{between}}{(k-1)(ss_{بین} + ss_{خطا})} $$ ** به روز رسانی: نه! مخرج فقط [(k-1)*SSerror] است. بنابراین، هر آنچه در ادامه می آید باطل است. بازگشت به آمار سال اول برای من.** که در آن N = تعداد مشاهدات و k = تعداد گروه ها. **سؤال 1:** آیا نتیجه می شود که می توانید eta را به صورت مجذور محاسبه کنید: $$ \eta {2} = \frac{k-1}{N-k}F $$ **سوال 2:** سعی کردم این را بررسی کنم در برخی از خروجی های SPSS. در اینجا یک مثال با k=4 و N=158 آورده شده است:  من می دانم که SPSS eta جزئی می دهد مربع، اما برای یک ANOVA تک عاملی که باید همان مربع eta باشد، درست است؟ و در واقع، نسبت مجموع مربعات $\frac{342.872}{(342.872+6133.519)} = 0.05294$ است. اما با استفاده از F، $2.870*3/154 = 0.05591$ دریافت می کنیم که بسیار بیشتر از خطای گرد کردن است. آیا SPSS بطور ماهرانه F را به نحوی تنظیم می کند یا من در مورد نحوه محاسبه مربع eta سردرگم هستم؟
|
محاسبه eta به مجذور F و df
|
90503
|
من متغیر پاسخ متورم صفر دارم که سعی می کنم پیش بینی کنم. من با استفاده از مدلهای رگرسیون مختلف با مشکلات کمی روبرو هستم که باید برای این موضوع اصلاح شود. این 10000 دیتا فریم obs من است e_weight left_size right_size time_diff Min. :0.000 دقیقه : 1000 دقیقه : 1000 دقیقه : 737 1st Qu.: 0.000 1st Qu.: 1.000 Qu. 1st: 1.000 Qu. 1: 4669275 Median :0.000 Median : 3.000 Median : 3.000 Median : 12269274 Mein : 12269275 میانگین : 5.469 میانگین : 21000288 3 سوم: 0.000 3. 5.000 3. 5.000 3rd Qu.: 25420278 حداکثر. حداکثر : 3000 حداکثر : 792.000 حداکثر : 792.000 :155291532 در اینجا تعداد فرکانس 3 متغیر من  در واقع من با صفرها مشکل دارم... به ترتیب صفر- را امتحان کردم رگرسیون دوجمله ای منفی بادشده و کتابخانه رگرسیون پواسون با تورم صفر (pscl) m1 <- zeroinfl(e_weight ~ left_size*right_size | time_diff, data = s) summary(m1) # Call: # zeroinfl(formula = e_weight ~ left_size * right_size | time_diff, data = s) # # باقیمانده های پیرسون: # حداقل 1Q میانه 3Q حداکثر -1.4286 -0.1460 -0.1449 -0.1444 19.6054 # # شمارش ضرایب مدل (poisson با پیوند لاگ): # برآورد Std. خطای z مقدار Pr(>|z|) # (Intercept) -3.8826386 0.0696970 -55.707 < 2e-16 *** # left_size 0.0022261 0.0006195 3.594 0.000326 NA 0.000326 0.000326 NA # اندازه_ چپ: اندازه_راست 0.0001715 NA NA NA # # ضرایب مدل تورم صفر (دوجمله ای با لینک لاجیت): # تخمین Std. خطای z مقدار Pr(>|z|) # (Intercept) 1.753e+01 6.011e+00 2.916 0.00354 ** # time_diff -3.342e-04 1.059e-06 -315.773 < 2e-16 *** # --- # Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 # # تعداد تکرارها در بهینه سازی BFGS: 28 # احتمال ورود: -1053 در 6 Df # پیام هشدار: # در sqrt(diag(object$vcov)) : NaNs تولید شده و کتابخانه (MASS) m2 <- glm.nb(e_weight ~ left_size*right_size + time_diff, data = s) که می دهد 22 اخطار وجود داشت (از warnings() برای دیدن آنها استفاده کنید) warnings() پیام های هشدار: 1: glm.fit: الگوریتم همگرا نشد ... 21: glm.fit: الگوریتم همگرا نشد 22: در glm .nb(e_weight ~ left_size * right_size + time_diff, ... : حد تناوب رسیده است اگر از خلاصه برای خلاصه مدل دوم (m2) # تماس: # glm.nb (فرمول = e_weight ~ left_size * right_size + time_diff, # data = s, init.theta = 0.1372733321, link = log) # # Deviance Residuals: # Min 1Q Median 3Q Max # -3.4645 -0.2331 -0.1885 -0.1266 2.7669 # # Coefficients: # Estimate Std. خطای z مقدار Pr(>|z|) # (Intercept) -3.239e+00 1.090e-01 -29.699 < 2e-16 *** # left_size -4.462e-03 1.835e-03 -2.431 0.015047 * # right 7.144e-03 2.118e-03 -3.374 0.000742 *** # time_diff -6.013e-08 8.584e-09 -7.005 2.48e-12 *** # left_size:right_size 4.691e-03 2.749 *** 2.749. # --- # Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 # # (پارامتر پراکندگی برای خانواده دوجمله ای منفی (0.1374) 1) # # انحراف تهی: 1106.5 در 9999 درجه آزادی # انحراف باقیمانده: 958.5 روشن 9995 درجه آزادی # AIC: 1967.2 # # تعداد تکرارهای امتیازدهی فیشر: 12 # # # تتا: 0.1373 # Std. خطا.: 0.0223 # هشدار در حین برازش تتا: محدودیت تناوب به # # # 2 x احتمال ورود به سیستم رسیده است: -1955.2260 همچنین هر دو مدل دارای مقادیر p بسیار پایین برای bptest ناهمگونی (m1) # # # # دادههای تست Breusch-Pagan دانشجویی هستند: m1 # BP = 244.832، df = 3، p-value < 2.2e-16 # bptest(m2) # # آزمون دانشجویی Breusch-Pagan # # داده: m2 # BP = 277.2589، df = 4، p-value < 2.2e-16 چگونه باید به این رگرسیون نزدیک شوم. آیا منطقی است که قبل از اجرای هر گونه رگرسیون، 1 را به تمام دیتافریم خود اضافه کنم؟
|
رویکردهای رگرسیون با پاسخ تورم صفر
|
53101
|
من از JAGS استفاده کرده ام اما کاملاً مطمئن نیستم که واقعاً چگونه مقادیر آن را شبیه سازی می کند. من باید به طور کلی بدانم در پس زمینه چه اتفاقی می افتد. با تشکر از کمک
|
پشت JAGS (فقط یک نمونهگیر دیگر گیبس) چیست؟
|
90509
|
هنگام یافتن حداکثر جداکننده حاشیه در شکل اولیه، برنامه درجه دوم $$min\frac{1}{2}||\theta||^2$$ $$\text{ موضوع: } y^{(t) را داریم )}(\theta \cdot x^{(t)} + \theta_0) \geq 1, \ t=1,...,n,$$ اساساً گفتن برای پیدا کردن حداکثر جداکننده حاشیه. اندازه حاشیه خواهد بود: $$\frac{1}{||\theta||}.$$ آیا اندازه حاشیه تغییر می کند اگر ثابت های محدودیت را تغییر دهیم؟ یعنی اگر $$\text{ با موضوع: } y^{(t)}(\theta \cdot x^{(t)} + \theta_0) \geq k, \ t=1,... داشته باشیم. ,n,$$ به جای 1؟ اگر مهم نیست چرا این مهم نیست؟ چگونه یک فرمول معادل بدون در نظر گرفتن ثابت های دقیق برای محدودیت است؟
|
فرمول اولیه SVM: آیا محدودیت های ثابت مهم هستند؟
|
17662
|
من یک محاسبه مثال برای مدل ضربی دریافت کردم که به صورت زیر نشان داده شده است: چهارم 1 2 3 4 میانگین 0.866 1.0005 1.403 0.660 -------------------------- ------------------------- تنظیم 0.0176 0.0176 0.0176 0.0176 ضریب فصلی 0.884 1.018 1.421 0.678 سپس یک یادداشت زیر وجود دارد: > مجموع میانگین ها = 3.9295. اینها باید به 4، 4-3.9295=0.0705 جمع شوند. برای به دست آوردن عوامل فصلی، به هر میانگین 0.0705/4=0.0176 اضافه کنید. من از منابع دیگر دیدم که با نرمال کردن مقادیر، از «شاخص فصلی» به جای «فاکتور فصلی» استفاده می کنند. در کنار آن به X11، X12، ARIMA و ... هم اشاره کردند. میخواهم بدانم بر اساس مثال بالا، این روش چیست؟
|
این روش برای محاسبه تعدیل فصلی چیست؟
|
53106
|
rv توزیعشده دانشآموز X$ دارای تابع مشخصه است اما تابع تولید لحظه ندارد. نمیدانم اگر cf(X)=$E[e^{itX}]$، چرا نمیتوانیم $t=-iu$ را برای دریافت mgf $E[e^{uX}]$ بگیریم؟ (این سوال ممکن است بسیار احمقانه باشد...) اگر نمی توانیم mgf را از X$ بدانیم، آیا روش عددی دقیقی برای ارزیابی $E[e^{X}]$، یعنی مقدار mgf در $u وجود دارد. =1 دلار؟
|
mgf و cf توزیع t Student
|
13572
|
آیا می توان یک منحنی داده را با منحنی داده دیگری منطبق کرد؟ لطفاً این طرح را ببینید من مدلی برای منحنی داده سیاه ندارم یا نمی خواهم آن را مدل کنم. اما میخواهم ببینم که منحنی دادههای قرمز چگونه با منحنی سیاه مطابقت میکند. آیا ممکن است؟ من به دنبال یک راه حل ناپارامتریک یا راه حلی هستم که حتی بدون ترسیم دو منحنی بتوان به آن رسید.
|
آیا می توان یک منحنی داده را با منحنی داده دیگری منطبق کرد؟
|
62542
|
من یک تابع فاصله شبیه به این شکل ابداع کردم $d(x,y) = \sum_{i = 1}^{n-1} b(x_i, y_i, x_{i+1}, y_{i+1}) $ با $b(x_i، y_i، x_{i+1}، y_{i+1}) = 0 \mbox{ اگر } x_i \leq 0 \vee y_i \leq 0 \vee x_{i+1} \leq 0 \vee y_{i+1} \leq 0$ $b(x_i, y_i,x_{i+1}, y_{i+1}) = \alpha \cdot \frac{x_{i+1}}{y_{i+1}} + (x_i - y_i)^2 \mbox{ else } $ Where $\alpha$ یک عدد واقعی > 0 است. و اکنون میخواهم ثابت کنم (یا رد کنم) که $e^{-d(x,y)}$ یک هسته است که برای مثال میتوانم در SVM از آن استفاده کنم. من در مورد شرایط Mercer، نیمه قطعیت مثبت و در مورد ساخت کرنل از هسته های موجود خوانده ام، اما نمی توانم آن را به این نوع تابع منتقل کنم. به خصوص، چگونه با موارد اگر در تعریف b رفتار کنم؟ هر کمکی بسیار قدردانی خواهد شد :)
|
ثابت کنید (یا رد کنید) که این تابع یک هسته است
|
49645
|
من در رابطه با انحراف تایید شده متقاطع یک تناسب کمند سردرگمی دارم. من مطمئن نیستم که چه کاری انجام می شود. فرض کنید من lassoglm را در Matlab برای مجموعه دادهام اجرا میکنم که دارای 1000 نمونه و 15 ویژگی با یک CV فرضاً 100 است. چه کاری انجام میدهد؟ و طرح lassoPlot با CV چه می کند؟ من به این لینک اشاره می کنم که متوجه نشدم انحراف یعنی چه. کسی میتونه توضیح بده لطفا؟
|
سردرگمی مربوط به انحراف اعتبار متقاطع مناسب کمند
|
58136
|
من آزمایشی انجام دادم که در آن یک نتیجه مثبت یا منفی از یک سلول ثبت کردم. دادههای من در جداول تعداد رویدادها و آزمایشها تنظیم شدهاند، اما من نمیدانم چگونه روی دادههای باینری تجزیه و تحلیل آماری انجام دهم، باید اهمیت بین گروههایی را که آزمایش کردم، آزمایش کنم. آیا می توانم به درصد تبدیل کنم و یک آزمایش آماری روی آن انجام دهم و آن را به داده های پیوسته تبدیل کنم؟
|
تبدیل داده های باینری به درصد
|
58137
|
بنابراین این سوال بیان می کند که من چیزی را با 85٪ شانس موفقیت امتحان می کنم، اگر موفق نشدم دوباره تلاش می کنم تا زمانی که انجام دهم. میانگین و واریانس تعداد تلاش های لازم تا رسیدن به موفقیت چقدر است؟ با تشکر
|
میانگین و واریانس تعداد تلاش های مورد نیاز
|
53102
|
این تلاش من برای یافتن مغایرت در فرآیند تطبیق برای بسته «R» «تطبیق»» و تابع نوشته شده کاربر «psmatch2» در «Stata» [جزئیات] است. من سعی میکنم بفهمم فاصله Mahalanobis چگونه در psmatch2 (تابع نوشته شده توسط کاربر برای Stata) محاسبه میشود و آیا با فاصله Mahalanobis محاسبهشده در `R` و با استفاده از ماتریس در Stata مطابقت دارد [جزئیات برای Stata در اینجا موجود است]. در زیر کد محاسبه فاصله Mahalanobis در R آمده است. دادههایی که من استفاده کردم دادههای نیروگاههای هستهای از «optmatch (بسته R)» است. کتابخانه (optmatch)# برای مجموعه داده دادههای نیروگاههای هستهای (نیروگاههای هستهای) # pr یک متغیر درمان سر (نیروگاههای هستهای) تاریخ هزینه t1 t2 cap pr ne ct bw cum.n pt H 460.05 68.58 14 46 687 0 1 0 0 14 094 است. 67.33 10 73 1065 0 0 1 0 1 0 A 443.22 67.33 10 85 1065 1 0 1 0 1 0 J 652.32 68.00 11 67 1065 0 1 1 0 12 0 1065 1061. 1 1 1 0 12 0 K 345.39 67.92 13 51 514 0 1 1 0 3 0 library(external) write.dta(nuclearplants,datanp.dta) covar<-cbind(nuclearplants$t1,nuclearts-$t)# t1 و t2 X<-covar متغیر است محاسبه فاصله Mahalanobis برای تیمار (pr=1) در ردیف 7 و کنترل (pr=0) در ردیف 3 kk<-solve(cov(X)) kk [,1] [,2] [1,] 0.11362947 0.01747102 [2،] 0.01747102 0.01194136 mahalanobis(X[7,], center=X[3,], cov=kk, inverted=TRUE) [1] 12.63674 #محاسبه فاصله Mahalanobis برای درمان (pr=1) در ردیف 2 و کنترل (pr=0) در ردیف 3 mahalanobis(X[2,], center=X[3,], cov=cov(X)) [1] 1.719555 ###########` مراحل بالا را در Stata با استفاده از ماتریس انجام دهید`############ من ماتریس کوواریانس را در Stata به صورت زیر محاسبه کردم: mat accum cov = t1 t2، dev noc mat covinv=inv(cov/(r(N)-2)) # تابع psmatch2 بر لیست N-2 mat تقسیم می شود covinv متقارن covinv[2,2] t1 t2 t1 .10996401 t2 .01690744 .01155615 #این با محاسبه ماتریس کوواریانس معکوس در بالا در R متفاوت است. با این حال، تقسیم بر N-1 پاسخ یکسانی را می دهد (مطمئن نیستم چرا در psmatch2) باید بر N-2 تقسیم کنیم covinv=inv(cov/(r(N)-1)) mat list covinv متقارن covinv[2,2] t1 t2 t1 .11362947 t2 .01747102 .01194136 # فعلاً به یکی با میانگین N-1 (t1) پایبندم mean(t2) بعد برای درمان 3 X[3,] داریم:-3.75 22.625 {این به صورت میانگین 10 (t1) و 85 منهای میانگین (t2)) و برای کنترل X[7،]: -1.75 -12.375 {این به صورت میانگین 12 (t1) و 50 منهای میانگین به دست میآید. t2)) اکنون فاصله ماهالانوبیس: (X[7،]-X[3،]) *covinv*(X[7,]-X[3,] =12.2291 (اگر از N-1 در محاسبات واریانس در psmatch22 استفاده کنیم، این مانند R خواهد بود) به طور مشابه، برای درمان 3 و کنترل 2 این است (X2[2,]-X2[3,])*covinv* (X2[2,]-X2[3,])=1.664086 (این خواهد شد اگر از N-1 در محاسبه واریانس در psmatch2 استفاده کنیم مانند R باشد. بنابراین، تا به حال، من نشان می دادم که اگر به محاسبه واریانس با N-1 به جای N-2 (مانند psmatch2) به محاسبات پایبند باشیم، نتایج «R» و «Stata» مطابقت دارند. با این حال، وقتی «psmatch2» psmatch2 pr، mahalanobis(t1 t2) را اجرا میکنم و فاصله Mahalanobis را بدست میآورم (این به صورت «_mdif» در «psmatch 2» داده میشود: «_mdif» در مورد تطبیق یک به یک Mahalanobis ، برای هر مشاهده درمان، فاصله مطلق تا کنترل همسان خود را بر حسب متریک Mahalanobis ذخیره می کند. فاصله ماهالانوبیس برای تیمار (pr=1) در ردیف 7 و شاهد (pr=0) در ردیف 3 2.26469 توجه: فاصله محلانوبیس برای تیمار (pr=1) در ردیف 2 و شاهد (pr=0) ارائه نمی شود. ) در ردیف 3 زیرا فاصله را فقط برای مشاهدات منطبق فراهم می کند. سوال من این است که چرا فاصله Mahalanobis (2.26469) با استفاده از psmatch2 با فاصله محاسبه شده با استفاده از R (12.63674) و تابع ماتریس در Stata (12.63674 برای واریانس محاسبه شده با استفاده از N-1) متفاوت است؟
|
محاسبه فاصله Mahalanobis در تابع نوشته شده توسط کاربر psmatch2 Stata
|
41860
|
من یک مطالعه مقدماتی با حجم نمونه بسیار کوچک (26=n) دارم و میخواهم تفاوتهای بین مرد و زن و موارد مشابه را آزمایش کنم، بنابراین باید نمونه را تقسیم کنم و بین 13 در مقابل 13 آزمودنی مقایسه کنم. آیا آزمونی وجود دارد که بتوانم از آن استفاده کنم تا در مورد اینکه چه تفاوت هایی ممکن است وجود داشته باشد، نظر بدهم؟ آیا می توان از آزمون t دو نمونه مستقل استفاده کرد حتی اگر نمونه به این کوچکی باشد و متغیر به طور معمول توزیع نشده باشد؟ در غیر این صورت چه کاری می توانم انجام دهم؟
|
هنگامی که داده ها به طور معمول توزیع نمی شوند و حجم نمونه کوچک است، چگونه می توان تفاوت بین دو گروه را آزمایش کرد؟
|
53107
|
از ویکی پدیا: > گفته می شود که آمار $s$ برای توزیع $X$ کامل است اگر برای > هر تابع قابل اندازه گیری $g$ (که باید مستقل از پارامتر $θ$ باشد) > مفهوم زیر صادق است: $$ E (g(s(X)) = 0، \forallθ \text{ به معنی > که }P_θ(g(s(X)) = 0) = 1، \forall θ. $$ گفته میشود که اگر این مفهوم برای همه توابع محدود شده $g$ وجود داشته باشد، آمار $s$ کاملاً > کامل است. من می خوانم و با xi'an و phaneron موافقم که یک آمار کامل به این معنی است که فقط یک برآوردگر بی طرف می تواند بر اساس آن وجود داشته باشد. در اصل، آن (کامل بودن یک ویژگی یک آمار است) شرطی است > که تضمین می کند پارامترهای توزیع احتمال > که مدل را نشان می دهد همه می توانند بر روی تخمین زده شوند. بر اساس آمار: > تضمین می کند که **توزیع**های مربوط به مقادیر مختلف > پارامترها متمایز هستند. * به چه معنا (و چرا) کامل بودن تضمین می کند که توزیع های مربوط به مقادیر مختلف پارامترها متمایز هستند؟ آیا توزیع ها توزیع های یک آمار کامل است؟ * به چه معنا (و چرا) کامل بودن تضمین می کند که پارامترهای توزیع احتمال که مدل را نشان می دهد همه بر اساس آمار تخمین زده شوند؟ 2. [اختیاری: «کامل محدود» در مقایسه با کامل به چه معناست؟] با تشکر و احترام!
|
معنی کامل بودن یک آمار؟
|
20777
|
من مجموعه داده بقای جمعیتی با یک بیماری خاص را دارم. من می خواهم این جمعیت را با جمعیت عمومی مقایسه کنم تا ببینم آیا این جمعیت به طور کلی امید به زندگی کاهش یافته است یا خیر. آنچه من در ذهن داشتم این بود که برای هر بیمار در مجموعه داده یک کنترل ایجاد کنم و سن، جنس و امید به زندگی خاص گروه را از بانک اطلاعات آمار ملی وارد کنم و فقط یک تجزیه و تحلیل Kaplan-Meier را اجرا کنم. با این حال، من مطمئن نیستم که چگونه باید با موضوع سانسور برخورد کنم. آیا اگر امید به زندگی برای گروه ایکس-سن، y-جنس و همگروه z از تاریخ امروز فراتر رود، یعنی: انتظار می رفت که یک مرد 50 ساله در سال 2000 در جمعیت عمومی 28 سال زندگی کند، باید کنترل را سانسور کنم؟ برداشت من این است که او باید با 11 سال و وضعیت سانسور وارد شود. یا آیا راه دیگری از نظر ریاضی دقیق تر برای انجام این کار با در نظر گرفتن عدم قطعیت با امید به زندگی پیش بینی شده برای جمعیت وجود دارد؟
|
بقای یک جمعیت را با جمعیت عمومی مقایسه کنید
|
13578
|
من از «heatmap.2» برای خوشهبندی دادههایم استفاده میکنم، از روش centroid برای خوشهبندی و حداکثر روش برای محاسبه ماتریس فاصله استفاده میکنم: library(gplots) library(RColorBrewer) تست <- matrix(c(0.96 ، 0.07، 0.97، 0.98، 0.50، 0.28، 0.29، 0.77، 0.08، 0.96، 0.51، 0.51، 0.14، 0.19، 0.41، 0.51)، ncol=4، byrow=TRUE) colnames(تست) <- c(Exp1،Exp2،Exp4،E ) نام ردیف (تست) <- c(Gene1،Gene2،Gene3، Gene4) تست <- as.table(test) mat <- data.matrix(test) heatmap.2(mat, dendrogram=row, Rowv= TRUE، Colv=FALSE، distfun=function(x) dist(x، method='maximum')، hclustfun=function(x) hclust(x, method='centroid'), xlab=NULL, ylab=NULL, key=TRUE, keysize=1, trace=none, density.info=c(none), margins=c(6, 12), col = آبی رنگ) این یک نقشه حرارتی با وارونگی در درخت خوشه ای ارائه می دهد که ذاتی روش مرکز است. یک راه حل برای جلوگیری از وارونگی استفاده از اقلیدسی یا فاصله بلوک شهر است و در واقع اگر در مثال بالا حداکثر را به اقلیدسی تغییر دهید، وارونگی ها از بین رفته اند (برای مرجع به فصل 4.1.1 در این پیوند مراجعه کنید). اکنون در مورد مشکل من، وقتی از داده های واقعی خود به جای جدول مثال استفاده می کنم، وقتی به اقلیدسی تغییر می کنم، وارونگی ها هنوز وجود دارد. کد R دقیقاً مشابه این مثال است، فقط داده ها متفاوت است. وقتی از «خوشه 3.0» و «نمای درختی جاوا» با روش اقلیدسی و مرکزی استفاده میکنم، هیچ وارونگی در دادههای من آنطور که انتظار میرود وجود ندارد. پس چرا R وارونگی می دهد؟ تئوری و نرم افزارهای دیگر می گویند که نباید. _**به روز رسانی:_** این مثالی است برای تغییر حداکثر به اقلیدسی وارونگی ها را برطرف نمی کند (بر خلاف مثال بالا که آن را رفع کرد) کتابخانه (gplots) library(RColorBrewer) تست <- matrix (c(0.96، 0.07، 0.97، 0.98، 0.99، 0.50، 0.28، 0.29، 0.77، 0.78، 0.08، 0.96، 0.51، 0.51، 0.55، 0.14، 0.19، 0.41، 0.51، 0.40، 0.97، 0.98، 0.51، 0.99، 0. byrow=TRUE) colnames(test) <- c(Exp1، Exp2، Exp3، Exp4، Exp5، Exp6) نام ردیف (تست) <- c(Gene1، Gene2 ، Gene3، Gene4) تست <- as.table(test) mat <- data.matrix(test) heatmap.2(mat, dendrogram=row, Rowv=TRUE, Colv=FALSE, distfun=function(x) dist(x, method='maximum'), hclustfun=function(x) hclust(x, method='centroid'), xlab= NULL، ylab=NULL، key=TRUE، keysize=1، trace=none، density.info=c(none)، margins=c(6,12)، col= bluered)
|
وارونگی در خوشه بندی سلسله مراتبی
|
13579
|
من به دنبال تنظیم چند اسکریپت تست بارگذاری وبسایت هستم و برای یافتن فرمولی برای تخمین تعداد کاربران همزمان در حال مرور یک وبسایت در زمانهای اوج مصرف، بر اساس معیارهای رایج مانند بازدید، میانگین بازدید از صفحه در هر بازدید و میانگین بازدید، به کمک نیاز دارم. مدت به عنوان مثال: اوج بازدیدکنندگان در ساعت: 1000 میانگین بازدید از صفحه برای هر بازدیدکننده: 3 میانگین زمان برای هر بازدید: 5 دقیقه آیا باید آمار دیگری را در نظر بگیرم؟ پیشاپیش متشکرم
|
حداکثر تعداد کاربران همزمان را در یک وب سایت محاسبه کنید
|
20773
|
با استفاده از دستور «گراف دو طرفه» Stata، با استفاده از دستور «qfit» یک نمودار پراکندگی با خط درجه دوم بهترین تناسب ایجاد کردم. چگونه می توانم معادله بهترین خط مناسب را بدست بیاورم؟ مثال: نمودار tw (پراکندگی y x) (qfit y x)
|
چگونه پارامترها را از یک تناسب درجه دوم در Stata بدست آوریم؟
|
21791
|
من یک اسکریپت نوشتم تا مقداری تحلیل انجام دهم و خوب کار می کرد تا اینکه سعی کردم یک حلقه while برای پیدا کردن خوشه های اعداد مناسب برای k-means ایجاد کنم. بنا به دلایلی مدام می گوید که یک آرگومان با طول صفر است، اما نباید وجود داشته باشد. من این را از راه دور اجرا می کنم و به صورت محلی خوب کار می کند. freq_1 <- NULL freq_alignment <- NULL برای (res در point_reference) {point <- paste(as.character(res)، _output.txt، sep = ) point_file <- file(point, r) point2 <- read.table(point_file) point2 <- as.data.frame(point2) k <- 2 check <- 0.5 while (بررسی < 0.75) { k <- k + 1 kcluster <- kmeans(point2, k) بررسی <- kcluster$betweenss/(kcluster$tot.withins+kcluster$betweenss) } پیکربندی <- kcluster$cluster فریم <- طول (پیکربندی) freq <- as.data.frame(table(conformations)) freq_1 <- cbind(freq_1, freq))) freq_alignment <- cbind(freq_alignment, kcluster$cluster) close(residue_file)} point_reference لیستی از اعداد (2، 3، 4، و غیره) است که مربوط به فایلی است که باید بارگیری شود و خود فایل ها خوب بارگیری کنید هدف من پیدا کردن k است که مربوط به 75٪ از کل SS است که از بین خوشه ها می آید. فقط حلقه ها اشتباه است...اگر آن را با فقط خوشه بندی با k = 5 جایگزین کنم، خوب کار می کند. خطای دقیق این است: Error in while (بررسی < 0.75) { : آرگومان با طول صفر است باز هم، من این کار را از راه دور روی یک کلاستر انجام می دهم و روی دسکتاپ R64 من کار می کند. تمامی فایل ها روی خوشه تولید شدند. امیدوارم بچه ها بتوانید کمک کنید! پیشاپیش ممنون
|
گرفتن آرگمون با طول صفر در طول یک حلقه while برای بهینه سازی k-means
|
13573
|
این یک سوال در مورد پیاده سازی نیست: من یک مدل GLMER با تعامل سه طرفه قابل توجهی دارم. هیچ یک از تعاملات دو طرفه یا اثرات اصلی قابل توجه نیستند. من این مدل را میپذیرم و تمام افکتهای مرتبه پایینتر را در مدل میگذارم، اما میخواهم این تعامل سهطرفه را ترسیم کنم: x، y، و سپس z به عنوان رنگ در یک ggplot. من پاسخهای y را بر اساس دادههایی که برای y و z با استفاده از مدل مذکور تولید میکنم، پیشبینی میکنم، اما فقط با استفاده از اثرات ثابت قابل توجه (برق و تعامل سهطرفه)، و x، y، z را ترسیم میکنم. آیا به نظر می رسد این کار برای ارتباط دادن به معنای تعامل با فرض اینکه نظم پایین تر و تأثیرات غیر قابل توجهی را در مدل حفظ کنم، انجام شود؟ با تشکر
|
ترسیم اثر تعامل بدون اثرات اصلی مهم (نه در مورد کد)
|
95868
|
>> من معتقدم که این 18.1 دلار است). میتوانیم از SS به همراه تعداد نمونههای $(21)$ برای دریافت خطای استاندارد استفاده کنیم. سپس به نحوی از این اطلاعات برای یافتن احتمال تناسب بدتر استفاده کنید؟ پس از تحقیقات بیشتر، من معتقدم که مقدار داده شده به عنوان $18.1 میانگین انحراف مربع یا واریانس نمونه است و نه مجموع مربع ها. اگر این درست باشد، پس حتماً یک _F_ -تست برای قسمت **b** منطقی است. آیا کسی می تواند مرا در مسیر درست راهنمایی کند و به من نشان دهد که چگونه این سوال را امتحان کنم؟ هر گونه کمکی قدردانی خواهد شد.
|
حداقل مربعات متناسب با داده های تجربی
|
62544
|
من یک فریم داده R مانند این دارم: structure(list(Mash_pear = c(0.328239947270445, 0.752207607551684, 0.812118104861163, 0.640824971449625, 0.640824971449625 0.546635339103089، 0.557460706464288، 0.650480192893698، 0.418044504894929، 0.52962586938499، t =R c(0.0350096175177328, 0.234255507711743, 0.23714999195134, 0.185536020521134, 0.1915850986172354, 0.19158509861725134 0.220911538536031، 0.216072802572045، 0.132247101763063، 0.172753098431029)، Beeml_pear = c(0.17971763099) 0.79129167285928, 0.856908302056589, 0.729078080521886, 0.709346164378725, 0.669599784720647, 0.669599784720647, 0.669599784720647, 0.66959784720647, 0.66959784720647, 0.66959784720647, 0.7290780521886, 0.639355942917055، 0.544909349368496، 0.794652394149651)، Mash_pear50 = c(0.192474082559755، 0.679752694، 0.679752694 0.778564545349054، 0.573745352397321، 0.56633658385284، 0.472559997318901، 0.462635414367874، 0.462635414367874, 0.462635414367874, 0.462635414367874, 0.462635414367874, 0.462635414367874, 0.462635414367874, 0.354624921832056، 0.64532681437697)، برچسبها = c(Aft1، Alx3، Alx4، Arid3a، Arid3a، Arid3a، Arid3a، Arid5a، Aroid80)، fam = c(AFT، Homeo، Homeo، BRIGHT، BRIGHT، BRIGHT، BRIGHT، BRIGHT، BRIGHT، Zn2Cys6)، pwmlength = c(21، 17، 17، 17، 17، 17، 17، 14، 14، 21))، .Names = c(Mash_pear، tRap_pear، Beeml_pear، Mash_pear50، labels، fam، pwmlength)، row.names = c(Aft1، Alx3_3418.2، Alx4_1744.1، Arid3a_3875.1_v1_primary، Arid3a_3875.1_v2_primary، Arid3a_3875.2_v1_primary، Arid3a_3875.2_v2_primary، Arid5a_3770.2_v1_primary، Arid5a_3770.2_v2_primary، Aro80)، class = data.frame) اولین ستون های من برای همبستگی 4 هستند. تفاوت های قابل توجه این 4 ستون روش هایی برای تخمین اتصال فاکتور رونویسی به DNA هستند. حالا می خواهم بدانم کدام روش بهترین عملکرد را دارد؟ من تست t زوجی و t-test غیر جفتی را امتحان کردم که به نظر من مناسب ترین است. اکنون در تعجب هستم که چگونه تست را تفسیر کنم و آیا راه های دیگری برای آزمایش اینکه کدام روش بهتر است وجود دارد. Data.frame for readability: Mash_pear tRap_pear Beeml_pear Mash_pear50 labels fam pwmlength Aft1 0.3282399 0.03500962 0.1792099 0.1924741 Aft1 AFT_ 241722 Al. 0.23425551 0.7912917 0.6797269 Alx3 Homeo 17 Alx4_1744.1 0.8121181 0.23714999 0.8569083 0.7785645 0.7785645 Alx3 Homeo 17 Alx4_1744.1 0.6408250 0.18553602 0.7290781 0.5737454 Arid3a BRIGHT 17 Arid3a_3875.1_v2_primary 0.6155681 0.19158510 0.19158510 0.7068 0.70936 BRIGHT 17 Arid3a_3875.2_v1_primary 0.5466353 0.20140205 0.6695998 0.4725600 Arid3a BRIGHT 17 Arid3a_3875.2_v2_primary 0.5107420 0.5107420 0.5853482 0.4626354 Arid3a BRIGHT 17 Arid5a_3770.2_v1_primary 0.6504802 0.21607280 0.6393559 0.5621284 Arid5a_3770.2_v1_primary 0.6504802 0.21607280 0.5621284 Arid5a BRIGHT2. 0.4180445 0.13224710 0.5449093 0.3546249 Arid5a BRIGHT 14 Aro80 0.5296259 0.17275310 0.7946524 0.64563268
|
کدام نوع آزمون برای مقایسه همبستگی های 3 روش مناسب تر است؟
|
101576
|
قضیه نهایی در فصل 19 زنجیره مارکوف و ثبات تصادفی Meyn و Tweedie به ما می گوید که اگر میانگین زمان بین رسیدن $\lambda$ یک صف GI/G/1 از میانگین زمان سرویس $\mu$ بیشتر باشد، آنگاه صف مثبت هریس مکرر است. > **سوال**: چه نتایج پایداری برای یک صف با زمان پیوسته GI/G/1 > که برای آن $\lambda=\mu$ شناخته شده است، و در آن واریانس های زمان رسیدن بین > و زمان سرویس تصادفی هستند. متغیرها مثبت هستند؟ آیا معلوم است که چنین صفی نمی تواند مثبت هریس مکرر باشد؟ منظم؟ تابع Lyapunov استفاده شده در Meyn-Tweedie، که یک زمان مورد انتظار است، برای $\lambda=\mu$ کار نمی کند. من در مقاله نظرسنجی Morozov و Delgado که ادعا می کند شرایط پایداری صف کلاسیک GI/G/m به خوبی شناخته شده است و در بررسی های دیگر جستجو کردم، اما هیچ اشاره ای به مورد $\lambda=\mu$ در آنجا پیدا نکردم.
|
پایداری صف GI/G/1 با $\rho=1$؟
|
101577
|
من یک تجزیه و تحلیل AMOVA روی توالیهای mtDNA انجام دادهام، که بر روی 14 جمعیت (با تعداد افراد متغیر در هر جمعیت) تقسیمبندی شده است، و همه جمعیت را در همان گروه قرار میدهم. از تجزیه و تحلیل AMOVA من مقدار قابل توجهی را برای Fst در بین جمعیت ها به دست آورده ام، اما وقتی سعی می کنم Fst را به صورت زوجی بین جمعیت ها محاسبه کنم، تنها 3 جفت معنی دار به دست می آورم و دیگری معنی دار نیست. آیا ممکن است؟ ممکن است مشکل این باشد که باید جمعیت هایم را دوباره تعریف کنم؟ متشکرم
|
Fst کلی و جفتی Fst در بین جمعیت AMOVA
|
30554
|
من سعی می کنم از یک تابع از بسته پیش بینی، `seasonaldummy()` استفاده کنم، که به یک شی سری زمانی به عنوان ورودی نیاز دارد، اما من یک شی xts دارم، آن را x می نامم. بنابراین اول، آیا درست است که اشیاء xts را نمی توان مستقیماً به توابعی که به یک شی «ts» نیاز دارند ارسال کرد؟ سپس سعی کردم آن را به یک شی «ts» وادار کنم. من این را با «as.ts(x)» امتحان کردم. این تابع همچنان یک خطا ایجاد می کند. من به تصویر xts و به ویژه تابع «reclass» نگاه کردم، اما تنها چیزی که از آن متوجه شدم این بود که چگونه اشیاء غیر xts را به xts وادار کنم. به نظر می رسد باید برعکس عمل کنم، و «as.ts(x)» کار نمی کند. من یک MWE را در زیر قرار داده ام که در آن دو خط آخر خطا ایجاد می کند. > a = rnorm(20) > dt = seq(as.POSIXct(2010-03-24),by=days,len=20) > library(xts) > a = xts(a,dt) > library(forecast) > seasonaldummy(a) خطا در seasonaldummy(a): نه یک سری زمانی > seasonaldummy(as.ts(a)) خطا در seasonaldummy(as.ts(a)): زیرنویس خارج از محدوده
|
شی xts به شی ts / آدمک های فصلی برای xts
|
58134
|
سوال بیان می کند: > مجموعه ای از متغیرهای تصادفی $X_i$ را در نظر بگیرید که $i=1،...n$. هر $X_i$ معمولاً با میانگین $0$ و واریانس $1$ توزیع میشود، یعنی $X_i$> $\mathcal N(0,1)$ است. میانگین و واریانس متغیر تصادفی > $Y$ چیست که $Y=X_1+...+X_n$. چگونه این کار را انجام دهم؟
|
سوال تکلیف ساده در مورد متغیرهای معمولی توزیع شده
|
101575
|
من وضعیتی دارم که در آن ناهنجاری ها را بر اساس داده های ضمنی از داده های جدول تشخیص می دهیم. به عنوان مثال، من داده هایی در مورد افراد ثبت نام شده دارم که زمان خود را در پورتال سپری می کنند. بر این اساس، من منطقی دارم که توسط فاصله بین ورود/فعالیت های متوالی در پورتال هدایت می شود. ما از مدت زمان دلخواه به عنوان فاصله استفاده کرده ایم و به نظر می رسد برای ما کار می کند. تعداد زیادی از جمعیتشناسی کاربر دیگر (سن، مکان، علایق و غیره) نادیده گرفته شدهاند. من الگوریتمهای مختلف ML را امتحان کردم (NB، درخت تصمیم و غیره) اما با وجود دادههای آموزشی زیاد، نرخ خطای بیش از 40 درصد دریافت میکنم. می خواستم الف) را بررسی کنم که آیا باید به صراحت متغیرهایی مانند فاصله بین ورود به سیستم ایجاد کنم. تعداد فعالیت ها در ساعت به طوری که بتوان از آنها برای الگوریتم ها استفاده کرد. ب) آیا باید متغیرهای کلاس مانند > 2 ساعت 1-2 ساعت برای بازه ورود به سیستم و تعداد فعالیت ها در هر ورود در ساعت به صورت ایجاد کنم. <5'، '5-15' و غیره. به طور کلی باید (الف) و (ب) را به صراحت ارائه کنم... و به همین ترتیب روی چند متغیر دیگر که فکر می کنم باید سیگنال بدهم مورد استفاده قرار گیرد
|
یادگیری ماشینی از متغیرهای ضمنی
|
54458
|
سوال آماری نیمه تازه کار: فقط به دنبال این سوال، این واقعیت است که سه نوع ANOVA با طراحی نامتعادل وجود دارد، و (احتمالا) شما لزوماً نمی دانید کدام یک برای داده های شما مناسب است (زیرا مثلا ، شما نمی دانید که آیا یک تعامل وجود دارد یا خیر)، درک من این است که مقایسه بین انواع ممکن است ضروری باشد. آیا این معادل رگرسیون گام به گام - و بنابراین مشکل ساز نیست؟ من نمی دانم که آیا یک رویکرد بهتر برای طراحی نامتعادل استفاده از یک مدل ترکیبی است؟
|
مقایسه مدل های انواع مختلف ANOVA - مقایسه چندگانه؟
|
101571
|
برای بررسی اینکه آیا جفتهای یکطرفه (تعریف شده در زیر*) هماهنگ هستند (یعنی با هم حرکت میکنند) در گلهای از N فرد هماهنگ، توزیع فرضی (تهی) یک پارامتر کانونی خاص از سیستم خود را تولید میکنیم (فرکانسی که 2 نفر نزدیکترین همسایهها در امتداد آن هستند). یک آهنگ). مدل صفر با به هم زدن داده های تجربی به گونه ای شبیه سازی می شود که باید هماهنگی بین جفت ها را از بین ببرد (تغییر شرایط اولیه و نوسانات از مسیر میانگین در طول مسیر)، که 5000 بار تکرار شده است. سپس پارامتر مشابهی را برای تمام جفت های یک طرفه N(N-1) در داده های تجربی محاسبه می کنیم. برای هر جفت یک طرفه، توزیع تهی باید احتمال بدست آوردن مقدار تجربی (یا بالاتر) پارامتر کانونی را نشان دهد اگر گله بدون هماهنگی بین جفت ها حرکت کند. اما از آنجایی که همه جفت های یک طرفه ممکن N(N-1) را بررسی می کنیم، چندین مقایسه انجام می دهیم. ما بسیار قدردان پیشنهادهایی هستیم که چگونه می توان مقایسه های متعدد را در این مورد تصحیح کرد. * جفت های یک طرفه - (A->B) یا (B->A) اما نه لزوما A<->B (این یک جفت دو طرفه است) بهترین آرزوها، Ran
|
تصحیح برای مقایسه های چندگانه با استفاده از توزیع شبیه سازی شده
|
54450
|
من به مطالعه ای برخوردم که در آن بیمارانی که همگی بالای 50 سال داشتند، بر اساس سال تولد شبه تصادفی شدند. اگر سال تولد یک عدد زوج بود، مراقبت معمول، اگر عدد فرد بود، مداخله. اجرای آن آسان تر است، واژگون کردن آن دشوارتر است (بررسی اینکه بیمار چه درمانی باید دریافت کرده باشد آسان است)، به خاطر سپردن آن آسان است (تکلیف چندین سال ادامه داشت). اما هنوز، من آن را دوست ندارم، احساس می کنم تصادفی سازی مناسب بهتر بود. اما نمی توانم دلیل آن را توضیح دهم. آیا این احساس را اشتباه می کنم یا دلیل خوبی برای ترجیح تصادفی سازی «واقعی» وجود دارد؟
|
چه اشکالی دارد (برخی) شبه تصادفی سازی
|
58131
|
امیدوارم که این سوال با علامت بیش از حد کلی مشخص نشود و امیدوارم بحثی آغاز شود که برای همه مفید باشد. در آمار، ما زمان زیادی را صرف یادگیری تئوری های نمونه بزرگ می کنیم. ما عمیقاً علاقه مند به ارزیابی ویژگی های مجانبی برآوردگرهای خود هستیم، از جمله اینکه آیا آنها از نظر مجانبی بی طرف هستند، مجانبی کارآمد هستند، توزیع مجانبی آنها و غیره. کلمه مجانبی به شدت با این فرض مرتبط است که $n \rightarrow \infty$. اما در واقعیت، ما همیشه با $n$ محدود سروکار داریم. سوالات من این است: 1) منظور ما از نمونه بزرگ چیست؟ چگونه می توانیم نمونه های کوچک و بزرگ را تشخیص دهیم؟ 2) وقتی می گوییم $n \rightarrow \infty$، آیا به معنای واقعی کلمه این است که $n$ باید به $\infty$ برود؟ e.x. برای توزیع دو جمله ای، $\bar{X}$ به حدود n = 30 نیاز دارد تا به توزیع نرمال تحت CLT همگرا شود. آیا باید $n \rightarrow \infty$ داشته باشیم یا در این مورد از $\infty$ یعنی 30 یا بیشتر؟! 3) فرض کنید نمونه محدودی داریم و فرض کنید همه چیز را در مورد رفتار مجانبی برآوردگرهای خود می دانیم. پس چی؟ فرض کنید که برآوردگرهای ما به طور مجانبی بی طرف هستند، پس آیا ما یک تخمین بی طرفانه برای پارامتر مورد علاقه خود در نمونه محدود خود داریم یا به این معنی است که اگر $n \rightarrow \infty$ داشتیم، یک عدد بی طرف خواهیم داشت؟ همانطور که از سوالات بالا می بینید، من سعی می کنم فلسفه پشت مجانبی نمونه بزرگ را درک کنم و بیاموزم که چرا به ما اهمیت می دهد؟ من باید برای قضایایی که یاد میگیرم شهودی پیدا کنم. کمک شما بسیار قابل قدردانی است. با تشکر
|
نمونه بزرگ مجانبی/نظریه - چرا باید به آن اهمیت داد؟
|
62545
|
پروژه من در مورد برابری قدرت خرید (PPP) است. من بررسی میکنم که آیا نرخ واقعی مبادله دلار کانادا (CAD)/دلار آمریکا (USD)، ین ژاپن (JPY)/USD و پوند بریتانیای کبیر (GBP)/USD دارای ریشه واحد با دیکی فولر افزوده (ADF) است یا خیر. * H0 است - یک ریشه واحد برای سری و سابق واقعی وجود دارد. نرخ از حرکت تصادفی پیروی می کند و غیر ثابت است * H1 است - ریشه واحد وجود ندارد و نرخ واقعی ارز ثابت است و PPP ثابت است. من نموداری از نرخ واقعی ارز در دوره نمونه ایجاد کرده ام، متأسفانه به دلیل قوانین سایت نمی توانم عکس ها را ضمیمه کنم (من هنوز 10 شهرت ندارم) به هر حال نرخ یونی من بسیار نوسان است، بین 1.7 و در نوسان است. 2.3 در طول دوره؛ GBP خط مشابهی می دهد، فقط بین -0.3 و 0.1 نوسان دارد. CAD آن است که به نظر می رسد ثابت است، نسبتا صاف است، بین -0.1 و 0.3 حرکت می کند. همه مقادیر بحرانی برای هر سه نتیجه یکسان هستند و فقط آماره t و مقادیر p متفاوت هستند. 1% -3.442; 5% -2.871; 10% -2.570 در Cad/USD t-stat برابر 1.568- و p-value 0.4997 است. در JPY/USD t-stat -2.551 و p-value 0.1036; در GBP/USD t-stat -3.410 و p-value 0.0106 است به نظر می رسد با افزایش نتیجه t-stat، p-value کاهش می یابد. علاوه بر این، H0 من با 5 و 10٪ برای GBP رد می شود و با 1٪ رد نمی شود. من واقعاً در تعجب هستم که چگونه می توان آن را تفسیر کرد. (شاید به این دلیل است که زیر صفر در نوسان است؟) سرپرست من از من می خواهد توضیح دهم که ارتباط بین t-stat و p-value چیست. و اگر ممکن است لطفا به زبان انگلیسی ساده توضیح دهید که ریشه واحد چیست، توضیحات ریاضی کمکی نکرد. من همچنین مقاله توضیح بصری ریشه واحد را قبلاً خوانده ام ، متأسفانه هنوز نتوانستم ایده اصلی ریشه واحد را بدست بیاورم.
|
ارتباط آماره t و p-value در آزمون دیکی-فولر تقویت شده
|
44616
|
من می خواهم این فرضیه را آزمایش کنم که یک رابطه یکنواخت بین دو متغیر وجود دارد، بدون اینکه مدل خاصی را فرض کنیم. قوی ترین (یعنی کمترین احتمال خطای نوع دوم) برای انجام این کار چیست؟ من می توانم به چند گزینه فکر کنم: * از یک مدل خطی از داده های تبدیل نشده استفاده کنید. به اندازه کافی قوی خواهد بود، حتی اگر فکر نکنم رابطه واقعی خطی باشد. * به داده های تبدیل شده با رتبه نگاه کنید، به عنوان مثال. با ضریب همبستگی رتبه اسپیرمن * از نوعی روش نمونه گیری مجدد استفاده کنید که در آن ترتیب متغیر وابسته به طور تصادفی به هم می ریزد. من مطمئن نیستم که چه آماری را در این رویکرد مقایسه کنم. آیا رویکرد نسبتاً استانداردی برای این مشکل وجود دارد؟
|
چگونه می توان رابطه یکنواخت بین دو متغیر را بدون فرض یک مدل عملکردی خاص آزمایش کرد؟
|
81898
|
من مجموعه ای از 40 آزمودنی دارم که در حالی که متغیرهای مورد علاقه در فواصل زمانی معین (0، 1، 2، .... 10 ثانیه) ثبت می شدند، یک کار را انجام دادند. این کار دو بار، یک بار با و یک بار بدون کمک بازخورد رایانه انجام شد. برای اکثر متغیرها، توزیع بین افراد در هر نقطه زمانی یک توزیع نرمال است. اما برای تعداد کمی، آنها به شدت کج هستند. میخواهم بدانم که آیا واریانس متغیرهای جمعآوریشده بین آزمودنیها در طول کار با کمک بازخورد تفاوت معنیداری داشت یا خیر. بهترین راه برای انجام این کار چیست؟
|
مقایسه واریانس بین 2 گروه سری زمانی
|
20778
|
به عنوان یک برنامه نویس، من به یک سیستم مستندسازی پر جنب و جوش با مراجع و آموزش های جامع آنلاین عادت دارم. آیا چنین سیستمی برای Stata وجود دارد؟ افراد برای سوالات سریع آماری (علاوه بر Cross Validated) به کجا مراجعه می کنند؟ مردم اینجا چگونه Stata را یاد گرفتند؟
|
از کجا می توان مدارک / مرجع برای Stata را دریافت کرد؟
|
41133
|
اول از همه، من سعی نمی کنم یک ماشین چاپ شخصی را جمع آوری کنم (یعنی این کار را انجام نمی دهم: من از استراتژی های $x$، $y$، $z$ در بازار سهام و... استفاده می کنم). در عوض، من به دنبال بازخورد در مورد طراحی تحقیق هستم. وضعیت: بسیاری از معامله گران سهام / ارز / معاملات آتی از تحلیل تکنیکال به عنوان بخشی از رویکرد معاملاتی خود استفاده می کنند. تحلیل تکنیکال از الگوهای قیمت گذشته برای پیش بینی قیمت های آینده استفاده می کند. شاخص های فنی آن حرکت گذشته را کمیت می کنند. بسیاری از تمرینکنندگان به این تکنیکها سوگند یاد میکنند. بسیاری از دانشگاهیان و دیگران به BS می گویند. بنابراین، میخواهم آزمایش کنم که آیا شاخصهای فنی مختلف ارزش پیشبینی دارند: آیا قیمت داراییها همانطور که این شاخصها پیشبینی میکنند حرکت میکنند؟ من میخواهم خیلی متمرکز باشم و فقط از آزمونهای t مستقل به شرح زیر استفاده کنم: 1. یک شاخص را انتخاب کنید (مثلاً MACD — میانگین متحرک همگرایی/واگرایی). 2. ادعاهای مربوط به ارزش پیش بینی اندیکاتور را بررسی کنید (به عنوان مثال، متقاطع صعودی MACD نشان دهنده روند صعودی قریب الوقوع است). 3. حرکت قیمت یک دارایی (سهام/آینده/ارز/غیره) را جمع آوری کنید و آن داده ها را بر اساس ارزش اندیکاتور قبل از حرکت قیمت زیرمجموعه کنید. (به عنوان مثال، IV: حرکت قیمت به دنبال یک تقاطع صعودی در مقابل حرکت قیمت در مواقعی که از یک تلاقی صعودی پیروی نمی کند). 4. اگر تعداد مشاهدات به طور قابل توجهی نابرابر برای هر گروه داشته باشیم (این تقریباً همیشه اتفاق می افتد)، به طور تصادفی داده هایی را از جمعیت بزرگتر انتخاب کنید تا تعداد مشاهدات ما برابر باشد. 5. برای مقایسه میانگین های هر گروه، یک آزمون تی نمونه مستقل اجرا کنید. (من همچنین Shapiro-Wilks و Levene دادهها را آزمایش میکنم و در صورت لزوم تنظیم میکنم). 6. اگر تهی را رد کردیم، به اندازه افکت نگاه کنید و غیره. اگرچه آنقدرها هم بد نیست)). اکنون، میدانم که شاخصهای فنی به صورت ترکیبی استفاده میشوند، و نوعی اثر تعدیلکننده ممکن است در جریان باشد. اما می خواستم ساده شروع کنم. فکر می کنید که این رویکرد چقدر قابل اعتماد خواهد بود؟ مشکلات احتمالی؟ همچنین، افشای کامل در مورد تبر من ممکن است در حال خرد کردن باشد: من از دم های بسیار چاق و موقعیت های غیرقابل کاهش آنها برای/علیه تحلیل تکنیکال نگران هستم. من فکر میکنم کارگزاریها و هکرها از آنها به عنوان زنگها و سوتهای پر سر و صدا استفاده میکنند تا برای مشتریان رقابت کنند. برای اکثر مشتریان، اندیکاتورها هیچ کاری انجام نمی دهند. از سوی دیگر، من نیز فکر می کنم ارزش وجود دارد، اما ارزش شاخص های فنی احتمالاً در بازه های زمانی کوتاه بیشترین و شاید برای ارزها بهتر است.
|
آزمونهای تی مستقل و شاخصهای فنی: وودو، محورها و عینیت
|
58132
|
آیا کسی خلاصه یا کاتالوگ خوبی از توزیع های مرکب، یا نمایش مخلوط محدود آن توزیع ها را می شناسد؟ من در تلاشم تا دریابم که توزیعهای چند پارامتری رایج و شکلهای تعمیمیافته آنها تا چه حد میتوانند از توزیعهای تک پارامتری از طریق ترکیب کردن ساخته شوند. مواردی که تاکنون پیدا کردهام فقط 10 یا 15 توزیع را پوشش میدهند، و هنوز نمیتوانم بگویم که آیا امکان ایجاد به عنوان مثال وجود دارد یا خیر. اکثر توزیع های چهار پارامتری از توزیع های یک پارامتر با مراحل متوالی ترکیب.
|
خلاصه یا کاتالوگ توزیع های ترکیبی؟
|
48514
|
اخیراً با اجرای آزمایشی، مجموعهای از مجموعه دادهها برایم باقی مانده است که نمیدانم چگونه میتوانم بهترین کار را انجام دهم، فکر میکنم صرفاً به دلیل تعداد متغیرهای مستقلی است که باید در نظر بگیرم. ## راهاندازی من 4 رویکرد جدید را برای حل یک مشکل پیادهسازی کردهام که میخواهم آنها را با یک رویکرد موجود و با یکدیگر مقایسه کنم، بر اساس زمان اجرای آنها، که قبل از آزمایش انتظار میرود که بهبود یابد. برای مقایسه این رویکردها، هر کدام با مجموعه ای از 6 مطالعه موردی مورد آزمایش قرار می گیرند. هر ترکیب رویکرد-مطالعه موردی 30 بار تکرار می شود تا اطمینان حاصل شود که نتایج نشان دهنده هستند. همه موارد فوق برای دو کتابخانه مختلف که به عنوان بخشی از رویکرد استفاده می شوند، تکرار می شوند. ## نتایج در مجموع، من در مجموع 1800 ردیف باقی مانده ام (محاسبه شده به عنوان... = (رویکردها * مطالعات موردی * کارآزمایی ها * کتابخانه ها) = 5 * 6 * 30 * 2 = 1800 من معتقدم که می توانم نتایج را به طور معتبر مقایسه کنم از دو رویکرد برای یک کتابخانه خاص و مطالعه موردی با استفاده از آزمون مجموع رتبهای ناپارامتری Wilcoxon رویکرد آزمایشی که من میتوانم به طور کلی برای تعیین اینکه آیا یک رویکرد بهتر از دیگری است یا اینکه (برای مطالعات موردی و کتابخانههای معین) بهترین است، استفاده کنم تا حدی از اهمیت که بهترین است، با تشکر، و پوزش برای هر گونه جزئیات مهم از دست رفته - هر زمان که لازم باشد ویرایش خواهم کرد!
|
خلاصه کردن آزمونهای معناداری برای متغیرهای مستقل چندگانه
|
48512
|
من یک رگرسیون دارم که در آن سعی می کنم بفهمم هر یک از رگرسیون ها چقدر واریانس متغیر وابسته متریک را توضیح می دهد. من از بسته R relaimpo (Grömping، 2006) برای این منظور استفاده می کنم، که با استفاده از متریک LMG، سهم های R^2$ را به هر رگرسیون اختصاص می دهد. فرضیه این است که رگرسیون ها در سهم R^2$ خود به شدت متفاوت هستند. اگر من یک نمونه مقطعی $N=6000$ داشته باشم، همه چیز شیک خواهد بود. متأسفانه، من فقط $N=2000$ دارم، اما 3 نقطه اندازه گیری (هفته 0، 6، 12). هم متغیر وابسته و هم رگرسیورها با زمان متغیر هستند، یعنی در هر نقطه اندازه گیری ارزیابی می شوند. در حال حاضر من تجزیه و تحلیل ها را به طور جداگانه برای هر نقطه اندازه گیری اجرا می کنم و تفاوت های زیادی بین تخمین های اهمیت نسبی بین رگرسیون ها (0٪ تا 25٪) پیدا می کنم، و متوجه می شوم که رتبه بندی رگرسیون ها و واریانس توضیح داده شده به طور شگفت انگیزی در طول زمان پایدار است (حداقل از یک دیدگاه کیفی، رسم واریانس توضیح داده شده هر یک از 14 رگرسیور برای هر نقطه اندازه گیری). برای یک مقاله علمی، دو دلیل وجود دارد که من میخواهم این کار را به جای ۳ رگرسیون در یک رگرسیون انجام دهم. (۱) ۳ تحلیل مختلف فضای زیادی را در مقاله اشغال میکنند و پیام اصلی را کمی مبهم میکنند (رجسترها در آنها به شدت متفاوت هستند. اهمیت نسبی). (2) $N=2000$ هنگام تفکیک مشارکت های نسبی 14 رگرسیور همبسته چندان زیاد نیست (CI ها نسبتاً بزرگ هستند). بنابراین، نمیدانستم که آیا راههایی برای «تجمیع» همه موضوعات در یک رگرسیون وجود دارد که منجر به فریاد کسی با پیشینهی آماری نشود («شما فرض استقلال آماری را به شدت نقض کردید!!»). در بهترین حالت من به سادگی یک رگرسیون دارم که هر 3 نقطه زمانی را پوشش می دهد. این روش باید یک رگرسیون باشد (یعنی از بستههای NLE یا LME استفاده نمیکند)، زیرا این همان چیزی است که بسته «relaimpo» به عنوان مدل پایه برای محاسبه مشارکتهای منحصربهفرد $R^2$ از رگرسیورها استفاده میکند. گزینه های من چیست؟
|
رگرسیون با 3 نقطه اندازه گیری (در R)
|
44615
|
فرض کنید من یک تابع پایتون با استفاده از scipy دارم که انتظار $E\left[X \right]$ را برای برخی از دادهها با فرض توزیع گاما برمیگرداند: def expectation(data): shape,loc,scale=scipy.stats.gamma.fit (داده) expect_value = شکل * مقیاس برمیگرداند expect_value (فهم من این است که پارامترسازی گاما توسط scipy به ما اجازه میدهد $E\left[X \right] = shape \cdot scale$.) با این حال، من میخواهم کد خود را تعمیم دهم تا بتوانم توزیعهای مختلف را به جای گاما رها کنم -- برای مثال، توزیع log-normal. آیا راهی برای نوشتن آن کد به صورت کلی وجود دارد؟ به عبارت دیگر، چگونه می توانم این تابع را تمام کنم: def expectation(data, dist=scipy.stats.gamma): ??? من چند روش ممکن را می بینم: 1. از روش «scipy.stats.*.expect» استفاده کنید. تا الان نتونستم بفهمم چطور ازش استفاده کنم. چگونه می توانم روش را با توجه به پارامترهای «شکل، مکان، مقیاس» در بالا پارامتر کنم؟ 2. از روش میانگین یک شی متغیر تصادفی یخ زده استفاده کنید. آیا در زبان اسکیپی، «میانگین» معادل $E\left[X \right]$ است؟ 3. از نوشتن کد کلی دست بکشید و فقط $E\left[X\right]$ را مستقیماً برای هر توزیع محاسبه کنید. من نمی خواهم این کار را انجام دهم اگر بتوانم از آن اجتناب کنم. علاوه بر این، لطفاً به این موضوع بپردازید که آیا طبق روش پیشنهادی شما، من جریمه عملکردی را پرداخت میکنم، یعنی به این دلیل که در ارزیابی انتظارات از یک رویکرد عددی به جای تحلیلی برای انتگرال استفاده میکند.
|
چگونه مقدار مورد انتظار توزیع های دلخواه را در scipy محاسبه می کنید؟
|
20772
|
داده های نسبت، نسبت و درصد در اکولوژی بسیار رایج است (به عنوان مثال، درصد گل های گرده افشانی، نسبت جنسی نر به ماده، درصد مرگ و میر در پاسخ به درمان، درصد از برگ خورده شده توسط یک گیاهخوار). اخیراً مقاله ای توسط برخی از آماردانان کاربردی در مجله _Ecology_ با عنوان آرکسین آسینین است: تجزیه و تحلیل نسبت ها در اکولوژی منتشر شده است. آنها خاطرنشان کردند که تبدیل آرکسین توسط متون طولانی مانند تحلیل آماری زیستی زار و زیست سنجی سوکال و رولف (هر دو در ویرایش سوم یا چهارم) ترویج شده است، اما این تکنیک توسط مدل های خطی تعمیم یافته و محاسبات بهتر منسوخ شده است. . من متعجب بودم که اگر آرسین هنوز در زمینههای دیگر معمولاً استفاده میشود یا اینکه بومشناسان در استفاده از این (یا سایر) تکنیکهای قدیمی یا کمتر از بهینه، استثنایی هستند، دادهها در زمینههای دیگر (روان؟ پزشکی؟) چقدر رایج است. آیا مقالاتی در زمینه های دیگر وجود داشته است که نیاز به استفاده از تکنیک های پیشرفته تر را برجسته کند؟
|
آیا اکولوژیست ها تنها کسانی هستند که نمی دانستند آرکسین آسینین است؟
|
16010
|
من یک مشکل عجیب دارم که می توان آن را به صورت کلی و به روشی خاص تر بیان کرد. من در مورد پاسخ هر دو کنجکاو هستم. اگرچه، واقعاً، این مورد k=0 است که من واقعاً به آن علاقه مند هستم - استخراج پاسخ با توجه به برخی از ویژگی های توزیع m. اینها ممکن است کاملاً ابتدایی باشند، بنابراین اگر هستند عذرخواهی می کنیم. 1) من چندین توزیع فوق هندسی مختلف دارم، H(k؛ N، m، n) که در آن k تعداد ترسیمهای «موفقیت»، N اندازه جمعیت، m تعداد ترسیمهای موفقیت احتمالی و n کل است. تعداد قرعه کشی ها هر توزیع مقدار متفاوتی برای m دارد، اما بقیه یکسان است. آیا راه آسانی برای خلاصه کردن آنها یا ارائه نماد فشرده تر برای آنها وجود دارد؟ یا به عنوان سوال توپ و کوزه، من جعبه های زیادی دارم که هر کدام N توپ دارند. در هر urn i، توپ های m(i) سفید و بقیه سیاه هستند. اگر از هر کوزه به نوبت n قرعه کشی کنم، میانگین احتمال k توپ سفید کشیده شده در هر کوزه چقدر است؟ (در واقع، آیا توزیعی برای این کار وجود دارد - باید وجود داشته باشد) 2) به طور خاص، من به موردی علاقه مند هستم که k=0 باشد. این در واقع به خوبی به $\binom{N-m}{n}/\binom{N}{n}$ کاهش یافت، اما... دوباره، من میخواهم مقادیر زیادی از m را از اعضای مختلف یک جمعیت جمعبندی کنم. آیا راهی وجود دارد که مثلاً با مقدار متوسط m یا غیره به این موضوع برسیم؟ باز هم، از نظر urn جعبه، این احتمال متوسط کشیدن NO توپ سفید از هر یک از urn خواهد بود. p.s. من در واقع همیشه به یک چیز مشابه برای توزیع دوجملهای فکر میکردم و گمان میکنم که پاسخها ممکن است مرتبط باشند. مطمئناً، B(a,p)+B(b,p) = B(a+b,p) که در آن a و b تعداد آزمایشات و p احتمال موفقیت است. اما در مورد B(a,p1)+B(a,p2) چطور؟
|
مجموع یا میانگین چندین توزیع فوق هندسی مرتبط
|
7258
|
همانطور که در سوالم نوشته ام چقدر باید نمونه برداری کم انجام شود؟، می خواهم پیش فرض هایی را پیش بینی کنم، جایی که پیش فرض به خودی خود واقعا بعید است (متوسط ~ 0.3 درصد). مدل های من تحت تأثیر توزیع نابرابر قرار نمی گیرند: همه چیز صرفه جویی در زمان محاسبات است. کم نمونهبرداری از کلاس اکثریت به نسبت [مثالهای پیشفرض/غیر پیشفرض] 1: 1 مانند بیان این باور است که من فکر میکنم مثالها در افزایش کیفیت پیشبینی به همان اندازه مهم هستند. آیا کسی دلیلی میداند که چرا/زمانی که اهمیت یکسانی **نمیتواند** باشد؟ آیا ادبیاتی در مورد این موضوع خاص وجود دارد (من نتوانستم ادبیات نمونه گیری را پیدا کنم که مدل سازی/محاسبات محور باشد)؟ با تشکر فراوان برای کمک شما!
|
محتوای اطلاعاتی نمونه ها و نمونه گیری کم
|
59666
|
من علاقه مندم که دنباله ای از اعداد را برای تصادفی بودن آزمایش کنم. من کمی جستجو کرده ام و به سختی بمیرم و سخت تر بمیرم. با این حال، به نظر می رسد که این تست ها برای اعمال نیاز به تخصص دارند، یا حداقل به اندازه R مستند یا آسان برای استفاده نیستند. همچنین سخت تر به پلت فرم *nix نیاز دارید. من روی پلتفرم ویندوز کار میکنم، و اگرچه میتوان یک فایل csv را در محل کار تولید کرد و آن را به خانه فرستاد تا بتوانم فایل را روی لینوکس با استفاده از سختتر پردازش کنم، اما این کار دردسرساز خواهد بود و احتمالاً کار زیادی خواهد داشت. بنابراین من به آنچه در R موجود است نگاه کردم و به بسته lawstat رسیدم که «bartels.test» و «runs.test» را پیادهسازی میکند. انجام این آزمایش ها روی داده های من بسیار ساده بود. میپرسم، آیا تستهای دیگری وجود دارد که من میتوانم آنها را به طور منطقی اجرا کنم که به زمان زیادی نیاز ندارد، یا باید آن را همانجا رها کنم؟ دلیلی وجود ندارد که شک کنیم اعدادی که من می بینم به طور منطقی تصادفی نیستند: تمرکز اصلی آزمایشی که باید انجام دهم این است که ببینم آیا چندین بردار اعداد تصادفی با توجه به برخی پارامترهای تنظیم شده مرتبط هستند یا خیر. بنابراین من به معیارهای همبستگی بین دنباله ها نگاه می کنم، اما همچنین می خواهم آزمایش کنم که هر دنباله تصادفی است، فقط برای اینکه مطمئن شوم که روند معرفی همبستگی ها مشکلی در توزیع های حاشیه ای ایجاد نکرده است. چیزی که من شک دارم این است که ممکن است یک قانون 90/10 در اینجا وجود داشته باشد - 10٪ نهایی استفاده از تمام تست ها، مثلاً در حالت سخت، ممکن است مقدار نامتناسبی از تلاش باشد، و اگر بتوانم 90٪ راه را انجام دهم. وجود دارد در R یا مشابه، که خوب خواهد بود.
|
آزمایشهایی با کاربرد آسان برای تصادفی بودن
|
94998
|
چگونه می توان تابع چگالی احتمال را زمانی که مجموعه ای از بردارهای ویژگی داریم، اما توزیع آماری آنها را نمی دانیم، تخمین زد؟
|
تخمین تابع چگالی احتمال
|
58135
|
این یک سؤال کاملاً اساسی است، اما من نمیتوانم پاسخی را با جستجوی عبارات مختلف در مورد یک مشکل پیدا کنم. آیا روش ساده ای برای آزمایش اینکه آیا پارامتر رگرسیون با مقدار غیر صفر در رگرسیون خطی (غیر-) متفاوت است وجود دارد؟ من فقط می توانم به یک راه فکر کنم، اما به نظر می رسد خیلی دور از ذهن است. یک مثال در اینجا آمده است: INPUT PROGRAM. حلقه #I = 1 تا 10. محاسبه X = #I. COMPUTE Y = RV.NORMAL(5,1)+x*RV.NORMAL(4,1.5). END CASE. حلقه پایان. END FILE. پایان برنامه ورودی. نام مجموعه داده exampleData WINDOW=front. اجرا کنید. بگویید من می خواهم آزمایش کنم که آیا شیب رگرسیون خطی از 3 انحراف دارد یا خیر. تنها راهی که در SPSS می دانم NLR است: MODEL PROGRAM b0=5 b1=0. COMPUTE PRED_=b0 + (3+b1)*x. NLR Y /OUTFILE='C:\temp\SPSSFNLR.TMP' /PRED PRED_ /CRITERIA SSCONVERGENCE 1E-8 PCON 1E-8. این به شما یک تخمین می دهد، std. خطا، و 95% CI برای b1، اما _بدون مقدار p_. من همچنین احساس عجیبی دارم که این روش از نظر آماری درست نیست. آیا SPSS بدون استفاده از NLR تست داخلی برای این کار دارد؟ آیا چیزی وجود دارد که مقدار p را بدهد؟ اگر مدل رگرسیون من غیر خطی باشد چه؟ فکر میکنم میتوانم از همان رویکرد بالا استفاده کنم، اما چگونه میتوانم مقدار p را بدست بیاورم؟ ویرایش: من میخواهم توضیح دهم که در مورد روششناسی فقط SPSS سؤال میکنم. اگر چه من دوست دارم یک پاسخ خاص SPSS دریافت کنم، من همچنین به دنبال یک روش آماری عمومی تر برای a) بدست آوردن مقدار p از پارامترهای رگرسیون از تخمین، std هستم. خطا، و درجات آزادی و ب) اگر یک آزمون آماری برای آزمایش انحراف یک پارامتر رگرسیون از یک ثابت غیر صفر طراحی شده باشد.
|
پارامتر رگرسیون را در برابر یک ثابت در SPSS تست کنید
|
7251
|
**چارچوب.** $\alpha\in ]0,1[$ را برطرف کنید. تصور کنید که متدولوژیهای پیشبینی $n$$\alpha$-quantile دارید که در زمان $t$ برای زمان پیشبینی $t+h$، تخمینی از چندک نیروی باد را به شما میدهد. به طور رسمی، برای $i=1،\dots،n$، شما می دانید که چگونه $\hat{q}_{t+h|t}^{(i)}$ را در زمان $t$ برای زمان پیش بینی $ تولید کنید. t+h$ یک تخمین. هر روش بر اساس مدلسازی+تخمین متفاوتی است و میتواند عملکردی داشته باشد که مثلاً به وضعیت آب و هوا بستگی دارد. **سوال.** چگونه یک طرح وزنی برای ترکیب تخمین کمیت (مثلاً با یک ترکیب خطی) ایجاد می کنید که بتواند با زمان $t$ سازگار شود؟ به طور رسمی، چگونه می توان به بهترین شکل وزن های $\lambda_1(t,h),\dots,\lambda_n(t,h)$ را طوری ساخت که $$\hat{q}_{t+h|t}=\sum_{i= 1}^n \lambda_i(t,h) \hat{q}_{t+h|t}^{(i)}$$ پیشبینی چندکی بسیار خوبی است. **نکته جانبی.** برای دانشجویان کارشناسی ارشد که علاقه مند به ارائه و توضیح ایده های خود با داده های واقعی هستند، من یک دوره کارآموزی در مورد آن موضوع را برای تابستان 2011 پیشنهاد می کنم (اینجا را ببینید، به زبان فرانسوی است اما می توانم برای علاقه مندان ترجمه کنم).
|
چگونه می توان ترکیبی (تجمیع) از پیش بینی کمیت ایجاد کرد؟
|
89632
|
من چندین مجموعه داده از مقادیر فرکانس دارم (برای مثال به شکل 1 مراجعه کنید). من به خوشه های تنگ تر (که با مستطیل های سبز مشخص شده اند) علاقه مند هستم و از خوشه بندی سلسله مراتبی در متلب (با روش فاصله میانگین وزنی) برای جدا کردن آنها استفاده می کنم. (*) گسترش این خوشه ها با فرکانس افزایش می یابد (انحراف استاندارد با فراوانی همبستگی مثبت دارد، در حالی که ضریب تغییرات نیست). **بنابراین سوال من اینجاست**: آیا راهی وجود دارد که خوشه بندی در این رابطه فاکتور بگیرد، به طوری که میانگین فاصله یک نقطه تا نقاط نزدیکترین خوشه برای گنجاندن در آن خوشه نیز وابسته باشد - به عنوان مثال - میانگین آن خوشه؟ من فکر می کنم که برش باید برای هر نقطه متفاوت باشد، اما فکر نمی کنم در این روش این امکان وجود داشته باشد. من همچنین میخواهم روشهای خوشهبندی جایگزین را بپذیرم، اما نه k-means، زیرا نمیخواهم تعداد خوشهها را از قبل مشخص کنم. همچنین، اگر پیشنهادی برای بیان مجدد سوال من دارید تا برای دیگران مفیدتر باشد، سپاسگزار خواهم بود. ممنون از وقتی که گذاشتید  (*) من این مثال را برای روش خوشه بندی دنبال می کنم: http://www.mathworks.de/de/help /stats/examples/cluster-analysis.html
|
آیا تحلیل خوشه ای یک بعدی می تواند عامل افزایش واریانس با متغیر کمکی باشد؟
|
16013
|
من در حال بررسی مدلسازی جلوههای ترکیبی با استفاده از بسته lme4 در R هستم. من در درجه اول از دستور «lmer» استفاده میکنم، بنابراین سؤالم را از طریق کدی که از آن نحو استفاده میکند مطرح میکنم. فکر میکنم ممکن است یک سؤال ساده کلی این باشد که آیا مقایسه هر دو مدل ساخته شده در «lmer» با استفاده از نسبتهای احتمال بر اساس مجموعه دادههای یکسان، خوب است؟ من معتقدم که پاسخ به آن باید نه باشد، اما ممکن است نادرست باشم. من اطلاعات متناقضی در مورد اینکه آیا افکتهای تصادفی باید یکسان باشند یا خیر، خواندهام، و منظور از کدام جزء از جلوههای تصادفی است؟ بنابراین، من چند نمونه ارائه می کنم. من آنها را از داده های اندازه گیری های مکرر با استفاده از محرک های کلمه می گیرم، شاید چیزی مانند Baayen (2008) در تفسیر مفید باشد. فرض کنید من مدلی دارم که در آن دو پیشبینیکننده اثر ثابت وجود دارد، ما آنها را A و B مینامیم و برخی از اثرات تصادفی... کلمات و موضوعاتی که آنها را درک کردهاند. من ممکن است یک مدل مانند زیر بسازم. m <- lmer( y ~ A + B + (1|کلمات) + (1|موضوعات) ) (توجه داشته باشید که من عمدا data = را کنار گذاشته ام و فرض می کنیم همیشه منظور REML = FALSE برای برای وضوح) حال، از مدل های زیر، کدام یک برای مقایسه با آزمون نسبت درستنمایی با مدل بالا مناسب است و کدامیک خیر؟ m1 <- lmer( y ~ A + B + (A + B| کلمات) + (1|موضوعات) ) m2 <- lmer( y ~ A + B + (1|موضوعات) ) m3 <- lmer( y ~ A + B + (C|کلمات) + (A+B|موضوعات) ) m4 <- lmer( y ~ A + B + (1|کلمات) ) m5 <- lmer( y ~ A * B + (1|موضوعات) ) تصدیق می کنم که تفسیر برخی از این تفاوت ها ممکن است دشوار یا غیرممکن باشد. اما بیایید یک لحظه آن را کنار بگذاریم. من فقط می خواهم بدانم آیا چیزی اساسی در تغییرات اینجا وجود دارد که امکان مقایسه را از بین ببرد. همچنین میخواهم بدانم که اگر تستهای LR با AIC خوب باشند، آیا مقایسه نیز انجام میشود.
|
مقایسه مجاز مدلهای اثرات مختلط
|
81893
|
این ممکن است یک سوال بسیار ساده باشد، اما من در مورد منطق خود مطمئن نیستم. من یک سناریوی آزمون فرضیه نقطه استاندارد دارم، که در آن دنبالهای از $n$ مشاهدات مستقل $\{x_1,\ldots,x_n\}$ جمعآوری میکنم و سعی میکنم آنها را بهعنوان یکی از دو دسته تولید شده از توزیع $P(x_1,\ldots) طبقهبندی کنم. ,x_n;\theta=\theta_0)$ یا $P(x_1,\ldots,x_n;\theta=\theta_1)$, جایی که $\theta_0$ و $\theta_1$ شناخته شده اند. با استفاده از دانش تابع چگالی احتمال مشترک $f(x_1,\ldots,x_n;\theta)$، میتوانم یک آزمون نسبت درستنمایی بسازم که در معنای نیمن-پیرسون بهینه است. بیایید آمار آزمون نسبت درستنمایی را با $\Lambda(x_1,\ldots,x_n)$ نشان دهیم. با این حال، وقتی فرضیه $H_0$ یا $H_1$ درست باشد، آمار آزمون به احتمال زیاد به همان ثابت همگرا می شود، یعنی $\Lambda(x_1,\ldots,x_n)\xrightarrow{\mathcal{P}}\lambda$ . به طور رسمی، برای هر $\epsilon>0$، $\delta>0$، $n_0$ وجود دارد به طوری که برای همه $n\geq n_0$، معادلات زیر برقرار است: $$\tag{1}P(|\ Lambda(x_1,\ldots,x_n)-\lambda|>\epsilon|\theta=\theta_0)<\delta$$ $$\tag{2}P(|\Lambda(x_1,\ldots,x_n)-\lambda|>\epsilon|\theta=\theta_1)<\delta$$ با $\lambda$ یک ثابت شناخته شده. آیا این بدان معناست که حتی با افزایش تعداد مشاهدات، طبقه بندی بین $H_0$ و $H_1$ غیرممکن است؟ فکر می کنم اینطور است و منطق من اینجاست. $\epsilon$ و $\delta$ را برطرف کنید. فرض کنید $n\geq n_0$ ما و فرض کنید مایلیم کران بالایی احتمال خطای نوع I را با $\delta$ افزایش دهیم. بنابراین ما یک آستانه $t$ برای آزمایش انتخاب می کنیم به طوری که $$P(\Lambda(x_1,\ldots,x_n)>t|\theta=\theta_0)<\delta$$ By $(1)$ این بدان معناست که $t\geq\lambda+\epsilon$. با این حال، با $(2)$، این همچنین نشان می دهد که $$P(\Lambda(x_1,\ldots,x_n)\leq t|\theta=\theta_1)\geq 1-\delta$$ منجر به احتمال خطای نوع II با کران پایین نزدیک به یک. من فکر می کنم به این معنی است که مهم نیست که آستانه خود را چگونه تعیین می کنید، بهترین آزمون به خوبی تصمیم گیری بین این دو فرضیه با چرخاندن یک سکه است (سکه مغرضانه در صورت وجود موارد قبلی نابرابر). آیا این درست است؟
|
آزمون فرضیه و همگرایی آماره LRT
|
110895
|
این سوال دارای دو بخش است، زیرا من متوجه نمی شوم که آیا مشکل من نظری (شناسایی پارامترها) است یا عملی (مهارت های R ناکافی). * اقتصاد سنجی اکثر مدل های سبک پرابیت از طریق عادی سازی خطای استاندارد به یک شناسایی می شوند. در مورد من، من استدلال میکنم که این امر ضروری نیست، زیرا مرتبه بزرگی قبلاً با ثابت کردن یک ضریب بر 1 تنظیم شده است. به طور خاص، برای هر مشاهده یک متغیر ساختگی برابر با یک وجود دارد اگر شاخص پنهان بالاتر از a (مشاهده) باشد. -خاص و مشاهده شده) آستانه : $$d_i=1 \text{ if } K_i > X_i \beta + \epsilon_i$$ عبارت خطا $\epsilon_i \thicksim \mathcal{N}(0, \sigma)$ فرض میشود. در درک ساده لوحانه من، احتمال این مشکل باید به نوعی به نظر برسد (که $\Phi$ سی دی اف معمولی استاندارد است): $$L= \prod_{i=1}^N \Phi \left(\frac{K_i - X_i \beta}{\sigma} \right)^{d_i} \Phi \left(\frac{X_i \beta -K_i}{\sigma} \right)^{1-d_i} $$ آیا می توان $\sigma$ را بدون عادی سازی بیشتر تخمین زد؟ * تخمین اگر پاسخ بخش قبلی بله است -- پس چرا پیاده سازی R من کار نمی کند؟ ### شبیه سازی داده set.seed(5849) N <- 2000 b.cons <- 8 b.x <- 10 sig <- 2 x <- cbind(rep(1, N), runif(N)) #متغیرهای مشاهده شده e <- rnorm(N, sig) # خطای مشاهده نشده k <- runif(N)*10+8 # آستانه: چیزی تصادفی، اما به اندازه کافی بالا برای تضمین تغییرات در i t <- x%*%c(b.cons, b.x)+e i <- 1*(k>t) #شرکت ساختگی ### تابع احتمال تابع probit.sim <- (پارامز، I، K، X) { params[1:2] -> b params[3] -> s z= (K-X%*%b)/s pr.1 = pnorm(z) pr.1[pr.1==0] <- 0.001 #به نظر من عجیب است، اما این مشکل معمولا چگونه درمان می شود؟ pr.1[pr.1==1] <- 0.999 pr.0 = 1-pr.1 llik = t(I)%*%log(pr.1) + t(1-I)%*%log( pr.0) -llik } ### maximize likelihood optim(c(1,1,1), probit.sim, I = i, K = k, X = x) #با استفاده از بردار شروع تصادفی st <- coef(lm(k*(1-i) ~ x-1)) #جستجوی مقادیر استاندارد بهتر optim(c(st، 1)، probit.sim، I = i، K = k، X = x) پارامترهای برآورد شده به وضوح c(8، 10، 2) آنطور که باید باشد نیستند. من یک سوال مرتبط در مورد سرریز پشته پرسیدم، و پاسخ این بود که مقدارهای شروع بهتر را بگیرید، اما به نظر نمی رسد که این ترفند در اینجا انجام شود. یا شاید من نمی دانم چگونه آن را به درستی انجام دهم. هر ایده ای؟ * رویکرد جایگزین جایگزین من استفاده از نرم افزار آماری استاندارد و تخمین یک پروبیت بود (نیاز به کمی چرخش دارد، اما باید بتوان آن را معادل کرد). این یک ضریب برای K تخمین می زند که باید برابر با $-1/\sigma$ باشد. در مورد گرفتن این $\sigma$ و محاسبه مقادیر non-normalized/true ضرایب دیگر چطور؟ پیشاپیش از هرگونه پیشنهادی در مورد هر یک از این 3 قسمت سپاسگزارم.
|
تخمین خطای استاندارد در یک پروبیت: اقتصاد سنجی یا مشکل برنامه نویسی؟
|
29446
|
من سعی میکنم با استفاده از یک مدل جنگل تصادفی در R پیشبینی کنم. با این حال خطاهایی دریافت میکنم زیرا برخی از فاکتورها مقادیر متفاوتی در مجموعه آزمایشی نسبت به مجموعه آموزشی دارند. برای مثال، یک فاکتور «Cat_2» دارای مقادیر «34، 68، 76» و غیره در مجموعه آزمایشی است که در مجموعه آموزشی ظاهر نمیشوند. متاسفانه من کنترلی روی مجموعه تست ندارم... باید همانطور که هست استفاده کنم. تنها راه حل من این بود که فاکتورهای مشکل ساز را با استفاده از «as.numeric()» به مقادیر عددی برگردانم. _کار میکنه_ ولی من زیاد راضی نیستم چون این مقادیر کدهایی هستن که معنی عددی ندارن... به نظرتون راه حل دیگه ای هست که مقادیر جدید رو از مجموعه تست حذف کنیم؟ اما بدون حذف تمام مقادیر عامل دیگر (مثلاً مقادیر «1، 2، 14، 32»، و غیره) که هم در آموزش و هم در آزمون هستند و حاوی اطلاعات بالقوه مفید برای پیشبینی هستند.
|
جنگل تصادفی و سطوح عامل جدید در مجموعه آزمون
|
48517
|
مشخص است که نسبت های شانس از تقارن خاصی برخوردار هستند. برای مثال، نسبت شانس نتیجه $Y$ معکوس نسبت شانس نتیجه $\neg Y$ است. از سوی دیگر، نسبت های ریسک از این تقارن لذت نمی برند. با این حال، نسبت های ریسک دارای خاصیت جمع شدن هستند. بنابراین تعدیل برای یک متغیر کمکی که مخدوش کننده نیست، بزرگی نسبت ریسک را تغییر نمی دهد. تعریف رسمی تر از قابلیت جمع شدن را در نظر بگیرید: > _**Definition_**. فرض کنید $g[P(x,y)]$ هر تابعی باشد که ارتباط > بین $Y$ و $X$ را در توزیع مشترک $P(x,y)$ اندازه گیری می کند. سپس $g$ > روی یک متغیر $Z$ قابل جمع شدن است اگر $$E_{z}g[P(x,y|z)] = g[P(x,y)]$$ بنابراین در مورد ریسک نسبت، $g[P(x,y)]$ نسبت ریسک خواهد بود؟ اگر $P(x,y)$ را ندانیم چه؟ نسبت ریسک نسبت دو تراکم وقوع است که به نظر نمی رسد به هیچ توزیع احتمالی بستگی داشته باشد.
|
قابلیت جمع شدن: نسبت شانس در مقابل نسبت ریسک
|
48518
|
من در نشان دادن اینکه دومین لحظه مرکزی متناهی است مشکل دارم. من $X_1,\ldots,X_n \overset{iid}{\sim} f(x)$ دارم با $E[X_1]=\mu$ و $E[X_1^k]$ وجود دارد و برای هر عدد صحیح $ متناهی است k \geq 1$. من می خواهم از قانون اعداد بزرگ استفاده کنم، بنابراین باید نشان دهم که یا $E[|X_1|]$ متناهی است یا اینکه $E[(X_1-\mu)^2]$ متناهی است. من سعی کردم اولین مورد را با جنسن اثبات کنم اما گیر کردم زیرا قدر مطلق محدب است نه مقعر. بنابراین اکنون من در تلاش برای نشان دادن اینکه لحظه مرکزی دوم متناهی است گیر کرده ام.
|
اثبات اینکه لحظه مرکزی متناهی است
|
41138
|
هنگام محاسبه $R^2$ تنظیم شده، فرمول $1-(1-R^2)\frac{n-1}{n-k-1}$ است که $k$ تعداد پیشبینیکنندههای شما را نشان میدهد. اگر من از مدلی با یک متغیر استفاده میکنم، اما آن متغیر مانند زیر به توان 4، 3 و 2 قرار گرفته است، $\hat{Y}=-0.0162x^4+0.2239x^3-1.0941x^ 2+2.0972x-0.9513$ آیا من یک پیش بینی کننده واحد خواهم داشت یا هر عبارت توانمند را به عنوان یک پیش بینی حساب می کنم؟ همچنین اگر می توانید دلیل کوتاهی بیاورید تا بتوانم این مفهوم را درک کنم که چرا یا چرا نباید. پیشاپیش ممنون
|
محاسبه $R^2$ تعدیل شده در رگرسیون خطی چند جمله ای با تک متغیر
|
41139
|
اگر s1 واریانس یک نمونه کوچک باشد و s2 واریانس یک نمونه بزرگتر از همان جامعه است. آیا s1 یک برآوردگر بی طرفانه برای s2 است؟ من فکر می کنم از آنجایی که واریانس نمونه یک برآوردگر بی طرفانه واریانس جامعه است، پس s1 و s2 هر دو برآوردگرهای بی طرفانه برای sigma^2 هستند، بنابراین s1 و s2 نیز باید برآوردگرهای بی طرفانه برای یکدیگر باشند. اما همه مشاهدات در یک نمونه بخشی از جامعه هستند، اما مشاهدات بین نمونه ها لزوماً شامل یکدیگر نمی شوند. آیا این واریانس آنها را مغرضانه می کند؟
|
مقایسه واریانس نمونه از همان جامعه
|
7250
|
من در درک یک یا دو جنبه از بسته کلاستر مشکل دارم. من مثال Quick-R را به دقت دنبال می کنم، اما یکی دو جنبه از تجزیه و تحلیل را درک نمی کنم. من کدی را که برای این مثال خاص استفاده می کنم اضافه کرده ام. ## کتابخانه کتابخانه (آمار) کتابخانه (fpc) ## دادههای دادهای = ساختار(لیست(a = c(461.4210925, 1549.524107, 936.42856, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0، 0، 131.4349206، 0، 762.6110846، 3837.850406)، b = c(19578.64174، 2233.308842، 4714.514274، 0، 2760.51210، 2760.512. 3706.428246, 2693.353714, 2674.126613, 592.7384164, 1820.976961, 1318.654162, 1075.854792, 18823, 18916, 18911 3245.540062، 1711.817955، 2127.285272، 2186.671242)، c = c(1101.899095، 3.166506463، 0، 0، 0، 89،125. 654.5054857، 100.9491289، 0، 0، 0، 0، 0، 789.091922، 0، 0، 0، 0)، d = c(33184.53871، 11777.474914، 11777.474914، 1. 10951.32402, 12840.14983, 13305.26424, 12193.16597, 14873.26461, 11129.10269, 11642.93146, 93146, 96585 11025.08607، 11686.32213، 10608.82649، 8635.844964، 10837.96219، 10772.53223، 14844.76478، 14844.76478)، 14844.76478، 14844.76478، 10608.82649، e = c(513. 1418.364947, 2217.952853, 166.92007, 3585.488983, 1776.410835, 3445.14319, 1675.722506, 19032,374, 1902.39 1205.456943، 2048.880329، 2883.497101، 1253.020175، 1507.442736، 0، 1686.548559، 5662.704554، 5662.704554، f = 24، f = 485.9617601, 372.108855, 0, 509.4916263, 0, 0, 0, 212.9541122, 80.62920455, 0, 0, 30.165235584, 0, 0, 0, 30.165235584, 0. 68.38023073، 0، 21.9317122، 65.09052886)، g = c(415.8909649، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 2، 6، 0، 7، 0)، h = c(583.2213618، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0)، i = c( 68206.47387, 18072.97762, 23516.98828, 13541.38572، 15767.5799، 19756.52726، 17676.00505، 21666.267، 15579.90094، 14351.02033، 12537.38، 12537.38. 14149.82119، 15811.23348، 14637.35235، 13588.64291، 12549.78014، 15370.90886، 26597.08152)، c، c, g، h، i)، row.names = c(NA, -19L), class = data.frame) سپس متغیرها را استاندارد می کنم: # استاندارد کردن متغیرها mydata <- scale(mydata) # # K-means Clustering # تعیین تعداد خوشه ها wss <- (nrow(mydata)-1)*sum(apply(mydata,2,var)) برای (i in 2:15) wss[i] <- sum(kmeans(mydata, centers=i)$withinss) # Q1 plot(1:15, wss, type=b, xlab=تعداد خوشه، ylab= درون گروهها مجموع مربعها) # تحلیل خوشهای K-Means متناسب با <- kmeans(mydata، 3) # تعداد مقادیر در راهحل خوشهای # دریافت cluster به معنی انبوه (mydata,by=list(fit$cluster),FUN=mean) # ضمیمه انتساب خوشه mydata <- data.frame(mydata, cluster = fit$cluster) # Cluster Plot در برابر 1st 2 مؤلفه اصلی - پارامترهای مختلف برای خوانایی ترین گراف clusplot (mydata، fit$cluster، color=TRUE، shade=TRUE، labels=0, lines=0) # Q2 # Centroid Plot در مقابل توابع متمایز 1st 2 plotcluster(mydata، fit$cluster) سوال من این است که چگونه می تواند نموداری که تعداد خوشه ها را نشان می دهد (که در کد من 'Q1' علامت گذاری شده است) باشد. مربوط به مقادیر واقعی (تعداد خوشه و نام متغیر)؟ بهروزرسانی: اکنون متوجه شدم که تابع «clusplot()» یک نمودار دو متغیره با PCA1 و PCA2 است. با این حال، من ارتباط بین اجزای PCA و گروههای خوشهای را درک نمیکنم. رابطه بین مقادیر PCA و گروه های خوشه بندی چیست؟ من در جای دیگری در مورد پیوند بین kmeans و PCA خواندهام، اما هنوز نمیدانم چگونه میتوان آنها را در یک نمودار دو متغیره نمایش داد.
|
استفاده از بسته آماری در R برای خوشه بندی kmeans
|
111085
|
من یک مجموعه داده دارم که شامل چندین نمونه برای بیماران مختلف، با چندین نمونه برای هر بیمار است. من باید برخی از وظایف طبقه بندی را انجام دهم و از اعتبارسنجی متقاطع استفاده می کردم، اما به این ترتیب ممکن است نمونه هایی برای همان بیمار در آموزش و تاهای تست داشته باشم. من میخواهم اعتبارسنجی متقاطع یک بیمار را کنار بگذارم انجام دهم، به این معنی که اطمینان حاصل شود که قسمت تست همیشه شامل همه موارد از یک بیمار است. به این ترتیب میتوانم عملکرد طبقهبندیکننده را با دادههای موضوعات جدید بهتر ارزیابی کنم. آیا این در Weka امکان پذیر است؟
|
Weka: اعتبار سنجی متقابل با استفاده از بلوک های نمونه های مرتبط (یک بیمار را کنار بگذارید)
|
14928
|
هنگامی که من یک رگرسیون خطی را در برخی از بستههای نرمافزاری (مثلاً Mathematica) انجام میدهم، مقادیر p مرتبط با پارامترهای فردی در مدل را دریافت میکنم. برای مثال، نتایج یک رگرسیون خطی که یک نتیجه $ax+b$ ایجاد میکند، دارای یک مقدار p مرتبط با $a$ و یک با $b$ خواهد بود. 1. این مقادیر p به صورت جداگانه در مورد آن پارامترها چه معنایی دارند؟ 2. آیا یک روش کلی برای محاسبه پارامترها برای هر مدل رگرسیونی وجود دارد؟ 3. آیا p-value مربوط به هر پارامتر می تواند در یک p-value برای کل مدل ترکیب شود؟ برای حفظ ماهیت این سوال، من فقط به دنبال تفسیر مقادیر p بر حسب احتمالات هستم.
|
معنی مقادیر p در رگرسیون
|
78451
|
من یک مجموعه داده با چندین مقدار y در هر مقدار x دارم. با استفاده از نمودار پراکندگی اکسل و ابزارهای خط رگرسیون، میخواهم رگرسیون را روی دادهها اعمال کنم تا مشخص شود آیا ارتباطی بین نقاط داده وجود دارد یا خیر. اگر من فقط خط روند رگرسیون (Layout 3) را در اکسل انتخاب کنم، خطی با مقدار R² 0.02 به من می دهد، اما اگر میانگین مقادیر y را برای هر x-value انتخاب کنم و از خط روند روی آنها استفاده کنم، من یک خط روند با مقدار R² 0,963 دریافت میکنم که ببخشید این عبارت درست به نظر میرسد. سوال من این است؛ آیا استفاده از مجموعه ای از مقادیر متوسط y به منظور محدود کردن آن به یک مقدار y در هر مقدار x بی خطر است؟
|
رگرسیون خطی (غیر) روی نمودارهایی با مقادیر y متعدد در x
|
44617
|
من سعی می کنم تأثیری را که بارندگی در تعداد تماس های دریافتی در یک شرکت بیمه ایجاد می کند اندازه گیری کنم. من 4 سال اطلاعات روزانه دارم. نمودارهای زیر نمودار همبستگی را برای هر سال نشان میدهند:  همان نمودارهای بالا، اما اکنون میانگین هفتگی برای هر سال گرفته شده است. متغیر:  بارندگی **سالانه** فصلی دارد و مرکز تماس داده ها دارای **الگوی هفتگی** هستند. ایده این است که یک _مدل مبتنی بر هفتگی_ ارائه کنیم، تا بتوانم تاثیری را که یک _پیش بینی میانگین بارندگی هفتگی ایجاد می کند اندازه گیری کنم. رسم کل مجموعه داده، به معنای هفتگی گرفته شده (تصویر زیر):  من پیشنهاداتی در مورد نحوه اندازه گیری این متغیر می خواهم تاثیر - می توانم سعی کنم داده های بارندگی را به 3 دسته تقسیم کنم (کم، معمولی، زیاد)، سپس مدلی بسازم. با تشکر برای هر گونه کمک! (من از R برای تجزیه و تحلیل استفاده می کنم).
|
تحلیل همبستگی
|
95022
|
من مجموعه ای از نمودارهای تراکم دارم که شامل توزیع قیمت سهام است. هر نمودار دارای 5 نمودار چگالی به شرح زیر است که توزیع بازده ماهانه را بر اساس رتبه بندی آنها نشان می دهد - a,b,c,d,e. A پایین ترین رتبه و E بالاترین رتبه است. من باید نمرهای بیاورم که به من بگوید طرح A چقدر با طرح E متفاوت است. یعنی  اگرچه نمودارها خیلی متفاوت به نظر نمیرسند، اما در نسخه بزرگنمایی شده کمی متفاوت هستند. من باید معیاری بیابم که بتواند نمودار A را با نمودار E مقایسه کند. اگرچه میانگین، میانه، حالت، چولگی، کشیدگی جنبه های مختلف یک طرح را نشان می دهد، من به یک مقدار نیاز دارم که تفاوت های آنها را خلاصه کند. آیا ایده ای در مورد آنچه می توان استفاده کرد؟ پیشاپیش متشکرم
|
مقایسه نمودارهای چگالی و امتیازدهی به ترکیب
|
16882
|
من قبلاً تست های T 1 نمونه ای زیادی انجام داده ام، اما نمی توانم بفهمم که آیا می توانم از یکی در این شرایط استفاده کنم یا خیر. در آزمایش خود، 12 حشره را برداشتیم و آنها را در محفظهای قرار دادیم که در آن میتوانستند هر سمتی را که دوست دارند انتخاب کنند (یک طرف قند داشت و طرف دیگر شکر نداشت). تعداد حشرات در هر طرف را به فاصله 30 ثانیه به مدت 20 دقیقه ثبت کردیم. آیا می توان در اینجا از آزمون تی 1 نمونه استفاده کرد؟ به نظر می رسد داده ها تصادفی نیستند و یکی از فرضیات اساسی برای آزمون را نقض می کنند. تعداد حشرات در یک طرف در هر زمان به شدت بر تعداد آنها در زمان خواندن بعدی تأثیر می گذارد. دقیقاً به داده های این چنینی چه می گویند؟ چگونه می توانم آن را تجزیه و تحلیل کنم و به طور بالقوه این فرضیه صفر را رد کنم که حشرات ترجیحی به سمت قندی در مقابل طرف بدون آن ندارند؟
|
چه روش های تحلیل آماری را می توان برای داده های سری زمانی استفاده کرد؟
|
78450
|
این یک مشکل تکلیف است. من قسمت (الف) را فهمیده ام اما برای قسمت (ب) به کمک نیاز دارم. من بخش (الف) را برای تکمیل اضافه می کنم. فرض کنید $X_1,\ldots,X_n$ متغیرهای تصادفی iid پواسون هستند. علاوه بر این، اجازه دهید $Z_n$ نسبت صفرهای مشاهده شده باشد، یعنی $Z_n = n^{-1}\sum_{i=1}^n 1\{X_j=0\}$. $(a)$ توزیع مجانبی مشترک $\left(\bar{X}_n,Z_n\right)$ را پیدا کنید زیرا $\text{E}[X_1]=\theta$ و $\text{Var}[X_1 ]=\theta$، با قضیه حد مرکزی $$\sqrt{n}(\bar{X}_n-\theta) \overset{D}{\longrightarrow} داریم Z_1،\quad Z_1\sim N(0،\theta)$$ و از آنجایی که $\text{E}[1\{X_1=0\}] = P(X_1=0) = e^{-\theta}$ و $$\text{Var}[1\{X_1=0\}] = \text{E}[1\{X_1=0\}^2] - \text{E}[1\{X_1=0\}]^2=e^{-\theta}-e^{-2\theta}=e^{-\theta}(1-e^{-\ تتا})$$ با قضیه حد مرکزی، $$\sqrt{n}(Z_n-e^{-\theta}) \overset{D}{\longrightarrow} Z_2,\quad Z_2\sim داریم N(0,e^{-\theta}(1-e^{-\theta}))$$ علاوه بر این، $$\text{Cov}[X_1,1\{X_1=0\}] = 0 داریم - \theta e^{-\theta}$$ بنابراین، با قضیه حد مرکزی چند متغیره $$\sqrt{n}\begin{pmatrix} \bar{X}_n-\theta \\ Z_n - e^{-\theta}\end{pmatrix} \overset{D}{\longrightarrow} \mathbf{Y}, \quad \mathbf{Y} \sim \text{MVN}\left( \begin{pmatrix } 0 \\ 0 \end{pmatrix}، \begin{pmatrix} \theta & -\theta e^{-\theta}\\-\theta e^{-\theta} & e^{-\theta}(1-e^{-\theta})\end{pmatrix}\right)$$ $( ب)$ بر اساس پاسخ خود در (الف)، توزیع مجانبی $\sum_{i=1}^n X_i \big/ \sum_{i=1}^n را بیابید 1\{X_i>0\}$. این تخمینی از میانگین $\text{E}[X|X\geq 1]$ از پواسون کوتاه شده است. ما $$\dfrac{\sum_{i=1}^n X_i}{\sum_{i=1}^n 1\{X_i>0\}}=\dfrac{n\bar{X}_n}{ داریم n-nZ_n} = \dfrac{\bar{X}_n}{1-Z_n}$$ نمیدانم چگونه از اینجا ادامه دهم! من نسبت دو توزیع نرمال دارم (نرمال حاشیه ای و مشترکاً نرمال). $(c)$ میانگین و واریانس دقیق پواسون$(\theta)$ کوتاه شده را با مقادیر صفر محاسبه کنید. یعنی $X\sim \text{Poisson}(\theta)$، $\text{E}[X|X\geq 1]$ و $\text{Var}[X|X\geq 1]$ را محاسبه کنید. این را با نتیجه مجانبی در (ب) مقایسه کنید.
|
مجانبی پواسون کوتاه شده
|
59668
|
من در حال آزمایش بسته شبکه عصبی در R nnet هستم و چند سوال دارم. 1. محیط نظارتی که من روی آن کار می کنم از من می خواهد که نتایج خود را برای نشان دادن آنها به حسابرسان بازتولید کنم. چگونه می توانم نتایج مدل خود را پس از چند ماه/سال بازتولید کنم؟ آیا می توانم از مقدار seed برای کنترل خروجی مدل استفاده کنم؟ 2. چگونه می توانم مدل شبکه عصبی را تایید کنم؟ آیا تست های تناسب خوبی وجود دارد؟ 3. چگونه می توانم تعداد لایه های پنهان مورد نیاز خود را انتخاب کنم؟ من 18500 مشاهده در مجموعه داده آموزشی و 8 متغیر دارم. آیا این به هر حال به شناسایی لایه های پنهان مورد نیاز کمک می کند؟ 4. بسیاری از اوقات مدل پس از 100 تکرار متوقف می شود. من از گزینه maxiter استفاده کرده ام اما گاهی اوقات خروجی را می بینید و می گوید converged و گاهی اوقات می گوید توقف بعد از 100 تکرار. وقتی میگه بعد از 100 تکرار متوقف شد یعنی مدل بدی دارم؟ و همگرا نشد؟ متشکرم
|
پکیج R nnet - سوال شبکه عصبی
|
8750
|
اگر یک شی arima مانند `a` دارم: set.seed(100) x1 <- cumsum(runif(100)) x2 <- c(rnorm(25, 20), rep(0, 75)) x3 <- x1 + x2 dummy = c(rep(1, 25), rep(0, 75)) a <- arima(x3, order=c(0, 1, 0), xreg=dummy) print(a) . سری: x3 ARIMA(0,1,0) تماس: arima(x = x3, order = c(0, 1, 0), xreg = dummy) ضرایب: dummy 17.7665 s.e. 1.1434 sigma^2 به صورت 1.307 برآورد شده است: احتمال ورود به سیستم = -153.74 AIC = 311.48 AICc = 311.6 BIC = 316.67 چگونه می توان مجذور R این رگرسیون را محاسبه کرد؟
|
چگونه می توانم مربع R یک رگرسیون را با خطاهای آریما با استفاده از R محاسبه کنم؟
|
95029
|
من آزمایشی روی گیاهان انجام داده ام و در تجزیه و تحلیل داده ها مشکل دارم. برای آزمایش، ما سه تکرار (در زمان)، دو گونه و سه تیمار داریم. در هر آزمایش ارتفاع بوته ها را ثبت کردیم. مجموعه داده به این شکل است: replicate | درمان | گونه | ارتفاع من فرض میکنم درمان و گونه فاکتورهای ثابتی هستند در حالی که تکرار یک عامل تصادفی است. برای تجزیه و تحلیل، من از روش توضیح داده شده در اینجا استفاده کردم، بنابراین کد به این صورت است: library(nlme) rs <- read.table('mydata.txt', header=T) rs$plot <- rs$species m1. nlme = lme (ارتفاع ~ گونه * ویژگی، تصادفی = ~ 1| تکرار، داده = rs) خلاصه (m1.nlme) من اینها را دریافت کردم نتایج: مدل خطی اثرات مختلط متناسب با REML داده: rs AIC BIC logLik -326.2813 -310.415 169.1407 اثرات تصادفی: فرمول: ~1 | Replicate (Intercept) Residual StdDev: 0.03603131 0.04329552 اثرات ثابت: ارتفاع ~ گونه * traitement Value Std.Error DF t-value p-value (Intercept) 0.31546667 0.02212053806 0.022120253806 speciesmaize 0.01645839 0.01127669 102 1.459506 0.1475 traitementtemoin 0.21213868 0.01178502 102 18.000707 0.0000:18.000707 0.000000000000000000007 0.000000000000000007 0.00000000000000000000707 0.00000000000000000000070070070. 0.01686908 102 -2.842131 0.0054 همبستگی: (Intr) gnF2F353 trtmnt speciesmaize -0.249 traitementtemoin -0.238 0.472 speciesmaize:traitementtemoin -0.170G Standardized -0.170-0.170 باقیمانده ها: حداقل Q1 Med Q3 حداکثر -4.7398461 -0.3546214 0.1025950 0.6297446 1.6118499 تعداد مشاهدات: 108 تعداد گروه ها: 3 روشی که من این را تفسیر می کنم این است که من یک «تأثیر درمانی» نیز دارم. اما هیچ تاثیری از گونه به خودی خود. آیا این درست است؟
|
مدل خطی در R - 2 ثابت و یک ضریب تصادفی
|
8755
|
من داده هایی برای تجزیه و تحلیل دارم که در آن $y$ به $x$ وابسته است - از رگرسیون خطی استفاده شده است. این یک سوال از یک امتحان است، بنابراین به نظر من باید قابل حل باشد. از رگرسیون برای تخمین میانگین _مایل در هر گالن_ (پاسخ) از _میزان مایل رانده_ (پیش بینی کننده) استفاده شد. من آمار زیر را در دسترس دارم: * ضریب همبستگی (0.117) * انحراف استاندارد (0.482) * تعداد مشاهدات (101) ANOVA از این رگرسیون بازده (به ترتیب رگرسیون و باقیمانده): * df: 1، 99 * SS: 0.319 ، 22.96 * MS: 0.319، 0.232 * F-value: 1.374، F-value بحرانی: 0.244 خود رگرسیون (به ترتیب Intercept و Slope): * ضرایب: 6.51، -0.00024 * انحرافات استاندارد: 0.186، 0.0002 * t-Values: - 34.90 * ارزش ها: 1.93E-57، 0.2439 همچنین، بالا و پایین 95٪ و 99٪ برای رگرسیون بالا داده شده است (البته من مطمئن نیستم که به چه معنی است). اکنون از من خواسته می شود که میانگین $y$ را برای چندین مقدار $x$ محاسبه کنم، این نسبتاً آسان است، من فقط از ضرایب استفاده می کنم. بنابراین برای مثال، من می توانم میانگین مایل در هر گالن را برای 500 مایل رانندگی محاسبه کنم. بخشی که در آن گیر کرده ام: **من باید فاصله اطمینان 99% را برای میانگین $y$ محاسبه کنم.**. بدیهی است که مثال در مورد این است - در مقدمه آمده است که مسافت پیموده شده یک ماشین باید تخمین زده شود. سوال من: چگونه می توانم با استفاده از داده های ارائه شده در بالا به میانگین $y$ پی ببرم؟ (و متعاقباً فاصله اطمینان 99٪، اگرچه به نظر می رسد که من انحراف معیار را دارم، بنابراین نباید مشکل این باشد)
|
محاسبه میانگین با استفاده از داده های رگرسیون
|
59661
|
فلورنس، موچارت و رولین در «عناصر آمار بیزی» (1990)، دو شکل اساسی کاهش آزمایش بیزی را توصیف میکنند: حاشیهسازی و شرطیسازی (فصل 1). من کاهش شرطی شدن را نمی فهمم. بهطور دقیقتر، من با تعریف آزمایش شرطی _منظم مبارزه میکنم. در صورت امکان توضیحی را در شرایط نظری اندازه گیری می خواهم. با تشکر
|
آزمایش بیزی شرطی منظم
|
59665
|
من سعی می کنم فواصل اطمینان را برای تخمین تعداد ماهی های مشاهده شده با تعداد بسیار کمی بررسی ایجاد کنم. بیشتر تعداد ماهی های مشاهده شده نیز بسیار کم است. برآورد بر اساس نسبت تعداد ماهی های بالغ و قرمز (لانه ماهی) مشاهده شده در طول فصل مشاهده است. تخمین مثال 12.5 ماهی  با تشکر از راهنمایی.
|
Bootstrapping برای یافتن فواصل اطمینان. حجم نمونه بسیار کوچک
|
14922
|
من با SAS خیلی تازه کار هستم، پس لطفاً با هر پاسخی این را در نظر داشته باشید. من کد زیر را در SAS اجرا کرده ام: FILENAME نشانی اینترنتی فایل ماهی http://www.amstat.org/publications/jse/datasets/fishcatch.dat; فرمت PROC؛ VALUE sexfmt 0=مونث 1=مرد; VALUE speciesfmt 1=سینی معمولی 2=ماهی سفید 3=روچ 4=سیم نقره ای 5=smelt 6=pike 7=پرچ; INVALUE کد اشتباه NA=. ; اجرا؛ DATA ماهی; فایل ماهی INFILE; INPUT وزن گونه obs طول1 طول2 طول3 hgtpct widpct جنسیت; کد اشتباه جنسی INFORMAT وزن.; LABEL length1=طول شروع بینی تا دم length2=طول بریدگی بینی تا دم length3=طول بینی تا انتهای دم; FORMAT گونه speciesfmt. sexfmt.; اجرا؛ تمام کدهای بالا بدون هیچ خطایی اجرا می شوند. کد زیر به من خطا می دهد: TITLE ماهی فنلاندی: توزیع گونه ها; PROC SGPLOT DATA=fish; گونه های VBAR; اجرا؛ عنوان ماهی فنلاندی: وزن بر حسب گرم؛ PROC SGPLOT DATA=fish; وزن هیستوگرام؛ اجرا؛ من در حال حاضر نمیتوانم به دادهها دسترسی داشته باشم، بنابراین خطای خاصی ندارم، اما وقتی سعی میکنم نمودارهای بهدستآمده را مشاهده کنم، چیزی در راستای «مجوز ناکافی» میگوید. زمانی که بتوانم دوباره به داده ها دسترسی پیدا کنم، پیام خطای واقعی را ارسال می کنم، اما تا آن زمان امیدوارم که شخصی با این خطا مواجه شده و راه حلی پیدا کرده باشد.
|
مشکل در طراحی با SAS
|
44619
|
داده های من شامل سه گروه (A,B,C-مستقل از یکدیگر) و هر گروه شامل 1000 ضریب همبستگی (تولید شده با استفاده از یک شبیه سازی تصادفی با 1000 تکرار، همبستگی X و Y از گروه های مربوطه در هر تکرار) است. مورد 1: من می خواهم هر گروه را آزمایش کنم که آیا تفاوت معنی داری با مقدار آستانه، مثلاً 0.5 وجود دارد یا خیر. مورد 2: من همچنین می خواهم آزمایش کنم که آیا گروه ها به طور قابل توجهی با یکدیگر تفاوت دارند؟ آیا استفاده از آزمون فرضیه برای میانگین (میانگین=0.5) در حالت اول و ANOVA برای حالت دوم منطقی است؟
|
چگونه معناداری گروهی از ضرایب همبستگی را آزمایش کنیم؟
|
50763
|
من پیشینه ای در برنامه نویسی کامپیوتر و تئوری اعداد ابتدایی دارم، اما آموزش آمار واقعی ندارم، و اخیراً کشف کرده ام که دنیای شگفت انگیز طیف وسیعی از تکنیک ها در واقع یک دنیای آماری است. به نظر می رسد که فاکتورسازی های ماتریس، تکمیل ماتریس، تانسورهای ابعادی بالا، جاسازی ها، تخمین چگالی، استنتاج بیزی، پارتیشن های مارکوف، محاسبات بردار ویژه، رتبه صفحه همگی تکنیک های بسیار آماری هستند و الگوریتم های یادگیری ماشینی که از چنین مواردی استفاده می کنند، از آمار زیادی استفاده می کنند. . هدف من این است که بتوانم مقالاتی را بخوانم که در مورد چنین مواردی بحث می کنند، و الگوریتم ها را پیاده سازی یا ایجاد کنند، در حالی که نماد، اثبات و استدلال های آماری استفاده شده را درک می کنم. من حدس میزنم سختترین کار این است که تمام اثباتهایی را که شامل ماتریسها هستند، دنبال کنیم. چه مقالات اولیه می تواند من را شروع کند؟ یا یک کتاب درسی خوب با تمرین هایی که ارزش کار کردن را دارد؟ به طور خاص، برخی از مقالاتی که میخواهم به طور کامل درک کنم عبارتند از: 1. تکمیل ماتریس دقیق از طریق بهینهسازی محدب، Candes، Recht، 2008. 2. تبدیل سریع کوشی و رگرسیون خطی قویتر، کلارکسون و همکاران، 2013. ماشین ها، پل و همکاران، 2013 4. تخمین احتمال بعدی بالا با مدلهای چگالی عمیق، ریپل، آدامز، 2013.
|
آمار برای یادگیری ماشین، مقالات برای شروع؟
|
29449
|
لطفاً در مورد نحوه تفسیر نتایج رگرسیون خطی (مرحله 2 در مقابل 1 مرحله) نکاتی را توضیح دهید؟ برای مثال، من موارد زیر را دارم: lmStage1 <- lm(y~x1) lmStage2 <- lm(residuals(lmStage1)~x2) summary(lmStage2) در مقابل lmAll <- lm(y~x1+x2) summary(lmAll) * * * چگونه ضرایب/t-stats را تفسیر و مقایسه کنم، و غیره از دو مدل بالا؟ و چگونه می توانم این دو رویکرد را با هم مقایسه کنم و چه مشاهدات/تشخیص/مطالعاتی را از دو مدل فوق استخراج کنم؟ به طور کلی احساس می کنم در ترسیم مشاهدات و به دست آوردن شهود از مطالعات رگرسیون کاملاً ضعیف هستم ... آیا کتاب هایی وجود دارد که روی این تفاسیر و شهود تمرکز کنند؟ خیلی ممنون
|
چگونه نتایج رگرسیون خطی (مرحله 2 مرحله در مقابل 1) را تفسیر کنیم؟
|
8754
|
**تحلیل موقت** تجزیه و تحلیل داده ها در یک یا چند نقطه زمانی قبل از پایان رسمی مطالعه با هدف، به عنوان مثال، احتمالاً پایان دادن به مطالعه زودهنگام است. به گفته پیانتادوسی، S. (کارآزماییهای بالینی - دیدگاه روششناختی): _تخمین اثر درمانی زمانی که یک کارآزمایی در مراحل اولیه خاتمه یابد، مغرضانه خواهد بود. هر چه زودتر تصمیم گرفته شود، سوگیری بزرگتر است. میتوانید توضیح دهید. من این ادعا را من به راحتی می توانم درک کنم که قرار است بر دقت تأثیر بگذارد، اما ادعای سوگیری برای من واضح نیست ...
|
چرا وقتی یک کارآزمایی بالینی در مراحل اولیه خاتمه می یابد، سوگیری تحت تأثیر قرار می گیرد؟
|
28311
|
شکل ساختاری مدل معادلات همزمان خطی مدل معادلات همزمان را می توان به صورت $ \mathbf{y}_{i}^{\prime}\Gamma+\mathbf{x}_{i}^{\prime}\mathbf{ نوشت B}=\epsilon_{i}^{\prime} $ که می تواند در مدل کاهش یافته به صورت $ نوشته شود \mathbf{y}_{i}^{\prime} =-\mathbf{x}_{i}^{\prime}\mathbf{B}\Gamma^{-1}+\epsilon_{i}^{ \prime}\Gamma^{-1}\\ =\mathbf{x}_{i}^{\prime}\Pi+\mathbf{v}_{i}^{\prime}. $ مدل فرم کاهش یافته را می توان با روش های مختلف تخمین تخمین زد و در صورت شناسایی مدل، ضرایب ساختاری $\widehat{\mathbf{B}}$ را می توان با استفاده از رابطه $\widehat{\mathbf{B}}= بدست آورد. \widehat{\Pi}\widehat{\Gamma}$. من نمی دانم چگونه ماتریس واریانس-کوواریانس $\widehat{\mathbf{B}}$ را هدایت کنیم. بسیار ممنون می شوم اگر به من اشاره ای کنید. پیشاپیش از کمک و زمانی که می گذارید سپاسگزارم.
|
ماتریس واریانس-کوواریانس برای پارامترهای ساختاری در مدلهای معادله همزمان
|
94995
|
من یک سوال کوچک در مورد یک تحقیق کوچک دارم که می خواستم در مورد شباهت نمادهای سهام و بازده غیرعادی آنها انجام دهم. من تقریباً یک نمونه از 10000 سهام دارم و محاسبه می کنم که چقدر با یکدیگر تفاوت دارند (که ماتریسی 10K x 10K را با اندازه گیری تفاوت آنها نشان می دهد). حالا من قصد داشتم این را آزمایش کنم، ابتدا سهام هایی با فاصله کمتر از یک آستانه مشخص را در یک گروه گروه بندی کنم و سهام هایی را که آستانه بزرگتری دارند حذف کنم و سپس بررسی کنم که آیا این سهام بازده مشابهی دارند حتی اگر در همان صنعت نیستند. . چند سوال دارم، آیا این روش خوبی برای تست کردن این موضوع است؟ یا باید از ماتریس 10K x 10K استفاده کنم؟ چون باید سهام های کاملاً غیرمشابه را بررسی کنم درست است؟ به علاوه آیا چیزی را فراموش کرده ام؟ من سعی می کنم مطالعه انجام شده توسط راش (2001) را در مقیاس بزرگتر تکرار کنم.
|
طراحی تحقیق در مورد نام ها و جنبش های مشابه
|
78455
|
سلب مسئولیت: آمار جنبه قوی من نیست، بنابراین اگر سوال من مزخرف است عذرخواهی می کنم. من یک مبتدی هستم، اما واقعا می خواهم این را بفهمم. سوال من این است: چرا هنگام استفاده از تبدیلهای مختلف روی دادههایم در یک رگرسیون غیر خطی، تخمینهای پارامترهای بسیار متفاوتی دریافت میکنم؟ من سعی می کنم یک رگرسیون غیر خطی انجام دهم و عدم قطعیت برازش (فاصله اطمینان) را با استفاده از تقریب خطی تخمین بزنم. از درک من، هرچه شکل تابع غیرخطی خطی تر باشد، محاسبه فاصله اطمینان با تقریب خطی دقیق تر خواهد بود. بنابراین میخواهم دادهها را تا حد امکان خطی تبدیل کنم. خطاهای $y$ را می توان log-normal فرض کرد. دادههای من یکنواخت هستند و فرض میشود در بیشتر موارد تابع قدرت را دنبال میکنند. $$ y = a*(x-x_0)^b $$ که در آن $y$ تخلیه رودخانه است، $x$ یک سطح آب دلخواه در رودخانه و $x_0$ سطح آب است که در آن دبی $y$ 0 است. این را می توان به صورت تبدیل log، و زیبا و خطی $$ log(y) = a + b \times log(x-x_0) $$ بازنویسی کرد. من باید پارامترهای $a$، $b$ و $x_0$ را تخمین بزنم، بنابراین برای انجام این کار به طور همزمان از رگرسیون غیرخطی استفاده میکنم. من همچنین داده هایی دارم که از توابع درجه دوم پیروی می کنند، بنابراین می خواهم یک روش غیر خطی را تنظیم کنم (و درک کنم). من از r و `nlsLM()` از `minpack.lm` برای انجام رگرسیون غیر خطی استفاده می کنم. در اینجا چند کد نمونه وجود دارد: library(minpack.lm) xdata <- c(19, 21, 24, 25, 29, 34, 35, 40, 40, 46, 48, 48, 52, 56, 57, 65, 65 ، 68) ydata <- c(10، 11، 14، 20، 24، 50، 42، 96، 89، 134، 135، 161، 171، 218، 261، 371، 347، 393) df<-data.frame(x=xdata، y=ydata) #وزن های اعمال شده در مورد بدون تبدیل (خطای نسبی فرض می شود برای همه y یکسان است داده) W<-1/ydata # رگرسیون NLS با وزن، بدون تغییر nlsmodel1<-nlsLM(y ~ a*(x-x0)^b,data=df,start=list(a=0.1, b=2.5,x0 =0)) # log تبدیل شده nlsmodel2<-nlsLM(log(y) ~ a+b*(log(x-x0)),data=df,start=list(a=0.1, b=2.5,x0=0)) > coef(nlsmodel1) a b x0 0.005158377 2.719693093 4.896772931 4.896772931 lmo) coef an x0 -8.683758 3.445699 -4.139127 > exp(-8.683758) [1] 0.0001693136 من میدانم که وزنها بسیار مهم هستند، و میتوانند در تفاوتهای اینجا نظری داشته باشند، اما نه تا این حد؟ قضاوت من در مورد دو مجموعه پارامتر این است که «nlsmodel1» «بهتر» عمل میکند و ضریب «b» در برازش «nlsmodel2» بسیار بالاست. «nlsmodel2» در انتهای بالایی دادهها، با باقیماندههای بزرگ، کار ضعیفی انجام میدهد. اما چرا آنها اینقدر متفاوت هستند؟ احساس میکنم در اینجا کار بسیار احمقانهای انجام میدهم و نمیتوانم خطا را ببینم. من برخی از تبدیل های دیگر را امتحان کرده ام، برای مثال فقط LHS را به عنوان log(y) تبدیل کردم، اما مشکل همچنان باقی است. من از هر نکته ای که می تواند به من در بهبود تناسب تغییر یافته کمک کند، قدردانی می کنم. به سلامتی پست های مرتبط شماره 1 و پست شماره 2
|
رگرسیون غیرخطی: بهترین تبدیل زمانی که تخمین پارامترهای بسیار متفاوت را بدست می آوریم
|
9871
|
من یک سوال مفهومی آمار پایه دارم. به عنوان یک دانش آموز می خواهم بدانم که آیا به این موضوع کاملاً اشتباه فکر می کنم و چرا، اگر چنین است: فرض کنید که من به طور فرضی سعی می کنم به رابطه بین مسائل مدیریت خشم نگاه کنم و طلاق (بله/خیر) را در یک رابطه بگویم. رگرسیون لجستیک و من این گزینه را دارم که از دو نمره مختلف مدیریت خشم استفاده کنم -- هر دو از 100. امتیاز 1 از ابزار رتبه بندی پرسشنامه 1 و انتخاب دیگر من می آید. نمره 2 از یک پرسشنامه متفاوت بدست می آید. به طور فرضی، دلیلی داریم که از کارهای قبلی باور کنیم که مسائل مدیریت خشم باعث طلاق می شود. اگر در نمونه 500 نفری من، واریانس نمره 1 بسیار بیشتر از نمره 2 باشد، آیا دلیلی وجود دارد که باور کنیم نمره 1 برای پیش بینی طلاق بر اساس واریانس آن، نمره بهتری خواهد بود؟ به نظر من، این به طور غریزی درست به نظر می رسد، اما آیا اینطور است؟
|
آیا یک پیش بینی کننده با واریانس بیشتر بهتر است؟
|
93968
|
میخواستم بدانم که آیا استفاده از OLS زمانی که دادههای اصلی را بهعنوان متغیر وابسته دارم، پیامدهایی دارد یا خیر. بنابراین متغیرهای وابسته من تعدادهایی از یک نتیجه خاص هستند و آنها به صورت اعداد طبیعی 0،1،2،3،...N وجود دارند. آیا راه بهتری برای توصیف چنین داده هایی وجود دارد؟
|
داده های اصلی به عنوان متغیرهای وابسته
|
95027
|
این مثال را در نظر بگیرید: داده <-matrix(c(227,751,193,541), ncol=2) column1 <- c(227, 751) probabilities <- c( 193/(193+541), 541/(193+541) chisq. test(داده) chisq.test(ستون 1، p= احتمالات) وقتی تست مجذور کای ارائه یک ماتریس را اعمال می کنم، نتایج می گوید که این یک آزمون کای دو پیرسون با تصحیح پیوستگی یتس است و مقدار p 0.158 را ارائه می دهد. وقتی دومین کای دو را انجام میدهم، ستون اول ماتریس و احتمالات محاسبهشده از ستون دوم را ارائه میکنم، نتایج و نام آزمون بهطور چشمگیری تغییر میکند: > آزمون کایدو برای احتمالات داده شده، p-value گزارششده 0.028 است. با توجه به اینکه من سعی می کنم تعیین کنم که آیا دو مجموعه داده ای که دارم (ستون ها در ماتریس) **متفاوت نیستند** با یکدیگر: **تفاوت بین این دو تست چیست؟ از کدام یک استفاده کنم؟**
|
تفاوت بین ارائه احتمالات یا ارائه ماتریس برای تابع chisq.test در R
|
78976
|
من میخواهم ویژگیهای دیگری را به رگرسیون خود اضافه کنم تا مدل خود را پیچیدهتر کرده و بایاس کمتری داشته باشم، پس از جستجو در اینترنت به نظر میرسد ایده خوبی است که ویژگیهای مربعی اضافه کنم، که میتواند به یادگیری رگرسیون در ضرایب دانش بیشتر کمک کند. من میخواهم به مدل رگرسیون خود مربعی از جفتهای ویژگیهای $x * y$ اضافه کنم، فکر میکنم که میتواند به یادگیری روابط مدل من بین متغیرهای ویژگیهایی که میتوانند بسیار همبسته باشند کمک کند. مشکل این است که وقتی می بینم در تفسیر $x * y$ نادرست به نظر می رسد، وقتی که $high * high = بالاتر $ ex را دریافت می کنم. $5 * 5 = 25 $ که خوب است، اما $کم * کم = بالاتر $ به شدت نامعتبر به نظر می رسد. $-5 * -5 = 25 $، برای بیان مشکل من باید -25$ باشد. همان مشکلاتی که من برای $بالا * کم = کم $ دارم. $5 * -5 = -25$، فکر می کنم باید چیزی بین $<-5 باشد. 5>$، برای مثال در $0$. اینکه کسی نظری در مورد اینکه از چه معادله ای می توانم برای به دست آوردن نمایش صحیح استفاده کنم فکری دارد؟ من از ایده های دیگر برای ویژگی های جدید محاسبه شده مجازی قدردانی خواهم کرد.
|
ویژگی های اضافی برای رگرسیون
|
11157
|
من داده های سری زمانی دارم که تاریخ/زمان معاملات انجام شده در یک بازار مالی را نشان می دهد. من میخواهم امتیازی به این دادهها اختصاص دهم که نشاندهنده این است که آیا معاملات «عمدتاً بر اساس مقادیر زمانی خاص» خوشهبندی شدهاند یا اینکه «عمدتاً بهطور مساوی پخش شدهاند». من در هر مجموعه داده حدود 1000+ نتیجه خواهم داشت. **مثال وضعیت یک (درجه بالای خوشه بندی):** 1. 01/01/01 : 13:00 2. 01/01/01 : 13:10 3. 01/01/01 : 13:15 4 01/01/01 : 13:25 5. 03/05/01 : 17:20 6. 03/05/01 : 17:35 7. 03/05/01 : 17:40 8. 03/05/01 : 17:45 **مثال وضعیت دو( درجه پایین خوشه بندی)* * 1. 01/01/01 : 13:00 2. 01/05/01 : 02:30 4. 02/12/01 : 06:40 5. 02/25/01 : 02:30 6. 03/30/01 : 21:10 7. 04/12/01 : 02:20 8. 05/02/01 : 03:25 البته می توانم همه را تبدیل کنم مُهرهای زمانی به زمان posix یا غیره، انجام محاسبه با مقادیر زمان مشکلی نخواهد داشت. من به احتمال خطای استاندارد فکر می کردم؟ (برای کسانی که اطلاعات پس زمینه بیشتری می خواهند: من از نتایج بک تست استفاده می کنم تا اندازه موقعیت ورودی خود را به روشی پیچیده تعدیل کنم. اگر نتایج شامل معاملاتی باشد که با هم دسته بندی شده اند، در واقع هر کدام به عنوان 1 معامله به حساب نمی آیند (بیشتر مانند یک تجارت بزرگ، این بدان معنی است که چنین نتایجی غیرقابل اعتماد هستند و من نباید به آنها عمل کنم.) با تشکر!
|
از چه آزمون آماری برای تشخیص توده شدن استفاده کنم؟
|
95026
|
در پروژه من، یکی از اهداف من یافتن نقاط پرت در داده های موتورهای هوانوردی است و برای انجام این کار از شبکه عصبی Replicator استفاده کردم و گزارش زیر را در مورد آن مطالعه کردم (http://citeseerx.ist.psu.edu/viewdoc/download ?doi=10.1.1.12.3366&rep=rep1&type=pdf) و مشکل درک کمی با گام به گام دارم تابع (صفحه 4، شکل 3) و مقادیر پیش بینی ناشی از آن. توضیح یک شبکه عصبی replicator به بهترین وجه در گزارش بالا توضیح داده شده است، اما به عنوان یک پس زمینه، شبکه عصبی replicator که من ساخته ام با داشتن همان تعداد خروجی به عنوان ورودی و داشتن 3 لایه پنهان با توابع فعال سازی زیر کار می کند: * لایه پنهان 1 = tanh سیگموئید S1(θ) = tanh، * لایه پنهان 2 = گام به گام، S2(θ) = 1/2 + 1/(2(k − 1)) {مجموع هر متغیر j} tanh[a3(θ −j/N)] * لایه پنهان 3 = سیگموئید tanh S1(θ) = tanh، * لایه خروجی 4 = سیگموئید معمولی S3( θ) = 1/1+e^-θ من الگوریتم را پیاده سازی کرده ام و به نظر می رسد در حال آموزش است (زیرا میانگین مربعات خطا در طول تمرین به طور پیوسته کاهش می یابد). تنها چیزی که نمیفهمم این است که وقتی لایه میانی با تابع فعالسازی گام به گام اعمال میشود، چگونه پیشبینیها انجام میشود، زیرا باعث میشود فعالسازیهای 3 گره میانی به مقادیر گسسته خاصی تبدیل شوند (مثلاً آخرین فعالسازیهای من در 3 مورد). وسط 1.0، -1.0، 2.0 بودند، این باعث می شود که این مقادیر به جلو منتشر شوند و من هر بار پیش بینی های بسیار مشابه یا دقیقاً یکسانی داشته باشم. بخش گزارش در صفحه 3-4 بهترین الگوریتم را توصیف می کند، اما من نمی دانم برای رفع این مشکل باید چه کاری انجام دهم، من هم زمان زیادی ندارم:( هر گونه کمکی بسیار متشکرم.
|
شبکه عصبی Replicator، تابع گام به گام باعث پیشبینی مشابه میشود
|
18915
|
من می دانم که همبستگی به معنای علیت نیست. من آن را برای نهمین بار خواندم. (یعنی وزن باعث قد نمی شود و غیره) با این حال، برای یافتن اثر یک متغیر تعدیل کننده بر رابطه X-Y، از یک مدل رگرسیون مانند GLM در SPSS برای آزمایش تعامل یا رگرسیون چندگانه استفاده می شود. اینجا را ببینید. **سوال من: اگر رابطه X-Y یک همبستگی است، پس چرا در این مثال از مدل علت- معلولی استفاده می شود؟** تا آنجا که من متوجه شدم، طبقه بندی یک متغیر به عنوان مستقل یا وابسته در تحلیل همبستگی منطقی نیست. . اگر این سوال احمقانه به نظر می رسد عذرخواهی می کنم. در زندگی گذشتهام، اغلب به دانشآموزانم گفته بودم که هیچ سؤال احمقانهای وجود ندارد. فقط سوال!
|
همبستگی در مقابل رگرسیون علت و معلولی
|
9879
|
با توجه به دو گاوسی چند متغیره (مثلاً به صورت دو بعدی با میانگین $\mu$ به عنوان نقطه دوبعدی و ماریس انطباق $\Sigma$ به عنوان $2$x$2$ ماتریس) $N_1(\mu_1,\Sigma_1)$ و $N_2(\mu_2، \Sigma_1)$، من می خواهم پی دی اف $N_1+N_2$ را استخراج کنم. آیا کسی می تواند مرا به مرجعی راهنمایی کند که در آن بتوانم مشتق pdf $N_1 + N_2$ را پیدا کنم. پیشاپیش ممنون
|
افزودن گاوسیان چند متغیره
|
8752
|
من میخواهم آنالیز تعداد کوادرات را روی چندین فرآیند نقطه (یا یک فرآیند نقطه مشخص شده) انجام دهم تا سپس برخی از تکنیکهای کاهش ابعاد را اعمال کنم. علائم به طور یکسان توزیع نمی شوند، یعنی برخی از علائم اغلب ظاهر می شوند، و برخی بسیار نادر هستند. بنابراین، من نمیتوانم فضای دوبعدی خود را به سادگی در یک شبکه منظم تقسیم کنم، زیرا علامتهای متداولتر، علائم کمتر را «غلبه میکنند» و ظاهر آنها را پنهان میکنند. بنابراین، من سعی کردم شبکه خود را طوری بسازم که هر سلول حداکثر N نقطه در آن داشته باشد (برای انجام این کار، من به سادگی هر سلول را به صورت بازگشتی به چهار سلول کوچکتر (و با اندازه مساوی) تقسیم می کنم، تا زمانی که هیچ سلولی بیش از N نقطه نداشته باشد. آن). نظر شما در مورد این تکنیک عادی سازی چیست؟ آیا روش استانداردی برای انجام چنین کارهایی وجود دارد؟
|
هنگام انجام شمارش رباعی، چگونه ربعات را می سازید؟
|
103681
|
در طرحی از سری زمانی من به وضوح قابل مشاهده است که شکست ساختاری وجود دارد، اما من باید تاریخ دقیق را پیدا کنم. من می خواهم این را با تست چو تست کنم. اگرچه میدانم اگر تاریخ شکست ساختاری مشخص باشد چگونه میتوان این آزمایش را انجام داد، اما با استفاده از یک رگرسیون خطی با دو رگرسیون ساختگی، یکی برای نقطه قطع و دیگری برای شیب، $R_t$ = $\beta_0 $+ $\beta_0^ * · D_i + \beta_1 R_{m,t} + \beta_1^* · D_t · R_{m,t} + ε_t,$ نسبت به استفاده از غذا تست کنید.. اما اگر تاریخ دقیق را نمی دانم، (به عبارت دیگر: نمی دانم $D_i$ و $D_t$ چه زمانی باید 1 باشد) چگونه می توانم تاریخ دقیق را پیدا کنم؟ از پاسخ شما بسیار سپاسگزارم
|
شکست های ساختاری در سری های زمانی با استفاده از متلب
|
104363
|
داده شده عبارتند از $Z_1، Z_2$ i.i.d. استاندارد معمولی $P[Z_1 < t <Z_2]$ را پیدا کنید من در کار با نحوه تقسیم شرط مشکل دارم. آیا $P[Z_1 < t < Z_2] = P[Z_1 < t، t <Z_2]$ است یا شرایط اضافی لازم است؟ ## سوال من چگونه باید به این مشکل برخورد کنم؟
|
احتمال x بین دو متغیر تصادفی
|
55418
|
در مدلسازی دادههای ترتیبی توسط جانسون و آلبرت، صفحه 102-103: > برای مشاهدات برنولی [...] توزیع مجذور کای مجانبی > آمار انحراف ممکن است مربوط نباشد. در واقع، برای مدل های لجستیک خطی > با مشاهدات برنولی، تابع انحراف را می توان تنها به عنوان تابعی از MLE پارامتر رگرسیون بیان کرد، **که > بیهودگی استفاده از این آمار را برای اندازه گیری خوبی برازش > برای چنین مواردی نشان می دهد. داده**. لطفاً کسی می تواند معنی این را توضیح دهد؟
|
چرا استفاده از انحراف به عنوان معیار مناسب برای داده های برنولی بیهوده است؟
|
18916
|
من از رگرسیون لجستیک برای پیش بینی y با توجه به x1 و x2 استفاده می کنم: z = B0 + B1 * x1 + B2 * x2 y = e^z / (e^z + 1) چگونه قرار است رگرسیون لجستیک به مواردی رسیدگی کند که در آن متغیرهای من دارای مقیاس های بسیار متفاوت؟ آیا مردم هرگز مدل های رگرسیون لجستیک با ضرایب مرتبه بالاتر برای متغیرها می سازند؟ من چیزی شبیه به این را تصور می کنم (برای دو متغیر): z = B0 + B1 * x1 + B2 * x1^2 + B3 * x2 + B4 * x2^2 در غیر این صورت، پاسخ درستی برای عادی سازی، استانداردسازی یا مقیاس مجدد است. مقادیر x1 و x2 قبل از استفاده از رگرسیون لجستیک؟
|
چگونه می توانم متغیرهای پیش بینی کننده از توزیع های مختلف را در رگرسیون لجستیک مدیریت کنم؟
|
105753
|
خوب من این کار را کردم اما فکر می کنم کاملاً اشتباه است. میشه لطفا یکی اینو برای من درست کنه؟ برای درک مدل MA(q) من واقعاً نیاز دارم که برخی از اعداد را به عنوان I به آن وصل کنم، این فرمول سریهای زمانی را بهطور حماسی گیجکننده میبینم، زیرا هرگز توضیح داده نمیشود که واقعاً چه چیزی در دنیای واقعی است. مدل: y = c + u + 0.5 et-1 + 0.25 et-2 + 0.125 و -3 Ya t Yf t میانگین U e t Y واقعی در زمان t پیش بینی Y در زمان t 1.69% خطا در زمان t (et 0 ساخته شده است) y = c + u + 0.5 et-1 + 0.25 et-2 + 0.125 et -3 Yf t - میانگین u 0 1.69% 0.03 1 0.63% 1.69% -1.06% 2 1.13% 1.69% -0.56% 3 1.36% 1.69% -0.33% 4 0.97% 1.69% 1.69% -0.71% - 0.71% 5.69% -0.71% 0.88% 1.69% -0.81% 7 0.90% 1.69% -0.79% 8 1.06% 1.69% -0.63% 9 1.38% 1.69% -0.31% 10 0.96% 1.61% 1.61% 1.61% 1.61% -0. -0.40% 12 1.39% 1.69% -0.30% 13 0.98% 1.69% -0.71% 14 1.42% 1.69% -0.27% 15 1.21% 1.69% -0.48% 16 - 0.48% 16 - 1.6% 1.45% 1.69% -0.24% 18 1.11% 1.69% -0.58% 19 1.92% 1.69% 0.23% 20 1.89% 1.69% 0.20% 21 2.00% 21 2.00% 0.58% 1.69% 1.69% -0.29% 23 2.15% 1.69% 0.46% 24 2.11% 1.69% 0.42% 25 1.76% 1.69% 0.07% 26 2.55% 1.69% 0.86% 0.86% 27101% 2.23% 1.69% 0.54% 29 2.39% 1.69% 0.71% 30 1.55% 1.69% -0.14% 31 2.67% 1.69% 0.99% 32 2.50% 32 2.50% 32.69% 1.69% 1.69% 1.69% 0.20% 34 2.18% 1.69% 0.49% 35 2.42% 1.69% 0.73% 36 1.75% 1.69% 0.06% 37 2.54% 1.69% 0.85% 38% 1.69% 38.2. 2.08% 1.69% 0.39% 40 2.58% 1.69% 0.89% 41 1.71% 1.69% 0.02% 42 1.56% 1.69% -0.13% 43 1.98% 0.89% 1.69% 0.69% 0.16% 45 1.66% 1.69% -0.03% 46 2.19% 1.69% 0.50% 47 1.52% 1.69% -0.17% 48 1.75% 1.69% 0.06% 29% 1.69% EC 1.80% 1.69% 0.11% FORECAST 51 1.81% 1.69% 0.12% FORECAST 52 1.81% 1.69% 0.12% FORECAST 53 1.79% 1.69% 0.10% 1.69% 0.10% 1.69% 0.10% FORECAST FORECAST 55 1.78% 1.69% 0.09% FORECAST 56 1.77% 1.69% 0.08% FORECAST 57 1.76% 1.69% 0.07% FORECAST 58 1.76% 1.675% 1.69% FOREST 0. 1.69% 0.06% FORECAST 60 1.75% 1.69% 0.06% FORECAST 61 1.74% 1.69% 0.05% قبل از تخمین اولین عبارت خطا برای t = 0 و پارامترهای مدل سعی کردم این کار را تا مرحله ای انجام دهم که در آن هستم. درست به نظر نمی رسد امیدوارم بتوانید این را دنبال کنید، به سختی می توانید قالب بندی را درست انجام دهید. فقط به نظر می رسد که در نهایت بسیار شبیه به میانگین است که مفید نیست. من چیزی میخواهم که الگوهای تصادفی دیدهشده در سریهای زمانی را پیشبینی کند، برای مثال وقتی نقطه بالا میرود میتوانید ببینید، در نقطه بعدی بسیار به ندرت بالاتر است. فرمول پیشبینی اساساً این است که میانگین را گرفته و آن را در 3 عبارت خطای آخر ضرب میکنیم و در ضرایبی که من درست کردم ضرب میکنیم. با تشکر با تشکر به عنوان یک یادداشت جانبی، من واقعاً نمادها و توضیحات در مورد این را بسیار گیج کننده می دانم. با تشکر
|
لطفاً در مورد صفحه گسترده MA(q) به من کمک کنید
|
9872
|
من مجموعه ای از متغیرها را برای ساخت کارت امتیازی اعتباری با رگرسیون لجستیک دارم. من باید برخی از متغیرها را باین کنم، به عنوان مثال. سال سابقه اعتباری روش تعیین چند سطل و فاصله هر سطل چیست؟ با تشکر
|
جمع کردن داده های خام قبل از ساخت یک مدل رگرسیون لجستیک
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.