_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
55353
|
import sympy sympy.init_printing() x, y, mu, sigma, density1, density2 = sympy.symbols('x y mu sigma density1 density2') eq1 = sympy.Eq(density1, 1/(sympy.sqrt(2*sympy. پی)*سیگما) *sympy.exp(-(x-mu)**2/(2*sigma**2))) # eq2 عادی = sympy.Eq(y, sympy.exp(x)) # جایگزین eq3 = sympy.Eq( density2, 1/(y*sympy.sqrt(2*sympy.pi)*sigma) *sympy.exp(-(sympy.ln(y)-mu)**2/(2*sigma**2))) # lognormal [eq1, eq2, eq3] خروجی: ⎡ 2 2⎤ ⎢ -(-μ + x) -(-μ + log(y)) ⎥ ⎢ - ⎢ ╲╱ 2 ⋅ℯ x ╲╱ 2 ⋅ℯ ⎥ ⎢ تراکم₁ = ──────────────────────── تراکم₂ = ──────────────────────⎥ ⎢ ___ ___ ⎥ ──────────────⎥ ⎢ ___ ___ ⎥ ⎣⎣ 2⋅╲╱ π ⋅σ⋅y ⎦ چگونه می توانم به SymPy بگویم چگالی اول (طبیعی) را گرفته، جایگزینی x را به y اعمال کند و چگالی دوم (lognormal) مورد نظر را خروجی کند؟
|
نحوه محاسبه چگالی log-normal از چگالی نرمال با استفاده از SymPy
|
50650
|
معمولاً وقتی تحلیل عاملی را انجام میدهم، یک سری متغیر دارم که باید کاهش یابند. اما در اینجا من فقط دو متغیر باینری دارم (بله/خیر) که باید آنها را به یک فاکتور بازه کاهش دهم. آیا مولفه های اصلی / تحلیل عاملی برای این کار مناسب است؟ وقتی این کار را انجام میدهم، اجتماعات استخراج من واقعاً بالاست. ممکن است برای پشتیبانگیری از این موضوع با بازبینها به یک مرجع نیاز داشته باشم.
|
نحوه تجزیه و تحلیل عاملی فقط دو متغیر باینری
|
50656
|
فرض کنید دو متغیر A و B داریم و سعی می کنیم اطلاعات متقابل بین آنها را پیدا کنیم. آیا اطلاعات متقابل می تواند ما را قادر سازد که بین دو متغیر رابطه مثبت یا منفی وجود داشته باشد؟
|
رابطه بین اطلاعات متقابل و نشانه رابطه
|
50653
|
به مجموعه ای کاملا متقارن گفته می شود که برای هر x در آن، نفی یکی از اجزای آن به y منجر شود به طوری که y نیز در مجموعه باشد. به مجموعه ای نیمه متقارن گفته می شود که برای هر x در آن، نفی همه اجزای آن (به یکباره) به y منجر شود به طوری که y نیز در مجموعه باشد. اکنون جواب بهینه هدف Kmeans را با K=2d+1 برای مشاهدات منحصر به فرد d بعدی که کاملاً متقارن هستند بررسی کنید. فرض کنید مشخص است که مجموعه میانگین بهینه با تنظیم بالا منحصر به فرد است و حاوی بردار صفر است. ادعای زیر را ثابت کنید یا مثالی متضاد بزنید: مجموعه میانگین های بهینه نیمه متقارن است
|
K به معنی داده های متقارن.
|
100358
|
من سعی میکنم با استفاده از «glm» بررسی کنم که آیا تعامل معنیداری بین یک متغیر ترتیبی (`A`) و دستهبندی (`B`) در R وجود دارد یا خیر. وقتی مدلی ایجاد میکنم که فقط عبارت تعامل «A:B» را شامل میشود، مدل به خوبی اجرا میشود و من یک تخمین معقول دریافت میکنم. وقتی من مدل فول را X ~ A+B+A*B اجرا می کنم، یک خطای استاندارد غیر منطقی بالا دریافت می کنم. با این حال، وقتی هر عبارت را به تنهایی «X ~ A» یا «X ~ B» اجرا میکنم، تخمینهای معقولی نیز دریافت میکنم. من گمان می کنم که ممکن است ارتباطی با تناسب تقریباً کامل برای یک ترکیب از متغیرهای ترتیبی و طبقه ای من داشته باشد، اما مطمئن نیستم. هیچ ایده ای در مورد آنچه در حال وقوع است؟ آیا داشتن یک مدل فقط با یک عبارت تعاملی A:B و نه A+B+A*B شکل بدی است؟ model1 <- glm(X~A:B، خانواده=دوجمله ای(logit)) model2 <- glm(X~A، خانواده=دوجمله ای(logit)) model3 <- glm(X~B، خانواده=دوجمله ای(logit)) model4 <- glm(X~A+B+A*B، خانواده=دوجمله ای(logit)) خلاصه (model1) Estimate Std. خطای z مقدار Pr(>|z|) (Int) 3.4320 1.1497 2.985 0.00283 ** A:B [no] -1.3857 0.6813 -2.034 0.04195 * A:B [بله] ** 2.28019 -2.28047 -4. خلاصه (model2) ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 2.9572 1.0792 2.740 0.00614 ** A -1.5221 0.6495 -2.343 0.01911 * summary(model3) Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) 1.2809 0.5055 2.534 0.0113 * B[yes] -1.1268 0.6406 -1.759 0.0786 . خلاصه (model4) Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) 36.66 4125.28 0.009 0.993 A -18.10 2062.64 -0.009 0.993 B[بله] -34.24 4125.28 4125.28 -0.096 A.008 2062.64 0.008 0.994 > dput(my.data) structure(list(X = structure(c(2L, 2L, 2L, 2L, 2L, 1L, 1L, 2L, 1L, 2L, 2L, 2L, 1L, 1L, 1 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2L)، برچسب = c(0، 1)، کلاس = ضریب)، A = ساختار (c(1L، 1L، 2L، 2L، 1L، 2L، 2L، 1L، 2L، 2L، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1L، 1L)، .Label = c(1، 2)، کلاس = عامل)، B = ساختار (c(1L، 1L، 1L، 1L، 1L، 2L، 2L، 1L، 1L، 1L، 1L، 2L، 2L، 2L، 2L، 1L، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر)، . برچسب = c(نه، بله)، کلاس = factor))، .Names = c(X، A، B)، row.names = c(NA, -49L)، class = data.frame)
|
افزودن تعاملات به رگرسیون لجستیک منجر به SE های بالا می شود
|
6637
|
اجازه دهید دو فرمول از مسئله بهینهسازی $\ell_{2}$ SVM را در نظر بگیریم، یکی محدود شده است: $\min_{\alpha,b} ||w||_2^2 + C \sum_{i=1}^n { \xi_{i}^2}$ s.t $ y_i(w^T x_i +b) \geq 1 - \xi_i$ و $\xi_i \geq 0 \forall i$ و یک بدون محدودیت: $\min_{\alpha,b} ||w||_2^2 + C \sum_{i=1}^n \max(0,1 - y_i (w^T x_i + b) )^2$ تفاوت بین آن دو فرمول مسئله بهینه سازی چیست؟ آیا یکی بهتر از دیگری است؟ امیدوارم در معادلات اشتباه نکرده باشم. با تشکر به روز رسانی: من فرمول بدون محدودیت را از کار اولیویه چاپل گرفتم. به نظر می رسد که مردم وقتی می خواهند روی اولیه کار کنند از مسئله بهینه سازی نامحدود استفاده می کنند و وقتی می خواهند روی دوگانه کار کنند، برعکس، می خواستم بدانم چرا؟
|
فرمول بندی محدود در مقابل نامحدود بهینه سازی SVM
|
61217
|
من سعی می کنم یک رگرسیون چندگانه در `R` انجام دهم. با این حال، متغیر وابسته من دارای نمودار زیر است:  در اینجا یک ماتریس پراکنده با تمام متغیرهای من وجود دارد («WAR» متغیر وابسته است):  من می دانم که باید یک تبدیل روی این متغیر انجام دهم (و احتمالاً متغیرهای مستقل؟) اما من از تبدیل دقیق مورد نیاز مطمئن نیستم. آیا کسی می تواند من را در مسیر درست راهنمایی کند؟ خوشحال می شوم اطلاعات بیشتری در مورد رابطه بین متغیرهای مستقل و وابسته ارائه دهم. نمودارهای تشخیصی از رگرسیون من به شرح زیر است:  **ویرایش** پس از تبدیل متغیرهای وابسته و مستقل با استفاده از تبدیلهای Yeo-Johnson، نمودارهای تشخیصی به این شکل هستند:  اگر من از GLM با log-link استفاده کنید، گرافیک های تشخیصی عبارتند از: 
|
تبدیل متغیرها برای رگرسیون چندگانه در R
|
24725
|
پیرو این سوال که در اینجا چگونه می توانم به GLM در پروژه خود مراجعه کنم؟ فقط یک خلاصه: GLM یک مدل کلی است که شامل تعدادی تکنیک رگرسیون است. من از آن برای آزمایش تأثیرات اصلی IV ها (پیوسته و مقوله ای) بر روی DV و همچنین تأثیر تعاملی IV-IV بر روی DV استفاده کرده ام. من در مورد اینکه آیا فقط باید بگویم که از GLM برای تجزیه و تحلیل داده ها استفاده کرده ام یا اینکه روش خاصی برای ذکر GLM وجود دارد گیج هستم (مثلاً من از SSI در GLM برای تجزیه و تحلیل داده ها استفاده کردم). این لازم است (در ذهن من) زیرا نام سایر آزمون های آماری دقیق هستند (به عنوان مثال ANOVA). من می دانم که GLM عمومی است، اما باید راهی برای برقراری ارتباط اطلاعات دقیق در مورد این تکنیک وجود داشته باشد. با تشکر فراوان برای هر گونه اشاره.
|
چگونه به GLM مراجعه کنیم؟
|
66192
|
من هیستوگرام زیر از داده های شمارش را دارم. و من میخواهم توزیع گسستهای را در آن قرار دهم. من مطمئن نیستم که چگونه باید در این مورد اقدام کنم.  آیا ابتدا باید یک توزیع گسسته، مثلاً توزیع دوجمله ای منفی، روی هیستوگرام قرار دهم تا پارامترهای گسسته را بدست بیاورم. توزیع و سپس آزمون Kolmogorov-Smirnov را برای بررسی مقادیر p اجرا کنید؟ من مطمئن نیستم که آیا این روش درست است یا نه. آیا روش کلی برای مقابله با چنین مشکلی وجود دارد؟ این جدول فراوانی داده های شمارش است. در مشکلم فقط روی شمارش های غیر صفر تمرکز می کنم. تعداد: 1 2 3 4 5 6 7 9 10 فرکانس: 3875 2454 921 192 37 11 1 1 2 **UPDATE:** می خواهم بپرسم: من از تابع fitdistr در R برای به دست آوردن پارامترهای برازش داده ها استفاده کردم. fitdistr(abc[abc!= 0]، Poisson) lambda 1.68147852 (0.01497921) سپس تابع جرم احتمال توزیع پواسون را در بالای هیستوگرام رسم می کنم.  با این حال، به نظر می رسد توزیع پواسون در مدل سازی داده های شمارش شکست خورده است. **آیا کاری هست که بتوانم انجام دهم؟**
|
چگونه یک توزیع گسسته را برای شمارش داده ها برازش کنیم؟
|
92064
|
من یک سوال کلی در مورد مدل رهگیری / شیب متغیر در jags/stan دارم: من دادههایی از یک آزمایش روانفیزیکی، با یک متغیر کمکی، یک عامل درون آزمودنیها و چندین موضوع دارم: متغیر پاسخ y دودویی است، و میخواهم احتمال دادن پاسخ را به عنوان تابعی از متغیر کمکی (مرکز) x در همه شرایط مدل کنید. من فکر می کنم مدل lme4 باید این باشد: glm_fit <- glmer (فرمول = y ~ x + (1 | cond/subject)، داده = df، خانواده = دو جمله ای (probit)) که در آن شیب و رهگیری بین شرایط و در بین موضوعات درون متفاوت است. شرایط تابع پیوند پروبیت را می توان با پیوند لاجیت جایگزین کرد. سوال من این است: چگونه می توانم به درستی همبستگی بین دریافت و شیب آزمودنی ها را در همه شرایط در jags یا stan مدل کنم؟ داده ها در قالب طولانی هستند و مدل jags از نمایه سازی تودرتو برای عامل شرط استفاده می کند. مدل jags این است: مدل {# احتمال برای (n در 1:N) { # حلقه روی N مشاهدات # وقفه/شیب متغیر برای هر شرط*ترکیب موضوع پروبیت(تتا[n]) <- آلفا[cond[n]، موضوع[n]] + بتا[cond[n]، موضوع[n]] * x[n] y[n] ~ dbern(theta[n]) } # پیشین برای (j در 1: J) { # حلقه روی شرایط J برای (s در 1: S) { # حلقه روی S موضوع # هر موضوع قطع/شیب در هر شرط از یک آلفای قبل از # سطح گروه میآید[s, j ] ~ dnorm(mu_a[j]، tau_a[j]) بتا[s، j] ~ dnorm(mu_b[j]، tau_b[j]) } # مقدمات سطح گروه غیر آموزنده mu_a[j] ~ dnorm (0, 1e-03) mu_b[j] ~ dnorm (0, 1e-03) tau_a[j] <- pow(sigma_a[j], -2) tau_b[ j] <- pow(sigma_b[j]، -2) sigma_a[j] ~ dunif (0، 100) sigma_b[j] ~ dunif (0، 100) } } من تمام همبستگیهای بین پارامترها را عمداً کنار گذاشتهام. مشکلی که من دارم این است که فاصله ها و شیب برای هر موضوع در هر شرایط همبستگی دارند و جفت های رهگیری/شیب در شرایط همبستگی دارند. آیا کسی ایده ای دارد؟ بهترین راه برای اجرای این کار چیست؟
|
مدل درون آزمودنی ها در JAGS/stan
|
77773
|
من اطلاعاتی در مورد حدود 20000 مصرف کننده دارم که در معرض نوعی تبلیغات بودند. داده ها به شکل زیر است. Cookie_Id Observation_Number Ad_Id Ad_Id_Lookup Placement_Id Placement_Category Placement_Cpi Cookie_Lookup 2 1 325 Standard 3722 News 20 0 3 1 325 Standard 3722 News 20 0 1 5 Weather 4 7 325 استاندارد 3719 آب و هوا 8 2 5 1 324 استاندارد 3718 آب و هوا 8 0 5 2 324 استاندارد 3718 آب و هوا 8 0 6 1 327 ریچ مدیا 3716 سفر 20 0 6 2 327 ریچ مدیا سفر 2332 3716 سفر 20 0 6 4 327 Rich-Media 3716 سفر 20 0 7 1 324 استاندارد 3718 آب و هوا 8 1 7 2 324 استاندارد 3718 آب و هوا 8 1 8 1 323 استاندارد 3717 آب و هوا 3717 استاندارد 8 028 1 325 استاندارد 3719 آب و هوا 8 0 9 2 325 استاندارد 3719 آب و هوا 8 0 11 1 324 استاندارد 3713 سفر 12 0 11 2 324 استاندارد 3713 سفر 12 0 11 3 324 3713 استاندارد سفر 3713 12 0 12 1 324 استاندارد 3713 سفر 12 0 12 2 324 استاندارد 3713 سفر 12 0 12 3 324 استاندارد 3713 سفر 12 0 12 4 324 استاندارد 3713 سفر 12 0 13 1323 Rich 1-Media 1 325 Standard 3722 News 20 0 15 1 325 Standard 3722 News 20 0 من به دنبال مدل سازی داده ها با استفاده از یک مدل مختلط خطی هستم، با Ad_Id_Lookup و Placement_Category به عنوان متغیرهای ورودی و Cookie_Lookup به عنوان متغیر خروجی من 0,1 و وضعیت 2 با نتایج متفاوتی مطابقت دارد، از جمله اینکه آیا کسی الف را ایجاد کرده است خرید). مشکل این است که بسیاری از ردیف ها به غیر از شماره مشاهده با یکدیگر یکسان هستند (این ترتیب کمی مصنوعی است زیرا من مهر زمانی ندارم). من میخواهم هر در معرض آگهی را بهعنوان یک رفتار جدید در هر شناسه کوکی جداگانه در نظر بگیرم. آیا می توانم با استفاده از بسته nlme در R این کار را انجام دهم؟ اگر نه، آیا بسته دیگری وجود دارد که بتواند با داده هایی از این نوع سروکار داشته باشد؟ با تشکر فراوان،
|
چگونه می توان یک مدل ترکیبی را با این داده های تبلیغاتی مطابقت داد؟
|
24535
|
فرض کنید من یک مجموعه داده دارم، و یک مدل رگرسیون را آموزش داده ام (به احتمال زیاد یک مدل خطی بیزی است، من فقط از بسته R استفاده می کنم). مدل طیف وسیعی از مقادیر، بزرگتر از 0 و کمتر از 0 را خروجی میدهد، اگرچه خروجی واقعی تنها میتواند بزرگتر از 0 باشد. آیا محدودیتهایی برای اعمال محدودیتها به خروجی یک مدل برای اجبار کردن آن به یک مدل ممکن وجود دارد. ارزش؟ یا شاید این نشان دهنده این است که من کار اشتباهی انجام می دهم یا تکنیک اشتباهی را برای مشکل خود به کار می برم؟
|
چگونه خروجی یک مدل رگرسیون را محدود کنیم؟
|
55355
|
من می خواهم کاربر _Facebook_ را بر اساس تعداد دوستان مشترک خوشه بندی کنم. اگر دو کاربر تعداد دوستان مشترک بیشتری داشته باشند، آنها بیشتر به یکدیگر نزدیکتر تعیین می شوند. من به استفاده از الگوریتم خوشه بندی k-medoids فکر می کنم. در R می توانم از PAM برای خوشه بندی k-medoid استفاده کنم که به داده ها به عنوان ماتریس فاصله نیاز دارد. اما چگونه می توانم دوست متقابل را به عنوان معیار تشابه داشته باشم؟ چگونه می توانم این شباهت را به ماتریس فاصله تبدیل کنم؟
|
رویکردی به دسته بندی کاربران فیس بوک
|
31920
|
آیا ضریب اعتبار همان $\rho$ است که $\rho = \frac{COV_{XY}}{SD_X SD_Y}$ است؟
|
ضریب اعتبار و $\rho$
|
50657
|
من با یک سری زمانی از 5000 عدد تصادفی که از توزیع یکنواخت با میانگین 0 و واریانس 1 گرفته شده است، شروع کرده ام. سپس یک ماتریس واریانس-کوواریانس می سازم و از آن برای القای همبستگی به سری تصادفی استفاده می کنم. من میخواهم سری همبسته یک acf به شکل exp(-mk) داشته باشد، که m مثلاً 0.1 است. مشکل من این است: من باید بتوانم واریانس حاصل از سری های زمانی همبسته را محاسبه کنم، زیرا واریانس سری تصادفی را می دانم و ماتریس واریانس-کوواریانس را دارم. با این حال، پاسخ های من ضریب 2 بزرگتر از آن چیزی است که باید باشد. به عنوان مثال: در موردی که در بالا توضیح داده شد - توزیع یکنواخت، میانگین 0، واریانس 1، با خود همبستگی exp(-0.1*k)، واریانس سری همبسته باید 20 باشد، اما فقط 10 است. مطمئنم که باید چیز خیلی ساده ای را از دست بدهم یا کار خیلی احمقانه ای انجام می دهم، اما نمی توانم آن را ببینم. کمک لطفا!
|
واریانس یک سری متغیرهای همبسته
|
22073
|
من می خواهم یک روش _سلسله مراتبی-خوشه بندی_ را پیدا کنم که برای تخصیص عضویت گروه به گروه های _k_ برای همه افراد در مجموعه داده من مفید باشد. من چندین روش کلاسیک را در نظر گرفته ام، PCA، NMDS، mclust، و غیره، اما سه تا از متغیرهای من دسته بندی هستند (_توضیح داده ها را در زیر ببینید_). علاوه بر این، میخواستم بدانم که آیا این روش به روشی که احتمال عضویت گروهی را برای هر فرد گزارش میکند ارجحیت دارد؟ من از R استفاده میکنم. **توضیحات داده**: تقریباً از 2000 پرنده منفرد (یک گونه که دو زیرگونه یا فنوتیپ را نشان میدهند) در سراسر سوئد نمونهبرداری کردهام. همه افراد مرد بالغ هستند. اگرچه این یک گونه است، اما در وسط سوئد یک شکاف (مهاجری) وجود دارد که افراد جنوبی احتمالاً به غرب آفریقا مهاجرت می کنند و در شمال این تقسیم احتمالاً به شرق آفریقا مهاجرت می کنند. منطقه ای از همپوشانی به عرض تقریبی 300 کیلومتر در شکاف مهاجر وجود دارد. **متغیرها**: * بال (میلی متر) - پیوسته * دم (میلی متر) - پیوسته * سر قبض (میلی متر) - پیوسته * تارس (میلی متر) - پیوسته * جرم (گرم) - پیوسته * رنگ (9 سطح) - طبقه بندی * ایزوتوپ های کربن پایدار (قطعات در میلی لیتر) - پیوسته * ایستوپ های نیتروژن پایدار (قطعات در میلی متر) - پیوسته * SNP WW1 (0، 1، 2) - نشانگر مولکولی، 0 و 2 ثابت و 1 هتروزیگوت است * SNP WW2 (0، 1، 2) - نشانگر مولکولی، 0 و 2 ثابت هستند و 1 هتروزیگوت است توضیحات متغیر رنگ: (روشن ترین زرد) S+, S, S -، M+، M (متوسط)، M-، N+، N، N- (کمرنگترین زرد-خاکستری)
|
به دنبال یک روش خوشهبندی سلسله مراتبی برای انواع دادههای متعدد
|
6638
|
من یک رگرسیون خطی را اجرا کرده ام که متغیر وابسته من یک کامپوزیت است. منظور من این است که از مؤلفه هایی ساخته شده است که با هم اضافه شده و ضرب می شوند. به طور خاص ، برای متغیر کامپوزیت a: a = (b*c + d*e + f*g + h*i + j*k + l*m)*(1 - n)*(1 + o*p) از متغیرهای مؤلفه به عنوان متغیرهای مستقل استفاده می شود (تنها متغیرهای مستقل متغیرهای ساختگی هستند). متغیرهای مؤلفه بیشتر (هرچند کاملاً) مستقل از یکدیگر هستند. در حال حاضر من فقط یک رگرسیون را با A به عنوان DV اجرا میکنم تا تأثیر هر متغیر ساختگی را بر A تخمین بزنم. اما همچنین میخواهم تأثیر هر متغیر ساختگی را بر مؤلفههای جداگانه A تخمین بزنم (و در آینده امیدوارم که از پیشینهای جداگانه استفاده کنم. برای هر جزء). برای انجام این کار، چندین رگرسیون جداگانه را اجرا کرده ام، که هر کدام دارای یکی از اجزای متفاوتی به عنوان DV هستند (و از IV های یکسان برای همه رگرسیون ها استفاده می کنند). اگر من این کار را انجام دهم، آیا باید انتظار داشته باشم که برای یک ساختگی IV معین، بتوانم تخمین های ضرایب را از تمام رگرسیون های جداگانه (با استفاده از فرمول ذکر شده در بالا) دوباره ترکیب کنم و زمانی که ترکیب A را اجرا می کنم، همان مقداری را که برای آن IV دریافت می کنم، بدست آوریم. پسرفت؟ آیا من خطاهای استاندارد ضرایب را با اجرای همه این رگرسیونهای جداگانه بزرگنمایی میکنم و سپس سعی میکنم مقادیر را دوباره ترکیب کنم (تغییر خطی زیادی در متغیرهای ساختگی وجود دارد)؟ آیا ساختار دیگری به جز رگرسیون خطی وجود دارد که برای چنین موردی بهتر باشد؟
|
متغیر وابسته مرکب
|
50655
|
 من سعی می کنم روشی را برای تعیین برنده از بین هشت گروه دانش آموزی که برای جایزه رقابت می کنند، بیابم. داده های خام و درصدهای مربوطه، مشارکت هر گروه در یک برنامه دانشگاهی را اندازه گیری می کند. قوانین فعلی می گوید که دانش آموزانی که بیشترین مشارکت را بر اساس درصد جمعیت خود در گروه داشته باشند برنده جایزه می شوند. با این حال، من شکایت هایی دریافت کرده ام مبنی بر اینکه این سیستم امتیازدهی به طور ناعادلانه به نفع گروه های کوچک است زیرا ظاهراً هماهنگ کردن گروه های کوچکتر از مردم و کسب درصد بیشتری از موفقیت ها آسان تر است. بدیهی است که من یک ریاضیدان نیستم، بنابراین امیدوارم توصیف من از مسئله منطقی باشد. همانطور که می بینید، یکی از گروه های دانشجویی دارای 341 دانش آموز و دیگری دارای ony 11 است. هر کمکی که بتوانید انجام دهید بسیار قدردانی می شود و ممکن است از شورش در میان برندگان/بازنده ها جلوگیری کند.
|
چگونه می توانم یک سیستم امتیازدهی برای رقابتی طراحی کنم که منصفانه تر از درصدهای مستقیم باشد؟
|
61215
|
**زمینه:** از صدها نفر از شرکت کنندگان در نظرسنجی خود پرسیدم که چقدر به حوزه های انتخابی علاقه مند هستند (با مقیاس پنج درجه ای لیکرت که 1 نشان دهنده علاقه مند نیستم و 5 نشان دهنده علاقه مند است). سپس PCA را امتحان کردم. تصویر زیر یک طرح ریزی در دو جزء اصلی اول است. رنگ ها برای جنسیت ها استفاده می شود و فلش های PCA متغیرهای اصلی هستند (یعنی علایق). متوجه شدم که: * نقطه ها (پاسخگویان) به خوبی توسط جزء دوم از هم جدا شده اند. * هیچ نقطه فلشی باقی نمانده است. * برخی از فلش ها بسیار کوتاه تر از بقیه هستند. * متغیرها تمایل به ایجاد خوشه دارند، اما مشاهده نمی کنند. * به نظر می رسد که فلش های رو به پایین (به سمت نرها) عمدتاً علایق مردانه و فلش های رو به بالا عمدتاً علایق زنانه است. * برخی از فلش ها نه به سمت پایین و نه به سمت بالا هستند. **سوالات:** چگونه روابط بین نقاط (پاسخ دهندگان)، رنگ ها (جنسیت) و فلش ها (متغیرها) را به درستی تفسیر کنیم؟ چه نتایج دیگری در مورد پاسخ دهندگان و علایق آنها می تواند از این طرح استخراج شود؟ 
|
چگونه تفاوت های گروهی را با این نمودار PCA به درستی تفسیر کنیم؟
|
77779
|
فرض کنید من به پیش بینی اشتباه یک کلاس بسیار بیشتر از کلاس دیگر اهمیت می دهم. آیا راهی وجود دارد که بتوانم این اطلاعات را به تکنیک های طبقه بندی استاندارد منتقل کنم؟ تنها راهی که می توانم به آن فکر کنم تنظیم آستانه است، اما نمی دانم آیا راه بهتری وجود دارد.
|
آیا می توان از هر یک از تکنیک های استاندارد (رگرسیون لجستیک، lda، qda، svm) برای انجام طبقه بندی نامتقارن استفاده کرد؟
|
31925
|
آیا کسی از توصیه ها/مرجع هایی برای ترسیم داده های سری زمانی _دودویی_ اطلاعی دارد؟ یا داده های سری زمانی طبقه بندی شده؟ من به رکوردهای برد/باخت نگاه می کنم، و به نظر می رسد که باید طرح هایی وجود داشته باشد که از ماهیت باینری فراتر از یک طرح ساده خطی بهره برداری کنند. ویرایش دیرهنگام: من با پیشنهادات توفت آشنا هستم، به خصوص آنهایی که در فصل sparklines از _Beautiful Evidence_ ارائه شده است (پاسخ whuber را در زیر ببینید). من به منابع دیگر علاقه مند هستم، به ویژه آنهایی که توجیهی برای توصیه های خود ارائه می کنند. ویرایش دوم: برای روشن شدن برخی از سوالات در کامنت ... موضوع کلیدی برای من دودویی بودن سریال است. من علاقه مند به ارجاع به هر چیزی هستم که مسائل خاصی را که هنگام ترسیم سری های زمانی باینری (یا به طور کلی متغیرهای طبقه ای یا ترتیبی) به جای متغیرهای فاصله ای/ کمی مطرح می شود، مورد بحث قرار می دهد. مقالات بسیار فنی خوب هستند، مانند کتاب های غیر فنی که مخاطبان محبوب را هدف قرار می دهند. این واقعاً تمایز باینری و کلی است که به آن علاقه مند هستم و هیچ مرجعی فراتر از موارد ذکر شده در پاسخ های زیر نمی شناسم.
|
آیا منابعی برای ترسیم سری های زمانی باینری وجود دارد؟
|
72117
|
من سالهاست که با منطق فازی (FL) کار میکنم و میدانم که تفاوتهایی بین FL و احتمال بهویژه در مورد نحوه برخورد FL با عدم قطعیت وجود دارد. با این حال، من می خواهم بپرسم چه تفاوت های بیشتری بین FL و احتمال وجود دارد؟ به عبارت دیگر، اگر من با احتمالات (تلفیقی اطلاعات، تجمیع دانش) سر و کار داشته باشم، آیا می توانم همین کار را با FL انجام دهم؟
|
تفاوت بین احتمال و منطق فازی چیست؟
|
92065
|
اگر رگرسیون چند جمله ای روابط غیرخطی را مدل می کند، چگونه می توان آن را یک مورد خاص از رگرسیون خطی چندگانه در نظر گرفت؟ ویکیپدیا خاطرنشان میکند که «اگرچه رگرسیون چند جملهای یک مدل غیرخطی با دادهها برازش میکند، اما به عنوان یک مسئله تخمین آماری خطی است، به این معنا که تابع رگرسیون $\mathbb{E}(y | x)$ در پارامترهای مجهول خطی است. از روی داده ها تخمین زده می شود. چگونه رگرسیون چند جملهای در پارامترهای مجهول خطی است اگر پارامترها ضرایبی برای عبارتهایی با مرتبه $\ge$ 2 باشند؟
|
چرا رگرسیون چند جمله ای یک مورد خاص از رگرسیون خطی چندگانه در نظر گرفته می شود؟
|
24534
|
**من گزارشهایی از یک فرم تکمیل خودکار دارم که میخواهم از آنها برای افزایش هوش نتایجی که برمیگرداند استفاده کنم.** پروژهای دارم که حول انتخاب شخصیتهای اپرا از یک پایگاه داده با 15000 کاراکتر منحصربهفرد توسط کاربران میچرخد. مشکل من این است که هر کاراکتر در پایگاه داده تنها به عنوان یک نام ظاهر می شود، اما ممکن است با هر تعداد نام محاوره ای دیگر برای عموم شناخته شود. من به اندازه کافی خوش شانس بودم که ترافیک متوسطی دریافت کردم و در حال حاضر حدود 20000 ردیف سیاهههای رشته ای دارم که کاربرانم تایپ کرده اند و کاراکتر اپرا که در نهایت انتخاب کردند. اگر کاربر نویسه مورد نظر خود را با اولین رشته خود پیدا نکند، اغلب کاراکتر را با نام دیگری امتحان می کند. هنگامی که آنها موفق هستند، این داده ها نام محاوره ای شخصیت ها را با خود شخصیت مرتبط می کند. امیدوارم بتوانم از این داده ها برای فعال کردن فرم تکمیل خودکار من با این نام های محاوره ای استفاده کنم. متأسفانه در کنار همبستگیهای مفید، همبستگیهای تصادفی (شاید بیشتر) وجود دارد. اغلب زمانی که تلاش(های) کاربر نتیجه مورد نظرش را بر نمی گرداند، به جای اینکه کاراکتر را با نام دیگری امتحان کنند، به سادگی یک کاراکتر کاملا متفاوت را امتحان می کنند (و مکان یابی می کنند). من تعدادی مقاله علمی در مورد استفاده از گزارشهای جستجو برای بهبود جستوجوی زبان طبیعی خواندهام، اما به نظر میرسد هیچ یک از روشها در این مورد محدود کاربرد چندانی نداشته باشد. آیا روش های شناخته شده ای وجود دارد که برای این برنامه مفید باشد؟ پروژه من در http://fachme.com قابل مشاهده است
|
سیاهههای جستجو را برای بهبود پیشنهادات تکمیل خودکار استخراج می کنید؟
|
77770
|
اگر ماشین به صورت تقریبی تابع در نظر گرفته شود، کدام دسته از توابع توسط یک شبکه عصبی مدل می شوند؟
|
کدام دسته از توابع غیر خطی را می توان توسط شبکه عصبی مدل کرد
|
31927
|
من یک تازه کار هستم بنابراین فقط مهارت های آماری اولیه را دارم. من نمیدانم که آیا میتوان از هر آزمون آماری برای تجزیه و تحلیل مسابقات قبلی بین 2 تنیسباز برای ساختن یک نکته شرطبندی محکم استفاده کرد که در بلندمدت سودآور است. من انتظار پاسخی ندارم که من را میلیاردر کند (لل، 4 مطمئنم که من اولین کسی نیستم که به این فکر می کنم)، اما برخی ورودی ها، چگونه به این کار نزدیک می شوید و آیا امکان پذیر است. این سوال را به این دلیل میپرسم که اخیراً وبسایتی را دیدهام که چیزی شبیه به آنالیز مسابقات قبلی بازیکنان تنیس و ارائه نکاتی برای شرطبندی میسازد. [من نمی دانم که آیا من مجاز به ارسال لینک هستم، اگر من نیستم، لطفا این مدها را حذف کنید ;) http://www.superduper-tennis.com/ ] و این به نظر می رسد با توجه به نمودارهای او سودآور باشد: http ://www.tennisinsight.com/allTimeUserEarningsSummary.php?userID=28 پیشاپیش برای هر راهنمایی متشکریم!
|
ساختن یک سیستم نوک شرط بندی بر اساس مسابقات قبلی
|
87584
|
من فکر می کردم که این ممکن است شبیه به یک مشکل Mark and Recapture باشد که در آن یک کران بالایی شناخته شده وجود دارد، از این رو عنوان. من نسبتی را انجام می دهم اما گاهی اوقات تخمین بزرگتر از حد بالایی شناخته شده است. آیا راهی وجود دارد که بتوان پاسخ های ممکن را بین دو حد محدود کرد؟ مثال: فرض کنید از یک جمعیت شناخته شده (U=10000) در مجموع (X=8505) نفر (T=25916) خرید کرده اند. از این تعداد، تنها (A=4697) از آنها چیزی را با (R=8632) خرید ثبت کردند. تنها مقدار مجهول X است و ما می خواهیم آن را تخمین بزنیم. اغلب اوقات تخمین نسبت عالی عمل می کند، اما معمولاً اندازه واقعی را بیش از حد تخمین می زند - و در برخی موارد بیشتر از جمعیت شناخته شده است. در این مورد (X_est/T)=(A/R) که X_est=14102 را بدست آورد که بزرگتر از جمعیت شناخته شده است. آیا راهی برای گنجاندن اندازه جمعیت شناخته شده برای محدود کردن تخمین بین 0 و U وجود دارد؟ در حال حاضر من فقط هر چیزی را که بالاتر از U به عنوان U است سانسور میکنم که بهنظر میرسد موقتی باشد زیرا مرزها باید در فرمول «ساختشده» باشند (امیدوارم).
|
علامت گذاری و دوباره گرفتن با کران بالا شناخته شده
|
61218
|
من یک مجموعه داده طولی از افراد دارم که برخی از آنها تحت درمان قرار گرفتند و برخی دیگر تحت درمان نبودند. همه افراد از بدو تولد تا سن 18 سالگی در نمونه هستند و درمان در سنی بین آن محدوده انجام می شود. سن درمان ممکن است در موارد مختلف متفاوت باشد. با استفاده از تطبیق امتیاز تمایل، من میخواهم واحدهای درمان شده و کنترل را به صورت جفت با تطابق دقیق در سال تولد مطابقت دهم، به طوری که بتوانم هر جفت را از سال تولد تا سن 18 سالگی ردیابی کنم. در مجموع حدود 150 فرد تحت درمان و 4000 فرد درمان نشده وجود دارد. پس از تطبیق، ایده استفاده از استراتژی تفاوت در تفاوت ها برای تخمین اثر درمان است. مشکلی که در حال حاضر با آن روبرو هستم انجام تطبیق با داده های پانل است. من از دستور «psmatch2» Stata استفاده میکنم و با استفاده از تطبیق امتیاز تمایل، ویژگیهای خانواده و فردی را مطابقت میدهم. به طور کلی با داده های پانل، مطابقت های بهینه متفاوتی در هر سنی وجود خواهد داشت. به عنوان مثال: اگر A تحت درمان قرار گیرد، B و C کنترل هستند، و همه آنها در سال 1980 متولد شده اند، A و B ممکن است در سال 1980 در 0 سالگی مطابقت داشته باشند، در حالی که A و C در سال 1981 در سن 1 سالگی و غیره مطابقت دارند. . همچنین A ممکن است با مقادیر قبل از درمان خود از سال های گذشته مطابقت داده شود. برای دور زدن این موضوع، میانگین همه متغیرهای متغیر با زمان را بهگونهای گرفتم که تطابق میتواند افرادی را که به طور متوسط بیشترین شباهت را در طول مدت نمونه دارند شناسایی کند و من تطبیق را به طور جداگانه برای هر گروه سنی 0 تا 18 انجام میدهم. متأسفانه این هنوز با واحد کنترل متفاوتی در هر گروه سنی مطابقت دارد. اگر کسی بتواند من را به سمت روشی راهنمایی کند تا تطبیق دوتایی با داده های پانل در Stata را انجام دهم، بسیار سپاسگزار خواهد بود.
|
تطبیق امتیاز تمایل با داده های پانل
|
31922
|
من تابعی از دوجین متغیر گسسته دارم، $$y = f(x_1، ...، x_n)$$ و $k$ نمونه $y$ (بسیار)، $y$ پیوسته است. من می توانم از Matlab برای تجزیه و تحلیل داده ها با جعبه ابزار آمار استفاده کنم. هدف تجزیه و تحلیل رابطه بین $y$ و متغیرهای من است. به عنوان مثال، کدام متغیرهای $x_m$ بهترین تغییرات $y$ را توضیح می دهند؟ (من به استفاده از تجزیه و تحلیل مؤلفه های اصلی فکر می کردم، اما نمی توانم راهی برای تطبیق روش با آن فکر کنم) تا چه حد آنها روی $y$ تأثیر دارند؟ آیا می توانم خوشه ها را پیدا کنم؟ سوال من این است: آیا روش هایی دارید که باید آنها را بررسی کنم و راهنمایی هایی در مورد اینکه چگونه آنها را با تجزیه و تحلیل من تطبیق دهم؟ متشکرم
|
چگونه می توانم تأثیر چندین پیش بینی کننده طبقه بندی را بر روی یک متغیر نتیجه ارزیابی کنم؟
|
86974
|
من سه مدل ARMA(p,q) برای متغیر X دارم و با استفاده از هر مدل پیشبینیهایی را برای 12 ماه آینده ایجاد میکنم. توجه داشته باشید که در هر سه مدل باقیمانده به طور معمول توزیع می شود. حال اگر بخواهم **_پیش بینی میانگین_** و **_انحراف استاندارد_** را با استفاده از پیش بینی های سه مدل ARMA(p,q) برای دوره T+12$ تولید کنم، باید کارهای زیر را انجام دهم: $$ \mu_{avg,T+12} = \frac{\mu_{model1, T+12}+ \mu_{model2, T+12}+\mu_{model3, T+12}}{3} $$ $$ \sigma_{avg,T+12} = \sqrt{\sigma^{2}_{model1, T+12} + \sigma^{2}_{model2, T+12}+\sigma^{2}_{model3, T+12} } $$ اگر نه، چگونه می توانم اقدام کنم آن را؟
|
ترکیب پیش بینی از مدل های ARMA
|
77775
|
من در حال یادگیری تجزیه و تحلیل خوشهبندی هستم و کتابی که خواندم میگوید مدل خوشهبندی باید در مجموعه دادههای غیرمتناسب اعمال شود تا سازگاری مدل بررسی شود. من فکر میکنم در تجزیه و تحلیل خوشهبندی، ما نیازی به تقسیم دادهها به مجموعههای آموزشی و آزمایشی مانند یادگیری تحت نظارت نداریم، زیرا بدون برچسبها چیزی برای آموزش وجود ندارد. پس معنای احتمالی این «ثبات» چیست؟ چگونه ارزیابی می شود؟ آیا این مجموعه داده های ناهمگون واقعا ضروری است؟ متشکرم ویرایش: واقعاً زمینه وسیع تری وجود ندارد. متن در مورد نحوه انتخاب تعداد بهینه خوشه صحبت می کند و سپس به این موضوع اشاره می کند. فکر نمیکنم این ثبات در مورد تعداد خوشهها باشد...
|
آیا تقسیم داده ها در خوشه بندی مانند یادگیری نظارت شده ضروری است؟
|
100976
|
من دو متغیر طبقه بندی دارم و به دنبال انجام یک آزمون کای دو بودم. سپس متوجه شدم که فرکانس های پایینی در جدول احتمالی خود دارم و فکر کردم که تست دقیق فیشر ممکن است مفید باشد. من اکنون پس از مطالعه کامل به دایره کامل رسیده ام و می خواهم از Chi Squared پیرسون با تصحیح n-1 استفاده کنم. آیا راهی در R برای اجرای chisq.test با تصحیح n-1 وجود دارد (در اینجا بحث می شود: با توجه به قدرت رایانه های این روزها، آیا تا به حال دلیلی وجود دارد که به جای آزمون دقیق فیشر، یک تست chi-squared انجام دهیم؟)؟ اگر نه، چگونه تصحیح را روی خروجی مجذور کای پیرسون اعمال کنم؟ با فرض حجم نمونه 80: (80-1)/80 = 0.9875 آیا به سادگی آمار Chi-Squared را در 0.9875 ضرب کنم و سپس از این مقدار برای استخراج مقدار p استفاده کنم؟ 2.9687 * 0.9875 = 2.931591 1-pchisq(2.931591,4) p = 0.569338
|
N-1 Pearson's Chi-Square در R
|
31929
|
من روی دو گروه آزمایشی و کنترلی تحقیق می کنم که به صورت تصادفی انتخاب نشده اند. در واقع این دو گروه _گروه های دست نخورده_ هستند. هدف، یافتن تأثیر تعداد زبانهایی است که زبانآموزان میدانند بر پیشرفت تحصیلی خود. طرح انتخابی پیش آزمون پس آزمون گروه غیر معادل است. از کدام روش آماری برای تجزیه و تحلیل داده ها استفاده کنم؟
|
تجزیه و تحلیل داده های گروه های غیر معادل در یک طرح نیمه تجربی
|
22071
|
من به دنبال یک نمونه کد ساده از نحوه اجرای فیلتر ذرات در R هستم. به نظر میرسد که بسته pomp از بیت ریاضی فضای حالت پشتیبانی میکند، اما این مثالها برای یک توسعهدهنده OO ساده مانند من کمی دشوار است که از نظر برنامهریزی دنبال شوند. نحوه بارگذاری داده های مشاهده شده در یک شیء با شکوه * مثالها در اینجا: http://cran.r-project.org/web/packages/pomp/vignettes/intro_to_pomp.pdf فرض کنید من یک فایل csv با 1 ستون داده نویزدار به عنوان ورودی دارم و میخواهم آن را اجرا کنم از طریق یک فیلتر ذرات به منظور پاک کردن آن، با خروجی تخمین ها، به یک فایل csv دیگر. y <- read.csv(C:/Dev/VeryCleverStatArb/inputData.csv، header=FALSE) #CSV به شی Pomp ??? #فیلتر ذرات را اجرا کنید #براوردها را در csv بنویسید. مشکل اصلی با مثالها بارگذاری دادههای csv در یک شی pomp است. یک مدل فضای حالت بسیار ساده در حال حاضر باید به اندازه کافی خوب باشد. آیا ایده ای برای R-Curious دارید؟
|
فیلتر ذرات در R - مثال کد بی اهمیت
|
50654
|
آیا راهی برای بررسی سوگیری انتشارات در فراتحلیل مطالعات موردی منفرد وجود دارد؟ معمولاً می توان سوگیری انتشار را با استفاده از نمودارهای قیف یا آزمون ایگر برای ارزیابی عدم تقارن نمودار قیف ارزیابی کرد. با این حال، این روشها به تخمینی از واریانس مطالعات فردی نیاز دارند. در مورد مطالعات موردی منفرد، چنین اندازه گیری واریانس معمولاً در دسترس نیست. بنابراین آیا راهی برای ارزیابی سوگیری انتشار در این مورد وجود دارد؟ در اینجا یک مثال ساختگی در R ارائه میدهم. در یک متاآنالیز از مطالعات موردی، همه مطالعاتی که به بررسی تغییر در نمره علائم به دنبال درمان میپردازند، ارزیابی شدهاند: # تغییر_نمره <- c(-3,-2,-1,-- 7،-8،-11،-1،-10،-4،-11)
|
سوگیری انتشار در متاآنالیز مطالعات موردی منفرد
|
91499
|
فرض کنید به ما دو بردار **u**، **v** $\in \mathbb{R}^n$ داده شده است و تابعی می خواهیم که اگر ترتیب عناصر هر دو بردار یکسان باشد، 0$ را برمی گرداند. یا یک عدد مثبت در غیر این صورت، جایی که هر چه تعداد عدم تطابق بیشتر باشد، مقدار مثبت بزرگتر است. ما می خواهیم اطمینان حاصل کنیم که بالاترین مقادیر بردار **u** در همان موقعیت های بالاترین مقادیر در بردار **v** باشد. به عنوان مثال: فرض کنید که **u** = {3.2، 1.5، -3، 0} و **v** ={-2.1، 1، 1.1، -0.5}، بنابراین رتبه این بردارها (نزولی سفارش): $r_u$={1،2،4،3} و $r_v$={4،2،1،3}. بنابراین، در این مورد ما دو مطابقت {2،3} و دو عدم تطابق {1،4} داریم. نکته دیگر این است که بالاترین مقدار بردارهای **u** و **v** در مجموعه عدم تطابق است، در این صورت جریمه باید سخت تر از عدم تطابق در مقادیر کمتر باشد. ساده ترین راه برای انجام این کار، محاسبه رتبه هر بردار، $r_u$ و $r_v$ است، و سپس محاسبه $L_2$-norm، برای مثال، از تفاوت بین این رتبه ها: $f(r_u,r_v) = \|r_u-r_v\|^2_2$. با این حال، از آنجایی که این تابع یک عبارت از مسئله بهینهسازی من است، در هر تکرار الگوریتم بهینهسازی، لازم است رتبههای این بردارها دوباره محاسبه شود، زمانی که هر دو بردار پارامترهایی هستند که باید یاد بگیرند و هر تکرار را تغییر میدهند. بنابراین، این رویکرد از نظر محاسباتی می تواند بسیار گران باشد. گزینه دیگر با شمارش تعداد جفت های همخوان (http://en.wikipedia.org/wiki/Concordant_pair) بردارها است، با این حال باید تعداد جفت های همخوان (یا ناسازگار) را در هر تکرار بازشماریم. آیا کسی با مشکل مشابهی مواجه شده است؟
|
منظم سازی در بردارهای نامرتب
|
66194
|
من اخیراً آزمایش هایی را برای مقایسه برخی روش های رایج اعتبار سنجی داخلی انجام دادم. در زمینه من، استفاده از اعتبار سنجی نگهدارنده 1:1 بسیار رایج است، حتی با مجموعه داده های بسیار کوچک، و من می خواستم به همکارانم نشان دهم که ممکن است گاهی اوقات جایگزین هایی وجود داشته باشد. من مجموعه داده بزرگی از حدود 30000 مشاهده داشتم. من 1000 را به طور تصادفی گرفتم، یک مدل را برازش کردم و سپس 4 روش اعتبارسنجی داخلی زیر را برای برآورد خطا انجام دادم. من این را با نرخ واقعی خطا از 29000 مشاهده باقی مانده مقایسه کردم. من کل این فرآیند را 500 بار تکرار کردم، هر بار 1000 مشاهده را دوباره نمونهبرداری کردم و مدل را دوباره برازش کردم و غیره. مدل یک رگرسیون OLS با 10 متغیر بود. نتایج تا حد زیادی همانطور بود که انتظار داشتم: خطای جایگزینی بهطور خوشبینانه سوگیری داشت، سوگیری و واریانس در روشهای بوت استرپ و اعتبارسنجی متقاطع کم بود، و واریانس روش اعتبارسنجی تک نگهدارنده بسیار زیاد بود. چیزی که من انتظارش را نداشتم (و از توضیح آن ناامید هستم) تعصبی است که در روش نگهدارنده مشاهده می کنم. من فرض کرده بودم که واریانس بالا است، اما با سوگیری کم. آیا شخص دیگری این نوع رفتار را دیده است؟ یا شاید نتیجه طراحی تجربی من است؟ **در جهت عقربه های ساعت از بالا سمت چپ: بوت استرپ تصحیح شده با خوش بینی، خطای تعویض مجدد، CV 10 برابری، تکی 1:1 توقف ** باید توجه داشته باشید، من در اینجا نگران انتخاب مدل در اینجا نیستم - این مدل قبلا منتشر شده بود، و من فقط به نحوه عملکرد آن در هنگام اعمال روی داده های من علاقه مند هستم.
|
آیا اعتبار سنجی نگهدارنده می تواند به طور سیستماتیک سوگیری شود؟
|
4642
|
من با تکنیک های متا آنالیز و متا رگرسیون (با استفاده از بسته R `metafor` از Viechtbauer) آشنا هستم، اما اخیراً به مشکلی برخوردم که به راحتی نمی توانم آن را حل کنم. بگویید ما بیماری داریم که می تواند از مادر به جنین منتقل شود و قبلاً چندین بار مطالعه شده است. مادر و کودک بلافاصله پس از تولد برای ویروس آزمایش شدند. از آنجایی که یک کودک متولد نشده به غیر از مادر ممکن است ویروس را دریافت کند، انتظار می رود جدول های متقاطع مانند: | نگ بچه | pos kid مادر neg | A | C=0 -----------|---------|-------- پست مادر | ب | D بدیهی است که استفاده از نسبتهای شانس (OR) خطاهایی را نشان میدهد که تقسیم بر 0 میشود. همین امر برای خطرات نسبی: $\frac{A/(A+B)}{0/(0+D)}$ اکنون محققان میخواهند این فرضیه (بی معنی) را آزمایش کنید که آیا عفونت کودک با عفونت مادر مرتبط است (که بسیار بسیار واضح به نظر می رسد). من سعی می کنم این فرضیه را مجدداً فرموله کنم و به چیزی برسم که منطقی باشد، اما واقعاً نمی توانم چیزی پیدا کنم. برای پیچیده تر کردن همه چیز، برخی از بچه ها با مادران منفی در واقع مثبت هستند، احتمالاً به دلیل عفونت در هفته اول. بنابراین من فقط تعدادی مطالعه دارم که در آنها C = 0 است. از پیوند به مقالات علمی نیز استقبال می شود.
|
تجزیه و تحلیل متا در مطالعات با سلول های 0 فرکانس
|
66193
|
من یک متغیر تصادفی چند متغیره Bernouli $ $ \ textbf {x} = (x_1 ، ... ، x_n) $ ، که در آن $ x_i $ متغیرهای تصادفی Bernoulli با پارامترهای $ p_i $ و $ n \ $ n $ matrix $ هستم. \textbf{C}$. چگونه انتخابهای $p_i$ انتخابهای $C$ را محدود میکنند و بالعکس؟ در یک مورد شدید، جایی که $X_i$ همه مستقل هستند، همه انتخاب های $p_i$ معتبر هستند. در یک مورد شدید دیگر، جایی که $X_i$ همه کاملاً همبسته هستند، $p_i$ باید یکسان باشد. اما من دوست دارم موارد میانی را بهتر درک کنم. هر دو پاسخ بصری و دقیق تر بسیار قدردانی می شود.
|
چگونه انتخابهای احتمالات و ماتریسهای کوواریانس یکدیگر را برای یک متغیر تصادفی برنولی چند متغیره همبسته محدود میکنند؟
|
98958
|
من در حال تجزیه و تحلیل برخی از دادهها با استفاده از مدلسازی جلوههای ترکیبی خطی در R هستم. من قصد دارم پوستری با نتایج بسازم و فقط میدانم که آیا کسی با مدلهای جلوههای ترکیبی تجربه میتواند پیشنهاد دهد که از کدام طرحها برای نشان دادن نتایج استفاده شود. مدل من در مورد نمودارهای باقیمانده، نمودار مقادیر برازش شده در مقابل مقادیر اصلی و غیره فکر می کردم. می دانم که این بسیار به داده های من بستگی دارد، اما من فقط سعی می کردم بهترین راه را برای نشان دادن نتایج مدل های اثر مختلط خطی به دست بیاورم. من از بسته nlme در R استفاده می کنم. با تشکر
|
نمودارهایی برای نشان دادن نتایج مدل اثر مختلط خطی
|
96979
|
من دقت ساعتهای GPS را ارزیابی میکنم، و تعداد زیادی را در فاصلهای مشخص میخوانم. من انحراف معیار را با استفاده از میانگین خواندن محاسبه کردهام، اما چون میدانم خوانش باید چقدر باشد، میتوانم از آن به جای میانگین استفاده کنم. آیا این کار معقولی خواهد بود؟
|
آیا اندازه گیری انحراف معیار از مقدار واقعی به جای میانگین منطقی است؟
|
77771
|
بگذارید $X$ و $Y$ دو i.i.d باشند. مجذور کای متغیرهای تصادفی را با چهار درجه آزادی توزیع کرد. چگونه می توانیم تابع توزیع احتمال مشترک متغیرهای تصادفی $U=(X-Y)/(X+Y)$, $V=X+Y$ را بدست آوریم؟
|
pdf مشترک دو متغیر تصادفی به عنوان توابع دو iid chi-square تعریف شده است
|
100979
|
معمولا تمام تست هایی که ما استفاده می کنیم با افزایش حجم نمونه دارای قدرت افزایشی هستند. اما اگر آزمونی سازگار نباشد چه؟ آیا شایسته نیست چنین آزمونی ایجاد شود؟ یا استفاده از آزمون ناسازگار تحت شرایطی قابل توجیه است؟ به طور خاص، به عنوان ناهماهنگی اغلب به دلیل مدل توزیعی است؟ یک آزمایش ناسازگار ممکن است هنوز هم قدرت غیر ضروری داشته باشد، فقط افزایش حجم نمونه نتیجه نمی دهد. آیا استفاده از یک آزمون ناسازگار فقط برای نمونه های کوچک و یک آزمون ثابت می تواند معقول باشد زیرا قدرت او بر آزمون ناسازگار برتری دارد؟ (میدانم که آزمونهای مرتبطی وجود دارد. آنها نیز سازگار هستند، اما معایب آزمونهای فرضیه نقطه ثابتی را ندارند که حتی تأثیرات عملاً نامربوط را بهعنوان معنادار نشان میدهند.) (آزمونهای متناقضی وجود دارد: به عنوان مثال برای پارامتر مکان یک توزیع کوشی جابجا شده از آنجایی که میانگین آن توزیعی مشابه با یک مشاهده دارد، می توان برای همه اندازه های نمونه مقدار بحرانی را از بین انتخاب کرد. چندک توزیع کوشی، اما معمولاً از یک آزمون سازگار ناپارامتریک استفاده می شود.
|
آیا آزمایش های ناسازگار قابل تحمل هستند؟
|
100975
|
من 50 اندازه گیری از 10 توصیفگر و 1 متغیر خروجی باینری دارم. من میخواهم از یک روش طبقهبندی استفاده کنم تا بتوانم خروجی را پیشبینی کنم، بنابراین دادهها را به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم میکنم و سپس میتوانم طبقهبندی کننده خود را تولید کنم (من از درخت تصمیم استفاده میکنم) و آن را روی مجموعه آزمایشی آزمایش کنم. اکنون، بدیهی است که انتخاب مجموعه تست کاملاً دلخواه است و، نتیجه روش من هر چه باشد، نمی توانم مطمئن باشم که نتیجه ای که برای آن مجموعه آزمایشی خاص به دست می آورم مشابه آنچه از هر مجموعه تست دیگری به دست می آورم باشد. بنابراین، آیا میتوانم چندین بار طبقهبندی خود را تکرار کنم، هر بار با یک مجموعه آزمون/آموزش تصادفی انتخاب شده، سپس توزیع خطاهای طبقهبندی اشتباه را برای طبقهبندیکنندهام گزارش کنم؟ میدانم که این کمی شبیه به کاری است که جنگلهای تصادفی انجام میدهند، اما نمیدانم که آیا این رویه زمانی که برای انواع دیگر طبقهبندیکنندهها، نه الزاماً درختهای تصمیمگیری اعمال میشود، منطقی است یا خیر.
|
انتخاب مجموعه تست برای طبقه بندی
|
114
|
چه وبلاگ های تحقیقاتی آماری را پیشنهاد می کنید و چرا؟
|
چه وبلاگ های آماری را پیشنهاد می کنید؟
|
4640
|
در R، فرمان «step» ظاهرا برای کمک به شما در انتخاب متغیرهای ورودی مدل خود در نظر گرفته شده است، درست است؟ موارد زیر از «مثال (گام)#-> سوئیس» و «گام (lm1)» > مرحله (lm1) شروع: AIC=190.69 باروری ~ کشاورزی + امتحان + آموزش + کاتولیک + نوزادان. مرگ و میر Df مجموع مربع RSS AIC - امتحان 1 53.03 2158.1 189.86 <هیچ> 2105.0 190.69 - کشاورزی 1 307.72 2412.8 195.10 - نوزادان. مرگ و میر 1 408.75 2513.8 197.03 - کاتولیک 1 447.71 2552.8 2552.8 - 1621. آموزش 197.8 3267.6 209.36 مرحله: AIC=189.86 باروری ~ کشاورزی + آموزش + کاتولیک + نوزادان. مرگ و میر Df مجموع مربع RSS AIC <هیچ> 2158.1 189.86 - کشاورزی 1 264.18 264.18 2191.2M -21922. 409.81 2567.9 196.03 - کاتولیک 1 956.57 3114.6 205.10 - آموزش 1 2249.97 4408.0 221.43 تماس: lm(فرمول = باروری ~ کشاورزی + داده ها + آموزش ضرایب: (برق) آموزش کشاورزی 62.1013 -0.1546 -0.9803 کاتولیک نوزاد. مرگ و میر 0.1247 1.0784 حالا، وقتی به این نگاه می کنم، حدس می زنم جدول مرحله آخر مدلی است که باید استفاده کنیم؟ چند خط آخر شامل تابع تماس است که مدل واقعی و چه متغیرهای ورودی را شامل می شود، و ضرایب تخمین پارامترهای واقعی برای این مقادیر هستند، درست است؟ پس این مدلی است که من می خواهم، درست است؟ من سعی می کنم این را به پروژه خود تعمیم دهم، جایی که متغیرهای بیشتری وجود دارد.
|
تفسیر خروجی گام در R
|
101006
|
من میدانم که در عوض اعتبارسنجی متقابل با استفاده از دادههای جدید صحیح است. چرا اینطور است؟ فقط این است که یک مدل تمایل دارد با مجموعه دادهای که برای ایجاد آن استفاده شده است بهتر از مجموعه دادههای نمونهگیری تصادفی دیگری مطابقت داشته باشد؟ آیا هرگز می توان استفاده از داده های مشابه برای EFA و CFA را توجیه کرد؟
|
چرا کشف عوامل با استفاده از EFA و سپس استفاده از CFA روی همان دادهها برای تأیید آن مدل عامل اشتباه است؟
|
93336
|
فرض کنید مجموعه ای از اعداد $\\{1,2,...,m\\}$ دارید که $m \ge 5$ . اکنون به طور تصادفی پنج مورد از آن عناصر را با جایگزینی انتخاب میکنید، $\text{a}_1$ ... $\text{a}_5$. توزیع حداکثر ($\text{a}_1$,$\text{a}_2$,$\text{a}_3$,$\text{a}_4$,$\text{a}_5) چقدر است دلار)؟
|
توزیع حداکثر نمونه با جایگزینی
|
5150
|
من یک سیستم احراز هویت بیومتریک دارم که از راه رفتن افراد برای احراز هویت استفاده می کند. من ویژگیها را از راه رفتن استخراج میکنم، آن را از طریق مقایسه در مقابل یک الگو اجرا میکنم و یک امتیاز شباهت ایجاد میکنم (که اگر این امتیاز شباهت زیر یک آستانه مشخص باشد، کاربر احراز هویت میشود). بنابراین، من در مجموع 72 کارآزمایی دارم (36 کارآزمایی حاوی یک مورد مثبت و 36 کارآزمایی حاوی یک مورد منفی). کاری که من میخواهم انجام دهم این است که توانایی این سیستم برای احراز هویت افراد را با نشان دادن آن با یک نمودار ROC ترسیم کنم. متأسفانه، من دقیقاً نمی دانم چگونه آستانه را انتخاب کنم. آیا روشی ریاضی برای انتخاب آستانه برای نمرات شباهت وجود دارد؟ آیا من فقط یک دسته از آستانه های مختلف را انتخاب می کنم و منحنی های ROC مربوطه را برای همه این مقادیر آستانه متفاوت ترسیم می کنم؟ نمرات شباهت حاصل از [0.6،1.2] که در آن موارد مثبت در حدود 0.6 قرار دارند متفاوت است. تمام کدنویسی من در Matlab انجام می شود.
|
انتخاب آستانه مناسب برای سیستم احراز هویت صفات بیومتریک
|
104079
|
من یک آکچوئری هستم که روی یک مدل ذخیره ضرر بیزی با استفاده از دادههای میانگین شدت افزایشی کار میکنم. به نظر میرسد تحلیل اکتشافی پاسخ نشان میدهد که توزیع نرمال کج از نوعی مناسب است، زیرا مقادیر منفی در دم سمت چپ وجود دارد و مقادیر مثبت تبدیلشده ورود به سیستم به خوبی با توزیع نرمال مطابقت دارد. من از این پست توسط گلن مایرز الهام گرفتم و احساس می کنم که پارامتر دومی باید به راحتی در JAGS پیاده سازی شود. با این حال، از آنجایی که من به JAGS عادت ندارم، در حال تلاش برای تنظیم مدل هستم. در اینجا نمونه ای از کاری است که من سعی می کنم انجام دهم. #احتمال (مجموعه تمرین) برای (i در 1:n){ y[i] ~ dnorm(z[i]، tau) z[i] ~ dlnorm(mu[i]، tauln) mu[i] <- beta1 *Dev[i] + ... } من مطمئن نیستم که چگونه $\mu_i$s منفی را در غیاب ساختارهای کنترلی کنترل کنم (`if`, `else`, و غیره...) من عادت دارم. من باید مقدار صفر یا منفی $\mu_i$s را مستقیماً به پارامتر میانگین برای پاسخ _y_ i منتقل کنم. آیا راه هوشمندانه ای برای انجام این کار با تابع step وجود دارد؟ آیا باید به روش دیگری مخلوط نرمال-log-نرمال را مشخص کنم؟ FYI - من هم این سوال را اینجا پست کردم.
|
مشخص کردن مخلوط طبیعی-نرمال (نرمال و نرمال) در WinBugs/JAGS
|
77774
|
من معتقدم یکی از مزایای عمده استنتاج بیزی، شهودی بودن تفسیر است. این علاقه اولیه من است. با این حال، برای من کاملاً روشن نیست که چه زمانی انجام چنین تفسیری خوب است. من این فرض بالقوه نادرست را مطرح میکنم که برازش یک مدل احتمال به روش مکرر تقریباً مشابه برازش مدل مشابه با یک پیشین مسطح به روش بیزی است. لطفاً آن را به عنوان علاقه شماره یک (1) مشخص یا تصحیح کنید. و علاقه اصلی من (2) این است که اگر فرض من درست باشد (و اگر یک قبلی مسطح بهترین قبلی است که احتمالاً می توانم به دست بیاورم)، آیا قسمت عقبی مدل به روشی مکرر برازش شده است، اما نمونه برداری شده با یک نمونهگر MCMC، اجازه میدهید تفسیری از نوع بیزی داشته باشم؟ به عنوان مثال، احتمال اینکه فردی که با پیکربندی خاص X$ توصیف میشود، درآمدی (Y$) بیشتر از 100 هزار دلار داشته باشد، 76٪ است. من خوانده ام که چیزی که یک تحلیل را بیزی می کند این است که شامل اطلاعات قبلی است. آیا واقعاً این اصل است؟ همچنین خواندهام که نمیتوانید به عنوان مثال من در مورد درآمد حاصل از نتایج مکرر چنین تفسیرهایی انجام دهید. آیا نمونه برداری از روش های MCMC به اندازه کافی من را از روش های متداول دور می کند تا تفسیر بیزی داشته باشم؟ من بسیار قدردان هدایت شما هستم. متشکرم.
|
چه زمانی می توانم تفسیر بیزی از پسین انجام دهم؟
|
85405
|
من یک سوال در مورد چگونگی ارزیابی توافق بین رتبه یک فرد و گروهی از افراد (که آن فرد بخشی از آن بود) دارم. امتیاز گروه از طریق اجماع به دست آمد (یعنی آنها به صورت گروهی روی یک امتیاز توافق کردند). من در ابتدا قصد داشتم از کاپا برای بررسی توافق بین دو امتیاز استفاده کنم، اما اکنون این رویکرد را زیر سوال میبرم. آیا ایده ای در مورد اینکه چگونه می توانم تفاوت یا توافق بین دو امتیاز را ارزیابی کنم؟ نگرانی اصلی من استقلال است. داده ها چیزی شبیه به این هستند: ID IndividualScore GroupScore 1 5 3 2 4 2 و غیره
|
مقایسه میانگین برای فردی در مقابل اجماع
|
4643
|
من در ابتدا این را در یک سایت یادگیری ماشین پرسیدم، اما یکی از پاسخ ها باعث شد فکر کنم که شاید این سایت مناسب تر باشد. فرض کنید دو سکه وزن دارید و هر روز هر کدام را چند بار ورق می زنید و تعداد کل سرها را ثبت می کنید. بنابراین در روز دهم ممکن است سکه A را 106 بار، سکه B را 381 بار ورق بزنید و 137 سر ثبت کرده باشید. با فرض اینکه هدف شما تعیین وزن هر سکه است، آیا معقول است که فقط تعداد سرها را بر روی تعداد ورقهای هر سکه رگرسیون کنید؟ به عنوان مثال، چیزی در امتداد خطوط: num_heads ~ num_flips_A + num_flips_B + intercept با این حال، به نظر نمی رسد که یک عبارت رهگیری در این سناریو وجود داشته باشد (برای داده های من منفی است، که گیج کننده است)، بنابراین سعی کردم تفریق کنم. خارج از -1 از فرمول، و به نظر می رسید که نتایج معقولی داشته باشد. اولین سوال من این است که آیا این رویکرد خوب است؟ حال، فرض کنید که به وجود سکه سوم، C، مشکوک هستید، که شخص دیگری بدون اطلاع شما در حال چرخیدن است و سر آن سکه در شمارش شما قاطی می شود. تعداد ورقهای این سکه ثبت نشده است، اما شما به وزن آن اهمیت خاصی نمیدهید - این بیشتر یک عامل مخدوشکننده است. پس آیا منطقی است که با یک رگرسیون مشابه مطابقت کنیم، اما رهگیری را محدود کنیم تا مثبت باشد؟ برای هر کمکی متشکرم
|
سوال رگرسیون اسباب بازی با متغیرهای پنهان
|
72118
|
من در حال ساخت یک مدل لاجیت با استفاده از R هستم و نتیجه 88.9٪ دقت را دریافت می کنم (با استفاده از ROC [در جغجغه، برگه ارزیابی] با استفاده از 30٪ از مجموعه داده 34k من تأیید شده است). چه نوع آزمایشی جالب است که انجام دهم تا به خودم گواهی دهم که مدل خوبی است؟
|
چگونه یک مدل لاجیت را در R آزمایش کنیم؟
|
5158
|
من میدانم که وقتی از یک جامعه محدود نمونهگیری میکنیم و حجم نمونه ما بیش از 5٪ جامعه است، باید میانگین و خطای استاندارد نمونه را با استفاده از این فرمول اصلاح کنیم: $\hspace{10mm} FPC=\sqrt{\ frac{N-n}{N-1}}$ که در آن N اندازه جامعه و n حجم نمونه است. من 3 سوال در مورد این فرمول دارم: 1. چرا آستانه 5٪ تعیین شده است؟ 2. فرمول چگونه به دست آمد؟ 3. آیا منابع آنلاین دیگری غیر از این مقاله وجود دارد که به طور جامع این فرمول را توضیح دهد؟ ممنون
|
توضیح ضریب تصحیح محدود
|
101008
|
من یک دنباله مستقل از متغیرهای تصادفی دارم به طوری که P($X_n = \pm1) = \frac{1-2^{-n}} {2} $ و P($X_n = 2^ k)=2^{- k}$ برای k = n+1,n+2,... یک دنباله جدید از متغیرهای تصادفی را با $Y_n = X_n$ تعریف کنید اگر $X_n = \pm1$Y_n $ = 0 دلار در غیر این صورت. P($Y_n = y)$ را پیدا کنید چگونه این کار را انجام دهیم؟ من تا کنون ثابت کرده ام که $X_n$ و $Y_n$ معادل دم هستند. من باید شرط لیاپانوف را برای مجموع $Y_n$ ثابت کنم که اگر بتوانم E($Y_n)$ را پیدا کنم می توانم آن را ثابت کنم اما اینجاست که گیر کرده ام.
|
pmf برای تابعی از متغیرهای تصادفی
|
108866
|
من سوالم را «خوشهبندی» نامیدهام، اما مطمئن نیستم که این اصطلاح درستی باشد یا خیر. تصور کنید ماتریس من به این شکل است: [0. , 0.92، 0. 0.85، 0.] [0.92، 0.، 0.، 0.89، 0.] [0.85، 0.، 0.، 0.89، 0.] [ 0. 0. 0. 0. 0. 0. ] [ 0.، 0.89، 0.، 0.89، 0. ] چیزی که من دنبال آن هستم، یک خوشه بندی/دندروگرام واحد از شاخص ها نیست، من به دنبال استخراج بزرگترین مستطیل های ممکن از ماتریس هستم (با مرتب کردن مجدد شاخص های X/Y ). به عنوان مثال، از موارد فوق انتظار دارم: [0.92، 0.89، 0.، 0.، 0.] [0.85، 0.89، 0.، 0.، 0.] [0. 0.85، 0.92، 0. ، 0. ] [0. ، 0.89، 0.89، 0. , 0. ] [ 0. , 0. , 0. , 0. , 0. ] با این حال، من انتظار دارم که هر خوشه شناسایی شود، حتی اگر امکان نمایش همه آنها در یک ماتریس وجود نداشته باشد. الگوریتمی که باید دنبالش باشم چیست؟ من الگوریتمهای مختلف خوشهبندی را امتحان کردهام و آنها بهترین خوشهبندی را به من ارائه میدهند، نه تمرکز بر بهترین افراد (که با یکدیگر ناسازگار هستند).
|
پیدا کردن خوشه مستقل در یک ماتریس
|
100974
|
در مقاله کینگ و ژنگ: http://gking.harvard.edu/files/gking/files/0s.pdf آنها به $\tau$ و $\bar{y}$ اشاره کرده اند. من قبلاً داده هایی با 90000 0 و 450 1 دارم. من قبلاً یک رگرسیون لجستیک را با کل داده ها تطبیق داده ام و می خواهم یک تصحیح قبلی در رهگیری انجام دهم. یا باید حدود 3000 0 و 450 1 بگیرم و سپس رگرسیون لجستیک را اجرا کنم و سپس اصلاح قبلی را روی رهگیری اعمال کنم؟ آیا $\tau$ = 450/90450 و $\bar{y}$ = 450/3450 خواهد بود؟ **ویرایش** بر اساس پاسخ اسکورچی من سعی می کنم احتمال وقوع یک خواستگاری را پیش بینی کنم. ممکن است یک مسابقه بین یک خریدار و فروشنده، دو فرد احتمالی در یک سایت دوستیابی، یا یک جوینده کار و کارمند احتمالی اتفاق بیفتد. 1 زمانی است که یک تطابق اتفاق می افتد، صفر برای همه تعاملات زوجی دیگر که ثبت شده اند. من داده های واقعی از یکی از این موارد استفاده دارم. همانطور که قبلا گفته شد، نرخ 1 در داده ها بسیار کوچک است (=450/(450+90000). من می خواهم یک مدل رگرسیون لجستیک با تصحیح کینگ و همکاران بسازم. داده هایی که دارم می توان فرض کرد که همه هستند. داده های ممکن یعنی کل جهان هستی من فرض می کنم نرخ 1 در جهان 450/(450 +) باشد. من می خواهم از تمام 1ها (450 عدد از آنها) و 3000 عدد تصادفی از این جهان داده نمونه برداری کنم. آیا این درست است که در اینجا فرض کنیم که $\tau$ = 450/(450 + 90000) و $\bar{y}$ = 450/(450+3000) من استدلال میکنم که $\tau$ واقعاً تخمینهای جهان است، زیرا من تقریباً تمام دادههای جمعیت هدف را دارم راهاندازی کنونی مشکل چگونه تعریف میشود: زمان اجرا مشکل نیست، اما نحوه اصلاح بایاس برای یک رویداد نادر مشکل است؟
|
تصحیح سوگیری رگرسیون لجستیک رویداد نادر
|
4649
|
اگر نتیجه یک بازار را بتوان به صورت احتمال بیان کرد، ممکن است این باشد: نتیجه - توضیحات - احتمال به صورت درصد 1. افزایش زیادی 20 درصد (مثلاً حرکتی بیش از 10٪) 2. کاهش زیادی 20 درصد 3. کمی به بالا 20% (حرکتی بین 0 تا 10%) 4. کمی پایین 20% 5. پهلوها 20% بنابراین احتمال هر نتیجه منفرد 1/5 یا 20٪ است. لطفاً کسی می تواند به من در مورد ریاضی اضافه کردن بازارهای دیگر و متعاقب آن آموزش دهد؟
|
چگونه احتمالات را ترکیب کنیم؟
|
93338
|
سوال من این است: آیا می توان مشاهدات را با هم ترکیب کرد، زمانی که همان کشورها در طول سال ها مشاهده می شوند؟ من مشاهداتی روی 37 کشور در سال 2010، 47 کشور در سال 2011 و 60 کشور در سال 2012 دارم. با این حال، این همان کشورها هستند که مشاهده شده اند (هر چند کشورهای بیشتری اضافه شده اند). اگر کشورها و سال ها را جمع آوری کنم، بنابراین 144 مشاهده داشته باشم و از ol های ادغام شده استفاده کنم، چه مشکلاتی ممکن است وجود داشته باشد؟ آیا باید از این دستور استفاده کنم: reg y x (با dummies زمان)، cluster(id) بعلاوه، آیا می گویید این مجموعه داده متعادل است یا نامتعادل؟ و این داده پانل است که من دارم، درست است؟
|
زمانی که مشاهدات گردآوری شده همان کشورها هستند
|
5159
|
قد برای 1000 دانش آموز تقریباً نرمال با میانگین 174.5 سانتی متر و انحراف معیار 6.9 سانتی متر است. اگر 200 نمونه تصادفی با اندازه 25 از این جامعه انتخاب شود و مقادیر میانگین به نزدیکترین عدد صحیح ثبت شود، احتمال اینکه میانگین قد دانش آموزان بیش از 176 سانتی متر باشد را تعیین کنید. از آنجایی که نمونه ها به نزدیکترین عدد صحیح گرد شده اند، باید به جای $P(X>176)$، $P(X>176.5)$ را پیدا کنم. آیا ما تأثیر گرد کردن مشاهدات را اینگونه محاسبه می کنیم؟ ویرایش: با توجه به پاسخ whuber: پاسخی که ماژول من داده است (هیچ کاری ارائه نشده است): $\hspace{1cm} n=25; Normal$ $\hspace{1cm} \mu_{\overline{x}}=174.5cm$ $\hspace{1cm} \sigma_{\overline{x}}=6.9/5=1.38$ پاسخ 0.1379 است. که من کاملاً مطمئن هستم که با استفاده از $1-\phi(\dfrac{176-174.5}{1.38})$ پیدا شده است، بنابراین، 1. آیا این پاسخ قابل قبولی است؟ 2. از آنجایی که $n$ کمتر از 30 بود، آیا یافتن احتمال با استفاده از توزیع t خوب است؟ متشکرم.
|
تصحیح به دلیل خطای گرد کردن
|
85402
|
من به تمرکز یک رویداد در یک بازه زمانی معین نگاه می کنم. برای مثال، فرض میکنیم که یک رویداد 4 بار در بازهای به طول 10 رخ داده است. من میتوانم آن را بهعنوان رشتهای نشان دهم که در آن «X» به معنای _رویداد رخ داده است_ در حالی که «o» به معنای _رویداد رخ نداده است. توزیع رویدادها می تواند از نظر زمانی نسبتاً یکنواخت باشد: X o o X o o X o o X یا می توان آن را به این صورت متمرکز کرد: X X X o o o o o o X یا اینگونه: X o o o X X o o o X من به دنبال یک شاخص هستم یا فاصله ای که به من امکان می دهد غلظت وقوع رویداد را در فاصله زمانی خود اندازه گیری و مقایسه کنم. در حالت ایدهآل میتوان فاصلههای طولهای مختلف را با هم مقایسه کرد، برای مثال بین: X o X o X o X o X o X و: X o o o X X o X آیا شاخص یا معیاری میشناسید که چنین چیزی را مجاز کند. ? پیشاپیش سپاس فراوان
|
محاسبه شاخص تمرکز وقوع رویداد.
|
93334
|
من در حال انجام پروژه ای در مورد وزن کم هنگام تولد و وزن طبیعی هنگام تولد هستم که در 3 گروه سنی مختلف در یک آزمون شناختی آزمایش شده است. اگر بخواهم تفاوت های گروه تولد را بدانم آیا این یک ANOVA 2x3 محسوب می شود؟ آیا قبل از انجام ANOVA 2x3 باید ابتدا تست t یا آنووا یک طرفه انجام دهم تا بررسی کنم که آیا یک گروه تولد واقعی با سن متفاوت است یا خیر؟
|
2 گروه تولد 3 گروه سنی و یک متغیر، از چه تستی استفاده کنیم؟
|
104070
|
من تجربه زیادی با داده های پانل ندارم، بنابراین اگر این موضوع مسخره به نظر می رسد، پیشاپیش عذرخواهی می کنم. بیایید بگوییم که من سعی می کنم هنگام اجرای رگرسیون داده های پانل، اثرات ثابت فردی و زمانی را کنترل کنم و 998 فرد و 29 سال داده دارم. در Stata، راه مقابله با جلوههای ثابت چند متغیره، ایجاد متغیرهای ساختگی است که هر ترکیب را بهطور منحصربهفرد شناسایی میکنند. در مورد من این خواهد بود (29×998) - 1 = 28941 متغیر ساختگی. آیا این منجر به چند خطی بودن بسیار بالا می شود؟ اگر حدود 74000 نفر داشتم چه می شد؟ دل من به من می گوید که این مسخره است، اما حس درونی و آمار واقعاً با هم خوب نیستند.
|
روش صحیح مقابله با اثرات ثابت چندگانه هنگام برخورد با تعداد زیادی مشاهدات در رگرسیون داده های پانل چیست؟
|
113
|
من به دنبال چارچوب های نظری برای انتخاب روش (توجه: نه انتخاب مدل) بوده ام و کار بسیار کمی سیستماتیک و با انگیزه ریاضی پیدا کرده ام. منظور من از انتخاب روش چارچوبی برای تشخیص روش مناسب (یا بهتر، بهینه) با توجه به یک مشکل یا نوع مشکل است. چیزی که من پیدا کردهام این است که روی روشهای خاص و تنظیم آنها (یعنی انتخاب قبلی در روشهای بیزی) و انتخاب روش از طریق انتخاب سوگیری (مثلاً خطمشی استقرایی: عملشناسی انتخاب سوگیری) کار قابلتوجهی، اگر جزئی باشد. من ممکن است در این مرحله اولیه توسعه یادگیری ماشین غیر واقعی باشم، اما امیدوار بودم چیزی شبیه آنچه که تئوری اندازهگیری در تجویز تبدیلها و تستهای قابل قبول بر اساس نوع مقیاس انجام میدهد، بیابم، که فقط در حوزه مسائل یادگیری بزرگ مینویسند. پیشنهادی دارید؟
|
چند چارچوب خوب برای انتخاب روش چیست؟
|
45852
|
من در تجزیه و تحلیل و تجسم داده ها نسبتاً تازه کار هستم، و سعی می کنم بهترین مدل را برای نشان دادن برخی داده ها در مورد زمان بارگذاری صفحه (در ثانیه) پیدا کنم. نمای فعلی یک نمودار خطی است که در آن محور x صفحه و محور y زمان بارگذاری است. اگرچه این نمودار از نظر بصری گمراه کننده است، زیرا در ذهن من، انتظار روانشناختی از نمودار خطی این است که چیزی را در طول زمان منتقل کند. از آنجایی که چند نقطه پرت در دادهها وجود دارد که زمان بارگذاری صفحه بسیار طولانیتر از میانگین است، ممکن است فردی که به نمودار نگاه میکند خاموش شود زیرا چشمانش به نقاط پرت میرود، بنابراین به نظر میرسد که بارگیری صفحات ما برای همیشه طول میکشد. در واقع، حدود 95 درصد از صفحات کمتر از دو ثانیه بارگذاری می شوند و 5 درصد از صفحات بیشتر طول می کشد. بنابراین بهترین روش برای نمایش این داده ها چیست؟ من میخواهم مردم بفهمند که به طور متوسط، زمان بارگذاری صفحه ما _great_ است و استثنائات بسیار کمی وجود دارد. من احساس میکنم نشان دادن منحنی زنگ میتواند به نشان دادن اینکه اکثر صفحات در انحرافات استاندارد x از میانگین قرار میگیرند کمک کند، اما الف) مطمئن نیستم چگونه این کار را در اکسل انجام دهم، و ب) مطمئن نیستم این بهترین گزینه است
|
بهترین راه برای نمایش داده ها با مقادیر پرت؟
|
45854
|
اگر X و Y مستقل باشند pdf حاصل ضرب دو متغیر تصادفی مستقل X و Y چیست؟ X دارای توزیع نرمال و Y دارای توزیع کای اسکوئر است. Z = XY اگر $X$ دارای توزیع نرمال $$X\sim N(\mu_x,\sigma_x^2)$$ $$f_X(x)={1\over\sigma_x\sqrt{2\pi}}e^ {-{1\over2}({x-\mu_x\over\sigma_x})^2}$$ و $Y$ دارای توزیع Chi-square با درجه آزادی $k$ هستند $$Y\sim \chi_k^2$$ $$f_Y(y)={y^{(k/2)-1}e^{-y/2}\over{2^{k/2}\Gamma ({k\over2})}}u(y)$$ که $u(y)$ تابع مرحله واحد است. حالا اگر $X$ و $Y$ مستقل باشند پی دی اف $Z$ چیست؟ یکی از راههای یافتن راهحل، استفاده از نتیجه شناخته شده روهاتگی (1976، p.141) است اگر $f_{XY}(x,y)$ pdf مشترک X$ و $Y$ RV پیوسته باشد، pdf $Z$ برابر است با $$f_Z(z) = \int_{-\infty}^{\infty}{{1\over|y|}f_{XY}({z\over y},y)dy} $$ زیرا $X$ و $Y$ مستقل هستند $f_{XY}(x,y)=f_X(x)f_Y(y)$$$f_Z(z) = \int_{ -\infty}^{\infty}{{1\over|y|}f_{X}({z\over y})f_{Y}(y)dy} $$ $$f_Z(z) = {1\over\sigma_x\sqrt{2\pi}}{1\over{2^{k/2}\Gamma({k\over2})}}\int_{0}^{\infty}{{1 \over|y|}e^{-{1\over2}({{z\over y}-\mu_x\over\sigma_x})^2} {y^{(k/2)-1}e^{-y/2}}dy} $$ جایی که ما با مشکل حل انتگرال $\int_{0}^{\infty}{{1\over روبرو هستیم |y|}e^{-{1\over2}({{z\over y}-\mu_x\over\sigma_x})^2} {y^{(k/2)-1}e^{-y/2}}dy}$. کسی میتونه کمکم کنه با این مشکل آیا راه دیگری برای حل این مشکل وجود دارد؟
|
pdf حاصل ضرب دو متغیر تصادفی مستقل نرمال و کای اسکوئر
|
77545
|
کتاب من یک رویه را تشریح می کند، اما قسمت اولیه آن برای من نامشخص است. فرض کنید X تعداد وقوع یک رویداد در یک واحد زمان باشد و فرض کنید که دارای توزیع پواسون با میانگین $m=\lambda $ است. اجازه دهید $T_1، T_2، T_3، \ldots $ زمانهای بین ورود رخدادها باشند و آنها با توزیع نمایی $\lambda $ iid هستند. توجه داشته باشید که $ X=k $ if $$ \sum_{j=1}^k T_j \leq 1 \quad \text{and} \quad \sum_{j=1}^{k+1} T_j >1\. $$ این دقیقاً چیزی است که من نمی فهمم. چرا کل زمان انتظار تا وقوع $k$ باید کمتر یا مساوی 1 باشد؟ هر گونه کمکی بسیار قدردانی می شود. متشکرم.
|
شبیه سازی فرآیندهای پواسون
|
85404
|
من در حال حاضر در تلاش برای درک بهتر سیستمهای رتبهبندی مهارتهای احتمالی برای بازیها هستم، اما متوجه شدم که در درک درست مفهوم اساسی چگونگی تعمیم مهارت به عنوان یک مقایسه زوجی مشکل دارم. به عنوان مثال، اگر تنها چیزی که می دانید این است که بازیکن C در 80٪ مواقع بازیکن B را برنده می شود، در حالی که همان بازیکن B در 80٪ مواقع بازیکن A را برنده می شود، آیا این داده ها برای تعیین اینکه هر چند وقت یکبار C در برابر A برنده می شود کافی است؟ این محاسبات چگونه کار خواهند کرد؟ البته ممکن است حتی یک بازی دارای سبک های مختلف بازی باشد که در آن A ممکن است به طور خاص در مقابل C پیروز شود، که موضوع را کاملاً گیج می کند، اما من در مورد سیستم های رتبه بندی عمومی مانند ELO یا Trueskill صحبت می کنم که فقط برد را در نظر می گیرند. .
|
اگر C در 80٪ مواقع B را برنده شود و B در 80٪ مواقع A را برنده شود، C چند بار A را شکست می دهد؟
|
101003
|
من یک مجموعه داده از حدود 5000 ویژگی دارم. برای آن دادهها، من ابتدا از آزمون Chi Square برای انتخاب ویژگی استفاده کردم. پس از آن، حدود 1500 متغیر به دست آوردم که رابطه معنی داری با متغیر پاسخ نشان داد. اکنون من باید رگرسیون لجستیک را بر آن تطبیق دهم. من از بسته glmulti برای R استفاده می کنم (بسته glmulti انتخاب زیر مجموعه کارآمد را برای vlm فراهم می کند) اما می تواند تنها از 30 ویژگی در یک زمان استفاده کند، در غیر این صورت عملکرد آن کاهش می یابد زیرا تعداد ردیف های مجموعه داده من حدود 20000 است. آیا روش دیگری وجود دارد. یا تکنیک هایی برای حل مشکلات فوق؟ اگر از روش بالا استفاده کنم، زمان زیادی طول می کشد تا مدل را مطابقت دهم.
|
رگرسیون لجستیک در کلان داده
|
85400
|
با توجه به مشکل ایجاد یک رتبه بندی دانشجویان فارغ التحصیل بر اساس درآمد سالانه آنها پس از اتمام تحصیل، چند مدل مناسب برای این کار کدامند؟ به طور خاص، داده های من توزیعی با جرم نقطه 0 دارند (اکثر فارغ التحصیلان فوراً شغل تمام وقت پیدا نمی کنند یا شروع نمی کنند). بقیه داده ها به نوعی به خوبی توزیع شده اند. داده $x$ تبدیل به $\log(x+1)$ شد.  * رویکرد اول من یک مدل رگرسیون ساده بود * رویکرد دوم من دو مدل بود (یکی برای طبقه بندی اینکه آیا آنها شغل پیدا می کنند - بسیار ضعیف است. و دوم برای پیشبینی درآمد) زنجیرهسازی ساده این دو مدل بسیار بدتر از مدل ساده عمل میکند. قدم بعدی من یک مدل مخلوط بیزی برای پیش بینی درآمد خواهد بود. من در مورد تطبیق مخلوطی با 2 گاوس فکر میکردم، جایی که میتوانم میانگین یکی از آنها را برابر 0 قرار دهم. آیا منطقی است؟ کسی تجربه خوبی در مورد بسته بندی دارد؟ مشکل دیگر ممکن است این باشد که من همیشه به جای اجرای یک رگرسیون ترتیبی، درآمد را با استفاده از رگرسیون پیشبینی میکنم و از روی آن رتبهبندی میکنم. بهترین راه برای رسیدگی به این وضعیت چیست - اگر متغیر هدف (درآمد) که رتبه بندی بر اساس آن است، خود برای داده های آموزشی در دسترس باشد؟ افشای کامل: این یک سناریوی ساختگی است، زیرا من نمی توانم جزئیات دقیق پرونده واقعی را مورد بحث قرار دهم.
|
رتبه بندی دانشجویان مقطع کارشناسی بر اساس درآمد آینده آنها - توزیع مخلوط
|
68004
|
ما می خواهیم دو توزیع سنی (سال تولد) افراد را با هم مقایسه کنیم. با توجه به مجموعه ای از افراد (_all_) و زیرمجموعه ای از آن مجموعه (_subset_)، می خواهیم بدانیم: 1. آیا مقایسه توزیع سنی _all_ با #زیرمجموعه_ معتبر است (زمانی که | _subset_ | بسیار کوچکتر از | _all_ |) یا فقط می توانیم _all_ منهای _زیر مجموعه_ را مقایسه کنیم؟ 2. ما آزمایش Shapiro-Wilk را روی هر دو توزیع انجام دادیم و W = 0.7456 (p-value = 7.499e-08) برای _all_ و W = 0.7467 (p-value = 7.865e-08) برای _subset_ بدست آوردیم. این تأیید می کند که هر دو توزیع توزیع های عادی نیستند، بلکه نمایی یا قانون قدرت هستند. بنابراین، ما نمیتوانیم از همبستگی پیرسون برای مقایسه آنها استفاده کنیم، اما آیا باید از Spearman استفاده کنیم؟ 3. با مقایسه هر دو توزیع با اسپیرمن، R می گوید t = 93.9151، df = 47، p-value < 2.2e-16 فرضیه جایگزین: همبستگی واقعی برابر با 0.95 درصد فاصله اطمینان نیست: 0.9952748 0.9985104 0.9985103 تخمین نمونه را نشان می دهد. یک همبستگی بالا این نتیجه با توجه به تعداد زیاد جوانان چقدر معنادار است؟ 4. آیا می توانیم از آزمون همبستگی استنباط کنیم که هر دو توزیع (بسیار) مشابه هستند؟ 5. اگر چنین است، آیا این به ما امکان می دهد نتیجه بگیریم که _زیر مجموعه_ نسبت به افراد جوان تر از _همه_ تعصب ندارد؟ 6. در نهایت، اگر فرض ما این بود که _زیر مجموعه_ تعداد افراد جوان تر از آنچه انتظار می رود وجود دارد، آیا اکنون می توانیم استنباط کنیم که این فرض اشتباه است؟ از آنجایی که نمی توانم تصاویر را آپلود کنم، هنوز: در اینجا نموداری از هر دو توزیع و در اینجا داده های خام است: # سال سن (همه) سن (زیر مجموعه) 1938 368 1 1939 360 1 1941 394 1 1942 809 3 1943 964 1 161 1943 1945 701 1 1946 1301 1 1947 1228 5 1948 1565 2 1949 2019 1 1950 2146 3 1951 2202 6 1952 2343 5 1953 206535351 20651 11 1956 3157 8 1957 3676 16 1958 4051 12 1959 5024 18 1960 5282 19 1961 6849 29 1962 7376 218134 21 1960 29 1965 13052 60 1966 13601 65 1967 14606 68 1968 18571 97 1969 19796 101 1970 21248 101 197294 1972120 135 1973 26648 145 1974 30310 170 1975 34124 190 1976 39344 232 1977 45367 240 1978 54883 3036301 73844 390 1981 77437 377 1982 83985 428 1983 90484 482 1984 100153 500 1985 100139 526 19811 1026 1026 19811 1026 472
|
آیا نتایجی که از مقایسه دو توزیع می گیریم درست است؟
|
36320
|
من یک مجموعه داده حاوی اندازه گیری داده های حسگر روزانه دارم که از 20 شرکت کننده به مدت 60 روز ثبت شده است (داده های پایه). من در تلاش هستم تا روشهایی را برای پیشبینی/تخمین کاهش در مطالعات پایش بلندمدت توسعه دهم، یعنی میتوان از اندازهگیری یک پارامتر به صورت روزانه برای تشخیص/پیشبینی کاهش (یعنی تغییر قابل توجه) با شناسایی روندهای منفی یا اندازهگیریهای نابجا استفاده کرد. امیدوارم بتوانم آستانه های آماری ایجاد کنم تا با بررسی روندها، امکان شناسایی کاهش را فراهم کند (با استفاده از ترکیبی از پارامترهای مشتق شده از حسگر و ارجاع آنها به داده های بالینی پایه. مناسب ترین روش برای تعریف آستانه برای تغییر یا کاهش قابل توجه چیست؟ برای هر شرکتکننده و چگونه میتوانم روند منفی یا رفتار ناهنجار را در دادههای دیده نشده پیشبینی/تشخیص دهم رویکرد (توجه داشته باشید که من از ICC، ANOVA و همچنین در حال بررسی برنامه نویسی پایه استفاده کرده ام، اما هیچ یک از این رویکردها را به ویژه مفید ندیده ام)
|
آستانه هایی برای تشخیص تغییرات قابل توجه از خط پایه در داده های سری زمانی
|
36321
|
من متغیرهایی با مقیاس بهینه را از ماهیت بسیار مختلط دادههای حاوی متغیرهای باینری، اسمی، ترتیبی و نوع مقیاس به دست آوردهام. مقیاس بهینه در نرم افزار SPSS از طریق روش CATPCA به دست آمد. اکنون میخواهم از این متغیرها در تحلیل عاملی استفاده کنم و میخواهم از چرخش برای به دست آوردن بارهای معنیدار استفاده کنم. آنچه من فکر می کنم این است که باید از هرگونه فرض نرمال بودن برای این متغیرهای بهینه مقیاس شده اجتناب کنم. بنابراین، روش حداکثر احتمال استخراج عامل احتمالاً در اینجا قابل استفاده نیست (اگرچه من در FA خیلی خوب نیستم، بنابراین دقیقاً مطمئن نیستم). آیا باید به جای آن از روش اجزای اصلی استخراج عامل استفاده کنم؟ چه روش دیگری می تواند مفید باشد که از فرض توزیعی جلوگیری کند؟ اگر من نمرات عامل را در یک رگرسیون بیشتر به عنوان IV بخواهم، آیا اصلاً ایده خوبی است که از چرخش مورب استفاده کنم؟ فکر میکنم اگر میخواهم فاکتورها را بهعنوان IV در یک رگرسیون بیشتر بخواهم، باید سعی کنم تا حد امکان ناهمبسته نگه دارم. آیا این مفهوم درست است؟ ممنون از هر نوع پیشنهادی :)
|
چه روش استخراج عاملی باید در FA با متغیرهای بهینه مقیاس شده استفاده شود؟
|
5152
|
من در حال انجام مطالعه ای بر روی گروهی از افراد با دوره پیگیری 7 ساله هستم. من می خواهم از مدل خطر متناسب کاکس برای تخمین HR بین یک قرار گرفتن در معرض و طول زمان یک رویداد استفاده کنم. یکی از اطلاعات گم شده تاریخ تولد برای همه افراد است، اما ماه و سال در دسترس است. این از محاسبه سن دقیق در زمان مطالعه جلوگیری می کند. هر گونه پیشنهاد بسیار قدردانی خواهد شد؟ هر گونه تجزیه و تحلیل حساسیت باید انجام شود؟ با تشکر
|
مقادیر از دست رفته در تجزیه و تحلیل بقا
|
45858
|
من از Stata 12.0 استفاده می کنم و دستور «polychoricpca» نوشته شده توسط Stas Kolenikov را دانلود کرده ام که می خواستم از آن برای داده هایی استفاده کنم که شامل ترکیبی از متغیرهای طبقه بندی شده و پیوسته است. با توجه به تعداد متغیرها (حدود 25)، تصور من این است که باید بیش از 3 جزء تولید کنم. در نهایت، من می خواهم تعداد انگشت شماری از مؤلفه های معنادار (به جای ده ها متغیر) تولید کنم و از مؤلفه ها به عنوان متغیرهای مستقل در رگرسیون لجستیک استفاده کنم. با استفاده از «polychoricpca»، میتوانم جدولی ایجاد کنم که مقادیر ویژه و بردارهای ویژه (بارگذاریها) برای هر متغیر را فقط برای سه (3) مؤلفه اول نشان دهد. به نظر میرسد «polychoricpca» این بارگذاریها را «ضرایب امتیاز دهی» مینامد و این بارگذاریها را برای هر سطح از متغیر تولید میکند، بهطوری که اگر متغیری دارای سه دسته باشد، سه ضریب امتیازدهی («بارگذاری») برای آن متغیر خواهید دید. قبلاً هرگز با polychoric PCA کار نکرده بودم، من عادت کرده ام که فقط یک بارگذاری در هر متغیر/مورد را ببینم. من می خواهم این ضرایب (بارگذاری) را بررسی کنم تا بفهمم اجزا چیست و چگونه ممکن است برچسب گذاری شوند. سؤالات من: (1) اگر به نظر برسد که باید 4 مؤلفه تولید کنم؟ به نظر میرسد که نمیتوانم آن مؤلفه چهارم را بررسی و درک کنم زیرا نمیتوانم ببینم هر یک از موارد روی آن مؤلفه چهارم چگونه بار میشوند، فقط 3 مورد اول. آیا راهی وجود دارد که ببینم هر مورد چگونه است. بیش از سه جزء اول بارگذاری می شود؟ (2) آیا می توانم به سادگی از ماتریس همبستگی چند وجهی همراه با دستور 'pcamat' Stata برای بررسی نحوه بارگیری هر آیتم در هر جزء (جدول بردار ویژه) استفاده کنم. من فکر کردم که اگر بیش از 3 مؤلفه داشته باشم، این ممکن است راهی برای بررسی بارگذاری ها باشد. این ایده از این پست کمکی از آمار UCLA در مورد استفاده از factormat با ماتریس همبستگی چند کوریک گرفته شده است. pcamat در Stata، با این حال، تنها 1 بارگذاری (ضریب) در هر متغیر تولید می کند، نه 1 بارگذاری برای هر سطح از متغیر. آیا فکری در مورد اینکه آیا فقط گزارش بارگیری تکی از «pcamat» مناسب است؟
|
Polychoric PCA و بارگذاری اجزا در Stata
|
45850
|
یک نمونه تصادفی از **388** زوج های متاهل نشان داد که **292** دو یا چند اولویت شخصیتی مشترک دارند. در نمونه تصادفی دیگری از **552** زوج های متاهل، مشخص شد که تنها **24** هیچ اولویت مشترکی ندارند. فرض کنید p1 نسبت جمعیت همه زوجهایی باشد که دو یا چند اولویت شخصیتی مشترک دارند. فرض کنید p2 نسبت جمعیت تمام زوجهای متاهلی باشد که هیچ ترجیح شخصیتی مشترکی ندارند. یک فاصله اطمینان 99% برای p1 - p2 پیدا کنید. حد پایین: حد بالایی:
|
فاصله اطمینان
|
108102
|
در رگرسیون لجستیک، اگر باقیمانده ها را در نظر بگیریم، آیا آنها فقط می توانند مقادیر $0$ یا $1$ را بگیرند؟ نقاط داده خود فقط 1 دلار یا 0 دلار می گیرند. منحنی لجستیک می تواند هر مقداری بین $0 و $1 $ داشته باشد. توزیع باقیمانده ها چگونه خواهد بود؟
|
رگرسیون لجستیک و شرایط خطا
|
36327
|
من رگرسیون لجستیک چند جمله ای را با استفاده از SPSS chi-square 000.000، df 0 و معناداری = انجام دادم. بنابراین معنی آن چیست = .؟
|
وقتی هیچ p-value برگردانده نمی شود، آزمون خی دو به چه معناست؟
|
45540
|
من روی مشکلی کار می کنم که در آن ما علاقه مندیم MLE را برای تابعی از دو پارامتر پیدا کنیم. من برای پیدا کردن این مشکل دارم. به طور شهودی، این ایده منطقی است. من فقط در مورد تعریف MLE یک تابع از دو پارامتر تعجب می کنم (گوگل زیاد نمی شود). سوال به این صورت است: **سوال:** فرض کنید $X_1,\ldots,\,X_n$ iid $N(\mu, \sigma^2)$ با $\mu,\sigma^2$ ناشناخته است. MLE را برای $\frac{\mu}{\sigma}$ پیدا کنید. توجه داشته باشید که این فقط یک مشکل تکلیف نیست، بلکه بخشی از یک بازی نهایی است. من واقعاً به دنبال پاسخ زیادی نیستم، اما کم و بیش به دنبال ایده ای برای چنین مشکلاتی هستم. **ویرایش** ظاهرا MLEها تحت تابع ثابت هستند. TY
|
MLE تابعی از یک پارامتر
|
36324
|
من یک مجموعه داده با 24 متغیر پیش بینی دارم، همه پیوسته، اما با مقیاس های مختلف و همخطی بالقوه. من سعی میکنم تصمیم بگیرم از «جنگل تصادفی» یا «cforest» در مهمانی با تغییر اهمیت شرطی استفاده کنم. میدانم که اگر میخواهم بر تعصب انتخاب متغیر غلبه کنم، احتمالاً باید از «cforest» استفاده کنم، اما توانایی دریافت نمودارهای وابستگی جزئی و درصد واریانس توضیحدادهشده از بسته «جنگل تصادفی» را بسیار جذاب میدانم. می خواستم بدانم آیا کسی می داند که آیا می توان نمودارهای وابستگی جزئی و درصد واریانس را از «cforest» توضیح داد؟ همچنین، به نظر میرسد که «ctree» از آزمون معناداری برای انتخاب متغیرها استفاده میکند. آیا این برای جنگل یکسان است؟ و چگونه می توانم این مقادیر اهمیت را برای هر متغیر در cforest بدست بیاورم؟
|
randomForest در مقابل cforest; آیا می توانم نمودارهای وابستگی جزئی و درصد واریانس توضیح داده شده در بسته حزبی را دریافت کنم؟
|
83802
|
در یک تحلیل رگرسیون چندگانه (با 4 پیشبینیکننده پیوسته و 2 عامل طبقهبندی)، منظور ما دادههای متمرکز (برای هر متغیر پیوسته) به دلیل مسائل چند خطی بودن زمانی است که شرایط تعامل گنجانده شود. سوال من این است که آیا می توانم متغیر پاسخ را نیز در مرکز قرار دهم؟ به طور خاص، متغیر پاسخ و 4 پیشبینیکننده پیوسته همگی پاسخهای نظرسنجی میانگین هستند (با استفاده از مقیاسهای 1 تا 5). من در ابتدا فکر می کردم که اگر متغیرهای توضیحی را در مرکز قرار می دادم، ممکن است پاسخ را نیز در مرکز قرار دهم. اما متوجه شدم که بیشتر ارجاعات به مرکز به نظر می رسد فقط برای متغیرهای پیش بینی کننده اعمال می شود. هر گونه کمک بسیار قدردانی می شود. **به روز رسانی**: همانطور که در یک نظر قبلی اشاره کردم، اعتبار متمرکز کردن متغیر پاسخ خود را به دلیل داشتن نتایج متفاوت ANOVA با استفاده از پاسخ متمرکز در مقابل غیرمرکز زیر سوال بردم. تفسیر من این است که مدل خطی برای یک پاسخ غیرمرکز (با استفاده از lm() در R) از میانگین سطح مرجع دو عامل من برای محاسبه رهگیری استفاده می کند. وقتی متغیر پاسخ را در مرکز قرار دادم، به جای میانگین سطح مرجع، از میانگین کل این متغیر کم می شود. اکنون من تأیید کردهام که با «مرکز کردن» با استفاده از میانگین سطح مرجع و در واقع نتایج یکسانی را برای مقادیر p مانند مدل پاسخ غیرمرکز به دست میدهد. امیدوارم این موضوع را درست تفسیر کرده باشم. اگر کسی بتواند این موضوع را بیشتر تأیید / روشن کند من واقعاً از آن متشکرم.
|
مرکز داده ها در رگرسیون چندگانه
|
15899
|
### بررسی اجمالی: میخواهم آزمایش کنم که آیا «بیحسی عاطفی» پیشبینیکننده بهتری برای «عملکرد پایینتر رابطه صمیمی» نسبت به «تجربه مجدد» یا «بیشانگیختگی» است یا خیر. با این حال، یکی از اعضای کمیته پایان نامه من T. هتلینگ را پیشنهاد کرد. * فرضیه 1a: بی حسی عاطفی پیش بینی کننده بهتری برای سازگاری دوتایی پایین تر از تجربه مجدد یا علائم بیش از حد برانگیختگی خواهد بود. * فرضیه 1b: بی حسی عاطفی پیش بینی کننده بهتری برای صمیمیت نسبت به تجربه مجدد یا علائم بیش از حد برانگیختگی خواهد بود. * فرضیه 1c: بی حسی عاطفی نسبت به تجربه مجدد یا علائم بیش از حد برانگیختگی، پیش بینی بهتری برای ارتباط خواهد بود. ### سوال: * آیا T Hotelling مناسب ترین راه برای تعیین اینکه آیا بی حسی عاطفی پیش بینی کننده بهتری نسبت به 2 متغیر دیگر است؟ * یا آزمون آماری بهتری برای این کار وجود دارد؟
|
چگونه می توانم آزمایش کنم که آیا یک پیش بینی کننده به طور قابل توجهی بهتر از دیگری است؟ آیا هتلینگ T بهترین گزینه است؟
|
45851
|
بر اساس دقت طبقه بندی تخمین زده شده، می خواهم آزمایش کنم که آیا یک طبقه بندی کننده از نظر آماری در یک مجموعه پایه بهتر از طبقه بندی کننده دیگر است یا خیر. برای هر طبقهبندیکننده، یک نمونه آموزشی و آزمایشی را بهطور تصادفی از مجموعه پایه انتخاب میکنم، مدل را آموزش میدهم و مدل را آزمایش میکنم. برای هر طبقه بندی ده بار این کار را انجام می دهم. بنابراین من ده اندازه گیری دقت طبقه بندی تخمینی برای هر طبقه بندی دارم. چگونه می توانم از نظر آماری آزمایش کنم که آیا $ Classifier 1$ طبقه بندی بهتری نسبت به $classifier 2$ در مجموعه داده پایه است یا خیر. استفاده از چه آزمون t مناسب است؟
|
چگونه می توان عملکرد طبقه بندی کننده های یادگیری ماشین را از نظر آماری مقایسه کرد؟
|
70816
|
من سعی می کنم پارامترهای مدل را برای داده های سری زمانی با استفاده از اعتبارسنجی متقاطع k-fold بهینه کنم. من از استراتژی زنجیرهای رو به جلو که در اینجا توضیح داده شده است استفاده میکنم: استفاده از اعتبارسنجی متقاطع k-fold برای انتخاب مدل سریهای زمانی یعنی فولد 1: بهینهسازی [1]، تست [2] برابر 2: بهینهسازی [1 2]، آزمایش [3] فولد 3 : بهینه سازی [1 2 3]، تست [4] فولد 4 : بهینه سازی [1 2 3 4]، تست [5] فولد 5: بهینه سازی [1 2 3 4 5]، تست [6] سپس میانگین پارامترهای بهینه شده حاصل از هر پنج برابر را برای ارائه پارامترهای مدل نهایی. سوال من این است: آیا این یک وزنه بیش از حد قوی بر روی تا 1 ایجاد نمی کند که در هر اجرای بهینه سازی گنجانده شود؟ آیا راهی برای جلوگیری از این امر وجود دارد یا یک استراتژی اعتبار سنجی متقابل بهتر؟
|
پارامترهای مدل بهینهسازی برای دادههای سری زمانی با استفاده از اعتبارسنجی متقاطع k-fold
|
36325
|
امیدوارم این مکان و روش درستی برای پرسیدن این سوال باشد. من سعی می کنم بفهمم که چگونه می توان تابع چگالی احتمال x(t) را در یک مدل AR از مرتبه K داده شده (t-k) مشاهدات گذشته استخراج کرد. من در درجه اول به این مقاله اشاره می کنم (بخش 2.2) اما یک کتاب ژاپنی را برای این اشتقاق ذکر می کند. در سایر کتاب های سری زمانی (شوموی و استوفر، پوراحمدی) اشتقاقی مشابه پیدا نکردم. میشه لطفا یکی ارجاعات مناسب بهم بده یا توضیح بده ممنون از وقتی که گذاشتید شروع
|
استخراج PDF در مدل اتورگرسیون
|
114626
|
قبلاً نسخه ای از این سؤال را پرسیدم اما متوجه شدم که نیاز به توضیح دارد. من یک مجموعه داده با جفت های دوقلو یکسان و جفت های دوقلوی برادر دارم. من می خواهم رابطه بین یک متغیر نتیجه (وابسته) و تعدادی از متغیرهای دیگر (INDEPENDENT) را بررسی کنم. با این حال، من نمی توانم یک رگرسیون OLS معمولی را اجرا کنم زیرا متغیر وابسته هر دوقلو با متغیر همزاد آنها همبستگی دارد (برای اهداف من، این یک مزاحم است). روشی که من با این موضوع برخورد کردهام این است که از SAS PROC MIXED استفاده کرده و یک رهگیری تصادفی تعریف شده توسط خوشه دوقلو (FAMILYID) را شامل میشود. این دستور من است: proc mixed method=ml covtest noclprint; کلاس FAMILYID; مدل DEPENDENT = INDEPENDENT/راه حل; intercept تصادفی/sub=FAMILYID type=un gcorr; اجرا؛ وقتی این کار را انجام میدهم، یک تخمین پارامتر کوواریانس برای «FAMILYID» و همچنین یک عبارت باقیمانده دریافت میکنم. درک من این است که این تغییرپذیری را به متغیرهای درون خوشه ای (تخمین باقیمانده) و متغیر بین خوشه ای (تخمین FAMILYID) تجزیه می کند. من ضریب همبستگی درون طبقاتی را برای خوشههای خانواده با محاسبه به دست میآورم: (تخمین FAMILYID) تقسیم بر (تخمین FAMILYID + تخمین باقیمانده). با این حال! متوجه شدم که احتمالاً مشکل ناهمسانی دارم، زیرا اعضای جفت دوقلو برادر احتمالاً نسبت به اعضای جفت دوقلو همسان کمتر به یکدیگر شباهت دارند. من دستور خود را به این اصلاح کردم: proc mixed method=ml covtest noclprint; کلاس FAMILYID; مدل DEPENDENT = INDEPENDENT/راه حل; رهگیری تصادفی/sub=گروه FAMILYID=TWINTYPE type=un gcorr; اجرا؛ جایی که TWINTYPE به معنای یکسان یا برادر بودن جفت دوقلو است. وقتی این کار را انجام میدهم، یک تخمین FAMILYID برای دوقلوهای برادر، یک تخمین FAMILYID برای دوقلوهای همسان و یک ترم باقیمانده دریافت میکنم. بنابراین - این بدان معناست که من به مدل خود گفتهام که تخمینهای مختلف «بین خوشهای» را برای دوقلوهای همسان و همسان انجام دهد - اما آیا هنگام محاسبه ترم باقیمانده، هنوز هم نوع دوقلو را نادیده میگیرد؟ و اگر عبارت باقیمانده منعکس کننده تغییرپذیری درون خوشه ای باشد، آیا مشکلی نیست که در نظر نمی گیرد که احتمال تغییر کمتری در یک جفت دوقلوی یکسان در متغیر نتیجه و تنوع بیشتر در یک متغیر وجود دارد. جفت دوقلو برادر؟ بنابراین حدس میزنم سوال من یکی از این دو مورد باشد: 1. آیا نحوی وجود دارد که به من یک تخمین بین خوشهای برای دوقلوهای همسان و دوقلوهای همسان و سپس یک عبارت باقیمانده برای دوقلوهای همسان و دوقلوهای برادر بدهد؟ یا 2. آیا من اساساً در مورد نحوه عملکرد همه اینها سردرگم هستم، و اگر چنین است، چه چیزی را از دست داده ام؟ کمک/توضیحات بسیار قدردانی می شود.
|
ناهمگونی در مدل خطی مختلط SAS PROC MIXED
|
45856
|
توزیع احتمال عضوی از خانواده نمایی دو پارامتری است اگر توزیع را بتوان به شکل زیر بیان کرد: $$ h(\theta, \phi) \text{exp}\left[\sum t(x_{i} )\psi(\theta, \phi) + \sum u(x_{i})\chi(\theta, \phi)\right] $$ برای پارامترها: $\theta$ و $\phi$، دادهها: $x_{1}، x_{2}، \ldots، x_{n}$ و توابع: $h$، $t$، $u$، $\psi$ و $\chi$ . علاوه بر این، مزدوج قبلی برای خانواده دو نمایی به شکل زیر است: $$ p(\theta, \phi) \propto h(\theta, \phi)^{v}\text{exp}\left[\tau \psi(\theta, \phi) + \omega\chi(\theta, \phi)\right] $$ در حالی که به برخی از اعضای نمایی دو پارامتری نگاه می کنیم خانواده، مثال زیر را مشاهده کردم: توزیع گاما ($\text{Ga}(\alpha, \beta)$) را می توان به شکل بالا بیان کرد، جایی که $h = \frac{\phi^{\theta}} {\Gamma(\theta)}$, $\sum t = \sum \text{log}x_{i}$, $\sum u = \sum x_{i}, \psi = \theta, \chi = -\phi$. مثال همچنین بیان میکند که شکل قبلی مزدوج برای این توزیع گاما توسط: $$ \left[\frac{\phi^{\theta}}{\Gamma(\theta)}\right] داده میشود. ^{v} \text{exp}[\tau\theta - \omega\phi] $$ آیا کسی میتواند توضیح دهد که چگونه این مزدوج گاما را میتوان به این شکل بیان کرد؟
|
مزدوج خانواده نمایی دو پارامتری قبلی
|
114625
|
درمان جدیدی برای سکته مغزی آزمایش می شود. دو گروه با اندازه مساوی وجود دارد، به یک گروه دارو و به گروه دارونما داده می شود. فاصله اطمینان 95% برای تفاوت بین دو نسبت افراد مبتلا به سکته مغزی (0.07،0.12) بود. چه چیزی می توانیم استنباط کنیم: 1) اطلاعات کافی برای استنباط وجود ندارد 2) حداکثر 12٪ از افراد سکته مغزی داشته اند 3) حداقل 4٪ سکته مغزی داشته اند من در این مورد مطمئن نیستم. من فکر می کنم ممکن است 1 باشد). کسی میتونه کمک کنه؟ با تشکر
|
پرس و جو سطح اطمینان
|
70811
|
من به دنبال یک موضوع پایان نامه برای مدرک اقتصاد کاربردی خود هستم که در آن بتوانم از داده کاوی / یادگیری ماشینی برای نوعی پیش بینی استفاده کنم. بچه ها ایده خوبی در مورد کاری که می توانم انجام دهم دارید؟ اولین فکر من امتیازدهی اعتباری بود، اما با توجه به تعداد مقالات موجود و کمبود داده های موجود، کمی خسته کننده به نظر می رسد. من نمی خواهم در مورد پیش بینی بازار سهام بنویسم زیرا این کاری است که من برای پایان نامه ریاضی خود انجام دادم. یک موضوع خوب می تواند پیش بینی نوعی شاخص اقتصادی باشد، اما من واقعاً هیچ ایده خوبی تا کنون ندارم. متشکرم!
|
کاربردهای داده کاوی در اقتصاد
|
37492
|
من یک مشکل فنی با Stata دارم: باید SSE یک مدل رگرسیونی را محاسبه کنم، اما خروجی خودکار فقط RMSE را به من می دهد. من به SSE این مدل محدود نیاز دارم زیرا باید آزمایش کنم که آیا این مدل از مدل کاملا رایگان بهتر است یا خیر. SPSS مقدار SSE را در خروجی رگرسیون به من می دهد، اما من نمی دانم چگونه یک رگرسیون خطی محدود را با این مدل محاسبه کنم.
|
چگونه با نرم افزار Stata 12 مجموع مربعات خطاها (SSE یا SSR) را محاسبه کنیم؟
|
18913
|
_من آمارگیر نیستم، پس لطفاً کمبود دانش/اصطلاحات آماری من را ببخشید._ من تعداد زیادی گره شبکه دارم که میخواهم تحلیل خوشهای را روی آنها اجرا کنم و خوشهها را شناسایی کنم. بنابراین تا آنجا که من متوجه شدم، می توانم مراحل زیر را برای اجرای یک تحلیل انبوه سلسله مراتبی (HAC) دنبال کنم: 1. شناسایی متغیرها 2. تعریف تابع فاصله 3. اجرای الگوریتم برای پیوستن به خوشه های نزدیکتر و ایجاد یک خوشه بزرگ. 4. برش درخت دندروگرام در ارتفاعی که خوشه های معنی دار را بر اساس زمینه ایجاد می کند سوال من مربوط به مرحله دوم است اگرچه هنوز برای من مشخص نیست که چگونه می توانم آخرین مرحله را انجام می دهم دادههایی که میخواهم تجزیه و تحلیل کنم، دستهای از گرههای شبکه کامپیوتری است که از کار افتادهاند (پاسخ نمیدهند). من اطلاعات زیر را برای هر گره شبکه دارم: * مکان (طول و عرض جغرافیایی) * گره زمانی از کار افتاد * ارائه دهنده شبکه اینها مرتبط ترین اطلاعاتی هستند که فکر می کنم باید برای خوشه بندی خود در نظر بگیرم. اساساً من میخواهم گرههایی را که احتمالاً به همین دلیل در یک منطقه کاهش یافتهاند، دستهبندی کنم. به عنوان مثال اگر دسته ای از گره ها تقریباً در یک زمان از کار بیفتند و از نظر فیزیکی به یکدیگر نزدیک باشند و ارائه دهنده یکسانی داشته باشند، بنابراین احتمالاً در یک خوشه قرار می گیرند. حال سوال این است که چگونه تابع فاصله خود را استخراج کنم و همه این متغیرها را طوری در آن قرار دهم که منطقی باشد؟ به عبارت دیگر **مکانیسم استخراج تابع فاصله بر اساس متغیرهای متعدد چیست؟** همچنین همانطور که متوجه شدید متغیرها انواع مختلفی دارند. پس در تابع فاصله باید با در نظر گرفتن **ضریب تشابه گوور** به این موضوع رسیدگی کنم؟ چگونه؟ هر مثال یا پیشنهادی در مورد اینکه آیا من در مسیر درست هستم یا نه می تواند بسیار مفید باشد.
|
چگونه یک تابع فاصله را بر اساس متغیرهای متعدد برای تجزیه و تحلیل خوشه استخراج کنیم؟
|
83808
|
چگونه ارگودیسیته یک فرآیند تصادفی ثابت با حس گسترده را از مسیر(های) نمونه آن بررسی می کنید؟ آیا می توانیم ارگودیسیته را از یک مسیر نمونه بررسی کنیم؟ یا به چندین مسیر نمونه نیاز داریم؟ یکی از انگیزه های بررسی ارگودیسیته در سری های زمانی این است که اطمینان حاصل شود که می توانید با خیال راحت از میانگین یک مسیر نمونه در طول زمان به عنوان برآورد میانگین جمعیت استفاده کنید؟ با تشکر
|
چگونه ارگودیک بودن یک فرآیند تصادفی را از مسیر(های) نمونه آن بررسی می کنید؟
|
37497
|
مستندات بیان می کند که R gbm با توزیع = adaboost می تواند برای مشکل طبقه بندی 0-1 استفاده شود. قطعه کد زیر را در نظر بگیرید: gbm_algorithm <- gbm(y ~.، داده = train_dataset، توزیع = adaboost، n.trees = 5000) gbm_predicted <- predict(gbm_algorithm، test_dataset، n.trees = 5000) می توان آن را یافت در مستنداتی که predict.gbm > یک بردار را برمیگرداند از پیش بینی ها به طور پیش فرض پیش بینی ها در مقیاس > f(x) هستند. با این حال مقیاس خاص برای مورد توزیع = adaboost مشخص نیست. **آیا کسی می تواند در تفسیر مقادیر بازگشتی predict.gbm کمک کند و ایده ای از تبدیل به خروجی 0-1 ارائه دهد؟**
|
چگونه از R gbm با توزیع = adaboost استفاده کنیم؟
|
15891
|
با توجه به $n$ نمونه از یک توزیع (پیوسته) X، کار واضحی که باید انجام داد این است که آنها را مرتب کنیم و با گرفتن $(x_{(k)}، (k-1/) آنها را به طور مساوی بین $[0,1]$ توزیع کنیم. 2)/n)$ به عنوان تخمین نقاط خاص در CDF، و انجام نوعی درون یابی بین نقاط، در صورت لزوم. آیا این روش درست برای انجام این تخمین است؟ چگونه می توانم نوارهای خطا را برای امتیازهای تخمینی دریافت کنم؟ به نظر نمی رسد که آنها لزوماً متقارن باشند.
|
راه مناسب برای تخمین CDF برای یک توزیع از نمونه های گرفته شده از آن توزیع چیست؟
|
70812
|
من توزیع پارتو تعمیم یافته (GPD) را با استفاده از بسته «POT» در «R» نصب کردم. شی نصب شده پارامترهای شکل و مقیاس را ارائه می دهد، اما پارامتر مکان را ندارد. من به آن نیاز دارم تا تابع quantile را با qgpd(p، loc = 0، scale = 1، shape = 0، low.tail = TRUE، lambda = 0) ارزیابی کنم. من مطمئن هستم که این سؤال بسیار اساسی است (شاید ارزش متوسط باشد، اما از کدام مقادیر - همه، یا فقط آنهایی که بزرگتر از آستانه هستند؟) اما من در این زمینه مبتدی هستم و کمک بسیار قدردانی می شود.
|
پارامتر loc در توزیع GPD در بسته POT برای R چیست؟
|
108599
|
من تازه وارد این حوزه از یادگیری ماشین هستم. من فقط خودم را از طریق الگوریتم UCB1 می گذرانم که به نظر می رسد فرض می کند که بازده فقط برای اقدامی که انجام می شود قابل یادگیری است. چیزی که من در مورد آن کنجکاو هستم این است که آیا قبلاً تجزیه و تحلیلی از مشکل راهزن چند مسلح در مواردی وجود دارد که در آن می توان بازده اقدامات انجام نشده را نیز آموخت (ممکن است اصطلاح این بردار پاداش کامل باشد؟) و اینکه اطلاعات مورد استفاده در مراحل بعدی من میتوانم الگوریتم «UCB1» را برای بهروزرسانی برای اقدامات انجام نشده تغییر دهم. اما، میخواهم بدانم آیا برای انجام این کار ایراد/مشکلاتی وجود دارد یا خیر. زمانی که بردار پاداش به طور کامل در دسترس باشد، من آنالیز فرم بسته مرزهای پشیمانی را انجام نداده ام. من نمی دانم اصطلاحات برای چنین مواردی چیست. بنابراین، من برای یافتن کار برای چنین مواردی مشکل دارم. من درک می کنم که وقتی بردار پاداش کامل در دسترس است، این یک مشکل یادگیری تقویتی نظارت شده است. چیزی که من در مورد آن کنجکاو هستم این است که آیا کار راهزن چند مسلح را می توان به خوبی در مشکل یادگیری تقویتی تحت نظارت استفاده کرد یا خیر. و اینکه آیا انجام این کار منطقی است یا خیر. من بسیار قدردان نکات کار/کاغذ در این زمینه خواهم بود.
|
راهزن چند مسلح در مواجهه با اطلاعات پاداش کامل
|
37494
|
من فهرستی از رکوردها با فیلدهایی دارم که می توان آنها را به عنوان دو مجموعه متغیر مشاهده کرد: وابسته و مستقل. مثلاً 100 فیلد در هر رکورد وجود دارد که 10 مورد از آنها را به عنوان متغیر وابسته و 90 فیلد را مستقل در نظر می گیریم. روش های یافتن همه همبستگی هایی که بین دو مجموعه وجود دارد چیست؟ (در دوره مقدماتی آمار که من گذرانده ام، با همبستگی های ساده بین دو متغیر سروکار داشتیم، اما کار مانند این پوشش داده نشد.)
|
همه همبستگی های بین دو مجموعه متغیر را بیابید
|
70815
|
من 4 متغیر نهفته دارم که هر کدام 3-7 اندیکاتور دارند. من یک ترکیب ترکیبی برای هر متغیر با جمع کردن داده ها و سپس میانگین-مرکزی ایجاد کردم (متغیرها دارای برخی مسائل همخطی هستند، بسیار مرتبط هستند). بنابراین من Var1، Var2، Var3، Var4 را دارم. سپس می خواستم یک ترکیب اصلی از هر چهار متغیر ایجاد کنم. بنابراین من تمام شاخصهای فردی را جمعآوری کردم و میانگین را برای Var1234 جمعآوری کردم. من سعی می کنم تئوری مکمل بودن را آزمایش کنم که در آن این چهار متغیر با هم بزرگتر از مجزا هستند (یعنی var1 + var2 + var3 + var4 = 4 ... اما Var1234 >4) من دو رگرسیون خطی را اجرا کردم. مدل 1: همه شاخص های فردی + اصطلاحات تعامل فردی + اصطلاح تعامل 4 طرفه = DV مدل 2: Var1234 = DV در مدل دوم Var1234 قابل توجه است، اما در مدل اول عبارت تعامل 4 طرفه ناچیز است. من معتقدم این یک مشکل است، اما مطمئن نیستم. آیا به روشی که من متغیرهای مرکب خود را ایجاد کردم، یا این که یک متغیر مرتبه دوم وجود دارد که ترکیبی از سایر ترکیبات است، مرتبط است؟ آیا راهی برای توضیح این موضوع وجود دارد که چرا یک عبارت تعامل 4 طرفه زمانی که ترکیب آن 4 عبارت معنی دار است، بی اهمیت است؟
|
اصطلاح تعامل ناچیز اما متغیر مرکب معنی دار
|
83805
|
اجازه دهید $\mathbf{X}=(X_1,X_2,\ldots,X_{2k})$ نمونهای از توزیع عادی $\mathcal{N}(0,1)$ باشد. ثابت کنید که توزیع میانه نمونه (برای نمونه زوج) حدود 0 متقارن است. $me(\mathbf{X}) = \frac{X_{k:2k}+X_{(k+1):2k}}{2} $، که در آن $X_{i:2k}$ آمار سفارش $i$-ام است. من سعی کردم از فرمول $f_{X_{k:n}}(x) =\frac{n!}{(k-1)!(n-k)!}[F_X(x)]^{k-1} استفاده کنم [1-F_X(x)]^{n-k} f_X(x)$، اما بدون هیچ موفقیتی (شاید راهی برای انجام آن متفاوت از یافتن توزیع $me(\mathbf{X})$ وجود داشته باشد؟
|
ثابت کنید که توزیع میانه نمونه (برای نمونه زوج) متقارن است
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.