_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
55353
import sympy sympy.init_printing() x, y, mu, sigma, density1, density2 = sympy.symbols('x y mu sigma density1 density2') eq1 = sympy.Eq(density1, 1/(sympy.sqrt(2*sympy. پی)*سیگما) *sympy.exp(-(x-mu)**2/(2*sigma**2))) ​​# eq2 عادی = sympy.Eq(y, sympy.exp(x)) # جایگزین eq3 = sympy.Eq( density2, 1/(y*sympy.sqrt(2*sympy.pi)*sigma) *sympy.exp(-(sympy.ln(y)-mu)**2/(2*sigma**2))) ​​# lognormal [eq1, eq2, eq3] خروجی: ⎡ 2 2⎤ ⎢ -(-μ + x) -(-μ + log(y)) ⎥ ⎢ - ⎢ ╲╱ 2 ⋅ℯ x ╲╱ 2 ⋅ℯ ⎥ ⎢ تراکم₁ = ──────────────────────── تراکم₂ = ──────────────────────⎥ ⎢ ___ ___ ⎥ ──────────────⎥ ⎢ ___ ___ ⎥ ⎣⎣ 2⋅╲╱ π ⋅σ⋅y ⎦ چگونه می توانم به SymPy بگویم چگالی اول (طبیعی) را گرفته، جایگزینی x را به y اعمال کند و چگالی دوم (lognormal) مورد نظر را خروجی کند؟
نحوه محاسبه چگالی log-normal از چگالی نرمال با استفاده از SymPy
50650
معمولاً وقتی تحلیل عاملی را انجام می‌دهم، یک سری متغیر دارم که باید کاهش یابند. اما در اینجا من فقط دو متغیر باینری دارم (بله/خیر) که باید آنها را به یک فاکتور بازه کاهش دهم. آیا مولفه های اصلی / تحلیل عاملی برای این کار مناسب است؟ وقتی این کار را انجام می‌دهم، اجتماعات استخراج من واقعاً بالاست. ممکن است برای پشتیبان‌گیری از این موضوع با بازبین‌ها به یک مرجع نیاز داشته باشم.
نحوه تجزیه و تحلیل عاملی فقط دو متغیر باینری
50656
فرض کنید دو متغیر A و B داریم و سعی می کنیم اطلاعات متقابل بین آنها را پیدا کنیم. آیا اطلاعات متقابل می تواند ما را قادر سازد که بین دو متغیر رابطه مثبت یا منفی وجود داشته باشد؟
رابطه بین اطلاعات متقابل و نشانه رابطه
50653
به مجموعه ای کاملا متقارن گفته می شود که برای هر x در آن، نفی یکی از اجزای آن به y منجر شود به طوری که y نیز در مجموعه باشد. به مجموعه ای نیمه متقارن گفته می شود که برای هر x در آن، نفی همه اجزای آن (به یکباره) به y منجر شود به طوری که y نیز در مجموعه باشد. اکنون جواب بهینه هدف Kmeans را با K=2d+1 برای مشاهدات منحصر به فرد d بعدی که کاملاً متقارن هستند بررسی کنید. فرض کنید مشخص است که مجموعه میانگین بهینه با تنظیم بالا منحصر به فرد است و حاوی بردار صفر است. ادعای زیر را ثابت کنید یا مثالی متضاد بزنید: مجموعه میانگین های بهینه نیمه متقارن است
K به معنی داده های متقارن.
100358
من سعی می‌کنم با استفاده از «glm» بررسی کنم که آیا تعامل معنی‌داری بین یک متغیر ترتیبی (`A`) و دسته‌بندی (`B`) در R وجود دارد یا خیر. وقتی مدلی ایجاد می‌کنم که فقط عبارت تعامل «A:B» را شامل می‌شود، مدل به خوبی اجرا می‌شود و من یک تخمین معقول دریافت می‌کنم. وقتی من مدل فول را X ~ A+B+A*B اجرا می کنم، یک خطای استاندارد غیر منطقی بالا دریافت می کنم. با این حال، وقتی هر عبارت را به تنهایی «X ~ A» یا «X ~ B» اجرا می‌کنم، تخمین‌های معقولی نیز دریافت می‌کنم. من گمان می کنم که ممکن است ارتباطی با تناسب تقریباً کامل برای یک ترکیب از متغیرهای ترتیبی و طبقه ای من داشته باشد، اما مطمئن نیستم. هیچ ایده ای در مورد آنچه در حال وقوع است؟ آیا داشتن یک مدل فقط با یک عبارت تعاملی A:B و نه A+B+A*B شکل بدی است؟ model1 <- glm(X~A:B، خانواده=دوجمله ای(logit)) model2 <- glm(X~A، خانواده=دوجمله ای(logit)) model3 <- glm(X~B، خانواده=دوجمله ای(logit)) model4 <- glm(X~A+B+A*B، خانواده=دوجمله ای(logit)) خلاصه (model1) Estimate Std. خطای z مقدار Pr(>|z|) (Int) 3.4320 1.1497 2.985 0.00283 ** A:B [no] -1.3857 0.6813 -2.034 0.04195 * A:B [بله] ** 2.28019 -2.28047 -4. خلاصه (model2) ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 2.9572 1.0792 2.740 0.00614 ** A -1.5221 0.6495 -2.343 0.01911 * summary(model3) Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) 1.2809 0.5055 2.534 0.0113 * B[yes] -1.1268 0.6406 -1.759 0.0786 . خلاصه (model4) Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) 36.66 4125.28 0.009 0.993 A -18.10 2062.64 -0.009 0.993 B[بله] -34.24 4125.28 4125.28 -0.096 A.008 2062.64 0.008 0.994 > dput(my.data) structure(list(X = structure(c(2L, 2L, 2L, 2L, 2L, 1L, 1L, 2L, 1L, 2L, 2L, 2L, 1L, 1L, 1 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2L)، برچسب = c(0، 1)، کلاس = ضریب)، A = ساختار (c(1L، 1L، 2L، 2L، 1L، 2L، 2L، 1L، 2L، 2L، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1L، 1L)، .Label = c(1، 2)، کلاس = عامل)، B = ساختار (c(1L، 1L، 1L، 1L، 1L، 2L، 2L، 1L، 1L، 1L، 1L، 2L، 2L، 2L، 2L، 1L، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر)، . برچسب = c(نه، بله)، کلاس = factor))، .Names = c(X، A، B)، row.names = c(NA, -49L)، class = data.frame)
افزودن تعاملات به رگرسیون لجستیک منجر به SE های بالا می شود
6637
اجازه دهید دو فرمول از مسئله بهینه‌سازی $\ell_{2}$ SVM را در نظر بگیریم، یکی محدود شده است: $\min_{\alpha,b} ||w||_2^2 + C \sum_{i=1}^n { \xi_{i}^2}$ s.t $ y_i(w^T x_i +b) \geq 1 - \xi_i$ و $\xi_i \geq 0 \forall i$ و یک بدون محدودیت: $\min_{\alpha,b} ||w||_2^2 + C \sum_{i=1}^n \max(0,1 - y_i (w^T x_i + b) )^2$ تفاوت بین آن دو فرمول مسئله بهینه سازی چیست؟ آیا یکی بهتر از دیگری است؟ امیدوارم در معادلات اشتباه نکرده باشم. با تشکر به روز رسانی: من فرمول بدون محدودیت را از کار اولیویه چاپل گرفتم. به نظر می رسد که مردم وقتی می خواهند روی اولیه کار کنند از مسئله بهینه سازی نامحدود استفاده می کنند و وقتی می خواهند روی دوگانه کار کنند، برعکس، می خواستم بدانم چرا؟
فرمول بندی محدود در مقابل نامحدود بهینه سازی SVM
61217
من سعی می کنم یک رگرسیون چندگانه در `R` انجام دهم. با این حال، متغیر وابسته من دارای نمودار زیر است: ![DV](http://i.stack.imgur.com/AMXDm.jpg) در اینجا یک ماتریس پراکنده با تمام متغیرهای من وجود دارد («WAR» متغیر وابسته است): ![SPLOM](http://i.stack.imgur.com/qKsGL.jpg) من می دانم که باید یک تبدیل روی این متغیر انجام دهم (و احتمالاً متغیرهای مستقل؟) اما من از تبدیل دقیق مورد نیاز مطمئن نیستم. آیا کسی می تواند من را در مسیر درست راهنمایی کند؟ خوشحال می شوم اطلاعات بیشتری در مورد رابطه بین متغیرهای مستقل و وابسته ارائه دهم. نمودارهای تشخیصی از رگرسیون من به شرح زیر است: ![نمودارهای تشخیصی](http://i.stack.imgur.com/sduyK.jpg) **ویرایش** پس از تبدیل متغیرهای وابسته و مستقل با استفاده از تبدیل‌های Yeo-Johnson، نمودارهای تشخیصی به این شکل هستند: ![پس از تبدیل](http://i.stack.imgur.com/6WZTC.jpg) اگر من از GLM با log-link استفاده کنید، گرافیک های تشخیصی عبارتند از: ![GLM with log-link](http://i.stack.imgur.com/SjfdK.jpg)
تبدیل متغیرها برای رگرسیون چندگانه در R
24725
پیرو این سوال که در اینجا چگونه می توانم به GLM در پروژه خود مراجعه کنم؟ فقط یک خلاصه: GLM یک مدل کلی است که شامل تعدادی تکنیک رگرسیون است. من از آن برای آزمایش تأثیرات اصلی IV ها (پیوسته و مقوله ای) بر روی DV و همچنین تأثیر تعاملی IV-IV بر روی DV استفاده کرده ام. من در مورد اینکه آیا فقط باید بگویم که از GLM برای تجزیه و تحلیل داده ها استفاده کرده ام یا اینکه روش خاصی برای ذکر GLM وجود دارد گیج هستم (مثلاً من از SSI در GLM برای تجزیه و تحلیل داده ها استفاده کردم). این لازم است (در ذهن من) زیرا نام سایر آزمون های آماری دقیق هستند (به عنوان مثال ANOVA). من می دانم که GLM عمومی است، اما باید راهی برای برقراری ارتباط اطلاعات دقیق در مورد این تکنیک وجود داشته باشد. با تشکر فراوان برای هر گونه اشاره.
چگونه به GLM مراجعه کنیم؟
66192
من هیستوگرام زیر از داده های شمارش را دارم. و من می‌خواهم توزیع گسسته‌ای را در آن قرار دهم. من مطمئن نیستم که چگونه باید در این مورد اقدام کنم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/C3up0.png) آیا ابتدا باید یک توزیع گسسته، مثلاً توزیع دوجمله ای منفی، روی هیستوگرام قرار دهم تا پارامترهای گسسته را بدست بیاورم. توزیع و سپس آزمون Kolmogorov-Smirnov را برای بررسی مقادیر p اجرا کنید؟ من مطمئن نیستم که آیا این روش درست است یا نه. آیا روش کلی برای مقابله با چنین مشکلی وجود دارد؟ این جدول فراوانی داده های شمارش است. در مشکلم فقط روی شمارش های غیر صفر تمرکز می کنم. تعداد: 1 2 3 4 5 6 7 9 10 فرکانس: 3875 2454 921 192 37 11 1 1 2 **UPDATE:** می خواهم بپرسم: من از تابع fitdistr در R برای به دست آوردن پارامترهای برازش داده ها استفاده کردم. fitdistr(abc[abc!= 0]، Poisson) lambda 1.68147852 (0.01497921) سپس تابع جرم احتمال توزیع پواسون را در بالای هیستوگرام رسم می کنم. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/djIBz.png) با این حال، به نظر می رسد توزیع پواسون در مدل سازی داده های شمارش شکست خورده است. **آیا کاری هست که بتوانم انجام دهم؟**
چگونه یک توزیع گسسته را برای شمارش داده ها برازش کنیم؟
92064
من یک سوال کلی در مورد مدل رهگیری / شیب متغیر در jags/stan دارم: من داده‌هایی از یک آزمایش روان‌فیزیکی، با یک متغیر کمکی، یک عامل درون آزمودنی‌ها و چندین موضوع دارم: متغیر پاسخ y دودویی است، و می‌خواهم احتمال دادن پاسخ را به عنوان تابعی از متغیر کمکی (مرکز) x در همه شرایط مدل کنید. من فکر می کنم مدل lme4 باید این باشد: glm_fit <- glmer (فرمول = y ~ x + (1 | cond/subject)، داده = df، خانواده = دو جمله ای (probit)) که در آن شیب و رهگیری بین شرایط و در بین موضوعات درون متفاوت است. شرایط تابع پیوند پروبیت را می توان با پیوند لاجیت جایگزین کرد. سوال من این است: چگونه می توانم به درستی همبستگی بین دریافت و شیب آزمودنی ها را در همه شرایط در jags یا stan مدل کنم؟ داده ها در قالب طولانی هستند و مدل jags از نمایه سازی تودرتو برای عامل شرط استفاده می کند. مدل jags این است: مدل {# احتمال برای (n در 1:N) { # حلقه روی N مشاهدات # وقفه/شیب متغیر برای هر شرط*ترکیب موضوع پروبیت(تتا[n]) <- آلفا[cond[n]، موضوع[n]] + بتا[cond[n]، موضوع[n]] * x[n] y[n] ~ dbern(theta[n]) } # پیشین برای (j در 1: J) { # حلقه روی شرایط J برای (s در 1: S) { # حلقه روی S موضوع # هر موضوع قطع/شیب در هر شرط از یک آلفای قبل از # سطح گروه می‌آید[s, j ] ~ dnorm(mu_a[j]، tau_a[j]) بتا[s، j] ~ dnorm(mu_b[j]، tau_b[j]) } # مقدمات سطح گروه غیر آموزنده mu_a[j] ~ dnorm (0, 1e-03) mu_b[j] ~ dnorm (0, 1e-03) tau_a[j] <- pow(sigma_a[j], -2) tau_b[ j] <- pow(sigma_b[j]، -2) sigma_a[j] ~ dunif (0، 100) sigma_b[j] ~ dunif (0، 100) } } من تمام همبستگی‌های بین پارامترها را عمداً کنار گذاشته‌ام. مشکلی که من دارم این است که فاصله ها و شیب برای هر موضوع در هر شرایط همبستگی دارند و جفت های رهگیری/شیب در شرایط همبستگی دارند. آیا کسی ایده ای دارد؟ بهترین راه برای اجرای این کار چیست؟
مدل درون آزمودنی ها در JAGS/stan
77773
من اطلاعاتی در مورد حدود 20000 مصرف کننده دارم که در معرض نوعی تبلیغات بودند. داده ها به شکل زیر است. Cookie_Id Observation_Number Ad_Id Ad_Id_Lookup Placement_Id Placement_Category Placement_Cpi Cookie_Lookup 2 1 325 Standard 3722 News 20 0 3 1 325 Standard 3722 News 20 0 1 5 Weather 4 7 325 استاندارد 3719 آب و هوا 8 2 5 1 324 استاندارد 3718 آب و هوا 8 0 5 2 324 استاندارد 3718 آب و هوا 8 0 6 1 327 ریچ مدیا 3716 سفر 20 0 6 2 327 ریچ مدیا سفر 2332 3716 سفر 20 0 6 4 327 Rich-Media 3716 سفر 20 0 7 1 324 استاندارد 3718 آب و هوا 8 1 7 2 324 استاندارد 3718 آب و هوا 8 1 8 1 323 استاندارد 3717 آب و هوا 3717 استاندارد 8 028 1 325 استاندارد 3719 آب و هوا 8 0 9 2 325 استاندارد 3719 آب و هوا 8 0 11 1 324 استاندارد 3713 سفر 12 0 11 2 324 استاندارد 3713 سفر 12 0 11 3 324 3713 استاندارد سفر 3713 12 0 12 1 324 استاندارد 3713 سفر 12 0 12 2 324 استاندارد 3713 سفر 12 0 12 3 324 استاندارد 3713 سفر 12 0 12 4 324 استاندارد 3713 سفر 12 0 13 1323 Rich 1-Media 1 325 Standard 3722 News 20 0 15 1 325 Standard 3722 News 20 0 من به دنبال مدل سازی داده ها با استفاده از یک مدل مختلط خطی هستم، با Ad_Id_Lookup و Placement_Category به عنوان متغیرهای ورودی و Cookie_Lookup به عنوان متغیر خروجی من 0,1 و وضعیت 2 با نتایج متفاوتی مطابقت دارد، از جمله اینکه آیا کسی الف را ایجاد کرده است خرید). مشکل این است که بسیاری از ردیف ها به غیر از شماره مشاهده با یکدیگر یکسان هستند (این ترتیب کمی مصنوعی است زیرا من مهر زمانی ندارم). من می‌خواهم هر در معرض آگهی را به‌عنوان یک رفتار جدید در هر شناسه کوکی جداگانه در نظر بگیرم. آیا می توانم با استفاده از بسته nlme در R این کار را انجام دهم؟ اگر نه، آیا بسته دیگری وجود دارد که بتواند با داده هایی از این نوع سروکار داشته باشد؟ با تشکر فراوان،
چگونه می توان یک مدل ترکیبی را با این داده های تبلیغاتی مطابقت داد؟
24535
فرض کنید من یک مجموعه داده دارم، و یک مدل رگرسیون را آموزش داده ام (به احتمال زیاد یک مدل خطی بیزی است، من فقط از بسته R استفاده می کنم). مدل طیف وسیعی از مقادیر، بزرگ‌تر از 0 و کمتر از 0 را خروجی می‌دهد، اگرچه خروجی واقعی تنها می‌تواند بزرگ‌تر از 0 باشد. آیا محدودیت‌هایی برای اعمال محدودیت‌ها به خروجی یک مدل برای اجبار کردن آن به یک مدل ممکن وجود دارد. ارزش؟ یا شاید این نشان دهنده این است که من کار اشتباهی انجام می دهم یا تکنیک اشتباهی را برای مشکل خود به کار می برم؟
چگونه خروجی یک مدل رگرسیون را محدود کنیم؟
55355
من می خواهم کاربر _Facebook_ را بر اساس تعداد دوستان مشترک خوشه بندی کنم. اگر دو کاربر تعداد دوستان مشترک بیشتری داشته باشند، آنها بیشتر به یکدیگر نزدیکتر تعیین می شوند. من به استفاده از الگوریتم خوشه بندی k-medoids فکر می کنم. در R می توانم از PAM برای خوشه بندی k-medoid استفاده کنم که به داده ها به عنوان ماتریس فاصله نیاز دارد. اما چگونه می توانم دوست متقابل را به عنوان معیار تشابه داشته باشم؟ چگونه می توانم این شباهت را به ماتریس فاصله تبدیل کنم؟
رویکردی به دسته بندی کاربران فیس بوک
31920
آیا ضریب اعتبار همان $\rho$ است که $\rho = \frac{COV_{XY}}{SD_X SD_Y}$ است؟
ضریب اعتبار و $\rho$
50657
من با یک سری زمانی از 5000 عدد تصادفی که از توزیع یکنواخت با میانگین 0 و واریانس 1 گرفته شده است، شروع کرده ام. سپس یک ماتریس واریانس-کوواریانس می سازم و از آن برای القای همبستگی به سری تصادفی استفاده می کنم. من می‌خواهم سری همبسته یک acf به شکل exp(-mk) داشته باشد، که m مثلاً 0.1 است. مشکل من این است: من باید بتوانم واریانس حاصل از سری های زمانی همبسته را محاسبه کنم، زیرا واریانس سری تصادفی را می دانم و ماتریس واریانس-کوواریانس را دارم. با این حال، پاسخ های من ضریب 2 بزرگتر از آن چیزی است که باید باشد. به عنوان مثال: در موردی که در بالا توضیح داده شد - توزیع یکنواخت، میانگین 0، واریانس 1، با خود همبستگی exp(-0.1*k)، واریانس سری همبسته باید 20 باشد، اما فقط 10 است. مطمئنم که باید چیز خیلی ساده ای را از دست بدهم یا کار خیلی احمقانه ای انجام می دهم، اما نمی توانم آن را ببینم. کمک لطفا!
واریانس یک سری متغیرهای همبسته
22073
من می خواهم یک روش _سلسله مراتبی-خوشه بندی_ را پیدا کنم که برای تخصیص عضویت گروه به گروه های _k_ برای همه افراد در مجموعه داده من مفید باشد. من چندین روش کلاسیک را در نظر گرفته ام، PCA، NMDS، mclust، و غیره، اما سه تا از متغیرهای من دسته بندی هستند (_توضیح داده ها را در زیر ببینید_). علاوه بر این، می‌خواستم بدانم که آیا این روش به روشی که احتمال عضویت گروهی را برای هر فرد گزارش می‌کند ارجحیت دارد؟ من از R استفاده می‌کنم. **توضیحات داده**: تقریباً از 2000 پرنده منفرد (یک گونه که دو زیرگونه یا فنوتیپ را نشان می‌دهند) در سراسر سوئد نمونه‌برداری کرده‌ام. همه افراد مرد بالغ هستند. اگرچه این یک گونه است، اما در وسط سوئد یک شکاف (مهاجری) وجود دارد که افراد جنوبی احتمالاً به غرب آفریقا مهاجرت می کنند و در شمال این تقسیم احتمالاً به شرق آفریقا مهاجرت می کنند. منطقه ای از همپوشانی به عرض تقریبی 300 کیلومتر در شکاف مهاجر وجود دارد. **متغیرها**: * بال (میلی متر) - پیوسته * دم (میلی متر) - پیوسته * سر قبض (میلی متر) - پیوسته * تارس (میلی متر) - پیوسته * جرم (گرم) - پیوسته * رنگ (9 سطح) - طبقه بندی * ایزوتوپ های کربن پایدار (قطعات در میلی لیتر) - پیوسته * ایستوپ های نیتروژن پایدار (قطعات در میلی متر) - پیوسته * SNP WW1 (0، 1، 2) - نشانگر مولکولی، 0 و 2 ثابت و 1 هتروزیگوت است * SNP WW2 (0، 1، 2) - نشانگر مولکولی، 0 و 2 ثابت هستند و 1 هتروزیگوت است توضیحات متغیر رنگ: (روشن ترین زرد) S+, S, S -، M+، M (متوسط)، M-، N+، N، N- (کم‌رنگ‌ترین زرد-خاکستری)
به دنبال یک روش خوشه‌بندی سلسله مراتبی برای انواع داده‌های متعدد
6638
من یک رگرسیون خطی را اجرا کرده ام که متغیر وابسته من یک کامپوزیت است. منظور من این است که از مؤلفه هایی ساخته شده است که با هم اضافه شده و ضرب می شوند. به طور خاص ، برای متغیر کامپوزیت a: a = (b*c + d*e + f*g + h*i + j*k + l*m)*(1 - n)*(1 + o*p) از متغیرهای مؤلفه به عنوان متغیرهای مستقل استفاده می شود (تنها متغیرهای مستقل متغیرهای ساختگی هستند). متغیرهای مؤلفه بیشتر (هرچند کاملاً) مستقل از یکدیگر هستند. در حال حاضر من فقط یک رگرسیون را با A به عنوان DV اجرا می‌کنم تا تأثیر هر متغیر ساختگی را بر A تخمین بزنم. اما همچنین می‌خواهم تأثیر هر متغیر ساختگی را بر مؤلفه‌های جداگانه A تخمین بزنم (و در آینده امیدوارم که از پیشین‌های جداگانه استفاده کنم. برای هر جزء). برای انجام این کار، چندین رگرسیون جداگانه را اجرا کرده ام، که هر کدام دارای یکی از اجزای متفاوتی به عنوان DV هستند (و از IV های یکسان برای همه رگرسیون ها استفاده می کنند). اگر من این کار را انجام دهم، آیا باید انتظار داشته باشم که برای یک ساختگی IV معین، بتوانم تخمین های ضرایب را از تمام رگرسیون های جداگانه (با استفاده از فرمول ذکر شده در بالا) دوباره ترکیب کنم و زمانی که ترکیب A را اجرا می کنم، همان مقداری را که برای آن IV دریافت می کنم، بدست آوریم. پسرفت؟ آیا من خطاهای استاندارد ضرایب را با اجرای همه این رگرسیون‌های جداگانه بزرگ‌نمایی می‌کنم و سپس سعی می‌کنم مقادیر را دوباره ترکیب کنم (تغییر خطی زیادی در متغیرهای ساختگی وجود دارد)؟ آیا ساختار دیگری به جز رگرسیون خطی وجود دارد که برای چنین موردی بهتر باشد؟
متغیر وابسته مرکب
50655
![جدول](http://i.stack.imgur.com/1vzQ1.jpg) من سعی می کنم روشی را برای تعیین برنده از بین هشت گروه دانش آموزی که برای جایزه رقابت می کنند، بیابم. داده های خام و درصدهای مربوطه، مشارکت هر گروه در یک برنامه دانشگاهی را اندازه گیری می کند. قوانین فعلی می گوید که دانش آموزانی که بیشترین مشارکت را بر اساس درصد جمعیت خود در گروه داشته باشند برنده جایزه می شوند. با این حال، من شکایت هایی دریافت کرده ام مبنی بر اینکه این سیستم امتیازدهی به طور ناعادلانه به نفع گروه های کوچک است زیرا ظاهراً هماهنگ کردن گروه های کوچکتر از مردم و کسب درصد بیشتری از موفقیت ها آسان تر است. بدیهی است که من یک ریاضیدان نیستم، بنابراین امیدوارم توصیف من از مسئله منطقی باشد. همانطور که می بینید، یکی از گروه های دانشجویی دارای 341 دانش آموز و دیگری دارای ony 11 است. هر کمکی که بتوانید انجام دهید بسیار قدردانی می شود و ممکن است از شورش در میان برندگان/بازنده ها جلوگیری کند.
چگونه می توانم یک سیستم امتیازدهی برای رقابتی طراحی کنم که منصفانه تر از درصدهای مستقیم باشد؟
61215
**زمینه:** از صدها نفر از شرکت کنندگان در نظرسنجی خود پرسیدم که چقدر به حوزه های انتخابی علاقه مند هستند (با مقیاس پنج درجه ای لیکرت که 1 نشان دهنده علاقه مند نیستم و 5 نشان دهنده علاقه مند است). سپس PCA را امتحان کردم. تصویر زیر یک طرح ریزی در دو جزء اصلی اول است. رنگ ها برای جنسیت ها استفاده می شود و فلش های PCA متغیرهای اصلی هستند (یعنی علایق). متوجه شدم که: * نقطه ها (پاسخگویان) به خوبی توسط جزء دوم از هم جدا شده اند. * هیچ نقطه فلشی باقی نمانده است. * برخی از فلش ها بسیار کوتاه تر از بقیه هستند. * متغیرها تمایل به ایجاد خوشه دارند، اما مشاهده نمی کنند. * به نظر می رسد که فلش های رو به پایین (به سمت نرها) عمدتاً علایق مردانه و فلش های رو به بالا عمدتاً علایق زنانه است. * برخی از فلش ها نه به سمت پایین و نه به سمت بالا هستند. **سوالات:** چگونه روابط بین نقاط (پاسخ دهندگان)، رنگ ها (جنسیت) و فلش ها (متغیرها) را به درستی تفسیر کنیم؟ چه نتایج دیگری در مورد پاسخ دهندگان و علایق آنها می تواند از این طرح استخراج شود؟ ![تجزیه و تحلیل PCA](http://i.stack.imgur.com/FHYKO.jpg)
چگونه تفاوت های گروهی را با این نمودار PCA به درستی تفسیر کنیم؟
77779
فرض کنید من به پیش بینی اشتباه یک کلاس بسیار بیشتر از کلاس دیگر اهمیت می دهم. آیا راهی وجود دارد که بتوانم این اطلاعات را به تکنیک های طبقه بندی استاندارد منتقل کنم؟ تنها راهی که می توانم به آن فکر کنم تنظیم آستانه است، اما نمی دانم آیا راه بهتری وجود دارد.
آیا می توان از هر یک از تکنیک های استاندارد (رگرسیون لجستیک، lda، qda، svm) برای انجام طبقه بندی نامتقارن استفاده کرد؟
31925
آیا کسی از توصیه ها/مرجع هایی برای ترسیم داده های سری زمانی _دودویی_ اطلاعی دارد؟ یا داده های سری زمانی طبقه بندی شده؟ من به رکوردهای برد/باخت نگاه می کنم، و به نظر می رسد که باید طرح هایی وجود داشته باشد که از ماهیت باینری فراتر از یک طرح ساده خطی بهره برداری کنند. ویرایش دیرهنگام: من با پیشنهادات توفت آشنا هستم، به خصوص آنهایی که در فصل sparklines از _Beautiful Evidence_ ارائه شده است (پاسخ whuber را در زیر ببینید). من به منابع دیگر علاقه مند هستم، به ویژه آنهایی که توجیهی برای توصیه های خود ارائه می کنند. ویرایش دوم: برای روشن شدن برخی از سوالات در کامنت ... موضوع کلیدی برای من دودویی بودن سریال است. من علاقه مند به ارجاع به هر چیزی هستم که مسائل خاصی را که هنگام ترسیم سری های زمانی باینری (یا به طور کلی متغیرهای طبقه ای یا ترتیبی) به جای متغیرهای فاصله ای/ کمی مطرح می شود، مورد بحث قرار می دهد. مقالات بسیار فنی خوب هستند، مانند کتاب های غیر فنی که مخاطبان محبوب را هدف قرار می دهند. این واقعاً تمایز باینری و کلی است که به آن علاقه مند هستم و هیچ مرجعی فراتر از موارد ذکر شده در پاسخ های زیر نمی شناسم.
آیا منابعی برای ترسیم سری های زمانی باینری وجود دارد؟
72117
من سال‌هاست که با منطق فازی (FL) کار می‌کنم و می‌دانم که تفاوت‌هایی بین FL و احتمال به‌ویژه در مورد نحوه برخورد FL با عدم قطعیت وجود دارد. با این حال، من می خواهم بپرسم چه تفاوت های بیشتری بین FL و احتمال وجود دارد؟ به عبارت دیگر، اگر من با احتمالات (تلفیقی اطلاعات، تجمیع دانش) سر و کار داشته باشم، آیا می توانم همین کار را با FL انجام دهم؟
تفاوت بین احتمال و منطق فازی چیست؟
92065
اگر رگرسیون چند جمله ای روابط غیرخطی را مدل می کند، چگونه می توان آن را یک مورد خاص از رگرسیون خطی چندگانه در نظر گرفت؟ ویکی‌پدیا خاطرنشان می‌کند که «اگرچه رگرسیون چند جمله‌ای یک مدل غیرخطی با داده‌ها برازش می‌کند، اما به عنوان یک مسئله تخمین آماری خطی است، به این معنا که تابع رگرسیون $\mathbb{E}(y | x)$ در پارامترهای مجهول خطی است. از روی داده ها تخمین زده می شود. چگونه رگرسیون چند جمله‌ای در پارامترهای مجهول خطی است اگر پارامترها ضرایبی برای عبارت‌هایی با مرتبه $\ge$ 2 باشند؟
چرا رگرسیون چند جمله ای یک مورد خاص از رگرسیون خطی چندگانه در نظر گرفته می شود؟
24534
**من گزارش‌هایی از یک فرم تکمیل خودکار دارم که می‌خواهم از آن‌ها برای افزایش هوش نتایجی که برمی‌گرداند استفاده کنم.** پروژه‌ای دارم که حول انتخاب شخصیت‌های اپرا از یک پایگاه داده با 15000 کاراکتر منحصربه‌فرد توسط کاربران می‌چرخد. مشکل من این است که هر کاراکتر در پایگاه داده تنها به عنوان یک نام ظاهر می شود، اما ممکن است با هر تعداد نام محاوره ای دیگر برای عموم شناخته شود. من به اندازه کافی خوش شانس بودم که ترافیک متوسطی دریافت کردم و در حال حاضر حدود 20000 ردیف سیاهههای رشته ای دارم که کاربرانم تایپ کرده اند و کاراکتر اپرا که در نهایت انتخاب کردند. اگر کاربر نویسه مورد نظر خود را با اولین رشته خود پیدا نکند، اغلب کاراکتر را با نام دیگری امتحان می کند. هنگامی که آنها موفق هستند، این داده ها نام محاوره ای شخصیت ها را با خود شخصیت مرتبط می کند. امیدوارم بتوانم از این داده ها برای فعال کردن فرم تکمیل خودکار من با این نام های محاوره ای استفاده کنم. متأسفانه در کنار همبستگی‌های مفید، همبستگی‌های تصادفی (شاید بیشتر) وجود دارد. اغلب زمانی که تلاش(های) کاربر نتیجه مورد نظرش را بر نمی گرداند، به جای اینکه کاراکتر را با نام دیگری امتحان کنند، به سادگی یک کاراکتر کاملا متفاوت را امتحان می کنند (و مکان یابی می کنند). من تعدادی مقاله علمی در مورد استفاده از گزارش‌های جستجو برای بهبود جست‌وجوی زبان طبیعی خوانده‌ام، اما به نظر می‌رسد هیچ یک از روش‌ها در این مورد محدود کاربرد چندانی نداشته باشد. آیا روش های شناخته شده ای وجود دارد که برای این برنامه مفید باشد؟ پروژه من در http://fachme.com قابل مشاهده است
سیاهههای جستجو را برای بهبود پیشنهادات تکمیل خودکار استخراج می کنید؟
77770
اگر ماشین به صورت تقریبی تابع در نظر گرفته شود، کدام دسته از توابع توسط یک شبکه عصبی مدل می شوند؟
کدام دسته از توابع غیر خطی را می توان توسط شبکه عصبی مدل کرد
31927
من یک تازه کار هستم بنابراین فقط مهارت های آماری اولیه را دارم. من نمی‌دانم که آیا می‌توان از هر آزمون آماری برای تجزیه و تحلیل مسابقات قبلی بین 2 تنیس‌باز برای ساختن یک نکته شرط‌بندی محکم استفاده کرد که در بلندمدت سودآور است. من انتظار پاسخی ندارم که من را میلیاردر کند (لل، 4 مطمئنم که من اولین کسی نیستم که به این فکر می کنم)، اما برخی ورودی ها، چگونه به این کار نزدیک می شوید و آیا امکان پذیر است. این سوال را به این دلیل می‌پرسم که اخیراً وب‌سایتی را دیده‌ام که چیزی شبیه به آنالیز مسابقات قبلی بازیکنان تنیس و ارائه نکاتی برای شرط‌بندی می‌سازد. [من نمی دانم که آیا من مجاز به ارسال لینک هستم، اگر من نیستم، لطفا این مدها را حذف کنید ;) http://www.superduper-tennis.com/ ] و این به نظر می رسد با توجه به نمودارهای او سودآور باشد: http ://www.tennisinsight.com/allTimeUserEarningsSummary.php?userID=28 پیشاپیش برای هر راهنمایی متشکریم!
ساختن یک سیستم نوک شرط بندی بر اساس مسابقات قبلی
87584
من فکر می کردم که این ممکن است شبیه به یک مشکل Mark and Recapture باشد که در آن یک کران بالایی شناخته شده وجود دارد، از این رو عنوان. من نسبتی را انجام می دهم اما گاهی اوقات تخمین بزرگتر از حد بالایی شناخته شده است. آیا راهی وجود دارد که بتوان پاسخ های ممکن را بین دو حد محدود کرد؟ مثال: فرض کنید از یک جمعیت شناخته شده (U=10000) در مجموع (X=8505) نفر (T=25916) خرید کرده اند. از این تعداد، تنها (A=4697) از آنها چیزی را با (R=8632) خرید ثبت کردند. تنها مقدار مجهول X است و ما می خواهیم آن را تخمین بزنیم. اغلب اوقات تخمین نسبت عالی عمل می کند، اما معمولاً اندازه واقعی را بیش از حد تخمین می زند - و در برخی موارد بیشتر از جمعیت شناخته شده است. در این مورد (X_est/T)=(A/R) که X_est=14102 را بدست آورد که بزرگتر از جمعیت شناخته شده است. آیا راهی برای گنجاندن اندازه جمعیت شناخته شده برای محدود کردن تخمین بین 0 و U وجود دارد؟ در حال حاضر من فقط هر چیزی را که بالاتر از U به عنوان U است سانسور می‌کنم که به‌نظر می‌رسد موقتی باشد زیرا مرزها باید در فرمول «ساخت‌شده» باشند (امیدوارم).
علامت گذاری و دوباره گرفتن با کران بالا شناخته شده
61218
من یک مجموعه داده طولی از افراد دارم که برخی از آنها تحت درمان قرار گرفتند و برخی دیگر تحت درمان نبودند. همه افراد از بدو تولد تا سن 18 سالگی در نمونه هستند و درمان در سنی بین آن محدوده انجام می شود. سن درمان ممکن است در موارد مختلف متفاوت باشد. با استفاده از تطبیق امتیاز تمایل، من می‌خواهم واحدهای درمان شده و کنترل را به صورت جفت با تطابق دقیق در سال تولد مطابقت دهم، به طوری که بتوانم هر جفت را از سال تولد تا سن 18 سالگی ردیابی کنم. در مجموع حدود 150 فرد تحت درمان و 4000 فرد درمان نشده وجود دارد. پس از تطبیق، ایده استفاده از استراتژی تفاوت در تفاوت ها برای تخمین اثر درمان است. مشکلی که در حال حاضر با آن روبرو هستم انجام تطبیق با داده های پانل است. من از دستور «psmatch2» Stata استفاده می‌کنم و با استفاده از تطبیق امتیاز تمایل، ویژگی‌های خانواده و فردی را مطابقت می‌دهم. به طور کلی با داده های پانل، مطابقت های بهینه متفاوتی در هر سنی وجود خواهد داشت. به عنوان مثال: اگر A تحت درمان قرار گیرد، B و C کنترل هستند، و همه آنها در سال 1980 متولد شده اند، A و B ممکن است در سال 1980 در 0 سالگی مطابقت داشته باشند، در حالی که A و C در سال 1981 در سن 1 سالگی و غیره مطابقت دارند. . همچنین A ممکن است با مقادیر قبل از درمان خود از سال های گذشته مطابقت داده شود. برای دور زدن این موضوع، میانگین همه متغیرهای متغیر با زمان را به‌گونه‌ای گرفتم که تطابق می‌تواند افرادی را که به طور متوسط ​​بیشترین شباهت را در طول مدت نمونه دارند شناسایی کند و من تطبیق را به طور جداگانه برای هر گروه سنی 0 تا 18 انجام می‌دهم. متأسفانه این هنوز با واحد کنترل متفاوتی در هر گروه سنی مطابقت دارد. اگر کسی بتواند من را به سمت روشی راهنمایی کند تا تطبیق دوتایی با داده های پانل در Stata را انجام دهم، بسیار سپاسگزار خواهد بود.
تطبیق امتیاز تمایل با داده های پانل
31922
من تابعی از دوجین متغیر گسسته دارم، $$y = f(x_1، ...، x_n)$$ و $k$ نمونه $y$ (بسیار)، $y$ پیوسته است. من می توانم از Matlab برای تجزیه و تحلیل داده ها با جعبه ابزار آمار استفاده کنم. هدف تجزیه و تحلیل رابطه بین $y$ و متغیرهای من است. به عنوان مثال، کدام متغیرهای $x_m$ بهترین تغییرات $y$ را توضیح می دهند؟ (من به استفاده از تجزیه و تحلیل مؤلفه های اصلی فکر می کردم، اما نمی توانم راهی برای تطبیق روش با آن فکر کنم) تا چه حد آنها روی $y$ تأثیر دارند؟ آیا می توانم خوشه ها را پیدا کنم؟ سوال من این است: آیا روش هایی دارید که باید آنها را بررسی کنم و راهنمایی هایی در مورد اینکه چگونه آنها را با تجزیه و تحلیل من تطبیق دهم؟ متشکرم
چگونه می توانم تأثیر چندین پیش بینی کننده طبقه بندی را بر روی یک متغیر نتیجه ارزیابی کنم؟
86974
من سه مدل ARMA(p,q) برای متغیر X دارم و با استفاده از هر مدل پیش‌بینی‌هایی را برای 12 ماه آینده ایجاد می‌کنم. توجه داشته باشید که در هر سه مدل باقیمانده به طور معمول توزیع می شود. حال اگر بخواهم **_پیش بینی میانگین_** و **_انحراف استاندارد_** را با استفاده از پیش بینی های سه مدل ARMA(p,q) برای دوره T+12$ تولید کنم، باید کارهای زیر را انجام دهم: $$ \mu_{avg,T+12} = \frac{\mu_{model1, T+12}+ \mu_{model2, T+12}+\mu_{model3, T+12}}{3} $$ $$ \sigma_{avg,T+12} = \sqrt{\sigma^{2}_{model1, T+12} + \sigma^{2}_{model2, T+12}+\sigma^{2}_{model3, T+12} } $$ اگر نه، چگونه می توانم اقدام کنم آن را؟
ترکیب پیش بینی از مدل های ARMA
77775
من در حال یادگیری تجزیه و تحلیل خوشه‌بندی هستم و کتابی که خواندم می‌گوید مدل خوشه‌بندی باید در مجموعه داده‌های غیرمتناسب اعمال شود تا سازگاری مدل بررسی شود. من فکر می‌کنم در تجزیه و تحلیل خوشه‌بندی، ما نیازی به تقسیم داده‌ها به مجموعه‌های آموزشی و آزمایشی مانند یادگیری تحت نظارت نداریم، زیرا بدون برچسب‌ها چیزی برای آموزش وجود ندارد. پس معنای احتمالی این «ثبات» چیست؟ چگونه ارزیابی می شود؟ آیا این مجموعه داده های ناهمگون واقعا ضروری است؟ متشکرم ویرایش: واقعاً زمینه وسیع تری وجود ندارد. متن در مورد نحوه انتخاب تعداد بهینه خوشه صحبت می کند و سپس به این موضوع اشاره می کند. فکر نمی‌کنم این ثبات در مورد تعداد خوشه‌ها باشد...
آیا تقسیم داده ها در خوشه بندی مانند یادگیری نظارت شده ضروری است؟
100976
من دو متغیر طبقه بندی دارم و به دنبال انجام یک آزمون کای دو بودم. سپس متوجه شدم که فرکانس های پایینی در جدول احتمالی خود دارم و فکر کردم که تست دقیق فیشر ممکن است مفید باشد. من اکنون پس از مطالعه کامل به دایره کامل رسیده ام و می خواهم از Chi Squared پیرسون با تصحیح n-1 استفاده کنم. آیا راهی در R برای اجرای chisq.test با تصحیح n-1 وجود دارد (در اینجا بحث می شود: با توجه به قدرت رایانه های این روزها، آیا تا به حال دلیلی وجود دارد که به جای آزمون دقیق فیشر، یک تست chi-squared انجام دهیم؟)؟ اگر نه، چگونه تصحیح را روی خروجی مجذور کای پیرسون اعمال کنم؟ با فرض حجم نمونه 80: (80-1)/80 = 0.9875 آیا به سادگی آمار Chi-Squared را در 0.9875 ضرب کنم و سپس از این مقدار برای استخراج مقدار p استفاده کنم؟ 2.9687 * 0.9875 = 2.931591 1-pchisq(2.931591,4) p = 0.569338
N-1 Pearson's Chi-Square در R
31929
من روی دو گروه آزمایشی و کنترلی تحقیق می کنم که به صورت تصادفی انتخاب نشده اند. در واقع این دو گروه _گروه های دست نخورده_ هستند. هدف، یافتن تأثیر تعداد زبان‌هایی است که زبان‌آموزان می‌دانند بر پیشرفت تحصیلی خود. طرح انتخابی پیش آزمون پس آزمون گروه غیر معادل است. از کدام روش آماری برای تجزیه و تحلیل داده ها استفاده کنم؟
تجزیه و تحلیل داده های گروه های غیر معادل در یک طرح نیمه تجربی
22071
من به دنبال یک نمونه کد ساده از نحوه اجرای فیلتر ذرات در R هستم. به نظر می‌رسد که بسته pomp از بیت ریاضی فضای حالت پشتیبانی می‌کند، اما این مثال‌ها برای یک توسعه‌دهنده OO ساده مانند من کمی دشوار است که از نظر برنامه‌ریزی دنبال شوند. نحوه بارگذاری داده های مشاهده شده در یک شیء با شکوه * مثال‌ها در اینجا: http://cran.r-project.org/web/packages/pomp/vignettes/intro_to_pomp.pdf فرض کنید من یک فایل csv با 1 ستون داده نویزدار به عنوان ورودی دارم و می‌خواهم آن را اجرا کنم از طریق یک فیلتر ذرات به منظور پاک کردن آن، با خروجی تخمین ها، به یک فایل csv دیگر. y <- read.csv(C:/Dev/VeryCleverStatArb/inputData.csv، header=FALSE) #CSV به شی Pomp ??? #فیلتر ذرات را اجرا کنید #براوردها را در csv بنویسید. مشکل اصلی با مثال‌ها بارگذاری داده‌های csv در یک شی pomp است. یک مدل فضای حالت بسیار ساده در حال حاضر باید به اندازه کافی خوب باشد. آیا ایده ای برای R-Curious دارید؟
فیلتر ذرات در R - مثال کد بی اهمیت
50654
آیا راهی برای بررسی سوگیری انتشارات در فراتحلیل مطالعات موردی منفرد وجود دارد؟ معمولاً می توان سوگیری انتشار را با استفاده از نمودارهای قیف یا آزمون ایگر برای ارزیابی عدم تقارن نمودار قیف ارزیابی کرد. با این حال، این روش‌ها به تخمینی از واریانس مطالعات فردی نیاز دارند. در مورد مطالعات موردی منفرد، چنین اندازه گیری واریانس معمولاً در دسترس نیست. بنابراین آیا راهی برای ارزیابی سوگیری انتشار در این مورد وجود دارد؟ در اینجا یک مثال ساختگی در R ارائه می‌دهم. در یک متاآنالیز از مطالعات موردی، همه مطالعاتی که به بررسی تغییر در نمره علائم به دنبال درمان می‌پردازند، ارزیابی شده‌اند: # تغییر_نمره <- c(-3,-2,-1,-- 7،-8،-11،-1،-10،-4،-11)
سوگیری انتشار در متاآنالیز مطالعات موردی منفرد
91499
فرض کنید به ما دو بردار **u**، **v** $\in \mathbb{R}^n$ داده شده است و تابعی می خواهیم که اگر ترتیب عناصر هر دو بردار یکسان باشد، 0$ را برمی گرداند. یا یک عدد مثبت در غیر این صورت، جایی که هر چه تعداد عدم تطابق بیشتر باشد، مقدار مثبت بزرگتر است. ما می خواهیم اطمینان حاصل کنیم که بالاترین مقادیر بردار **u** در همان موقعیت های بالاترین مقادیر در بردار **v** باشد. به عنوان مثال: فرض کنید که **u** = {3.2، 1.5، -3، 0} و **v** ={-2.1، 1، 1.1، -0.5}، بنابراین رتبه این بردارها (نزولی سفارش): $r_u$={1،2،4،3} و $r_v$={4،2،1،3}. بنابراین، در این مورد ما دو مطابقت {2،3} و دو عدم تطابق {1،4} داریم. نکته دیگر این است که بالاترین مقدار بردارهای **u** و **v** در مجموعه عدم تطابق است، در این صورت جریمه باید سخت تر از عدم تطابق در مقادیر کمتر باشد. ساده ترین راه برای انجام این کار، محاسبه رتبه هر بردار، $r_u$ و $r_v$ است، و سپس محاسبه $L_2$-norm، برای مثال، از تفاوت بین این رتبه ها: $f(r_u,r_v) = \|r_u-r_v\|^2_2$. با این حال، از آنجایی که این تابع یک عبارت از مسئله بهینه‌سازی من است، در هر تکرار الگوریتم بهینه‌سازی، لازم است رتبه‌های این بردارها دوباره محاسبه شود، زمانی که هر دو بردار پارامترهایی هستند که باید یاد بگیرند و هر تکرار را تغییر می‌دهند. بنابراین، این رویکرد از نظر محاسباتی می تواند بسیار گران باشد. گزینه دیگر با شمارش تعداد جفت های همخوان (http://en.wikipedia.org/wiki/Concordant_pair) بردارها است، با این حال باید تعداد جفت های همخوان (یا ناسازگار) را در هر تکرار بازشماریم. آیا کسی با مشکل مشابهی مواجه شده است؟
منظم سازی در بردارهای نامرتب
66194
من اخیراً آزمایش هایی را برای مقایسه برخی روش های رایج اعتبار سنجی داخلی انجام دادم. در زمینه من، استفاده از اعتبار سنجی نگهدارنده 1:1 بسیار رایج است، حتی با مجموعه داده های بسیار کوچک، و من می خواستم به همکارانم نشان دهم که ممکن است گاهی اوقات جایگزین هایی وجود داشته باشد. من مجموعه داده بزرگی از حدود 30000 مشاهده داشتم. من 1000 را به طور تصادفی گرفتم، یک مدل را برازش کردم و سپس 4 روش اعتبارسنجی داخلی زیر را برای برآورد خطا انجام دادم. من این را با نرخ واقعی خطا از 29000 مشاهده باقی مانده مقایسه کردم. من کل این فرآیند را 500 بار تکرار کردم، هر بار 1000 مشاهده را دوباره نمونه‌برداری کردم و مدل را دوباره برازش کردم و غیره. مدل یک رگرسیون OLS با 10 متغیر بود. نتایج تا حد زیادی همان‌طور بود که انتظار داشتم: خطای جایگزینی به‌طور خوش‌بینانه سوگیری داشت، سوگیری و واریانس در روش‌های بوت استرپ و اعتبارسنجی متقاطع کم بود، و واریانس روش اعتبارسنجی تک نگهدارنده بسیار زیاد بود. چیزی که من انتظارش را نداشتم (و از توضیح آن ناامید هستم) تعصبی است که در روش نگهدارنده مشاهده می کنم. من فرض کرده بودم که واریانس بالا است، اما با سوگیری کم. آیا شخص دیگری این نوع رفتار را دیده است؟ یا شاید نتیجه طراحی تجربی من است؟ **در جهت عقربه های ساعت از بالا سمت چپ: بوت استرپ تصحیح شده با خوش بینی، خطای تعویض مجدد، CV 10 برابری، تکی 1:1 توقف **![نتایج](http://i.stack.imgur.com/PdVzd.png) باید توجه داشته باشید، من در اینجا نگران انتخاب مدل در اینجا نیستم - این مدل قبلا منتشر شده بود، و من فقط به نحوه عملکرد آن در هنگام اعمال روی داده های من علاقه مند هستم.
آیا اعتبار سنجی نگهدارنده می تواند به طور سیستماتیک سوگیری شود؟
4642
من با تکنیک های متا آنالیز و متا رگرسیون (با استفاده از بسته R `metafor` از Viechtbauer) آشنا هستم، اما اخیراً به مشکلی برخوردم که به راحتی نمی توانم آن را حل کنم. بگویید ما بیماری داریم که می تواند از مادر به جنین منتقل شود و قبلاً چندین بار مطالعه شده است. مادر و کودک بلافاصله پس از تولد برای ویروس آزمایش شدند. از آنجایی که یک کودک متولد نشده به غیر از مادر ممکن است ویروس را دریافت کند، انتظار می رود جدول های متقاطع مانند: | نگ بچه | pos kid مادر neg | A | C=0 -----------|---------|-------- پست مادر | ب | D بدیهی است که استفاده از نسبت‌های شانس (OR) خطاهایی را نشان می‌دهد که تقسیم بر 0 می‌شود. همین امر برای خطرات نسبی: $\frac{A/(A+B)}{0/(0+D)}$ اکنون محققان می‌خواهند این فرضیه (بی معنی) را آزمایش کنید که آیا عفونت کودک با عفونت مادر مرتبط است (که بسیار بسیار واضح به نظر می رسد). من سعی می کنم این فرضیه را مجدداً فرموله کنم و به چیزی برسم که منطقی باشد، اما واقعاً نمی توانم چیزی پیدا کنم. برای پیچیده تر کردن همه چیز، برخی از بچه ها با مادران منفی در واقع مثبت هستند، احتمالاً به دلیل عفونت در هفته اول. بنابراین من فقط تعدادی مطالعه دارم که در آنها C = 0 است. از پیوند به مقالات علمی نیز استقبال می شود.
تجزیه و تحلیل متا در مطالعات با سلول های 0 فرکانس
66193
من یک متغیر تصادفی چند متغیره Bernouli $ $ \ textbf {x} = (x_1 ، ... ، x_n) $ ، که در آن $ x_i $ متغیرهای تصادفی Bernoulli با پارامترهای $ p_i $ و $ n \ $ n $ matrix $ هستم. \textbf{C}$. چگونه انتخاب‌های $p_i$ انتخاب‌های $C$ را محدود می‌کنند و بالعکس؟ در یک مورد شدید، جایی که $X_i$ همه مستقل هستند، همه انتخاب های $p_i$ معتبر هستند. در یک مورد شدید دیگر، جایی که $X_i$ همه کاملاً همبسته هستند، $p_i$ باید یکسان باشد. اما من دوست دارم موارد میانی را بهتر درک کنم. هر دو پاسخ بصری و دقیق تر بسیار قدردانی می شود.
چگونه انتخاب‌های احتمالات و ماتریس‌های کوواریانس یکدیگر را برای یک متغیر تصادفی برنولی چند متغیره همبسته محدود می‌کنند؟
98958
من در حال تجزیه و تحلیل برخی از داده‌ها با استفاده از مدل‌سازی جلوه‌های ترکیبی خطی در R هستم. من قصد دارم پوستری با نتایج بسازم و فقط می‌دانم که آیا کسی با مدل‌های جلوه‌های ترکیبی تجربه می‌تواند پیشنهاد دهد که از کدام طرح‌ها برای نشان دادن نتایج استفاده شود. مدل من در مورد نمودارهای باقیمانده، نمودار مقادیر برازش شده در مقابل مقادیر اصلی و غیره فکر می کردم. می دانم که این بسیار به داده های من بستگی دارد، اما من فقط سعی می کردم بهترین راه را برای نشان دادن نتایج مدل های اثر مختلط خطی به دست بیاورم. من از بسته nlme در R استفاده می کنم. با تشکر
نمودارهایی برای نشان دادن نتایج مدل اثر مختلط خطی
96979
من دقت ساعت‌های GPS را ارزیابی می‌کنم، و تعداد زیادی را در فاصله‌ای مشخص می‌خوانم. من انحراف معیار را با استفاده از میانگین خواندن محاسبه کرده‌ام، اما چون می‌دانم خوانش باید چقدر باشد، می‌توانم از آن به جای میانگین استفاده کنم. آیا این کار معقولی خواهد بود؟
آیا اندازه گیری انحراف معیار از مقدار واقعی به جای میانگین منطقی است؟
77771
بگذارید $X$ و $Y$ دو i.i.d باشند. مجذور کای متغیرهای تصادفی را با چهار درجه آزادی توزیع کرد. چگونه می توانیم تابع توزیع احتمال مشترک متغیرهای تصادفی $U=(X-Y)/(X+Y)$, $V=X+Y$ را بدست آوریم؟
pdf مشترک دو متغیر تصادفی به عنوان توابع دو iid chi-square تعریف شده است
100979
معمولا تمام تست هایی که ما استفاده می کنیم با افزایش حجم نمونه دارای قدرت افزایشی هستند. اما اگر آزمونی سازگار نباشد چه؟ آیا شایسته نیست چنین آزمونی ایجاد شود؟ یا استفاده از آزمون ناسازگار تحت شرایطی قابل توجیه است؟ به طور خاص، به عنوان ناهماهنگی اغلب به دلیل مدل توزیعی است؟ یک آزمایش ناسازگار ممکن است هنوز هم قدرت غیر ضروری داشته باشد، فقط افزایش حجم نمونه نتیجه نمی دهد. آیا استفاده از یک آزمون ناسازگار فقط برای نمونه های کوچک و یک آزمون ثابت می تواند معقول باشد زیرا قدرت او بر آزمون ناسازگار برتری دارد؟ (می‌دانم که آزمون‌های مرتبطی وجود دارد. آنها نیز سازگار هستند، اما معایب آزمون‌های فرضیه نقطه ثابتی را ندارند که حتی تأثیرات عملاً نامربوط را به‌عنوان معنادار نشان می‌دهند.) (آزمون‌های متناقضی وجود دارد: به عنوان مثال برای پارامتر مکان یک توزیع کوشی جابجا شده از آنجایی که میانگین آن توزیعی مشابه با یک مشاهده دارد، می توان برای همه اندازه های نمونه مقدار بحرانی را از بین انتخاب کرد. چندک توزیع کوشی، اما معمولاً از یک آزمون سازگار ناپارامتریک استفاده می شود.
آیا آزمایش های ناسازگار قابل تحمل هستند؟
100975
من 50 اندازه گیری از 10 توصیفگر و 1 متغیر خروجی باینری دارم. من می‌خواهم از یک روش طبقه‌بندی استفاده کنم تا بتوانم خروجی را پیش‌بینی کنم، بنابراین داده‌ها را به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم می‌کنم و سپس می‌توانم طبقه‌بندی کننده خود را تولید کنم (من از درخت تصمیم استفاده می‌کنم) و آن را روی مجموعه آزمایشی آزمایش کنم. اکنون، بدیهی است که انتخاب مجموعه تست کاملاً دلخواه است و، نتیجه روش من هر چه باشد، نمی توانم مطمئن باشم که نتیجه ای که برای آن مجموعه آزمایشی خاص به دست می آورم مشابه آنچه از هر مجموعه تست دیگری به دست می آورم باشد. بنابراین، آیا می‌توانم چندین بار طبقه‌بندی خود را تکرار کنم، هر بار با یک مجموعه آزمون/آموزش تصادفی انتخاب شده، سپس توزیع خطاهای طبقه‌بندی اشتباه را برای طبقه‌بندی‌کننده‌ام گزارش کنم؟ می‌دانم که این کمی شبیه به کاری است که جنگل‌های تصادفی انجام می‌دهند، اما نمی‌دانم که آیا این رویه زمانی که برای انواع دیگر طبقه‌بندی‌کننده‌ها، نه الزاماً درخت‌های تصمیم‌گیری اعمال می‌شود، منطقی است یا خیر.
انتخاب مجموعه تست برای طبقه بندی
114
چه وبلاگ های تحقیقاتی آماری را پیشنهاد می کنید و چرا؟
چه وبلاگ های آماری را پیشنهاد می کنید؟
4640
در R، فرمان «step» ظاهرا برای کمک به شما در انتخاب متغیرهای ورودی مدل خود در نظر گرفته شده است، درست است؟ موارد زیر از «مثال (گام)#-> سوئیس» و «گام (lm1)» > مرحله (lm1) شروع: AIC=190.69 باروری ~ کشاورزی + امتحان + آموزش + کاتولیک + نوزادان. مرگ و میر Df مجموع مربع RSS AIC - امتحان 1 53.03 2158.1 189.86 <هیچ> 2105.0 190.69 - کشاورزی 1 307.72 2412.8 195.10 - نوزادان. مرگ و میر 1 408.75 2513.8 197.03 - کاتولیک 1 447.71 2552.8 2552.8 - 1621. آموزش 197.8 3267.6 209.36 مرحله: AIC=189.86 باروری ~ کشاورزی + آموزش + کاتولیک + نوزادان. مرگ و میر Df مجموع مربع RSS AIC <هیچ> 2158.1 189.86 - کشاورزی 1 264.18 264.18 2191.2M -21922. 409.81 2567.9 196.03 - کاتولیک 1 956.57 3114.6 205.10 - آموزش 1 2249.97 4408.0 221.43 تماس: lm(فرمول = باروری ~ کشاورزی + داده ها + آموزش ضرایب: (برق) آموزش کشاورزی 62.1013 -0.1546 -0.9803 کاتولیک نوزاد. مرگ و میر 0.1247 1.0784 حالا، وقتی به این نگاه می کنم، حدس می زنم جدول مرحله آخر مدلی است که باید استفاده کنیم؟ چند خط آخر شامل تابع تماس است که مدل واقعی و چه متغیرهای ورودی را شامل می شود، و ضرایب تخمین پارامترهای واقعی برای این مقادیر هستند، درست است؟ پس این مدلی است که من می خواهم، درست است؟ من سعی می کنم این را به پروژه خود تعمیم دهم، جایی که متغیرهای بیشتری وجود دارد.
تفسیر خروجی گام در R
101006
من می‌دانم که در عوض اعتبارسنجی متقابل با استفاده از داده‌های جدید صحیح است. چرا اینطور است؟ فقط این است که یک مدل تمایل دارد با مجموعه داده‌ای که برای ایجاد آن استفاده شده است بهتر از مجموعه داده‌های نمونه‌گیری تصادفی دیگری مطابقت داشته باشد؟ آیا هرگز می توان استفاده از داده های مشابه برای EFA و CFA را توجیه کرد؟
چرا کشف عوامل با استفاده از EFA و سپس استفاده از CFA روی همان داده‌ها برای تأیید آن مدل عامل اشتباه است؟
93336
فرض کنید مجموعه ای از اعداد $\\{1,2,...,m\\}$ دارید که $m \ge 5$ . اکنون به طور تصادفی پنج مورد از آن عناصر را با جایگزینی انتخاب می‌کنید، $\text{a}_1$ ... $\text{a}_5$. توزیع حداکثر ($\text{a}_1$,$\text{a}_2$,$\text{a}_3$,$\text{a}_4$,$\text{a}_5) چقدر است دلار)؟
توزیع حداکثر نمونه با جایگزینی
5150
من یک سیستم احراز هویت بیومتریک دارم که از راه رفتن افراد برای احراز هویت استفاده می کند. من ویژگی‌ها را از راه رفتن استخراج می‌کنم، آن را از طریق مقایسه در مقابل یک الگو اجرا می‌کنم و یک امتیاز شباهت ایجاد می‌کنم (که اگر این امتیاز شباهت زیر یک آستانه مشخص باشد، کاربر احراز هویت می‌شود). بنابراین، من در مجموع 72 کارآزمایی دارم (36 کارآزمایی حاوی یک مورد مثبت و 36 کارآزمایی حاوی یک مورد منفی). کاری که من می‌خواهم انجام دهم این است که توانایی این سیستم برای احراز هویت افراد را با نشان دادن آن با یک نمودار ROC ترسیم کنم. متأسفانه، من دقیقاً نمی دانم چگونه آستانه را انتخاب کنم. آیا روشی ریاضی برای انتخاب آستانه برای نمرات شباهت وجود دارد؟ آیا من فقط یک دسته از آستانه های مختلف را انتخاب می کنم و منحنی های ROC مربوطه را برای همه این مقادیر آستانه متفاوت ترسیم می کنم؟ نمرات شباهت حاصل از [0.6،1.2] که در آن موارد مثبت در حدود 0.6 قرار دارند متفاوت است. تمام کدنویسی من در Matlab انجام می شود.
انتخاب آستانه مناسب برای سیستم احراز هویت صفات بیومتریک
104079
من یک آکچوئری هستم که روی یک مدل ذخیره ضرر بیزی با استفاده از داده‌های میانگین شدت افزایشی کار می‌کنم. به نظر می‌رسد تحلیل اکتشافی پاسخ نشان می‌دهد که توزیع نرمال کج از نوعی مناسب است، زیرا مقادیر منفی در دم سمت چپ وجود دارد و مقادیر مثبت تبدیل‌شده ورود به سیستم به خوبی با توزیع نرمال مطابقت دارد. من از این پست توسط گلن مایرز الهام گرفتم و احساس می کنم که پارامتر دومی باید به راحتی در JAGS پیاده سازی شود. با این حال، از آنجایی که من به JAGS عادت ندارم، در حال تلاش برای تنظیم مدل هستم. در اینجا نمونه ای از کاری است که من سعی می کنم انجام دهم. #احتمال (مجموعه تمرین) برای (i در 1:n){ y[i] ~ dnorm(z[i]، tau) z[i] ~ dlnorm(mu[i]، tauln) mu[i] <- beta1 *Dev[i] + ... } من مطمئن نیستم که چگونه $\mu_i$s منفی را در غیاب ساختارهای کنترلی کنترل کنم (`if`, `else`, و غیره...) من عادت دارم. من باید مقدار صفر یا منفی $\mu_i$s را مستقیماً به پارامتر میانگین برای پاسخ _y_ i منتقل کنم. آیا راه هوشمندانه ای برای انجام این کار با تابع step وجود دارد؟ آیا باید به روش دیگری مخلوط نرمال-log-نرمال را مشخص کنم؟ FYI - من هم این سوال را اینجا پست کردم.
مشخص کردن مخلوط طبیعی-نرمال (نرمال و نرمال) در WinBugs/JAGS
77774
من معتقدم یکی از مزایای عمده استنتاج بیزی، شهودی بودن تفسیر است. این علاقه اولیه من است. با این حال، برای من کاملاً روشن نیست که چه زمانی انجام چنین تفسیری خوب است. من این فرض بالقوه نادرست را مطرح می‌کنم که برازش یک مدل احتمال به روش مکرر تقریباً مشابه برازش مدل مشابه با یک پیشین مسطح به روش بیزی است. لطفاً آن را به عنوان علاقه شماره یک (1) مشخص یا تصحیح کنید. و علاقه اصلی من (2) این است که اگر فرض من درست باشد (و اگر یک قبلی مسطح بهترین قبلی است که احتمالاً می توانم به دست بیاورم)، آیا قسمت عقبی مدل به روشی مکرر برازش شده است، اما نمونه برداری شده با یک نمونه‌گر MCMC، اجازه می‌دهید تفسیری از نوع بیزی داشته باشم؟ به عنوان مثال، احتمال اینکه فردی که با پیکربندی خاص X$ توصیف می‌شود، درآمدی (Y$) بیشتر از 100 هزار دلار داشته باشد، 76٪ است. من خوانده ام که چیزی که یک تحلیل را بیزی می کند این است که شامل اطلاعات قبلی است. آیا واقعاً این اصل است؟ همچنین خوانده‌ام که نمی‌توانید به عنوان مثال من در مورد درآمد حاصل از نتایج مکرر چنین تفسیرهایی انجام دهید. آیا نمونه برداری از روش های MCMC به اندازه کافی من را از روش های متداول دور می کند تا تفسیر بیزی داشته باشم؟ من بسیار قدردان هدایت شما هستم. متشکرم.
چه زمانی می توانم تفسیر بیزی از پسین انجام دهم؟
85405
من یک سوال در مورد چگونگی ارزیابی توافق بین رتبه یک فرد و گروهی از افراد (که آن فرد بخشی از آن بود) دارم. امتیاز گروه از طریق اجماع به دست آمد (یعنی آنها به صورت گروهی روی یک امتیاز توافق کردند). من در ابتدا قصد داشتم از کاپا برای بررسی توافق بین دو امتیاز استفاده کنم، اما اکنون این رویکرد را زیر سوال می‌برم. آیا ایده ای در مورد اینکه چگونه می توانم تفاوت یا توافق بین دو امتیاز را ارزیابی کنم؟ نگرانی اصلی من استقلال است. داده ها چیزی شبیه به این هستند: ID IndividualScore GroupScore 1 5 3 2 4 2 و غیره
مقایسه میانگین برای فردی در مقابل اجماع
4643
من در ابتدا این را در یک سایت یادگیری ماشین پرسیدم، اما یکی از پاسخ ها باعث شد فکر کنم که شاید این سایت مناسب تر باشد. فرض کنید دو سکه وزن دارید و هر روز هر کدام را چند بار ورق می زنید و تعداد کل سرها را ثبت می کنید. بنابراین در روز دهم ممکن است سکه A را 106 بار، سکه B را 381 بار ورق بزنید و 137 سر ثبت کرده باشید. با فرض اینکه هدف شما تعیین وزن هر سکه است، آیا معقول است که فقط تعداد سرها را بر روی تعداد ورق‌های هر سکه رگرسیون کنید؟ به عنوان مثال، چیزی در امتداد خطوط: num_heads ~ num_flips_A + num_flips_B + intercept با این حال، به نظر نمی رسد که یک عبارت رهگیری در این سناریو وجود داشته باشد (برای داده های من منفی است، که گیج کننده است)، بنابراین سعی کردم تفریق کنم. خارج از -1 از فرمول، و به نظر می رسید که نتایج معقولی داشته باشد. اولین سوال من این است که آیا این رویکرد خوب است؟ حال، فرض کنید که به وجود سکه سوم، C، مشکوک هستید، که شخص دیگری بدون اطلاع شما در حال چرخیدن است و سر آن سکه در شمارش شما قاطی می شود. تعداد ورق‌های این سکه ثبت نشده است، اما شما به وزن آن اهمیت خاصی نمی‌دهید - این بیشتر یک عامل مخدوش‌کننده است. پس آیا منطقی است که با یک رگرسیون مشابه مطابقت کنیم، اما رهگیری را محدود کنیم تا مثبت باشد؟ برای هر کمکی متشکرم
سوال رگرسیون اسباب بازی با متغیرهای پنهان
72118
من در حال ساخت یک مدل لاجیت با استفاده از R هستم و نتیجه 88.9٪ دقت را دریافت می کنم (با استفاده از ROC [در جغجغه، برگه ارزیابی] با استفاده از 30٪ از مجموعه داده 34k من تأیید شده است). چه نوع آزمایشی جالب است که انجام دهم تا به خودم گواهی دهم که مدل خوبی است؟
چگونه یک مدل لاجیت را در R آزمایش کنیم؟
5158
من می‌دانم که وقتی از یک جامعه محدود نمونه‌گیری می‌کنیم و حجم نمونه ما بیش از 5٪ جامعه است، باید میانگین و خطای استاندارد نمونه را با استفاده از این فرمول اصلاح کنیم: $\hspace{10mm} FPC=\sqrt{\ frac{N-n}{N-1}}$ که در آن N اندازه جامعه و n حجم نمونه است. من 3 سوال در مورد این فرمول دارم: 1. چرا آستانه 5٪ تعیین شده است؟ 2. فرمول چگونه به دست آمد؟ 3. آیا منابع آنلاین دیگری غیر از این مقاله وجود دارد که به طور جامع این فرمول را توضیح دهد؟ ممنون
توضیح ضریب تصحیح محدود
101008
من یک دنباله مستقل از متغیرهای تصادفی دارم به طوری که P($X_n = \pm1) = \frac{1-2^{-n}} {2} $ و P($X_n = 2^ k)=2^{- k}$ برای k = n+1,n+2,... یک دنباله جدید از متغیرهای تصادفی را با $Y_n = X_n$ تعریف کنید اگر $X_n = \pm1$Y_n $ = 0 دلار در غیر این صورت. P($Y_n = y)$ را پیدا کنید چگونه این کار را انجام دهیم؟ من تا کنون ثابت کرده ام که $X_n$ و $Y_n$ معادل دم هستند. من باید شرط لیاپانوف را برای مجموع $Y_n$ ثابت کنم که اگر بتوانم E($Y_n)$ را پیدا کنم می توانم آن را ثابت کنم اما اینجاست که گیر کرده ام.
pmf برای تابعی از متغیرهای تصادفی
108866
من سوالم را «خوشه‌بندی» نامیده‌ام، اما مطمئن نیستم که این اصطلاح درستی باشد یا خیر. تصور کنید ماتریس من به این شکل است: [0. , 0.92، 0. 0.85، 0.] [0.92، 0.، 0.، 0.89، 0.] [0.85، 0.، 0.، 0.89، 0.] [ 0. 0. 0. 0. 0. 0. ] [ 0.، 0.89، 0.، 0.89، 0. ] چیزی که من دنبال آن هستم، یک خوشه بندی/دندروگرام واحد از شاخص ها نیست، من به دنبال استخراج بزرگترین مستطیل های ممکن از ماتریس هستم (با مرتب کردن مجدد شاخص های X/Y ). به عنوان مثال، از موارد فوق انتظار دارم: [0.92، 0.89، 0.، 0.، 0.] [0.85، 0.89، 0.، 0.، 0.] [0. 0.85، 0.92، 0. ، 0. ] [0. ، 0.89، 0.89، 0. , 0. ] [ 0. , 0. , 0. , 0. , 0. ] با این حال، من انتظار دارم که هر خوشه شناسایی شود، حتی اگر امکان نمایش همه آنها در یک ماتریس وجود نداشته باشد. الگوریتمی که باید دنبالش باشم چیست؟ من الگوریتم‌های مختلف خوشه‌بندی را امتحان کرده‌ام و آنها بهترین خوشه‌بندی را به من ارائه می‌دهند، نه تمرکز بر بهترین افراد (که با یکدیگر ناسازگار هستند).
پیدا کردن خوشه مستقل در یک ماتریس
100974
در مقاله کینگ و ژنگ: http://gking.harvard.edu/files/gking/files/0s.pdf آنها به $\tau$ و $\bar{y}$ اشاره کرده اند. من قبلاً داده هایی با 90000 0 و 450 1 دارم. من قبلاً یک رگرسیون لجستیک را با کل داده ها تطبیق داده ام و می خواهم یک تصحیح قبلی در رهگیری انجام دهم. یا باید حدود 3000 0 و 450 1 بگیرم و سپس رگرسیون لجستیک را اجرا کنم و سپس اصلاح قبلی را روی رهگیری اعمال کنم؟ آیا $\tau$ = 450/90450 و $\bar{y}$ = 450/3450 خواهد بود؟ **ویرایش** بر اساس پاسخ اسکورچی من سعی می کنم احتمال وقوع یک خواستگاری را پیش بینی کنم. ممکن است یک مسابقه بین یک خریدار و فروشنده، دو فرد احتمالی در یک سایت دوستیابی، یا یک جوینده کار و کارمند احتمالی اتفاق بیفتد. 1 زمانی است که یک تطابق اتفاق می افتد، صفر برای همه تعاملات زوجی دیگر که ثبت شده اند. من داده های واقعی از یکی از این موارد استفاده دارم. همانطور که قبلا گفته شد، نرخ 1 در داده ها بسیار کوچک است (=450/(450+90000). من می خواهم یک مدل رگرسیون لجستیک با تصحیح کینگ و همکاران بسازم. داده هایی که دارم می توان فرض کرد که همه هستند. داده های ممکن یعنی کل جهان هستی من فرض می کنم نرخ 1 در جهان 450/(450 +) باشد. من می خواهم از تمام 1ها (450 عدد از آنها) و 3000 عدد تصادفی از این جهان داده نمونه برداری کنم. آیا این درست است که در اینجا فرض کنیم که $\tau$ = 450/(450 + 90000) و $\bar{y}$ = 450/(450+3000) من استدلال می‌کنم که $\tau$ واقعاً تخمین‌های جهان است، زیرا من تقریباً تمام داده‌های جمعیت هدف را دارم راه‌اندازی کنونی مشکل چگونه تعریف می‌شود: زمان اجرا مشکل نیست، اما نحوه اصلاح بایاس برای یک رویداد نادر مشکل است؟
تصحیح سوگیری رگرسیون لجستیک رویداد نادر
4649
اگر نتیجه یک بازار را بتوان به صورت احتمال بیان کرد، ممکن است این باشد: نتیجه - توضیحات - احتمال به صورت درصد 1. افزایش زیادی 20 درصد (مثلاً حرکتی بیش از 10٪) 2. کاهش زیادی 20 درصد 3. کمی به بالا 20% (حرکتی بین 0 تا 10%) 4. کمی پایین 20% 5. پهلوها 20% بنابراین احتمال هر نتیجه منفرد 1/5 یا 20٪ است. لطفاً کسی می تواند به من در مورد ریاضی اضافه کردن بازارهای دیگر و متعاقب آن آموزش دهد؟
چگونه احتمالات را ترکیب کنیم؟
93338
سوال من این است: آیا می توان مشاهدات را با هم ترکیب کرد، زمانی که همان کشورها در طول سال ها مشاهده می شوند؟ من مشاهداتی روی 37 کشور در سال 2010، 47 کشور در سال 2011 و 60 کشور در سال 2012 دارم. با این حال، این همان کشورها هستند که مشاهده شده اند (هر چند کشورهای بیشتری اضافه شده اند). اگر کشورها و سال ها را جمع آوری کنم، بنابراین 144 مشاهده داشته باشم و از ol های ادغام شده استفاده کنم، چه مشکلاتی ممکن است وجود داشته باشد؟ آیا باید از این دستور استفاده کنم: reg y x (با dummies زمان)، cluster(id) بعلاوه، آیا می گویید این مجموعه داده متعادل است یا نامتعادل؟ و این داده پانل است که من دارم، درست است؟
زمانی که مشاهدات گردآوری شده همان کشورها هستند
5159
قد برای 1000 دانش آموز تقریباً نرمال با میانگین 174.5 سانتی متر و انحراف معیار 6.9 سانتی متر است. اگر 200 نمونه تصادفی با اندازه 25 از این جامعه انتخاب شود و مقادیر میانگین به نزدیکترین عدد صحیح ثبت شود، احتمال اینکه میانگین قد دانش آموزان بیش از 176 سانتی متر باشد را تعیین کنید. از آنجایی که نمونه ها به نزدیکترین عدد صحیح گرد شده اند، باید به جای $P(X>176)$، $P(X>176.5)$ را پیدا کنم. آیا ما تأثیر گرد کردن مشاهدات را اینگونه محاسبه می کنیم؟ ویرایش: با توجه به پاسخ whuber: پاسخی که ماژول من داده است (هیچ کاری ارائه نشده است): $\hspace{1cm} n=25; Normal$ $\hspace{1cm} \mu_{\overline{x}}=174.5cm$ $\hspace{1cm} \sigma_{\overline{x}}=6.9/5=1.38$ پاسخ 0.1379 است. که من کاملاً مطمئن هستم که با استفاده از $1-\phi(\dfrac{176-174.5}{1.38})$ پیدا شده است، بنابراین، 1. آیا این پاسخ قابل قبولی است؟ 2. از آنجایی که $n$ کمتر از 30 بود، آیا یافتن احتمال با استفاده از توزیع t خوب است؟ متشکرم.
تصحیح به دلیل خطای گرد کردن
85402
من به تمرکز یک رویداد در یک بازه زمانی معین نگاه می کنم. برای مثال، فرض می‌کنیم که یک رویداد 4 بار در بازه‌ای به طول 10 رخ داده است. من می‌توانم آن را به‌عنوان رشته‌ای نشان دهم که در آن «X» به معنای _رویداد رخ داده است_ در حالی که «o» به معنای _رویداد رخ نداده است. توزیع رویدادها می تواند از نظر زمانی نسبتاً یکنواخت باشد: X o o X o o X o o X یا می توان آن را به این صورت متمرکز کرد: X X X o o o o o o X یا اینگونه: X o o o X X o o o X من به دنبال یک شاخص هستم یا فاصله ای که به من امکان می دهد غلظت وقوع رویداد را در فاصله زمانی خود اندازه گیری و مقایسه کنم. در حالت ایده‌آل می‌توان فاصله‌های طول‌های مختلف را با هم مقایسه کرد، برای مثال بین: X o X o X o X o X o X و: X o o o X X o X آیا شاخص یا معیاری می‌شناسید که چنین چیزی را مجاز کند. ? پیشاپیش سپاس فراوان
محاسبه شاخص تمرکز وقوع رویداد.
93334
من در حال انجام پروژه ای در مورد وزن کم هنگام تولد و وزن طبیعی هنگام تولد هستم که در 3 گروه سنی مختلف در یک آزمون شناختی آزمایش شده است. اگر بخواهم تفاوت های گروه تولد را بدانم آیا این یک ANOVA 2x3 محسوب می شود؟ آیا قبل از انجام ANOVA 2x3 باید ابتدا تست t یا آنووا یک طرفه انجام دهم تا بررسی کنم که آیا یک گروه تولد واقعی با سن متفاوت است یا خیر؟
2 گروه تولد 3 گروه سنی و یک متغیر، از چه تستی استفاده کنیم؟
104070
من تجربه زیادی با داده های پانل ندارم، بنابراین اگر این موضوع مسخره به نظر می رسد، پیشاپیش عذرخواهی می کنم. بیایید بگوییم که من سعی می کنم هنگام اجرای رگرسیون داده های پانل، اثرات ثابت فردی و زمانی را کنترل کنم و 998 فرد و 29 سال داده دارم. در Stata، راه مقابله با جلوه‌های ثابت چند متغیره، ایجاد متغیرهای ساختگی است که هر ترکیب را به‌طور منحصربه‌فرد شناسایی می‌کنند. در مورد من این خواهد بود (29×998) - 1 = 28941 متغیر ساختگی. آیا این منجر به چند خطی بودن بسیار بالا می شود؟ اگر حدود 74000 نفر داشتم چه می شد؟ دل من به من می گوید که این مسخره است، اما حس درونی و آمار واقعاً با هم خوب نیستند.
روش صحیح مقابله با اثرات ثابت چندگانه هنگام برخورد با تعداد زیادی مشاهدات در رگرسیون داده های پانل چیست؟
113
من به دنبال چارچوب های نظری برای انتخاب روش (توجه: نه انتخاب مدل) بوده ام و کار بسیار کمی سیستماتیک و با انگیزه ریاضی پیدا کرده ام. منظور من از انتخاب روش چارچوبی برای تشخیص روش مناسب (یا بهتر، بهینه) با توجه به یک مشکل یا نوع مشکل است. چیزی که من پیدا کرده‌ام این است که روی روش‌های خاص و تنظیم آن‌ها (یعنی انتخاب قبلی در روش‌های بیزی) و انتخاب روش از طریق انتخاب سوگیری (مثلاً خط‌مشی استقرایی: عمل‌شناسی انتخاب سوگیری) کار قابل‌توجهی، اگر جزئی باشد. من ممکن است در این مرحله اولیه توسعه یادگیری ماشین غیر واقعی باشم، اما امیدوار بودم چیزی شبیه آنچه که تئوری اندازه‌گیری در تجویز تبدیل‌ها و تست‌های قابل قبول بر اساس نوع مقیاس انجام می‌دهد، بیابم، که فقط در حوزه مسائل یادگیری بزرگ می‌نویسند. پیشنهادی دارید؟
چند چارچوب خوب برای انتخاب روش چیست؟
45852
من در تجزیه و تحلیل و تجسم داده ها نسبتاً تازه کار هستم، و سعی می کنم بهترین مدل را برای نشان دادن برخی داده ها در مورد زمان بارگذاری صفحه (در ثانیه) پیدا کنم. نمای فعلی یک نمودار خطی است که در آن محور x صفحه و محور y زمان بارگذاری است. اگرچه این نمودار از نظر بصری گمراه کننده است، زیرا در ذهن من، انتظار روانشناختی از نمودار خطی این است که چیزی را در طول زمان منتقل کند. از آنجایی که چند نقطه پرت در داده‌ها وجود دارد که زمان بارگذاری صفحه بسیار طولانی‌تر از میانگین است، ممکن است فردی که به نمودار نگاه می‌کند خاموش شود زیرا چشمانش به نقاط پرت می‌رود، بنابراین به نظر می‌رسد که بارگیری صفحات ما برای همیشه طول می‌کشد. در واقع، حدود 95 درصد از صفحات کمتر از دو ثانیه بارگذاری می شوند و 5 درصد از صفحات بیشتر طول می کشد. بنابراین بهترین روش برای نمایش این داده ها چیست؟ من می‌خواهم مردم بفهمند که به طور متوسط، زمان بارگذاری صفحه ما _great_ است و استثنائات بسیار کمی وجود دارد. من احساس می‌کنم نشان دادن منحنی زنگ می‌تواند به نشان دادن اینکه اکثر صفحات در انحرافات استاندارد x از میانگین قرار می‌گیرند کمک کند، اما الف) مطمئن نیستم چگونه این کار را در اکسل انجام دهم، و ب) مطمئن نیستم این بهترین گزینه است
بهترین راه برای نمایش داده ها با مقادیر پرت؟
45854
اگر X و Y مستقل باشند pdf حاصل ضرب دو متغیر تصادفی مستقل X و Y چیست؟ X دارای توزیع نرمال و Y دارای توزیع کای اسکوئر است. Z = XY اگر $X$ دارای توزیع نرمال $$X\sim N(\mu_x,\sigma_x^2)$$ $$f_X(x)={1\over\sigma_x\sqrt{2\pi}}e^ {-{1\over2}({x-\mu_x\over\sigma_x})^2}$$ و $Y$ دارای توزیع Chi-square با درجه آزادی $k$ هستند $$Y\sim \chi_k^2$$ $$f_Y(y)={y^{(k/2)-1}e^{-y/2}\over{2^{k/2}\Gamma ({k\over2})}}u(y)$$ که $u(y)$ تابع مرحله واحد است. حالا اگر $X$ و $Y$ مستقل باشند پی دی اف $Z$ چیست؟ یکی از راه‌های یافتن راه‌حل، استفاده از نتیجه شناخته شده روهاتگی (1976، p.141) است اگر $f_{XY}(x,y)$ pdf مشترک X$ و $Y$ RV پیوسته باشد، pdf $Z$ برابر است با $$f_Z(z) = \int_{-\infty}^{\infty}{{1\over|y|}f_{XY}({z\over y},y)dy} $$ زیرا $X$ و $Y$ مستقل هستند $f_{XY}(x,y)=f_X(x)f_Y(y)$$$f_Z(z) = \int_{ -\infty}^{\infty}{{1\over|y|}f_{X}({z\over y})f_{Y}(y)dy} $$ $$f_Z(z) = {1\over\sigma_x\sqrt{2\pi}}{1\over{2^{k/2}\Gamma({k\over2})}}\int_{0}^{\infty}{{1 \over|y|}e^{-{1\over2}({{z\over y}-\mu_x\over\sigma_x})^2} {y^{(k/2)-1}e^{-y/2}}dy} $$ جایی که ما با مشکل حل انتگرال $\int_{0}^{\infty}{{1\over روبرو هستیم |y|}e^{-{1\over2}({{z\over y}-\mu_x\over\sigma_x})^2} {y^{(k/2)-1}e^{-y/2}}dy}$. کسی میتونه کمکم کنه با این مشکل آیا راه دیگری برای حل این مشکل وجود دارد؟
pdf حاصل ضرب دو متغیر تصادفی مستقل نرمال و کای اسکوئر
77545
کتاب من یک رویه را تشریح می کند، اما قسمت اولیه آن برای من نامشخص است. فرض کنید X تعداد وقوع یک رویداد در یک واحد زمان باشد و فرض کنید که دارای توزیع پواسون با میانگین $m=\lambda $ است. اجازه دهید $T_1، T_2، T_3، \ldots $ زمان‌های بین ورود رخدادها باشند و آنها با توزیع نمایی $\lambda $ iid هستند. توجه داشته باشید که $ X=k $ if $$ \sum_{j=1}^k T_j \leq 1 \quad \text{and} \quad \sum_{j=1}^{k+1} T_j >1\. $$ این دقیقاً چیزی است که من نمی فهمم. چرا کل زمان انتظار تا وقوع $k$ باید کمتر یا مساوی 1 باشد؟ هر گونه کمکی بسیار قدردانی می شود. متشکرم.
شبیه سازی فرآیندهای پواسون
85404
من در حال حاضر در تلاش برای درک بهتر سیستم‌های رتبه‌بندی مهارت‌های احتمالی برای بازی‌ها هستم، اما متوجه شدم که در درک درست مفهوم اساسی چگونگی تعمیم مهارت به عنوان یک مقایسه زوجی مشکل دارم. به عنوان مثال، اگر تنها چیزی که می دانید این است که بازیکن C در 80٪ مواقع بازیکن B را برنده می شود، در حالی که همان بازیکن B در 80٪ مواقع بازیکن A را برنده می شود، آیا این داده ها برای تعیین اینکه هر چند وقت یکبار C در برابر A برنده می شود کافی است؟ این محاسبات چگونه کار خواهند کرد؟ البته ممکن است حتی یک بازی دارای سبک های مختلف بازی باشد که در آن A ممکن است به طور خاص در مقابل C پیروز شود، که موضوع را کاملاً گیج می کند، اما من در مورد سیستم های رتبه بندی عمومی مانند ELO یا Trueskill صحبت می کنم که فقط برد را در نظر می گیرند. .
اگر C در 80٪ مواقع B را برنده شود و B در 80٪ مواقع A را برنده شود، C چند بار A را شکست می دهد؟
101003
من یک مجموعه داده از حدود 5000 ویژگی دارم. برای آن داده‌ها، من ابتدا از آزمون Chi Square برای انتخاب ویژگی استفاده کردم. پس از آن، حدود 1500 متغیر به دست آوردم که رابطه معنی داری با متغیر پاسخ نشان داد. اکنون من باید رگرسیون لجستیک را بر آن تطبیق دهم. من از بسته glmulti برای R استفاده می کنم (بسته glmulti انتخاب زیر مجموعه کارآمد را برای vlm فراهم می کند) اما می تواند تنها از 30 ویژگی در یک زمان استفاده کند، در غیر این صورت عملکرد آن کاهش می یابد زیرا تعداد ردیف های مجموعه داده من حدود 20000 است. آیا روش دیگری وجود دارد. یا تکنیک هایی برای حل مشکلات فوق؟ اگر از روش بالا استفاده کنم، زمان زیادی طول می کشد تا مدل را مطابقت دهم.
رگرسیون لجستیک در کلان داده
85400
با توجه به مشکل ایجاد یک رتبه بندی دانشجویان فارغ التحصیل بر اساس درآمد سالانه آنها پس از اتمام تحصیل، چند مدل مناسب برای این کار کدامند؟ به طور خاص، داده های من توزیعی با جرم نقطه 0 دارند (اکثر فارغ التحصیلان فوراً شغل تمام وقت پیدا نمی کنند یا شروع نمی کنند). بقیه داده ها به نوعی به خوبی توزیع شده اند. داده $x$ تبدیل به $\log(x+1)$ شد. ![هیستوگرام](http://i.stack.imgur.com/4lUnO.png) * رویکرد اول من یک مدل رگرسیون ساده بود * رویکرد دوم من دو مدل بود (یکی برای طبقه بندی اینکه آیا آنها شغل پیدا می کنند - بسیار ضعیف است. و دوم برای پیش‌بینی درآمد) زنجیره‌سازی ساده این دو مدل بسیار بدتر از مدل ساده عمل می‌کند. قدم بعدی من یک مدل مخلوط بیزی برای پیش بینی درآمد خواهد بود. من در مورد تطبیق مخلوطی با 2 گاوس فکر می‌کردم، جایی که می‌توانم میانگین یکی از آنها را برابر 0 قرار دهم. آیا منطقی است؟ کسی تجربه خوبی در مورد بسته بندی دارد؟ مشکل دیگر ممکن است این باشد که من همیشه به جای اجرای یک رگرسیون ترتیبی، درآمد را با استفاده از رگرسیون پیش‌بینی می‌کنم و از روی آن رتبه‌بندی می‌کنم. بهترین راه برای رسیدگی به این وضعیت چیست - اگر متغیر هدف (درآمد) که رتبه بندی بر اساس آن است، خود برای داده های آموزشی در دسترس باشد؟ افشای کامل: این یک سناریوی ساختگی است، زیرا من نمی توانم جزئیات دقیق پرونده واقعی را مورد بحث قرار دهم.
رتبه بندی دانشجویان مقطع کارشناسی بر اساس درآمد آینده آنها - توزیع مخلوط
68004
ما می خواهیم دو توزیع سنی (سال تولد) افراد را با هم مقایسه کنیم. با توجه به مجموعه ای از افراد (_all_) و زیرمجموعه ای از آن مجموعه (_subset_)، می خواهیم بدانیم: 1. آیا مقایسه توزیع سنی _all_ با #زیرمجموعه_ معتبر است (زمانی که | _subset_ | بسیار کوچکتر از | _all_ |) یا فقط می توانیم _all_ منهای _زیر مجموعه_ را مقایسه کنیم؟ 2. ما آزمایش Shapiro-Wilk را روی هر دو توزیع انجام دادیم و W = 0.7456 (p-value = 7.499e-08) برای _all_ و W = 0.7467 (p-value = 7.865e-08) برای _subset_ بدست آوردیم. این تأیید می کند که هر دو توزیع توزیع های عادی نیستند، بلکه نمایی یا قانون قدرت هستند. بنابراین، ما نمی‌توانیم از همبستگی پیرسون برای مقایسه آنها استفاده کنیم، اما آیا باید از Spearman استفاده کنیم؟ 3. با مقایسه هر دو توزیع با اسپیرمن، R می گوید t = 93.9151، df = 47، p-value < 2.2e-16 فرضیه جایگزین: همبستگی واقعی برابر با 0.95 درصد فاصله اطمینان نیست: 0.9952748 0.9985104 0.9985103 تخمین نمونه را نشان می دهد. یک همبستگی بالا این نتیجه با توجه به تعداد زیاد جوانان چقدر معنادار است؟ 4. آیا می توانیم از آزمون همبستگی استنباط کنیم که هر دو توزیع (بسیار) مشابه هستند؟ 5. اگر چنین است، آیا این به ما امکان می دهد نتیجه بگیریم که _زیر مجموعه_ نسبت به افراد جوان تر از _همه_ تعصب ندارد؟ 6. در نهایت، اگر فرض ما این بود که _زیر مجموعه_ تعداد افراد جوان تر از آنچه انتظار می رود وجود دارد، آیا اکنون می توانیم استنباط کنیم که این فرض اشتباه است؟ از آنجایی که نمی توانم تصاویر را آپلود کنم، هنوز: در اینجا نموداری از هر دو توزیع و در اینجا داده های خام است: # سال سن (همه) سن (زیر مجموعه) 1938 368 1 1939 360 1 1941 394 1 1942 809 3 1943 964 1 161 1943 1945 701 1 1946 1301 1 1947 1228 5 1948 1565 2 1949 2019 1 1950 2146 3 1951 2202 6 1952 2343 5 1953 206535351 20651 11 1956 3157 8 1957 3676 16 1958 4051 12 1959 5024 18 1960 5282 19 1961 6849 29 1962 7376 218134 21 1960 29 1965 13052 60 1966 13601 65 1967 14606 68 1968 18571 97 1969 19796 101 1970 21248 101 197294 1972120 135 1973 26648 145 1974 30310 170 1975 34124 190 1976 39344 232 1977 45367 240 1978 54883 3036301 73844 390 1981 77437 377 1982 83985 428 1983 90484 482 1984 100153 500 1985 100139 526 19811 1026 1026 19811 1026 472
آیا نتایجی که از مقایسه دو توزیع می گیریم درست است؟
36320
من یک مجموعه داده حاوی اندازه گیری داده های حسگر روزانه دارم که از 20 شرکت کننده به مدت 60 روز ثبت شده است (داده های پایه). من در تلاش هستم تا روش‌هایی را برای پیش‌بینی/تخمین کاهش در مطالعات پایش بلندمدت توسعه دهم، یعنی می‌توان از اندازه‌گیری یک پارامتر به صورت روزانه برای تشخیص/پیش‌بینی کاهش (یعنی تغییر قابل توجه) با شناسایی روندهای منفی یا اندازه‌گیری‌های نابجا استفاده کرد. امیدوارم بتوانم آستانه های آماری ایجاد کنم تا با بررسی روندها، امکان شناسایی کاهش را فراهم کند (با استفاده از ترکیبی از پارامترهای مشتق شده از حسگر و ارجاع آنها به داده های بالینی پایه. مناسب ترین روش برای تعریف آستانه برای تغییر یا کاهش قابل توجه چیست؟ برای هر شرکت‌کننده و چگونه می‌توانم روند منفی یا رفتار ناهنجار را در داده‌های دیده نشده پیش‌بینی/تشخیص دهم رویکرد (توجه داشته باشید که من از ICC، ANOVA و همچنین در حال بررسی برنامه نویسی پایه استفاده کرده ام، اما هیچ یک از این رویکردها را به ویژه مفید ندیده ام)
آستانه هایی برای تشخیص تغییرات قابل توجه از خط پایه در داده های سری زمانی
36321
من متغیرهایی با مقیاس بهینه را از ماهیت بسیار مختلط داده‌های حاوی متغیرهای باینری، اسمی، ترتیبی و نوع مقیاس به دست آورده‌ام. مقیاس بهینه در نرم افزار SPSS از طریق روش CATPCA به دست آمد. اکنون می‌خواهم از این متغیرها در تحلیل عاملی استفاده کنم و می‌خواهم از چرخش برای به دست آوردن بارهای معنی‌دار استفاده کنم. آنچه من فکر می کنم این است که باید از هرگونه فرض نرمال بودن برای این متغیرهای بهینه مقیاس شده اجتناب کنم. بنابراین، روش حداکثر احتمال استخراج عامل احتمالاً در اینجا قابل استفاده نیست (اگرچه من در FA خیلی خوب نیستم، بنابراین دقیقاً مطمئن نیستم). آیا باید به جای آن از روش اجزای اصلی استخراج عامل استفاده کنم؟ چه روش دیگری می تواند مفید باشد که از فرض توزیعی جلوگیری کند؟ اگر من نمرات عامل را در یک رگرسیون بیشتر به عنوان IV بخواهم، آیا اصلاً ایده خوبی است که از چرخش مورب استفاده کنم؟ فکر می‌کنم اگر می‌خواهم فاکتورها را به‌عنوان IV در یک رگرسیون بیشتر بخواهم، باید سعی کنم تا حد امکان ناهمبسته نگه دارم. آیا این مفهوم درست است؟ ممنون از هر نوع پیشنهادی :)
چه روش استخراج عاملی باید در FA با متغیرهای بهینه مقیاس شده استفاده شود؟
5152
من در حال انجام مطالعه ای بر روی گروهی از افراد با دوره پیگیری 7 ساله هستم. من می خواهم از مدل خطر متناسب کاکس برای تخمین HR بین یک قرار گرفتن در معرض و طول زمان یک رویداد استفاده کنم. یکی از اطلاعات گم شده تاریخ تولد برای همه افراد است، اما ماه و سال در دسترس است. این از محاسبه سن دقیق در زمان مطالعه جلوگیری می کند. هر گونه پیشنهاد بسیار قدردانی خواهد شد؟ هر گونه تجزیه و تحلیل حساسیت باید انجام شود؟ با تشکر
مقادیر از دست رفته در تجزیه و تحلیل بقا
45858
من از Stata 12.0 استفاده می کنم و دستور «polychoricpca» نوشته شده توسط Stas Kolenikov را دانلود کرده ام که می خواستم از آن برای داده هایی استفاده کنم که شامل ترکیبی از متغیرهای طبقه بندی شده و پیوسته است. با توجه به تعداد متغیرها (حدود 25)، تصور من این است که باید بیش از 3 جزء تولید کنم. در نهایت، من می خواهم تعداد انگشت شماری از مؤلفه های معنادار (به جای ده ها متغیر) تولید کنم و از مؤلفه ها به عنوان متغیرهای مستقل در رگرسیون لجستیک استفاده کنم. با استفاده از «polychoricpca»، می‌توانم جدولی ایجاد کنم که مقادیر ویژه و بردارهای ویژه (بارگذاری‌ها) برای هر متغیر را فقط برای سه (3) مؤلفه اول نشان دهد. به نظر می‌رسد «polychoricpca» این بارگذاری‌ها را «ضرایب امتیاز دهی» می‌نامد و این بارگذاری‌ها را برای هر سطح از متغیر تولید می‌کند، به‌طوری که اگر متغیری دارای سه دسته باشد، سه ضریب امتیازدهی («بارگذاری») برای آن متغیر خواهید دید. قبلاً هرگز با polychoric PCA کار نکرده بودم، من عادت کرده ام که فقط یک بارگذاری در هر متغیر/مورد را ببینم. من می خواهم این ضرایب (بارگذاری) را بررسی کنم تا بفهمم اجزا چیست و چگونه ممکن است برچسب گذاری شوند. سؤالات من: (1) اگر به نظر برسد که باید 4 مؤلفه تولید کنم؟ به نظر می‌رسد که نمی‌توانم آن مؤلفه چهارم را بررسی و درک کنم زیرا نمی‌توانم ببینم هر یک از موارد روی آن مؤلفه چهارم چگونه بار می‌شوند، فقط 3 مورد اول. آیا راهی وجود دارد که ببینم هر مورد چگونه است. بیش از سه جزء اول بارگذاری می شود؟ (2) آیا می توانم به سادگی از ماتریس همبستگی چند وجهی همراه با دستور 'pcamat' Stata برای بررسی نحوه بارگیری هر آیتم در هر جزء (جدول بردار ویژه) استفاده کنم. من فکر کردم که اگر بیش از 3 مؤلفه داشته باشم، این ممکن است راهی برای بررسی بارگذاری ها باشد. این ایده از این پست کمکی از آمار UCLA در مورد استفاده از factormat با ماتریس همبستگی چند کوریک گرفته شده است. pcamat در Stata، با این حال، تنها 1 بارگذاری (ضریب) در هر متغیر تولید می کند، نه 1 بارگذاری برای هر سطح از متغیر. آیا فکری در مورد اینکه آیا فقط گزارش بارگیری تکی از «pcamat» مناسب است؟
Polychoric PCA و بارگذاری اجزا در Stata
45850
یک نمونه تصادفی از **388** زوج های متاهل نشان داد که **292** دو یا چند اولویت شخصیتی مشترک دارند. در نمونه تصادفی دیگری از **552** زوج های متاهل، مشخص شد که تنها **24** هیچ اولویت مشترکی ندارند. فرض کنید p1 نسبت جمعیت همه زوج‌هایی باشد که دو یا چند اولویت شخصیتی مشترک دارند. فرض کنید p2 نسبت جمعیت تمام زوج‌های متاهلی باشد که هیچ ترجیح شخصیتی مشترکی ندارند. یک فاصله اطمینان 99% برای p1 - p2 پیدا کنید. حد پایین: حد بالایی:
فاصله اطمینان
108102
در رگرسیون لجستیک، اگر باقیمانده ها را در نظر بگیریم، آیا آنها فقط می توانند مقادیر $0$ یا $1$ را بگیرند؟ نقاط داده خود فقط 1 دلار یا 0 دلار می گیرند. منحنی لجستیک می تواند هر مقداری بین $0 و $1 $ داشته باشد. توزیع باقیمانده ها چگونه خواهد بود؟
رگرسیون لجستیک و شرایط خطا
36327
من رگرسیون لجستیک چند جمله ای را با استفاده از SPSS chi-square 000.000، df 0 و معناداری = انجام دادم. بنابراین معنی آن چیست = .؟
وقتی هیچ p-value برگردانده نمی شود، آزمون خی دو به چه معناست؟
45540
من روی مشکلی کار می کنم که در آن ما علاقه مندیم MLE را برای تابعی از دو پارامتر پیدا کنیم. من برای پیدا کردن این مشکل دارم. به طور شهودی، این ایده منطقی است. من فقط در مورد تعریف MLE یک تابع از دو پارامتر تعجب می کنم (گوگل زیاد نمی شود). سوال به این صورت است: **سوال:** فرض کنید $X_1,\ldots,\,X_n$ iid $N(\mu, \sigma^2)$ با $\mu,\sigma^2$ ناشناخته است. MLE را برای $\frac{\mu}{\sigma}$ پیدا کنید. توجه داشته باشید که این فقط یک مشکل تکلیف نیست، بلکه بخشی از یک بازی نهایی است. من واقعاً به دنبال پاسخ زیادی نیستم، اما کم و بیش به دنبال ایده ای برای چنین مشکلاتی هستم. **ویرایش** ظاهرا MLEها تحت تابع ثابت هستند. TY
MLE تابعی از یک پارامتر
36324
من یک مجموعه داده با 24 متغیر پیش بینی دارم، همه پیوسته، اما با مقیاس های مختلف و همخطی بالقوه. من سعی می‌کنم تصمیم بگیرم از «جنگل تصادفی» یا «cforest» در مهمانی با تغییر اهمیت شرطی استفاده کنم. می‌دانم که اگر می‌خواهم بر تعصب انتخاب متغیر غلبه کنم، احتمالاً باید از «cforest» استفاده کنم، اما توانایی دریافت نمودارهای وابستگی جزئی و درصد واریانس توضیح‌داده‌شده از بسته «جنگل تصادفی» را بسیار جذاب می‌دانم. می خواستم بدانم آیا کسی می داند که آیا می توان نمودارهای وابستگی جزئی و درصد واریانس را از «cforest» توضیح داد؟ همچنین، به نظر می‌رسد که «ctree» از آزمون معناداری برای انتخاب متغیرها استفاده می‌کند. آیا این برای جنگل یکسان است؟ و چگونه می توانم این مقادیر اهمیت را برای هر متغیر در cforest بدست بیاورم؟
randomForest در مقابل cforest; آیا می توانم نمودارهای وابستگی جزئی و درصد واریانس توضیح داده شده در بسته حزبی را دریافت کنم؟
83802
در یک تحلیل رگرسیون چندگانه (با 4 پیش‌بینی‌کننده پیوسته و 2 عامل طبقه‌بندی)، منظور ما داده‌های متمرکز (برای هر متغیر پیوسته) به دلیل مسائل چند خطی بودن زمانی است که شرایط تعامل گنجانده شود. سوال من این است که آیا می توانم متغیر پاسخ را نیز در مرکز قرار دهم؟ به طور خاص، متغیر پاسخ و 4 پیش‌بینی‌کننده پیوسته همگی پاسخ‌های نظرسنجی میانگین هستند (با استفاده از مقیاس‌های 1 تا 5). من در ابتدا فکر می کردم که اگر متغیرهای توضیحی را در مرکز قرار می دادم، ممکن است پاسخ را نیز در مرکز قرار دهم. اما متوجه شدم که بیشتر ارجاعات به مرکز به نظر می رسد فقط برای متغیرهای پیش بینی کننده اعمال می شود. هر گونه کمک بسیار قدردانی می شود. **به روز رسانی**: همانطور که در یک نظر قبلی اشاره کردم، اعتبار متمرکز کردن متغیر پاسخ خود را به دلیل داشتن نتایج متفاوت ANOVA با استفاده از پاسخ متمرکز در مقابل غیرمرکز زیر سوال بردم. تفسیر من این است که مدل خطی برای یک پاسخ غیرمرکز (با استفاده از lm() در R) از میانگین سطح مرجع دو عامل من برای محاسبه رهگیری استفاده می کند. وقتی متغیر پاسخ را در مرکز قرار دادم، به جای میانگین سطح مرجع، از میانگین کل این متغیر کم می شود. اکنون من تأیید کرده‌ام که با «مرکز کردن» با استفاده از میانگین سطح مرجع و در واقع نتایج یکسانی را برای مقادیر p مانند مدل پاسخ غیرمرکز به دست می‌دهد. امیدوارم این موضوع را درست تفسیر کرده باشم. اگر کسی بتواند این موضوع را بیشتر تأیید / روشن کند من واقعاً از آن متشکرم.
مرکز داده ها در رگرسیون چندگانه
15899
### بررسی اجمالی: می‌خواهم آزمایش کنم که آیا «بی‌حسی عاطفی» پیش‌بینی‌کننده بهتری برای «عملکرد پایین‌تر رابطه صمیمی» نسبت به «تجربه مجدد» یا «بیش‌انگیختگی» است یا خیر. با این حال، یکی از اعضای کمیته پایان نامه من T. هتلینگ را پیشنهاد کرد. * فرضیه 1a: بی حسی عاطفی پیش بینی کننده بهتری برای سازگاری دوتایی پایین تر از تجربه مجدد یا علائم بیش از حد برانگیختگی خواهد بود. * فرضیه 1b: بی حسی عاطفی پیش بینی کننده بهتری برای صمیمیت نسبت به تجربه مجدد یا علائم بیش از حد برانگیختگی خواهد بود. * فرضیه 1c: بی حسی عاطفی نسبت به تجربه مجدد یا علائم بیش از حد برانگیختگی، پیش بینی بهتری برای ارتباط خواهد بود. ### سوال: * آیا T Hotelling مناسب ترین راه برای تعیین اینکه آیا بی حسی عاطفی پیش بینی کننده بهتری نسبت به 2 متغیر دیگر است؟ * یا آزمون آماری بهتری برای این کار وجود دارد؟
چگونه می توانم آزمایش کنم که آیا یک پیش بینی کننده به طور قابل توجهی بهتر از دیگری است؟ آیا هتلینگ T بهترین گزینه است؟
45851
بر اساس دقت طبقه بندی تخمین زده شده، می خواهم آزمایش کنم که آیا یک طبقه بندی کننده از نظر آماری در یک مجموعه پایه بهتر از طبقه بندی کننده دیگر است یا خیر. برای هر طبقه‌بندی‌کننده، یک نمونه آموزشی و آزمایشی را به‌طور تصادفی از مجموعه پایه انتخاب می‌کنم، مدل را آموزش می‌دهم و مدل را آزمایش می‌کنم. برای هر طبقه بندی ده بار این کار را انجام می دهم. بنابراین من ده اندازه گیری دقت طبقه بندی تخمینی برای هر طبقه بندی دارم. چگونه می توانم از نظر آماری آزمایش کنم که آیا $ Classifier 1$ طبقه بندی بهتری نسبت به $classifier 2$ در مجموعه داده پایه است یا خیر. استفاده از چه آزمون t مناسب است؟
چگونه می توان عملکرد طبقه بندی کننده های یادگیری ماشین را از نظر آماری مقایسه کرد؟
70816
من سعی می کنم پارامترهای مدل را برای داده های سری زمانی با استفاده از اعتبارسنجی متقاطع k-fold بهینه کنم. من از استراتژی زنجیره‌ای رو به جلو که در اینجا توضیح داده شده است استفاده می‌کنم: استفاده از اعتبارسنجی متقاطع k-fold برای انتخاب مدل سری‌های زمانی یعنی فولد 1: بهینه‌سازی [1]، تست [2] برابر 2: بهینه‌سازی [1 2]، آزمایش [3] فولد 3 : بهینه سازی [1 2 3]، تست [4] فولد 4 : بهینه سازی [1 2 3 4]، تست [5] فولد 5: بهینه سازی [1 2 3 4 5]، تست [6] سپس میانگین پارامترهای بهینه شده حاصل از هر پنج برابر را برای ارائه پارامترهای مدل نهایی. سوال من این است: آیا این یک وزنه بیش از حد قوی بر روی تا 1 ایجاد نمی کند که در هر اجرای بهینه سازی گنجانده شود؟ آیا راهی برای جلوگیری از این امر وجود دارد یا یک استراتژی اعتبار سنجی متقابل بهتر؟
پارامترهای مدل بهینه‌سازی برای داده‌های سری زمانی با استفاده از اعتبارسنجی متقاطع k-fold
36325
امیدوارم این مکان و روش درستی برای پرسیدن این سوال باشد. من سعی می کنم بفهمم که چگونه می توان تابع چگالی احتمال x(t) را در یک مدل AR از مرتبه K داده شده (t-k) مشاهدات گذشته استخراج کرد. من در درجه اول به این مقاله اشاره می کنم (بخش 2.2) اما یک کتاب ژاپنی را برای این اشتقاق ذکر می کند. در سایر کتاب های سری زمانی (شوموی و استوفر، پوراحمدی) اشتقاقی مشابه پیدا نکردم. میشه لطفا یکی ارجاعات مناسب بهم بده یا توضیح بده ممنون از وقتی که گذاشتید شروع
استخراج PDF در مدل اتورگرسیون
114626
قبلاً نسخه ای از این سؤال را پرسیدم اما متوجه شدم که نیاز به توضیح دارد. من یک مجموعه داده با جفت های دوقلو یکسان و جفت های دوقلوی برادر دارم. من می خواهم رابطه بین یک متغیر نتیجه (وابسته) و تعدادی از متغیرهای دیگر (INDEPENDENT) را بررسی کنم. با این حال، من نمی توانم یک رگرسیون OLS معمولی را اجرا کنم زیرا متغیر وابسته هر دوقلو با متغیر همزاد آنها همبستگی دارد (برای اهداف من، این یک مزاحم است). روشی که من با این موضوع برخورد کرده‌ام این است که از SAS PROC MIXED استفاده کرده و یک رهگیری تصادفی تعریف شده توسط خوشه دوقلو (FAMILYID) را شامل می‌شود. این دستور من است: proc mixed method=ml covtest noclprint; کلاس FAMILYID; مدل DEPENDENT = INDEPENDENT/راه حل; intercept تصادفی/sub=FAMILYID type=un gcorr; اجرا؛ وقتی این کار را انجام می‌دهم، یک تخمین پارامتر کوواریانس برای «FAMILYID» و همچنین یک عبارت باقی‌مانده دریافت می‌کنم. درک من این است که این تغییرپذیری را به متغیرهای درون خوشه ای (تخمین باقیمانده) و متغیر بین خوشه ای (تخمین FAMILYID) تجزیه می کند. من ضریب همبستگی درون طبقاتی را برای خوشه‌های خانواده با محاسبه به دست می‌آورم: (تخمین FAMILYID) تقسیم بر (تخمین FAMILYID + تخمین باقی‌مانده). با این حال! متوجه شدم که احتمالاً مشکل ناهمسانی دارم، زیرا اعضای جفت دوقلو برادر احتمالاً نسبت به اعضای جفت دوقلو همسان کمتر به یکدیگر شباهت دارند. من دستور خود را به این اصلاح کردم: proc mixed method=ml covtest noclprint; کلاس FAMILYID; مدل DEPENDENT = INDEPENDENT/راه حل; رهگیری تصادفی/sub=گروه FAMILYID=TWINTYPE type=un gcorr; اجرا؛ جایی که TWINTYPE به معنای یکسان یا برادر بودن جفت دوقلو است. وقتی این کار را انجام می‌دهم، یک تخمین FAMILYID برای دوقلوهای برادر، یک تخمین FAMILYID برای دوقلوهای همسان و یک ترم باقی‌مانده دریافت می‌کنم. بنابراین - این بدان معناست که من به مدل خود گفته‌ام که تخمین‌های مختلف «بین خوشه‌ای» را برای دوقلوهای همسان و همسان انجام دهد - اما آیا هنگام محاسبه ترم باقی‌مانده، هنوز هم نوع دوقلو را نادیده می‌گیرد؟ و اگر عبارت باقیمانده منعکس کننده تغییرپذیری درون خوشه ای باشد، آیا مشکلی نیست که در نظر نمی گیرد که احتمال تغییر کمتری در یک جفت دوقلوی یکسان در متغیر نتیجه و تنوع بیشتر در یک متغیر وجود دارد. جفت دوقلو برادر؟ بنابراین حدس می‌زنم سوال من یکی از این دو مورد باشد: 1. آیا نحوی وجود دارد که به من یک تخمین بین خوشه‌ای برای دوقلوهای همسان و دوقلوهای همسان و سپس یک عبارت باقی‌مانده برای دوقلوهای همسان و دوقلوهای برادر بدهد؟ یا 2. آیا من اساساً در مورد نحوه عملکرد همه اینها سردرگم هستم، و اگر چنین است، چه چیزی را از دست داده ام؟ کمک/توضیحات بسیار قدردانی می شود.
ناهمگونی در مدل خطی مختلط SAS PROC MIXED
45856
توزیع احتمال عضوی از خانواده نمایی دو پارامتری است اگر توزیع را بتوان به شکل زیر بیان کرد: $$ h(\theta, \phi) \text{exp}\left[\sum t(x_{i} )\psi(\theta, \phi) + \sum u(x_{i})\chi(\theta, \phi)\right] $$ برای پارامترها: $\theta$ و $\phi$، داده‌ها: $x_{1}، x_{2}، \ldots، x_{n}$ و توابع: $h$، $t$، $u$، $\psi$ و $\chi$ . علاوه بر این، مزدوج قبلی برای خانواده دو نمایی به شکل زیر است: $$ p(\theta, \phi) \propto h(\theta, \phi)^{v}\text{exp}\left[\tau \psi(\theta, \phi) + \omega\chi(\theta, \phi)\right] $$ در حالی که به برخی از اعضای نمایی دو پارامتری نگاه می کنیم خانواده، مثال زیر را مشاهده کردم: توزیع گاما ($\text{Ga}(\alpha, \beta)$) را می توان به شکل بالا بیان کرد، جایی که $h = \frac{\phi^{\theta}} {\Gamma(\theta)}$, $\sum t = \sum \text{log}x_{i}$, $\sum u = \sum x_{i}, \psi = \theta, \chi = -\phi$. مثال همچنین بیان می‌کند که شکل قبلی مزدوج برای این توزیع گاما توسط: $$ \left[\frac{\phi^{\theta}}{\Gamma(\theta)}\right] داده می‌شود. ^{v} \text{exp}[\tau\theta - \omega\phi] $$ آیا کسی می‌تواند توضیح دهد که چگونه این مزدوج گاما را می‌توان به این شکل بیان کرد؟
مزدوج خانواده نمایی دو پارامتری قبلی
114625
درمان جدیدی برای سکته مغزی آزمایش می شود. دو گروه با اندازه مساوی وجود دارد، به یک گروه دارو و به گروه دارونما داده می شود. فاصله اطمینان 95% برای تفاوت بین دو نسبت افراد مبتلا به سکته مغزی (0.07،0.12) بود. چه چیزی می توانیم استنباط کنیم: 1) اطلاعات کافی برای استنباط وجود ندارد 2) حداکثر 12٪ از افراد سکته مغزی داشته اند 3) حداقل 4٪ سکته مغزی داشته اند من در این مورد مطمئن نیستم. من فکر می کنم ممکن است 1 باشد). کسی میتونه کمک کنه؟ با تشکر
پرس و جو سطح اطمینان
70811
من به دنبال یک موضوع پایان نامه برای مدرک اقتصاد کاربردی خود هستم که در آن بتوانم از داده کاوی / یادگیری ماشینی برای نوعی پیش بینی استفاده کنم. بچه ها ایده خوبی در مورد کاری که می توانم انجام دهم دارید؟ اولین فکر من امتیازدهی اعتباری بود، اما با توجه به تعداد مقالات موجود و کمبود داده های موجود، کمی خسته کننده به نظر می رسد. من نمی خواهم در مورد پیش بینی بازار سهام بنویسم زیرا این کاری است که من برای پایان نامه ریاضی خود انجام دادم. یک موضوع خوب می تواند پیش بینی نوعی شاخص اقتصادی باشد، اما من واقعاً هیچ ایده خوبی تا کنون ندارم. متشکرم!
کاربردهای داده کاوی در اقتصاد
37492
من یک مشکل فنی با Stata دارم: باید SSE یک مدل رگرسیونی را محاسبه کنم، اما خروجی خودکار فقط RMSE را به من می دهد. من به SSE این مدل محدود نیاز دارم زیرا باید آزمایش کنم که آیا این مدل از مدل کاملا رایگان بهتر است یا خیر. SPSS مقدار SSE را در خروجی رگرسیون به من می دهد، اما من نمی دانم چگونه یک رگرسیون خطی محدود را با این مدل محاسبه کنم.
چگونه با نرم افزار Stata 12 مجموع مربعات خطاها (SSE یا SSR) را محاسبه کنیم؟
18913
_من آمارگیر نیستم، پس لطفاً کمبود دانش/اصطلاحات آماری من را ببخشید._ من تعداد زیادی گره شبکه دارم که می‌خواهم تحلیل خوشه‌ای را روی آنها اجرا کنم و خوشه‌ها را شناسایی کنم. بنابراین تا آنجا که من متوجه شدم، می توانم مراحل زیر را برای اجرای یک تحلیل انبوه سلسله مراتبی (HAC) دنبال کنم: 1. شناسایی متغیرها 2. تعریف تابع فاصله 3. اجرای الگوریتم برای پیوستن به خوشه های نزدیکتر و ایجاد یک خوشه بزرگ. 4. برش درخت دندروگرام در ارتفاعی که خوشه های معنی دار را بر اساس زمینه ایجاد می کند سوال من مربوط به مرحله دوم است اگرچه هنوز برای من مشخص نیست که چگونه می توانم آخرین مرحله را انجام می دهم داده‌هایی که می‌خواهم تجزیه و تحلیل کنم، دسته‌ای از گره‌های شبکه کامپیوتری است که از کار افتاده‌اند (پاسخ نمی‌دهند). من اطلاعات زیر را برای هر گره شبکه دارم: * مکان (طول و عرض جغرافیایی) * گره زمانی از کار افتاد * ارائه دهنده شبکه اینها مرتبط ترین اطلاعاتی هستند که فکر می کنم باید برای خوشه بندی خود در نظر بگیرم. اساساً من می‌خواهم گره‌هایی را که احتمالاً به همین دلیل در یک منطقه کاهش یافته‌اند، دسته‌بندی کنم. به عنوان مثال اگر دسته ای از گره ها تقریباً در یک زمان از کار بیفتند و از نظر فیزیکی به یکدیگر نزدیک باشند و ارائه دهنده یکسانی داشته باشند، بنابراین احتمالاً در یک خوشه قرار می گیرند. حال سوال این است که چگونه تابع فاصله خود را استخراج کنم و همه این متغیرها را طوری در آن قرار دهم که منطقی باشد؟ به عبارت دیگر **مکانیسم استخراج تابع فاصله بر اساس متغیرهای متعدد چیست؟** همچنین همانطور که متوجه شدید متغیرها انواع مختلفی دارند. پس در تابع فاصله باید با در نظر گرفتن **ضریب تشابه گوور** به این موضوع رسیدگی کنم؟ چگونه؟ هر مثال یا پیشنهادی در مورد اینکه آیا من در مسیر درست هستم یا نه می تواند بسیار مفید باشد.
چگونه یک تابع فاصله را بر اساس متغیرهای متعدد برای تجزیه و تحلیل خوشه استخراج کنیم؟
83808
چگونه ارگودیسیته یک فرآیند تصادفی ثابت با حس گسترده را از مسیر(های) نمونه آن بررسی می کنید؟ آیا می توانیم ارگودیسیته را از یک مسیر نمونه بررسی کنیم؟ یا به چندین مسیر نمونه نیاز داریم؟ یکی از انگیزه های بررسی ارگودیسیته در سری های زمانی این است که اطمینان حاصل شود که می توانید با خیال راحت از میانگین یک مسیر نمونه در طول زمان به عنوان برآورد میانگین جمعیت استفاده کنید؟ با تشکر
چگونه ارگودیک بودن یک فرآیند تصادفی را از مسیر(های) نمونه آن بررسی می کنید؟
37497
مستندات بیان می کند که R gbm با توزیع = adaboost می تواند برای مشکل طبقه بندی 0-1 استفاده شود. قطعه کد زیر را در نظر بگیرید: gbm_algorithm <- gbm(y ~.، داده = train_dataset، توزیع = adaboost، n.trees = 5000) gbm_predicted <- predict(gbm_algorithm، test_dataset، n.trees = 5000) می توان آن را یافت در مستنداتی که predict.gbm > یک بردار را برمی‌گرداند از پیش بینی ها به طور پیش فرض پیش بینی ها در مقیاس > f(x) هستند. با این حال مقیاس خاص برای مورد توزیع = adaboost مشخص نیست. **آیا کسی می تواند در تفسیر مقادیر بازگشتی predict.gbm کمک کند و ایده ای از تبدیل به خروجی 0-1 ارائه دهد؟**
چگونه از R gbm با توزیع = adaboost استفاده کنیم؟
15891
با توجه به $n$ نمونه از یک توزیع (پیوسته) X، کار واضحی که باید انجام داد این است که آنها را مرتب کنیم و با گرفتن $(x_{(k)}، (k-1/) آنها را به طور مساوی بین $[0,1]$ توزیع کنیم. 2)/n)$ به عنوان تخمین نقاط خاص در CDF، و انجام نوعی درون یابی بین نقاط، در صورت لزوم. آیا این روش درست برای انجام این تخمین است؟ چگونه می توانم نوارهای خطا را برای امتیازهای تخمینی دریافت کنم؟ به نظر نمی رسد که آنها لزوماً متقارن باشند.
راه مناسب برای تخمین CDF برای یک توزیع از نمونه های گرفته شده از آن توزیع چیست؟
70812
من توزیع پارتو تعمیم یافته (GPD) را با استفاده از بسته «POT» در «R» نصب کردم. شی نصب شده پارامترهای شکل و مقیاس را ارائه می دهد، اما پارامتر مکان را ندارد. من به آن نیاز دارم تا تابع quantile را با qgpd(p، loc = 0، scale = 1، shape = 0، low.tail = TRUE، lambda = 0) ارزیابی کنم. من مطمئن هستم که این سؤال بسیار اساسی است (شاید ارزش متوسط ​​باشد، اما از کدام مقادیر - همه، یا فقط آنهایی که بزرگتر از آستانه هستند؟) اما من در این زمینه مبتدی هستم و کمک بسیار قدردانی می شود.
پارامتر loc در توزیع GPD در بسته POT برای R چیست؟
108599
من تازه وارد این حوزه از یادگیری ماشین هستم. من فقط خودم را از طریق الگوریتم UCB1 می گذرانم که به نظر می رسد فرض می کند که بازده فقط برای اقدامی که انجام می شود قابل یادگیری است. چیزی که من در مورد آن کنجکاو هستم این است که آیا قبلاً تجزیه و تحلیلی از مشکل راهزن چند مسلح در مواردی وجود دارد که در آن می توان بازده اقدامات انجام نشده را نیز آموخت (ممکن است اصطلاح این بردار پاداش کامل باشد؟) و اینکه اطلاعات مورد استفاده در مراحل بعدی من می‌توانم الگوریتم «UCB1» را برای به‌روزرسانی برای اقدامات انجام نشده تغییر دهم. اما، می‌خواهم بدانم آیا برای انجام این کار ایراد/مشکلاتی وجود دارد یا خیر. زمانی که بردار پاداش به طور کامل در دسترس باشد، من آنالیز فرم بسته مرزهای پشیمانی را انجام نداده ام. من نمی دانم اصطلاحات برای چنین مواردی چیست. بنابراین، من برای یافتن کار برای چنین مواردی مشکل دارم. من درک می کنم که وقتی بردار پاداش کامل در دسترس است، این یک مشکل یادگیری تقویتی نظارت شده است. چیزی که من در مورد آن کنجکاو هستم این است که آیا کار راهزن چند مسلح را می توان به خوبی در مشکل یادگیری تقویتی تحت نظارت استفاده کرد یا خیر. و اینکه آیا انجام این کار منطقی است یا خیر. من بسیار قدردان نکات کار/کاغذ در این زمینه خواهم بود.
راهزن چند مسلح در مواجهه با اطلاعات پاداش کامل
37494
من فهرستی از رکوردها با فیلدهایی دارم که می توان آنها را به عنوان دو مجموعه متغیر مشاهده کرد: وابسته و مستقل. مثلاً 100 فیلد در هر رکورد وجود دارد که 10 مورد از آنها را به عنوان متغیر وابسته و 90 فیلد را مستقل در نظر می گیریم. روش های یافتن همه همبستگی هایی که بین دو مجموعه وجود دارد چیست؟ (در دوره مقدماتی آمار که من گذرانده ام، با همبستگی های ساده بین دو متغیر سروکار داشتیم، اما کار مانند این پوشش داده نشد.)
همه همبستگی های بین دو مجموعه متغیر را بیابید
70815
من 4 متغیر نهفته دارم که هر کدام 3-7 اندیکاتور دارند. من یک ترکیب ترکیبی برای هر متغیر با جمع کردن داده ها و سپس میانگین-مرکزی ایجاد کردم (متغیرها دارای برخی مسائل همخطی هستند، بسیار مرتبط هستند). بنابراین من Var1، Var2، Var3، Var4 را دارم. سپس می خواستم یک ترکیب اصلی از هر چهار متغیر ایجاد کنم. بنابراین من تمام شاخص‌های فردی را جمع‌آوری کردم و میانگین را برای Var1234 جمع‌آوری کردم. من سعی می کنم تئوری مکمل بودن را آزمایش کنم که در آن این چهار متغیر با هم بزرگتر از مجزا هستند (یعنی var1 + var2 + var3 + var4 = 4 ... اما Var1234 >4) من دو رگرسیون خطی را اجرا کردم. مدل 1: همه شاخص های فردی + اصطلاحات تعامل فردی + اصطلاح تعامل 4 طرفه = DV مدل 2: Var1234 = DV در مدل دوم Var1234 قابل توجه است، اما در مدل اول عبارت تعامل 4 طرفه ناچیز است. من معتقدم این یک مشکل است، اما مطمئن نیستم. آیا به روشی که من متغیرهای مرکب خود را ایجاد کردم، یا این که یک متغیر مرتبه دوم وجود دارد که ترکیبی از سایر ترکیبات است، مرتبط است؟ آیا راهی برای توضیح این موضوع وجود دارد که چرا یک عبارت تعامل 4 طرفه زمانی که ترکیب آن 4 عبارت معنی دار است، بی اهمیت است؟
اصطلاح تعامل ناچیز اما متغیر مرکب معنی دار
83805
اجازه دهید $\mathbf{X}=(X_1,X_2,\ldots,X_{2k})$ نمونه‌ای از توزیع عادی $\mathcal{N}(0,1)$ باشد. ثابت کنید که توزیع میانه نمونه (برای نمونه زوج) حدود 0 متقارن است. $me(\mathbf{X}) = \frac{X_{k:2k}+X_{(k+1):2k}}{2} $، که در آن $X_{i:2k}$ آمار سفارش $i$-ام است. من سعی کردم از فرمول $f_{X_{k:n}}(x) =\frac{n!}{(k-1)!(n-k)!}[F_X(x)]^{k-1} استفاده کنم [1-F_X(x)]^{n-k} f_X(x)$، اما بدون هیچ موفقیتی (شاید راهی برای انجام آن متفاوت از یافتن توزیع $me(\mathbf{X})$ وجود داشته باشد؟
ثابت کنید که توزیع میانه نمونه (برای نمونه زوج) متقارن است