_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
70572
من با چندین بردار باینری کار می کنم، به عنوان مثال، A، B، C، D، E، F، G، H. من می خواهم طبقه بندی بین آنها را پیدا کنم. من موارد زیر را امتحان کردم: log_data<-read.csv(choose.files()، as.is = T، header = T، blank.lines.skip = TRUE) data<-log_data[2:ncol(log_data)] داده TIME A B C D E F G 1 1 1 1 0 1 0 1 1 2 0 0 1 1 1 1 0 1 3 1 1 1 1 1 0 1 1 4 1 0 1 1 1 1 0 1 ..................... مناسب <- شبکه(داده) مناسب.پیشین < - jointprior(fit) fit <- getnetwork(learn(fit,rats,fit.prior)) خطا در postc0c(node$condposterior[[1]]$mu, node$condposterior[[1]]$tau, : NA/NaN/Inf در فراخوانی تابع خارجی (arg 1) دریافت این خطا فقط به این دلیل که همه متغیرهای پیوسته و NULL در mu هستند شبکه؟
طبقه بندی با شبکه بیز (معامله)
70199
من تست دقیق فیشر را روی حجم نمونه بسیار بسیار کوچک اعمال می کنم. هر مکان در جدول حدود 1 یا دو نمونه خواهد داشت. روش فیشر جایی برای برشمردن جداول ندارد و نتیجه بسیار بدی به من می دهد. بنابراین آیا آزمایش دقیق بهبود یافته دیگری برای داده های اندازه نمونه بسیار کوچک وجود دارد؟
تست دقیق فیشر، حجم نمونه بسیار کوچک، جدول RxC، نتیجه بدی به من داد
113263
من متخصص آمار نیستم: مجبور شدم موضوع کارآموزی دانشجوی دیگری را قبول کنم تا آن را در رشته خود لحاظ کنم. او با مدل‌های $SARIMAX$ کار می‌کرد و من می‌خواهم آنها را در یک کاربرگ «اکسل» وارد کنم. از اینترنت و این پست، من می دانم که معادله یک فرآیند $SARIMA(p,d,q)(P,D,Q)_m$$X_t$ به شکل زیر است: $$\Phi(B^m )\phi(B)\nabla_m^D\nabla^d X_t=\Theta(B^m)\theta(B)Z_t$$ در حال حاضر، من روی یک مدل $SARIMAX$ کار می کنم برای چندین سری زمانی به لطف نرم افزار SAS می توانم ضرایب هر یک از این توابع را بدست بیاورم و مدلی را بدست بیاورم که با این معادله نشان داده شده است: $$\nabla_m^D\nabla^d X_t=\mu+\omega_0 W_{1,t}+ \omega_1 W_{2,t}+\frac{(1-\Theta B^{m})(1-\theta_1(B))Z_t}{(1 - \Phi B^{m})(1-\phi_1(B))}$$ با $\mu=0$. آنچه من می خواهم به دست بیاورم معادله ای به شکل $Y_t = \ldots$ است که می توانم با توسعه اصطلاحات مختلف به دست بیاورم. اما من گیر کرده ام زیرا نمی دانم چگونه عبارت نوآوری $Z_t$ را نشان دهم. آیا این فقط نوعی صدا است؟ یا بسته به متغیرهای دیگر یک اصطلاح است؟ تا آنجا که من فهمیدم، $Z_t$ یک نویز است، اما من نتوانستم آن را پیدا کنم/درک کنم که چگونه آن را تعیین/تخمین بزنم. **ویرایش:** مهم نیست، من در آنجا متوجه شدم که عبارت نوآوری باید به عنوان عبارتی خارج از توزیع نرمال میانگین 0 تخمین زده شود. و «SAS» به من تخمینی از واریانس ارائه شده در شکل 7.9 را ارائه می دهد.
چگونه عبارت نوآوری را در یک معادله ARIMA تعیین کنم؟
33380
من سعی می کنم از بسته BradleyTerry2 در R برای ارزیابی تیم های ورزشی استفاده کنم. من از مقاله مدل های بردلی-تری در R: بسته بندی برادلی تری2 نوشته ترنر و فرث برای راهنمایی خود استفاده می کنم. من مدل را به کار انداختم، اما اکنون می‌خواهم متغیرهای پیش‌بینی‌کننده مخصوص بازیکن را در آن قرار دهم. در حال حاضر، داده های من به این صورت تنظیم شده است: ستون اول تیم برنده، ستون دوم تیم بازنده، ستون سوم فراوانی است. من مطمئن نیستم که چگونه متغیرهای پیش بینی را وارد کنم. من سعی کردم ستون چهارم را با متغیرهای تیم برنده و ستون پنجم را با متغیرهای تیم بازنده وارد کنم، اما این کار به نتیجه نرسید. مطمئن نیستم که داده ها را به درستی تنظیم نمی کنم یا اینکه کد من اشتباه است. بنابراین، یک قدم در یک زمان. حدس می‌زنم در حال حاضر، سوال من این است که من داده‌ها را به درستی تنظیم می‌کنم؟ اگر نه، چگونه باید راه اندازی شود؟
چگونه داده ها را برای مدل بردلی تری در R تنظیم کنیم؟
105318
من از MATLAB 2012a برای اجرای 3 تست استفاده می کنم. با داده‌هایم، مقادیر بسیار کوچکی به دست می‌آورم، و برای تست‌های اندرسون-دارلینگ (A-D)، نتایج حتی نرمال نمی‌شوند. لطفا کد من را تایید کنید. من همچنین از اسکریپت A-D استفاده می کنم که در این لینک یافت می شود. نمونه= N; h1=histfit(sample,30,'weibull'); xdata1 = get(h1(2)، 'XData'); ydata1 = get(h1(2)، 'YData'); [~,p_weibull_cs,stats_weibull_cs] = chi2gof(ydata1); [~,p_weibull_ks,stats_weibull_ks] = kstest(ydata1); p_weibull_ad = AnDartest(ydata1);
تست خوبی تناسب
10078
برای محاسبه ضریب پیرسون از فرمول زیر در متلب استفاده می کنم: C=cov(x,y); p=C(2)/(std(x)*std(y)); اما C(2) در مورد من صفر است اگر x = [1 0 1 0 0 0]; y = [1 1 1 1 1 1]; هر ایده ای که کجا دارم اشتباه می کنم
ضریب همبستگی پیرسون با استفاده از متلب زمانی که انحراف معیار یک متغیر صفر است
37400
من بورس اوراق بهادار را بر اساس مدل ارزش فعلی که توسط گرگوری چاو در این مقاله تعریف شده است، مدل‌سازی می‌کنم. مدل بر اساس لگاریتم های طبیعی قیمت سهام و سود سهام به منظور از بین بردن اثر تعداد دلخواه سهام منتشر شده عمل می کند. اما شرکت ها همیشه سود سهام پرداخت نمی کنند. وقتی یک سال وقفه در پرداخت ها وجود دارد چه باید بکنم؟ در حال حاضر لگاریتم آن را تا بی نهایت منفجر می کند.
مدل ارزش فعلی بورس: چگونه با سود سهام صفر برخورد کنیم؟
105316
دو سری زمانی (شار نور) را فرض کنید. هدف این است که مشخص شود آیا سریال ها از یک توزیع هستند یا خیر. معمولاً در این شرایط از آزمون Kolmogorov-Smirnov (KS) استفاده می شود. با این حال، فواصل زمانی لزوماً حتی بین اندازه‌گیری‌ها نیست، زیرا ممکن است برخی از داده‌ها گم شده باشند. آیا این استنباط صحیح است که آزمون باید روی آرایه های دو بعدی (زمان، شار) باشد؟ با این حال، به دلیل اینکه چرا نمی توان آزمون کولموگروف-اسمیرنوف را به 2 بعد یا بیشتر تعمیم داد؟، می توان از KS برای آرایه های دو بعدی استفاده کرد. پس مراقب تست کولموگروف-اسمیرنوف باشید! تست Anderson-Darling (AD) با بوت استرپ را پیشنهاد می کند. آیا در IDL، bootstrap.pro این کار را انجام می دهد؟ و سپس edf_stats-code.pro برای تست AD؟ آیا می توان bootstrap.pro را به عنوان آماده سازی داده ها برای آزمون همانطور که در edf_stats-code.pro نوشته شده است درک کرد؟
تست اندرسون-دارلینگ در سری زمانی دوبعدی
113267
به طور شهودی گفتن اینکه یک فرآیند سری زمانی علی است به چه معناست؟ و رابطه علیت با ثابت بودن و وارونگی چیست؟ اگر به درستی بفهمم، این 3 شرط همگی مستلزم این هستند که ریشه های چند جمله ای بزرگتر از 1 باشد.
به طور شهودی گفتن اینکه یک فرآیند سری زمانی علی است به چه معناست؟
37406
می توانیم قضیه بیز را به صورت $$p(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\) بنویسیم. theta)d\theta}$$ که در آن $p(\theta|x)$ پسین است، $f(X|\theta)$ توزیع شرطی و $p(\theta)$ قبلی است. یا $$p(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} $$ که در آن $p(\theta|x)$ عقبی است، $L(\theta|x)$ تابع درستنمایی و $p(\theta)$ قبلی است. سوال من این است 1. چرا تحلیل بیزی با استفاده از تابع درستنمایی انجام می شود نه توزیع شرطی؟ 2. آیا می توانید با کلمات بگویید تفاوت بین احتمال و توزیع شرطی چیست؟ من می دانم که احتمال یک توزیع احتمال نیست و $L(\theta|x) \propto f(X|\theta)$ است.
احتمال در مقابل توزیع شرطی برای تحلیل بیزی
3463
من دو سری زمانی S دارم و T. فرکانس یکسان و طول یکسانی دارند. من می خواهم (با استفاده از R)، همبستگی بین این جفت (یعنی S و T) را محاسبه کنم و همچنین بتوانم اهمیت همبستگی را محاسبه کنم، بنابراین می توانم تعیین کنم که آیا همبستگی به دلیل شانس است یا خیر. من می‌خواهم این کار را در R انجام دهم و به دنبال نشانگرها/چارچوب‌های اسکلتی برای شروع کارم هستم.
محاسبه همبستگی (و اهمیت همبستگی مذکور) بین یک جفت سری زمانی
113268
در داده‌های Google Analytics من، بسیاری از ترافیک به اشتباه با عنوان مستقیم برچسب گذاری می‌شوند، زیرا گوگل منبع اصلی ترافیک را نمی‌داند. من 6 ماه از داده‌های ترافیک «مستقیم» خود را گرفته‌ام و همبستگی آن را با کانال‌های ترافیک دیگر، مانند Organic و Social محاسبه کرده‌ام. بین Social و Direct همبستگی متوسطی وجود دارد. ![همبستگی داده های ترافیک](http://i.stack.imgur.com/GTjxQ.png) سوال من این است... آیا راهی برای تنظیم اعداد ترافیک برای اجتماعی (در یک صفحه گسترده) وجود دارد که شامل شود برخی از ترافیک مستقیم، با دانستن اینکه ارتباطی بین آنها وجود دارد؟ به عنوان مثال، بگوییم که GA در حال حاضر 1000 بازدید اجتماعی و 5000 بازدید مستقیم را گزارش می دهد، آیا می توانم برخی از مستقیم را به اجتماعی نسبت دهم، مانند: Social اکنون ممکن است 2000 باشد. اگرچه من سطوح همبستگی را می‌دانم، اما هیچ راهی وجود ندارد که بگوییم Direct واقعاً چقدر مستقیم است، بنابراین نمی‌دانم آیا این محاسبه امکان‌پذیر است یا یک روش علمی برای انجام این فرآیند وجود دارد. من قبول دارم که این واقعاً دقیق یا قطعی نخواهد بود، من به این بیشتر به عنوان یک شاخص نگاه می کنم. با تشکر
استفاده از همبستگی ها برای برچسب گذاری مجدد داده ها از Google Analytics
33389
در R من در حال تنظیم یک مجموعه داده برای اجرای یک رگرسیون لجستیک هستم. من دو سوال در مورد انتخاب متغیرهای مستقل دارم. من ابتدا به طور خلاصه مجموعه داده را توضیح می دهم: مجموعه داده شامل بازدیدهای یک وب سایت است. برخی از این بازدیدها در نهایت منجر به فروش می شود. برخی نخواهند کرد. هر بازدید مدت زمانی را که کاربر در وب سایت می گذراند و تعداد صفحاتی که مشاهده کرده است را نشان می دهد. اگر کاربر در نهایت خرید کند، ورودی داده نیز فیلدی به نام مرتبط و فیلدی به نام تازه‌سازی (مدت زمانی طول می‌کشد تا سفارش انجام شود) دریافت می‌کند. بازدیدها ممکن است از چندین طرف باشد و چندین بازدید می تواند منجر به یک فروش شود (به عنوان مثال مشتری دیروز از طریق یک کانال وارد می شود و خرید نمی کند، مشتری روز بعد از کانال دیگری وارد می شود و خرید می کند). من سؤالات زیر را دارم: * زمان صرف شده در وب سایت و تعداد صفحات مشاهده شده برای همه بازدیدها موجود است (بنابراین بازدیدهایی که به بازدیدهایی تبدیل می شوند که به فروش کمک می کند (1) و بازدیدهایی که انجام نمی دهند (0). بازدیدهایی که به فروش تبدیل نمی شوند هیچ ارتباطی ندارند و بنابراین مقدار تعیین شده 0 را دریافت می کنند. اما تازگی فقط برای بازدیدهایی که در نهایت منجر به فروش می شوند اندازه گیری می شود، بنابراین فقط زمانی که متغیر وابسته دارای مقداری 0 باشد. 1. چگونه می توان این را ادغام کرد این متغیر را در هر ردیف قرار دهید، زیرا این متغیرها مختص ردیف نیستند.
اجرای رگرسیون لجستیک بر روی داده های فروش
91143
چگونه اندازه نسبی یک مقدار p در اندازه های مختلف نمونه تغییر می کند؟ مثلاً اگر $p=0.20$ را در $n=45$ برای یک همبستگی بگیرید و سپس در $n=120$ همان p مقدار 0.20 را دریافت کنید، اندازه نسبی مقدار p برای آزمون دوم چقدر خواهد بود. در مقایسه با مقدار p اصلی وقتی $n=45$ است؟
اندازه نسبی مقادیر p در اندازه های مختلف نمونه
3460
برای برخی از ما، داوری مقاله بخشی از کار است. هنگام داوری مقالات روش‌شناسی آماری، من فکر می‌کنم مشاوره از سایر حوزه‌های موضوعی، مانند علوم کامپیوتر و ریاضیات، نسبتاً مفید است. این سوال مربوط به بررسی بیشتر مقالات آماری کاربردی است. منظورم این است که مقاله به یک مجله غیرآماری/ریاضی ارسال می شود و آمار فقط در بخش روش ها ذکر شده است. چند سوال خاص: 1. چقدر باید برای درک حوزه کاربرد تلاش کنیم؟ 2. چقدر باید برای یک گزارش وقت بگذارم؟ 3. وقتی به شکل ها/جدول ها نگاه می کنید چقدر حساس هستید. 4. چگونه با در دسترس نبودن داده ها کنار می آیید؟ 5. آیا تلاش می کنید و تجزیه و تحلیل استفاده شده را دوباره اجرا می کنید؟ 6. حداکثر تعداد مقالاتی که در یک سال بررسی می کنید چقدر است؟ آیا هر سوالی را از دست داده اید؟ با خیال راحت ویرایش کنید یا نظر خود را اضافه کنید. **ویرایش** من به عنوان آماردانی که یک مقاله زیست شناسی را بررسی می کنم به این سوال می رسم، اما به بررسی آماری هر رشته غیرریاضی علاقه مند هستم. * * * من مطمئن نیستم که آیا این باید یک CW باشد. از یک طرف کمی باز است، اما از طرف دیگر می توانم خودم را ببینم که پاسخی را می پذیرم. همچنین، پاسخ ها احتمالاً نسبتا طولانی خواهند بود.
بررسی آمار در مقالات
86474
**خلاصه:** سناریویی را در نظر بگیرید که در آن ورودی های ($X$) و خروجی ها ($Y$) از یک فرآیند ($B$) را مشاهده می کنید. اگر من مدلی دارم که توضیح می‌دهد که $X$ چگونه در طول زمان تکامل می‌یابد، و یک مدل مشابه برای $Y$، چگونه این دو را ترکیب کنم؟ **مثال + جزییات** برای ساختن این بتن، فرآیند فتوسنتز + تنفس را به همراه $B$ در نظر بگیرید ($B = B_p + B_r$)، که در آن، با یک تقریب تقریبی، برای هر اتم کربن ($X$) ) گرفته شده، 1 اتم اکسیژن (Y$) آزاد می شود. عوامل دیگری نیز وجود دارند ($F_x$, $F_y$) که نقشهای جزئی در فراوانی $X$ یا $Y$ دارند، اما این عوامل فرآیندهای قطعی بر اساس $X$ یا $Y$ در قبلی هستند. مرحله زمانی و 2 بردار کنترل شناخته شده ($K$، $Z$)، و پارامترهای مورد علاقه با فرآیند $B$ مرتبط هستند. $B$ تابعی از 2 متغیر کنترلی (در یک ماتریس Tx2، $U$) و 2 پارامتر است (مثلاً $\beta_1$ و $\beta_2$، در یک ماتریس 2x1، $\beta$). مدل X$ ممکن است چیزی شبیه به $X_t = X_{t-1} + B_{t} + F_{x,t}$$ $$B_{t} = U_t\beta$$$F_{ x,t}=K_{x,t}(Z_{t-1}-X_{t-1})$$ به طور مشابه، $Y$ توسط $B$ هدایت می شود، اما در جهت مخالف $$Y_t = Y_{t-1} + -B_{t} + F_{y,t}$$$$B_{t} = U_t\beta$$$$F_{y,t}=K_{y,t}(Z_ {t-1}-Y_{t-1})$$ **چارچوب فعلی، هدف** من قبلاً هر دو مدل X$ و $Y$ را دارم که در چندین فریمورک کار می‌کنند (به عنوان یک dlm متناسب با حداکثر احتمال، در یک فیلتر کالمن، و در یک چارچوب بیزی). اما من می‌خواهم این دو تحلیل (برای X$ و $Y$) را کنار هم قرار دهم. **JAGS مثال** در JAGS، حلقه اصلی مدل فعلی من برای $X$ چیزی شبیه به این است، و برای $Y$ یکسان به نظر می رسد (علائم پارامترهای تخمینی معکوس شده): for(i در 2:N) {X[i] ~ dnorm(a[i]، tauV) # مشاهدات (X) با میانگین مقادیر واقعی، اما با tauV دقیق توزیع می‌شوند. (1/tauV واریانس خطای مشاهده است) Kx[i] ~ dnorm(KxP[i-1, 1], 1/KxP[i-1, 2]) # توزیع بر روی Kx، از ورودی KxP حاوی میانگین و واریانس Kx در هر مرحله زمانی Fx[i] <- Kx[i]*(Z[i-1]-X[i-1]) # Z فقط یک ورودی است بردار کنترل مقادیر معلوم aHat[i] <- a[i-1] + U[i،]%*% بتا + Fx[i] # فرآیند a[i] ~ dnorm(aHat[i]، tauW) # مقادیر واقعی دارای میانگین مقادیر تخمینی هستند، اما با خطای فرآیند همراه هستند (دقت فرآیند tauW است) } **انگیزه** به نظر می رسد که هنگام تخمین زدن از اطلاعات ارزشمندی استفاده نمی کنم. $\beta$ مستقل از $X$ و $Y$، به خصوص b/c هر دو سری زمانی مستعد منابع مختلف مشاهده و خطای فرآیند هستند (و همچنین برخی از منابع مشابه، به ویژه برای خطای فرآیند). **سوال** چگونه مدل ها را جفت کنم؟ آیا مشاهدات را به صورت نرمال چند متغیره مدل کنم؟
آیا این چند متغیره طبیعی است؟ 2 سری زمانی که توسط یک فرآیند مشترک به هم مرتبط شده اند
92316
من نمودار زیر را دارم که سپس آن را نرمال می کنم و سعی می کنم با آن مطابقت کنم. داده ها یک هیستوگرام از تعداد در یک زمان معین است. ![data](http://i.imgur.com/XpBbkab.png) سپس تناسب به نظر می رسد: ![fit](http://i.imgur.com/TGTp2GW.png) مسئله این است که پارامترها $\lambda_1$ و $\lambda_2$ به شدت به محدوده ای که من انتخاب می کنم بستگی دارد. من دوست دارم بتوانم یک فاصله اطمینان برای این پارامترها ایجاد کنم، اما در مورد آمار کاملا مبتدی هستم. سعی کردم به ادبیات و گوگل سر بزنم، اما متوجه شدم که گیر افتاده ام. نکات یا نکاتی در مورد برخی اسناد خوب قدردانی می شود.
فاصله اطمینان برای داده های مربوط به شمارش سم، برای مبتدی
41320
من یک متغیر دوگانه $A$ دارم، که نسبت تعیین شده _apriori_ 0 و 1 ندارد و یک متغیر پیوسته $b$. در سناریوی 1، من تصمیم دارم $A$ را به عنوان متغیر **_independent_** $X$، و $b$ را به عنوان متغیر **_dependent_** $y$ تعیین کنم. سپس با استفاده از تست‌هایی مانند من ویتنی (بدون توزیع)، t-test (توزیع عادی)، و غیره، $X$ را در مقابل $y$ آزمایش می‌کنم. در سناریوی 2، تصمیم می‌گیرم که $A$ را به عنوان **_وابسته_** تعیین کنم. متغیر $Y$ و $b$ به عنوان متغیر **_independent_** $x$. سپس با استفاده از رگرسیون لجستیک، $x$ را در برابر $Y$ آزمایش می کنم. 1. وقتی از جهت بودن رابطه بین $A$ و $b$ اطلاعی ندارم، یعنی نمی توانم تصمیم بگیرم که $A$ متغیر مستقل است یا $b$ متغیر مستقل، کدام مدل را انتخاب کنم؟ 2. اگر مطمئن نیستم که کدام متغیرهای وابسته یا مستقل هستند، آیا استفاده از آزمون t/Mann-Whitney در وهله اول به عنوان نوعی تحلیل تک متغیره، و سپس استفاده از رگرسیون لجستیک به عنوان چند متغیره برای من نامعتبر خواهد بود. تحلیل؟
انتخاب بین رگرسیون لجستیک و آزمون من ویتنی/t
41326
من روی یک شبیه سازی فیزیکی دو بعدی کار می کنم و در چند نقطه به موقع در حال جمع آوری داده ها هستم. این نقاط گسسته در امتداد خطوط عمودی، با خطوط متعدد در جهت محوری قرار دارند. این باعث می شود مجموعه داده به طور موثر 4 بعدی شود. برای مثال، فرض کنید من نقاط جمع آوری در مختصات (X,Y) دارم: * (0,0), (1,0), (2,0) * (0,1), (1,1), ( 2،1) * (0،2)، (1،2)، (2،2) و در هر نقطه من $\\{P,T,U,V\\}$ را جمع می کنم که در آن $P$ فشار است ، $T$ دما است، $U، V$ هستند مولفه های X و Y سرعت. در هر تکرار شبیه سازی، این متغیرها برای هر 9 نقطه جمع آوری ذخیره می شوند. بنابراین تمام داده های من در هر نقطه گسسته در فضا در زمان پیوسته هستند. برای مثال، داده‌های یک نقطه به این صورت است: ![فشار در مقابل زمان برای یک نقطه](http://i.stack.imgur.com/t34n4.png) ![U-Velocity vs Time for a single point](http://i.stack.imgur.com/WRbWM.png) من علاقه مندم که مثلاً فشار را در همه نقاط برای نمایش امواج عمودی و محوری نشان دهم. اگر بخواهم این کار را در امتداد یک خط انجام دهم (اعم از عمودی یا محوری)، می‌توانم از طرح آبشار با محورهای (Y، زمان، فشار) استفاده کنم. اما اگر من 3 خط عمودی و 3 خط محوری داشته باشم، این 6 طرح آبشار خواهد بود تا تصویر کاملی از حرکت موج در هر دو جهت به دست آید. مختصات مکانی متغیرهای گسسته هستند در حالی که میدان (در این مورد فشار) و زمان پیوسته هستند. به عنوان مثال، در شکل‌های بالا، پیک فشار بزرگ در $t\prox0.000125$ می‌تواند در جهت X یا Y حرکت کند. آیا روشی وجود دارد که بتوان همه آنها را یکجا نشان داد؟ معمولاً می توان رنگ را اضافه کرد تا بعد چهارم قابل مشاهده باشد، اما آیا رویکرد ممکن دیگری وجود دارد؟ من قصد دارم تا حد امکان آن را ترسیم کنم تا ببینم آیا چیزی اطلاعاتی را فاش می کند که دیگران آن را فاش نمی کنند، بنابراین لطفاً هر ایده ای را مطرح کنید. اگر شبیه سازی 3 بعدی بود و من یک مجموعه داده حاصل 5 بعدی داشتم چه؟ آیا این روش‌های تجسم احتمالی را تغییر می‌دهد؟
راه هایی برای کاهش داده های با ابعاد بالا برای تجسم
105319
من با آخرین آزمونی که باید برای پایان نامه کارشناسی خود انجام دهم مشکل دارم. من دو متغیر دارم و باید آزمایش کنم که آیا تفاوت معنی داری وجود دارد یا خیر. متغیر اول تمام بازده سهام در روزهای مشخص را دارد. متغیر دوم نیز این بازده ها را دارد، اما برخی از روزها حذف شده اند. من می خواهم آزمایش کنم که آیا تفاوت معنی داری بین قبل و پس از فیلتر وجود دارد یا خیر. آیا اگر یک تست Paired Sample T-test انجام دهم مشکلی ندارد یا باید از آزمایش دیگری استفاده کنم؟ هر کمکی بسیار قدردانی می شود!
بررسی کنید که آیا تفاوت معنی داری بین دو گروه وجود دارد یا خیر
92317
من یک متغیر مقیاس لیکرت پنج درجه ای (سطوح اهمیت) برای دسترسی به یک تسهیلات خاص، و یک متغیر سه سطحی دیگر (فاصله ترجیحی) دارم. من می خواهم این دو متغیر را در یک متغیر ترکیب کنم تا بتوانم آن را با فاصله فعلی آن تسهیلات مرتبط کنم. چگونه این دو متغیر را ترکیب کنم؟ آیا باید از تحلیل خوشه ای استفاده کنم؟ من این سوال را طبق پیشنهاد نیک ویرایش کردم: سلام، مسافت ترجیحی طبقه بندی شده است - 0.5 کیلومتر، 2 کیلومتر، 5 کیلومتر، آنها را به ترتیب 1،2،3 شماره گذاری کردم. من آنها را به طور جداگانه در آزمون Chi-square دو متغیره مرتبط کردم. اما من معتقدم بین سطح اهمیت و فاصله ترجیحی رابطه وجود دارد. برای مثال: اهمیت متوسط ​​ممکن است با فاصله متوسط ​​انتخاب شود. اگر این دو را ترکیب کنم، می توانم بگویم که در آنجا این دو متغیر در تصمیم گیری با هم عمل می کنند. با تشکر
ترکیب دو متغیر طبقه بندی شده
105310
من فکر می کنم که برای مشکل ارزش مرزی دو نقطه ای زیر (TPBVP)، می توان از بسته r `bvpSolve` برای بدست آوردن یک مقدار عددی استفاده کرد، اما مطمئن نیستم که چگونه. من از علامت گذاری مشابه مقاله زیر (http://arxiv.org/pdf/1312.7360.pdf) استفاده می کنم، اما مورد چند عامل را در نظر نمی گیرم و فقط از مشکل اجرای بهینه یک عامل پیروی می کنم. هدف یافتن بردار $X(t)$ است که نشان دهنده تعداد سهام باقیمانده در هنگام انحلال x سهام است که از t=0 تا t=T=10 در زمانی که X(10) = 0 شروع می شود. فرآیند بیش از یک زمان ثابت است. افق زمانی T=10 که در آن 0 < t < T تابع نوآوری قیمت، حرکت برونینین حسابی استاندارد است $S^0(t) = S_0 + sigma(t)*W(t)$ که در آن $S_0$ ثابت است و $W(t)$ یک حرکت قهوه ای استاندارد است و سیگما(t) نوسان شناخته شده ای است که با زمان بین t=0 و t=10 تغییر می کند. تابع تاثیر قیمت به شرح زیر است: $S^X(t) = S^0(t) + \gamma(X(t) - X(0)) + \lambda(t) \dot{X}(t)$ (مشابه معادله 1 در مقاله مرتبط) دو شرط مرزی عبارتند از: $X(0) = x$$X(T) = 0$ که در آن گاما و لامبدا پارامترهای ضربه دائمی و موقت هستند. اما با توجه به اینکه لامبدا اکنون تابعی از زمان است، اما همچنین مانند سیگما(t) برای t=0 تا t=10 تخمین زده شده است (یعنی بردار لامبدا(t) داده شده است)، حداکثر سازی معادل دو نقطه چگونه خواهد بود. مشکل ارزش مرزی برای سطح معینی از ریسک گریزی (آلفا) حل می شود؟ من سعی کردم این کار را با استفاده از `bvpSolve` انجام دهم اما همانطور که در اینجا نشان داده شده است خطاهایی دریافت کردم (http://stackoverflow.com/questions/24533516/r-crashes-with-no-error- when-using-bvpsolve-package) کمی از راه حل من تا کنون، اما به نظر می رسد تحت تاثیر آلفا (پارامتر ریسک گریزی) یا مقدار اولیه x (اندازه اصلی نمونه کارها). علاوه بر این fun3 که شبیه به fun2 است فقط یک خط مستقیم را ارائه می دهد ... که باز هم کمی اشتباه به نظر می رسد زیرا از هیچ یک از داده های داده شده استفاده نمی کند ... جدا از شرایط مرزی. a.vec <- c(0,27344.5, 48389, 51535.5, 48954, 35922, 46412.5, 41555, 36881.5, 29654, 26957) b.vec. 0.00190027114892749، 0.00190168441844807، 0.00155509166820965، 0.0014209081439286، 0.0013451926، 0.0013491926 0.00112338422445012، 0.00101880285481768، 0.000810030562227371، 0.000955330918533797) آلفا <- 0.000 <- 0.0001 splinefun(seq(0,10),y=a.vec) s1_t <- splinefun(seq(0,10),y=b.vec) s_t <- تابع(t,d,lam=lambda){lam * ( s1_t(t,d=0)^2)} fun2 <- تابع(t,y,pars){ dy1 <- s_t(t)*y[1] dy2 <- (y[2] - (l_t(t,1)*y[2]))/l_t(t) return(list(c(dy2))) } fun3 <- تابع(t,y,pars){ dy1 < - s_t(t)*y[1] dy2 <- (dy1 - (l_t(t,1)*dy1))/l_t(t) return(list(c(dy2))) } init <- c(y=3000,dy=NA) انتهای <- c(y=0,dy=NA) require(bvpSolve) sol <- as.data.frame(bvptwp(yini=init,x=seq(0.03,10, by=0.01)،func=fun2،order=2،yend=end)) plot(sol$x،sol$y،type='l', main='plot1 alpha = 0.0001') alhpa <- 0.01 sol <- as.data.frame(bvptwp(yini=init,x=seq(0.03,10,by=0.01),func=fun2,order=2,yend =پایان)) plot(sol$x,sol$y,type='l', main='plot2 alpha = 0.01')
چگونه این مسئله ارزش مرزی دو نقطه ای (TPBVP) را حل کنیم؟ (به طور ایده آل با bvpSolve)
32310
مدل‌های موضوعی محبوب مانند LDA معمولاً کلماتی را که تمایل دارند با هم در یک موضوع (خوشه) وجود داشته باشند، خوشه‌بندی می‌کنند. تفاوت اصلی بین چنین مدل‌های موضوعی و سایر رویکردهای خوشه‌بندی مبتنی بر هم‌روندی ساده مانند PMI چیست؟ (PMI مخفف Pointwise Mutual Information است و برای شناسایی کلماتی که همزمان با یک کلمه خاص وجود دارند استفاده می شود.)
مدل‌های موضوعی و روش‌های همزمانی کلمه
86471
بنابراین من N نمونه بوت استرپ می گیرم و N طبقه بندی کننده رگرسیون لجستیک را روی این نمونه ها آموزش می دهم. هر طبقه‌بندی‌کننده مقداری احتمال حضور در یک کلاس باینری را به من می‌دهد و سپس این احتمالات N را میانگین می‌دهم تا پیش‌بینی نهایی را به دست بیاورم. سوال من این است که اگر N مجموعه ضرایب رگرسیون را گرفتم و آنها را میانگین گرفتم و از مجموعه ضرایب میانگین شده در طبقه‌بندی کننده رگرسیون لجستیک استفاده کردم و احتمال خروجی را به عنوان پیش‌بینی نهایی در نظر گرفتم، آیا این همان محاسبه میانگین N احتمالات حاصل است. همانطور که در پاراگراف قبل توضیح داده شد؟
تجمع بوت استرپ (کیسه بندی) طبقه بندی کننده های رگرسیون لجستیک
41324
هدف من این است که بفهمم یک کاربر کجا منحنی را قطع می کند. در طول آموزش، هر زمان که کاربر نقطه ای از یک منحنی را به عنوان نقطه برش انتخاب می کند، برخی از ویژگی ها را ضبط می کنیم و از برچسب '+1' برای نشان دادن این ویژگی ها با یک نقطه برش استفاده می کنیم. به منظور کاهش تلاش های آموزشی، مایلیم از ثبت نقاطی که کاربر برش نمی دهد خودداری کنیم. به عبارت دیگر، داده‌های آموزشی ما فقط شامل ورودی‌هایی است که با «+1» برچسب‌گذاری شده‌اند. می‌خواهم بدانم آیا تکنیک‌های مرتبط با SVM وجود دارد که بتواند این مورد را مدیریت کند. در نهایت، ما می خواهیم ماشین یادگیری به ما بگوید که آیا یک نقطه نقطه برش است یا خیر.
SVM تنها با یک نوع برچسب
89933
بگویید من دنباله‌ای از آزمایش‌های بله-نه دارم که در آن احتمال برنده شدن در طول زمان کاهش می‌یابد **در حالی که ذخایر برد به تدریج تمام می‌شود**. فرض کنید برای هر آزمایش احتمال جایگزینی ** نه 1 و نه 0**، بلکه مقدار دیگری است. آیا هیچ توزیع شناخته شده ای وجود دارد که این رفتار را مدل کند؟
دنباله ای از آزمایشات برنوئی با بازدهی رو به کاهش
51292
یک فرآیند پواسون با پارامتر ناشناخته $\lambda$ را در نظر بگیرید. دنباله ای از $n$ مشاهدات را در فواصل $\overline{t}=t_1,\,t_2,\,\dots,\,t_n$ انجام می دهیم. هر مشاهده یک متغیر باینری $x_i$ است که اگر هیچ تغییری در بازه $t_i$ رخ ندهد برابر با صفر است یا اگر یک یا چند تغییر رخ دهد برابر با یک است: $\forall i,$ $\Pr[X_i = 0 | \lambda,\,t_i] = \exp(-\lambda t_i)$ $\Pr[X_i = 1 | \lambda,\,t_i] = 1 - \exp(-\lambda t_i)$ تابع احتمال برای همه مشاهدات این است: $P[\overline{x}| \lambda،\overline{t}] = (\prod_{x_i=0}\exp(-\lambda t_i)) \cdot (\prod_{x_i=1}(1-\exp(-\lambda t_i))) $ با فرض اینکه فواصل مشاهده به طور مستقل از هر چیز دیگری انتخاب شده است، من می خواهم پارامتر $\lambda$ را با مقداری قبل معقول تخمین بزنم. $\lambda^\star = argmax_\lambda P[\lambda | \overline{x}،\،\overline{t}]$P[\lambda | \overline{x}،\،\overline{t}] \propto P[\overline{x}| \lambda,\overline{t}] \cdot P[\lambda]$ در صورت امکان، می‌خواهم از مزدوج قبلی برای انجام تخمین بازگشتی استفاده کنم، اما مطمئن نیستم که وجود دارد یا خیر. سوالات من: 1\. آیا مزدوج قبلی برای آن احتمال وجود دارد؟ 2\. اگر پیشین مزدوج وجود نداشته باشد، از چه برآوردگر می توانم استفاده کنم؟ من به برآوردگر علاقه مند هستم که بتواند برای هر مشاهده به صورت تدریجی به روز شود، بدون اینکه تمام تاریخچه مشاهدات را پیگیری کند.
تخمین پارامتر بیزی فرآیند پواسون با مشاهدات تغییر/بدون تغییر در فواصل نامنظم
86470
من سعی می کنم یک مدل glm را با یک متغیر پاسخ دو جمله ای تجسم کنم، می خواهم یک خط در نمودارها قرار دهم، اما خطوط یا abline کار نمی کنند و نمی دانم چرا وقتی پاسخ های قابل توجهی دارم. به مدلی که استفاده کردم آیا ایده ای دارید که چرا ترسیم یک خط کار نمی کند؟ > خلاصه (model2) فراخوانی: glm (فرمول = Lövförekomst ~ مساحت + Si، خانواده = دوجمله ای) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.254 -1.048 -1.012 1.309 1.422 ضرایب: برآورد ضرایب. خطای z مقدار Pr(>|z|) (تقاطع) -0.2158411 0.0634165 -3.404 0.000665 *** مساحتی 0.0009178 0.0002495 3.678 0.0002495 3.678 0.000235 10.000235 10.000235 1 0.000235 1 70201. -3.023 0.002499 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 16662 در 12237 درجه آزادی انحراف باقیمانده: 1664 12235 درجه آزادی (33 مشاهده حذف شده است به دلیل عدم وجود) AIC: 16648 تعداد تکرارهای امتیازدهی فیشر: 4 > mod <- glm(Lövförekomst~Areal، دو جمله ای) > med <- glm(Lövförekomst~Si، دو جمله ای) > x <- seq(0,9,0.01) > y <- پیش بینی (mod، list (Areal=x)، type=response) > par(mfrow=c(1,2)) > plot(Areal, Lövförekomst) > x2 <- seq(0,9,0.01) > y2 <- predict(med, list(Si=x ), type=response) > plot(Si, Lövförekomst) > lines(x, y) > lines(x2, y2)
نحوه رسم مدل رگرسیون دو جمله ای در R
33381
در حال حاضر، من در حال تجزیه و تحلیل داده های هفت منحنی رگرسیون هستم. من می خواهم بدانم که آیا تفاوت های قابل توجهی بین این خطوط وجود دارد؟ اگرچه فکر می‌کردم این روش ساده است، اما متوجه شدم که تست‌های مشخصی برای حل آن وجود ندارد، اخیراً این مقاله را پیدا کردم که روش کلی را توضیح می‌دهد. متأسفانه من آمارگیر نیستم، بنابراین می خواهم بدانم آیا آزمایش ساده تری برای انجام این تجزیه و تحلیل و شاید یک بسته R برای آن وجود دارد یا خیر.
تفاوت های قابل توجه بین منحنی های رگرسیون
55930
من چندین ضریب همبستگی پیرسون با مقادیر p مربوط به آنها دارم. اما من به یک ضریب همبستگی متوسط ​​نیاز دارم. برای محاسبه آن، من از تبدیل فیشر z که در اینجا و اینجا ذکر شده است استفاده کرده ام. اما، احتمالاً به دلیل کمبود دانش، راهی برای محاسبه p-value برای این ضریب همبستگی متوسط ​​پیدا نکردم. آیا می توانید در این مورد به من کمک کنید؟
p-مقدار یک ضریب همبستگی متوسط
86472
اگر پیشین و احتمال با یکدیگر بسیار متفاوت باشند، گاهی اوقات وضعیتی پیش می آید که خلفی مشابه هیچ یک از آنها نباشد. برای مثال این تصویر را ببینید که از توزیع های عادی استفاده می کند. ![رفتار پسین](http://i.stack.imgur.com/07YsT.png) اگرچه این از نظر ریاضی درست است، به نظر نمی رسد با شهود من مطابقت داشته باشد -- اگر داده ها به شدت با من مطابقت نداشته باشد باورها یا داده ها، من انتظار ندارم که هیچ یک از این محدوده ها به خوبی پیش بروند و انتظار دارم یا یک پسین صاف در کل محدوده یا شاید یک توزیع دووجهی در اطراف قبل و احتمال (من نیستم) مطمئن باشید که منطقی تر است). من مطمئناً انتظار ندارم که در محدوده‌ای که نه با باورهای قبلی من و نه با داده‌های قبلی من مطابقت داشته باشد، عقب‌نشینی محکمی داشته باشم. من می‌دانم که با جمع‌آوری داده‌های بیشتر، پسین به سمت احتمال حرکت می‌کند، اما در این شرایط به نظر غیرشهودی می‌رسد. سوال من این است: چگونه درک من از این وضعیت ناقص است (یا ناقص است). آیا پسین تابع «درست» برای این وضعیت است. و اگر نه، چگونه می‌توان آن را مدل‌سازی کرد؟ برای کامل بودن، قبلی به صورت $\mathcal{N}(\mu=1.5, \sigma=0.4)$ و احتمال به صورت $\mathcal{N}(\mu=6.1, \sigma=0.4)$ داده می‌شود. ویرایش: با نگاهی به برخی از پاسخ‌های داده شده، احساس می‌کنم که وضعیت را به خوبی توضیح نداده‌ام. منظور من این بود که به نظر می رسد تحلیل بیزی با توجه به مفروضات مدل، نتیجه ای غیر شهودی ایجاد می کند. امید من این بود که پسین به نحوی تصمیمات بد مدلسازی را به حساب آورد، که وقتی به آن فکر می‌کنیم قطعاً اینطور نیست. من این را در پاسخ خود بسط خواهم داد.
خلفی بسیار متفاوت از قبل و احتمال
86475
من روی تجزیه و تحلیل برخی از داده ها کار می کنم که نیاز به استفاده از مدل lme دارند، اما در مورد تفسیر خروجی مطمئن نیستم. داده ها به این شکل هستند: > head(data) Mouse.Number Mouse.Number.Unique Overall.Mouse Batch Day Drug Tumor.Volume X 1 1 1 1 10 -35 Cetuximab 27.4 NA 2 1 1 1 10 -31 Cetuximab 14.13 NA 1 1 10 -28 ستوکسیماب 19.7 NA 4 1 1 1 10 -24 Cetuximab 29.6 NA 5 1 1 1 10 -21 Cetuximab 39.1 NA 6 1 1 1 10 -17 Cetuximab 43.5 NA لطفاً Mouse.Number.Number.Uxnique ستون و ماوس را نادیده بگیرید. را داده:** 1. روزهای منفی وجود دارد، اما آنها را نادیده بگیرید (آنها مقادیر قبل از اعمال درمان هستند) 2. من می خواهم Tumor.Volume ~ Day*Drug را مدل کنم و قسمت تصادفی آن Day|Overall.Mouse است. کد من lme_pos_1 است <\- lme(تومور. حجم ~ روز*دارو، تصادفی = ~روز| کلی. موش، داده=data_pos_10) خلاصه این است: > خلاصه(lme_pos_1) مدل اثرات مختلط خطی متناسب با REML داده: data_pos_10 BIC logLik 2364.189 2405.549 -1170.094 جلوه های تصادفی: فرمول: ~روز | ساختار کلی ماوس: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intercept) 42.215374 (Intr) Day 4.059765 0.455 باقیمانده 23.012150 اثرات ثابت: Tumor.Volume Value ~ St-vald-Drugue *Drugue (Intercept) 108.32758 12.319403 195 8.793249 0.0000 روز -1.99631 1.142348 195 -1.747546 0.0821 DrugDacomitinib 15.000. 0.570760 0.5716 DrugErlotinib 41.38484 18.198080 37 2.274132 0.0289 DrugVehicle 43.08154 18.204460 37 2.304132 0.0289 DrugVehicle 43.08154 18.204460 37 2.3033inDruga 0.03427 2.874163 195 0.011923 0.9905 روز:DrugErlotinib 12.28038 1.797236 195 6.832924 0.0000 روز:DrugVehicle 86301863018. 7.595461 0.0000 همبستگی: (Intr) روز DrgDcm DrgErl DrgVhc Dy:DrD Dy:DrE روز 0.382 DrugDacomitinib -0.468 -0.179 DrugErlotinib -0.677 -0.217 -0.259 Drug -0.258 0.317 0.458 روز:DrugDacomitinib -0.152 -0.397 0.174 0.103 0.103 Day:DrugErlotinib -0.243 -0.636 0.114 0.262 -0.15e Daycle 0.154 -0.632 0.113 0.164 0.258 0.251 0.402 استاندارد شده درون گروهی باقیمانده: حداقل Q1 Med Q3 حداکثر -2.81026418 -0.52194774 -0.07643594 -0.07643594 -0.07643594 -0.07643594 0.07643594 0.07643594 0.07643594 0.53258 تعداد مشاهده: 0.53278 تعداد مشاهده. 240 تعداد گروه ها: 41 من در مورد نحوه دریافت اطلاعات از خروجی مطمئن نیستم، مثلاً آیا این مدل خوبی است، چگونه می توانم آن را بدانم؟ چه مقادیری مهم هستند و غیره. اصولاً می خواهم بدانم: 1. در قسمت جلوه های تصادفی انحراف معیار مخفف چیست؟ 2. قسمت همبستگی چه چیزی را می خواهد بیان کند؟ 3. چگونه بفهمم این مدل خوب است یا نه و چگونه می توانم آن را بهبود بخشم؟ (من چند قطعه qqnorm و نمودار باقیمانده را امتحان کردم، همه آنها خوب به نظر می رسند)
تفسیر مدل مختلط خطی
89936
من با شرایط مختلف رگرسیون لجستیک گیج شده ام. تفاوت های گام به گام، هسته، جلو و عقب چیست؟
تفاوت بین رگرسیون لجستیک هسته و گام به گام چیست؟
33386
در چه مواردی نمی توانم تست مجذور کای پیرسون را انجام دهم زیرا نتیجه بی معنی خواهد بود؟ **ویرایش:** آیا حتی در مواردی که توزیع مجاز به میانگین و واریانس نباشد، همچنان معتبر است؟
تست کای دو پیرسون چه زمانی با شکست مواجه می شود؟
15802
من یک تابع پیوسته افزایش دهنده یکنواخت دارم، $f(x)$، که سعی می کنم $x$-intercept، $x^*$ را تخمین بزنم. من مجموعه داده‌ای از جفت‌های $(x_i,y_i)$ دارم، با هر $y_i=f(x_i)+\varepsilon_i$، جایی که $\varepsilon_{i} \sim \text{Normal}(0, \sigma)$. ارزش $\sigma$ نسبتاً بزرگ است. مجموعه داده شامل ترکیبی سالم از نقاط بالا و پایین و محور x است. برای تخمین $x^*$، نقاط داده را طوری مرتب کردم که $x_1 < x_2 < ... < x_n$، و $S_k = \sum_{i=1}^k y_i$ را تعریف کردم. تخمین من چیزی شبیه به $x^* = x_{k^*}$ است، که در آن $$k^* = \arg \min_k\ S_k$$ این تخمین تاکنون در برنامه من به خوبی به من کمک کرده است، اما من اکنون شروع به تعجب کردم که آیا می توانم به طور معناداری یک فاصله اطمینان به تخمین خود اضافه کنم. من می دانم که این کمی باز است، اما من نمی دانم که آیا کسی در این مورد نظری دارد. حتی بحث در مورد اینکه چه نوع فرضیاتی ممکن است برای معنادار ساختن این سوال لازم باشد، روشنگر خواهد بود. ویرایش: تجزیه و تحلیل سوگیری مورد انتظار تخمین $x^*$ فوق نیز جالب است.
تخمین فاصله x یک تابع افزایشی یکنواخت دلخواه
113266
مشکلی مانند این را در نظر بگیرید شما یک برنامه کاربردی پروفایل مشتری دارید (مثلاً داده های مخابراتی کلاسیک) شما تراکنش های مشتری دارید (تعداد زیادی از آنها) می خواهید قوانینی را پیدا کنید یک عنصر داده ای وجود دارد که جمعیت کمی دارد. برای بررسی یک فرضیه آیا صاحبان گربه ثروتمندتر از صاحبان سگ هستند؟ بنابراین شما داده های زیادی دارید. اما عنصر داده ای که به آن علاقه دارید (حیوانات خانگی) کم است و باید داده های آموزشی را برای این وضعیت ایجاد کنید. چگونه این کار را انجام می دهید؟
اگر بیشترین داده های آموزشی پراکنده باشد، چگونه انجام دهیم
15807
یک سیستم شامل خوشه های $N$ و در هر خوشه تعدادی عنصر وجود دارد. اندازه خوشه ها به طور چشمگیری متفاوت است و بیشتر خوشه ها تک قلو هستند. من باید دقت و فراخوانی این سیستم را بدانم، اما از آنجایی که باید آن را به صورت دستی بررسی کنم، بررسی تعداد زیادی واحد غیرممکن است. سوال من این است: اگر من نمونه بکشم، واحد نمونه باید خوشه یا عنصر باشد؟ همچنین، دقت یک نوع آسان برای بررسی است (با توجه به اینکه من تعریف هر خوشه را می دانم)، اما چگونه می توانم فراخوان را بررسی کنم؟ من باید فقط محدوده نمونه را بررسی کنم یا باید از کل جامعه جستجو کنم؟ آیا چیز دیگری هست که باید بدانم؟ خیلی ممنون
چگونه می توان از خوشه بندی نمونه برای تخمین دقت و یادآوری استفاده کرد؟
89930
من سعی می کنم یک ماتریس کنتراست بسازم که بتوانم آن را در R اجرا کنم، با استفاده از بسته زیست رسانای limma، اما مطمئن نیستم که ماتریس کنتراست را به درستی کدگذاری کرده باشم. پست قبلی و راهنمای limma مفید بودند، اما طراحی دو فاکتوریل من پیچیده تر از آنچه در آنجا نشان داده شده است. عامل اول تیمار با دو سطح (control=c و stress=s) و عامل دوم ژنوتیپ با پنج سطح (g1, g2, g3, g4, g5) است. هر ژنوتیپ / تیمار شامل 3 تکرار بیولوژیکی (30 نمونه در کل) است. مجموعه داده من قبلاً عادی شده و log2 تبدیل شده است. این شامل 1208 پروتئین (بر اساس شمارش طیفی برای کسانی است که مراقبت می کنند) که تفاوت های فراوانی پروتئین را در پنج ژنوتیپ و دو تیمار اندازه گیری می کند. مجموعه داده کامل است، به این معنی که هر نمونه/شرط دارای یک نقطه داده است. ## زیر مجموعه داده ها: ID protein g1.s1 g1.s2 g1.s3 g1.c1 g1.c2 g1.c3 g2.s1 g2.s2 g2.s3 g2.c1 g2.c2 g2.c3 g3.s1 g3.s2 g3.s3 g3.c1 g3.c2 g3.c3 g4.s1 g4.s2 g4.s3 g4.c1 g4.c2 g4.c3 g5.s1 g5.s2 g5.s3 g5.c1 g5.c2 g5.c3 prot1 -9.70583694 -9.940059478 -9.764489183 -9.6919378276 -9.6919378276 - -9.668928704 -9.821333234 -10.00376839 -9.843380585 -10.0789111 -9.958506961 -9.791583706 -10.0499861359 -10.0499861509 -10.0499861591 -10.0499861591 - -9.989303332 -10.05414639 -10.00619809 -9.907032795 -10.09700113 -10.00902876 -10.05603575 -10.2621381385 -10.2621381385 - -9.88009858 -9.748974338 -9.730010667 -9.899956956 -9.773955101 -9.957684691 prot2 -9.810354967 -9.8443198767 -9.84431923 -9.777040294 -9.821308434 -9.906798728 -9.832236541 -9.876359355 -9.935535795 -10.05991278 -9.8310987879 -9.83109878777 -10.08470861 -10.18515166 -10.10371621 -10.01971224 -9.977142493 -10.09055782 -9.739831978 -9.586647994 -9.5866479994 -9.5866479999 -9.800183583 -9.83900565 -9.943521592 -9.99229056 -9.744850134 -9.794814509 -9.98542989 -9.7663248843 -9. -11.70842601 -11.72521838 -11.90389475 -11.98273998 -11.915401 -11.88620205 -11.91603643 -11.960291419 -11.960291419 -11.960291419 -126. -12.26650985 -11.84300821 -12.64562082 -12.41471031 -12.66462278 -12.577619 -12.90001898 -12.315777711 -12.315777711 -12.31577711 -12.315777111 -12.31577711 -12.31577711 -12.31577711 -12.31577711 - -11.4844068 -11.60402491 -11.95270942 -11.68245512 -12.32380181 -12.24294758 -12.23990879 -12.2156334037 -12.2156334037 -12.2156334037 -12.2156334037 prot4 -10.88942769 -11.16906693 -11.13942576 -11.31332257 -11.04718433 -11.11811122 -11.17687812 -11.1225038 -11.1225038 -11.16837945 -11.19642214 -10.96468249 -11.3975887 -11.28808753 -11.32778647 -11.34124725 -11.309712185 -11.309721294 - -10.74370929 -10.92223539 -10.97733154 -11.40528844 -11.1238659 -11.15938598 -11.24937805 -10.86911392 -10.86911392 -11.24937805 -10.86911392 -10.86911392 -10.86911392 -10.8691392 -11. -10.99485703 -11.09493115 prot5 -10.0102959 -9.936796529 -9.964629149 -9.842835973 -9.791578592 -9.77338072 -9.773380529 -9.715837804 -9.79028651 -9.951486129 -9.636225505 -9.820715987 -10.41899204 -10.25269382 -10.26949484 -10.26949484 - -10.13120897 -10.20756299 -9.752087376 -9.687001368 -10.07111473 -9.815279198 -9.995624174 -9.993526894 -9.993526894 -9.993526894 - -9.551502595 -9.551929198 -9.724500546 -9.502769792 -9.65324573 prot6 -10.34051005 -10.27571947 -10.114 -1496876 -10.1496876 -10.47812301 -10.11019796 -10.40447672 -10.15885481 -10.22900798 -10.26612428 -10.21920493 -10.171866671 -10.171866677 -10.95438025 -10.63751536 -10.65825783 -10.60857688 -10.78516027 -10.33890785 -10.49726978 -10.471004634 -10.471004634 - -10.78932619 -10.5318634 -10.26494688 -9.975182247 -10.24870036 -10.2356165 -10.26689552 -10.1306130424 -10.1306130624 -10.24870036 -10.37307132 -10.03573128 -10.29985129 -9.991216794 -10.05854902 -10.1958704 -10.30549818 -10.207828462 -10.207828462 -10. -10.23897922 -9.997472306 -10.27461285 -10.20805608 -10.06261332 -10.24876706 -10.12643737 -9.9060838247 -9.9060838249 - -10.23545822 -10.30970717 -10.40745591 -10.36432166 -10.22423532 -10.25703553 -10.44925268 -9.9025554769 -9.9025554721 - -10.0695915 prot8 -10.98782595 -10.84184533 -10.76496107 -10.68290092 -10.55763113 -10.91736394 -10.8736394 -10.8750527 -10.8750527 -10.58319007 -10.87547281 -10.71948079 -10.95011831 -10.99753277 -11.061728 -10.8852958 -10.86371206 -10.86371206 -10.86371206 -10.86371206 -1874. -10.46809937 -10.78446288 -10.71240489 -10.80931259 -10.6598091 -10.54801115 -10.70612733 -10.73398181808 -10.70612733 -10.73398181808 -10. -10.47323989 -10.62675183 prot9 -8.83857166 -8.736344638 -8.743339515 -8.8152675 -8.7
ایجاد ماتریس کنتراست (لیما) برای دو فاکتوریل در R
15800
موضوع تحقیق من مبتنی بر مقایسه تأثیر روش‌های تدریس سنتی و نوین بر نگرش و پیشرفت دانش‌آموزان در علوم است. من یک طرح آزمایشی پیش آزمون- پس آزمون را دنبال کردم که در آن یک گروه کنترل و یک گروه آزمایش شرکت داشتند. پیش آزمون و پس آزمون مورد استفاده با یکدیگر متفاوت هستند. من همچنین 2 مقیاس - مقیاس نگرش علمی و مقیاس نگرش تکنیک تدریس مدرن - را در مراحل پیش و پس آزمون اجرا کردم. فرضیه های تدوین شده به شرح زیر است: 1. بین میانگین نمرات پیش آزمون دانش آموزان گروه گواه و گروه آزمایش تفاوت معناداری وجود ندارد. 2. بین میانگین نمرات پس آزمون دانش آموزان گروه کنترل و گروه آزمایش تفاوت معناداری وجود ندارد. 3. بین میانگین نمرات پیش آزمون و پس آزمون دانش آموزان گروه کنترل تفاوت معناداری وجود ندارد. 4. بین میانگین نمرات پیش آزمون و پس آزمون دانش آموزان گروه آزمایش تفاوت معناداری وجود ندارد. 5. بین میانگین نمرات نگرش دانش آموزان گروه کنترل و گروه آزمایش در مرحله پیش آزمون تفاوت معناداری وجود ندارد. 6. بین میانگین نمرات نگرش دانش آموزان گروه گواه و گروه آزمایش در مرحله پس آزمون تفاوت معناداری وجود ندارد. 7. بین میانگین نمرات نگرش دانش آموزان گروه کنترل در مرحله پیش آزمون و پس آزمون تفاوت معناداری وجود ندارد. 8. بین میانگین نمرات نگرش دانش آموزان گروه آزمایش در مرحله پیش آزمون و پس آزمون تفاوت معناداری وجود ندارد. من در مورد تکنیک های تجزیه و تحلیل داده ها که باید برای آزمون فرضیه فوق استفاده شود مطمئن نیستم. در مورد موارد زیر نیز شک دارم: 1. آیا می توانم از آزمون t برای مقایسه میانگین نمرات آزمون و نگرش گروه ها استفاده کنم؟ 2. آیا می توان از ANOVA در هر یک از فرضیه ها استفاده کرد؟ 3. من در تعدادی از کتاب‌ها مطالعه کرده‌ام که از ANCOVA استفاده کنم تا مطمئن شوم هر تغییری که در پیشرفت و نگرش دانش‌آموزان مشاهده می‌شود به دلیل یک تکنیک تدریس خاص است. اگر از ANCOVA استفاده شود، پس متغیرهای کمکی در موضوع من چیست؟ چند متغیر کمکی برای چنین طرح های آزمایشی مناسب در نظر گرفته می شود؟ 4. اگر از ANCOVA استفاده شود، پس چگونه باید آن را انجام داد؟ چگونه در SPSS انجام دهیم؟ لطفاً به من کمک کنید زیرا زمان کمتری برای انجام تجزیه و تحلیل داده ها دارم؟ هر نمونه مناسب مرتبط با طرح تحقیق من کمک بزرگی خواهد بود. از پیشنهادات شما بسیار سپاسگزار خواهم بود.
کمک به تجزیه و تحلیل داده های پیش آزمون-پس آزمون
33388
اولاً من با آمار بسیار تازه کار هستم... سعی می کنم بین یک عامل عددی وابسته رابطه ای پیدا کنم و 6 عدد مستقل اسمی، 1 ترتیبی و 4 عدد مستقل داشته باشم. من از رگرسیون دسته یا مقیاس بندی بهینه در spss استفاده کرده ام از گسسته سازی گروهی برای متغیرهای اسمی با تعداد دسته ها و رتبه بندی گسسته برای ترتیبی با استفاده از پیکربندی اولیه به عنوان تصادفی استفاده کرده ام. در مورد 200 امتیاز، آیا این نتایج کافی خواهد بود؟ 2. مربع r تنظیم شده من بین 25% تا 38% قرار دارد. چگونه قضاوت کنم که آیا این کافی است؟ برخی از مجلات روانشناسی ادعا می کنند که خوب است، برخی دیگر آن را رقت انگیز می دانند. 3. همچنین آیا روش بهتری برای یافتن رابطه پیش بینی بین متغیرهای شرح داده شده در بالا وجود دارد؟ 4. آیا مسائل یا اشتباهات دیگری در مقیاس بندی بهینه و نحوه استفاده من از آن وجود دارد؟
متغیرهای مقوله ای مستقل و رگرسیون چندگانه با متغیرهای وابسته عددی
33384
من مجموعه ای از داده های ورزشی با تاریخ و نتیجه تناسب اندام مربوطه دارم. تاریخ ها به طور یکسان از هم جدا نشده اند. بهترین راه برای تعیین پیشرفت ورزشکار فعلی چیست؟ من به جایی فکر می کردم که یک خط را از طریق 3-5 اندازه گیری آخر تطبیق دهم (داده ها 7-10 روز از هم فاصله دارند) و تانگن ها را بررسی کنم تا ببینم آیا در حال وخامت است یا بهبود می یابد. نظر شما چیست؟
روند در یک مجموعه داده غیریکنواخت
38008
به ما یک توزیع احتمال $p_1 \ge$ $p_2 \ge$ $p_3 \ge \cdots p_n$ در مورد $n$ داده شده است. ما از این توزیع بدون جایگزینی نمونه برداری می کنیم (احتمال های مقیاس بندی مجدد پس از هر نمونه برای محاسبه آیتم حذف شده). اولین $n-k$ موارد نمونه برداری شده را کنار می گذاریم و آخرین $k$ موارد نمونه را نگه می داریم. مقدار مورد انتظار مجموع احتمالات آخرین اقلام نمونه برداری شده $k چقدر است؟ امیدوارم بیان مشکل واضح باشد. آیا کاری برای این مشکل یا مشکل مرتبط انجام شده است؟ آیا مرز بالایی/پایینی جالبی شناخته شده است؟ اگر هیچ نتیجه ای وجود نداشته باشد، هر ایده ای برای محاسبه کران های پایین/بالا بسیار مفید خواهد بود.
هنگام نمونه‌برداری بدون جایگزینی از یک توزیع معین، کل وزن مورد انتظار آخرین کیلو مورد نمونه‌برداری شده چقدر است؟
89934
فرض کنید من دو پایگاه داده دارم، در اولی (DB1) داده های فردی در مورد میزان اعتماد مردم به دولت ($X_{j,r}$) وجود دارد و در دومی (DB2) داده های فردی در مورد میزان اعتماد وجود دارد. مردم $Y_{i,r}$ را اهدا می کنند (من از $j$ به جای $i$ استفاده می کنم تا مشخص کنم افراد مشاهده شده در هر دو پایگاه داده یکسان نیستند). بنابراین نظریه من (در این مثال) این است که در مناطقی که اعتماد کمتری به دولت دارند، مردم بیشتر کمک مالی می کنند. بنابراین می‌خواهم اجرا کنم: > REG: $Y_{i, r} = \beta X_{r} + \gamma_{r} Z_{r} + \gamma_{i} Z_{i}$ بنابراین من میانگین را محاسبه می‌کنم $X_{j,r}$ در DB1، و از آن به عنوان متغیر در DB2 برای اجرای OLS بالا استفاده کنید. سؤالات من عبارتند از: 1. آیا باید خطاهای استاندارد REG را تصحیح کنم تا به این واقعیت توجه کنم که X_{r}$ ناقص برآورد شده است؟ 2. آیا باید REG را برای خطاهای استاندارد میانگین $X_{j,r}$ وزن کنم (به $r$ که X_{r}$ بهتر تخمین زده می شود وزن بیشتری بدهم)؟
استفاده از داده های جمع آوری شده از یک پایگاه داده با داده های دیگر
113261
اجازه دهید a~$\mathcal{N}(\mu_a,{\sigma_a}^2)$,b~$\mathcal{N}(\mu_b,{\sigma_b}^2)$ و c~$\mathcal{N }(\mu_c،{\sigma_c}^2)$. ما دو متغیر عادی x~$a-b$ و y~$a-c$ می سازیم. آیا می‌توانیم کوواریانس بین این دو متغیر تصادفی یعنی $\textrm{cov}(x,y)$ را با دست پیدا کنیم؟ ببخشید اگر سوالم پیش پا افتاده است.
همبستگی بین دو متغیر با توزیع نرمال
15809
من یک دوره کنترل کیفیت آماری را به عنوان یک دوره انتخابی در برنامه کارشناسی ارشد خود می گذرانم. ما از Montgomery's _Introduction to Statistical Quality Control_، ویرایش ششم استفاده می کنیم. در سراسر کتاب از minitab استفاده شده است و استاد مایل است که ما از minitab برای ادامه مثال ها استفاده کنیم. با این حال او گفت که ما آزادیم که از هر نرم افزاری که با آن راحت هستیم استفاده کنیم. من از زمانی که چند وقت پیش در دبیرستان آمار AP را گرفتم از minitab استفاده نکردم، بنابراین در صورت امکان از آن اجتناب کنم. بقیه برنامه ما به شدت بر روی SAS است و چند دوره از R استفاده می کنند. بنابراین این به این معنی است که این تقریباً تنها کلاسی است که در صورت رفتن به آن مسیر از minitab استفاده خواهم کرد. در صورت امکان، می‌خواهم خودم را از SAS کنار بگذارم، زیرا ممکن است همیشه به مجوز دانشگاهی دسترسی نداشته باشم و از R منحصراً استفاده نکنم زیرا از نرم‌افزار منبع باز پشتیبانی می‌کنم. آیا هیچ مرجع QC یا بسته خاصی برای R وجود دارد؟ اگر چنین است، آیا چیزی وجود دارد که حداقل به صورت موضوعی، اگر عمق محتوا نباشد، با متن مونتگومری قابل مقایسه باشد؟ آیا باید فقط گلوله ضرب المثل را گاز بگیرم و یک نسخه دانشگاهی از Minitab بخرم/اجاره کنم؟
نرم افزار یادگیری کنترل کیفیت آماری
51295
فرض کنید که دو گروه شامل $n_1$ و $n_2$ هر کدام مجموعه ای از 25 مورد را از مهم ترین به کم اهمیت ترین مورد رتبه بندی می کنند. بهترین راه ها برای مقایسه این رتبه بندی ها چیست؟ واضح است که انجام 25 آزمون Mann-Whitney U امکان پذیر است، اما این امر منجر به تفسیر 25 نتیجه آزمون می شود که ممکن است بیش از حد باشد (و در استفاده دقیق، سؤالاتی را با مقایسه های متعدد ایجاد می کند). همچنین برای من کاملاً مشخص نیست که رتبه ها تمام مفروضات این آزمون را برآورده می کند. من همچنین علاقه مند به اشاره به ادبیات رتبه بندی در مقابل رتبه بندی هستم. برخی زمینه ها: این 25 مورد همه مربوط به آموزش و پرورش است و این دو گروه انواع مختلفی از مربیان هستند. هر دو گروه کوچک هستند. ویرایش در پاسخ به @ttnphns: منظورم مقایسه رتبه کل موارد در گروه 1 با گروه 2 نبود - همانطور که @ttnphns اشاره می‌کند این یک ثابت خواهد بود. اما رتبه بندی در گروه 1 و گروه 2 متفاوت خواهد بود. یعنی گروه 1 ممکن است مورد 1 را بالاتر از گروه 2 قرار دهد. می‌توانم آن‌ها را، آیتم به ماده، به‌دست آوردن میانگین یا میانگین رتبه هر مورد و انجام 25 تست مقایسه کنم، اما نمی‌دانم آیا راه بهتری برای انجام این کار وجود دارد.
مقایسه لیست های رتبه بندی شده
18781
> **تکراری احتمالی:** > Hosmer-Lemeshow در مقابل AIC: رگرسیون لجستیک برای ارزیابی خوب بودن برازش یک مدل... آیا آزمون نسبت احتمال بهتر از آزمون H-L به طور کلی است؟
آزمون Hosmer-Lemeshow در مقابل آزمون نسبت احتمال
108897
فرض کنید مدل واقعی $$Y_i = βZ_i + u_i$$ باشد، با این حال، محقق/تحلیلگر فقط می تواند $X = Z + w$ را مشاهده کند، جایی که $w$ یک خطای اندازه گیری با میانگین صفر و واریانس ثابت $\sigma^ است. 2_w$. $Z$ و $w$ به طور مستقل توزیع می شوند. plim برآوردگر $\beta$ چیست: $$b=\frac{\sum_{i=1}^nX_iY_i}{\sum_{i=1}^nX_i^2}$$ برای بدست آوردن چه چیزی نیاز داریم برآوردگر ثابت $\beta$؟
برآوردگر plim $\beta$ چیست، برای به دست آوردن برآوردگر ثابت $\beta$ به چه چیزی نیاز داریم؟
33964
من با 196 نفر اقدامات مکرر دارم و برخی از پسرفت هایم فلات دارد. بنابراین من می خواهم این را با یک نقطه شکست نهایی برای هر ID مشخص کنم. مثال: زیرمجموعه زمان شناسه داده‌های شخصی من y 7G009 0 9 7G009 108,33 13 7G009 185,69 16 7G009 309,22 20 7G009 515,08 21 7G009 7G009 7G009 7G051 185,69 19 7G051 309,22 23 7G051 515,08 25 8S027 0 8 8S027 108,33 13 8S027 185,69 17 8S029,027 8S027 515,08 23 من با بسته Strucchange (نقطه شکست()) یا با بسته segmented (segemented() تست کرده ام. من همچنین با بسته `siZer` (`piecewise.linear()`) امتحان کرده ام. با یک شناسه مشکلی نیست، اما وقتی می‌خواهم با همه شناسه‌هایم کار کنم، گیر می‌کنم. اولین تلاش من با استفاده از کد موجود در بررسی با نام بخش‌بندی شده بود: بسته‌بندی R برای تناسب مدل‌های رگرسیون با روابط خط شکسته توسط ویتو ام‌آر موجئو. رجوع کنید به صفحه 23: > داده (گیاه) > پیوست (گیاه) > X<-model.matrix(~0+گروه)*زمان > زمان.KV<-X[,1] > زمان.KW<-X[ ,2] > time.WC<-X[,3] اما وقتی می‌خواهم از ۱۹۶ متغیر توضیحی مختلف خود استفاده کنم، گیر کرده‌ام. آیا کسی می تواند به من بگوید که چگونه با بسته تقسیم شده برخورد کنم یا راه حل دیگری ارائه دهد؟
چگونه در مدل رگرسیون خطی با R یک نقطه شکست برای هر ID پیدا کنیم؟
37651
همانطور که من متوجه شدم، یکی از اهداف اصلی آزمون مجذور کای در جدول احتمالی این است که تعیین کند آیا پیوند بین خطوط و ستون‌های جدول بیشتر از سوگیری نمونه‌گیری و نوسانات تصادفی است که می‌تواند ایجاد کند. بنابراین سوال من این است: اگر یک جدول احتمالی شامل کل جمعیت مورد بررسی باشد، دیگر سوگیری نمونه‌گیری وجود ندارد. بنابراین آیا منطقی است که یک آزمون مجذور کای در این جدول اعمال کنیم یا اینکه برای آزمایش در برابر فرضیه صفر فقط باید درصدهای خط و ستون را بدون نگرانی بررسی کنیم؟ پیشاپیش برای هر راهنمایی متشکرم!
آیا زمانی که کل جمعیت مورد بررسی قرار گرفته اند، استفاده از آزمون مجذور کای در جدول احتمالی منطقی است؟
18320
من در حال حاضر اولین کلاس رگرسیون خطی کاربردی خود را در مقطع کارشناسی ارشد می گذرانم و با تبدیل متغیرهای پیش بینی کننده در رگرسیون خطی چندگانه درگیر هستم. متنی که من استفاده می‌کنم، کوتنر و همکاران «مدل‌های آماری خطی کاربردی» به نظر نمی‌رسد که سؤالی را که من دارم را پوشش دهد. (به غیر از پیشنهاد این که یک روش باکس-کاکس برای تبدیل چند پیش بینی کننده وجود دارد). هنگامی که با یک متغیر پاسخ و چندین متغیر پیش‌بینی‌کننده مواجه می‌شویم، چه شرایطی برای هر متغیر پیش‌بینی‌کننده تلاش می‌شود؟ من درک می کنم که ما در نهایت به دنبال ثبات واریانس خطا و خطاهای توزیع شده معمولی هستیم (حداقل در تکنیک هایی که تا کنون به من آموزش داده شده است.) تمرینات زیادی را پشت سر گذاشته ام که راه حل آن به عنوان مثال «y» بود. ~ x1 + (1/x2) + log(x3)`، که در آن یک یا چند پیش‌بین تغییر شکل داده شد. من منطق را تحت رگرسیون خطی ساده درک کردم، زیرا به راحتی می‌توان به y~x1 و تشخیص‌های مربوطه (نقاط q-q باقیمانده‌ها، باقی‌مانده‌ها در مقابل y، باقی‌مانده‌ها در مقابل x، و غیره) نگاه کرد و آزمایش کرد که آیا y~log( x1) با مفروضات ما بهتر مطابقت دارد. آیا مکان خوبی برای شروع درک زمان تبدیل یک پیش بینی کننده در حضور بسیاری از پیش بینی کننده ها وجود دارد؟ پیشاپیش از شما متشکرم. مت
هنگام انجام رگرسیون چندگانه چه زمانی متغیرهای پیش بینی را تبدیل کنیم؟
41325
چگونه می توان ثابت کرد که آنتروپی یک تاس با احتمال مساوی برای همه وجوه آن در حداکثر است؟ واضح است که اگر شانس بیشتری برای یک چهره خاص وجود داشته باشد، آنتروپی کوچکتر خواهد بود، اما چگونه می توان این را ثابت کرد؟
حداکثر آنتروپی تاس
33969
من 2 گروه و 2 ضریب همبستگی دارم که می خواهم آنها را با استفاده از تبدیل فیشر مقایسه کنم. متاسفانه یکی از این ضرایب معنی دار نیست، بنابراین با صفر تفاوتی ندارد. آیا همچنان می توانم تبدیل را انجام دهم زیرا متفاوت از صفر نیست به معنای متفاوت نبودن با ضریب دیگر نیست؟ یا این غیرقانونی است زیرا یک همبستگی نه معنی دار قابل تفسیر نیست؟
آیا می توانم همبستگی ها را با هم مقایسه کنم حتی اگر یکی معنی دار نباشد؟
15805
یک روش قدیمی برای تولید اعداد تصادفی توزیع شده معمولی مستلزم تنظیم هر عدد تصادفی توزیع شده معمولی برابر با میانگین مجموعه ای از اعداد تصادفی توزیع شده یکنواخت است که مجدداً مقیاس شده و توسط یک ثابت جابجا می شوند. فرض کنید x یک متغیر تصادفی توزیع شده یکنواخت باشد، یعنی p(x) = 0 اگر x < 0 و x ≥1; p(x) = 1 اگر 0 ≤ x <1. چگونه میانگین و واریانس متغیر x را محاسبه کنم؟
میانگین و واریانس یک عدد تصادفی با توزیع نرمال ایجاد شده از میانگین مجموعه ای از اعداد تصادفی با توزیع یکنواخت
104382
من سعی می‌کنم یاد بگیرم که شبکه عصبی چگونه در تشخیص تصویر کار می‌کند. من گیج شده‌ام که چگونه شبکه عصبی چگونه ورودی بدهم. تعریف من یافتن (ردیابی) شی در توالی تصاویر است (مخصوصاً این تصویر از سفر هواپیما و گرفتن تصاویر می‌آید. از دوربین.بنابراین که اکثر اشیا یکسان هستند پس چگونه می توان این نوع اشیاء را با شبکه عصبی ردیابی کرد. چه ورودی باید به شبکه عصبی داده شود؟
پردازش تصویر با شبکه عصبی
108896
من سوالاتی در رابطه با مسئله استنتاج بیزی زیر دارم که در کتاب Bertsekas & Tsitsiklis (مقدمه ای بر احتمال ویرایش دوم) یافتم. مشکل به شرح زیر است (ص.445، مسئله 2): > * دانش آموز در آزمونی با 10 سوال، هر کدام 3 گزینه شرکت می کند. > * برای هر سوال، او یا پاسخ را می داند یا نه. $Pr(know)=Pr(نه > نمی دانم)=1/2$. > * هر سؤال مستقل از سؤالات دیگر است. > * هنگامی که او پاسخ را می داند، همیشه آن را درست دریافت می کند، یعنی > $Pr(correct|know)=1$. > * وقتی پاسخ را نمی داند، به طور تصادفی حدس می زند، یعنی > $Pr(درست|نمی دانم)=1/3، Pr(اشتباه|نمی دانم)=2/3$ > * با توجه به اینکه 6 مورد را به درستی پاسخ داده است. از 10 سوال، PMF پسین تعداد سوالاتی که او پاسخ آن را می دانست چقدر است؟ > من می توانم آن را به این صورت حل کنم: > اجازه دهید $\Theta$ متغیر تصادفی را برای تعداد سؤالاتی که او پاسخ می دهد نشان دهد > پاسخ از 10 سؤال را می داند، و $X$ نشان دهنده متغیر تصادفی > نشان دهنده تعداد سؤالاتی است که او به درستی پاسخ می دهد. از 10 سوال > سپس $$ Pr(\Theta=\theta)= \left\\{ \begin{array} > \scriptstyle\binom{10}{\theta}(1/2)^{10}&0\leq\theta داریم \leq10\\\ 0&در غیر این صورت > \end{array} \right. $$ PMF خلفی مورد نظر ما $$ > Pr(\Theta=\theta|X=6)=\frac{Pr(X=6|\Theta=\theta)Pr(\Theta=\theta)}{\ sum_\theta > Pr(X=6|\Theta=\theta)Pr(\Theta=\theta)} $$ برای به دست آوردن > $Pr(X=6|\Theta=\theta)$، **توجه کنید که او پاسخ سوالات $\theta$ > را می‌داند و همیشه آنها را درست می‌گیرد**. بنابراین، احتمال > را در نظر می گیریم که او سؤالات $(6-\theta)$ را درست از > $(10-\theta)$ سؤالاتی که پاسخ آنها را نمی داند به دست آورد: $$ > Pr(X=6|\ Theta=\theta)= \left\\{ \begin{array} > \scriptstyle\binom{10-\theta}{6-\theta}(1/3)^{6-\theta}(2/3)^{4} & > 0\leq\theta\leq6\\\ 0&در غیر این صورت \end{آرایه} \راست. $$ با استفاده از این، مخرج > $$ \sum_\theta > است Pr(X=6|\Theta=\theta)Pr(\Theta=\theta)=\sum_{\theta=0}^{6}\binom{10-\theta}{6-\theta}(1/ 3)^{6-\theta}(2/3)^{4}\binom{10}{\theta}(1/2)^{10}\\\ > =\binom{10}{4}(2/3)^6(1/3)^4 $$ و PMF خلفی $$ > Pr(\Theta=\theta|X=6)=\binom{6 است }{\theta}(1/4)^{6-\theta}(3/4)^\theta $$ اکنون سوالات من به شرح زیر است: 1. با توجه به $Pr(know|درست)=3/4، Pr(notknow|درست)=1/4$، احتمالاً PMF خلفی نهایی را می‌توان به روشی بسیار ساده‌تر با استفاده از اینها استخراج کرد، اما من نمی‌توانم استدلال خوبی به ذهنم بیاورم. 2. هنگام ارزیابی $Pr(X=6|\Theta=\theta)$، به این واقعیت $Pr(درست|می دانم)=1$ در قسمت پررنگ تکیه می کنیم. چه می شود اگر $Pr(درست|می دانم)<1$؟ آیا هنوز هم می توانیم آن را به همان روش حل کنیم؟
مسئله اساسی در استنتاج بیزی
86477
3 کارت از یک عرشه 52 کارتی کشیده می شود. اجازه دهید $X$ و $Y$ به ترتیب تعداد قلب ها و تعداد الماس ها را نشان دهند. همبستگی $(X,Y)$ را پیدا کنید. من می دانم که همبستگی به صورت $\frac{\mathrm{COV}(X,Y)}{\sigma_{X}\sigma_{Y}}$ تعریف می‌شود. من همچنین می دانم که دو متغیر تصادفی مستقل نیستند.
همبستگی تعداد قلب ها و الماس های 3 کارتی که از یک عرشه 52 تای گرفته شده است.
104381
من باید در مورد فاکتورسازی ماتریس برای سیستم های توصیه کننده بیاموزم، بنابراین این مقاله را دانلود کردم https://datajobs.com/data-science-repo/Recommender- Systems-[Netflix].pdf اما آن را خیلی کم عمق یافتم. این مفاهیم را عمیقاً برای من توضیح نداد. بنابراین می توانید لطفاً چند مقاله/منابع خوب برای یادگیری در مورد موضوع معرفی کنید؟ من باید در مورد آنها بیاموزم تا بتوانم یک مدل فاکتورسازی ماتریسی را پیاده سازی کنم.
الگوریتم های فاکتورسازی ماتریس برای سیستم های توصیه کننده
104388
**توضیح** باید تعداد خوشه ها را برای **داده های 1 بعدی** پیدا کنم. فرض بر این است که همه خوشه ها دارای توزیع گاوسی هستند (بنابراین تعداد زیادی از نقاط مشابه وجود دارد). من یک الگوریتم قوی مبتنی بر خوشه‌بندی + EM قوی دارم که می‌تواند مراکز خوشه‌ای را پیدا کند. **مشکل** تعداد خوشه ها (در مجموعه داده های مختلف) از 1 تا 10 متغیر است، اما تعداد نقاط در مجموعه داده های 1 بعدی من از صدها تا صدها هزار متغیر است. و این مشکل است، زیرا الگوریتم من برای تعداد نقاط بالا بسیار کند کار می کند. **سوال** آیا روش ساده ای برای کاهش تعداد امتیاز وجود دارد؟ دقت مراکز خوشه ای برای من مهم نیست، فقط می خواهم تشخیص سریع داشته باشم. آیا انتخاب هر k-امین نقطه و اعمال الگوریتم خوشه بندی در آن انتخاب مشکلی ندارد؟ یا آیا به چیز دیگری مانند شمارش تعداد نقاط مشابه و حذف چند درصد از نقاط مشابه نیاز دارم؟
نحوه کاهش تعداد نقاط برای خوشه بندی
18325
من یک قاب داده دارم که حاوی چندین ستون درست/نادرست، تعدادی عددی و یک متغیر کلاس (هدف) است که دارای مقادیر true/false است. حال، چگونه می توانم با R چندین بار پلات برای تمام ستون های عددی و عاملی تولید کنم بدون اینکه لازم باشد نام ستون هر قاب داده را مشخص کنم و توزیع ویژگی کلاس را برای هر ویژگی قاب داده اعمال کنم؟ چند نمونه کد: mydata<-data.frame(age=c(15,10,20),sugar=c(325)،اسفناج=c(درست،درست،نادرست من at=c(نادرست،نادرست،درست)،milk=c(نادرست،درست،نادرست)،class=c(درست،نادرست،نادرست) ) سن شکر اسفناج گوشت شیر ​​کلاس 1 15 3 true false false true 2 10 2 true false true false 3 20 5 false true false false پس چگونه می توانم توزیع صفت کلاس اعمال شده بر روی تمام ستون های دیگر چارچوب داده را ببینم (عددی یا فاکتورها) )؟ در اینجا یک مثال از WEKA آمده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RbDJW.png)
نمایش چندین توزیع شرطی با استفاده از شبکه
108409
من با استفاده از مراحل زیر یک مدل Arima (3،1،1) ایجاد کردم. من توانستم یک مدل ناپارامتری ایجاد کنم، اما اکنون برای مدل ایجاد شده (مدل 3) بوت استرپ می خواهم. همچنین می‌خواهم مسیرهای شبیه‌سازی‌های مختلف را ترسیم کنم. هر گونه کمکی بسیار قدردانی خواهد شد. من با R جدید هستم و این اولین سوال من است، بنابراین پیشاپیش بابت عدم وضوح، سادگی سوال و غیره پوزش می طلبم. #ایجاد داده مدل Arima (3،1،1)$Log.Spread1 <- as.zoo(data$Log.Spread) #تغییر متغیر log.spread در zoo ts model3 <- auto.arima(data$Log.Spread1) #ایجاد مدل از نمودار داده های گسترده (پیش بینی (model3, h=78, bootstrap = TRUE)) #پیش بینی پیش با استفاده از مدل arima #غیر پارامتری بوت استرپ x <- data$Log.Spread1 n <- طول(x) B <- 100 نمونه مجدد <- ماتریس(نمونه(x، n*B، جایگزین = TRUE)، B، n) میانه ها < - اعمال (نمونه‌های نمونه، 1، میانه) sd(میانگین) چندک (میانگین، c(0.025، .975)) #Bootstrap با استفاده از مدل؟ #نقاشی مسیرهای شبیه سازی شده؟
کمک کد - نحوه بوت استرپ و ترسیم مسیرها با یک مدل ترکیبی
31523
من داده‌هایی از آزمایشی دارم که در آن CO_2$ را از: * 4 محلول کربن آلی محلول مختلف (DOC) * هر کدام در 4 غلظت مختلف * هر کدام در نور و تاریکی اندازه‌گیری کردم. هر ترکیبی از منبع، غلظت و نور DOC فقط یک بار رخ داده است (به عنوان مثال، تنها یک شیشه برای هر یک از DOC-A: conc-A: تاریک، و یک شیشه برای DOC-B: conc-A: تاریک، و غیره...) اما یک سری از 4 اندازه گیری از هر ترکیب (یعنی شیشه) گرفته شد. تولید $CO_2$ در 4 نقطه زمانی خطی بود، بنابراین، متغیر پاسخ را می توان به عنوان یک نرخ واحد از هر شیشه نشان داد. من به تأثیر نور، منبع DOC و تمرکز بر تولید CO_2$، به علاوه فعل و انفعالات علاقه مند هستم. من لزوماً به تأثیر نقاط زمانی مختلف علاقه مند نیستم، با توجه به اینکه هر واحد آزمایشی تکرار نشده بود، چگونه می توانم این آزمایش را به بهترین شکل تجزیه و تحلیل کنم؟
چگونه باید این طرح را بدون تکرار آنالیز کنم؟
18327
چرا باید 0 تخمین ضرایب را در رگرسیون لجستیک دریافت کنم؟ و ضرایب دقیقاً 0 هستند. این ضرایب برای متغیرهای سطوح مختلف یک متغیر طبقه بندی است.
چرا باید 0 تخمین برای ضرایب در رگرسیون لجستیک دریافت کنم؟
38001
پس از سوال من در اینجا، نمی دانم که آیا نظرات قوی موافق یا مخالف استفاده از انحراف استاندارد برای تشخیص نقاط پرت وجود دارد (مثلاً هر نقطه داده ای که بیش از 2 انحراف استاندارد باشد یک نقطه پرت است). من می دانم که این به زمینه مطالعه بستگی دارد، به عنوان مثال، یک نقطه داده، 48 کیلوگرم، مطمئناً در مطالعه وزن نوزادان، اما نه در مطالعه وزن بزرگسالان، یک طرح کلی خواهد بود. نقاط پرت نتیجه تعدادی از عوامل مانند اشتباهات وارد کردن داده ها است. در مورد من، این فرآیندها قوی هستند. حدس می‌زنم سوالی که می‌پرسم این است: آیا استفاده از انحراف معیار روشی مناسب برای تشخیص نقاط پرت است؟
تشخیص نقاط پرت با استفاده از انحرافات استاندارد
86479
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/o5e0M.png) این نمودار را زمانی دریافت کردم که یک شی خوشه بندی را در R رسم کردم. اگر «km <- clara(data, 2)» را اجرا کنم '، سپس 'Plot(km)'، من یک نمودار مشابه دریافت می کنم. چگونه این طرح را با توجه به خوشه بندی تفسیر می کنیم؟ اگر من بیش از پنج خوشه داشته باشم، طرح مشابه چقدر مفید خواهد بود؟ برای دقیق تر، ** اجزای اصلی چگونه با خوشه ها مرتبط هستند؟**
خوشه بندی را که در دو جزء اصلی اول ترسیم شده است تفسیر کنید
31527
من درک می کنم که چگونه از رگرسیون خطی بر روی یک نمونه برای تولید مدلی از چگونگی تأثیر هر متغیر مستقل بر متغیر وابسته استفاده می شود. کاری که من می خواهم انجام دهم چیزی شبیه به آن است، به جز جایی که مدل می تواند تعاملات بین متغیرهای مستقل را نیز نشان دهد. ضمنا من دوست دارم در صورت امکان مدل غیرخطی باشد. با اولویت دادن به راه حل های ساده تر، طیف راه حل های موجود برای چنین مشکلی چقدر است؟ **ویرایش** برای دقیق تر، جزئیات مشکل من در زیر آمده است. من در حال توسعه یک الگوریتم شبکه عصبی هستم که دارای 11 متغیر پیوسته است که رفتار آن را کنترل می کند. اینها شامل اندازه لایه های مختلف، میزان یادگیری و تعدادی چیزهای دیگر است. من سعی می کنم بفهمم که چگونه مقادیر مختلف برای متغیرهای کمکی سطوح عملکرد متفاوتی را ایجاد می کنند و چرا. شهود و تجزیه و تحلیل اولیه (بر اساس نمونه گیری مونت کارلو) به من می گوید که بین برخی از متغیرهای کمکی برهمکنش هایی وجود دارد و احتمالاً تأثیرات در همه موارد خطی نیستند. با این حال، برای من مشخص نیست که نوع روابط چیست (به عنوان مثال چند جمله ای، نمایی و غیره). همچنین، برای کارآیی، همانطور که متغیرهای کمکی بیشتری اضافه می‌کنم و الگوریتم را در زمینه‌های مختلف اعمال می‌کنم، می‌خواهم روشی برای رگرسیون داشته باشم که خطی بودن را فرض نمی‌کند و به شناخت قبلی از نوع رابطه بین متغیرهای کمکی وابسته نیست. و عملکرد (متغیر وابسته).
چگونه یک تابع رگرسیون چندگانه را که برهمکنش بین متغیرهای مستقل دارد و به طور بالقوه غیرخطی است، تخمین زد؟
31524
هدف نهایی من پیاده سازی C++ از * یک پروفایل HMM است (مدل مارکوف مخفی نمایه مدلی است که حاوی اطلاعاتی در مورد هم ترازی چند توالی پروتئین ها است؛ فقط ارائه پس زمینه به عنوان نوع مدل لزوماً برای چیزی که می خواهم مهم نیست. بپرسید). * آموزش Baum Welch (و به طور ضمنی الگوریتم Forward، الگوریتم Backward) تا زمانی که سعی نکنم از هیچ حالت خاموشی استفاده نکنم، همه چیز را آماده کرده ام. بزرگ‌ترین مشکل من این است که نمی‌دانم چگونه معادلات حالت‌های خاموش را در الگوریتم‌های Forward/Backward محاسبه کنم/تغییر دهم. من واقعاً هیچ نمونه خوبی از این مورد خاص در اینترنت پیدا نکردم و می‌پرسیدم آیا کسی می‌تواند به من اشاره کند یا در مسیر درست راهنمایی کند، زیرا من خیلی در ریاضیات/آمار دانا نیستم. سوال بعدی: آیا بسته/جعبه ابزار کاربرپسندی با این الگوریتم ها قبلاً پیاده سازی شده است؟ من این را می‌پرسم تا بعد از اینکه الگوهایم را کامل کردم، بتوانم نتایج را مقایسه کنم تا مطمئن شوم همه چیز را به درستی محاسبه می‌کنم. اگر در مورد مشکلم کمی بی ربط بودم عذرخواهی می کنم. من بر این سوال نظارت خواهم کرد و در صورت لزوم جزئیات بیشتری را ارائه خواهم کرد.
چگونه می توانم حالت های خاموش را در رمزگشایی/ارزیابی مدل های پنهان مارکوف حساب کنم؟
18322
این سؤال با اشاره به معادله 3.15 در کتاب _عناصر یادگیری آماری_ نوشته طبشیرانی و همکار. من تخمین فاصله اطمینان بتا فردی را همانطور که در معادله 3.14 ارائه شده است، درک می کنم، اما معادله 3.15 فقط به من کمک می کند: $$\beta|(\hat{\beta} -\beta)^TX^TX(\hat{\beta} - \beta)\leq \sigma ^2\chi ^2$$ ایده ای که در اینجا بیان می شود چیست؟ مجموعه اعتماد چیست؟ آیا نمی توانیم فواصل تمام بتاها را مطابق با معادله 3.14 تخمین بزنیم؟
مجموعه اطمینان برای بردار پارامتر در رگرسیون خطی
88142
من می خواهم تفاوت بین 3 گروه را برای یک متغیر دوجمله ای آزمایش کنم. در یک گروه حدود 400 نفر، در گروه دیگر 900 نفر و در گروه سوم 100000 نفر هستند. من متعجبم که آیا این تفاوت فاحش تأثیری (در صورت وجود) روی نتیجه آزمون کای اسکوئر دارد یا خیر. یا استراتژی دیگری وجود دارد؟ همچنین، این تفاوت ها چه تاثیری بر تخمین اندازه اثر خواهند داشت؟
اندازه های گروه بسیار متفاوت - متغیر دسته بندی
33961
من خودم را در موقعیتی یافته‌ام که در آن مدلی به من داده شده است که از رویکردی که من معتقدم «این درست به نظر می‌رسد» ایجاد شده است. مدل مورد نظر بسیار پیچیده است اما هیچ حاشیه خطا یا آزمون صحت ندارد. یعنی هیچ چیز از این مدل پشتیبانی نمی کند که خوب باشد. برای تأیید مدل، 100000 نقطه داده توزیع شده یکنواخت (ورودی‌های مدل همه طبقه‌بندی شده‌اند) تولید کرده‌ام که از طریق مدل (برای به دست آوردن خروجی طبقه‌بندی) آن‌ها را بررسی کردم. سپس شروع به ترسیم هر متغیر ورودی در برابر چگالی متغیر خروجی کردم. من انتظار دارم که یک مدل خوب نمودارهایی با چگالی متفاوت برای هر مقدار ورودی داشته باشد، مانند این: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hV01a.png) (توجه، A,B ,C,D,E بیانگر مقادیر مختلف یک متغیر ورودی و 1,2,3,4 مقادیر مختلف متغیر خروجی است.) اما چیزی که من پیدا کردم این است که تقریباً در تمام ورودی متغیرها نمودارهایی با چگالی ثابت برای هر مقدار ورودی دریافت می کنم، مانند این: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WYBhL.png) (توجه، A,B,C,D, E نشان دهنده مقادیر مختلف یک متغیر ورودی و 1،2،3،4 مقادیر مختلف متغیر خروجی است.) سوال من به سادگی این است: آیا درست می گویم که متغیرهایی با چگالی مانند مواردی که در نمودار دوم ترسیم شده اند، به مدل کمک نمی کنند؟ اینکه هیچ قدرت پیش بینی ندارند؟ یا در ارزیابی این مدل چیزی کلیدی را از دست داده ام؟ با تشکر از یک دسته برای هر پاسخ و/یا نظر در مورد وضعیت کوچک من! ** P.S. ** هر گونه راهنمایی / ترفند در مورد چگونگی ارزیابی بیشتر یک مدل بدون هیچ گونه داده اعتبار سنجی بسیار قدردانی می شود!
ارزیابی عملکرد مدل بدون داده های اعتبارسنجی
38004
من سعی کرده ام مدل های رگرسیون پواسون را مطالعه کنم، و به نظر می رسد که تخمین چنین مدلی با یک نتیجه باینری امکان پذیر است. این قبلاً در این سایت اینجا (و تا حدودی اینجا و آنجا) مطرح شده است. من هنوز در مورد چگونگی تفسیر ضرایب زمانی که نتیجه باینری است، و نحوه تعیین یک افست برای تسهیل این تفسیر کمی سردرگم هستم. بیایید فرض کنیم که $E[y|x]=\exp(a+\beta x + \gamma d)$، که $x$ پیوسته است، و $d$ و $y$ دودویی هستند. فرض کنید نمونه تصادفی من $N=10000$ است و $y=1$ در 10% مواقع و $d=1$ در 25% مواقع اتفاق می‌افتد. 1. من معتقدم (اما می خواهم تأیید کنم) که برای مقادیر کوچک $\beta$، می توانم آن را به عنوان کشش تفسیر کنم، بنابراین اگر $\hat \beta=.05$، 5% افزایش در $\ است. Pr (y)=1$ برای واحد اضافی $x$. وقتی $\beta$ بزرگتر است، دقیق تر است که آن را نشان دهیم، بنابراین اگر $\hat \beta=.5$، معادل 65% افزایش در $\Pr (y=1)$ است. وقتی $d$ باینری از 0 به 1 می‌رود، اثر حاشیه‌ای $\exp(\hat \gamma)-1 است، $ بنابراین برای $\hat \gamma=0.3$، 35٪ افزایش می‌گیریم. 2. آیا می توانم $\exp(\alpha)$ را به عنوان احتمال پایه برای کسانی که $d=0$ و $x=0$ دارند تفسیر کنم؟ 3. اگر نتیجه $y$ شمارش واقعی یا حتی مستمر بود، من فقط می‌توانم انتهای آن را به عنوان افزایش در $y$ به جای افزایش در $\Pr (y=1)$ تغییر دهم.
رگرسیون پواسون برای داده های باینری
103004
من داده‌های شبیه‌سازی از 1000 اجرا را دارم که مقداری قابل اندازه‌گیری (در این مورد همگرایی الگوریتم) را به عنوان تابعی از زمان شبیه‌سازی ترسیم می‌کنم. هر اجرا مجموعه‌ای مجزا از نقاط «(t، f(t))» تولید می‌کند و تصویر روی هم قرار داده شده از همه اجراها به نظر می‌رسد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/UyZ44 .png) واضح است که ساختاری در اینجا وجود دارد. چگونه می توانم منحنی ایجاد کنم که به نحوی مقدار میانگین f(t) را برای یک t معین دریافت کند؟ علاوه بر این، من می‌خواهم بتوانم اسپرد را نیز تخمین بزنم، اگرچه مطمئن نیستم که توزیع اصلی چیست. فرض کنید که این نمودار از پارامترهای شبیه سازی **A** ایجاد شده است. هدف این پروژه نشان دادن این است که مجموعه دیگری از پارامترهای شبیه‌سازی **B**، مجموعه متفاوتی از منحنی‌ها را تولید می‌کند و راه خوبی برای تجسم آن دارد.
خط متوسط روی داده های سری گزارش های نامنظم
85929
من می‌خواهم $AIC_c$ ($AIC$ تصحیح‌شده) را برای k-means محاسبه کنم تا در مورد تعداد خوشه‌ها تصمیم بگیرم، اما یک مشکل بیش از حد برازش وجود دارد که نمی‌دانم چگونه آن را حل کنم. فرض کنید که من $n$ نقاط داده با ابعاد $d$ هر کدام دارم، و می‌خواهم آن $n$ نقاط را در خوشه‌های $c$ دسته‌بندی کنم. معیار اطلاعات Akaike ($AIC$) $-2ln(L)+ 2k$ است که $k$ تعداد پارامترهای آزاد است و برای k-means، $c(d+1)$ است. و برای $AIC_c$، فرمول $-2ln(L)+ 2kn/(n-k-1)$ می شود. حالا فرض کنید $n=1000$، $d=200$، $c=10$، سپس تعداد پارامترها $k=2010$ است. سپس مخرج در عبارت جریمه $AIC_c$ منفی می شود که به معنی جریمه منفی در فرمول است. و وقتی $c$ افزایش می‌یابد، جریمه کاهش می‌یابد و در نتیجه $AIC_c$ از مدل‌هایی با حداکثر تعداد خوشه پشتیبانی می‌کند (زمانی که $c=n$). فکر می کنم گم شده ام یا نکته ای را در مورد $AIC_c$ اشتباه متوجه شده ام. اون چیه؟ پیشاپیش ممنون
تصحیح AIC (AICC) برای k-means
71781
من اندازه گیری مجموعه ای از متغیرهای اجتماعی-اقتصادی در شهرداری های ایتالیا را دارم. هدف اجرای یک سری الگوریتم های خوشه بندی بر روی آنها است تا ببینیم آیا الگوی قابل توجهی از ارتباط محلی ظاهر می شود یا خیر. من از نظر شما در مورد روش صحیح استانداردسازی متغیرها می خواهم، زیرا بیشتر داده های من نوعی نسبت هستند. به عنوان مثال، اگر من اطلاعاتی در مورد تراکم در هر کیلومتر مربع داشته باشم، میانگین چگالی آشکارا با مقداری که از جمع همه ساکنان همه شهرداری‌ها و سپس تقسیم بر مساحت کل منطقه به دست می‌آورم، متفاوت است، البته شاید آنقدر هم متفاوت نباشد - من هنوز امتحانش نکردم به نظر شما راه صحیح برخورد با این مشکل چیست؟
چگونه داده های مکانی را به درستی استاندارد کنیم؟
38000
من در مورد تحلیل عاملی تاییدی (CFA) تردید دارم. من سه سازه مختلف دارم، هر کدام با مقیاس مربوط به خود: 1) تاب آوری (3 بعد، هر کدام 4 مورد) 2) شوخ طبعی (3 بعد، هر کدام 4-5 مورد) 3) مقابله (2 بعد، هر کدام 8 مورد) سوال من این است: آیا باید برای هر ساختار یک CFA متفاوت انجام دهم (یکی برای تاب آوری، یکی برای شوخ طبعی و دیگری برای مقابله، به طور جداگانه)؟ یا آیا باید یک آزمایش CFA را برای سه سازه به طور همزمان انجام دهم و همبستگی (فلش های دو سر) را بین ابعاد مختلف تاب آوری، شوخ طبعی و مقابله ایجاد کنم؟ از کمک شما متشکرم
تحلیل عاملی تاییدی (CFA) قبل از مدل کامل SEM: یک CFA برای هر مقیاس یا یک CFA برای همه مقیاس ها با هم؟
31528
من در حال خواندن این اطلاعات مربوط به آئروسل، به ویژه عمق نوری آئروسل ابزارهای MISR و MODIS بودم. من در واقع متوجه منظور از تعصب در زمینه بازیابی AOT این ابزارها نشدم.
سوگیری در داده های آئروسل چیست؟
89055
من سعی می کنم نتایج این مقاله را با استفاده از Theano تکرار کنم. مشکل در حال حاضر این است که تمام آموزش‌های مرتبط با Theano فقط برای طبقه‌بندی‌کننده‌های MNIST هستند که در بازیابی تصاویر بدون نظارت کاربرد چندانی ندارد. من ایده زیر را دارم که چگونه به اجرای این مشکل نزدیک شوم: ابتدا باید مجموعه ای از RBM های متصل به هم را آموزش دهم. هنگامی که RBM ها به اندازه کافی آموزش دیده باشند، ماتریس های وزن و بردارهای سوگیری را از آن ماتریس ها می گیرم و یک رمزگذار خودکار عمیق می سازم. سپس این رمزگذار خودکار به روش سنتی و با استفاده از انتشار مجدد آموزش داده می شود. آیا رشته فکری من درست است یا چیزی ضروری را از دست داده ام؟
چگونه می توانم رمزگذار خودکار عمیق را پیاده سازی کنم
88147
من یک مطالعه پیش آزمون با 20 شرکت کننده انجام داده ام. دو متغیر مستقل و در نتیجه 4 گروه 5 نفری هر کدام وجود داشت. آزمایش در یک کلاس درس انجام شد و یک گروه در پیش آزمون به طور قابل توجهی بهتر از بقیه عمل کردند. من سعی می کنم برای این نوع سوگیری طبقه بندی پیدا کنم. گروه‌ها به کرسی‌هایی اختصاص داده شدند تا هر گروه در تلاش برای جلوگیری از بی‌انگیختگی گروه‌های دیگر با هم باشند. متأسفانه آنها به طور طبیعی با دوستان/همکارانی با توانایی مشابه می نشستند و نتایج را مغرضانه نشان می دادند. من فکر می‌کنم نزدیک‌ترین چیزی که دیده‌ام، سوگیری انتخاب است، اما این موضوع به جای گروه‌بندی، بر انتخاب خود یا عدم انتخاب شرکت‌کننده تاکید می‌کند.
سوگیری انتخاب با گروه ها
40582
من درک می کنم که چگونه شبیه سازی در محاسبه توان برای آزمون نسبت درستنمایی می تواند آلفا را با استفاده از prop.test و توان حاصل از شمارش مستقیم مقادیر شبیه سازی را برای دو متغیر توزیع شده پواسون محاسبه کند. من علاقه مند به انجام آنالیز توان برای تعیین تعداد لازم نمونه هستم، مشابه استفاده از pwr.t.test(d = d، sig.level = 0.05، توان = 0.8)، به جز انجام این کار بین دو نمونه از (مشکوک) پواسون توزیع ها، و بنابراین از آزمون های t استفاده نمی شود. با توزیع های داده شده می توانم آلفا و توان را در اینجا محاسبه کنم، چگونه یک n مناسب را تعیین کنم؟ فکر می‌کنم یکی از راه‌ها نوشتن حلقه‌ای است که توان را برای افزایش n محاسبه می‌کند تا زمانی که توان در آستانه مورد نظر قرار گیرد، اما از نظر محاسباتی شدید به نظر می‌رسد. بهترین راه برای برخورد با این مشکل چیست؟ پیشاپیش متشکرم، مت.
تحلیل توان گذشته نگر نمونه ها از توزیع پواسون
108895
سرپرست من چند سوال از من پرسیده است که من کاملاً مطمئن نیستم چگونه به آنها پاسخ دهم. برای خلاصه ای سریع، مطالعه من شامل یک نمونه کوچک 16 نفری است. برای توصیف نمونه، نمرات 16 شرکت کننده را مقایسه کردم (n=6 از سن 3، n=8 از سن 4، و n=2 از سن 5 سال) به اطلاعات هنجاری (n=107 از سن 4 و n=91 از سن 5). اطلاعات هنجاری نمرات سن 3 را ارائه نمی‌کرد، بنابراین برای توجیه مقایسه سن 3 سال نمونه خود با اطلاعات هنجاری سن 4، آزمون‌های t-test نمونه‌های مستقل را انجام دادم تا مشخص کنم که آیا تفاوت معنی‌داری بین سنین وجود دارد یا خیر. سوال اول این است که با توجه به نمونه کوچک (و جمعیت هنجاری زیاد)، آیا انجام آزمون های t را توجیه می کنم و آیا همگنی واریانس ها برآورده می شود؟ از آنجایی که من داده های فردی برای اطلاعات هنجاری را ندارم، نمی توانم داده ها را در SPSS وارد کنم. من آزمون های t را با استفاده از اطلاعات N، Mean و SD انجام دادم. برای تجزیه و تحلیل رگرسیون من، 6 پیش بینی کننده و 3 متغیر وابسته داشتم. نمرات تمام 16 کودک در نظر گرفته شد. سوال دوم این است که الزامات انجام یک رگرسیون برای برآوردن نیازهای توان چیست؟ (من کاملاً مطمئن نیستم که سرپرست من به چه نیازی اشاره می کند، بنابراین نمی دانم که آیا کسی ایده ای دارد یا خیر). سوال سوم این است که با 16 نمره آزمودنی برای هر 6 پیش بینی کننده، آیا استانداردهای محاسبه توان را رعایت نمی کنم؟ (دوباره، مطمئن نیستم که به طور کامل آنچه را که سرپرستم می پرسد، درک کرده باشم). پیشاپیش از شما بسیار سپاسگزارم
آزمون های تی و رگرسیون
83185
این سوال در مورد مقاله ای است که من در حال بررسی آن هستم، بنابراین نمی توانم جزئیات زیادی ارائه دهم، اما می توانم بگویم که شامل بیمارانی است که در بیمارستان ها دسته بندی شده اند و یک مدل خطرات متناسب کاکس. غریزه من برای چنین داده‌هایی استفاده از مدل‌سازی چند سطحی است، زیرا بیمارستان‌ها ممکن است به روش‌هایی متفاوت باشند که در نظر گرفته نشده‌اند. نویسندگان از یک برآوردگر ساندویچ قوی با خوشه بندی برای بیمارستان ها استفاده کردند. آیا این یک انتخاب مشروع است؟ معایب و مزایای آن در مقایسه با یک مدل چند سطحی چیست؟
خوشه بندی در مدل مخاطرات متناسب کاکس MLM در مقابل برآوردگر ساندویچ
38002
با عرض پوزش برای سوال طولانی من، اما من مطمئن هستم که برای برخی از شما جالب خواهد بود: تحقیقات من در زمینه ساخت و ساز است. متغیر وابسته زمان مورد نیاز برای اتمام یک کار ساخت و ساز است و چندین متغیر مستقل جمع آوری شده است (اندازه خدمه، اندازه کار و غیره). با این حال، متغیر وابسته اصلی از چندین فعالیت دیگر تشکیل شده است. منظورم اینه: زمان اتمام یک کار ساخت و ساز (متغیر وابسته) = زمان فعالیت 1 + زمان فعالیت 2 + .... و برای هر یک از فعالیت های 1، فعالیت 2 و غیره، زمان را نیز با خود آنها ثبت کرده ام. متغیرهای مستقل (عوامل مؤثر). بنابراین، برخی از متغیرهای مؤثر بر فعالیت 1، مربوط به فعالیت 2 و غیره نیستند. اما اگر وظیفه اصلی به عنوان متغیر وابسته در نظر گرفته شود، باید همه متغیرهای مستقل در نظر گرفته شوند. بنابراین، من نمی دانم که چگونه مدل سازی کنم: یک راه این است که همه متغیرهای مستقل را وارد کنیم و کل زمان را به عنوان متغیر وابسته اصلی قرار دهیم. راه دیگر این است که مدل را به چندین مدل کوچکتر تقسیم کنیم تا برای هر یک از فعالیت ها یک مدل رگرسیونی انجام دهیم، اما به این ترتیب می توانم نتایج مدل ها را اضافه کنم؟ موضوع جالب دیگر این است که برخی از عواملی که به عنوان مثال با فعالیت 1 رابطه مثبت دارند، با انجام تحلیل رگرسیون کامل منفی می شوند و تفسیر نتایج را دشوار می کنند. نظر شما در این مورد چیست؟
تحلیل رگرسیون چندگانه با یک متغیر وابسته که می تواند به متغیرهای بیشتری تقسیم شود
83186
من فقط درگیر یک پرسش و پاسخ بودم که از یک مرد فقیر خواسته شد تا یک آزمایش آماری را برای _اثبات_ بهتر بودن الگوریتم A از دو الگوریتم دیگر اجرا کند. با این حال، او تنها 4 نقطه داده دارد. آیا واقعاً انجام یک آزمون آماری روی 4 امتیاز منطقی است؟ حدش کجاست؟ در سه؟ برای روشن‌تر شدن، می‌دانم که ۱۲ عدد گزارش شده است، اما برای من بیشتر شبیه ۴ نقطه داده سه‌بعدی یا ۳ نقطه داده چهار بعدی است. نویسندگان در پاسخ‌های خود مفروضاتی را در مورد توزیع‌های زیر خطی به منظور افزایش مصنوعی تعداد نقاط داده و در فرآیند محاسبه مقادیر میانگین چهار عدد مطرح می‌کنند. یا تست های t را روی جفت الگوریتم ها انجام دهید (مقایسه 8 عدد در مجموع برای هر جفت) و دوباره فرضیات بی اساس در مورد توزیع زیر خطی ایجاد کنید. وقتی توزیع زیر خط را نمی‌دانید و چون داده‌های کافی ندارید، نمی‌توانید امیدوار باشید که بتوانید آن را استنباط یا تأیید کنید، این فرآیند چقدر قابل اعتماد است؟ آیا منصفانه تر نیست که فقط بگوییم که با داده های کم کار زیادی نمی توانید انجام دهید؟
آیا می توانید آمار را با 4 نقطه داده انجام دهید؟
18323
من در جستجوی توسعه دقیق تابع درستنمایی طبیعی چند متغیره هستم تا بتوانم آن را به ویکی پدیا وارد کنم. آیا کسی می تواند یک کتاب مرجع خوب به من پیشنهاد دهد (یا اگر آن را دارید، فقط لاتک آن را کپی کنید؟) من نمی توانم یک مرجع خوب و دقیق را در گوگل پیدا کنم. با تشکر
توسعه تابع درستنمایی نرمال چند متغیره (در نماد ماتریسی)
89059
من یک متن حاوی اصطلاحات پزشکی دریافت کرده‌ام و می‌خواهم از متن کاوی روی آن برای دریافت تعداد کلمات استفاده کنم. می خواهم بدانم آیا R مجموعه پزشکی دارد که بتوانم از آن استفاده کنم تا بتوانم سند متنی خود را با مجموعه پزشکی مقایسه کنم.
آیا R دارای مجموعه پزشکی است؟
103008
فرض کنید من یک رگرسیون هم انباشته ساده از نوع $$y_t=\beta_0+\beta_1x_t+\varepsilon_t$$ $y،x$ هستند $I(1)$ هستند. اگر با آزمایش باقیمانده‌های OLS متوجه شدم که $y$ و $x$ با هم ترکیب شده‌اند، چگونه می‌توانم آزمایش‌هایی را روی ضرایب انجام دهم؟ آیا دو تخمین‌گر به‌عنوان یک t-student معمولی توزیع شده‌اند؟ از کدام مقادیر بحرانی استفاده کنم؟ متشکرم.
آزمون توزیع آماری در یک رگرسیون هم انباشته
15371
می خواهم بدانم چقدر می توانم به $\lambda$ خود اطمینان داشته باشم. کسی راهی برای تنظیم سطوح اطمینان بالا و پایین برای توزیع پواسون می شناسد؟ * مشاهدات ($n$) = 88 * میانگین نمونه ($\lambda$) = 47.18182 اطمینان 95% برای این چگونه خواهد بود؟
چگونه یک سطح اطمینان را برای توزیع پواسون محاسبه کنیم؟
87401
تفاوت بین جمعیت هدف، جمعیت مورد مطالعه و جمعیت نظری چیست؟
شناخت دقیق جمعیت
40581
من 3 لیست از بازدیدهای مهم دارم (p-value < 0.05). من همچنین برای مشکل مقایسه چندگانه تنظیم کردم و مقادیر q را به هر لیست اضافه کردم. این 3 لیست (بازدید) نیز تا حدی همپوشانی دارند. برای بازدیدهایی که همپوشانی دارند، می‌پرسیدم که آیا میانگین کردن مقدار q منطقی است؟ بنابراین، برای مثال، ضربه X (List1): pval=0.004، qval=0.0045 ضربه X (List2): pval=0.0006، qval=0.0006 ضربه X (List3): pval=0.02، qval=0.04 بنابراین، یافته‌های خود را خلاصه می‌کنم. من به Hit X یک q-val متوسط ​​اضافه می کنم (0.0045+0.0006+0.04)/3 = 0.0150. مطمئن نیستم که آیا این منطقی است؟
آیا میانگین کردن مقادیر q منطقی است؟
47051
من در تعداد زیادی مقاله خوانده ام که مدل های پراکنده (کدنویسی پراکنده، یادگیری فرهنگ لغت، فاکتورسازی ماتریس پراکنده، ...) راه حل های خوبی برای مشکلات حذف نویز تصویر هستند. من می دانم که نمایش داده ها به عنوان ترکیبات پراکنده اتم ها از یک فرهنگ لغت (بیش از حد کامل) باید به روشی باشد که قشر بینایی اولیه پستانداران کار می کند. با این حال، مشخص نیست که چرا نمایش‌های پراکنده باید نویز، تاری یا سایر مصنوعات مشابه را حذف کنند. آیا توضیح ریاضی معتبری برای این موضوع وجود دارد؟ فکر کردن به تصویر لنا (384x384): ![تصویر لنا](http://i.stack.imgur.com/EV2zA.jpg) آیا هیستوگرام آن واقعاً یک طبیعت پراکنده را به ما نشان می دهد؟ ![هیستوگرام لنا](http://i.stack.imgur.com/an1vB.jpg)
نمایش های پراکنده برای حذف نویز مشکلات
89056
یکی از معایب تحقیق من این است که با داده های استاندارد طلا مقایسه نشده ام، آیا کسی می تواند به من کمک کند چگونه داده های خود را با داده های استاندارد طلای موجود برای تشخیص چهره مقایسه کنم. می‌خواهم بدانم داده‌های استاندارد طلا چیست و آیا داده‌ای برای تشخیص چهره وجود دارد.
برای تشخیص چهره به داده های استاندارد طلایی نیاز است
40587
یک سوال در مورد میانگین اعوجاج مربعی که توسط تابع کوانتیز متلب برگردانده شده است. کد من اینجاست: مجموعه داده = rand(1,1000)*2-1; M1 = 128; qlevels1=-1+(2/M1):2/M1:1-(2/M1); کتاب کد1 =-1+(1/M1/2):2/M1:1-(1/M1/2); [index1, quants1, dist1] = quantiz(dataset, qlevels1, codebook1); Qnoise1 = sum((dataset-quants1).^2); من بعد از اجرای برنامه من $Qnoise1$ و $dist1$ من با قدر `1000` متفاوت هستند > $Qnoise1 = 0.0374$ > $dist1 = 3.7417e-05$ آیا من چیزی را در اینجا گم کرده ام؟ آیا باید qlevels1 را در طول (مجموعه داده ها) ضرب کنم تا به پاسخ صحیح برسم؟ با تشکر
MATLAB quantiz - میانگین اعوجاج مربع
47583
من در حال کار بر روی مفهومی برای یک بازی هستم که نیاز به استنتاج آماری دارد و مطمئن نیستم که چگونه آن را انجام دهم. مشکل من این است که سعی می‌کنم راهی برای محاسبه اینکه آیا یک شهر (در بازی) می‌تواند به یک شهر پر رونق تبدیل شود، بیابم. من مجموعه‌ای از قوانین دارم که عوامل مختلف شهر مانند کیفیت سلامت، فاصله تا ساحل، رشد جمعیت و غیره را ارزیابی می‌کنند و باید همه این مقیاس‌های مستقل را در یک احتمال واحد بجوشانم. در حال حاضر من همه اعداد را میانگین می گیرم، اما مطمئن هستم که راه بهتری در مورد آن وجود دارد. من همچنین باید یک درجه از اطمینان را محاسبه کنم. من سعی کردم به دنبال راه حلی در کتاب ها بگردم اما همه آنها سناریوهای ساده را تنها با یک متغیر پوشش می دهند. امیدوارم کسی بتواند مرا به مسیر درست راهنمایی کند. با تشکر ویرایش 1: از آنجایی که این یک بازی است، من فقط از چند متغیر استفاده می‌کنم تا تصمیم بگیرم که آیا یک شهر پر رونق است یا خیر. همچنین از آنجایی که این یک مشکل بلادرنگ است، نمی‌توانم از روش‌های آماری مبتنی بر مجموعه‌های آموزشی استفاده کنم. من پیش زمینه ریاضی ندارم، بنابراین این چیزی است که از تحقیقاتم فهمیده ام، بنابراین لطفاً اگر هر یک از فرضیات من نادرست است، من را اصلاح کنید.
چگونه مدل سازی کنیم که آیا یک شهر در حال رونق است یا نه؟
103002
این سوال در stackoverflow.com نیز مطرح شده است. با این حال، هدف من این است که در پلتفرم فوق الذکر به دنبال افزایش کارایی باشم. هدف من در اینجا درستی رویکرد من است. من سعی می کنم 365 سری زمانی چند متغیره (2 تا 4 بعدی) را که هر کدام از 24 ورودی تشکیل شده است را خوشه بندی کنم. این بدان معناست که من سعی می کنم روزهای مشابه را با استفاده از زمان تابش پویا به عنوان اندازه گیری فاصله گروه بندی کنم! مشکل من از نظر مفهومی مشابه این حالت تک متغیره است: LINK. اطلاعات اولیه من کمی شبیه این به نظر می رسد. n <- 8760 s1 <- نمونه (30000:70000، n) s2 <- نمونه (0:10000، n) inDf <- cbind(s1, s2) سپس این داده ها به قطعه های 24 ساعته تقسیم می شوند به طوری که هر یک از این 365 سری های زمانی 2 تا 4 بعد دارند و قابل مقایسه با یکدیگر هستند. مشکل فعلی من این است که چگونه ماتریس فاصله را محاسبه کنم تا بتوان از hclust() یا هر الگوریتم خوشه بندی دیگری بر اساس ماتریس فاصله استفاده کرد. من سعی کردم خودم آن را محاسبه کنم اما از آنجایی که از نتیجه مطمئن نیستم، ** می خواهم از شما بچه ها بپرسم که آیا منطقی است که ماتریس فاصله را به روش زیر محاسبه کنید:** علاوه بر این، می خواهم بپرسم ، آیا (1) یک ماتریس کوواریانس را می توان به این شکل محاسبه کرد و (2) آیا استفاده از آن در تجزیه و تحلیل خوشه بندی منطقی است، با این فرض که داده ها می توانند بسیار زیاد باشند. مرتبط؟ #' محاسبه ماتریس فاصله #' #' @param داده مجموعه داده های ذکر شده در Df #' @param tstep طول هر سری زمانی به ساعت (در این مثال 24) #' این منجر به 8760h / 24h = 365 سری زمانی می شود. ' @return ماتریس فاصله، با ابعاد n x n، n که # سری زمانی # است' @author BenR distanceMatrix_dtw <- function(data, tstep) { #' n برابر است با تعداد سری‌های زمانی ایجاد شده n <- nrow(data)/tstep d_matrix <- data.frame() #' حلقه‌ای از میان d_matrix که با ردیف شروع می‌شود-# #' b و e به ترتیب برای شروع و پایان هستند (i در seq(1, n, 1)){ for (j در seq(1, n، 1)){ i_b <- i * tstep - tstep + 1 i_e <- i * tstep j_b <- j * tstep - tstep + 1 j_e <- j * tstep # X, Y سری زمانی چند متغیره هستند، که باید مقایسه شود. # X, Y دارای ابعاد 24x2 است # مقایسه دو ماتریس از منبع ذکر شده الهام گرفته شده است X <- data[i_b : i_e,] Y <- data[j_b : j_e,] cxdist <- dist(X,Y ) d_matrix[i, j] = dtw(cxdist, distance.only = T)$distance } } return(data.matrix(d_matrix)) } با آرزوی بهترین ها و پیشاپیش از همه شما تشکر می کنم، BenR نسخه من الهام گرفته از: > (صفحه 12، فصل 3.6) تونی جورجینو (2009). محاسبات و تجسم > ترازهای تاب دار زمان پویا در R: بسته dtw. مجله > نرم افزار آماری، 31(7)، 1-24. نشانی اینترنتی www.jstatsoft.org/v31/i07/.
محاسبه ماتریس فاصله بین سری های زمانی چند متغیره
5647
من یک مدل رگرسیون لجستیک شرطی با کنترل‌های 1:4 با استفاده از «R» برازش می‌کنم. من می خواهم AIC را از مدل دریافت کنم. چگونه می توانم پارامترهای مناسب را بر اساس شی «m» استخراج کنم؟ کتابخانه (بقا) m<-clogit(cc~exp+ factor1+ factor2 + لایه (لایه)، داده = داده 1)
چگونه AIC را با رگرسیون لجستیک شرطی با استفاده از R بدست آوریم؟
40588
من شروع به یادگیری رگرسیون پشته در R کردم. من رگرسیون خطی را در مجموعه داده های کامل خود اعمال کردم و نتایج زیر را دریافت کردم. gridge<-lm.ridge(divorce ~., data=divusa, lambda=seq(0,35,0.02)) select(gridge) اصلاح‌شده HKB تخمین‌گر 0.07693804 برآوردگر L-W اصلاح‌شده 0.3088377 است که کوچک‌ترین مقدار GCV در 0.min (0.min) است. gridge$GCV) 0.02 2 دور (ضریب (شبکه)[2,-1],3) سال تولد ازدواج زن بیکار نظامی -0.195 -0.053 0.790 0.148 -0.118 -0.042 دور (ضریب (g)[-1],3) سال تولد ازدواج زن بیکار -0.203 -0.049 0.808 0.150 -0.117 -0.043 **سوالات:** 1. چگونه نتایج را تفسیر کنم؟ 2. آیا برای تفسیر باید کار دیگری انجام دهم؟
نتایج حاصل از رگرسیون پشته را چگونه تفسیر می کنید؟
40584
من به دنبال مشاوره/منابع/توصیه هایی در مورد نحوه بهترین قالب بندی نمودارها برای ارائه هستم. از روی تجربه، می‌دانم که نموداری که برای انتشار چاپی تولید می‌شود، وقتی آن را با پرتو نمایش می‌دهیم، به خوبی «مقیاس» نمی‌شود. متن اغلب خیلی کوچک است، خطوط به اندازه کافی ضخیم نیستند و غیره. تقریباً همیشه ایده بدی است که فایل .eps/.pdf را بگیرید و مستقیماً در یک ارائه قرار دهید. آیا وقتی صحبت از ارائه نمودارها به مخاطبان گسترده با پرتو می شود، راهنماهای سبک پیشنهادی وجود دارد؟
آیا راهنمای سبکی برای نمودارهای آماری در نظر گرفته شده برای ارائه وجود دارد؟
6462
من الگوریتم فازی C-means (FCM) را با استفاده از تابع R «fanny» از بسته «خوشه» آزمایش کرده‌ام و الگوریتم FCM خودم را نوشته‌ام تا کنترل بیشتری روی تابع فاصله داشته باشم. مشکل این است که تابع عضویت نهایی من بارها به 1/K همگرا می شود، منظورم این است که تقریباً همه مقادیر در ماتریس عضویت نزدیک به 1/K هستند. من تعجب می کنم که چه شرایطی بر نتیجه نهایی تأثیر می گذارد. من از پارامتر فازی m=2 استفاده می کنم.
در چه صورت عضویت FCM به 1/K همگرا می شود؟
87403
من در حال انجام پایان نامه هستم و در حال انجام تعدادی تست هستم. پس از استفاده از آزمون کروسکال-والیس، من معمولاً نتیجه را به این صورت گزارش می‌کنم: > تفاوت معنی‌داری بین میانگین‌های > $(\chi^2_{(2)}=7.448، p=.024)$ وجود دارد. اما اکنون من یک آزمایش Mann-Whitney انجام دادم و مطمئن نیستم که کدام مقادیر را ارائه دهم. SPSS به من یک مقدار Mann-Whitney $U$، Wilcoxon $W$، $Z$ و $P$ می دهد. آیا همه این 4 مقدار را ارائه می کنم؟ یا برخی بی ربط هستند؟
چگونه آزمایش من ویتنی را گزارش می کنید؟
6469
چگونه می توانم یک مدل خطی را با خطاهای همبسته خودکار در R برازش کنم؟ در stata از دستور prais استفاده می کنم، اما نمی توانم معادل R پیدا کنم...
مدل خطی ساده با خطاهای همبسته خودکار در R