_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
70572 | من با چندین بردار باینری کار می کنم، به عنوان مثال، A، B، C، D، E، F، G، H. من می خواهم طبقه بندی بین آنها را پیدا کنم. من موارد زیر را امتحان کردم: log_data<-read.csv(choose.files()، as.is = T، header = T، blank.lines.skip = TRUE) data<-log_data[2:ncol(log_data)] داده TIME A B C D E F G 1 1 1 1 0 1 0 1 1 2 0 0 1 1 1 1 0 1 3 1 1 1 1 1 0 1 1 4 1 0 1 1 1 1 0 1 ..................... مناسب <- شبکه(داده) مناسب.پیشین < - jointprior(fit) fit <- getnetwork(learn(fit,rats,fit.prior)) خطا در postc0c(node$condposterior[[1]]$mu, node$condposterior[[1]]$tau, : NA/NaN/Inf در فراخوانی تابع خارجی (arg 1) دریافت این خطا فقط به این دلیل که همه متغیرهای پیوسته و NULL در mu هستند شبکه؟ | طبقه بندی با شبکه بیز (معامله) |
70199 | من تست دقیق فیشر را روی حجم نمونه بسیار بسیار کوچک اعمال می کنم. هر مکان در جدول حدود 1 یا دو نمونه خواهد داشت. روش فیشر جایی برای برشمردن جداول ندارد و نتیجه بسیار بدی به من می دهد. بنابراین آیا آزمایش دقیق بهبود یافته دیگری برای داده های اندازه نمونه بسیار کوچک وجود دارد؟ | تست دقیق فیشر، حجم نمونه بسیار کوچک، جدول RxC، نتیجه بدی به من داد |
113263 | من متخصص آمار نیستم: مجبور شدم موضوع کارآموزی دانشجوی دیگری را قبول کنم تا آن را در رشته خود لحاظ کنم. او با مدلهای $SARIMAX$ کار میکرد و من میخواهم آنها را در یک کاربرگ «اکسل» وارد کنم. از اینترنت و این پست، من می دانم که معادله یک فرآیند $SARIMA(p,d,q)(P,D,Q)_m$$X_t$ به شکل زیر است: $$\Phi(B^m )\phi(B)\nabla_m^D\nabla^d X_t=\Theta(B^m)\theta(B)Z_t$$ در حال حاضر، من روی یک مدل $SARIMAX$ کار می کنم برای چندین سری زمانی به لطف نرم افزار SAS می توانم ضرایب هر یک از این توابع را بدست بیاورم و مدلی را بدست بیاورم که با این معادله نشان داده شده است: $$\nabla_m^D\nabla^d X_t=\mu+\omega_0 W_{1,t}+ \omega_1 W_{2,t}+\frac{(1-\Theta B^{m})(1-\theta_1(B))Z_t}{(1 - \Phi B^{m})(1-\phi_1(B))}$$ با $\mu=0$. آنچه من می خواهم به دست بیاورم معادله ای به شکل $Y_t = \ldots$ است که می توانم با توسعه اصطلاحات مختلف به دست بیاورم. اما من گیر کرده ام زیرا نمی دانم چگونه عبارت نوآوری $Z_t$ را نشان دهم. آیا این فقط نوعی صدا است؟ یا بسته به متغیرهای دیگر یک اصطلاح است؟ تا آنجا که من فهمیدم، $Z_t$ یک نویز است، اما من نتوانستم آن را پیدا کنم/درک کنم که چگونه آن را تعیین/تخمین بزنم. **ویرایش:** مهم نیست، من در آنجا متوجه شدم که عبارت نوآوری باید به عنوان عبارتی خارج از توزیع نرمال میانگین 0 تخمین زده شود. و «SAS» به من تخمینی از واریانس ارائه شده در شکل 7.9 را ارائه می دهد. | چگونه عبارت نوآوری را در یک معادله ARIMA تعیین کنم؟ |
33380 | من سعی می کنم از بسته BradleyTerry2 در R برای ارزیابی تیم های ورزشی استفاده کنم. من از مقاله مدل های بردلی-تری در R: بسته بندی برادلی تری2 نوشته ترنر و فرث برای راهنمایی خود استفاده می کنم. من مدل را به کار انداختم، اما اکنون میخواهم متغیرهای پیشبینیکننده مخصوص بازیکن را در آن قرار دهم. در حال حاضر، داده های من به این صورت تنظیم شده است: ستون اول تیم برنده، ستون دوم تیم بازنده، ستون سوم فراوانی است. من مطمئن نیستم که چگونه متغیرهای پیش بینی را وارد کنم. من سعی کردم ستون چهارم را با متغیرهای تیم برنده و ستون پنجم را با متغیرهای تیم بازنده وارد کنم، اما این کار به نتیجه نرسید. مطمئن نیستم که داده ها را به درستی تنظیم نمی کنم یا اینکه کد من اشتباه است. بنابراین، یک قدم در یک زمان. حدس میزنم در حال حاضر، سوال من این است که من دادهها را به درستی تنظیم میکنم؟ اگر نه، چگونه باید راه اندازی شود؟ | چگونه داده ها را برای مدل بردلی تری در R تنظیم کنیم؟ |
105318 | من از MATLAB 2012a برای اجرای 3 تست استفاده می کنم. با دادههایم، مقادیر بسیار کوچکی به دست میآورم، و برای تستهای اندرسون-دارلینگ (A-D)، نتایج حتی نرمال نمیشوند. لطفا کد من را تایید کنید. من همچنین از اسکریپت A-D استفاده می کنم که در این لینک یافت می شود. نمونه= N; h1=histfit(sample,30,'weibull'); xdata1 = get(h1(2)، 'XData'); ydata1 = get(h1(2)، 'YData'); [~,p_weibull_cs,stats_weibull_cs] = chi2gof(ydata1); [~,p_weibull_ks,stats_weibull_ks] = kstest(ydata1); p_weibull_ad = AnDartest(ydata1); | تست خوبی تناسب |
10078 | برای محاسبه ضریب پیرسون از فرمول زیر در متلب استفاده می کنم: C=cov(x,y); p=C(2)/(std(x)*std(y)); اما C(2) در مورد من صفر است اگر x = [1 0 1 0 0 0]; y = [1 1 1 1 1 1]; هر ایده ای که کجا دارم اشتباه می کنم | ضریب همبستگی پیرسون با استفاده از متلب زمانی که انحراف معیار یک متغیر صفر است |
37400 | من بورس اوراق بهادار را بر اساس مدل ارزش فعلی که توسط گرگوری چاو در این مقاله تعریف شده است، مدلسازی میکنم. مدل بر اساس لگاریتم های طبیعی قیمت سهام و سود سهام به منظور از بین بردن اثر تعداد دلخواه سهام منتشر شده عمل می کند. اما شرکت ها همیشه سود سهام پرداخت نمی کنند. وقتی یک سال وقفه در پرداخت ها وجود دارد چه باید بکنم؟ در حال حاضر لگاریتم آن را تا بی نهایت منفجر می کند. | مدل ارزش فعلی بورس: چگونه با سود سهام صفر برخورد کنیم؟ |
105316 | دو سری زمانی (شار نور) را فرض کنید. هدف این است که مشخص شود آیا سریال ها از یک توزیع هستند یا خیر. معمولاً در این شرایط از آزمون Kolmogorov-Smirnov (KS) استفاده می شود. با این حال، فواصل زمانی لزوماً حتی بین اندازهگیریها نیست، زیرا ممکن است برخی از دادهها گم شده باشند. آیا این استنباط صحیح است که آزمون باید روی آرایه های دو بعدی (زمان، شار) باشد؟ با این حال، به دلیل اینکه چرا نمی توان آزمون کولموگروف-اسمیرنوف را به 2 بعد یا بیشتر تعمیم داد؟، می توان از KS برای آرایه های دو بعدی استفاده کرد. پس مراقب تست کولموگروف-اسمیرنوف باشید! تست Anderson-Darling (AD) با بوت استرپ را پیشنهاد می کند. آیا در IDL، bootstrap.pro این کار را انجام می دهد؟ و سپس edf_stats-code.pro برای تست AD؟ آیا می توان bootstrap.pro را به عنوان آماده سازی داده ها برای آزمون همانطور که در edf_stats-code.pro نوشته شده است درک کرد؟ | تست اندرسون-دارلینگ در سری زمانی دوبعدی |
113267 | به طور شهودی گفتن اینکه یک فرآیند سری زمانی علی است به چه معناست؟ و رابطه علیت با ثابت بودن و وارونگی چیست؟ اگر به درستی بفهمم، این 3 شرط همگی مستلزم این هستند که ریشه های چند جمله ای بزرگتر از 1 باشد. | به طور شهودی گفتن اینکه یک فرآیند سری زمانی علی است به چه معناست؟ |
37406 | می توانیم قضیه بیز را به صورت $$p(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\) بنویسیم. theta)d\theta}$$ که در آن $p(\theta|x)$ پسین است، $f(X|\theta)$ توزیع شرطی و $p(\theta)$ قبلی است. یا $$p(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} $$ که در آن $p(\theta|x)$ عقبی است، $L(\theta|x)$ تابع درستنمایی و $p(\theta)$ قبلی است. سوال من این است 1. چرا تحلیل بیزی با استفاده از تابع درستنمایی انجام می شود نه توزیع شرطی؟ 2. آیا می توانید با کلمات بگویید تفاوت بین احتمال و توزیع شرطی چیست؟ من می دانم که احتمال یک توزیع احتمال نیست و $L(\theta|x) \propto f(X|\theta)$ است. | احتمال در مقابل توزیع شرطی برای تحلیل بیزی |
3463 | من دو سری زمانی S دارم و T. فرکانس یکسان و طول یکسانی دارند. من می خواهم (با استفاده از R)، همبستگی بین این جفت (یعنی S و T) را محاسبه کنم و همچنین بتوانم اهمیت همبستگی را محاسبه کنم، بنابراین می توانم تعیین کنم که آیا همبستگی به دلیل شانس است یا خیر. من میخواهم این کار را در R انجام دهم و به دنبال نشانگرها/چارچوبهای اسکلتی برای شروع کارم هستم. | محاسبه همبستگی (و اهمیت همبستگی مذکور) بین یک جفت سری زمانی |
113268 | در دادههای Google Analytics من، بسیاری از ترافیک به اشتباه با عنوان مستقیم برچسب گذاری میشوند، زیرا گوگل منبع اصلی ترافیک را نمیداند. من 6 ماه از دادههای ترافیک «مستقیم» خود را گرفتهام و همبستگی آن را با کانالهای ترافیک دیگر، مانند Organic و Social محاسبه کردهام. بین Social و Direct همبستگی متوسطی وجود دارد.  سوال من این است... آیا راهی برای تنظیم اعداد ترافیک برای اجتماعی (در یک صفحه گسترده) وجود دارد که شامل شود برخی از ترافیک مستقیم، با دانستن اینکه ارتباطی بین آنها وجود دارد؟ به عنوان مثال، بگوییم که GA در حال حاضر 1000 بازدید اجتماعی و 5000 بازدید مستقیم را گزارش می دهد، آیا می توانم برخی از مستقیم را به اجتماعی نسبت دهم، مانند: Social اکنون ممکن است 2000 باشد. اگرچه من سطوح همبستگی را میدانم، اما هیچ راهی وجود ندارد که بگوییم Direct واقعاً چقدر مستقیم است، بنابراین نمیدانم آیا این محاسبه امکانپذیر است یا یک روش علمی برای انجام این فرآیند وجود دارد. من قبول دارم که این واقعاً دقیق یا قطعی نخواهد بود، من به این بیشتر به عنوان یک شاخص نگاه می کنم. با تشکر | استفاده از همبستگی ها برای برچسب گذاری مجدد داده ها از Google Analytics |
33389 | در R من در حال تنظیم یک مجموعه داده برای اجرای یک رگرسیون لجستیک هستم. من دو سوال در مورد انتخاب متغیرهای مستقل دارم. من ابتدا به طور خلاصه مجموعه داده را توضیح می دهم: مجموعه داده شامل بازدیدهای یک وب سایت است. برخی از این بازدیدها در نهایت منجر به فروش می شود. برخی نخواهند کرد. هر بازدید مدت زمانی را که کاربر در وب سایت می گذراند و تعداد صفحاتی که مشاهده کرده است را نشان می دهد. اگر کاربر در نهایت خرید کند، ورودی داده نیز فیلدی به نام مرتبط و فیلدی به نام تازهسازی (مدت زمانی طول میکشد تا سفارش انجام شود) دریافت میکند. بازدیدها ممکن است از چندین طرف باشد و چندین بازدید می تواند منجر به یک فروش شود (به عنوان مثال مشتری دیروز از طریق یک کانال وارد می شود و خرید نمی کند، مشتری روز بعد از کانال دیگری وارد می شود و خرید می کند). من سؤالات زیر را دارم: * زمان صرف شده در وب سایت و تعداد صفحات مشاهده شده برای همه بازدیدها موجود است (بنابراین بازدیدهایی که به بازدیدهایی تبدیل می شوند که به فروش کمک می کند (1) و بازدیدهایی که انجام نمی دهند (0). بازدیدهایی که به فروش تبدیل نمی شوند هیچ ارتباطی ندارند و بنابراین مقدار تعیین شده 0 را دریافت می کنند. اما تازگی فقط برای بازدیدهایی که در نهایت منجر به فروش می شوند اندازه گیری می شود، بنابراین فقط زمانی که متغیر وابسته دارای مقداری 0 باشد. 1. چگونه می توان این را ادغام کرد این متغیر را در هر ردیف قرار دهید، زیرا این متغیرها مختص ردیف نیستند. | اجرای رگرسیون لجستیک بر روی داده های فروش |
91143 | چگونه اندازه نسبی یک مقدار p در اندازه های مختلف نمونه تغییر می کند؟ مثلاً اگر $p=0.20$ را در $n=45$ برای یک همبستگی بگیرید و سپس در $n=120$ همان p مقدار 0.20 را دریافت کنید، اندازه نسبی مقدار p برای آزمون دوم چقدر خواهد بود. در مقایسه با مقدار p اصلی وقتی $n=45$ است؟ | اندازه نسبی مقادیر p در اندازه های مختلف نمونه |
3460 | برای برخی از ما، داوری مقاله بخشی از کار است. هنگام داوری مقالات روششناسی آماری، من فکر میکنم مشاوره از سایر حوزههای موضوعی، مانند علوم کامپیوتر و ریاضیات، نسبتاً مفید است. این سوال مربوط به بررسی بیشتر مقالات آماری کاربردی است. منظورم این است که مقاله به یک مجله غیرآماری/ریاضی ارسال می شود و آمار فقط در بخش روش ها ذکر شده است. چند سوال خاص: 1. چقدر باید برای درک حوزه کاربرد تلاش کنیم؟ 2. چقدر باید برای یک گزارش وقت بگذارم؟ 3. وقتی به شکل ها/جدول ها نگاه می کنید چقدر حساس هستید. 4. چگونه با در دسترس نبودن داده ها کنار می آیید؟ 5. آیا تلاش می کنید و تجزیه و تحلیل استفاده شده را دوباره اجرا می کنید؟ 6. حداکثر تعداد مقالاتی که در یک سال بررسی می کنید چقدر است؟ آیا هر سوالی را از دست داده اید؟ با خیال راحت ویرایش کنید یا نظر خود را اضافه کنید. **ویرایش** من به عنوان آماردانی که یک مقاله زیست شناسی را بررسی می کنم به این سوال می رسم، اما به بررسی آماری هر رشته غیرریاضی علاقه مند هستم. * * * من مطمئن نیستم که آیا این باید یک CW باشد. از یک طرف کمی باز است، اما از طرف دیگر می توانم خودم را ببینم که پاسخی را می پذیرم. همچنین، پاسخ ها احتمالاً نسبتا طولانی خواهند بود. | بررسی آمار در مقالات |
86474 | **خلاصه:** سناریویی را در نظر بگیرید که در آن ورودی های ($X$) و خروجی ها ($Y$) از یک فرآیند ($B$) را مشاهده می کنید. اگر من مدلی دارم که توضیح میدهد که $X$ چگونه در طول زمان تکامل مییابد، و یک مدل مشابه برای $Y$، چگونه این دو را ترکیب کنم؟ **مثال + جزییات** برای ساختن این بتن، فرآیند فتوسنتز + تنفس را به همراه $B$ در نظر بگیرید ($B = B_p + B_r$)، که در آن، با یک تقریب تقریبی، برای هر اتم کربن ($X$) ) گرفته شده، 1 اتم اکسیژن (Y$) آزاد می شود. عوامل دیگری نیز وجود دارند ($F_x$, $F_y$) که نقشهای جزئی در فراوانی $X$ یا $Y$ دارند، اما این عوامل فرآیندهای قطعی بر اساس $X$ یا $Y$ در قبلی هستند. مرحله زمانی و 2 بردار کنترل شناخته شده ($K$، $Z$)، و پارامترهای مورد علاقه با فرآیند $B$ مرتبط هستند. $B$ تابعی از 2 متغیر کنترلی (در یک ماتریس Tx2، $U$) و 2 پارامتر است (مثلاً $\beta_1$ و $\beta_2$، در یک ماتریس 2x1، $\beta$). مدل X$ ممکن است چیزی شبیه به $X_t = X_{t-1} + B_{t} + F_{x,t}$$ $$B_{t} = U_t\beta$$$F_{ x,t}=K_{x,t}(Z_{t-1}-X_{t-1})$$ به طور مشابه، $Y$ توسط $B$ هدایت می شود، اما در جهت مخالف $$Y_t = Y_{t-1} + -B_{t} + F_{y,t}$$$$B_{t} = U_t\beta$$$$F_{y,t}=K_{y,t}(Z_ {t-1}-Y_{t-1})$$ **چارچوب فعلی، هدف** من قبلاً هر دو مدل X$ و $Y$ را دارم که در چندین فریمورک کار میکنند (به عنوان یک dlm متناسب با حداکثر احتمال، در یک فیلتر کالمن، و در یک چارچوب بیزی). اما من میخواهم این دو تحلیل (برای X$ و $Y$) را کنار هم قرار دهم. **JAGS مثال** در JAGS، حلقه اصلی مدل فعلی من برای $X$ چیزی شبیه به این است، و برای $Y$ یکسان به نظر می رسد (علائم پارامترهای تخمینی معکوس شده): for(i در 2:N) {X[i] ~ dnorm(a[i]، tauV) # مشاهدات (X) با میانگین مقادیر واقعی، اما با tauV دقیق توزیع میشوند. (1/tauV واریانس خطای مشاهده است) Kx[i] ~ dnorm(KxP[i-1, 1], 1/KxP[i-1, 2]) # توزیع بر روی Kx، از ورودی KxP حاوی میانگین و واریانس Kx در هر مرحله زمانی Fx[i] <- Kx[i]*(Z[i-1]-X[i-1]) # Z فقط یک ورودی است بردار کنترل مقادیر معلوم aHat[i] <- a[i-1] + U[i،]%*% بتا + Fx[i] # فرآیند a[i] ~ dnorm(aHat[i]، tauW) # مقادیر واقعی دارای میانگین مقادیر تخمینی هستند، اما با خطای فرآیند همراه هستند (دقت فرآیند tauW است) } **انگیزه** به نظر می رسد که هنگام تخمین زدن از اطلاعات ارزشمندی استفاده نمی کنم. $\beta$ مستقل از $X$ و $Y$، به خصوص b/c هر دو سری زمانی مستعد منابع مختلف مشاهده و خطای فرآیند هستند (و همچنین برخی از منابع مشابه، به ویژه برای خطای فرآیند). **سوال** چگونه مدل ها را جفت کنم؟ آیا مشاهدات را به صورت نرمال چند متغیره مدل کنم؟ | آیا این چند متغیره طبیعی است؟ 2 سری زمانی که توسط یک فرآیند مشترک به هم مرتبط شده اند |
92316 | من نمودار زیر را دارم که سپس آن را نرمال می کنم و سعی می کنم با آن مطابقت کنم. داده ها یک هیستوگرام از تعداد در یک زمان معین است.  سپس تناسب به نظر می رسد:  مسئله این است که پارامترها $\lambda_1$ و $\lambda_2$ به شدت به محدوده ای که من انتخاب می کنم بستگی دارد. من دوست دارم بتوانم یک فاصله اطمینان برای این پارامترها ایجاد کنم، اما در مورد آمار کاملا مبتدی هستم. سعی کردم به ادبیات و گوگل سر بزنم، اما متوجه شدم که گیر افتاده ام. نکات یا نکاتی در مورد برخی اسناد خوب قدردانی می شود. | فاصله اطمینان برای داده های مربوط به شمارش سم، برای مبتدی |
41320 | من یک متغیر دوگانه $A$ دارم، که نسبت تعیین شده _apriori_ 0 و 1 ندارد و یک متغیر پیوسته $b$. در سناریوی 1، من تصمیم دارم $A$ را به عنوان متغیر **_independent_** $X$، و $b$ را به عنوان متغیر **_dependent_** $y$ تعیین کنم. سپس با استفاده از تستهایی مانند من ویتنی (بدون توزیع)، t-test (توزیع عادی)، و غیره، $X$ را در مقابل $y$ آزمایش میکنم. در سناریوی 2، تصمیم میگیرم که $A$ را به عنوان **_وابسته_** تعیین کنم. متغیر $Y$ و $b$ به عنوان متغیر **_independent_** $x$. سپس با استفاده از رگرسیون لجستیک، $x$ را در برابر $Y$ آزمایش می کنم. 1. وقتی از جهت بودن رابطه بین $A$ و $b$ اطلاعی ندارم، یعنی نمی توانم تصمیم بگیرم که $A$ متغیر مستقل است یا $b$ متغیر مستقل، کدام مدل را انتخاب کنم؟ 2. اگر مطمئن نیستم که کدام متغیرهای وابسته یا مستقل هستند، آیا استفاده از آزمون t/Mann-Whitney در وهله اول به عنوان نوعی تحلیل تک متغیره، و سپس استفاده از رگرسیون لجستیک به عنوان چند متغیره برای من نامعتبر خواهد بود. تحلیل؟ | انتخاب بین رگرسیون لجستیک و آزمون من ویتنی/t |
41326 | من روی یک شبیه سازی فیزیکی دو بعدی کار می کنم و در چند نقطه به موقع در حال جمع آوری داده ها هستم. این نقاط گسسته در امتداد خطوط عمودی، با خطوط متعدد در جهت محوری قرار دارند. این باعث می شود مجموعه داده به طور موثر 4 بعدی شود. برای مثال، فرض کنید من نقاط جمع آوری در مختصات (X,Y) دارم: * (0,0), (1,0), (2,0) * (0,1), (1,1), ( 2،1) * (0،2)، (1،2)، (2،2) و در هر نقطه من $\\{P,T,U,V\\}$ را جمع می کنم که در آن $P$ فشار است ، $T$ دما است، $U، V$ هستند مولفه های X و Y سرعت. در هر تکرار شبیه سازی، این متغیرها برای هر 9 نقطه جمع آوری ذخیره می شوند. بنابراین تمام داده های من در هر نقطه گسسته در فضا در زمان پیوسته هستند. برای مثال، دادههای یک نقطه به این صورت است:   من علاقه مندم که مثلاً فشار را در همه نقاط برای نمایش امواج عمودی و محوری نشان دهم. اگر بخواهم این کار را در امتداد یک خط انجام دهم (اعم از عمودی یا محوری)، میتوانم از طرح آبشار با محورهای (Y، زمان، فشار) استفاده کنم. اما اگر من 3 خط عمودی و 3 خط محوری داشته باشم، این 6 طرح آبشار خواهد بود تا تصویر کاملی از حرکت موج در هر دو جهت به دست آید. مختصات مکانی متغیرهای گسسته هستند در حالی که میدان (در این مورد فشار) و زمان پیوسته هستند. به عنوان مثال، در شکلهای بالا، پیک فشار بزرگ در $t\prox0.000125$ میتواند در جهت X یا Y حرکت کند. آیا روشی وجود دارد که بتوان همه آنها را یکجا نشان داد؟ معمولاً می توان رنگ را اضافه کرد تا بعد چهارم قابل مشاهده باشد، اما آیا رویکرد ممکن دیگری وجود دارد؟ من قصد دارم تا حد امکان آن را ترسیم کنم تا ببینم آیا چیزی اطلاعاتی را فاش می کند که دیگران آن را فاش نمی کنند، بنابراین لطفاً هر ایده ای را مطرح کنید. اگر شبیه سازی 3 بعدی بود و من یک مجموعه داده حاصل 5 بعدی داشتم چه؟ آیا این روشهای تجسم احتمالی را تغییر میدهد؟ | راه هایی برای کاهش داده های با ابعاد بالا برای تجسم |
105319 | من با آخرین آزمونی که باید برای پایان نامه کارشناسی خود انجام دهم مشکل دارم. من دو متغیر دارم و باید آزمایش کنم که آیا تفاوت معنی داری وجود دارد یا خیر. متغیر اول تمام بازده سهام در روزهای مشخص را دارد. متغیر دوم نیز این بازده ها را دارد، اما برخی از روزها حذف شده اند. من می خواهم آزمایش کنم که آیا تفاوت معنی داری بین قبل و پس از فیلتر وجود دارد یا خیر. آیا اگر یک تست Paired Sample T-test انجام دهم مشکلی ندارد یا باید از آزمایش دیگری استفاده کنم؟ هر کمکی بسیار قدردانی می شود! | بررسی کنید که آیا تفاوت معنی داری بین دو گروه وجود دارد یا خیر |
92317 | من یک متغیر مقیاس لیکرت پنج درجه ای (سطوح اهمیت) برای دسترسی به یک تسهیلات خاص، و یک متغیر سه سطحی دیگر (فاصله ترجیحی) دارم. من می خواهم این دو متغیر را در یک متغیر ترکیب کنم تا بتوانم آن را با فاصله فعلی آن تسهیلات مرتبط کنم. چگونه این دو متغیر را ترکیب کنم؟ آیا باید از تحلیل خوشه ای استفاده کنم؟ من این سوال را طبق پیشنهاد نیک ویرایش کردم: سلام، مسافت ترجیحی طبقه بندی شده است - 0.5 کیلومتر، 2 کیلومتر، 5 کیلومتر، آنها را به ترتیب 1،2،3 شماره گذاری کردم. من آنها را به طور جداگانه در آزمون Chi-square دو متغیره مرتبط کردم. اما من معتقدم بین سطح اهمیت و فاصله ترجیحی رابطه وجود دارد. برای مثال: اهمیت متوسط ممکن است با فاصله متوسط انتخاب شود. اگر این دو را ترکیب کنم، می توانم بگویم که در آنجا این دو متغیر در تصمیم گیری با هم عمل می کنند. با تشکر | ترکیب دو متغیر طبقه بندی شده |
105310 | من فکر می کنم که برای مشکل ارزش مرزی دو نقطه ای زیر (TPBVP)، می توان از بسته r `bvpSolve` برای بدست آوردن یک مقدار عددی استفاده کرد، اما مطمئن نیستم که چگونه. من از علامت گذاری مشابه مقاله زیر (http://arxiv.org/pdf/1312.7360.pdf) استفاده می کنم، اما مورد چند عامل را در نظر نمی گیرم و فقط از مشکل اجرای بهینه یک عامل پیروی می کنم. هدف یافتن بردار $X(t)$ است که نشان دهنده تعداد سهام باقیمانده در هنگام انحلال x سهام است که از t=0 تا t=T=10 در زمانی که X(10) = 0 شروع می شود. فرآیند بیش از یک زمان ثابت است. افق زمانی T=10 که در آن 0 < t < T تابع نوآوری قیمت، حرکت برونینین حسابی استاندارد است $S^0(t) = S_0 + sigma(t)*W(t)$ که در آن $S_0$ ثابت است و $W(t)$ یک حرکت قهوه ای استاندارد است و سیگما(t) نوسان شناخته شده ای است که با زمان بین t=0 و t=10 تغییر می کند. تابع تاثیر قیمت به شرح زیر است: $S^X(t) = S^0(t) + \gamma(X(t) - X(0)) + \lambda(t) \dot{X}(t)$ (مشابه معادله 1 در مقاله مرتبط) دو شرط مرزی عبارتند از: $X(0) = x$$X(T) = 0$ که در آن گاما و لامبدا پارامترهای ضربه دائمی و موقت هستند. اما با توجه به اینکه لامبدا اکنون تابعی از زمان است، اما همچنین مانند سیگما(t) برای t=0 تا t=10 تخمین زده شده است (یعنی بردار لامبدا(t) داده شده است)، حداکثر سازی معادل دو نقطه چگونه خواهد بود. مشکل ارزش مرزی برای سطح معینی از ریسک گریزی (آلفا) حل می شود؟ من سعی کردم این کار را با استفاده از `bvpSolve` انجام دهم اما همانطور که در اینجا نشان داده شده است خطاهایی دریافت کردم (http://stackoverflow.com/questions/24533516/r-crashes-with-no-error- when-using-bvpsolve-package) کمی از راه حل من تا کنون، اما به نظر می رسد تحت تاثیر آلفا (پارامتر ریسک گریزی) یا مقدار اولیه x (اندازه اصلی نمونه کارها). علاوه بر این fun3 که شبیه به fun2 است فقط یک خط مستقیم را ارائه می دهد ... که باز هم کمی اشتباه به نظر می رسد زیرا از هیچ یک از داده های داده شده استفاده نمی کند ... جدا از شرایط مرزی. a.vec <- c(0,27344.5, 48389, 51535.5, 48954, 35922, 46412.5, 41555, 36881.5, 29654, 26957) b.vec. 0.00190027114892749، 0.00190168441844807، 0.00155509166820965، 0.0014209081439286، 0.0013451926، 0.0013491926 0.00112338422445012، 0.00101880285481768، 0.000810030562227371، 0.000955330918533797) آلفا <- 0.000 <- 0.0001 splinefun(seq(0,10),y=a.vec) s1_t <- splinefun(seq(0,10),y=b.vec) s_t <- تابع(t,d,lam=lambda){lam * ( s1_t(t,d=0)^2)} fun2 <- تابع(t,y,pars){ dy1 <- s_t(t)*y[1] dy2 <- (y[2] - (l_t(t,1)*y[2]))/l_t(t) return(list(c(dy2))) } fun3 <- تابع(t,y,pars){ dy1 < - s_t(t)*y[1] dy2 <- (dy1 - (l_t(t,1)*dy1))/l_t(t) return(list(c(dy2))) } init <- c(y=3000,dy=NA) انتهای <- c(y=0,dy=NA) require(bvpSolve) sol <- as.data.frame(bvptwp(yini=init,x=seq(0.03,10, by=0.01)،func=fun2،order=2،yend=end)) plot(sol$x،sol$y،type='l', main='plot1 alpha = 0.0001') alhpa <- 0.01 sol <- as.data.frame(bvptwp(yini=init,x=seq(0.03,10,by=0.01),func=fun2,order=2,yend =پایان)) plot(sol$x,sol$y,type='l', main='plot2 alpha = 0.01') | چگونه این مسئله ارزش مرزی دو نقطه ای (TPBVP) را حل کنیم؟ (به طور ایده آل با bvpSolve) |
32310 | مدلهای موضوعی محبوب مانند LDA معمولاً کلماتی را که تمایل دارند با هم در یک موضوع (خوشه) وجود داشته باشند، خوشهبندی میکنند. تفاوت اصلی بین چنین مدلهای موضوعی و سایر رویکردهای خوشهبندی مبتنی بر همروندی ساده مانند PMI چیست؟ (PMI مخفف Pointwise Mutual Information است و برای شناسایی کلماتی که همزمان با یک کلمه خاص وجود دارند استفاده می شود.) | مدلهای موضوعی و روشهای همزمانی کلمه |
86471 | بنابراین من N نمونه بوت استرپ می گیرم و N طبقه بندی کننده رگرسیون لجستیک را روی این نمونه ها آموزش می دهم. هر طبقهبندیکننده مقداری احتمال حضور در یک کلاس باینری را به من میدهد و سپس این احتمالات N را میانگین میدهم تا پیشبینی نهایی را به دست بیاورم. سوال من این است که اگر N مجموعه ضرایب رگرسیون را گرفتم و آنها را میانگین گرفتم و از مجموعه ضرایب میانگین شده در طبقهبندی کننده رگرسیون لجستیک استفاده کردم و احتمال خروجی را به عنوان پیشبینی نهایی در نظر گرفتم، آیا این همان محاسبه میانگین N احتمالات حاصل است. همانطور که در پاراگراف قبل توضیح داده شد؟ | تجمع بوت استرپ (کیسه بندی) طبقه بندی کننده های رگرسیون لجستیک |
41324 | هدف من این است که بفهمم یک کاربر کجا منحنی را قطع می کند. در طول آموزش، هر زمان که کاربر نقطه ای از یک منحنی را به عنوان نقطه برش انتخاب می کند، برخی از ویژگی ها را ضبط می کنیم و از برچسب '+1' برای نشان دادن این ویژگی ها با یک نقطه برش استفاده می کنیم. به منظور کاهش تلاش های آموزشی، مایلیم از ثبت نقاطی که کاربر برش نمی دهد خودداری کنیم. به عبارت دیگر، دادههای آموزشی ما فقط شامل ورودیهایی است که با «+1» برچسبگذاری شدهاند. میخواهم بدانم آیا تکنیکهای مرتبط با SVM وجود دارد که بتواند این مورد را مدیریت کند. در نهایت، ما می خواهیم ماشین یادگیری به ما بگوید که آیا یک نقطه نقطه برش است یا خیر. | SVM تنها با یک نوع برچسب |
89933 | بگویید من دنبالهای از آزمایشهای بله-نه دارم که در آن احتمال برنده شدن در طول زمان کاهش مییابد **در حالی که ذخایر برد به تدریج تمام میشود**. فرض کنید برای هر آزمایش احتمال جایگزینی ** نه 1 و نه 0**، بلکه مقدار دیگری است. آیا هیچ توزیع شناخته شده ای وجود دارد که این رفتار را مدل کند؟ | دنباله ای از آزمایشات برنوئی با بازدهی رو به کاهش |
51292 | یک فرآیند پواسون با پارامتر ناشناخته $\lambda$ را در نظر بگیرید. دنباله ای از $n$ مشاهدات را در فواصل $\overline{t}=t_1,\,t_2,\,\dots,\,t_n$ انجام می دهیم. هر مشاهده یک متغیر باینری $x_i$ است که اگر هیچ تغییری در بازه $t_i$ رخ ندهد برابر با صفر است یا اگر یک یا چند تغییر رخ دهد برابر با یک است: $\forall i,$ $\Pr[X_i = 0 | \lambda,\,t_i] = \exp(-\lambda t_i)$ $\Pr[X_i = 1 | \lambda,\,t_i] = 1 - \exp(-\lambda t_i)$ تابع احتمال برای همه مشاهدات این است: $P[\overline{x}| \lambda،\overline{t}] = (\prod_{x_i=0}\exp(-\lambda t_i)) \cdot (\prod_{x_i=1}(1-\exp(-\lambda t_i))) $ با فرض اینکه فواصل مشاهده به طور مستقل از هر چیز دیگری انتخاب شده است، من می خواهم پارامتر $\lambda$ را با مقداری قبل معقول تخمین بزنم. $\lambda^\star = argmax_\lambda P[\lambda | \overline{x}،\،\overline{t}]$P[\lambda | \overline{x}،\،\overline{t}] \propto P[\overline{x}| \lambda,\overline{t}] \cdot P[\lambda]$ در صورت امکان، میخواهم از مزدوج قبلی برای انجام تخمین بازگشتی استفاده کنم، اما مطمئن نیستم که وجود دارد یا خیر. سوالات من: 1\. آیا مزدوج قبلی برای آن احتمال وجود دارد؟ 2\. اگر پیشین مزدوج وجود نداشته باشد، از چه برآوردگر می توانم استفاده کنم؟ من به برآوردگر علاقه مند هستم که بتواند برای هر مشاهده به صورت تدریجی به روز شود، بدون اینکه تمام تاریخچه مشاهدات را پیگیری کند. | تخمین پارامتر بیزی فرآیند پواسون با مشاهدات تغییر/بدون تغییر در فواصل نامنظم |
86470 | من سعی می کنم یک مدل glm را با یک متغیر پاسخ دو جمله ای تجسم کنم، می خواهم یک خط در نمودارها قرار دهم، اما خطوط یا abline کار نمی کنند و نمی دانم چرا وقتی پاسخ های قابل توجهی دارم. به مدلی که استفاده کردم آیا ایده ای دارید که چرا ترسیم یک خط کار نمی کند؟ > خلاصه (model2) فراخوانی: glm (فرمول = Lövförekomst ~ مساحت + Si، خانواده = دوجمله ای) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.254 -1.048 -1.012 1.309 1.422 ضرایب: برآورد ضرایب. خطای z مقدار Pr(>|z|) (تقاطع) -0.2158411 0.0634165 -3.404 0.000665 *** مساحتی 0.0009178 0.0002495 3.678 0.0002495 3.678 0.000235 10.000235 10.000235 1 0.000235 1 70201. -3.023 0.002499 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 16662 در 12237 درجه آزادی انحراف باقیمانده: 1664 12235 درجه آزادی (33 مشاهده حذف شده است به دلیل عدم وجود) AIC: 16648 تعداد تکرارهای امتیازدهی فیشر: 4 > mod <- glm(Lövförekomst~Areal، دو جمله ای) > med <- glm(Lövförekomst~Si، دو جمله ای) > x <- seq(0,9,0.01) > y <- پیش بینی (mod، list (Areal=x)، type=response) > par(mfrow=c(1,2)) > plot(Areal, Lövförekomst) > x2 <- seq(0,9,0.01) > y2 <- predict(med, list(Si=x ), type=response) > plot(Si, Lövförekomst) > lines(x, y) > lines(x2, y2) | نحوه رسم مدل رگرسیون دو جمله ای در R |
33381 | در حال حاضر، من در حال تجزیه و تحلیل داده های هفت منحنی رگرسیون هستم. من می خواهم بدانم که آیا تفاوت های قابل توجهی بین این خطوط وجود دارد؟ اگرچه فکر میکردم این روش ساده است، اما متوجه شدم که تستهای مشخصی برای حل آن وجود ندارد، اخیراً این مقاله را پیدا کردم که روش کلی را توضیح میدهد. متأسفانه من آمارگیر نیستم، بنابراین می خواهم بدانم آیا آزمایش ساده تری برای انجام این تجزیه و تحلیل و شاید یک بسته R برای آن وجود دارد یا خیر. | تفاوت های قابل توجه بین منحنی های رگرسیون |
55930 | من چندین ضریب همبستگی پیرسون با مقادیر p مربوط به آنها دارم. اما من به یک ضریب همبستگی متوسط نیاز دارم. برای محاسبه آن، من از تبدیل فیشر z که در اینجا و اینجا ذکر شده است استفاده کرده ام. اما، احتمالاً به دلیل کمبود دانش، راهی برای محاسبه p-value برای این ضریب همبستگی متوسط پیدا نکردم. آیا می توانید در این مورد به من کمک کنید؟ | p-مقدار یک ضریب همبستگی متوسط |
86472 | اگر پیشین و احتمال با یکدیگر بسیار متفاوت باشند، گاهی اوقات وضعیتی پیش می آید که خلفی مشابه هیچ یک از آنها نباشد. برای مثال این تصویر را ببینید که از توزیع های عادی استفاده می کند.  اگرچه این از نظر ریاضی درست است، به نظر نمی رسد با شهود من مطابقت داشته باشد -- اگر داده ها به شدت با من مطابقت نداشته باشد باورها یا داده ها، من انتظار ندارم که هیچ یک از این محدوده ها به خوبی پیش بروند و انتظار دارم یا یک پسین صاف در کل محدوده یا شاید یک توزیع دووجهی در اطراف قبل و احتمال (من نیستم) مطمئن باشید که منطقی تر است). من مطمئناً انتظار ندارم که در محدودهای که نه با باورهای قبلی من و نه با دادههای قبلی من مطابقت داشته باشد، عقبنشینی محکمی داشته باشم. من میدانم که با جمعآوری دادههای بیشتر، پسین به سمت احتمال حرکت میکند، اما در این شرایط به نظر غیرشهودی میرسد. سوال من این است: چگونه درک من از این وضعیت ناقص است (یا ناقص است). آیا پسین تابع «درست» برای این وضعیت است. و اگر نه، چگونه میتوان آن را مدلسازی کرد؟ برای کامل بودن، قبلی به صورت $\mathcal{N}(\mu=1.5, \sigma=0.4)$ و احتمال به صورت $\mathcal{N}(\mu=6.1, \sigma=0.4)$ داده میشود. ویرایش: با نگاهی به برخی از پاسخهای داده شده، احساس میکنم که وضعیت را به خوبی توضیح ندادهام. منظور من این بود که به نظر می رسد تحلیل بیزی با توجه به مفروضات مدل، نتیجه ای غیر شهودی ایجاد می کند. امید من این بود که پسین به نحوی تصمیمات بد مدلسازی را به حساب آورد، که وقتی به آن فکر میکنیم قطعاً اینطور نیست. من این را در پاسخ خود بسط خواهم داد. | خلفی بسیار متفاوت از قبل و احتمال |
86475 | من روی تجزیه و تحلیل برخی از داده ها کار می کنم که نیاز به استفاده از مدل lme دارند، اما در مورد تفسیر خروجی مطمئن نیستم. داده ها به این شکل هستند: > head(data) Mouse.Number Mouse.Number.Unique Overall.Mouse Batch Day Drug Tumor.Volume X 1 1 1 1 10 -35 Cetuximab 27.4 NA 2 1 1 1 10 -31 Cetuximab 14.13 NA 1 1 10 -28 ستوکسیماب 19.7 NA 4 1 1 1 10 -24 Cetuximab 29.6 NA 5 1 1 1 10 -21 Cetuximab 39.1 NA 6 1 1 1 10 -17 Cetuximab 43.5 NA لطفاً Mouse.Number.Number.Uxnique ستون و ماوس را نادیده بگیرید. را داده:** 1. روزهای منفی وجود دارد، اما آنها را نادیده بگیرید (آنها مقادیر قبل از اعمال درمان هستند) 2. من می خواهم Tumor.Volume ~ Day*Drug را مدل کنم و قسمت تصادفی آن Day|Overall.Mouse است. کد من lme_pos_1 است <\- lme(تومور. حجم ~ روز*دارو، تصادفی = ~روز| کلی. موش، داده=data_pos_10) خلاصه این است: > خلاصه(lme_pos_1) مدل اثرات مختلط خطی متناسب با REML داده: data_pos_10 BIC logLik 2364.189 2405.549 -1170.094 جلوه های تصادفی: فرمول: ~روز | ساختار کلی ماوس: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intercept) 42.215374 (Intr) Day 4.059765 0.455 باقیمانده 23.012150 اثرات ثابت: Tumor.Volume Value ~ St-vald-Drugue *Drugue (Intercept) 108.32758 12.319403 195 8.793249 0.0000 روز -1.99631 1.142348 195 -1.747546 0.0821 DrugDacomitinib 15.000. 0.570760 0.5716 DrugErlotinib 41.38484 18.198080 37 2.274132 0.0289 DrugVehicle 43.08154 18.204460 37 2.304132 0.0289 DrugVehicle 43.08154 18.204460 37 2.3033inDruga 0.03427 2.874163 195 0.011923 0.9905 روز:DrugErlotinib 12.28038 1.797236 195 6.832924 0.0000 روز:DrugVehicle 86301863018. 7.595461 0.0000 همبستگی: (Intr) روز DrgDcm DrgErl DrgVhc Dy:DrD Dy:DrE روز 0.382 DrugDacomitinib -0.468 -0.179 DrugErlotinib -0.677 -0.217 -0.259 Drug -0.258 0.317 0.458 روز:DrugDacomitinib -0.152 -0.397 0.174 0.103 0.103 Day:DrugErlotinib -0.243 -0.636 0.114 0.262 -0.15e Daycle 0.154 -0.632 0.113 0.164 0.258 0.251 0.402 استاندارد شده درون گروهی باقیمانده: حداقل Q1 Med Q3 حداکثر -2.81026418 -0.52194774 -0.07643594 -0.07643594 -0.07643594 -0.07643594 0.07643594 0.07643594 0.07643594 0.53258 تعداد مشاهده: 0.53278 تعداد مشاهده. 240 تعداد گروه ها: 41 من در مورد نحوه دریافت اطلاعات از خروجی مطمئن نیستم، مثلاً آیا این مدل خوبی است، چگونه می توانم آن را بدانم؟ چه مقادیری مهم هستند و غیره. اصولاً می خواهم بدانم: 1. در قسمت جلوه های تصادفی انحراف معیار مخفف چیست؟ 2. قسمت همبستگی چه چیزی را می خواهد بیان کند؟ 3. چگونه بفهمم این مدل خوب است یا نه و چگونه می توانم آن را بهبود بخشم؟ (من چند قطعه qqnorm و نمودار باقیمانده را امتحان کردم، همه آنها خوب به نظر می رسند) | تفسیر مدل مختلط خطی |
89936 | من با شرایط مختلف رگرسیون لجستیک گیج شده ام. تفاوت های گام به گام، هسته، جلو و عقب چیست؟ | تفاوت بین رگرسیون لجستیک هسته و گام به گام چیست؟ |
33386 | در چه مواردی نمی توانم تست مجذور کای پیرسون را انجام دهم زیرا نتیجه بی معنی خواهد بود؟ **ویرایش:** آیا حتی در مواردی که توزیع مجاز به میانگین و واریانس نباشد، همچنان معتبر است؟ | تست کای دو پیرسون چه زمانی با شکست مواجه می شود؟ |
15802 | من یک تابع پیوسته افزایش دهنده یکنواخت دارم، $f(x)$، که سعی می کنم $x$-intercept، $x^*$ را تخمین بزنم. من مجموعه دادهای از جفتهای $(x_i,y_i)$ دارم، با هر $y_i=f(x_i)+\varepsilon_i$، جایی که $\varepsilon_{i} \sim \text{Normal}(0, \sigma)$. ارزش $\sigma$ نسبتاً بزرگ است. مجموعه داده شامل ترکیبی سالم از نقاط بالا و پایین و محور x است. برای تخمین $x^*$، نقاط داده را طوری مرتب کردم که $x_1 < x_2 < ... < x_n$، و $S_k = \sum_{i=1}^k y_i$ را تعریف کردم. تخمین من چیزی شبیه به $x^* = x_{k^*}$ است، که در آن $$k^* = \arg \min_k\ S_k$$ این تخمین تاکنون در برنامه من به خوبی به من کمک کرده است، اما من اکنون شروع به تعجب کردم که آیا می توانم به طور معناداری یک فاصله اطمینان به تخمین خود اضافه کنم. من می دانم که این کمی باز است، اما من نمی دانم که آیا کسی در این مورد نظری دارد. حتی بحث در مورد اینکه چه نوع فرضیاتی ممکن است برای معنادار ساختن این سوال لازم باشد، روشنگر خواهد بود. ویرایش: تجزیه و تحلیل سوگیری مورد انتظار تخمین $x^*$ فوق نیز جالب است. | تخمین فاصله x یک تابع افزایشی یکنواخت دلخواه |
113266 | مشکلی مانند این را در نظر بگیرید شما یک برنامه کاربردی پروفایل مشتری دارید (مثلاً داده های مخابراتی کلاسیک) شما تراکنش های مشتری دارید (تعداد زیادی از آنها) می خواهید قوانینی را پیدا کنید یک عنصر داده ای وجود دارد که جمعیت کمی دارد. برای بررسی یک فرضیه آیا صاحبان گربه ثروتمندتر از صاحبان سگ هستند؟ بنابراین شما داده های زیادی دارید. اما عنصر داده ای که به آن علاقه دارید (حیوانات خانگی) کم است و باید داده های آموزشی را برای این وضعیت ایجاد کنید. چگونه این کار را انجام می دهید؟ | اگر بیشترین داده های آموزشی پراکنده باشد، چگونه انجام دهیم |
15807 | یک سیستم شامل خوشه های $N$ و در هر خوشه تعدادی عنصر وجود دارد. اندازه خوشه ها به طور چشمگیری متفاوت است و بیشتر خوشه ها تک قلو هستند. من باید دقت و فراخوانی این سیستم را بدانم، اما از آنجایی که باید آن را به صورت دستی بررسی کنم، بررسی تعداد زیادی واحد غیرممکن است. سوال من این است: اگر من نمونه بکشم، واحد نمونه باید خوشه یا عنصر باشد؟ همچنین، دقت یک نوع آسان برای بررسی است (با توجه به اینکه من تعریف هر خوشه را می دانم)، اما چگونه می توانم فراخوان را بررسی کنم؟ من باید فقط محدوده نمونه را بررسی کنم یا باید از کل جامعه جستجو کنم؟ آیا چیز دیگری هست که باید بدانم؟ خیلی ممنون | چگونه می توان از خوشه بندی نمونه برای تخمین دقت و یادآوری استفاده کرد؟ |
89930 | من سعی می کنم یک ماتریس کنتراست بسازم که بتوانم آن را در R اجرا کنم، با استفاده از بسته زیست رسانای limma، اما مطمئن نیستم که ماتریس کنتراست را به درستی کدگذاری کرده باشم. پست قبلی و راهنمای limma مفید بودند، اما طراحی دو فاکتوریل من پیچیده تر از آنچه در آنجا نشان داده شده است. عامل اول تیمار با دو سطح (control=c و stress=s) و عامل دوم ژنوتیپ با پنج سطح (g1, g2, g3, g4, g5) است. هر ژنوتیپ / تیمار شامل 3 تکرار بیولوژیکی (30 نمونه در کل) است. مجموعه داده من قبلاً عادی شده و log2 تبدیل شده است. این شامل 1208 پروتئین (بر اساس شمارش طیفی برای کسانی است که مراقبت می کنند) که تفاوت های فراوانی پروتئین را در پنج ژنوتیپ و دو تیمار اندازه گیری می کند. مجموعه داده کامل است، به این معنی که هر نمونه/شرط دارای یک نقطه داده است. ## زیر مجموعه داده ها: ID protein g1.s1 g1.s2 g1.s3 g1.c1 g1.c2 g1.c3 g2.s1 g2.s2 g2.s3 g2.c1 g2.c2 g2.c3 g3.s1 g3.s2 g3.s3 g3.c1 g3.c2 g3.c3 g4.s1 g4.s2 g4.s3 g4.c1 g4.c2 g4.c3 g5.s1 g5.s2 g5.s3 g5.c1 g5.c2 g5.c3 prot1 -9.70583694 -9.940059478 -9.764489183 -9.6919378276 -9.6919378276 - -9.668928704 -9.821333234 -10.00376839 -9.843380585 -10.0789111 -9.958506961 -9.791583706 -10.0499861359 -10.0499861509 -10.0499861591 -10.0499861591 - -9.989303332 -10.05414639 -10.00619809 -9.907032795 -10.09700113 -10.00902876 -10.05603575 -10.2621381385 -10.2621381385 - -9.88009858 -9.748974338 -9.730010667 -9.899956956 -9.773955101 -9.957684691 prot2 -9.810354967 -9.8443198767 -9.84431923 -9.777040294 -9.821308434 -9.906798728 -9.832236541 -9.876359355 -9.935535795 -10.05991278 -9.8310987879 -9.83109878777 -10.08470861 -10.18515166 -10.10371621 -10.01971224 -9.977142493 -10.09055782 -9.739831978 -9.586647994 -9.5866479994 -9.5866479999 -9.800183583 -9.83900565 -9.943521592 -9.99229056 -9.744850134 -9.794814509 -9.98542989 -9.7663248843 -9. -11.70842601 -11.72521838 -11.90389475 -11.98273998 -11.915401 -11.88620205 -11.91603643 -11.960291419 -11.960291419 -11.960291419 -126. -12.26650985 -11.84300821 -12.64562082 -12.41471031 -12.66462278 -12.577619 -12.90001898 -12.315777711 -12.315777711 -12.31577711 -12.315777111 -12.31577711 -12.31577711 -12.31577711 -12.31577711 - -11.4844068 -11.60402491 -11.95270942 -11.68245512 -12.32380181 -12.24294758 -12.23990879 -12.2156334037 -12.2156334037 -12.2156334037 -12.2156334037 prot4 -10.88942769 -11.16906693 -11.13942576 -11.31332257 -11.04718433 -11.11811122 -11.17687812 -11.1225038 -11.1225038 -11.16837945 -11.19642214 -10.96468249 -11.3975887 -11.28808753 -11.32778647 -11.34124725 -11.309712185 -11.309721294 - -10.74370929 -10.92223539 -10.97733154 -11.40528844 -11.1238659 -11.15938598 -11.24937805 -10.86911392 -10.86911392 -11.24937805 -10.86911392 -10.86911392 -10.86911392 -10.8691392 -11. -10.99485703 -11.09493115 prot5 -10.0102959 -9.936796529 -9.964629149 -9.842835973 -9.791578592 -9.77338072 -9.773380529 -9.715837804 -9.79028651 -9.951486129 -9.636225505 -9.820715987 -10.41899204 -10.25269382 -10.26949484 -10.26949484 - -10.13120897 -10.20756299 -9.752087376 -9.687001368 -10.07111473 -9.815279198 -9.995624174 -9.993526894 -9.993526894 -9.993526894 - -9.551502595 -9.551929198 -9.724500546 -9.502769792 -9.65324573 prot6 -10.34051005 -10.27571947 -10.114 -1496876 -10.1496876 -10.47812301 -10.11019796 -10.40447672 -10.15885481 -10.22900798 -10.26612428 -10.21920493 -10.171866671 -10.171866677 -10.95438025 -10.63751536 -10.65825783 -10.60857688 -10.78516027 -10.33890785 -10.49726978 -10.471004634 -10.471004634 - -10.78932619 -10.5318634 -10.26494688 -9.975182247 -10.24870036 -10.2356165 -10.26689552 -10.1306130424 -10.1306130624 -10.24870036 -10.37307132 -10.03573128 -10.29985129 -9.991216794 -10.05854902 -10.1958704 -10.30549818 -10.207828462 -10.207828462 -10. -10.23897922 -9.997472306 -10.27461285 -10.20805608 -10.06261332 -10.24876706 -10.12643737 -9.9060838247 -9.9060838249 - -10.23545822 -10.30970717 -10.40745591 -10.36432166 -10.22423532 -10.25703553 -10.44925268 -9.9025554769 -9.9025554721 - -10.0695915 prot8 -10.98782595 -10.84184533 -10.76496107 -10.68290092 -10.55763113 -10.91736394 -10.8736394 -10.8750527 -10.8750527 -10.58319007 -10.87547281 -10.71948079 -10.95011831 -10.99753277 -11.061728 -10.8852958 -10.86371206 -10.86371206 -10.86371206 -10.86371206 -1874. -10.46809937 -10.78446288 -10.71240489 -10.80931259 -10.6598091 -10.54801115 -10.70612733 -10.73398181808 -10.70612733 -10.73398181808 -10. -10.47323989 -10.62675183 prot9 -8.83857166 -8.736344638 -8.743339515 -8.8152675 -8.7 | ایجاد ماتریس کنتراست (لیما) برای دو فاکتوریل در R |
15800 | موضوع تحقیق من مبتنی بر مقایسه تأثیر روشهای تدریس سنتی و نوین بر نگرش و پیشرفت دانشآموزان در علوم است. من یک طرح آزمایشی پیش آزمون- پس آزمون را دنبال کردم که در آن یک گروه کنترل و یک گروه آزمایش شرکت داشتند. پیش آزمون و پس آزمون مورد استفاده با یکدیگر متفاوت هستند. من همچنین 2 مقیاس - مقیاس نگرش علمی و مقیاس نگرش تکنیک تدریس مدرن - را در مراحل پیش و پس آزمون اجرا کردم. فرضیه های تدوین شده به شرح زیر است: 1. بین میانگین نمرات پیش آزمون دانش آموزان گروه گواه و گروه آزمایش تفاوت معناداری وجود ندارد. 2. بین میانگین نمرات پس آزمون دانش آموزان گروه کنترل و گروه آزمایش تفاوت معناداری وجود ندارد. 3. بین میانگین نمرات پیش آزمون و پس آزمون دانش آموزان گروه کنترل تفاوت معناداری وجود ندارد. 4. بین میانگین نمرات پیش آزمون و پس آزمون دانش آموزان گروه آزمایش تفاوت معناداری وجود ندارد. 5. بین میانگین نمرات نگرش دانش آموزان گروه کنترل و گروه آزمایش در مرحله پیش آزمون تفاوت معناداری وجود ندارد. 6. بین میانگین نمرات نگرش دانش آموزان گروه گواه و گروه آزمایش در مرحله پس آزمون تفاوت معناداری وجود ندارد. 7. بین میانگین نمرات نگرش دانش آموزان گروه کنترل در مرحله پیش آزمون و پس آزمون تفاوت معناداری وجود ندارد. 8. بین میانگین نمرات نگرش دانش آموزان گروه آزمایش در مرحله پیش آزمون و پس آزمون تفاوت معناداری وجود ندارد. من در مورد تکنیک های تجزیه و تحلیل داده ها که باید برای آزمون فرضیه فوق استفاده شود مطمئن نیستم. در مورد موارد زیر نیز شک دارم: 1. آیا می توانم از آزمون t برای مقایسه میانگین نمرات آزمون و نگرش گروه ها استفاده کنم؟ 2. آیا می توان از ANOVA در هر یک از فرضیه ها استفاده کرد؟ 3. من در تعدادی از کتابها مطالعه کردهام که از ANCOVA استفاده کنم تا مطمئن شوم هر تغییری که در پیشرفت و نگرش دانشآموزان مشاهده میشود به دلیل یک تکنیک تدریس خاص است. اگر از ANCOVA استفاده شود، پس متغیرهای کمکی در موضوع من چیست؟ چند متغیر کمکی برای چنین طرح های آزمایشی مناسب در نظر گرفته می شود؟ 4. اگر از ANCOVA استفاده شود، پس چگونه باید آن را انجام داد؟ چگونه در SPSS انجام دهیم؟ لطفاً به من کمک کنید زیرا زمان کمتری برای انجام تجزیه و تحلیل داده ها دارم؟ هر نمونه مناسب مرتبط با طرح تحقیق من کمک بزرگی خواهد بود. از پیشنهادات شما بسیار سپاسگزار خواهم بود. | کمک به تجزیه و تحلیل داده های پیش آزمون-پس آزمون |
33388 | اولاً من با آمار بسیار تازه کار هستم... سعی می کنم بین یک عامل عددی وابسته رابطه ای پیدا کنم و 6 عدد مستقل اسمی، 1 ترتیبی و 4 عدد مستقل داشته باشم. من از رگرسیون دسته یا مقیاس بندی بهینه در spss استفاده کرده ام از گسسته سازی گروهی برای متغیرهای اسمی با تعداد دسته ها و رتبه بندی گسسته برای ترتیبی با استفاده از پیکربندی اولیه به عنوان تصادفی استفاده کرده ام. در مورد 200 امتیاز، آیا این نتایج کافی خواهد بود؟ 2. مربع r تنظیم شده من بین 25% تا 38% قرار دارد. چگونه قضاوت کنم که آیا این کافی است؟ برخی از مجلات روانشناسی ادعا می کنند که خوب است، برخی دیگر آن را رقت انگیز می دانند. 3. همچنین آیا روش بهتری برای یافتن رابطه پیش بینی بین متغیرهای شرح داده شده در بالا وجود دارد؟ 4. آیا مسائل یا اشتباهات دیگری در مقیاس بندی بهینه و نحوه استفاده من از آن وجود دارد؟ | متغیرهای مقوله ای مستقل و رگرسیون چندگانه با متغیرهای وابسته عددی |
33384 | من مجموعه ای از داده های ورزشی با تاریخ و نتیجه تناسب اندام مربوطه دارم. تاریخ ها به طور یکسان از هم جدا نشده اند. بهترین راه برای تعیین پیشرفت ورزشکار فعلی چیست؟ من به جایی فکر می کردم که یک خط را از طریق 3-5 اندازه گیری آخر تطبیق دهم (داده ها 7-10 روز از هم فاصله دارند) و تانگن ها را بررسی کنم تا ببینم آیا در حال وخامت است یا بهبود می یابد. نظر شما چیست؟ | روند در یک مجموعه داده غیریکنواخت |
38008 | به ما یک توزیع احتمال $p_1 \ge$ $p_2 \ge$ $p_3 \ge \cdots p_n$ در مورد $n$ داده شده است. ما از این توزیع بدون جایگزینی نمونه برداری می کنیم (احتمال های مقیاس بندی مجدد پس از هر نمونه برای محاسبه آیتم حذف شده). اولین $n-k$ موارد نمونه برداری شده را کنار می گذاریم و آخرین $k$ موارد نمونه را نگه می داریم. مقدار مورد انتظار مجموع احتمالات آخرین اقلام نمونه برداری شده $k چقدر است؟ امیدوارم بیان مشکل واضح باشد. آیا کاری برای این مشکل یا مشکل مرتبط انجام شده است؟ آیا مرز بالایی/پایینی جالبی شناخته شده است؟ اگر هیچ نتیجه ای وجود نداشته باشد، هر ایده ای برای محاسبه کران های پایین/بالا بسیار مفید خواهد بود. | هنگام نمونهبرداری بدون جایگزینی از یک توزیع معین، کل وزن مورد انتظار آخرین کیلو مورد نمونهبرداری شده چقدر است؟ |
89934 | فرض کنید من دو پایگاه داده دارم، در اولی (DB1) داده های فردی در مورد میزان اعتماد مردم به دولت ($X_{j,r}$) وجود دارد و در دومی (DB2) داده های فردی در مورد میزان اعتماد وجود دارد. مردم $Y_{i,r}$ را اهدا می کنند (من از $j$ به جای $i$ استفاده می کنم تا مشخص کنم افراد مشاهده شده در هر دو پایگاه داده یکسان نیستند). بنابراین نظریه من (در این مثال) این است که در مناطقی که اعتماد کمتری به دولت دارند، مردم بیشتر کمک مالی می کنند. بنابراین میخواهم اجرا کنم: > REG: $Y_{i, r} = \beta X_{r} + \gamma_{r} Z_{r} + \gamma_{i} Z_{i}$ بنابراین من میانگین را محاسبه میکنم $X_{j,r}$ در DB1، و از آن به عنوان متغیر در DB2 برای اجرای OLS بالا استفاده کنید. سؤالات من عبارتند از: 1. آیا باید خطاهای استاندارد REG را تصحیح کنم تا به این واقعیت توجه کنم که X_{r}$ ناقص برآورد شده است؟ 2. آیا باید REG را برای خطاهای استاندارد میانگین $X_{j,r}$ وزن کنم (به $r$ که X_{r}$ بهتر تخمین زده می شود وزن بیشتری بدهم)؟ | استفاده از داده های جمع آوری شده از یک پایگاه داده با داده های دیگر |
113261 | اجازه دهید a~$\mathcal{N}(\mu_a,{\sigma_a}^2)$,b~$\mathcal{N}(\mu_b,{\sigma_b}^2)$ و c~$\mathcal{N }(\mu_c،{\sigma_c}^2)$. ما دو متغیر عادی x~$a-b$ و y~$a-c$ می سازیم. آیا میتوانیم کوواریانس بین این دو متغیر تصادفی یعنی $\textrm{cov}(x,y)$ را با دست پیدا کنیم؟ ببخشید اگر سوالم پیش پا افتاده است. | همبستگی بین دو متغیر با توزیع نرمال |
15809 | من یک دوره کنترل کیفیت آماری را به عنوان یک دوره انتخابی در برنامه کارشناسی ارشد خود می گذرانم. ما از Montgomery's _Introduction to Statistical Quality Control_، ویرایش ششم استفاده می کنیم. در سراسر کتاب از minitab استفاده شده است و استاد مایل است که ما از minitab برای ادامه مثال ها استفاده کنیم. با این حال او گفت که ما آزادیم که از هر نرم افزاری که با آن راحت هستیم استفاده کنیم. من از زمانی که چند وقت پیش در دبیرستان آمار AP را گرفتم از minitab استفاده نکردم، بنابراین در صورت امکان از آن اجتناب کنم. بقیه برنامه ما به شدت بر روی SAS است و چند دوره از R استفاده می کنند. بنابراین این به این معنی است که این تقریباً تنها کلاسی است که در صورت رفتن به آن مسیر از minitab استفاده خواهم کرد. در صورت امکان، میخواهم خودم را از SAS کنار بگذارم، زیرا ممکن است همیشه به مجوز دانشگاهی دسترسی نداشته باشم و از R منحصراً استفاده نکنم زیرا از نرمافزار منبع باز پشتیبانی میکنم. آیا هیچ مرجع QC یا بسته خاصی برای R وجود دارد؟ اگر چنین است، آیا چیزی وجود دارد که حداقل به صورت موضوعی، اگر عمق محتوا نباشد، با متن مونتگومری قابل مقایسه باشد؟ آیا باید فقط گلوله ضرب المثل را گاز بگیرم و یک نسخه دانشگاهی از Minitab بخرم/اجاره کنم؟ | نرم افزار یادگیری کنترل کیفیت آماری |
51295 | فرض کنید که دو گروه شامل $n_1$ و $n_2$ هر کدام مجموعه ای از 25 مورد را از مهم ترین به کم اهمیت ترین مورد رتبه بندی می کنند. بهترین راه ها برای مقایسه این رتبه بندی ها چیست؟ واضح است که انجام 25 آزمون Mann-Whitney U امکان پذیر است، اما این امر منجر به تفسیر 25 نتیجه آزمون می شود که ممکن است بیش از حد باشد (و در استفاده دقیق، سؤالاتی را با مقایسه های متعدد ایجاد می کند). همچنین برای من کاملاً مشخص نیست که رتبه ها تمام مفروضات این آزمون را برآورده می کند. من همچنین علاقه مند به اشاره به ادبیات رتبه بندی در مقابل رتبه بندی هستم. برخی زمینه ها: این 25 مورد همه مربوط به آموزش و پرورش است و این دو گروه انواع مختلفی از مربیان هستند. هر دو گروه کوچک هستند. ویرایش در پاسخ به @ttnphns: منظورم مقایسه رتبه کل موارد در گروه 1 با گروه 2 نبود - همانطور که @ttnphns اشاره میکند این یک ثابت خواهد بود. اما رتبه بندی در گروه 1 و گروه 2 متفاوت خواهد بود. یعنی گروه 1 ممکن است مورد 1 را بالاتر از گروه 2 قرار دهد. میتوانم آنها را، آیتم به ماده، بهدست آوردن میانگین یا میانگین رتبه هر مورد و انجام 25 تست مقایسه کنم، اما نمیدانم آیا راه بهتری برای انجام این کار وجود دارد. | مقایسه لیست های رتبه بندی شده |
18781 | > **تکراری احتمالی:** > Hosmer-Lemeshow در مقابل AIC: رگرسیون لجستیک برای ارزیابی خوب بودن برازش یک مدل... آیا آزمون نسبت احتمال بهتر از آزمون H-L به طور کلی است؟ | آزمون Hosmer-Lemeshow در مقابل آزمون نسبت احتمال |
108897 | فرض کنید مدل واقعی $$Y_i = βZ_i + u_i$$ باشد، با این حال، محقق/تحلیلگر فقط می تواند $X = Z + w$ را مشاهده کند، جایی که $w$ یک خطای اندازه گیری با میانگین صفر و واریانس ثابت $\sigma^ است. 2_w$. $Z$ و $w$ به طور مستقل توزیع می شوند. plim برآوردگر $\beta$ چیست: $$b=\frac{\sum_{i=1}^nX_iY_i}{\sum_{i=1}^nX_i^2}$$ برای بدست آوردن چه چیزی نیاز داریم برآوردگر ثابت $\beta$؟ | برآوردگر plim $\beta$ چیست، برای به دست آوردن برآوردگر ثابت $\beta$ به چه چیزی نیاز داریم؟ |
33964 | من با 196 نفر اقدامات مکرر دارم و برخی از پسرفت هایم فلات دارد. بنابراین من می خواهم این را با یک نقطه شکست نهایی برای هر ID مشخص کنم. مثال: زیرمجموعه زمان شناسه دادههای شخصی من y 7G009 0 9 7G009 108,33 13 7G009 185,69 16 7G009 309,22 20 7G009 515,08 21 7G009 7G009 7G009 7G051 185,69 19 7G051 309,22 23 7G051 515,08 25 8S027 0 8 8S027 108,33 13 8S027 185,69 17 8S029,027 8S027 515,08 23 من با بسته Strucchange (نقطه شکست()) یا با بسته segmented (segemented() تست کرده ام. من همچنین با بسته `siZer` (`piecewise.linear()`) امتحان کرده ام. با یک شناسه مشکلی نیست، اما وقتی میخواهم با همه شناسههایم کار کنم، گیر میکنم. اولین تلاش من با استفاده از کد موجود در بررسی با نام بخشبندی شده بود: بستهبندی R برای تناسب مدلهای رگرسیون با روابط خط شکسته توسط ویتو امآر موجئو. رجوع کنید به صفحه 23: > داده (گیاه) > پیوست (گیاه) > X<-model.matrix(~0+گروه)*زمان > زمان.KV<-X[,1] > زمان.KW<-X[ ,2] > time.WC<-X[,3] اما وقتی میخواهم از ۱۹۶ متغیر توضیحی مختلف خود استفاده کنم، گیر کردهام. آیا کسی می تواند به من بگوید که چگونه با بسته تقسیم شده برخورد کنم یا راه حل دیگری ارائه دهد؟ | چگونه در مدل رگرسیون خطی با R یک نقطه شکست برای هر ID پیدا کنیم؟ |
37651 | همانطور که من متوجه شدم، یکی از اهداف اصلی آزمون مجذور کای در جدول احتمالی این است که تعیین کند آیا پیوند بین خطوط و ستونهای جدول بیشتر از سوگیری نمونهگیری و نوسانات تصادفی است که میتواند ایجاد کند. بنابراین سوال من این است: اگر یک جدول احتمالی شامل کل جمعیت مورد بررسی باشد، دیگر سوگیری نمونهگیری وجود ندارد. بنابراین آیا منطقی است که یک آزمون مجذور کای در این جدول اعمال کنیم یا اینکه برای آزمایش در برابر فرضیه صفر فقط باید درصدهای خط و ستون را بدون نگرانی بررسی کنیم؟ پیشاپیش برای هر راهنمایی متشکرم! | آیا زمانی که کل جمعیت مورد بررسی قرار گرفته اند، استفاده از آزمون مجذور کای در جدول احتمالی منطقی است؟ |
18320 | من در حال حاضر اولین کلاس رگرسیون خطی کاربردی خود را در مقطع کارشناسی ارشد می گذرانم و با تبدیل متغیرهای پیش بینی کننده در رگرسیون خطی چندگانه درگیر هستم. متنی که من استفاده میکنم، کوتنر و همکاران «مدلهای آماری خطی کاربردی» به نظر نمیرسد که سؤالی را که من دارم را پوشش دهد. (به غیر از پیشنهاد این که یک روش باکس-کاکس برای تبدیل چند پیش بینی کننده وجود دارد). هنگامی که با یک متغیر پاسخ و چندین متغیر پیشبینیکننده مواجه میشویم، چه شرایطی برای هر متغیر پیشبینیکننده تلاش میشود؟ من درک می کنم که ما در نهایت به دنبال ثبات واریانس خطا و خطاهای توزیع شده معمولی هستیم (حداقل در تکنیک هایی که تا کنون به من آموزش داده شده است.) تمرینات زیادی را پشت سر گذاشته ام که راه حل آن به عنوان مثال «y» بود. ~ x1 + (1/x2) + log(x3)`، که در آن یک یا چند پیشبین تغییر شکل داده شد. من منطق را تحت رگرسیون خطی ساده درک کردم، زیرا به راحتی میتوان به y~x1 و تشخیصهای مربوطه (نقاط q-q باقیماندهها، باقیماندهها در مقابل y، باقیماندهها در مقابل x، و غیره) نگاه کرد و آزمایش کرد که آیا y~log( x1) با مفروضات ما بهتر مطابقت دارد. آیا مکان خوبی برای شروع درک زمان تبدیل یک پیش بینی کننده در حضور بسیاری از پیش بینی کننده ها وجود دارد؟ پیشاپیش از شما متشکرم. مت | هنگام انجام رگرسیون چندگانه چه زمانی متغیرهای پیش بینی را تبدیل کنیم؟ |
41325 | چگونه می توان ثابت کرد که آنتروپی یک تاس با احتمال مساوی برای همه وجوه آن در حداکثر است؟ واضح است که اگر شانس بیشتری برای یک چهره خاص وجود داشته باشد، آنتروپی کوچکتر خواهد بود، اما چگونه می توان این را ثابت کرد؟ | حداکثر آنتروپی تاس |
33969 | من 2 گروه و 2 ضریب همبستگی دارم که می خواهم آنها را با استفاده از تبدیل فیشر مقایسه کنم. متاسفانه یکی از این ضرایب معنی دار نیست، بنابراین با صفر تفاوتی ندارد. آیا همچنان می توانم تبدیل را انجام دهم زیرا متفاوت از صفر نیست به معنای متفاوت نبودن با ضریب دیگر نیست؟ یا این غیرقانونی است زیرا یک همبستگی نه معنی دار قابل تفسیر نیست؟ | آیا می توانم همبستگی ها را با هم مقایسه کنم حتی اگر یکی معنی دار نباشد؟ |
15805 | یک روش قدیمی برای تولید اعداد تصادفی توزیع شده معمولی مستلزم تنظیم هر عدد تصادفی توزیع شده معمولی برابر با میانگین مجموعه ای از اعداد تصادفی توزیع شده یکنواخت است که مجدداً مقیاس شده و توسط یک ثابت جابجا می شوند. فرض کنید x یک متغیر تصادفی توزیع شده یکنواخت باشد، یعنی p(x) = 0 اگر x < 0 و x ≥1; p(x) = 1 اگر 0 ≤ x <1. چگونه میانگین و واریانس متغیر x را محاسبه کنم؟ | میانگین و واریانس یک عدد تصادفی با توزیع نرمال ایجاد شده از میانگین مجموعه ای از اعداد تصادفی با توزیع یکنواخت |
104382 | من سعی میکنم یاد بگیرم که شبکه عصبی چگونه در تشخیص تصویر کار میکند. من گیج شدهام که چگونه شبکه عصبی چگونه ورودی بدهم. تعریف من یافتن (ردیابی) شی در توالی تصاویر است (مخصوصاً این تصویر از سفر هواپیما و گرفتن تصاویر میآید. از دوربین.بنابراین که اکثر اشیا یکسان هستند پس چگونه می توان این نوع اشیاء را با شبکه عصبی ردیابی کرد. چه ورودی باید به شبکه عصبی داده شود؟ | پردازش تصویر با شبکه عصبی |
108896 | من سوالاتی در رابطه با مسئله استنتاج بیزی زیر دارم که در کتاب Bertsekas & Tsitsiklis (مقدمه ای بر احتمال ویرایش دوم) یافتم. مشکل به شرح زیر است (ص.445، مسئله 2): > * دانش آموز در آزمونی با 10 سوال، هر کدام 3 گزینه شرکت می کند. > * برای هر سوال، او یا پاسخ را می داند یا نه. $Pr(know)=Pr(نه > نمی دانم)=1/2$. > * هر سؤال مستقل از سؤالات دیگر است. > * هنگامی که او پاسخ را می داند، همیشه آن را درست دریافت می کند، یعنی > $Pr(correct|know)=1$. > * وقتی پاسخ را نمی داند، به طور تصادفی حدس می زند، یعنی > $Pr(درست|نمی دانم)=1/3، Pr(اشتباه|نمی دانم)=2/3$ > * با توجه به اینکه 6 مورد را به درستی پاسخ داده است. از 10 سوال، PMF پسین تعداد سوالاتی که او پاسخ آن را می دانست چقدر است؟ > من می توانم آن را به این صورت حل کنم: > اجازه دهید $\Theta$ متغیر تصادفی را برای تعداد سؤالاتی که او پاسخ می دهد نشان دهد > پاسخ از 10 سؤال را می داند، و $X$ نشان دهنده متغیر تصادفی > نشان دهنده تعداد سؤالاتی است که او به درستی پاسخ می دهد. از 10 سوال > سپس $$ Pr(\Theta=\theta)= \left\\{ \begin{array} > \scriptstyle\binom{10}{\theta}(1/2)^{10}&0\leq\theta داریم \leq10\\\ 0&در غیر این صورت > \end{array} \right. $$ PMF خلفی مورد نظر ما $$ > Pr(\Theta=\theta|X=6)=\frac{Pr(X=6|\Theta=\theta)Pr(\Theta=\theta)}{\ sum_\theta > Pr(X=6|\Theta=\theta)Pr(\Theta=\theta)} $$ برای به دست آوردن > $Pr(X=6|\Theta=\theta)$، **توجه کنید که او پاسخ سوالات $\theta$ > را میداند و همیشه آنها را درست میگیرد**. بنابراین، احتمال > را در نظر می گیریم که او سؤالات $(6-\theta)$ را درست از > $(10-\theta)$ سؤالاتی که پاسخ آنها را نمی داند به دست آورد: $$ > Pr(X=6|\ Theta=\theta)= \left\\{ \begin{array} > \scriptstyle\binom{10-\theta}{6-\theta}(1/3)^{6-\theta}(2/3)^{4} & > 0\leq\theta\leq6\\\ 0&در غیر این صورت \end{آرایه} \راست. $$ با استفاده از این، مخرج > $$ \sum_\theta > است Pr(X=6|\Theta=\theta)Pr(\Theta=\theta)=\sum_{\theta=0}^{6}\binom{10-\theta}{6-\theta}(1/ 3)^{6-\theta}(2/3)^{4}\binom{10}{\theta}(1/2)^{10}\\\ > =\binom{10}{4}(2/3)^6(1/3)^4 $$ و PMF خلفی $$ > Pr(\Theta=\theta|X=6)=\binom{6 است }{\theta}(1/4)^{6-\theta}(3/4)^\theta $$ اکنون سوالات من به شرح زیر است: 1. با توجه به $Pr(know|درست)=3/4، Pr(notknow|درست)=1/4$، احتمالاً PMF خلفی نهایی را میتوان به روشی بسیار سادهتر با استفاده از اینها استخراج کرد، اما من نمیتوانم استدلال خوبی به ذهنم بیاورم. 2. هنگام ارزیابی $Pr(X=6|\Theta=\theta)$، به این واقعیت $Pr(درست|می دانم)=1$ در قسمت پررنگ تکیه می کنیم. چه می شود اگر $Pr(درست|می دانم)<1$؟ آیا هنوز هم می توانیم آن را به همان روش حل کنیم؟ | مسئله اساسی در استنتاج بیزی |
86477 | 3 کارت از یک عرشه 52 کارتی کشیده می شود. اجازه دهید $X$ و $Y$ به ترتیب تعداد قلب ها و تعداد الماس ها را نشان دهند. همبستگی $(X,Y)$ را پیدا کنید. من می دانم که همبستگی به صورت $\frac{\mathrm{COV}(X,Y)}{\sigma_{X}\sigma_{Y}}$ تعریف میشود. من همچنین می دانم که دو متغیر تصادفی مستقل نیستند. | همبستگی تعداد قلب ها و الماس های 3 کارتی که از یک عرشه 52 تای گرفته شده است. |
104381 | من باید در مورد فاکتورسازی ماتریس برای سیستم های توصیه کننده بیاموزم، بنابراین این مقاله را دانلود کردم https://datajobs.com/data-science-repo/Recommender- Systems-[Netflix].pdf اما آن را خیلی کم عمق یافتم. این مفاهیم را عمیقاً برای من توضیح نداد. بنابراین می توانید لطفاً چند مقاله/منابع خوب برای یادگیری در مورد موضوع معرفی کنید؟ من باید در مورد آنها بیاموزم تا بتوانم یک مدل فاکتورسازی ماتریسی را پیاده سازی کنم. | الگوریتم های فاکتورسازی ماتریس برای سیستم های توصیه کننده |
104388 | **توضیح** باید تعداد خوشه ها را برای **داده های 1 بعدی** پیدا کنم. فرض بر این است که همه خوشه ها دارای توزیع گاوسی هستند (بنابراین تعداد زیادی از نقاط مشابه وجود دارد). من یک الگوریتم قوی مبتنی بر خوشهبندی + EM قوی دارم که میتواند مراکز خوشهای را پیدا کند. **مشکل** تعداد خوشه ها (در مجموعه داده های مختلف) از 1 تا 10 متغیر است، اما تعداد نقاط در مجموعه داده های 1 بعدی من از صدها تا صدها هزار متغیر است. و این مشکل است، زیرا الگوریتم من برای تعداد نقاط بالا بسیار کند کار می کند. **سوال** آیا روش ساده ای برای کاهش تعداد امتیاز وجود دارد؟ دقت مراکز خوشه ای برای من مهم نیست، فقط می خواهم تشخیص سریع داشته باشم. آیا انتخاب هر k-امین نقطه و اعمال الگوریتم خوشه بندی در آن انتخاب مشکلی ندارد؟ یا آیا به چیز دیگری مانند شمارش تعداد نقاط مشابه و حذف چند درصد از نقاط مشابه نیاز دارم؟ | نحوه کاهش تعداد نقاط برای خوشه بندی |
18325 | من یک قاب داده دارم که حاوی چندین ستون درست/نادرست، تعدادی عددی و یک متغیر کلاس (هدف) است که دارای مقادیر true/false است. حال، چگونه می توانم با R چندین بار پلات برای تمام ستون های عددی و عاملی تولید کنم بدون اینکه لازم باشد نام ستون هر قاب داده را مشخص کنم و توزیع ویژگی کلاس را برای هر ویژگی قاب داده اعمال کنم؟ چند نمونه کد: mydata<-data.frame(age=c(15,10,20),sugar=c(325)،اسفناج=c(درست،درست،نادرست من at=c(نادرست،نادرست،درست)،milk=c(نادرست،درست،نادرست)،class=c(درست،نادرست،نادرست) ) سن شکر اسفناج گوشت شیر کلاس 1 15 3 true false false true 2 10 2 true false true false 3 20 5 false true false false پس چگونه می توانم توزیع صفت کلاس اعمال شده بر روی تمام ستون های دیگر چارچوب داده را ببینم (عددی یا فاکتورها) )؟ در اینجا یک مثال از WEKA آمده است:  | نمایش چندین توزیع شرطی با استفاده از شبکه |
108409 | من با استفاده از مراحل زیر یک مدل Arima (3،1،1) ایجاد کردم. من توانستم یک مدل ناپارامتری ایجاد کنم، اما اکنون برای مدل ایجاد شده (مدل 3) بوت استرپ می خواهم. همچنین میخواهم مسیرهای شبیهسازیهای مختلف را ترسیم کنم. هر گونه کمکی بسیار قدردانی خواهد شد. من با R جدید هستم و این اولین سوال من است، بنابراین پیشاپیش بابت عدم وضوح، سادگی سوال و غیره پوزش می طلبم. #ایجاد داده مدل Arima (3،1،1)$Log.Spread1 <- as.zoo(data$Log.Spread) #تغییر متغیر log.spread در zoo ts model3 <- auto.arima(data$Log.Spread1) #ایجاد مدل از نمودار داده های گسترده (پیش بینی (model3, h=78, bootstrap = TRUE)) #پیش بینی پیش با استفاده از مدل arima #غیر پارامتری بوت استرپ x <- data$Log.Spread1 n <- طول(x) B <- 100 نمونه مجدد <- ماتریس(نمونه(x، n*B، جایگزین = TRUE)، B، n) میانه ها < - اعمال (نمونههای نمونه، 1، میانه) sd(میانگین) چندک (میانگین، c(0.025، .975)) #Bootstrap با استفاده از مدل؟ #نقاشی مسیرهای شبیه سازی شده؟ | کمک کد - نحوه بوت استرپ و ترسیم مسیرها با یک مدل ترکیبی |
31523 | من دادههایی از آزمایشی دارم که در آن CO_2$ را از: * 4 محلول کربن آلی محلول مختلف (DOC) * هر کدام در 4 غلظت مختلف * هر کدام در نور و تاریکی اندازهگیری کردم. هر ترکیبی از منبع، غلظت و نور DOC فقط یک بار رخ داده است (به عنوان مثال، تنها یک شیشه برای هر یک از DOC-A: conc-A: تاریک، و یک شیشه برای DOC-B: conc-A: تاریک، و غیره...) اما یک سری از 4 اندازه گیری از هر ترکیب (یعنی شیشه) گرفته شد. تولید $CO_2$ در 4 نقطه زمانی خطی بود، بنابراین، متغیر پاسخ را می توان به عنوان یک نرخ واحد از هر شیشه نشان داد. من به تأثیر نور، منبع DOC و تمرکز بر تولید CO_2$، به علاوه فعل و انفعالات علاقه مند هستم. من لزوماً به تأثیر نقاط زمانی مختلف علاقه مند نیستم، با توجه به اینکه هر واحد آزمایشی تکرار نشده بود، چگونه می توانم این آزمایش را به بهترین شکل تجزیه و تحلیل کنم؟ | چگونه باید این طرح را بدون تکرار آنالیز کنم؟ |
18327 | چرا باید 0 تخمین ضرایب را در رگرسیون لجستیک دریافت کنم؟ و ضرایب دقیقاً 0 هستند. این ضرایب برای متغیرهای سطوح مختلف یک متغیر طبقه بندی است. | چرا باید 0 تخمین برای ضرایب در رگرسیون لجستیک دریافت کنم؟ |
38001 | پس از سوال من در اینجا، نمی دانم که آیا نظرات قوی موافق یا مخالف استفاده از انحراف استاندارد برای تشخیص نقاط پرت وجود دارد (مثلاً هر نقطه داده ای که بیش از 2 انحراف استاندارد باشد یک نقطه پرت است). من می دانم که این به زمینه مطالعه بستگی دارد، به عنوان مثال، یک نقطه داده، 48 کیلوگرم، مطمئناً در مطالعه وزن نوزادان، اما نه در مطالعه وزن بزرگسالان، یک طرح کلی خواهد بود. نقاط پرت نتیجه تعدادی از عوامل مانند اشتباهات وارد کردن داده ها است. در مورد من، این فرآیندها قوی هستند. حدس میزنم سوالی که میپرسم این است: آیا استفاده از انحراف معیار روشی مناسب برای تشخیص نقاط پرت است؟ | تشخیص نقاط پرت با استفاده از انحرافات استاندارد |
86479 |  این نمودار را زمانی دریافت کردم که یک شی خوشه بندی را در R رسم کردم. اگر «km <- clara(data, 2)» را اجرا کنم '، سپس 'Plot(km)'، من یک نمودار مشابه دریافت می کنم. چگونه این طرح را با توجه به خوشه بندی تفسیر می کنیم؟ اگر من بیش از پنج خوشه داشته باشم، طرح مشابه چقدر مفید خواهد بود؟ برای دقیق تر، ** اجزای اصلی چگونه با خوشه ها مرتبط هستند؟** | خوشه بندی را که در دو جزء اصلی اول ترسیم شده است تفسیر کنید |
31527 | من درک می کنم که چگونه از رگرسیون خطی بر روی یک نمونه برای تولید مدلی از چگونگی تأثیر هر متغیر مستقل بر متغیر وابسته استفاده می شود. کاری که من می خواهم انجام دهم چیزی شبیه به آن است، به جز جایی که مدل می تواند تعاملات بین متغیرهای مستقل را نیز نشان دهد. ضمنا من دوست دارم در صورت امکان مدل غیرخطی باشد. با اولویت دادن به راه حل های ساده تر، طیف راه حل های موجود برای چنین مشکلی چقدر است؟ **ویرایش** برای دقیق تر، جزئیات مشکل من در زیر آمده است. من در حال توسعه یک الگوریتم شبکه عصبی هستم که دارای 11 متغیر پیوسته است که رفتار آن را کنترل می کند. اینها شامل اندازه لایه های مختلف، میزان یادگیری و تعدادی چیزهای دیگر است. من سعی می کنم بفهمم که چگونه مقادیر مختلف برای متغیرهای کمکی سطوح عملکرد متفاوتی را ایجاد می کنند و چرا. شهود و تجزیه و تحلیل اولیه (بر اساس نمونه گیری مونت کارلو) به من می گوید که بین برخی از متغیرهای کمکی برهمکنش هایی وجود دارد و احتمالاً تأثیرات در همه موارد خطی نیستند. با این حال، برای من مشخص نیست که نوع روابط چیست (به عنوان مثال چند جمله ای، نمایی و غیره). همچنین، برای کارآیی، همانطور که متغیرهای کمکی بیشتری اضافه میکنم و الگوریتم را در زمینههای مختلف اعمال میکنم، میخواهم روشی برای رگرسیون داشته باشم که خطی بودن را فرض نمیکند و به شناخت قبلی از نوع رابطه بین متغیرهای کمکی وابسته نیست. و عملکرد (متغیر وابسته). | چگونه یک تابع رگرسیون چندگانه را که برهمکنش بین متغیرهای مستقل دارد و به طور بالقوه غیرخطی است، تخمین زد؟ |
31524 | هدف نهایی من پیاده سازی C++ از * یک پروفایل HMM است (مدل مارکوف مخفی نمایه مدلی است که حاوی اطلاعاتی در مورد هم ترازی چند توالی پروتئین ها است؛ فقط ارائه پس زمینه به عنوان نوع مدل لزوماً برای چیزی که می خواهم مهم نیست. بپرسید). * آموزش Baum Welch (و به طور ضمنی الگوریتم Forward، الگوریتم Backward) تا زمانی که سعی نکنم از هیچ حالت خاموشی استفاده نکنم، همه چیز را آماده کرده ام. بزرگترین مشکل من این است که نمیدانم چگونه معادلات حالتهای خاموش را در الگوریتمهای Forward/Backward محاسبه کنم/تغییر دهم. من واقعاً هیچ نمونه خوبی از این مورد خاص در اینترنت پیدا نکردم و میپرسیدم آیا کسی میتواند به من اشاره کند یا در مسیر درست راهنمایی کند، زیرا من خیلی در ریاضیات/آمار دانا نیستم. سوال بعدی: آیا بسته/جعبه ابزار کاربرپسندی با این الگوریتم ها قبلاً پیاده سازی شده است؟ من این را میپرسم تا بعد از اینکه الگوهایم را کامل کردم، بتوانم نتایج را مقایسه کنم تا مطمئن شوم همه چیز را به درستی محاسبه میکنم. اگر در مورد مشکلم کمی بی ربط بودم عذرخواهی می کنم. من بر این سوال نظارت خواهم کرد و در صورت لزوم جزئیات بیشتری را ارائه خواهم کرد. | چگونه می توانم حالت های خاموش را در رمزگشایی/ارزیابی مدل های پنهان مارکوف حساب کنم؟ |
18322 | این سؤال با اشاره به معادله 3.15 در کتاب _عناصر یادگیری آماری_ نوشته طبشیرانی و همکار. من تخمین فاصله اطمینان بتا فردی را همانطور که در معادله 3.14 ارائه شده است، درک می کنم، اما معادله 3.15 فقط به من کمک می کند: $$\beta|(\hat{\beta} -\beta)^TX^TX(\hat{\beta} - \beta)\leq \sigma ^2\chi ^2$$ ایده ای که در اینجا بیان می شود چیست؟ مجموعه اعتماد چیست؟ آیا نمی توانیم فواصل تمام بتاها را مطابق با معادله 3.14 تخمین بزنیم؟ | مجموعه اطمینان برای بردار پارامتر در رگرسیون خطی |
88142 | من می خواهم تفاوت بین 3 گروه را برای یک متغیر دوجمله ای آزمایش کنم. در یک گروه حدود 400 نفر، در گروه دیگر 900 نفر و در گروه سوم 100000 نفر هستند. من متعجبم که آیا این تفاوت فاحش تأثیری (در صورت وجود) روی نتیجه آزمون کای اسکوئر دارد یا خیر. یا استراتژی دیگری وجود دارد؟ همچنین، این تفاوت ها چه تاثیری بر تخمین اندازه اثر خواهند داشت؟ | اندازه های گروه بسیار متفاوت - متغیر دسته بندی |
33961 | من خودم را در موقعیتی یافتهام که در آن مدلی به من داده شده است که از رویکردی که من معتقدم «این درست به نظر میرسد» ایجاد شده است. مدل مورد نظر بسیار پیچیده است اما هیچ حاشیه خطا یا آزمون صحت ندارد. یعنی هیچ چیز از این مدل پشتیبانی نمی کند که خوب باشد. برای تأیید مدل، 100000 نقطه داده توزیع شده یکنواخت (ورودیهای مدل همه طبقهبندی شدهاند) تولید کردهام که از طریق مدل (برای به دست آوردن خروجی طبقهبندی) آنها را بررسی کردم. سپس شروع به ترسیم هر متغیر ورودی در برابر چگالی متغیر خروجی کردم. من انتظار دارم که یک مدل خوب نمودارهایی با چگالی متفاوت برای هر مقدار ورودی داشته باشد، مانند این:  (توجه، A,B ,C,D,E بیانگر مقادیر مختلف یک متغیر ورودی و 1,2,3,4 مقادیر مختلف متغیر خروجی است.) اما چیزی که من پیدا کردم این است که تقریباً در تمام ورودی متغیرها نمودارهایی با چگالی ثابت برای هر مقدار ورودی دریافت می کنم، مانند این:  (توجه، A,B,C,D, E نشان دهنده مقادیر مختلف یک متغیر ورودی و 1،2،3،4 مقادیر مختلف متغیر خروجی است.) سوال من به سادگی این است: آیا درست می گویم که متغیرهایی با چگالی مانند مواردی که در نمودار دوم ترسیم شده اند، به مدل کمک نمی کنند؟ اینکه هیچ قدرت پیش بینی ندارند؟ یا در ارزیابی این مدل چیزی کلیدی را از دست داده ام؟ با تشکر از یک دسته برای هر پاسخ و/یا نظر در مورد وضعیت کوچک من! ** P.S. ** هر گونه راهنمایی / ترفند در مورد چگونگی ارزیابی بیشتر یک مدل بدون هیچ گونه داده اعتبار سنجی بسیار قدردانی می شود! | ارزیابی عملکرد مدل بدون داده های اعتبارسنجی |
38004 | من سعی کرده ام مدل های رگرسیون پواسون را مطالعه کنم، و به نظر می رسد که تخمین چنین مدلی با یک نتیجه باینری امکان پذیر است. این قبلاً در این سایت اینجا (و تا حدودی اینجا و آنجا) مطرح شده است. من هنوز در مورد چگونگی تفسیر ضرایب زمانی که نتیجه باینری است، و نحوه تعیین یک افست برای تسهیل این تفسیر کمی سردرگم هستم. بیایید فرض کنیم که $E[y|x]=\exp(a+\beta x + \gamma d)$، که $x$ پیوسته است، و $d$ و $y$ دودویی هستند. فرض کنید نمونه تصادفی من $N=10000$ است و $y=1$ در 10% مواقع و $d=1$ در 25% مواقع اتفاق میافتد. 1. من معتقدم (اما می خواهم تأیید کنم) که برای مقادیر کوچک $\beta$، می توانم آن را به عنوان کشش تفسیر کنم، بنابراین اگر $\hat \beta=.05$، 5% افزایش در $\ است. Pr (y)=1$ برای واحد اضافی $x$. وقتی $\beta$ بزرگتر است، دقیق تر است که آن را نشان دهیم، بنابراین اگر $\hat \beta=.5$، معادل 65% افزایش در $\Pr (y=1)$ است. وقتی $d$ باینری از 0 به 1 میرود، اثر حاشیهای $\exp(\hat \gamma)-1 است، $ بنابراین برای $\hat \gamma=0.3$، 35٪ افزایش میگیریم. 2. آیا می توانم $\exp(\alpha)$ را به عنوان احتمال پایه برای کسانی که $d=0$ و $x=0$ دارند تفسیر کنم؟ 3. اگر نتیجه $y$ شمارش واقعی یا حتی مستمر بود، من فقط میتوانم انتهای آن را به عنوان افزایش در $y$ به جای افزایش در $\Pr (y=1)$ تغییر دهم. | رگرسیون پواسون برای داده های باینری |
103004 | من دادههای شبیهسازی از 1000 اجرا را دارم که مقداری قابل اندازهگیری (در این مورد همگرایی الگوریتم) را به عنوان تابعی از زمان شبیهسازی ترسیم میکنم. هر اجرا مجموعهای مجزا از نقاط «(t، f(t))» تولید میکند و تصویر روی هم قرار داده شده از همه اجراها به نظر میرسد:  واضح است که ساختاری در اینجا وجود دارد. چگونه می توانم منحنی ایجاد کنم که به نحوی مقدار میانگین f(t) را برای یک t معین دریافت کند؟ علاوه بر این، من میخواهم بتوانم اسپرد را نیز تخمین بزنم، اگرچه مطمئن نیستم که توزیع اصلی چیست. فرض کنید که این نمودار از پارامترهای شبیه سازی **A** ایجاد شده است. هدف این پروژه نشان دادن این است که مجموعه دیگری از پارامترهای شبیهسازی **B**، مجموعه متفاوتی از منحنیها را تولید میکند و راه خوبی برای تجسم آن دارد. | خط متوسط روی داده های سری گزارش های نامنظم |
85929 | من میخواهم $AIC_c$ ($AIC$ تصحیحشده) را برای k-means محاسبه کنم تا در مورد تعداد خوشهها تصمیم بگیرم، اما یک مشکل بیش از حد برازش وجود دارد که نمیدانم چگونه آن را حل کنم. فرض کنید که من $n$ نقاط داده با ابعاد $d$ هر کدام دارم، و میخواهم آن $n$ نقاط را در خوشههای $c$ دستهبندی کنم. معیار اطلاعات Akaike ($AIC$) $-2ln(L)+ 2k$ است که $k$ تعداد پارامترهای آزاد است و برای k-means، $c(d+1)$ است. و برای $AIC_c$، فرمول $-2ln(L)+ 2kn/(n-k-1)$ می شود. حالا فرض کنید $n=1000$، $d=200$، $c=10$، سپس تعداد پارامترها $k=2010$ است. سپس مخرج در عبارت جریمه $AIC_c$ منفی می شود که به معنی جریمه منفی در فرمول است. و وقتی $c$ افزایش مییابد، جریمه کاهش مییابد و در نتیجه $AIC_c$ از مدلهایی با حداکثر تعداد خوشه پشتیبانی میکند (زمانی که $c=n$). فکر می کنم گم شده ام یا نکته ای را در مورد $AIC_c$ اشتباه متوجه شده ام. اون چیه؟ پیشاپیش ممنون | تصحیح AIC (AICC) برای k-means |
71781 | من اندازه گیری مجموعه ای از متغیرهای اجتماعی-اقتصادی در شهرداری های ایتالیا را دارم. هدف اجرای یک سری الگوریتم های خوشه بندی بر روی آنها است تا ببینیم آیا الگوی قابل توجهی از ارتباط محلی ظاهر می شود یا خیر. من از نظر شما در مورد روش صحیح استانداردسازی متغیرها می خواهم، زیرا بیشتر داده های من نوعی نسبت هستند. به عنوان مثال، اگر من اطلاعاتی در مورد تراکم در هر کیلومتر مربع داشته باشم، میانگین چگالی آشکارا با مقداری که از جمع همه ساکنان همه شهرداریها و سپس تقسیم بر مساحت کل منطقه به دست میآورم، متفاوت است، البته شاید آنقدر هم متفاوت نباشد - من هنوز امتحانش نکردم به نظر شما راه صحیح برخورد با این مشکل چیست؟ | چگونه داده های مکانی را به درستی استاندارد کنیم؟ |
38000 | من در مورد تحلیل عاملی تاییدی (CFA) تردید دارم. من سه سازه مختلف دارم، هر کدام با مقیاس مربوط به خود: 1) تاب آوری (3 بعد، هر کدام 4 مورد) 2) شوخ طبعی (3 بعد، هر کدام 4-5 مورد) 3) مقابله (2 بعد، هر کدام 8 مورد) سوال من این است: آیا باید برای هر ساختار یک CFA متفاوت انجام دهم (یکی برای تاب آوری، یکی برای شوخ طبعی و دیگری برای مقابله، به طور جداگانه)؟ یا آیا باید یک آزمایش CFA را برای سه سازه به طور همزمان انجام دهم و همبستگی (فلش های دو سر) را بین ابعاد مختلف تاب آوری، شوخ طبعی و مقابله ایجاد کنم؟ از کمک شما متشکرم | تحلیل عاملی تاییدی (CFA) قبل از مدل کامل SEM: یک CFA برای هر مقیاس یا یک CFA برای همه مقیاس ها با هم؟ |
31528 | من در حال خواندن این اطلاعات مربوط به آئروسل، به ویژه عمق نوری آئروسل ابزارهای MISR و MODIS بودم. من در واقع متوجه منظور از تعصب در زمینه بازیابی AOT این ابزارها نشدم. | سوگیری در داده های آئروسل چیست؟ |
89055 | من سعی می کنم نتایج این مقاله را با استفاده از Theano تکرار کنم. مشکل در حال حاضر این است که تمام آموزشهای مرتبط با Theano فقط برای طبقهبندیکنندههای MNIST هستند که در بازیابی تصاویر بدون نظارت کاربرد چندانی ندارد. من ایده زیر را دارم که چگونه به اجرای این مشکل نزدیک شوم: ابتدا باید مجموعه ای از RBM های متصل به هم را آموزش دهم. هنگامی که RBM ها به اندازه کافی آموزش دیده باشند، ماتریس های وزن و بردارهای سوگیری را از آن ماتریس ها می گیرم و یک رمزگذار خودکار عمیق می سازم. سپس این رمزگذار خودکار به روش سنتی و با استفاده از انتشار مجدد آموزش داده می شود. آیا رشته فکری من درست است یا چیزی ضروری را از دست داده ام؟ | چگونه می توانم رمزگذار خودکار عمیق را پیاده سازی کنم |
88147 | من یک مطالعه پیش آزمون با 20 شرکت کننده انجام داده ام. دو متغیر مستقل و در نتیجه 4 گروه 5 نفری هر کدام وجود داشت. آزمایش در یک کلاس درس انجام شد و یک گروه در پیش آزمون به طور قابل توجهی بهتر از بقیه عمل کردند. من سعی می کنم برای این نوع سوگیری طبقه بندی پیدا کنم. گروهها به کرسیهایی اختصاص داده شدند تا هر گروه در تلاش برای جلوگیری از بیانگیختگی گروههای دیگر با هم باشند. متأسفانه آنها به طور طبیعی با دوستان/همکارانی با توانایی مشابه می نشستند و نتایج را مغرضانه نشان می دادند. من فکر میکنم نزدیکترین چیزی که دیدهام، سوگیری انتخاب است، اما این موضوع به جای گروهبندی، بر انتخاب خود یا عدم انتخاب شرکتکننده تاکید میکند. | سوگیری انتخاب با گروه ها |
40582 | من درک می کنم که چگونه شبیه سازی در محاسبه توان برای آزمون نسبت درستنمایی می تواند آلفا را با استفاده از prop.test و توان حاصل از شمارش مستقیم مقادیر شبیه سازی را برای دو متغیر توزیع شده پواسون محاسبه کند. من علاقه مند به انجام آنالیز توان برای تعیین تعداد لازم نمونه هستم، مشابه استفاده از pwr.t.test(d = d، sig.level = 0.05، توان = 0.8)، به جز انجام این کار بین دو نمونه از (مشکوک) پواسون توزیع ها، و بنابراین از آزمون های t استفاده نمی شود. با توزیع های داده شده می توانم آلفا و توان را در اینجا محاسبه کنم، چگونه یک n مناسب را تعیین کنم؟ فکر میکنم یکی از راهها نوشتن حلقهای است که توان را برای افزایش n محاسبه میکند تا زمانی که توان در آستانه مورد نظر قرار گیرد، اما از نظر محاسباتی شدید به نظر میرسد. بهترین راه برای برخورد با این مشکل چیست؟ پیشاپیش متشکرم، مت. | تحلیل توان گذشته نگر نمونه ها از توزیع پواسون |
108895 | سرپرست من چند سوال از من پرسیده است که من کاملاً مطمئن نیستم چگونه به آنها پاسخ دهم. برای خلاصه ای سریع، مطالعه من شامل یک نمونه کوچک 16 نفری است. برای توصیف نمونه، نمرات 16 شرکت کننده را مقایسه کردم (n=6 از سن 3، n=8 از سن 4، و n=2 از سن 5 سال) به اطلاعات هنجاری (n=107 از سن 4 و n=91 از سن 5). اطلاعات هنجاری نمرات سن 3 را ارائه نمیکرد، بنابراین برای توجیه مقایسه سن 3 سال نمونه خود با اطلاعات هنجاری سن 4، آزمونهای t-test نمونههای مستقل را انجام دادم تا مشخص کنم که آیا تفاوت معنیداری بین سنین وجود دارد یا خیر. سوال اول این است که با توجه به نمونه کوچک (و جمعیت هنجاری زیاد)، آیا انجام آزمون های t را توجیه می کنم و آیا همگنی واریانس ها برآورده می شود؟ از آنجایی که من داده های فردی برای اطلاعات هنجاری را ندارم، نمی توانم داده ها را در SPSS وارد کنم. من آزمون های t را با استفاده از اطلاعات N، Mean و SD انجام دادم. برای تجزیه و تحلیل رگرسیون من، 6 پیش بینی کننده و 3 متغیر وابسته داشتم. نمرات تمام 16 کودک در نظر گرفته شد. سوال دوم این است که الزامات انجام یک رگرسیون برای برآوردن نیازهای توان چیست؟ (من کاملاً مطمئن نیستم که سرپرست من به چه نیازی اشاره می کند، بنابراین نمی دانم که آیا کسی ایده ای دارد یا خیر). سوال سوم این است که با 16 نمره آزمودنی برای هر 6 پیش بینی کننده، آیا استانداردهای محاسبه توان را رعایت نمی کنم؟ (دوباره، مطمئن نیستم که به طور کامل آنچه را که سرپرستم می پرسد، درک کرده باشم). پیشاپیش از شما بسیار سپاسگزارم | آزمون های تی و رگرسیون |
83185 | این سوال در مورد مقاله ای است که من در حال بررسی آن هستم، بنابراین نمی توانم جزئیات زیادی ارائه دهم، اما می توانم بگویم که شامل بیمارانی است که در بیمارستان ها دسته بندی شده اند و یک مدل خطرات متناسب کاکس. غریزه من برای چنین دادههایی استفاده از مدلسازی چند سطحی است، زیرا بیمارستانها ممکن است به روشهایی متفاوت باشند که در نظر گرفته نشدهاند. نویسندگان از یک برآوردگر ساندویچ قوی با خوشه بندی برای بیمارستان ها استفاده کردند. آیا این یک انتخاب مشروع است؟ معایب و مزایای آن در مقایسه با یک مدل چند سطحی چیست؟ | خوشه بندی در مدل مخاطرات متناسب کاکس MLM در مقابل برآوردگر ساندویچ |
38002 | با عرض پوزش برای سوال طولانی من، اما من مطمئن هستم که برای برخی از شما جالب خواهد بود: تحقیقات من در زمینه ساخت و ساز است. متغیر وابسته زمان مورد نیاز برای اتمام یک کار ساخت و ساز است و چندین متغیر مستقل جمع آوری شده است (اندازه خدمه، اندازه کار و غیره). با این حال، متغیر وابسته اصلی از چندین فعالیت دیگر تشکیل شده است. منظورم اینه: زمان اتمام یک کار ساخت و ساز (متغیر وابسته) = زمان فعالیت 1 + زمان فعالیت 2 + .... و برای هر یک از فعالیت های 1، فعالیت 2 و غیره، زمان را نیز با خود آنها ثبت کرده ام. متغیرهای مستقل (عوامل مؤثر). بنابراین، برخی از متغیرهای مؤثر بر فعالیت 1، مربوط به فعالیت 2 و غیره نیستند. اما اگر وظیفه اصلی به عنوان متغیر وابسته در نظر گرفته شود، باید همه متغیرهای مستقل در نظر گرفته شوند. بنابراین، من نمی دانم که چگونه مدل سازی کنم: یک راه این است که همه متغیرهای مستقل را وارد کنیم و کل زمان را به عنوان متغیر وابسته اصلی قرار دهیم. راه دیگر این است که مدل را به چندین مدل کوچکتر تقسیم کنیم تا برای هر یک از فعالیت ها یک مدل رگرسیونی انجام دهیم، اما به این ترتیب می توانم نتایج مدل ها را اضافه کنم؟ موضوع جالب دیگر این است که برخی از عواملی که به عنوان مثال با فعالیت 1 رابطه مثبت دارند، با انجام تحلیل رگرسیون کامل منفی می شوند و تفسیر نتایج را دشوار می کنند. نظر شما در این مورد چیست؟ | تحلیل رگرسیون چندگانه با یک متغیر وابسته که می تواند به متغیرهای بیشتری تقسیم شود |
83186 | من فقط درگیر یک پرسش و پاسخ بودم که از یک مرد فقیر خواسته شد تا یک آزمایش آماری را برای _اثبات_ بهتر بودن الگوریتم A از دو الگوریتم دیگر اجرا کند. با این حال، او تنها 4 نقطه داده دارد. آیا واقعاً انجام یک آزمون آماری روی 4 امتیاز منطقی است؟ حدش کجاست؟ در سه؟ برای روشنتر شدن، میدانم که ۱۲ عدد گزارش شده است، اما برای من بیشتر شبیه ۴ نقطه داده سهبعدی یا ۳ نقطه داده چهار بعدی است. نویسندگان در پاسخهای خود مفروضاتی را در مورد توزیعهای زیر خطی به منظور افزایش مصنوعی تعداد نقاط داده و در فرآیند محاسبه مقادیر میانگین چهار عدد مطرح میکنند. یا تست های t را روی جفت الگوریتم ها انجام دهید (مقایسه 8 عدد در مجموع برای هر جفت) و دوباره فرضیات بی اساس در مورد توزیع زیر خطی ایجاد کنید. وقتی توزیع زیر خط را نمیدانید و چون دادههای کافی ندارید، نمیتوانید امیدوار باشید که بتوانید آن را استنباط یا تأیید کنید، این فرآیند چقدر قابل اعتماد است؟ آیا منصفانه تر نیست که فقط بگوییم که با داده های کم کار زیادی نمی توانید انجام دهید؟ | آیا می توانید آمار را با 4 نقطه داده انجام دهید؟ |
18323 | من در جستجوی توسعه دقیق تابع درستنمایی طبیعی چند متغیره هستم تا بتوانم آن را به ویکی پدیا وارد کنم. آیا کسی می تواند یک کتاب مرجع خوب به من پیشنهاد دهد (یا اگر آن را دارید، فقط لاتک آن را کپی کنید؟) من نمی توانم یک مرجع خوب و دقیق را در گوگل پیدا کنم. با تشکر | توسعه تابع درستنمایی نرمال چند متغیره (در نماد ماتریسی) |
89059 | من یک متن حاوی اصطلاحات پزشکی دریافت کردهام و میخواهم از متن کاوی روی آن برای دریافت تعداد کلمات استفاده کنم. می خواهم بدانم آیا R مجموعه پزشکی دارد که بتوانم از آن استفاده کنم تا بتوانم سند متنی خود را با مجموعه پزشکی مقایسه کنم. | آیا R دارای مجموعه پزشکی است؟ |
103008 | فرض کنید من یک رگرسیون هم انباشته ساده از نوع $$y_t=\beta_0+\beta_1x_t+\varepsilon_t$$ $y،x$ هستند $I(1)$ هستند. اگر با آزمایش باقیماندههای OLS متوجه شدم که $y$ و $x$ با هم ترکیب شدهاند، چگونه میتوانم آزمایشهایی را روی ضرایب انجام دهم؟ آیا دو تخمینگر بهعنوان یک t-student معمولی توزیع شدهاند؟ از کدام مقادیر بحرانی استفاده کنم؟ متشکرم. | آزمون توزیع آماری در یک رگرسیون هم انباشته |
15371 | می خواهم بدانم چقدر می توانم به $\lambda$ خود اطمینان داشته باشم. کسی راهی برای تنظیم سطوح اطمینان بالا و پایین برای توزیع پواسون می شناسد؟ * مشاهدات ($n$) = 88 * میانگین نمونه ($\lambda$) = 47.18182 اطمینان 95% برای این چگونه خواهد بود؟ | چگونه یک سطح اطمینان را برای توزیع پواسون محاسبه کنیم؟ |
87401 | تفاوت بین جمعیت هدف، جمعیت مورد مطالعه و جمعیت نظری چیست؟ | شناخت دقیق جمعیت |
40581 | من 3 لیست از بازدیدهای مهم دارم (p-value < 0.05). من همچنین برای مشکل مقایسه چندگانه تنظیم کردم و مقادیر q را به هر لیست اضافه کردم. این 3 لیست (بازدید) نیز تا حدی همپوشانی دارند. برای بازدیدهایی که همپوشانی دارند، میپرسیدم که آیا میانگین کردن مقدار q منطقی است؟ بنابراین، برای مثال، ضربه X (List1): pval=0.004، qval=0.0045 ضربه X (List2): pval=0.0006، qval=0.0006 ضربه X (List3): pval=0.02، qval=0.04 بنابراین، یافتههای خود را خلاصه میکنم. من به Hit X یک q-val متوسط اضافه می کنم (0.0045+0.0006+0.04)/3 = 0.0150. مطمئن نیستم که آیا این منطقی است؟ | آیا میانگین کردن مقادیر q منطقی است؟ |
47051 | من در تعداد زیادی مقاله خوانده ام که مدل های پراکنده (کدنویسی پراکنده، یادگیری فرهنگ لغت، فاکتورسازی ماتریس پراکنده، ...) راه حل های خوبی برای مشکلات حذف نویز تصویر هستند. من می دانم که نمایش داده ها به عنوان ترکیبات پراکنده اتم ها از یک فرهنگ لغت (بیش از حد کامل) باید به روشی باشد که قشر بینایی اولیه پستانداران کار می کند. با این حال، مشخص نیست که چرا نمایشهای پراکنده باید نویز، تاری یا سایر مصنوعات مشابه را حذف کنند. آیا توضیح ریاضی معتبری برای این موضوع وجود دارد؟ فکر کردن به تصویر لنا (384x384):  آیا هیستوگرام آن واقعاً یک طبیعت پراکنده را به ما نشان می دهد؟  | نمایش های پراکنده برای حذف نویز مشکلات |
89056 | یکی از معایب تحقیق من این است که با داده های استاندارد طلا مقایسه نشده ام، آیا کسی می تواند به من کمک کند چگونه داده های خود را با داده های استاندارد طلای موجود برای تشخیص چهره مقایسه کنم. میخواهم بدانم دادههای استاندارد طلا چیست و آیا دادهای برای تشخیص چهره وجود دارد. | برای تشخیص چهره به داده های استاندارد طلایی نیاز است |
40587 | یک سوال در مورد میانگین اعوجاج مربعی که توسط تابع کوانتیز متلب برگردانده شده است. کد من اینجاست: مجموعه داده = rand(1,1000)*2-1; M1 = 128; qlevels1=-1+(2/M1):2/M1:1-(2/M1); کتاب کد1 =-1+(1/M1/2):2/M1:1-(1/M1/2); [index1, quants1, dist1] = quantiz(dataset, qlevels1, codebook1); Qnoise1 = sum((dataset-quants1).^2); من بعد از اجرای برنامه من $Qnoise1$ و $dist1$ من با قدر `1000` متفاوت هستند > $Qnoise1 = 0.0374$ > $dist1 = 3.7417e-05$ آیا من چیزی را در اینجا گم کرده ام؟ آیا باید qlevels1 را در طول (مجموعه داده ها) ضرب کنم تا به پاسخ صحیح برسم؟ با تشکر | MATLAB quantiz - میانگین اعوجاج مربع |
47583 | من در حال کار بر روی مفهومی برای یک بازی هستم که نیاز به استنتاج آماری دارد و مطمئن نیستم که چگونه آن را انجام دهم. مشکل من این است که سعی میکنم راهی برای محاسبه اینکه آیا یک شهر (در بازی) میتواند به یک شهر پر رونق تبدیل شود، بیابم. من مجموعهای از قوانین دارم که عوامل مختلف شهر مانند کیفیت سلامت، فاصله تا ساحل، رشد جمعیت و غیره را ارزیابی میکنند و باید همه این مقیاسهای مستقل را در یک احتمال واحد بجوشانم. در حال حاضر من همه اعداد را میانگین می گیرم، اما مطمئن هستم که راه بهتری در مورد آن وجود دارد. من همچنین باید یک درجه از اطمینان را محاسبه کنم. من سعی کردم به دنبال راه حلی در کتاب ها بگردم اما همه آنها سناریوهای ساده را تنها با یک متغیر پوشش می دهند. امیدوارم کسی بتواند مرا به مسیر درست راهنمایی کند. با تشکر ویرایش 1: از آنجایی که این یک بازی است، من فقط از چند متغیر استفاده میکنم تا تصمیم بگیرم که آیا یک شهر پر رونق است یا خیر. همچنین از آنجایی که این یک مشکل بلادرنگ است، نمیتوانم از روشهای آماری مبتنی بر مجموعههای آموزشی استفاده کنم. من پیش زمینه ریاضی ندارم، بنابراین این چیزی است که از تحقیقاتم فهمیده ام، بنابراین لطفاً اگر هر یک از فرضیات من نادرست است، من را اصلاح کنید. | چگونه مدل سازی کنیم که آیا یک شهر در حال رونق است یا نه؟ |
103002 | این سوال در stackoverflow.com نیز مطرح شده است. با این حال، هدف من این است که در پلتفرم فوق الذکر به دنبال افزایش کارایی باشم. هدف من در اینجا درستی رویکرد من است. من سعی می کنم 365 سری زمانی چند متغیره (2 تا 4 بعدی) را که هر کدام از 24 ورودی تشکیل شده است را خوشه بندی کنم. این بدان معناست که من سعی می کنم روزهای مشابه را با استفاده از زمان تابش پویا به عنوان اندازه گیری فاصله گروه بندی کنم! مشکل من از نظر مفهومی مشابه این حالت تک متغیره است: LINK. اطلاعات اولیه من کمی شبیه این به نظر می رسد. n <- 8760 s1 <- نمونه (30000:70000، n) s2 <- نمونه (0:10000، n) inDf <- cbind(s1, s2) سپس این داده ها به قطعه های 24 ساعته تقسیم می شوند به طوری که هر یک از این 365 سری های زمانی 2 تا 4 بعد دارند و قابل مقایسه با یکدیگر هستند. مشکل فعلی من این است که چگونه ماتریس فاصله را محاسبه کنم تا بتوان از hclust() یا هر الگوریتم خوشه بندی دیگری بر اساس ماتریس فاصله استفاده کرد. من سعی کردم خودم آن را محاسبه کنم اما از آنجایی که از نتیجه مطمئن نیستم، ** می خواهم از شما بچه ها بپرسم که آیا منطقی است که ماتریس فاصله را به روش زیر محاسبه کنید:** علاوه بر این، می خواهم بپرسم ، آیا (1) یک ماتریس کوواریانس را می توان به این شکل محاسبه کرد و (2) آیا استفاده از آن در تجزیه و تحلیل خوشه بندی منطقی است، با این فرض که داده ها می توانند بسیار زیاد باشند. مرتبط؟ #' محاسبه ماتریس فاصله #' #' @param داده مجموعه داده های ذکر شده در Df #' @param tstep طول هر سری زمانی به ساعت (در این مثال 24) #' این منجر به 8760h / 24h = 365 سری زمانی می شود. ' @return ماتریس فاصله، با ابعاد n x n، n که # سری زمانی # است' @author BenR distanceMatrix_dtw <- function(data, tstep) { #' n برابر است با تعداد سریهای زمانی ایجاد شده n <- nrow(data)/tstep d_matrix <- data.frame() #' حلقهای از میان d_matrix که با ردیف شروع میشود-# #' b و e به ترتیب برای شروع و پایان هستند (i در seq(1, n, 1)){ for (j در seq(1, n، 1)){ i_b <- i * tstep - tstep + 1 i_e <- i * tstep j_b <- j * tstep - tstep + 1 j_e <- j * tstep # X, Y سری زمانی چند متغیره هستند، که باید مقایسه شود. # X, Y دارای ابعاد 24x2 است # مقایسه دو ماتریس از منبع ذکر شده الهام گرفته شده است X <- data[i_b : i_e,] Y <- data[j_b : j_e,] cxdist <- dist(X,Y ) d_matrix[i, j] = dtw(cxdist, distance.only = T)$distance } } return(data.matrix(d_matrix)) } با آرزوی بهترین ها و پیشاپیش از همه شما تشکر می کنم، BenR نسخه من الهام گرفته از: > (صفحه 12، فصل 3.6) تونی جورجینو (2009). محاسبات و تجسم > ترازهای تاب دار زمان پویا در R: بسته dtw. مجله > نرم افزار آماری، 31(7)، 1-24. نشانی اینترنتی www.jstatsoft.org/v31/i07/. | محاسبه ماتریس فاصله بین سری های زمانی چند متغیره |
5647 | من یک مدل رگرسیون لجستیک شرطی با کنترلهای 1:4 با استفاده از «R» برازش میکنم. من می خواهم AIC را از مدل دریافت کنم. چگونه می توانم پارامترهای مناسب را بر اساس شی «m» استخراج کنم؟ کتابخانه (بقا) m<-clogit(cc~exp+ factor1+ factor2 + لایه (لایه)، داده = داده 1) | چگونه AIC را با رگرسیون لجستیک شرطی با استفاده از R بدست آوریم؟ |
40588 | من شروع به یادگیری رگرسیون پشته در R کردم. من رگرسیون خطی را در مجموعه داده های کامل خود اعمال کردم و نتایج زیر را دریافت کردم. gridge<-lm.ridge(divorce ~., data=divusa, lambda=seq(0,35,0.02)) select(gridge) اصلاحشده HKB تخمینگر 0.07693804 برآوردگر L-W اصلاحشده 0.3088377 است که کوچکترین مقدار GCV در 0.min (0.min) است. gridge$GCV) 0.02 2 دور (ضریب (شبکه)[2,-1],3) سال تولد ازدواج زن بیکار نظامی -0.195 -0.053 0.790 0.148 -0.118 -0.042 دور (ضریب (g)[-1],3) سال تولد ازدواج زن بیکار -0.203 -0.049 0.808 0.150 -0.117 -0.043 **سوالات:** 1. چگونه نتایج را تفسیر کنم؟ 2. آیا برای تفسیر باید کار دیگری انجام دهم؟ | نتایج حاصل از رگرسیون پشته را چگونه تفسیر می کنید؟ |
40584 | من به دنبال مشاوره/منابع/توصیه هایی در مورد نحوه بهترین قالب بندی نمودارها برای ارائه هستم. از روی تجربه، میدانم که نموداری که برای انتشار چاپی تولید میشود، وقتی آن را با پرتو نمایش میدهیم، به خوبی «مقیاس» نمیشود. متن اغلب خیلی کوچک است، خطوط به اندازه کافی ضخیم نیستند و غیره. تقریباً همیشه ایده بدی است که فایل .eps/.pdf را بگیرید و مستقیماً در یک ارائه قرار دهید. آیا وقتی صحبت از ارائه نمودارها به مخاطبان گسترده با پرتو می شود، راهنماهای سبک پیشنهادی وجود دارد؟ | آیا راهنمای سبکی برای نمودارهای آماری در نظر گرفته شده برای ارائه وجود دارد؟ |
6462 | من الگوریتم فازی C-means (FCM) را با استفاده از تابع R «fanny» از بسته «خوشه» آزمایش کردهام و الگوریتم FCM خودم را نوشتهام تا کنترل بیشتری روی تابع فاصله داشته باشم. مشکل این است که تابع عضویت نهایی من بارها به 1/K همگرا می شود، منظورم این است که تقریباً همه مقادیر در ماتریس عضویت نزدیک به 1/K هستند. من تعجب می کنم که چه شرایطی بر نتیجه نهایی تأثیر می گذارد. من از پارامتر فازی m=2 استفاده می کنم. | در چه صورت عضویت FCM به 1/K همگرا می شود؟ |
87403 | من در حال انجام پایان نامه هستم و در حال انجام تعدادی تست هستم. پس از استفاده از آزمون کروسکال-والیس، من معمولاً نتیجه را به این صورت گزارش میکنم: > تفاوت معنیداری بین میانگینهای > $(\chi^2_{(2)}=7.448، p=.024)$ وجود دارد. اما اکنون من یک آزمایش Mann-Whitney انجام دادم و مطمئن نیستم که کدام مقادیر را ارائه دهم. SPSS به من یک مقدار Mann-Whitney $U$، Wilcoxon $W$، $Z$ و $P$ می دهد. آیا همه این 4 مقدار را ارائه می کنم؟ یا برخی بی ربط هستند؟ | چگونه آزمایش من ویتنی را گزارش می کنید؟ |
6469 | چگونه می توانم یک مدل خطی را با خطاهای همبسته خودکار در R برازش کنم؟ در stata از دستور prais استفاده می کنم، اما نمی توانم معادل R پیدا کنم... | مدل خطی ساده با خطاهای همبسته خودکار در R |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.