_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
95777
من در درک تحلیل میانجی که اخیراً انجام دادم مشکل دارم. من از ماکرو Sobel Preacher & Hayes (2004) برای SPSS استفاده کردم. نتایج به این صورت است: ضریب تأثیرات مستقیم و کلی    s.e.   t   Sig(دو) b(YX) ,1626 ,0526 3,0908 ,0035 b(MX) ,2954 ,0897 3,2948 ,0020 b(YM.X) ,2116 ,0959 2,2064,Y م)، 1263 ,0538 2,3462,0236 TOTAL EFECT, b(YX), استاندارد شده بر اساس معیار اثر مستقیم, b(YX.M) Coeff b(YX) ,2310 اثر غیرمستقیم و اهمیت آمریکا ارزش      s.e.  LL95CI    UL95CI   Z   Sig(two) Effect ,0625 ,0352 -,0064 ,1315 1,7776,0755 بنابراین آنچه من می فهمم این است که همه مسیرها مهم هستند - که فکر می کردم به این معنی است که میانجی وجود دارد. اما من همچنین می بینم که Z-test و تجزیه و تحلیل بوت استرپ به من می گوید که اثر قابل توجهی نیست. من واقعاً درک نمی کنم که چگونه همه مسیرها می توانند مهم شوند اما هنوز هیچ اثر غیر مستقیمی وجود ندارد؟ آیا درست است که فرض کنیم اگر حجم نمونه بزرگتر باشد، ممکن است اثری وجود داشته باشد؟ آیا توضیح دیگری وجود دارد؟
اهمیت میانجیگری
83646
> یک فروشنده کازینو مشکوک است که مرگ او یک مرگ منصفانه نیست. او فکر می کند که دای شانس بیشتری به اعداد زوج می دهد (احتمال یک عدد زوج > بزرگتر از $0.5 است). او برای آزمایش مظنونان خود تصمیم به انجام یک آزمایش > می گیرد، او نتیجه ی رول های قالب مستقل 60 دلاری را یادداشت می کند. فروشنده می‌گوید که اگر تعداد اعداد زوج در آن رول‌های 60 دلاری بیشتر از 35 دلار باشد، قالب ناعادلانه است. از من خواسته می شود: 1. فرض فروشنده را رسمی کنم. 2. منطقه رد ($C$) چیست؟ 3. احتمال هر دو اشتباه ($\alpha$ و $\beta$) چقدر است؟ من با گفتن X$ شروع کردم، تعداد نتایج زوج یک مکعب منصفانه $X\sim B(\frac{1}{2}, 60)$، و بنابراین $X \sim N (30، 15)$ $H_0: \mu = 30$ $H_1: \mu > 30$ بنابراین این فرض فروشنده است. ناحیه رد باید از این واقعیت حاصل شود که فروشنده اگر و تنها در صورتی که اعداد زوج در آزمایش کمتر یا برابر با 35 دلار باشد، H_0$ را رد خواهد کرد. من برای پیدا کردن $C$ و محاسبه $\alpha$ و $\beta$ مشکل دارم.
یافتن ناحیه رد یک مورد معین
72636
فرض کنید که $X$، $Y$ و $Z$ $\text{i.i.d.} \sim \text{Uniform}(0,1)$ هستند. اجازه دهید $t > 0$ یک ثابت ثابت باشد. (i) محاسبه $P(X/Y \leq t)$ (ii) محاسبه $ P(XY \leq t)$ (iii) محاسبه $ P(XY/Z \leq t)$ من راه حل (i) را پیدا کردم ) بخشی که مقادیر مختلف $t$ را تضعیف می کند. $ P(X/Y \leq t) = \int_0^1\int_0^{yt}dx dy = t/2 $ ; زمانی که $t\leq 1$ من به سختی محدودیت های دریاچه را برای مقادیر مختلف $t$ پیدا می کنم، یعنی وقتی $t\leq 1 $ و $t>1$
محاسبه احتمال
66346
من یک مدل مارکوف مخلوط (شامل خوشه‌های K یا مؤلفه‌ها) دارم که سعی می‌کنم آن را آموزش دهم، به عنوان مثال، خوشه‌بندی را روی مجموعه‌ای از توالی‌های طول متفاوت انجام دهم. هر جزء از مدل یک زنجیره مارکوف مرتبه اول است. مدل با موارد زیر تعریف می شود: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/O4TuQ.gif) که در آن ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/HjzXm.gif) مدلی است که رفتار دنباله‌ها را در خوشه k-ام توصیف می‌کند. هر جزء kth مدل (خوشه) دارای بردار توزیع احتمال اولیه (theta_KI) و یک ماتریس انتقال (theta_tK) است - به معادله 2 مراجعه کنید. برای هر دنباله در مجموعه متفاوت است). n حالت قابل مشاهده در مدل و m دنباله در هر خوشه وجود دارد، و مقدار کل دنباله ها M است. در این مورد، چگونه می توانم مراحل e- و m را برای الگوریتم EM خود تعریف کنم؟ درک من این است که باید تابع log likelihood مدل را به حداکثر برسانم، که مجموع احتمالات در تمام بردارها v_i (مترادف با دنباله seq_i) خواهد بود - چیزی شبیه به: ![توضیح تصویر را در اینجا وارد کنید](http://i. stack.imgur.com/05Mmi.gif) با این حال، من نمی دانم که آیا این تعریف درستی برای آنچه که باید حداکثر شود و کدام آرگومان ها نیاز به برای آن پیدا شود من به دنبال ادبیات بوده ام، اما بسیار کم است، تقریباً وجود ندارد. یک سوال دیگر: آیا واقعاً یک کتابخانه R وجود دارد که دارای توابعی باشد که بتوان چنین مدلی را برای الگوریتم EM بسط داد؟
اجرای خوشه‌بندی EM برای مدل مارکوف مخلوط
114863
طبق آنچه من دیده ام، فرمول هموارسازی Kneser-Ny (مرتبه دوم) به نوعی به صورت $ \begin{align} P^2_{KN}(w_n|w_{n-1}) و= \ frac{\max \left\\{ C\left(w_{n-1}, w_n\right) - D, 0\right\\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{تراز} $ با ضریب عادی‌سازی $\lambda (w_{n-1})$ به صورت $ \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} داده شده است C\left(w_{n-1}, w'\right)} \times N_{1+}\left(w_{n-1}\bullet\right) \end{align} $ و احتمال ادامه $P_ {cont}(w_n)$ از یک کلمه $w_n$ $ \begin{align} P_{cont}(w_n) &= \frac{N_{1+}\left(\bullet w_{n}\right)}{\sum_{w'} N_{1+}\left(\bullet w'\right)} \end{align} $ که در آن $N_{1+}\left(\bullet w\right)$ تعداد زمینه‌هایی است که $w$ در آن دیده می‌شود یا ساده‌تر، تعداد کلمات متمایز $\bullet$ قبل از کلمه داده شده است. $w$. از آنچه من فهمیدم، فرمول را می توان به صورت بازگشتی اعمال کرد. اکنون این لغات شناخته شده در زمینه های ناشناخته را به خوبی برای طول های مختلف n-گرم مدیریت می کند، اما چیزی که توضیح نمی دهد این است که وقتی کلمات خارج از فرهنگ لغت وجود دارد چه باید کرد. من سعی کردم از این مثال پیروی کنم که بیان می‌کند در مرحله بازگشت برای تک‌گرم‌ها، $P_{cont}(/) = P^0_{KN}(/) = \frac{1}{V}$. سپس سند از این - به نقل از چن و گودمن - برای توجیه فرمول بالا به صورت $P^1_{KN}(w) = P_{cont}(w)$ استفاده می‌کند. من نمی توانم ببینم در حضور یک کلمه ناشناخته $w = \text{unknown}$ چگونه کار می کند. در این موارد $P_{cont}(\text{unknown}) = \frac{0}{\text{something}}$ زیرا بدیهی است که کلمه ناشناخته چیزی را در مورد مجموعه آموزشی ادامه نمی‌دهد. به همین ترتیب، تعداد n-گرم $C\left(w_{n-1}، \text{unknown}\right) = 0$ خواهد بود. بعلاوه، اگر دنباله‌ای از کلمات ناشناخته - مثلاً یک سه‌گرم از کلمات OOD - مواجه شود، کل عبارت $\sum_{w'} C\left(w_{n-1}, w'\right)$ ممکن است صفر باشد. چه چیزی را از دست داده ام؟
در هموارسازی کنسر-نی، کلمات غیبی چگونه مدیریت می شوند؟
50254
نمی‌دانم این انجمن درستی برای این کار است یا نه، اما اینجا می‌گویم: من سعی می‌کنم یک مدل مارکوف پنهان را پیاده‌سازی کنم تا بتوانم بهترین دنباله/مسیر را برای یک فایل آموزشی پیش‌بینی و پیدا کنم. تا کنون، من ضرایب (MFCC) یک سیگنال را دارم و به دنبال آموزش آن هستم تا بتوانم (دو مجموعه داده) را با استفاده از الگوریتم Viterbi برای یافتن بهترین مسیر مقایسه کنم. اما من ابهاماتی دارم: 1. اگر $\Pi$ را تخمین بزنم، آیا می توانم از الگوریتم رو به جلو برای یافتن احتمالات در یک حالت معین استفاده کنم؟ 2. آیا می توانم به جای استفاده از الگوریتم رو به جلو، از الگوریتم ویتربی برای یافتن احتمال استفاده کنم؟ 3. اگر بخواهم دو چیز محتمل (دو نتیجه) و N = 2 را شناسایی کنم M چه خواهد بود؟ من فرض می کنم که N = حالت ها و M = مشاهدات؟ اما، بردار من حاوی: N = 13، M = 450 است، بنابراین این مقادیر را نمی توان برای N->M برای HMM استفاده کرد. 4. بنابراین آیا من داده های آموزشی را به الگوریتم های رو به عقب که احتمال را برای هر حالت پیش بینی می کند ارسال می کنم، سپس این یک خروجی نهایی را به من می دهد ... که سپس می توانم آن را با رمزگشای Viterbi مقایسه کنم؟
مدل مارکوف پنهان با ضرایب MFCC
79629
من در حال توسعه یک HMM (یا DBN) برای تشخیص هوشیاری از مشاهدات سری زمانی بسته شدن چشم هستم. هوشیاری به عنوان یک متغیر باینری (هوشیار یا غیر هوشیار) تعریف می شود. در حالی که من چارچوب کلی و مفروضات HMM ها را درک می کنم، در مورد مفهوم مشاهدات یا انتشارات کمی سردرگم هستم. به طور خاص چه چیزی می تواند به عنوان یک مشاهده استفاده شود؟ سردرگمی من از این واقعیت ناشی می شود که هر مشاهده فردی اطلاعات بسیار کمی در مورد هوشیاری ارائه می دهد. با توجه به این موضوع، من می‌خواهم انواع ویژگی‌های زیر را در نظر بگیرم: 1. میانگین یا SD بسته شدن چشم در یک پنجره کوتاه مدت 2. اجزای طیفی (از یک DFT) در یک پنجره زمانی کوتاه 3. خروجی یک استاتیک الگوریتم ML (به عنوان مثال درخت تصمیم) آموزش دیده برای پیش بینی هوشیاری بر اساس مشاهدات بسته شدن چشم، من نمی دانم که آیا هر یک از این نوع ویژگی ها هستند قابل قبول و چگونه استفاده از این ویژگی ها تخمین پارامترهای HMM را تغییر می دهد؟ من به ویژه از اشاره به هر گونه ادبیات مرتبط قدردانی می کنم. متشکرم
محدودیت در نوع مشاهدات HMM
68915
من سعی می کنم از خوشه بندی k-means برای پروفایل رفتار استفاده از دستگاه تلفن همراه برای کاربران فناوری اطلاعات استفاده کنم. داده‌های من شامل متغیرها/خوانش‌های سطح کاربر و سیستم مختلف مانند تعداد تماس‌ها/اس ام اس، استفاده از پردازنده/حافظه، تعداد کاربران و برنامه‌ها/سرویس‌های سیستم و غیره است. قرائت‌ها هر 5 دقیقه انجام می‌شود. ایده ای که من دارم این است که از داده های 1 ماهه برای آموزش استفاده کنم، یعنی خوشه بندی، و سپس از داده های آینده برای مقایسه با خوشه های موجود و تلاش برای یافتن (ناهمسانی) بین این دو استفاده کنم. فرض بر این است که کاربران مختلف کاربرد متفاوتی خواهند داشت. از این رو خوانش‌های USER B در خوشه‌های USER A قرار نمی‌گیرد. اکنون دو سؤال دارم: 1. پس از آموزش (خوشه‌بندی)، چگونه داده‌های جدید را با خوشه‌های موجود مقایسه کنم تا (ناهمسانی) را تعیین کنم، یعنی داده‌های جدید متعلق به یکسان هستند. کاربر یا نه؟ من به یافتن نزدیکترین خوشه فکر می کنم و سپس بررسی می کنم که آیا نقطه در محدوده این خوشه قرار دارد یا خیر. 2. من از نمودار Silhouettes برای تعیین کیفیت خوشه بندی استفاده می کنم. من مقداری منفی دریافت می‌کنم، مثلاً ببینید![یکی از نمودارهای اینجا](http://i.stack.imgur.com/OvTiB.jpg). آیا باید نگران باشم؟ یا داشتن مقادیر منفی طبیعی است؟
K-به معنی خوشه بندی برای پروفایل استفاده است
50256
چگونه می توانم یک تخمین هیستوگرام از این توزیع حاشیه ای را رسم کنم: p(x1): وارد کردن numpy به عنوان np import matplotlib.pyplot به عنوان plt از scipy.stats norm import linalg = np.linalg N = 100 mean = [1,1] cov = [ [0.3، 0.2]، [0.2، 0.2]] داده = np.random.multivariate_normal(mean, cov, N) L = linalg.cholesky(cov) # print(L.shape) # (2, 2) unconrelated = np.random.standard_normal((2,N)) data2 = np .dot(L، نامرتبط) + np.array(mean).reshape(2،1) # print(data2.shape) # (2, 100) plt.figure() plt.scatter(data2[0,:], data2[1,:], c='green') plt.scatter(data[:,0 ]، داده[:،1]، c='yellow') plt.show() # رسم هیستوگرام ها و برازش توزیع های نرمال plt.subplot(211) plt.hist(data[:,0], bins=20, normed=1, alpha=0.5, color='green') plt.hist(data2[0,:], bins=20, normed=1, alpha= 0.5، color='زرد') x = np.arange(-1، 3، 0.001) plt.plot(x، norm.pdf(x، *norm.fit(data[:,0]))، color='green') plt.plot(x, norm.pdf(x, *norm.fit(data2[0,:])), color='زرد ') plt.title('Var 1') plt.subplot(212) plt.hist(data[:,1], bins=20, normed=1, alpha=0.5, color='green') plt.hist(data2[1,:], bins=20, normed=1, alpha=0.5, color='yellow') x = np.arange(-1, 3, 0.001) plt. plot(x, norm.pdf(x, *norm.fit(data[:,1])), color='green') plt.plot(x, norm.pdf(x، *norm.fit(data2[1,:]))، color='yellow') plt.title('Var 2') plt.tight_layout() همراه با یک راه حل تحلیلی با توجه به میانگین و کوواریانس پارامترها: N = 100 نمونه دو بعدی x = (x1,x2)T ∈ R2 از یک 2 بعدی گرفته شده است توزیع گاوسی، با میانگین μ = (1,1)T و ماتریس کوواریانس Σ = (0.3 0.2 0.2 0.2) به من گفته شده است که می توانم از این روش از تشخیص الگوی Bishops و یادگیری ماشین استفاده کنم (برگرفته از صفحه 88): p(xa ) = p(xa, xb) dxb آیا می توانید عبارت تحلیلی توزیع حاشیه ای p(x1) را برای من بنویسید؟ من از پایتون استفاده میکنم
ترسیم تخمین هیستوگرام همراه با حل تحلیلی پارامترهای میانگین و کوواریانس
64779
من یک طبقه‌بندی‌کننده دارم و برای ارزیابی عملکرد آن از اعتبارسنجی متقاطع استفاده می‌کنم. در هر تکرار، مجموعه داده را به مجموعه های آموزشی و آزمایشی تقسیم می کنم. مجموعه تست فقط موضوعی است که قرار است آن را ارزیابی کنم (یکی را کنار بگذارید). اکنون، مجموعه آموزشی را **تقسیم می‌کنم** و انتخاب ویژگی را به این صورت انجام می‌دهم: الگوریتم انتخاب ویژگی **فیلتر** خود را روی هر فولد اجرا می‌کنم. وقتی کارم تمام شد، یک الگوریتم رای گیری برای به دست آوردن مجموعه نهایی با ویژگی هایی که در هر فولد انتخاب شده بود دارم. من درک می کنم که این روش زمانی کافی است که شما یک نمونه کوچک مانند مورد من دارید (موضوع = 30، ویژگی ها = 960). **سوال من این است که چرا، اگر اصلاً، آیا انجام انتخاب ویژگی در کل مجموعه آموزشی به جای تقسیم آن به تارها، ایده بدی است؟**
انتخاب ویژگی در مجموعه آموزشی
66342
در یک مدل کاکس، مدل خطر متناسب را می توان به عنوان مثال: stset end، شکست (x==1) enter(start) مبدا (شروع) مقیاس (365.25) stcox a b c d estat phtest stphtest، detail /*test برای خطرات متناسب آزمایش کرد. */ stphplot، توسط (a) * ترسیم خطرات مختلف بر اساس زمان stphplot، توسط (b) stphplot، by(c) stphplot، by(d) stphplot، by(e) سوال من این است که آیا تست مشابهی وجود دارد، به جز stphplot که می‌توانم برای Weibull یا رگرسیون نمایی در Stata انجام دهم تا بررسی کنم که آیا متناسب است یا خیر. فرض خطر وجود دارد؟ من اینگونه شروع کردم: stset پایان، شکست(x==1) enter(start) مبدا(شروع) مقیاس(365.25) streg a b c d e، dist(weibull) stphplot، توسط (a) * ترسیم خطرات مختلف بر اساس زمان stphplot، توسط( ب) stphplot، by(c) stphplot، by(d) stphplot، by(e) از کمک شما متشکرم! لیندا
آزمون خطر متناسب وایبول و پواسون - داده های بقای آمار
109532
من مجموعه داده ای از 300 مشاهده دارم که 200 مشاهده طبیعی است و بقیه بیماری را دارند. من نمرات ارزیابی شناختی این 300 شرکت‌کننده را دارم، و ارزیابی به بخش‌های مختلفی تقسیم می‌شود: هذیان، افسردگی، اضطراب، و غیره. و اینکه آیا امتیاز بخش خاصی می تواند پیش بینی خوبی برای ابتلای شرکت کننده به این بیماری باشد یا خیر. من از رگرسیون لجستیک اطلاع دارم و با آن می توانم یک درخت طبقه بندی و یک منحنی ROC بسازم. آیا تکنیک های دیگری وجود دارد که بتوانم در اینجا استفاده کنم؟ من پذیرای رویکردهای مختلف هستم (تکنیک‌هایی برای پیش‌بینی، یا هر روش دیگری برای نگاه معنادار به داده‌ها).
چند تکنیک داده کاوی برای تجزیه و تحلیل علت بیماری چیست؟
95779
سوال من در مورد تعداد مورد نیاز شبیه سازی برای روش تحلیل مونت کارلو است. تا آنجا که من می بینم تعداد مورد نیاز شبیه سازی برای هر درصد خطای مجاز $E$ (به عنوان مثال، 5) $$ n = \left\\{\frac{100 \cdot z_c \cdot \text{std}(x) است. }{E \cdot \text{mean}(x)} \right\\}^2 , $$ که $\text{std}(x)$ استاندارد است انحراف نمونه‌گیری حاصل، و z_c$ ضریب سطح اطمینان است (به عنوان مثال، برای 95٪ 1.96 است). بنابراین به این ترتیب می توان بررسی کرد که میانگین و انحراف استاندارد حاصل از شبیه سازی $n$ نشان دهنده میانگین واقعی و انحراف استاندارد با سطح اطمینان 95٪ است. در مورد من شبیه سازی را 7500 بار اجرا می کنم و میانگین متحرک و انحراف استاندارد را برای هر مجموعه 100 نمونه از 7500 شبیه سازی محاسبه می کنم. تعداد مورد نیاز شبیه سازی که من به دست می آورم همیشه کمتر از 100 است، اما درصد خطای میانگین و std در مقایسه با میانگین و std کل نتایج همیشه کمتر از 5٪ نیست. در بیشتر موارد درصد خطای میانگین کمتر از 5 درصد است اما خطای std تا 30 درصد می‌رسد. بهترین راه برای تعیین تعداد شبیه سازی مورد نیاز بدون دانستن میانگین واقعی و std چیست (در مورد من نتیجه شبیه سازی به طور معمول توزیع می شود)؟ پیشاپیش از هرگونه کمکی متشکرم * * * به منظور داشتن ایده ای در مورد نحوه توزیع نتایج شبیه سازی زمانی که تکرار بی نهایت بار اجرا می شود: به جای استفاده از میانگین و واریانس حاصل پس از تعداد n شبیه سازی، تصمیم گرفتم تابع مناسبی از توزیع حاصل شد، اما در اینجا n باید % خطای مجاز را پر کند. فکر می‌کنم از این طریق می‌توانم نتایج صحیح‌تری در مورد تابع توزیع تجمعی پیدا کنم که با مثلاً مرتبط است. 97.5 درصد زیرا وقتی نتایج شبیه‌سازی 400 و 7000 را مقایسه می‌کنم، توابع برازش توزیع برای هر دو نمونه‌برداری به نظر می‌رسد که تنها منحنی دومی هموارتر است. همچنین، از این رو، مدل در MATLAB/Simulink غیرخطی است، اگرچه پارامترهای ورودی تولید شده توزیع نرمال هستند، هیستوگرام حاصل از شبیه‌سازی‌ها نرمال نیست، به همین دلیل من از «توزیع مقدار شدید تعمیم‌یافته» استفاده کردم که در MATLAB به عنوان 'gev' نامگذاری شده است. اما هنوز در مورد این روش کاملاً مطمئن نیستم، از قبل برای هر دستوری متشکرم
تعداد شبیه سازی مورد نیاز برای تحلیل مونت کارلو
72635
وقتی دو نمونه به هم مرتبط یا وابسته هستند، اما مشاهدات مطابقت ندارند، آیا آزمایشی وجود دارد که تعیین کند که آیا نمونه ها (میانگین یا غیر آن) متفاوت هستند؟ من به طور گسترده جستجو کرده ام و فقط آزمایش هایی را برای نمونه های همسان پیدا کرده ام، که چیزی نیست که نیاز دارم.
تفاوت بین (میان) نمونه های مرتبط، اما مطابقت ندارند را آزمایش کنید
111301
من روی پروژه‌ای کار می‌کنم که به ویژگی‌های تمایز 6 و 5 درجه‌ای لیکرت در یک مقیاس نگاه می‌کند. من از بسته ltm در R استفاده می کنم تا این را در یک پارادایم نظریه پاسخ آیتم (irt) با استفاده از یک مدل پاسخ درجه بندی شده (grm) بررسی کنم. برای هر مورد، یک مقدار تبعیض به من داده می شود که با شیب ICC در هر سطح با توجه به سطح توانایی مطابقت دارد. برای شش مورد من، مقادیر (تقریبا): 2.1، 1.8، 1.3، 0.8، 2.7، 2.3. چگونه اینها را تفسیر کنم؟ آیا محدودیتی برای ویژگی های تبعیض آمیز خوب وجود دارد؟ آیا مقادیری مرتبط با سطوح تبعیض «ضعیف»، «متوسط» یا «قوی» وجود دارد؟ با تشکر از کمک شما!
تفسیر مقادیر تبعیض در مدل‌های چندتومی IRT (grm). آیا برش یا لنگر وجود دارد؟
72631
من یک سوال نظری در مورد یادگیری ماشین از نظر خوشه بندی می پرسم. آیا ممکن است با توجه به مجموعه ای از داده های کلاس هایی که دانش آموزان در یک ترم گذرانده اند، کلاس های اضافی را توصیه کنیم که دانش آموزان در صورت انتخاب کلاس ها باید در آنها شرکت کنند؟ من در امتداد خط تشکیل خوشه‌های کلاس‌ها فکر می‌کنم و متوجه می‌شوم که آیا مجموعه خاصی از کلاس‌های انتخاب شده با مجموعه‌ای از کلاس‌های از قبل موجود مطابقت دارد یا خیر. سپس کلاسی را که در مجموعه هستند توصیه کنید. اما من در یادگیری ماشینی تازه کار هستم و از هر گونه پیشنهاد الگوریتم دیگری استقبال می کنم. بعلاوه، این به ویژه نظری نیست، بنابراین با خیال راحت نادیده بگیرید: اما آیا کسی نرم افزار خاصی را می شناسد که بتواند این کار را انجام دهد؟ من می دانم که LensKit یک نرم افزار برای رسیدگی به توصیه ها است، اما به نظر می رسد به رتبه بندی نیاز دارد (که من ندارم). من از هرگونه دستکاری ریاضی که می تواند خوشه ها را به رتبه بندی تبدیل کند، استقبال می کنم. با تشکر
الگوریتم‌ها/رویکردهای یادگیری ماشین برای توصیه‌های کلاس؟
79625
من تازه وارد بیزی هستم و هنوز در تلاش برای کشف جزئیات این فرآیند هستم. در جایی خواندم که یکی از مزایای تخمین بیزی این است که به صرفه جویی در درجات آزادی کمک می کند و زمانی که تعداد نقاط داده کمتر و تعداد پارامترهای بیشتری وجود دارد می توان از آن استفاده کرد. آیا کسی می تواند به این موضوع بپردازد؟ من می‌دانم که ربطی به MC MC دارد، اما در مورد اینکه چگونه کمک می‌کند خیلی واضح نیست.
بیزی در مقابل OLS درجات آزادی آیا برای تخمین بیزی باید در مورد d.o.f زحمت بکشیم؟
66347
برای خواندن نتایج تحلیل رگرسیون برای پایان نامه کارشناسی ارشدم که باید هفته آینده تحویل بدهم، به کمک شما فوری نیاز دارم. DV من لگاریتم طبیعی مخارج تحقیق و توسعه است، IV یک متغیر ساختگی است با برچسب **نزول**، که در آن 1 = شرکت در حال کاهش است و 0 = شرکت در حال کاهش نیست. ناظر مالکیت مدیریتی است که بر حسب درصد (0-100٪ یا 0-1.0)، با برچسب **MOWN** اندازه گیری می شود. پایان نامه من دو هدف دارد: 1) یافتن رابطه بین IV (کاهش) و DV (هزینه های تحقیق و توسعه، گزارش) 2) یافتن اثر تعدیل کننده MOWN بر رابطه بین IV-DV من کاهش، MOWN، و کاهش X MOWN را به طور همزمان پسرفت کردم. و ضرایب زیر را بدست آورد. $log(RD) = 6.984 - 0.852 Decline - 4.703Mown + 3.030MownDecline$ ضریب Decline **-0.852***** است، به این معنی که _شرکت ها 85% کمتر در مخارج تحقیق و توسعه سرمایه گذاری می کنند زمانی که Decline=1_ (درست است) ?) ضریب برای MOWN: **-4.703* _**ضریب MOWN x Decline: **3.030_** Contant: 6.984*** چگونه نتایج تعامل را تفسیر کنم؟ هنگامی که یک شرکت در حال افول است (نزول = 1)، _شرکت ها 303 درصد بیشتر در مخارج تحقیق و توسعه با یک درصد افزایش در MOWN سرمایه گذاری خواهند کرد. ثانیا، آیا می توانم متغیر MOWN را نیز به عنوان IV اضافی در نظر بگیرم؟ گفتن اینکه MOWN، مجری، تاثیر مستقیمی در DV هم دارد؟ گفتن اینکه _افزایش یک درصدی در MOWN DV را 470% کاهش می دهد_ از کمک شما بسیار متشکرم. من واقعا آن را قدردانی می کنم!
تفسیر تعامل بین ساختگی IV و تعدیل کننده پیوسته با log DV
114865
من در حال تجزیه و تحلیل داده‌هایی هستم که در مورد آنها ظن قوی دارم که مشابه خود هستند (پارامتر هرست بسته به روش تخمین و توالی نمونه از 0.60 تا 0.78 متغیر است). من همچنین مقادیر بالای تحقق را بسیار بیشتر مشاهده می‌کنم (در مقایسه با آزمایش‌هایی که هیچ شباهتی به خود مشکوک نیست) که نشان می‌دهد توزیع مولد می‌تواند دم بلند (سنگین) داشته باشد. به نظر می رسد که در این مورد نمی توان از نظریه ارزش افراطی برای استدلال در مورد رفتار دم استفاده کرد. در صورت تشابه خود، وابستگی برد بلند آشکارا i.i.d را نقض می کند. نیاز است، اما آیا ناتوانی در استفاده از EVT در مورد من به طور گسترده‌تری برای همه توزیع‌های دم بلند اعمال می‌شود؟
تئوری ارزش افراطی و توزیع‌های دنباله دار سنگین (طولانی).
79622
از اینکه برای خواندن این وقت گذاشتید متشکریم. من با یادگیری ماشینی تازه کار هستم و به همین دلیل در رقابت Kaggle شرکت می کنم تا به من کمک کند پیشرفت کنم، اما یک سوال دارم. چگونه می توانم طبقه بندی های مختلف را مقایسه کنم؟ پایتون من آنقدرها که می‌خواهم مرتب نیست، اما فکر می‌کنم درست است. لطفاً اگر کار عجیبی انجام می دهم به من اطلاع دهید قطار = pca(train) cfr = KNeighborsClassifier(n_neighbors=neighbours, algorithm=kd_tree) cv = cross_validation.KFold(len(train), n_folds=10, indices=True) نتایج = [] i = 0 count = 0 برای traincv، testcv در cv: ClassPred = cfr.fit(train[traincv], target[traincv]).predict(train[testcv]) برای j در محدوده(0,(len(train)/10)): labelindex = testcv[j] if (ClassPred [j] == هدف[شاخص برچسب]: i = i+1 دقت = (i/2000.0)*100 i=0 results.append(accuracy) count = count + 1 print accuracy for fold, count, : , accuracy,% print time after fold, count, : , elspasedfold,% سپری شده = ( time.clock() - start) #print out میانگین نتایج تایید شده متقاطع چاپ نتایج برای RBF، c = 10.0، گاما = 0.1 \n + str(np.array(results).mean()) چاپ زمان صرف شده %ds است % سپری شده است. همانطور که می بینید، من اعتبارسنجی متقاطع 10 برابری را روی داده های آموزشی انجام می دهم و امیدوارم مقدار دقت را از طرف دیگر تولید کنم. سوال من در اینجا این است که چگونه می توانم طبقه بندی های مختلف را با هم مقایسه کنم؟ اگر cfr را به‌عنوان یک طبقه‌بندی‌کننده متفاوت (مثلاً Random Forest) انتخاب کنم و مقداری برای آن بدست بیاورم، چگونه از نظر آماری این دو را مقایسه کنم؟ افکار اولیه من این است که به جای استفاده از یک مقداری که در حال حاضر خروجی می دهد، از یک آزمون t دو طرفه بر روی مقادیر برای هر فولد (بنابراین 10 مقدار در هر طبقه بندی کننده) استفاده کنم، که فکر می کنم میانگینی از تمام چین های ترکیبی است. سپس باید یک مقدار p دریافت کنم تا ببینم آیا تفاوت ها قابل توجه هستند یا خیر. من مطمئن نیستم که چگونه می توانم این را اجرا کنم یا اینکه آیا این کار درستی است. آمار من کمی تکه تکه است (که در حال کار بر روی آن هستم) اما هر کمکی که هر کسی می تواند به من بدهد بسیار قدردانی خواهد شد. بنابراین برای روشن شدن، با استفاده از پایتون و کیت علمی بهترین راه برای مقایسه عملکرد طبقه‌بندی‌کننده‌های مختلف در داده‌های من چیست؟ با تشکر ویرایش: معیار ارزیابی آموزشی این است که باید از اعتبارسنجی متقاطع 10 برابری استفاده شود.
مقایسه طبقه‌بندی‌کننده‌های مختلف (با استفاده از مقادیر اعتبارسنجی متقاطع کیت اسکی)
111305
می توان نشان داد که برای یک نمونه iid از توزیع یکنواخت(0، 1)، \begin{equation} n(1-U_{(n)}) \rightarrow exp(1) \\\ n(U_{(1) )}) \rightarrow exp(1) \end{equation} برای مشاهده این، کافی است تابع توزیع سمت چپ را پیدا کنید و سپس حد را به بی نهایت ببرید. اکنون، معلوم می شود که می توانیم نشان دهیم که آنها در واقع مجانبی مستقل هستند و می توان توزیع مجانبی مشترک آنها را استخراج کرد. سوال من این است که چگونه می توانیم این کار را انجام دهیم. من کتابی پیدا کردم که این را بیان می کند اما اثبات را حذف کرده است. امیدوارم به دلیل سادگی آن حذف نشده باشد زیرا نمی توانم پاسخ را ببینم. **ویرایش:** در اینجا سعی می کنم با توابع مشخصه شیک باشم و از ترفندی مشابه چیزی که در یک کتاب دیده ام استفاده کنم. با این حال، هنوز چیزی در این محاسبه اشتباه است، اما من نمی توانم آن را بفهمم. اجازه دهید \begin{معادله} \Phi(t_1,t_2) = \mathbb{E}\exp{(it_1 n^2 U_{(1)} + i t_2 n^2 (1-U_{(n)})} ) \end{equation} سپس توجه کنید که تابع مشخصه مورد نظر ما $\Phi(\frac{t_1}{n},\frac{t_2}{n})$ خواهد بود. اکنون ما این را با تمایز تحت انتظار (بسط تیلور) حدود 0 گسترش می دهیم. با توجه به اینکه آمار سفارش یکنواخت در واقع بتا توزیع شده است، می توانیم انتظارات آنها را از فرمول میانگین بتا دریافت کنیم. \begin{equation} \Phi(\frac{t_1}{n},\frac{t_2}{n}) = 1 + (i \frac{n^2}{n+1} , i \frac{ n^2}{n+1}) (\frac{t_1}{n}، \frac{t_2}{n})^T + o(\|(\frac{t_1}{n}، \frac{t_2}{n})\|) \end{equation} مشکل این است که به $1 + it_1 + it_2$ می‌رود که اشتباه است زیرا باید در توابع مشخصه دو نمایی مستقل لحاظ شود. آیا کسی می تواند بفهمد که در محاسبه بالا کجا اشتباه کردم؟
توزیع مجانبی آمار سفارش یکنواخت
114868
من مطالعه ای دارم که در آن یک پیش بینی کننده جدید (دودویی) برای یک بیماری (همچنین یک متغیر باینری) ایجاد کرده ام. مطالعه دارای دو بخش است. در قسمت اول، می خواهم آزمایش کنم که آیا پیش بینی کننده من به شدت با بیماری مرتبط است یا خیر. من در حال برنامه ریزی برای استفاده از آزمون کای اسکوئر در جدول پیش بینی کننده در مقابل بیماری احتمالی (2x2) برای این بخش اول هستم. در قسمت دوم، می‌خواهم آزمایش کنم که آیا پیش‌بینی‌کننده من مکمل پیش‌بینی‌کننده‌های موجود (که دودویی یا پیوسته هستند) است. برای انجام این کار، من قصد دارم 2 مدل رگرسیون لجستیک تودرتو را برای پیش بینی بیماری مقایسه کنم: مدل 1 با پیش بینی کننده من و پیش بینی کننده های موجود، و مدل 2 تنها با پیش بینی کننده های موجود. من از آزمون نسبت درستنمایی یا معیار اطلاعات Akaike برای مقایسه استفاده خواهم کرد. سوال اصلی من این است: آیا باید از رگرسیون لجستیک برای بخش اول نیز به جای آزمون کای اسکوئر استفاده کنم؟ یا، آیا آزمون کای اسکوئر قدرتمندتر از رگرسیون لجستیک برای آزمون ارتباط در جداول احتمالی 2×2 است؟ این سوالات مربوط به یک تاپیک قبلی است، اما سوالات من در آنجا به طور کامل پاسخ داده نشد. همچنین آیا رگرسیون لجستیک بهترین راه برای آزمون فرضیه من در قسمت دوم مطالعه است؟ در نهایت اگر پاسخ تست قسمت دوم مطالعه من مثبت باشد، آیا قسمت اول آنقدر زائد می شود که در مطالعه گنجانده نشود؟ متشکرم.
رگرسیون لجستیک، مجذور کای و طراحی مطالعه
61692
به روز رسانی: من اطلاعات مهمی را در توضیحات قبلی خود حذف کردم... من در واقع با مشکل خاصی روبرو هستم که بهتر است به شرح زیر توضیح داده شود: با توجه به پارامترهای مشخص شده توسط کاربر $\alpha$ و $\beta$ (که در آن $0 <\ آلفا < \frac{1}{n+1}$, $\beta > 0$)، حداقل یک $n$-بردار $A=[a_1,a_2,....,a_N]$ ایجاد کنید به طوری که: $[ (a_1)^2 + (a_2)^2 + .... + (a_N)^2 ] = (\beta - \alpha)*\alpha$، که در آن $\alpha = 1 - (a_1 + a_2 + .. .. + a_N)$ و هر جزء از $A$ محدود شده است تا در بازه $(\alpha,1)$ قرار گیرد. *توجه داشته باشید که من از پرانتزهای گرد استفاده می کنم تا نشان دهم که این فاصله شامل نقاط مرزی آن نمی شود. * * * در حین کار روی یک مشکل گسترده تر در توسعه یک برنامه کامپیوتری، متوجه شدم که اگر بتوانم n-بردار (برای n ثابت)، با توجه به محدودیت های زیر تولید کنم، می توانم زمان زیادی را صرفه جویی کنم: 1. 1-هنجار هر بردار باید برابر با مقداری اسکالر تعیین شده توسط کاربر $\lambda$ باشد (توجه داشته باشید: $\lambda$ همیشه بین 0 و 1 خواهد بود) 2. مربع 2-هنجار هر بردار باید برابر با مقداری اسکالر تعیین شده توسط کاربر باشد. در انتخاب های $\lambda$ و $\phi$ با توجه به محدودیت های بالا... اما من فرض می کنم که می توانیم فرض کنیم که این پارامترها به خوبی توسط کاربر انتخاب شده اند. در نهایت، من به دنبال راهی برای انجام این کار هستم (یا تا حد امکان به انجام آن نزدیک شوم). با این حال، مطمئن نیستم که چگونه از زمین خارج شوم.
تولید بردارها تحت محدودیت های 1 و 2 هنجار
61693
من در حال حاضر در حال گذراندن دوره PGM توسط Daphne Koller در Coursera هستم. در آن، ما به طور کلی یک شبکه بیزی را به عنوان گراف علت و معلولی متغیرهایی که بخشی از داده های مشاهده شده هستند، مدل می کنیم. اما در آموزش‌ها و مثال‌های PyMC، من به طور کلی می‌بینم که کاملاً شبیه به PGM مدل‌سازی نشده است یا حداقل گیج شده‌ام. در PyMC والدین هر متغیر دنیای واقعی مشاهده شده اغلب پارامترهای توزیعی هستند که برای مدل سازی متغیر استفاده می کنید. حالا سوال من واقعا کاربردی است. فرض کنید من 3 متغیر دارم که داده‌ها برای آنها مشاهده می‌شود (A، B، C) (فرض کنیم همه آنها متغیرهای پیوسته هستند فقط به خاطر آن). از برخی دانش حوزه، می توان گفت که A و B باعث C می شوند. بنابراین در اینجا یک BN داریم - A، B والدین و C فرزندان هستند. اکنون از معادله BN P(A, B, C) = P(C | A, B) * P(A) * P(B) می توانم بگویم A و B چند توزیع نرمال با مقداری مو و سیگما هستند، اما چگونه آیا P(C | A, B) را مدل کنم؟ ایده کلی که می خواهم یاد بگیرم این است که چگونه این BN را با استفاده از PyMC یاد بگیرم تا بتوانم BN را پرس و جو کنم. یا باید BN را با پارامترهای مدل به نحوی افزایش دهم. آیا این مشکل با pymc قابل حل است؟ یا برخی اصول را اشتباه گرفته ام؟ هر گونه کمکی قدردانی خواهد شد!
استنتاج شبکه بیزی با استفاده از pymc (گیج شدن مبتدیان)
34796
من از بسته svydesign در R برای اجرای رگرسیون های لاجیت وزن دار نظرسنجی به صورت زیر استفاده می کنم: sdobj <- svydesign(id = ~ 0, weights = ~chweight, strata = ~strata, data = svdat) model1 <- svyglm(formula=formula1 ,design=sdobj,family = quasibinomial) با این حال، مستندات یک هشدار در مورد رگرسیون بدون تعیین اصلاحات جمعیت محدود (FPC): اگر fpc مشخص نشده باشد، نمونه گیری با جایگزینی در سطح بالا فرض می شود و تنها مرحله اول خوشه در واریانس های محاسباتی استفاده می شود. متأسفانه، من اطلاعات کافی برای تعیین جمعیت خود در هر سطح (که نمونه بسیار کمی از آن را انجام می دهم) ندارم. هر گونه اطلاعات در مورد نحوه تعیین وزن های نظرسنجی بدون اطلاعات FPC بسیار مفید خواهد بود.
بررسی رگرسیون وزنی بدون FPC در R
34791
من می خواهم از معیار اطلاعات Akaike (AIC) برای انتخاب تعداد مناسبی از عوامل برای استخراج در PCA استفاده کنم. تنها مسئله این است که من مطمئن نیستم چگونه تعداد پارامترها را تعیین کنم. یک ماتریس $T\times N$ $X$ را در نظر بگیرید، که در آن $N$ نشان دهنده تعداد متغیرها و $T$ تعداد مشاهدات است، به طوری که $X\sim N\left(0,\Sigma\right)$. از آنجایی که ماتریس کوواریانس متقارن است، تخمین حداکثر احتمال $\Sigma$ می تواند تعداد پارامترها را در AIC برابر با $\frac{N\left(N+1\right)}{2}$ تعیین کند. متناوبا، در یک PCA، می توانید اولین بردارهای ویژه $f$ و مقادیر ویژه $\Sigma$ را استخراج کنید، آنها را $\beta_{f}$ و $\Lambda_{f}$ بنامید و سپس $$\Sigma=\beta_ را محاسبه کنید. {f}\Lambda_{f}\beta_{f}'+I\sigma_{r}^{2}$$ کجا $\sigma_{r}^{2}$ میانگین واریانس باقیمانده است. با حساب من، اگر فاکتورهای $f$ دارید، پارامترهای $f$ را در $\Lambda_{f}$، پارامترهای $Nf$ را در $\beta_{f}$ و پارامتر $1$ را در $\sigma_{ خواهید داشت. r}^{2}$. آیا این رویکرد درست است؟ به نظر می‌رسد که با افزایش تعداد فاکتورها به $N$، پارامترهای بیشتری نسبت به رویکرد حداکثر احتمال به دست می‌آید.
انتخاب مدل PCA با استفاده از AIC
26715
من در یک موضوع از تحلیل مدل‌سازی موضوع سردرگم هستم. وقتی تحلیل مدل‌سازی موضوع را بر روی مجموعه‌ای از اسناد انجام می‌دهیم، آیا باید مجموعه‌ای از فهرست نامزدهای موضوع را به عنوان ورودی تجزیه و تحلیل ارائه کنیم؟ یا موضوعات به دست آمده فقط از خود اسناد ورودی استخراج می شوند؟
با توجه به لیست نامزدهای موضوع برای تحلیل مدلسازی موضوع (LDA)
79628
من در حال گذراندن دوره تحلیل داده های کوچک با استفاده از نرم افزار SAS هستم. تقریباً به من گفته شد که نتایج را با استفاده از داده‌ها و توضیحات ارائه شده در یک صفحه StatSci خاص تولید کنم که می‌خواهم آن را در اینجا کپی کنم: > **موسسه ورزش استرالیا** > > کلمات کلیدی: رگرسیون چندگانه، یک یا تجزیه و تحلیل واریانس دو طرفه، عوامل > > **توضیح** داده های 102 مرد و 100 ورزشکار زن جمع آوری شده در > موسسه ورزش استرالیا، با حسن نیت ریچارد تلفورد و راس > کانینگهام متغیر شرح ورزش ورزشی جنسیت مرد یا زن Ht قد بر حسب سانتی متر وزن وزن بر حسب کیلوگرم LBM توده بدون چربی بدن RCC تعداد گلبول های قرمز WCC تعداد گلبول های سفید Hc هماتوکریت جیوه هموگلوبین Ferr غلظت فریتین پلاسما BMI شاخص توده بدن = وزن/قد^2 SSF مجموع پوست %Bfat % چربی بدن را تا می‌کند > **منبع** ریچارد تلفورد و راس کانینگهام، ملی > دانشگاه استرالیا. Cook, R. D., and Weisberg, S. (1994). مقدمه ای بر > گرافیک رگرسیون. ویلی، نیویورک > > **تجزیه و تحلیل** این به عنوان نمونه ای از طرح بندی یک طرفه یا دو طرفه بر اساس > ورزش و جنسیت، و همچنین نمونه ای از رگرسیون چندگانه کار می کند. (من از > log-Ferr استفاده کرده ام.) اما من کمی گیج هستم و واقعاً نمی توانم از شخص دیگری بپرسم زیرا شروع آخر هفته است. قسمت تحلیل یعنی چی؟ آیا آنها سعی می کنند فر را با استفاده از ورزش و جنسیت پیش بینی کنند؟ چه نتایج معنی‌داری باید از این داده‌ها به دست بیاورم؟ من واقعاً از ایده‌ها و شاید رویه‌های نرم‌افزار SAS که سعی می‌کنم بیشتر پیاده‌سازی و برای این تحلیل تطبیق دهم، قدردانی کنم.
چگونه می توان نتایج موسسه ورزش استرالیا را تکرار کرد؟
77375
من خوانده ام (به عنوان مثال در اینجا) که یک رگرسیون لجستیک (چند جمله ای) با یک طبقه بندی کننده آنتروپی حداکثر مطابقت دارد. سوال من این است که چگونه می توان به فرمول رگرسیون لجستیک که با اصل آنتروپی حداکثر شروع می شود، خاتمه داد؟
رگرسیون لجستیک و حداکثر آنتروپی
18215
به خوبی شناخته شده است که فواصل اطمینان و آزمون فرضیه های آماری به شدت مرتبط هستند. سوالات من بر مقایسه میانگین ها برای دو گروه بر اساس یک متغیر عددی متمرکز است. بیایید فرض کنیم که چنین فرضیه ای با استفاده از آزمون t تست شده است. از طرف دیگر، می توان فواصل اطمینان را برای میانگین هر دو گروه محاسبه کرد. آیا رابطه ای بین همپوشانی فواصل اطمینان و رد فرضیه صفر مبنی بر برابری میانگین ها (به نفع گزینه ای که معنی متفاوت است - آزمون دو طرفه) وجود دارد؟ به عنوان مثال، اگر فواصل اطمینان با هم تداخل نداشته باشند، یک آزمون می تواند فرضیه صفر را رد کند.
رابطه بین فاصله اطمینان و آزمون فرضیه آماری برای آزمون t
50250
من سعی می کنم توزیع Weibull را به یک مجموعه داده در R برازم. من یک مجموعه داده loss به عنوان یک فایل csv. دارم و از fitdistr(loss,invexp) استفاده می کنم. من این پیام را دریافت کردم: > شکست infitdistr(از دست دادن، invweibull): توزیع پشتیبانی نشده چگونه می توانم توزیع معکوس Weibull را به یک مجموعه داده در R تطبیق دهم؟ * * * متشکرم! من هم نمی دانم که چگونه این کار را در R انجام دهم و هم اینکه چرا هنگام استفاده از تابع fitdistr برای تخمین حداکثر احتمال با خطا مواجه می شوم. پیغام خطای من در مورد تابع invweibull در R است. همان مشکلی که من برای توزیع frechet دارم. مجموعه داده من به شرح زیر است: > 336.893 2.468.001 572.651 426.581 501.593 433.167 708.431 736.761 1.405.323 > 2.161.790.4294. 585.885 563.030 408.345 4.840.762 308.791 > 1.201.796 1.463.367 849.336 510.141 282.088 648.4759 648.4756 606.299 > 380.988 من مطمئن نیستم که بتوانم به سادگی یک Weibull را در معکوس مشاهدات قرار دهم و بگویم که پارامترها برای وایبول معکوس یکسان هستند. من از paket actuar و تابع invweibull و frechet استفاده می کنم و تبدیل به یک توزیع پشتیبانی نشده شکست می شوم. سوال ساده این است که چرا تخمین‌ها را نمی‌توان برای این مجموعه داده انجام داد و شاید کسی بداند که چگونه می‌توان توزیع‌های ویبول معکوس و فریشت را در R جا داد؟ از پاسخ شما به سوال من بسیار متشکرم!
برازش معکوس توزیع Weibull به داده ها در R
37951
مدتی است که برای سمینار خود به دنبال یک مطالعه مقدماتی خوب در مورد Copulas هستم. من در حال یافتن مطالب زیادی هستم که در مورد جنبه های نظری صحبت می کند، که خوب است، اما قبل از اینکه به آنها بپردازم، به دنبال ایجاد یک درک شهودی خوب در مورد موضوع هستم. آیا کسی می تواند مقاله خوبی را پیشنهاد کند که پایه و اساس خوبی برای یک مبتدی فراهم کند (من 1-2 دوره در زمینه آمار داشته ام و حاشیه ها، توزیع های چند متغیره، تبدیل معکوس و غیره را تا حد معقولی درک کرده ام)؟
خواندن مقدماتی در Copulas
24636
> **تکراری احتمالی:** > چگونه یک نمودار پراکنده زیبا در R انجام دهیم؟ چگونه از ggplot برای انجام نمودارهای چندک binned (یک نوع نمودار پراکندگی) استفاده کنیم؟ سلام به همه، من طرح پراکندگی را انجام دادم: plot(x, y). حالا میخواستم پلات های کوانتیل binned انجام بدم... ggplot2 میتونه کمکم کنه؟ به عنوان مثال، داده های x را در 10 bin قرار می دهیم. برای هر سطل، 10 دهک داده y مربوطه را در آن سطل به صورت نقطه/نقطه رسم می کنیم. و سپس در همه سطل‌ها، می‌خواهیم نقاط/نقطه‌های دهک مربوطه را به هم وصل کنیم (چیزی مانند منحنی‌های معادل یا دهک همسان)... چگونه این کار را در R یا ggplot2 انجام دهم؟ آیا تابع/فرمان موجودی وجود دارد که بتواند این کار را انجام دهد؟ خیلی ممنون
چگونه از ggplot برای انجام نمودارهای چندک binned (یک نوع نمودار پراکندگی) استفاده کنیم؟
28744
این یک سوال بسیار ساده است اما من نمی توانم آن را در هیچ کجای اینترنت یا کتاب پیدا کنم. من می خواهم ببینم که چگونه یک بیزی توزیع نرمال چند متغیره را به روز می کند. برای مثال: تصور کنید که $$ P({\bf x}|{\bf μ},{\bf Σ}) = N({\bf \mu}, {\bf \Sigma}) \\\ P({ \bf \mu}) = N({\bf \mu_0}, {\bf \Sigma_0}) $$ پس از مشاهده مجموعه ای از ${\bf x_1 ... x_n}$، می خواهم $P({\bf \mu | x_1 ... x_n})$ را محاسبه کنید. من می دانم که پاسخ $P({\bf \mu | x_1 ... x_n}) = N({\bf \mu_n}، {\bf \Sigma_n})$ است که در آن $$ \bf \mu_n = \Sigma_0 (\Sigma_0 + \frac{1}{n}\Sigma)^{-1}(\frac{1}{n}\sum_{i=1}^{n}{\bf x_i}) + \frac{1}{n }\Sigma(\Sigma_0+\frac{1}{n}\Sigma)^{-1}\mu_0 \\\ \bf \Sigma_n = \Sigma_0(\Sigma_0 + \frac{1}{n}\Sigma)^{-1}\frac{1}{n}\Sigma $$ من به دنبال اشتقاق این نتیجه با تمام جبر ماتریس میانی هستم. هر گونه کمک بسیار قدردانی می شود.
خلفی نرمال چند متغیره
67968
من یک مجموعه داده در هر دقیقه ضبط می کنم. با استفاده از تست توکی برای تشخیص پرت (به عنوان مثال، اگر تعداد نقاط بالاتر از Q2 + 2.3IQR بالای 10٪ از توزیع کل باشد) سپس پنجره یک دقیقه‌ای را به‌عنوان غیرعادی علامت‌گذاری می‌کنم. در دقیقه اول خوب کار می کند. در واقع، سیستم رفتار را برای چند دقیقه آینده ادامه می‌دهد و الگوریتم چند پنجره بعدی را به عنوان ناهنجاری علامت‌گذاری نمی‌کند، زیرا میانه به سمت بالا و پیوسته تغییر می‌کند. با دانش دامنه، سیستم برای دو تا سه دقیقه آینده به حالت غیرعادی ادامه می‌دهد و سپس مستقر می‌شود. برای درک من، باید یک الگوریتم دیگر را به همراه تست توکی اضافه کنم تا جابجایی ها نیز اندازه گیری شوند و به عنوان ناهنجاری علامت گذاری شوند. PS: نمی‌توانم ضمیمه کنم زیرا شهرت کافی ندارم. اجازه دهید بیشتر روشن کنم... مشکل من چیزی متفاوت از نقاب زدن است. پنجره 1: توزیع: توزیع نرمال دنباله سمت راست پرت بر اساس قانون میانه: بله، زیرا تعداد معینی از نقاط بالاتر از Q2 + 2.3IQR میانه توزیع = 23 ویندوز 2: توزیع: توزیع نرمال اما گسترش کم، به عنوان اثر پنجره 1 پیوسته در پنجره 2 پرت بر اساس قاعده میانه: خیر، گسترش (واریانس) توزیع بیشتر است و هیچ نقطه بیرونی وجود ندارد Q2+2.3IQR میانه توزیع = 40 ویندوز 2: توزیع: توزیع معمولی اما گسترش کمی زیاد است، زیرا تأثیر پنجره 1 پیوسته در پنجره 2 و 3 بر اساس قانون میانه: خیر، گسترش (واریانس) توزیع است. بیشتر و هیچ نقطه‌ای در خارج از Q2+2.3IQR وجود ندارد میانه توزیع = 60 ناگهان رفتار به چیزی شبیه به آنچه در پنجره 1 بود کاهش می‌یابد، از دانش دامنه پنجره 2، پنجره 3 ناهنجاری هستند. از سوی دیگر می‌توان استدلال کرد که نمی‌توان با این امر به عنوان ناهنجاری برخورد کرد زیرا رفتار سیستم در مرحله یادگیری چنین روشی را تکرار می‌کند.
تشخیص بیرونی با استفاده از قانون میانی
92465
من یک مدل لاجیت مختلط را با glmer اجرا کرده‌ام و شی glmer حاصل را به عنوان یک فایل Rdata در دیسک ذخیره کرده‌ام. اما وقتی آن را بارگذاری می‌کنم و با استفاده از print (myglmerobject,corr=0) آن را چاپ می‌کنم، لیستی از متغیرها، همبستگی‌ها، و غیره را می‌بینم تا نتایج خوبی که این دستور ایجاد می‌کند. آیا ایده ای دارید که چگونه می توانم این را برطرف کنم؟ این یک مجموعه داده بزرگ است و ساعت ها طول می کشد تا دوباره مدل را اجرا کنم.
شی glmer ذخیره شده در R به درستی در R نشان داده نمی شود
111302
دنباله ای برای این سوال من یک مجموعه داده دارم که در آن: * $\frac{4}{5}$ از نقاط از: $(x, y) \sim \mathcal{U}_{2}(0,30)$, $( z) \sim \mathcal{U}_{1}(14.5، 15.5)$. * $\frac{1}{5}$ از نقاط از: $(x, y, z) \sim \mathcal{U}_{3}(0,30)$ از کجا $\mathcal{U} گرفته شده است _{d}(x,y)$ باید به عنوان یک مجموعه بعدی $d$ از نقاط تفسیر شود که در هر بعد از محدوده بین $x$ و $y$ ترسیم شده است. ## پیاده سازی من این را در متلب به این صورت پیاده سازی کرده ام: General Init: dim = 3; uniP = 1/5; wallP = 4/5; uniformN = ceil(N * uniP); wallN = سقف (N * wallP); توزیع اول (دیوار): % پارامتر lowWall = [0,0,14.5]; دیوار بالایی = [30،30،15.5]; % مقادیر [wallD] = blockUniformDist(LowerWall, upperWall, wallN, dim); توزیع دوم (نویز): % پارامترهای کمتر = 0; بالا = 30; % مقادیر [uniformD] = uniformDist(پایین، بالا، uniformN، کم نور)؛ داده ها را ترکیب کرده و چگالی را محاسبه کنید: % داده داده = [wallD; uniformD] % Density uniDensity = 1 / ((بالا - پایین) ^ dim); چگالی دیوار = 1; برای i=1 : dim wallDensity = wallDensity/(waperWall(i)-lowerWall(i)); end wallSpace = (data(:,3) < upperWall(3)) & (data(:,3) > bottomWall(3)); trueValues ​​= wallP * wallDensity .* wallSpace + ... uniP .* (ones(N, 1) * uniDensity); wallSpace یک آرایه بولی است که برای هر مشاهده در داده نشان می دهد که آیا در داخل دیوار قرار دارد یا نه. از آنجایی که برد دیوار برابر است با برد دیوار برابر است با محدوده داده های یکنواخت در ابعاد یک و دو، من فقط بعد سوم را در نظر می گیرم. اگر نقطه ای با اندیس «i» بخشی از دیوار نباشد، چگالی آن «uniDensity» است، زیرا «wallSpace(i)» برای چنین دیوارهایی صفر است «trueValues(i)» برابر است با uniDensity. نقطه ای با شاخص «j» که z آن بین 14.5 و 15.5 است در دیوار است، بنابراین چگالی آن باید $\frac{4}{5} \cdot$ `wallDensity` \+ $\frac{1}{5} باشد. \cdot$ `uniDensity`. از آنجایی که «wallSpace[i]» یکی برای این نقاط است، این چگالی است که در «trueValues[j]» قرار می‌گیرد. «blockUniformDist(LowerWall، upperWall، wallN، dim)» به این صورت تعریف می‌شود: تابع [داده] = blockUniformDist(پایین، بالا، N، کم نور) %BLOCKUNIFORMDIST N مقدار را از یک توزیع یکنواخت با ٪ ابعاد کم نور نمونه می‌کند. % INPUT % - پایین‌تر: کمترین مقدار مجاز (در هر بعد) % - بالا: بالاترین مقدار مجاز (در هر بعد) % - N: تعداد نمونه‌های گرفته‌شده % - کم نور: ابعاد توزیع % OUTPUT % - داده‌ها: بردار نمونه ها توزیع % مقادیر داده = rand(N, dim); برای i= 1 : داده کم نور(:,i) = پایین تر(i) + داده(:,i).*(بالا(i) - پایین(i)); انتهای انتهایی و 'uniformDist' به عنوان: تابع [داده] = uniformDist( پایین، بالا، N، کم نور) %UNIFORMDIST N مقدار را از یک توزیع نرمال با میانگین mu % و انحراف استاندارد sd در بعد کم نور نمونه می‌کند. % INPUT % - پایین تر: کمترین مقدار مجاز % - بالا: بالاترین مقدار مجاز % - N: تعداد نمونه های گرفته شده % - کم نور: ابعاد توزیع % OUTPUT % - داده: بردار نمونه ها % توزیع را تشکیل می دهند. مقادیر داده = پایین تر + rand(N، dim) .* (بالا - پایین); نتیجه ## نتیجه نتیجه این است که هر مشاهده یکی از دو چگالی $8.962962963e-04$ یا $7.407407407e-06$ دارد. رسم مجموعه داده با چگالی دیکته کننده رنگ (نقاط با چگالی $7.407407407e-06$ در قرمز و نقاط با چگالی $8.962962963e-04$ در آبی) نتیجه می‌شود: 06$ به رنگ قرمز و نقاط با تراکم $8.962962963e-04$ به رنگ آبی.](http://i.stack.imgur.com/5I0RP.jpg) ## سوال واقعی آیا نباید نقاط در ناحیه متراکم تر طرح همگی چگالی یکسانی داشته باشند، و بنابراین همه یک رنگ؟
چگونه می توانم چگالی این مجموعه داده را که از دو توزیع سه بعدی مختلف تشکیل شده است محاسبه کنم؟
67964
بگذارید دو نقطه در مختصات قطبی $(r_i، \theta_i)$ و $(r_j, \theta_j)$ نقاط هذلولی در $\mathbb{H}^2_\zeta$ با انحنای $K=-\zeta^2$ باشند. مختصات شعاعی این نقاط به صورت نمایی با توان $\alpha$ توزیع شده است: $p(r) = \alpha e^{\alpha(r - R)}$ با $R \approx \ln(N)$ (شعاع) از دیسک پوانکاره)، $N$ تعداد نقاط این دیسک است، توان $\alpha > 0$ و $r \in [0, R]$. مختصات زاویه ای به طور یکنواخت توزیع می شوند: $p(\theta) = \frac{1}{2\pi}$ با $\theta در [0, 2\pi]$. برای سادگی، اجازه دهید $\zeta = 1$. در نتیجه، فاصله هذلولی بین نقاط در $\mathbb{H}^2_1$ به صورت زیر تعریف می‌شود: $d_{i, j} = \text{acosh}[\cosh(r_i)\cosh(r_j) - \ sinh(r_i)\sinh(r_j)\cos(\theta_{i, j})]$ با $\theta_{i, j} = \pi - |\pi - |\theta_i - \theta_j||$. توزیع فواصل بین نقاط تصادفی با ویژگی های فوق در دیسک هذلولی با شعاع $R$ چگونه است؟ **ویرایش** من با تولید نقاط تصادفی با استفاده از $p(r)$ و $p(\theta)$ برای مقادیر مختلف $\alpha، N=1000$ و $\zeta=1$ بازی کردم. . اینها چگالی نقطه ای و توزیع فاصله هذلولی هستند: ![چگالی هایپربولیک](http://i.stack.imgur.com/RUotZ.png) با چشم، به نظر می رسد فاصله های هذلولی $Beta$ توزیع شده است. البته برای تایید این فرضیه باید تحلیل مناسبی انجام شود...
توزیع فاصله هذلولی بین نقاط تصادفی در دیسک پوانکاره
111303
من برخی از داده ها را دارم که تعداد دفعاتی است که یک فرد طی یک دوره 5 دلاری سال به مطب پزشک مراجعه کرده است. من می‌خواهم مدلی ایجاد کنم که بتواند محتمل‌ترین تعداد شمارش‌هایی را که یک فرد ممکن است به مطب پزشکان مراجعه کند، پیش‌بینی کند. وقتی به هیستوگرام توزیع شمارش نگاه کردم متوجه شدم که به درستی انحراف دارد، بنابراین به فکر رفتن با یک مدل پواسون هستم. سوالات من این است: 1. آیا این مدل خوبی برای پیش بینی تعداد شمارش است؟ 2. چه مدل‌ها/روش‌های دیگری را بهتر است بررسی کنیم؟ 3. وقتی مدل خود را داشتم چگونه می توانم دقت را آزمایش کنم؟ هر گونه کمک، نظر یا مرجع بسیار قدردانی خواهد شد! متشکرم
مدل پیش بینی از داده های شمارش
23293
من یک شی دارم: noise.lm این فقط یک مدل خطی ساده با X و Y است. وقتی resid(noise.lm) را تایپ می‌کنم، باقی‌مانده‌ها را مانند این تولید می‌کند: 1 2 3 4 5 6 -0.40501681 -1.16960373 -0.66636219 - 0.41798296 1.37942381 0.84336242 من می خواهم به مقادیر باقیمانده بدون اعداد مشاهده دسترسی داشته باشم، شاید با ایجاد یک قاب داده مانند این باقیمانده 1 -0.40501681 2 -1.16960373 3 -0.66636219 . . . . . . یا آیا راه ساده‌تری برای ذخیره مقدار باقیمانده در متغیری مانند: residual_variable -0.40501681، -1.16960373، -0.66636219، -0.41798296، 1.37942381، 1.37942381، 0.82433 انجام می‌شود، وجود دارد. نمودار خودهمبستگی (طول(متغیر_بجای_مانده)،متغیر_باقی_شده) یا هنگام تلاش برای بررسی نرمال بودن با یک هیستوگرام... پیشاپیش متشکرم
چگونه می توانم خروجی باقیمانده را در یک متغیر دریافت کنم یا مانند یک قاب داده در R عمل کنم؟
77378
آیا روش‌های پیش‌بینی ناپارامتریک آماری خوبی در کنار روش‌های یادگیری ماشینی مانند شبکه‌های عصبی/درخت‌های تصمیم‌گیری و غیره برای تحلیل سری‌های زمانی وجود دارد؟ اگر چنین است، آیا بسته های R وجود دارد که آنها را پیاده سازی کند؟ با تشکر
آیا روش های پیش بینی ناپارامتریک وجود دارد؟
77376
ما در اجرای مدل های خطی تعمیم یافته با داده های متناسب مشکل داریم. به عنوان مثال، ما داده‌هایی مانند این داریم: گونه‌ها (رژیم غذایی) افراد در جنگل کل افراد نسبت جنگل X حشره‌خوار 300.5 500.7 0.60 Y Frugivore 32.3 47.6 0.67 و می‌خواهیم تعیین کنیم که آیا این صفت بر نسبت افراد در جنگل تأثیر می‌گذارد یا خیر. توجه داشته باشید که اعداد جداگانه پیوسته هستند (اعشار دارند)، زیرا شمارش های اصلی با DISTANCE تنظیم شده اند. بیشتر مدل هایی که در R دیده ایم با داده های شمارش سروکار دارند. به عنوان مثال، M.J. Crawley _Statistics: An Introduction using R_، فصل 10: تجزیه و تحلیل نسبت داده ها (pdf) را ببینید. این مدل‌ها از عبارت «cbind» برای پیوند دادن تعداد موفقیت‌ها و تعداد شکست‌ها استفاده می‌کنند و سپس آن را به پیش‌بینی‌کننده مرتبط می‌کنند: model.1 <- glm (cbind(IndividualsinForest, (TotalIndividuals-IndividualsinForest))~Diet, family= دو جمله ای) با این حال، به نظر می رسد دو مشکل برای استفاده از این رویکرد برای موقعیت ما وجود دارد: 1. ما از «glm» در یک «cbind» که بردارها را با مقادیر پیوسته (نقطه اعشاری) ترکیب می‌کند. مشخص نیست که آیا این مجاز است، اگرچه در R اجرا می شود. ما با ضرب کردن همه چیز در 1000 بازی کرده ایم تا از شر اعشار خلاص شویم، اما دریابیم که نتایج با چنین تکنیکی بسیار تغییر می کند (اگر در 10 ضرب شود نتایج بسیار متفاوت است. ، با 100، در 1000) 2. «cbind» یک رگرسیون وزنی را اجرا می کند، همانطور که کرولی توضیح داد. این به این معنی است که مدل داده‌های گونه X در بالا را با 500.7 کل افراد سنگین‌تر از داده‌های گونه Y با 47.6 نفر وزن می‌کند. اما از نظر مفهومی، ما یک رگرسیون وزنی نمی‌خواهیم، ​​زیرا می‌خواهیم با همه گونه‌ها یکسان رفتار کنیم: داده‌های یک گونه نادر به اندازه داده‌های یک گونه فراوان برای ما مهم است. گونه در اینجا واحد تکثیر است. ما سعی کردیم با استفاده از همان کد، با اضافه کردن ستون‌هایی به داده‌ها، یک رگرسیون غیر وزنی ایجاد کنیم، برای مثال، Species ProportionForest PINForest PTotal X .60 60 100 Y .67 67 100 و سپس اجرا: model.3 <- glm(cbind (PInForest، (PTotal-PInForest))~رژیم غذایی، خانواده = دوجمله ای) اما تجزیه و تحلیل های حاصل بسیار پراکنده هستند، و اجرای آنها با «خانواده = شبه‌بینومیال» نتایج عجیبی می‌دهد (تست‌های کاملاً غیر حساس، با مقادیر p بزرگ برای تفاوت‌های نسبتاً واضح). از این رو استراتژی تحلیلی کنونی ما این است که بر روی آرکسین تغییر نسبت داده و سپس یک مدل خطی کلی را اجرا کنیم. اما ما ترجیح می‌دهیم یک مدل خطی تعمیم‌یافته را اجرا کنیم، زیرا به نظر می‌رسد تبدیل آرکسین بازمانده‌ای از آمارهای قدیمی قبل از رایانه باشد. هر ایده ای؟
مدل های خطی تعمیم یافته با نسبت های پیوسته
114860
من انتخاب متغیر را با استفاده از کمند انجام می دهم. برای توضیح متغیر پاسخم، چندین پیش‌بین، هم مقوله‌ای و هم عددی دارم، اما برای توضیح فرآیندی که زیربنای آن زمانی است که Lasso فقط یک دسته را از یک متغیر با چندین دسته انتخاب می‌کند، مشکل دارم. برای مثال، یکی از پیش‌بینی‌کننده‌های من یک متغیر دسته‌بندی با چهار سطح است و Lasso فقط یکی از آنها را انتخاب می‌کند. بنابراین، Lasso با کل متغیر (چهار دسته) کار می کند، اما برخی ممکن است ورود کنند و برخی نه. چگونه می توانم این را توضیح دهم؟ این چیزی است که با تجزیه و تحلیل کوواریانس مرتبط است؟ امیدوارم سوال من منطقی باشد و از یک پاسخ نه چندان ریاضی قدردانی کنم. با تشکر
انتخاب متغیر: چرا دسته بندی های خاصی انتخاب می شوند اما دسته های دیگر انتخاب نمی شوند؟
92791
من می‌دانم که آزمون بارتلت به این موضوع مربوط می‌شود که آیا نمونه‌های شما از جمعیت‌هایی با واریانس‌های مساوی هستند یا خیر. اگر نمونه‌ها از جمعیت‌هایی با واریانس‌های مساوی باشند، در رد فرضیه صفر آزمون شکست می‌خوریم و بنابراین تحلیل مؤلفه‌های اصلی نامناسب است. من مطمئن نیستم که مشکل این وضعیت (داشتن یک مجموعه داده homoskedastic) کجاست. مشکل داشتن یک مجموعه داده که در آن توزیع اساسی همه داده های شما یکسان است چیست؟ من فقط اگر این شرایط وجود داشته باشد، مشکل بزرگی نمی بینم. چرا این یک PCA را نامناسب می کند؟ به نظر نمی رسد در هیچ کجای آنلاین اطلاعات خوبی پیدا کنم. آیا کسی تجربه ای در تفسیر اینکه چرا این تست به PCA مربوط است را دارد؟
چرا کرویت تشخیص داده شده توسط تست بارتلت به معنای نامناسب بودن PCA است؟
61697
چگونه می‌توان تابع تولید لحظه توزیع چندجمله‌ای، $\underline{X} \sim \mathrm{multinomial}(n, \underline{p})$ را پیدا کرد؟ من می دانم که طبق تعریف ما $$M_X (\underline{\theta}) = \mathbb{E} \exp{(\underline{\theta}^T X)} = \mathbb{E} \exp{\sum_{ داریم i=1}^k \theta_i X_i }$$ اما نمی‌توانم ببینم چگونه می‌توانیم از اینجا برویم؟ من واقعاً نمی‌توانم به این فکر کنم که با مقدار مورد انتظار یک بردار چه کار کنم. من فکر نمی‌کنم که $X_i$ها مستقل باشند، بنابراین نمی‌توانیم مقدار مورد انتظار را فاکتور کنیم. هر توضیحی قدردانی خواهد شد!
تابع مولد لحظه توزیع چندجمله ای
23292
تا آنجایی که من می دانم، LARS مشکل زیر را حل می کند (با استفاده از علامت گذاری مشابه افرون و همکاران. رگرسیون کمترین زاویه): > با توجه به یک بردار y و یک ماتریس X. چند بردار ستونی را از X انتخاب کنید، و > y را به صورت یک بیان کنید. ترکیب خطی این بردارهای ستونی. در مشکل من، من مجموعه ای از بردارها دارم که می توانند یک ماتریس Y را تشکیل دهند. می خواهم هر بردار ستون Y را به صورت ترکیبی خطی از برخی بردارهای ستون از X بیان کنم. امیدوارم کیفیت برازش خوب باشد (L2 ، و تعداد بردارهای ستونی که من از X استفاده می کنم کم است (L1). بنابراین، من نمی‌پرسم که آیا مطالعه سیستماتیک (مقاله‌ای؟) در مورد استفاده از LARS برای برازش مجموعه‌ای از بردارها به جای یک بردار وجود دارد. در زیر راه حل من است. نظرات بسیار قدردانی می شود. فرض کنید Y = (y1 y2 ...) و X = (x1 x2 ...)، که در آن yi، xi بردار هستند. Y را به عنوان یک بردار 1 بعدی با ابعاد بالا در نظر بگیرید (آن را صاف کنید) مانند $Y' = \left(\begin{array}{c} y1\\\ y2\\\ ...\end{array}\right)$ سپس ماتریس پایه جدید X' را به این صورت تعریف می کنیم (قسمت خالی همه صفر هستند) $X' = \left(\begin{array}{cccc} X & & \\\ & X &\\\ & & ...\end{array}\right)$ سپس ما فقط LARS را مستقیماً با استفاده از X' به تناسب Y' اعمال می کنیم. هنگامی که ستون‌ها را از X' انتخاب کردیم، آن‌ها را در مجموعه‌ای از ستون‌ها از X ادغام می‌کنیم، که مجموعه نهایی «بردار پایه» برای تناسب با Y خواهد بود. یکی از چیزهایی که در مورد راه‌حل بالا احساس ناراحتی می‌کنم این است که، آن را در نظر نمی‌گیرد. این واقعیت که مجموعه یکسانی از بردارهای پایه از X برای بیان تمام بردارهای ستون Y استفاده خواهد شد. فقط مرحله آخر نتیجه LARS را ادغام می کند. کمک شما قابل قدردانی است. با تشکر
حداقل رگرسیون زاویه برای مجموعه ای از بردارها؟
24419
من مجموعه‌ای از اسناد دارم و می‌دانم که ممکن است یک موضوع واحد را به اشتراک بگذارند. آیا راهی برای شناسایی این موضوع وجود دارد؟ من می دانم که LDA (تخصیص دیریکله نهفته) یک رویکرد است. اما نتیجه LDA این است که هر سند را با مجموعه ای از موضوعات مرتبط می کند. با این حال، من بیشتر علاقه مند به یافتن یک موضوع مشترک هستم که بتوان از آن برای برچسب گذاری این مجموعه استفاده کرد.
رویکرد برچسب گذاری مجموعه ای از اسناد با استفاده از یک موضوع مشترک
24414
فقط در مورد دو گزینه در کلاس scikits SVM کنجکاو هستم. کسی میدونه مقیاس C و کوچک کردن چیکار میکنه؟ متاسفانه در مستندات زیاد نیست. با تشکر
گزینه های SVM در scikit-learn
114861
من در محاسبه خطر تجمعی در یک بازه زمانی کمی سردرگم هستم. ما می دانیم که $H(t)=\int^{t}_{0}h(u)du$، اگر $\Delta t=t_1-t_0$ (1) $H(\Delta t)=\ داشته باشم int^{\Delta t}_{0}h(u)du$ (2) $H(\Delta t)=\int^{t_1}_{0}h(u)du-\int^{t_0}_{0}h(u)du$. کدام یک صحیح است؟ (1) یا (2)؟ احساس کردم (1) ممکن است درست باشد.
خطر تجمعی یک بازه زمانی را محاسبه کنید
26717
من اطلاعاتی در مورد حضور بیماران در یک سری جلسات مشاوره دارم. در هر جلسه، یک بیمار می تواند A، S یا D باشد. هر بیمار برای 12 جلسه داده دارد و 100 بیمار وجود دارد. من به چگونگی همبستگی خودکار متغیرها علاقه مند هستم. من فقط می‌توانم جدول‌های 3×3 (مثلاً) زمان 1 در مقابل زمان 2، زمان 1 در مقابل 3، زمان 2 در مقابل 3، و غیره درست کنم، اما کنجکاو هستم که آیا چیز پیچیده‌تری وجود دارد. جستجو در این مورد، برخی از معیارها را برای خودهمبستگی مکانی، به عنوان مثال تعداد پیوستن، نشان داد، اما هیچ چیز به طور خاص برای خود همبستگی زمانی وجود ندارد. من همچنین می‌توانم سعی کنم تعداد پیوستن را با داده‌های زمانی تطبیق دهم، اما باز هم کنجکاو هستم که آیا کسی قبلاً این کار را انجام داده است. من به بسته های R و SAS دسترسی دارم
همبستگی خودکار متغیر اسمی
28748
در اینجا یک مشکل احتمال وجود دارد: شما مشاهده می کنید که به طور متوسط ​​هر 5 دقیقه در یک جاده 5/0 اتومبیل از جلوی شما عبور می کنند. احتمال دیدن حداقل 1 ماشین در 10 دقیقه چقدر است؟ من سعی می کنم این را از 2 راه حل کنم. راه اول این است که بگوییم: P (بدون ماشین در 5 دقیقه) = 1 - 0.5 = 0.5. P (بدون ماشین در 5 دقیقه اول و بدون ماشین در 5 دقیقه دوم) = P (بدون ماشین در 5 دقیقه اول) * P (بدون ماشین در 5 دقیقه دوم) توسط استقلال. بنابراین P (حداقل 1 ماشین در 10 دقیقه) = 1 - 0.5*.5 = 0.75. با این حال، اگر من همان را امتحان کنم، با توزیع پواسون با نرخ لامبدا = 0.5 در واحد زمان، برای 2 واحد زمان، دریافت می کنم: P (حداقل 1 ماشین در 2 واحد زمان) = 1 - exp(- 2 * لامبدا) = 0.63. آیا من کار اشتباهی انجام می دهم؟ اگر نه، چه چیزی این اختلاف را توضیح می دهد؟
احتمال حوادث
77374
مفروضات مدل سازی ARIMA / Box-Jenkins برای پیش بینی سری های زمانی چیست؟
مفروضات مدل سازی ARIMA برای پیش بینی سری های زمانی چیست؟
73272
من این مشکل را هنگام استفاده از شیب صعود دارم. من مقداری داده مصنوعی دارم و پس از اولین تکرار، تابع هدف کاهش می یابد و از تکرار دوم همچنان افزایش می یابد. آیا برای تابع محدب امکان پذیر است؟ من همچنین نرخ یادگیری بسیار پایین 0.001 دارم. هر گونه پیشنهاد
مسائل مربوط به محاسبه عملیات نزول گرادیان
113097
از آنچه که من متوجه شدم، آرگومان cp به تابع rpart به همان روشی که آرگومان های minsplit یا minbucket پیش از هرس درخت کمک می کند. چیزی که من نمی فهمم این است که مقادیر CP چگونه محاسبه می شوند. به عنوان مثال df<-data.frame(x=c(1،2،3،3،3،4)، y=as.factor(c(TRUE، TRUE، FALSE، TRUE، FALSE، FALSE))، روش= class) mytree<-rpart(y ~ x، data = df، minbucket = 1، minsplit=1) درخت حاصل... mytree n= 6 گره)، تقسیم، n، از دست دادن، yval، (yprob) * نشان دهنده گره پایانی 1) ریشه 6 3 FALSE (0.5000000 0.5000000) 2) x>=2.5 4 1 FALSE (0.7500000 0.25000000 0.25000000 0.25000000 0.25000000 0.25000000 0.25000000 UE) (0.0000000 1.0000000) * خلاصه... خلاصه (mytree) فراخوانی: rpart(فرمول = y ~ x، داده = df، minbucket = 1، minsplit = 1) n= 6 CP nsplit rel error xerror xstd 1 60.7006 2.0000000 0.0000000 2 0.0100000 1 0.3333333 0.6666667 0.3849002 0.666 و 0.01 از کجا می آیند؟
چگونه مقادیر CP (پیچیدگی هزینه) در RPART (یا درخت های تصمیم به طور کلی) محاسبه می شوند.
112700
من یک داده طولی دارم که شبیه این است. تعداد نقاط زمانی برای هر شناسه متفاوت است. Y متغیر پاسخ باینری است (مقادیر 0 و 1 را بگیرید) و X1-X20 یا ویژگی های پیوسته یا طبقه ای هستند. شناسه نقطه زمانی X1 X2 ...X20 Y 1 09/19/2009 1 09/27/2010 2 02/05/2009 2 02/27/2010 2 03/01/2011 مقادیر گمشده ای برای X1-X20 نشان داده شده توسط NA وجود دارد . من می خواهم از روش Random Forest برای انتخاب ویژگی (X1-X20) استفاده کنم. مطمئن نیستم چگونه برای چنین داده های طولی اقدام کنیم زیرا نمونه ها مستقل نیستند. از هر گونه پیشنهادی استقبال خواهد کرد.
انتخاب ویژگی برای داده های طولی
55020
رکوردهای داده شده برای یک تیم در 2 ترم پاییز و بهار. می خواهیم بررسی کنیم که آیا بین ترم پاییز یا بهار و نتیجه برد یا باخت رابطه وجود دارد یا خیر. آیا می توان از آزمون کای دو استفاده کرد؟ نمونه ای از داده های پاییز، برد بهار، برد باخت، برد باخت، برد باخت، برد برد، برد باخت، باخت باخت، برد باخت، باخت با تشکر فراوان
تست مجذور کای برای بررسی رابطه بین فصل و برد/باخت
91846
من در تلاش برای بیان یک عملیات 2 مرحله‌ای در نماد ماتریسی، خودم را گیج کرده‌ام - داده‌ها شامل 2 تکه اطلاعات است - مقدار اقلام مشابه فروخته شده در فروشگاه‌های مختلف و قیمت آنها در هر فروشگاه. فرض کنید من داده‌ها را در قالب زیر دارم--![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/o2Jgu.png) * * * فرض کنید اطلاعات کمیت و قیمت را در ماتریس‌های جداگانه قرار می‌دهم ( به طوری که ماتریس کمیت یک ماتریس 3 در 3 است که از ستون های 2،3،4 داده های ماتریس فوق تشکیل شده است و ماتریس قیمت یک ماتریس است. ماتریس 3 در 3 شامل داده های ستون های 5،6،7 از ماتریس بالا بود. نقل قول برای مورد B، نقل قول برای مورد C] چگونه می توانم عملیات زیر را در نمادهای ماتریسی بیان کنم، برای مثال، برای ذخیره 1، می خواهم ضرب کنم؟ مقدار مورد A بر اساس قیمت آن (آن را هزینه کلی A می نامید)، مقدار مورد B با قیمت آن (هزینه کلی B) و مقدار مورد C با قیمت آن (هزینه کلی C)، سپس من می خواهم مجموع را محاسبه کنم. از هزینه کلی هر 3 مورد من می خواهم این عملیات را برای همه فروشگاه ها انجام دهم.
سوال در مورد علامت گذاری عملیات ماتریس
66343
من برخی از مقالات و مطالب دیگر را در مورد ارزیابی سیستم های توصیه گر (RS) خوانده ام. اکثر آنها در مورد ویژگی های مختلف RS (مانند دقت، تنوع و غیره) و معیارهای مربوط به وظایف مختلف (مانند RMSE، دقت، فراخوانی و غیره) و برخی از پروتکل ها بحث می کنند. اما من هنوز در مورد پارتیشن بندی داده ها و روش دقیق اعتبار سنجی خیلی واضح نیستم. [شانی، گای، و آسلا گوناوردانا. ارزیابی سیستم های توصیه. کتابچه راهنمای سیستم های توصیه کننده Springer US, 2011. 257-297.] برای مثال، من می خواهم یک الگوریتم CF مبتنی بر کاربر را با بازخورد رتبه بندی ارزیابی کنم. فرمت داده ها رتبه بندی کاربر مورد است. 100 کاربر در مجموعه داده وجود دارد. اکنون می خواهم از روش اعتبارسنجی متقابل 5 برابری استفاده کنم. این راه من است: 1. طبق گفته کاربران، من به طور تصادفی مجموعه داده اصلی را به 5 برابر جدا می کنم. هر فولد شامل 20 کاربر است. 2. برای همه کاربران یک لحظه یکسان تنظیم کردم، به طوری که قبل و بعد از این لحظه زمانی، هر کاربر دارای تعدادی رتبه بندی باشد. داده‌های هر کاربر x قبل از لحظه برای ایجاد نمایه کاربر، داده‌های بعد از آنی برای اعتبارسنجی پیش‌بینی رتبه (کاربر x به عنوان کاربر پیش‌بینی شده) یا فقط پنهان شدن (کاربر x در انتخاب محله) است. 3. برای هر کاربر i در هر 5 تا، یک نمایه کاربری ایجاد می کنم که با بردار رتبه بندی{} برای کاربر i نمایش داده می شود. 4. برای fold-1، برای هر کاربر i در fold-1 شباهت های کاربر بین کاربر i و کاربران در fold-2 ~ fold-5 را محاسبه می کنم و مقدار مناسب k-NN را برای بدست آوردن همسایگی برای هر یک تنظیم می کنم. کاربر. 5. برای هر کاربر i در fold-1، رتبه‌بندی‌های پیش‌بینی‌شده را از کاربران محله‌اش دریافت می‌کنم (موارد استفاده نشده توسط کاربر آزمایش‌شده) با یک معادله میانگین رتبه‌بندی مناسب. 6. محاسبه خطای پیش بینی برای کاربر i. 7. مرحله 2 تا 6 را برای هر بار تکرار کنید (5 برابر همه) و میانگین خطای پیش بینی را دریافت کنید. این یک دور است. 8. از ترکیب پارامترهای مختلف استفاده کنید (مثلاً اندازه همسایگی k-NN)، مرحله 2 تا 7 را چندین بار تکرار کنید تا کمترین خطای پیش‌بینی (به معنی بهترین ترکیب پارامتر) را به دست آورید. 9. با بهترین ترکیب پارامتر، کمترین خطای پیش بینی را دریافت می کنم و این نتیجه ارزیابی نهایی است. من دو سوال دارم: * آیا این روش برای ارزیابی الگوریتم CF مبتنی بر کاربر **صحیح** است؟ * اگر چنین است، داده های خاص در این روش مربوط به **مفاهیم مجموعه آموزشی، مجموعه تست و مجموعه اعتبارسنجی** از آمار چیست؟
روش استاندارد برای ارزیابی الگوریتم CF مبتنی بر کاربر با مجموعه داده آفلاین چیست؟
23295
من قبلاً در معرض R قرار گرفته بودم، اما پس از 10 سال دوری از زبان، متوجه شدم که باید از ابتدا شروع کنم. من یک مجموعه داده بزرگ با بیش از 1 میلیون ردیف و 20 متغیر دارم. می‌دانم که راه‌های سریع‌تر و سریع‌تری برای استخراج آن داده‌ها وجود دارد، اما مشتری من اصرار دارد که از آزمایش فرضیه برای شناسایی بخش‌ها/خوشه‌های مهم استفاده کند. من به دنبال کد R هستم که بتواند یک آزمون t ترتیبی را در هر یک از 20 متغیر در یک زمان انجام دهد. فقط متغیرها و نمونه های قابل توجه را در قالب جدول برمی گرداند. واقعا از کمک قدردانی می کنم.
تست متوالی
32826
برای یک مسابقه اخیر Kaggle، من (به صورت دستی) 10 ویژگی اضافی را برای مجموعه تمرینی خود تعریف کردم، که سپس برای آموزش یک طبقه‌بندی تصادفی جنگل‌ها استفاده می‌شود. من تصمیم گرفتم PCA را روی مجموعه داده با ویژگی های جدید اجرا کنم تا ببینم چگونه آنها با یکدیگر مقایسه می شوند. من دریافتم که 98% از واریانس توسط مؤلفه اول (اولین بردار ویژه) انجام می شود. سپس چندین بار طبقه‌بندی کننده را آموزش دادم، هر بار یک ویژگی را اضافه کردم و از اعتبارسنجی متقاطع و خطای RMS برای مقایسه کیفیت طبقه‌بندی استفاده کردم. من متوجه شدم که طبقه بندی ها با هر ویژگی اضافی بهبود می یابد، و نتیجه نهایی (با هر 10 ویژگی جدید) به مراتب بهتر از اجرای اول با (مثلا) 2 ویژگی بود. * با توجه به اینکه PCA ادعا می کند ~98٪ از واریانس در اولین مؤلفه مجموعه داده من است، چرا کیفیت طبقه بندی ها تا این حد بهبود یافته است؟ * آیا این موضوع برای سایر طبقه بندی کننده ها صادق است؟ RF در چندین هسته مقیاس می شود، بنابراین آموزش آن بسیار سریعتر از (مثلاً) SVM است. * اگر مجموعه داده را به فضای PCA تبدیل کرده بودم و طبقه‌بندی کننده را روی فضای تبدیل شده اجرا می‌کردم چه می‌شد. نتایج من چگونه تغییر می کند؟
PCA و جنگل های تصادفی
55023
رگرسیون stata من در حال حاضر دارای متغیر زن است، اما می‌خواهم آزمایش کنم که آیا جنسیت روی متغیر دیگری اهمیت دارد یا خیر. چگونه می توانم متغیر مرد را ایجاد کنم؟ یا اصلا بهش نیاز دارم؟ آیا حذف متغیر زن نیز کارساز خواهد بود؟
نحوه ایجاد متغیر male در stata
32822
موقعیتی را در نظر بگیرید که در آن ما یک طبقه‌بندی کننده را اجرا می‌کنیم (الگوریتم طبقه‌بندی واقعی در اینجا مهم نیست)، و برچسب‌های کلاس بر اساس یک امتیاز داده می‌شوند. اگر نمره > 0، نقطه داده برچسب A، اگر امتیاز < 0، نقطه داده برچسب B می شود. تمام داده های آموزشی حاوی نقاط داده با نمرات مثبت یا منفی هستند. با این حال، در داده‌های آزمایشی من، چند نقطه وجود دارد که امتیاز = 0 را برمی‌گرداند. * * * [ _اطلاعات اضافی از یک نظر در زیر_] من در یک کار طبقه بندی احساسات با این مشکل مواجه شدم. نمرات نرمال شده در محدوده [-1،1] قرار دارند که 0 امتیاز برای اسناد بدون احساس است. اینطور شد که در داده های آموزشی خود هیچ مدرک خنثی نداشتم، اما در داده های آزمایشی، برخی از مدارک نمره 0 را دریافت کردند.
نحوه محاسبه دقت و یادآوری زمانی که برخی از داده های تست طبقه بندی نشده باقی می مانند
32821
امیدوارم کسی بتواند به من کمک کند که از کدام مدل (شکستگی، لایه یا خوشه) برای داده های خود استفاده کنم. من داده‌های جفت شده‌ای دارم، بنابراین باید هنگام مدل‌سازی Cox PH آن را در نظر بگیرم و مطمئن نیستم کدام مدل نتیجه دقیق‌تری به من می‌دهد. مطالعه من به بررسی مدت زمانی بود که یک فرد پس از قرار گرفتن در معرض یک محرک خاص آرام می شد. هر فرد در روزهای جداگانه تحت دو محرک متفاوت قرار گرفت. آنها به طور تصادفی به آنها تقسیم شدند که کدام محرک اول بود. من این را با تجزیه و تحلیل بقا (زمان تا رویداد) مدل کرده‌ام، اما اکنون باید در نظر بگیرم که داده‌ها جفت شده‌اند. هر کمکی در مورد اینکه چه زمانی از مدل‌های شکنندگی، لایه‌ها یا خوشه‌ای استفاده می‌کنید عالی خواهد بود.
از کدام مدل برای خطرات متناسب کاکس با داده های جفت شده استفاده کنم؟
73279
آیا کسی می تواند نتیجه کمی گیج کننده از یک مدل lmer4 در R را روشن کند؟ من یک اثر تصادفی تو در تو دارم، اما واریانس توضیح داده شده توسط هر سطح یکسان به نظر می رسد، و نمی توانم دلیل آن را ببینم. من مجموعه داده ای از مشاهدات زنبور عسل در آرایه های کنترل شده اسنپدراگون ها، با فرکانس های نسبی متفاوت از دو شکل رنگی دارم. پنج تیمار فرکانس وجود دارد و هر کدام سه بار تکرار می‌شوند، و هر یک از این 15 آزمایش یک کندوی زنبور عسل جداگانه دارد. برای هر آرایه، من روی چندین زنبور مشاهداتی دارم، و می‌خواهم بدانم چند بار بین یک رنگ یا سوئیچ حرکت می‌کنند. من این را به‌عنوان یک مدل ترکیبی باینری در lme4 مدل‌سازی می‌کنم، با استفاده از یک جلوه تصادفی تودرتو برای محاسبه تغییرات ناشی از زنبورهای مختلف، کندوهای مختلف و تکرارهای مختلف: glmer(next_yellow ~ freqY + nflowers + ارتفاع + (1 | bee/ کندو/تکثیر)، داده=ftrans،خانواده=دوجمله ای) بخش ثابت تعیین می کند که آیا فراوانی گیاهان زرد، تعداد گل یا ارتفاع گل پیش بینی می کند که آیا گیاه بعدی که بازدید می شود زرد خواهد بود یا خیر، و همه واضح است. چیزی که من را گیج می کند خروجی اثرات تصادفی است: اثرات تصادفی: نام گروه ها Variance Std.Dev. rep:(hive:bee) (Intercept) 0.24964 0.49964 hive:bee (Intercept) 0.24964 0.49964 bee (Intercept) 0.24964 0.49964 تعداد obs: 1652,2 hive:6;bee کندو:bee, 286; bee, 286 بررسی داده ها نشان می دهد که تنوع زیادی بین زنبورها وجود دارد، و برای تکرار بسیار کم است، اما هنوز همگی آنها 0.24964 تخمین زده می شوند. آیا آماری برای این موضوع وجود دارد؟ یا این احتمال وجود دارد که من چیزی را با کدگذاری متغیرها یا چیز دیگری مخدوش کرده باشم (من به این نگاه کردم و هیچ چیز اشتباهی نمی بینم و همه چیز به عنوان سطوح فاکتور کدگذاری شده است). هر بینش بسیار قدردانی می شود!
چرا واریانس اثرات تصادفی تو در تو یکسان به نظر می رسد؟
109599
اگر می خواهید دو الگوریتم یادگیری را با هم مقایسه کنید، به طور کلی از کدام متریک استفاده کنید: ROC یا دقت؟ من می دانم که در ROC، شما هم حساسیت و هم ویژگی را دریافت می کنید؟
ROC در مقابل دقت
107876
من می خواهم اقتصاد یک بازی آنلاین را مطالعه کنم. به طور خاص می خواهم بررسی کنم که آیا امکان ایجاد یک مدل پیش بینی وجود دارد یا خیر. من سعی می‌کنم کل مفهوم را توصیف کنم و از کاغذ یا مدل‌هایی درخواست می‌کنم که مناسب موقعیت من باشد. من برای مقالات تحقیق کردم اما چیزی پیدا نکردم. کاربران راه های مختلفی برای کسب درآمد دارند. پول رایگان روزانه، فروش، ماموریت و غیره. کاربر می تواند مواردی مانند معجون ایجاد کند و سپس آنها را از طریق یک حراج به کاربران دیگر بفروشد. اقلام دارای قیمت استاندارد نیستند و کاربران با پیشنهاد قیمت آن را تعیین می کنند. همچنین آیتم ها دارای چند خاصیت شفابخشی و غیره هستند. من می خواهم مدلی ایجاد کنم تا پیش بینی کنم که آیا قیمت آیتم ها به دلیل تغییرات دیگر در بازی افزایش یا کاهش می یابد. به عنوان مثال، اگر من پول رایگان روزانه را به کاربران افزایش دهم، پول بیشتری روی اقتصاد می گذارم و می خواهم ببینم قیمت ها به نوعی تغییر می کند یا خیر. یا اگر من ویژگی های کالا را تغییر دهم چگونه این امر بر کل اقتصاد تأثیر می گذارد. من اطلاعات تاریخی واقعی زیادی برای استفاده دارم، اما چیزی مرتبط با این پیدا نکردم.
مدل پیش‌بینی اقتصاد بازی آنلاین
24418
من در یک کلاس روانسنجی در حال بررسی ماتریس چند ویژگی-چند روشی هستم. ما فقط باید بتوانیم آنها را تجزیه و تحلیل کنیم، اما من واقعاً دوست دارم بتوانم آنها را بسازیم. فکر می‌کنم که بتوانم این کار را انجام دهم (در اصل این بازآرایی ماتریس همبستگی با ضریب آلفا برای قطرها است). من کاملا مطمئن هستم که آن را دریافت کردم، اما یک **مجموعه داده** و یک **مثال MTMM تمام شده** می خواهم (چیزی که شبیه فرمت زیر است):![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/ckBrr.png) به این ترتیب من می‌توانم راهم را طی کنم و مطمئن شوم که محصول نهایی من به نظر می‌رسد که باید باشد. من چندین ساعت تلاش کردم تا چیزی پیدا کنم اما ناامید هستم و امیدوارم کسی چنین منبعی داشته باشد. من از R استفاده می کنم بنابراین برایم مهم نیست که مجموعه داده در چه فرمتی است. پیشاپیش از کمک شما متشکرم.
یک ماتریس و مجموعه داده چند صفتی-چند روشی
92798
در ادامه این سوال $p(h|D) = \frac{p(D|h)p(h)}{p(D)}$p(h) = $احتمال قبلی فرضیه $h$$p (D)$ = احتمال قبلی داده های آموزشی $D$ $p(h|D)$ = احتمال $h$ داده شده $D$ $p(D|h)$ = احتمال $D$ با توجه به $h$ I هستم وارد کردن داده های آموزشی $D$ به یک ماشین به شکل جدولی با $n$ نمونه های آموزشی. ماشین فقط نمونه های آموزشی $m$ را در بین $n$ نمونه های آموزشی خواند تا یک فرضیه به عنوان خروجی بدست آورد. من درک زیر را دارم: . $p(h) = $h$ احتمال قبلی فرضیه $h$ = $\frac{\left\vert{Version- space}\right\vert}{\left\vert{Hypothesis-space}\right\vert}$ $ p(D)$ = احتمال قبلی داده های آموزشی $D$ = $\frac{\left\vert{مشاهده- training-data}\right\vert}{\left\vert{Training-data}\right\vert}$ = $\frac{{m}}{{n}}$$p(D|h)$ = احتمال از $D$ داده شده $h$ = $\frac{\left\vert{Training-examples- satisfied-by-hypothesis-h}\right\vert}{\left\vert{Training data}\right\vert}$ = $\frac{\left\vert{Training-examples-satisfied-by- hypothesis-h} \right\vert}{{n}}$ من نمی دانم چگونه $p(h|D)$ را تفسیر کنم = احتمال $h$ داده شده $D$ در بالا فرم ها آیا درک من در مورد فرمول های مربوط به احتمالات صحیح است و فرمول برای $p(h|D)$ چیست؟
فرمول های احتمالات در قضیه بیز
56590
من در حال خواندن کتابچه راهنمای فنی برای یک مطالعه مرتبط بین دو ارزیابی هستم. کاملاً واضح است که جدول خروجی مدل از یک معادله رگرسیون لجستیک برازش است. شانس قبولی در آزمون 2 به عنوان تابعی از نمره در آزمون 1 (نمره RIT): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8lwbx.png) احمقانه به نظر می رسد زمانی که مدلی که آن جدول را ساخته می تواند تخمین بهتری بدهد، از یک جدول جستجو استفاده کنید که به عدد 5 می رسد. اما چگونه می توانم آن معادله را از این خروجی بازسازی کنم؟ من درک خوبی از این دارم که اگر داده‌های خام را داشته باشم چگونه این مدل را جا می‌دهم، اما مطمئن نیستم که در اینجا چه کار کنم. «glm(family=دوجمله‌ای)» نیست، زیرا داده‌هایی که دارم نسبت شانس هستند، نه پاس / بدون عبور (یعنی 1s و 0s)، درست است؟ این داده‌ها است: PASS <- c(0، 0، 0، 0.01، 0.01، 0.01، 0.02، 0.04، 0.06، 0.1، 0.15، 0.23، 0.33، 0.45، 0.57، 0.7، 0.6، 0.57، 0.7، 0.6 0.94، 0.96، 0.98، 0.99، 0.99، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1) RIT <- c(120L، 125L، 130L، 140L 145 لیتر، 150 لیتر، 155 لیتر، 160 لیتر، 165 لیتر، 170 لیتر، 175 لیتر، 180 لیتر، 185 لیتر، 190 لیتر، 195 لیتر، 200 لیتر، 205 لیتر، 210 لیتر، 215 لیتر، 220 لیتر، 225 لیتر، 230 لیتر، 230 لیتر، 230 لیتر، 230 لیتر، 250 لیتر، 255 لیتر، 260 لیتر، 265 لیتر، 270 لیتر، 275 لیتر، 280 لیتر، 285 لیتر، 290 لیتر، 295 لیتر، 300 لیتر)
معادله رگرسیون لجستیک را از جدول داده های شانس دوباره ایجاد کنید
107870
من در جایی چنین جمله ای پیدا کردم، اما از طرف دیگر در برخی منابع یافتم که مشکلی ندارد. در مورد خطر بیش از حد برازش هنگام استفاده از 1-NN در مسئله طبقه بندی باینری که متغیرهای توضیحی مقادیر TF-IDF هستند (اندازه گیری کسینوس) چطور؟
آیا k-NN با k=1 همیشه به برازش بیش از حد دلالت دارد؟
91842
من یک سوال بسیار اساسی در مورد تنظیم پارامتر با استفاده از جستجوی شبکه دارم. به طور معمول برخی از روش های یادگیری ماشین دارای پارامترهایی هستند که باید با استفاده از جستجوی شبکه تنظیم شوند. برای مثال، در فرمول استاندارد زیر SVMها: $$ \min_w\frac{1}{2}\|w\|^2 + C\sum_{i=0}^{N}{\rm{hinge\ loss }}(x_i,y_i,w) $$ باید پارامتر مدل $C$ را تنظیم کنیم. اگر مجموعه های _training_ و _test_ به من داده شود، ابتدا مجموعه _training_ را به validation_train و validation_test تقسیم می کنم. پارامترها را با استفاده از Validation_train و Validation_test تنظیم کنید و سپس با استفاده از بهترین پارامترها، دوباره در مجموعه آموزشی کامل آموزش دهید و در نهایت تست را روی مجموعه تست انجام دهید. بنابراین سوال من این است که کدام یک از موارد زیر به طور متوسط ​​بهتر است؟ 1. آیا بهتر است از مدل نهایی اعتبارسنجی که بر روی `Validation_train` آموزش داده شده است برای تست نهایی استفاده شود، زیرا پارامترها در این مجموعه آموزشی بهینه شده اند؟ 2. یا بهتر است از کل مجموعه آموزشی استفاده کنیم و مدل را با بهترین پارامترها از جستجوی گرید بازآموزی کنیم؟ اگرچه پارامترها برای این مجموعه بهینه نشده بودند، اما ما داده های آموزشی نهایی بیشتری در این مورد داریم.
چگونه تنظیم پارامترها را برای یادگیری ماشین انجام دهیم؟
28743
آخرین فناوری در محاسبه کارآمد هموارسازی اسپلاین ها چیست؟ الگوریتمی که من اغلب از آن یاد می‌کنم الگوریتم Reinsch است که به سال 1967 بازمی‌گردد. همانطور که می‌دانم، گران‌ترین بخش انجام تجزیه Cholesky است. از آن زمان تاکنون چه الگوریتم های دیگری برای هموارسازی اسپلاین ها وجود داشته است؟
پیشرفته ترین در صاف کردن اسپلاین ها
409
در حال حاضر من از انحراف معیار میانگین برای تخمین عدم قطعیت استفاده می‌کنم: ![تعریف = stdev بیش از sq.root از N](http://upload.wikimedia.org/math/8/a/e/8ae657bf495238caf69d82d754e70ed8.png) که در آن _N_ به صدها و میانگین یک میانگین سری زمانی (ماهانه) است. سپس آن را به این شکل ارائه می‌دهم: ![میانگین stdev بعلاوه منهای در مورد میانگین](http://rogercortesi.com/eqn/tempimagedir/eqn1898.png) برای هر عنصر (ماه) در سری زمانی (سالانه). آیا این معتبر است؟ آیا این برای سری های زمانی مناسب است؟
چگونه عدم قطعیت اندازه گیری را تقریبی کنیم؟
92796
اخیراً چند کتاب آمار را دوباره خواندم و به نکته عجیبی اشاره کردم: همه آنها مفروضات رگرسیون خطی را مورد بحث قرار می دهند و نیاز به یک متغیر وابسته توزیع شده نرمال را ذکر می کنند. در مرحله بعد، همیشه در مورد متغیرهایی که غیرعادی هستند و درمان بالقوه هستند مانند sqrt، log، معکوس و غیره بحث می شود. اما کتاب ها هرگز در مورد چگونگی تفسیر متغیر تبدیل شده بحث نمی کنند - که به نظر من عجیب است. از آنجایی که یک تابع sqrt تفسیر را از تولید ناخالص داخلی یک ایالت با افزایش 1 شاخص آزادی اجتماعی 1 افزایش می دهد به جعبه تولید ناخالص داخلی یک ایالت تغییر می دهد. هنگامی که شاخص آزادی اجتماعی 1 افزایش می یابد، 1 افزایش می یابد، که کاملاً تفاوت است. آیا کسی می تواند توضیح خوبی در این مورد به من بدهد؟
تبدیل متغیر وابسته: چگونه آن را تفسیر کنیم؟
20386
در مدل‌های خطی، در کتاب من، شاخص شرط به صورت $\sqrt{\lambda_{max} \over \lambda_{min}}$ تعریف می‌شود که $\lambda_{max}$ حداکثر مقدار ویژه $ZZ^*$ است. ، یعنی ماتریس همبستگی متغیرهای مستقل و $\lambda_{min}$ حداقل مقدار ویژه است. من نتوانستم بفهمم چرا شاخص وضعیت به من کمک می کند تا چند خطی بودن را پیدا کنم. بنابراین، من به توضیح خودم رسیدم: > در تحلیل مؤلفه های اصلی، مقادیر ویژه واریانس داده ها > در هر یک از بردارهای ویژه را توضیح می دهند. بنابراین، داشتن نسبت زیادی از حداکثر مقدار ویژه به > حداقل مقدار ویژه به این معنی است که داده ها را می توان با تعداد کمتری از بردارهای ویژه نسبت به تعداد متغیرهای مستقل توضیح داد، که به این معنی است که بین متغیرهای مستقل همخطی > وجود دارد. با توجه به این موارد، در اینجا سؤالات من وجود دارد. 1. آیا توضیح خودم درست است؟ 2. چه توضیحی بهتر است؟ (لطفا درک کنید که من دانش جبر خطی قوی ندارم. پس لطفا با کلمات خیلی ساده توضیح دهید.)
درک شاخص شرایط مورد استفاده برای یافتن چند خطی
32794
در اینجا «قطع» به معنای کاهش دقت اعداد تصادفی و کوتاه نکردن سری اعداد تصادفی است. به عنوان مثال، اگر من $n$ اعداد واقعا تصادفی داشته باشم (از هر توزیعی، به عنوان مثال، نرمال، یکنواخت و غیره) با دقت دلخواه داشته باشم و همه اعداد را کوتاه کنم تا در نهایت به مجموعه ای از اعداد $n$ برسید. ، هر کدام دقیقاً 2 رقم بعد از اعشار دارند. آیا می توانم این مجموعه اعداد جدید را تصادفی بنامم؟ وقتی داشتم در مورد **اعداد تصادفی تولید شده از سخت افزار** می خواندم با این سوال مواجه شدم. مقاله ویکی‌پدیا می‌گوید _آنها اعداد تصادفی را با اندازه‌گیری یک فرآیند فیزیکی تولید می‌کنند._ اما از آنجایی که این اندازه‌گیری محدودیت‌هایی دارد (خطای اندازه‌گیری، دقت محدود، و غیره)، آیا می‌توانیم این اعداد تولید شده از سخت‌افزار را تصادفی بنامیم؟
آیا اعداد کوتاه شده از یک مولد اعداد تصادفی هنوز تصادفی هستند؟
74794
همچنین، آیا هیچ آموزش/وبلاگ در دسترس است که از آن آگاه هستید؟
چگونه با استفاده از پایتون اعتبار متقابل سری های زمانی را انجام می دهید؟
24412
این یک سوال اطلاعاتی کمی طولانی است. ما در حال جمع‌آوری داده‌ها از یک آزمایش کیفیت آب برای اندازه‌گیری آلودگی مدفوع هستیم. این آزمایش فلورسانس را در 11 محفظه مجزا اندازه گیری می کند. به دلیل فلورسانس بیشتر محفظه ها، آب آلوده تر است و روشی غیر خطی برای تعیین کمیت آلودگی آب بر اساس تعداد محفظه وجود دارد. یعنی یک محفظه مربوط به سطح آلودگی 2، پنج محفظه 46، ده محفظه 210 و هر یازده محفظه برابر است.. سطح ناشناخته بزرگتر از 210 است. مورد من می توانم سطوح آلودگی را ترسیم کنم، اما چگونه باید بیشتر از 210 را تجسم یا تجزیه و تحلیل کنم؟ آیا اصطلاحی برای این وجود دارد؟ با تشکر
تجزیه و تحلیل داده های طبقه بندی شده در جایی که آخرین دسته نامحدود است
73276
یک متغیر تصادفی X را در نظر بگیرید که می‌خواهیم مقدار آن را با استفاده از تخمین‌گر MMSE بیزی تخمین بزنیم. اجازه دهید $O_1(X)$ مجموعه‌ای از مشاهدات باشد که به نحوی پیچیده به $X$ بستگی دارد (گرفته شده توسط $P(O_1|X)$) سپس تخمین‌گر MMSE میانگین شرطی $\hat{X}_1= است. \mathbb{E}[X|O_1]$. اکنون مجموعه دیگری از مشاهدات را در نظر بگیرید که احتمالاً تبدیل پیچیده ای از اولین $O_2(O_1)$ و برآوردگر MMSE مربوطه $\hat{X}_2=\mathbb{E}[X|O_2]$ است. اکنون واضح است که اگر نگاشت $O_2(O_1)$ قطعی باشد، آنگاه $MSE[\hat{X}_1]\le MSE[\hat{X}_2]$ از حداقل MSE $\hat{ X}_1$. سوال من این است که آیا این درست است همچنین زمانی که نگاشت $O_2(O_1)$ احتمالی است، که توسط توزیع شرطی $P(O_2|O_1)$ تعریف می شود. به طور شهودی، باید مانند هر تصادفی دیگر در نقشه‌برداری باشد، فقط به نظر می‌رسد که نویز اضافی ایجاد می‌کند زیرا به X$$ بستگی ندارد. اما من نمی دانم که آیا کسی می تواند این را به صراحت نشان دهد. ویرایش شده: از آنجایی که برآوردگر MMSE بی‌طرفانه است، $MSE[\hat{X}_i]=V[\hat{X}_i]$
برآوردگرهای بیزی MMSE از تبدیل مشاهدات
23875
من باید همبستگی بین دو مجموعه داده را پیدا کنم که غیرخطی هستند و فقط مقادیری بین 0 و 10 دارند. هر دو مجموعه دارای تعداد یکسانی از مقادیر هستند. من سعی کردم از R پیرسون استفاده کنم و با اضافه کردن n+10 به هر نقطه داده، مقداری خطی بودن را معرفی کنم. با این حال، این همبستگی قوی را در جایی که واقعاً نباید وجود داشته باشد، معرفی می کند. من با آمار کاملاً تازه کار هستم، بنابراین در اینجا توضیحی غیرعادی از آنچه در تلاشم برای رسیدن به آن هستم، ارائه شده است. من یک پرسشنامه دارم که از مشتریان نمره کلی بین 0-10 می خواهد. سپس چندین سؤال خاص دیگر برای مواردی مانند قیمت، خدمات و غیره می‌پرسم. این سؤالات نیز 0-10 هستند. من می خواهم میزان همبستگی بین نمره کلی و نمرات سوالات خاص را پیدا کنم. به عنوان مثال، اگر مشتریانی که به قیمت امتیاز بالایی می دهند، نمره کلی بالایی نیز می دهند، می توانم ببینم که قیمت برای مشتری مهم است. در حالی که اگر امتیاز آنها برای خدمات با نمره کلی مطابقت نداشته باشد، کیفیت خدمات برای مشتری اهمیت چندانی ندارد. یک همبستگی کامل در داده های من به این صورت خواهد بود: قیمت: 10، 10، 10، 10 نمره کلی: 10، 10، 10، 10 آیا کسی می تواند ضریب مناسبی برای رسیدن به این هدف پیشنهاد دهد؟ به سلامتی
ضریب همبستگی برای استفاده با مجموعه های محدود غیرخطی
35444
مجموعه داده های من کوچک است، تقریباً 12 در هر گروه (دو گروه). علاوه بر این، توزیع داده ها عادی نیست. در نتیجه، من یک آزمون Mann-Whitney U را اجرا کردم. با این حال، من یک ANOVA یک طرفه را نیز اجرا کردم و دقیقاً همان نتایج را گرفتم. کدام آزمایش را باید گزارش کنم و اشکالی ندارد که بگوییم هر دو را با نتایج مساوی اجرا کردم اما فقط ANOVA را گزارش دادم؟
کدام آزمایش را باید گزارش دهم، ANOVA یا Mann-Whitney؟
77372
من به دنبال راه‌های خوبی برای تخمین وضعیت واقعی سیستم از روی مجموعه‌ای از مشاهدات هستم که چندین مقدار صحیح را می‌گیرند. به عنوان مثال من دنباله ای از مشاهدات X_i از متغیر مجهول Y را دارم. هم مشاهدات و هم مقدار واقعی Y متعلق به مجموعه {1،2،3،4،5} هستند. آیا تکنیک خاصی برای این موقعیت ها فراتر از میانگین متحرک وجود دارد؟ به عنوان مثال آیا فیلتر کالمن برای این تنظیمات تنظیم شده یا چیز بهتری وجود دارد؟
فیلتر کردن داده های گسسته
107871
من می خواهم آزمایش کنم که آیا بیماری آلزایمر باعث تغییر در پیری مغز در مقایسه با بیماران سالم می شود یا خیر. بنابراین من یک مدل رگرسیون خطی از پارامترهای طیفی ضبط مغز (ویژگی ها یا متغیرهای وابسته) در مقابل سن (سن متغیر مستقل است) ساخته ام. اکنون می‌خواهم مدل را بر روی بیماران سالم برازش دهم و سپس از ضرایب برای محاسبه سن مورد انتظار بیماران آلزایمر استفاده کنم - مقایسه میانگین مربعات خطای مجموعه داده سالم و مجموعه داده‌های آلزایمر باید به نشان دادن وجود یا عدم وجود تفاوت کمک کند. به پیری ناشی از بیماری (یعنی اگر مدلی که برای بیماران سالم به خوبی کار می کند برای بیماران آلزایمری به طرز بدی شکست بخورد، احتمالاً تفاوت وجود دارد) من حدس می زنم که مدل رگرسیون خطی را بر روی 80٪ بیماران سالم (مجموعه آموزشی) منطبق کنم، 20٪ را عقب نگه دارم ( به عنوان یک مجموعه آزمایشی) برای محاسبه MSE با. من از اعتبارسنجی متقاطع استفاده می‌کنم، اما در نهایت به تعداد مجموعه‌های مختلف ضرایب به اندازه چین‌هایی که دارم، می‌رسم و چگونه می‌توانم بدانم که بیماران آلزایمری را با کدام یک مناسب کنم؟ میانگین ضرایب شاید؟ با این حال، یک مزیت اعتبار سنجی متقاطع این است که من میانگین و انحراف استاندارد تخمین های MSE را از مجموعه بیماران سالم دارم، بنابراین می توانم از آن برای تعیین اهمیت انحراف بین MSE سالم و بیمار استفاده کنم، که مفید است. حدس می‌زنم می‌توانم چندین بار از زیرمجموعه‌های بیماران آلزایمر نمونه‌برداری کنم و مجموعه‌ای از تخمین‌های MSE را ایجاد کنم که سپس می‌توانم انحراف معیار و میانگین آن را محاسبه کنم تا تصوری از واریانس در آنجا نیز به دست بیاورم، بنابراین می‌توانم درباره حساسیت آن اطلاعاتی داشته باشم. به آن مجموعه داده خاص است. (آیا باید این کار را با جایگزینی یعنی بوت استرپ انجام دهم؟ چرا یا چرا که نه؟) هر توصیه ای بسیار قدردانی می شود.
چگونه می توان آزمایش کرد که آیا تفاوت معنی داری در میانگین مربعات خطا بین دو مجموعه داده وجود دارد؟
32825
من مطالعه ای را انجام دادم که در آن یک متغیر واحد به طور مکرر برای هر شرکت کننده، تحت شرایط مختلف اندازه گیری شد. تجزیه و تحلیل این داده ها با SPSS، با استفاده از مدل خطی عمومی -> ANOVA اندازه گیری های مکرر، و مشخص کردن هر معیار در فاکتورهای درون موضوعی، نسبتاً ساده بوده است. مشکل من زمانی پیش می‌آید که سعی می‌کنم برخی از داده‌های پس از آزمایش را که جمع‌آوری کرده‌ام، مانند آزمونی که همه شرکت‌کنندگان پس از آزمایش به پایان رساندند، با نمرات انتگرال بین 0-24 وارد کنم. من می‌خواهم این را لحاظ کنم تا ببینم این نمرات چگونه با معیارهای درون موضوعی مرتبط هستند و افزودن این داده‌ها به عنوان یک عامل بین موضوعی منطقی است، اما به دلیل ماهیت متغیر نمره آزمون، من تا 25 دسته دارم که باعث می‌شود کار با داده غیرممکن است به نظر می رسد که این موضوع باید یک مسئله رایج باشد، و گوگلینگ من کمی به من کمک کرده است، اما بیشتر نمونه هایی که دیده ام از متغیرهای طبقه بندی شده مانند جنسیت برای عوامل بین موضوعی استفاده می کنند. اگر فاکتور بین موضوعی طبقه بندی نشده باشد، چه کار کنم؟ برای هر بینش، نظر و راهنمایی شما بسیار سپاسگزار خواهم بود. با تشکر
چگونه باید داده ها را با متغیرهای اندازه گیری مکرر و فاکتورهای عدد صحیح بین موضوع تجزیه و تحلیل کنم؟
91847
فرض کنید من یک مدل رگرسیون لجستیک مانند این دارم: set.seed(123) df<-data.frame(y=rbinom(100,1,0.5), x1=rnorm(100,10,2), x2=rbinom( 100،20،0.6)) fit<-glm(y~x1*x2,data=df,family=binomial) coef(summary(fit)) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 5.08314564 6.43692399 0.7896855 0.4297115 x1 -0.66691041 0.64071095 -1.04089712 -1.0408912 0.0408971206 0.64071095 -1.04089771206. 0.51254819 -0.5528974 0.5803337 x1:x2 0.04037126 0.05100223 0.7915588 0.4286180 آیا کسی می‌داند چگونه ماتریس پیش‌بینی را با فرمت این x2:1:1 x2 x2 دریافت کند 10.506637 10 105.06637 2 1 9.942906 17 169.02941 3 1 9.914259 10 99.14259 4 1 12.737205 11 12941.
چگونه می توان ماتریس پیش بینی را با توجه به فرمول یک مدل رگرسیون در R بازیابی کرد؟
107874
من در حوزه هدف گذاری تبلیغات موبایلی تحلیل داده انجام می دهم. من تقریباً **18 ویژگی** دارم و برای ترکیبی از این ویژگی ها، بسته به اینکه روی قالب کلیک شده باشد یا خیر، نتیجه درست یا نادرست است **(1/0)**. مشکل اینجاست که **کلاس خروجی بسیار کج است**. نرخ کلیک در حدود **0.4%** است. (یعنی مقدار 1 فقط 4 از 1000 بار است). من یک مجموعه داده **2 میلیون ردیف** دارم و از 90٪ به عنوان مجموعه قطار و 10٪ به عنوان مجموعه آزمایشی استفاده می کنم. من از **رگرسیون لجستیک** از بسته **sckit-learn** در **python** استفاده کرده ام. اکنون پس از آموزش مدل خود، تمام مقادیر برای مجموعه تست را به عنوان 0 دریافت می کنم. لطفاً به من بگویید مشکل از چه چیزی می تواند باشد و برای حل آن چه باید بکنم؟ P.S. : من سعی کرده ام اندازه مجموعه داده های خود را افزایش داده و همچنین تعداد ویژگی ها را کاهش دهم (حتی به یک ویژگی). اگر احتمال هر کلاس (0/1) را در مجموعه تست ببینم، حدود 0.002 - 0.005 برای 1 دریافت می کنم. با تشکر
چگونه می توان با یک کلاس کج در طبقه بندی باینری که دارای ویژگی های زیادی است برخورد کرد؟
23874
این پست ادامه پست قبلی من است (که به 'lme' علاقه مند بود) و از همان مجموعه داده استفاده می کند. اکنون می خواهم بدانم چگونه با استفاده از `lme4` آن را تجزیه و تحلیل کنم. ## داده ها داده ها از یک آزمایش رفتاری است که در آن شرکت کنندگان در 6 گروه (بر اساس دو عامل متقاطع) روی 16 کارآزمایی (دو عامل 4 سطحی متقاطع) کار کردند. یعنی یک مجموعه داده «d» با دو عامل بین موضوعی، «گروه» و «شرط»، و دو عامل درون موضوعی (یعنی عوامل اندازه گیری مکرر)، «موضوع» و «مشکل» (من آپلود کردم) داریم. داده ها را در pastebin قرار دهید، بنابراین همه باید بتوانند آن را به دست آورند)، شناسه شرکت کننده 'code' است، dv 'mean' است: > d <- read.table(url(http://pastebin.com/raw.php?i=4hRFyaRj), colClasses = c(rep(factor, 6), numeric)) > str(d) 'data .frame': 2928 obs. از 6 متغیر: کد $ : فاکتور w/ 183 سطح A03U، A08C،...: 1 1 1 1 1 1 1 1 1 1 1 ... $ group : فاکتور w/ 2 سطح کنترل، تجربی: 2 2 2 2 2 2 2 2 2 2 ... $ شرط: عامل w/ 3 سطح جایگزین،...: 3 3 3 3 3 3 3 3 3 3 ... $ موضوع : فاکتور w/ 4 سطح 1،2،3،4: 1 1 1 1 2 2 2 2 3 3 ... $ مشکل : فاکتور w/ 4 سطح AC، DA،MP،..: 3 4 1 2 3 4 1 2 3 4 ... میانگین $ : num 94.5 94.5 86.5 84.5 80 46.5 73.5 43.5 51 39 ... روش معمول برای تجزیه و تحلیل این داده ها برازش ANOVA بر روی این داده ها است (توجه داشته باشید که چگونه عبارت خطا برای عوامل درون موضوعی ساخته می شود): m1 < - aov(mean ~ (شرایط*گروه*مشکل*موضوع) + خطا(کد/(مسئله*موضوع))، د) ## سوال علاقه اصلی من به داده ها موارد زیر است: * آیا تأثیر عامل گروه در هر سطحی (یعنی تأثیر اصلی یا تعامل) وجود دارد؟ امیدوارم وجود نداشته باشد. * آیا تعامل شرط با مشکل وجود دارد؟ یا حتی تعامل شرط با مسئله و موضوع؟ من دو سوال در مورد تجزیه و تحلیل در `lme4` دارم: 1. چگونه می توانم این سوالات را با استفاده از `lme4` مشخص کنم؟ 2. از آنجایی که «lme4» مقادیر p را ارائه نمی دهد، چگونه تعیین کنم که آیا یک متغیر (مثلاً گروه) تأثیری دارد یا خیر (تصور می کنم از نوعی آزمون نسبت درستنمایی استفاده می کنم) و مقدار بحرانی که باید بالاتر از آن باشد چقدر است. اثر را به عنوان مهم بپذیرید؟ همانطور که احتمالاً از توضیحات بالا مشخص است، من نه متخصص در lme4 هستم و نه آماردان، بنابراین هم Venables & Ripley و هم کتاب lme4 توسط Bates کار سختی برای من ایجاد کردند. من را مثل قبل بی خبر رها کرد.
چگونه با استفاده از lme4 این مجموعه داده را با 2 فاکتور بین، دو فاکتور درونی تجزیه و تحلیل کنیم؟
32795
مربع کای مدل من می گوید که مدل «پر» من به طور قابل توجهی بهتر از مدل تهی نیست. اما -2LL من 80 است (آیا این _کم_زیبا نیست؟) و Nagelkerke $R^2$ من 0.20 است. از طرف دیگر، یک IV قابل توجه در مدل من وجود ندارد... پس چگونه باید -2LL پایین تر و 0.20 Nagelkerke $R^2$ نه چندان کوچک را تفسیر کنم؟
چگونه می توان مقدار نسبتاً خوب -2LL و Nagelkerke $R ^2$ را بدون هیچ IV قابل توجهی تفسیر کرد
71282
من سعی می کنم تراکم هسته را برای تعداد روزهایی که یک کودک بیمار است تخمین بزنم. حدود 73 درصد از کودکان گزارش می دهند که بیمار نیستند، یعنی صفر. چگونه می توانم چگالی هسته را برای این متغیر سانسور شده با استفاده از Stata تخمین بزنم؟
تخمین چگالی هسته برای یک متغیر با تعداد زیادی صفر
67967
من یک ماتریس $x=N\times M$ از نقاط داده $N$ دارم که هر کدام دارای ویژگی‌های $M$ هستند. همچنین $y$ بردار برچسب های باینری است. در مورد من، $N$ بسیار کوچکتر از $M$ است، بنابراین قبل از اجرای یک طبقه‌بندی کننده مانند SVM از PCA برای کاهش ابعاد استفاده کردم. من 100 مؤلفه اول را انتخاب کردم که 85 درصد واریانس را توضیح داد. SVM با آن 100 ویژگی به من تبعیض ضعیفی از AUC ~ 0.6 داد. اخیراً به روش دیگری برای کاهش ابعاد فکر کردم، که در مورد اعتبار آن مطمئن نیستم: هر ویژگی یک بردار از مقادیر $N$ است که می‌توان آن‌ها را با توجه به برچسب‌ها به 2 بردار مختلف جدا کرد. بنابراین برای هر ویژگی، می‌توانم محاسبه کنم که چقدر می‌تواند دو کلاس را به تنهایی با استفاده از AUC یا حتی فقط p-value یک آزمون t (با توجه به اینکه هیستوگرام‌ها عادی هستند) متمایز کند. مشکل این روش، وابستگی بردارهای ویژگی است. آیا کسی می داند چگونه می توانم بهترین بردارهای ویژگی $k$ را انتخاب کنم که با هم کلاس ها را به بهترین شکل متمایز می کنند؟
تمایز و کاهش ابعاد
20385
من در حال حاضر در جستجوی الگوریتمی هستم که با توجه به تاریخچه قیمت ها (30، 50، 100، ...) تعیین کند که آیا زمان خرید چیزی (یک کالا، یک سهام، یک سرویس و غیره) فرا رسیده است یا خیر. ایده من چیزی شبیه به این است: > با توجه به تاریخچه قیمت ها، شما باید همین الان خرید کنید زیرا احتمال دارد قیمت > افزایش یابد. یا، > با توجه به تاریخچه قیمت ها، احتمالاً قیمت حتی کمتر هم می شود، بنابراین > باید منتظر خرید باشید. من برای یافتن این مورد در گوگل جستجو کردم، اما فکر می کنم ممکن است کلمات کلیدی مناسبی را وارد نکرده باشم، زیرا نتوانستم چیزی پیدا کنم. این یا این وجود ندارد زیرا قابل اعتماد نیست. آمار نقطه قوت اصلی من نیست، اما الگوریتم ها هستند. اگر دانشی از یک مطالعه ریاضی در این زمینه دارید، من هم آن را قبول خواهم کرد.
الگوریتمی برای ارزیابی اینکه آیا باید اکنون بخرید یا صبر کنید
35442
من سعی می کنم راهی برای انجام رگرسیون لجستیک تودرتو در R پیدا کنم که متناسب با نیازهای من باشد. من یک مجموعه داده بسیار بزرگ با تقریبا 200 متغیر در دسترس دارم. من بهترین مدل خود را پیدا کرده ام و شامل 12 مورد از این متغیرها است. من از مشکلات استفاده از 12 متغیر در رگرسیون لجستیک آگاه هستم و نمی خواهم آنها را در اینجا پوشش دهم. من از این مدل برای پیش بینی احتمال ترک تحصیل دانش آموز از دبیرستان استفاده می کنم. مجموعه داده‌ای که من استفاده می‌کنم شامل دانش‌آموزانی است که احتمال آنها را پیش‌بینی می‌کنم، داده‌های گمشده‌ای دارد. مثلاً بگویید مدل من این است: ترک تحصیل ~ نرخ حضور + ثبت نام + سن اختلاف + نژاد + غیبت ها حالا بگویید برای دانش آموز خاصی مشخص نیست که چند غیبت داشته است. من از تابع پیش بینی برای یافتن احتمالات خروج از مدل خود استفاده می کنم. اگر یکی از متغیرها گم شده باشد یا NA باشد، هیچ احتمال پیش بینی شده ای وجود ندارد زیرا NA است. برای رفع این مشکل می خواهم از رگرسیون لجستیک تودرتو استفاده کنم. بنابراین برای دانش‌آموزی با مقدار گمشده در «غیبت»، مدل Dropout ~ AttendanceRate + Enrollments + AgeDiff + Race است، من در حال حاضر از تابع glm برای انجام رگرسیون لجستیک خود استفاده می‌کنم. من درک می کنم که نمی تواند رگرسیون لجستیک تودرتو انجام دهد. بنابراین چگونه می توانم رگرسیون لجستیک تودرتو را از مدل کامل خود انجام دهم تا بتوانم احتمال ترک تحصیل دانش آموزان را بدون توجه به متغیر یا متغیرهایی که ممکن است گم شده باشد، پیش بینی کنم. من متوجه هستم که استفاده از مدل‌های تودرتو به قدرت مدل من برای اهداف پیش‌بینی آسیب می‌زند، اما حاضرم آن را فدای اهدافم کنم. هر گونه پیشنهاد؟
رگرسیون لجستیک تو در تو در R
61526
تست متوالی برای سری های زمانی رایج است. به یک نوع تست SupF یا یک آزمون چو برای شکست ساختاری در پارامترها در شبکه ای از نقاط داده فکر کنید. بنابراین، ما آمارهای زیادی (به تعداد نقاط داده و مدول چند نقطه از ابتدا و پایان) و مقادیر P مربوط به آنها داریم. FDR برای مورد مستقل خوب است، آنچه که من توضیح دادم آمار تست بسیار همبسته را نشان می دهد، بنابراین FDR بسیار محدود کننده است. یعنی رد شدن نشانه واضحی برای وقفه است، اما عدم رد شدن.. ممکن است به این دلیل باشد که ما نقاط داده زیادی داریم (بنابراین FDR_pv کوچک است)، من می توانم روی شبکه درشت تر جستجو کنم تا تعداد تست ها را کاهش دهم، بنابراین حداکثر بیش از یک شبکه = {1،2،3،...،T} ممکن است رد نشود، اما حداکثر بیش از یک شبکه = {1،3،5،...، T} ممکن است رد شود، که باعث نمی شود خیلی زیاد حس آیا کسی آشنایی دارد و ممکن است بتواند برخی از ارجاعات را برای پسوند FDR به دامنه سری زمانی ارائه دهد؟
پسوند FDR به دامنه سری زمانی؟
56596
من یک مجموعه داده از مقادیر x و y دارم که می‌خواهم یک تناسب خطی روی آن ایجاد کنم. با استفاده از «polyfit(x,y,1)» ضرایب «a» و «b» را برای برازش خطی «ax = b» برای این داده به دست می‌آورم، اما همچنین می‌خواهم عدم قطعیت یا انحراف استاندارد را برای این ضرایب پیدا کنم. . کسی راه آسانی برای انجام این کار می شناسد؟ Google-fu من فقط این نتیجه را به من داد و از آنجایی که به عنوان آخرین پاسخ در آن تاپیک اصلاحی بر پاسخ اول است، نمی دانم که آیا باید به هر یک از پاسخ ها اعتماد کنم یا خیر. پاسخ آن تاپیک این است: [z,s]=polyfit(x,y,1); ste = sqrt(diag(inv(s.R)*inv(s.R')).*s.normr.^2./s.df);
یافتن عدم قطعیت در ضرایب از polyfit در Matlab
61529
من مطمئن نیستم که کدام تحلیل برای تحلیل مسیر یا SEM (مدل سازی معادلات ساختاری) مناسب تر است. من به روابط بین تعدادی از متغیرها نگاه می کنم که توسط مقیاس ها اندازه گیری شده اند (یعنی خرده مقیاس های برون گرایی و روان رنجوری BFI، خرده مقیاس خودپسندی SLSC-R، و غیره) فکر می کنم دو انتخاب دارم: 1. رفتار یک SEM با استفاده از هر سوال/موضوع به عنوان شاخص عاملی که زیرمقیاس نشان دهنده آن است. ترازوهایی که من استفاده می کنم از 4 ماده تا 10 مورد متفاوت است. خطای اندازه گیری کنترل می شود اما تناسب مدل ممکن است به دلیل پیچیدگی بیشتر دشوارتر باشد. 2. یک تحلیل مسیر را با استفاده از نمرات ترکیبی خرده مقیاس ها به عنوان متغیرهای مشاهده شده انجام دهید و تنها یک تحلیل مسیر انجام دهید. فرض عدم خطای اندازه گیری با تشکر از راهنمایی شما.
SEM یا تحلیل مسیر: متغیرهای پنهان با آیتم های جداگانه به عنوان شاخص، یا امتیازات ترکیبی به عنوان متغیرهای مشاهده شده؟
56042
توزیع $\bar{X}^{-1}$ با X یک متغیر تصادفی پیوسته iid است که به طور یکنواخت توزیع شده است؟ آیا می توانم از CLT در اینجا استفاده کنم؟
توزیع $\bar{X}^{-1}$ چگونه است؟
61521
من می‌خواهم بر اساس یک اندازه‌گیری انسان‌شناختی، نقطه برش جنسیت را پیدا کنم. من می‌توانم منحنی‌ها را ترسیم کنم و می‌دانم که در صورتی که حساسیت و ویژگی هر دو به یک اندازه مهم هستند، باید نزدیک‌ترین نقطه به گوشه سمت چپ بالای کادر (یا اگر منحنی منفی است، نزدیک‌ترین نقطه به گوشه پایین سمت راست) تعیین شود. به عنوان برش. با این حال، من نمی دانم که آیا تابعی از قبل در R یا برنامه های دیگری برای تعیین این موضوع وجود دارد یا خیر؟ فقط می دانم که SPSS چنین عملکردی ندارد. آیا برنامه یا R را می شناسید که بتواند آن را از طریق یک تابع از قبل پیاده سازی شده انجام دهد؟
نقطه برش در منحنی ROC. آیا یک تابع ساده وجود دارد؟
56593
همانطور که از عنوان پیداست، چگونه باید K را در K-Nearest Neighbours تنظیم کنید؟ آیا این فقط یک مورد است که مقادیر کمتر K بیشتر مستعد برازش شدن هستند و مقادیر بزرگتر K احتمالاً انعکاس دقیق تری ارائه می دهند (کمتر مستعد نویز هستند). همچنین مقدار بهینه K تا حد زیادی به مجموعه آموزشی بستگی دارد، اما من نمی‌دانستم که آیا یک تکنیک کلی وجود دارد که استفاده می‌شود؟
به طور کلی چگونه K را در K-NN تنظیم می کنید؟
23879
فرض کنید من یک کد ساده مانند آنچه در زیر آمده است دارم. مرتب سازی proc; توسط var1 var2; اجرا؛ proc gplot; نمودار y*x ; توسط var1 var2; اجرا؛ در خروجی، یک دسته نمودار وجود دارد. علاوه بر تمام ترکیب‌های مقادیر var1 و var2، نمودارهایی را نیز دریافت می‌کنم که در آن «var1=.» در ترکیب با هر مقدار var2 (و غیره) وجود دارد. آیا «var1=.» به این معنی است که طرح شامل تمام مقادیر var1 است؟ یا داده هایی که در آن var1 به نوعی خالی است؟ یا چیز دیگری؟ آیا راهی وجود دارد که بتوانم اینها را چاپ نکنم (یعنی اگر دقیقاً به تعداد ترکیب‌های var1 و var2 نمودار بخواهم؟) این فقط برای دو متغیر مهم نیست، اما در هنگام استفاده از متغیرهای بیشتر، نمودارهای اضافی زیادی ایجاد می کند. با تشکر
SAS: هنگام استفاده از دستور by، var1 = . میانگین در خروجی؟
27140
من یک بازی رولت را شبیه سازی می کنم (در R)، که در آن قماربازی را شبیه سازی می کنم که با 100 پوند شروع می شود، طبق استراتژی 10 بار چرخ را می چرخاند (مثلاً 5 پوند برای هر چرخش روی قرمز شرط می بندم). در پایان این شبیه سازی موجودی بانک یا بیشتر یا کمتر از 100 پوند خواهد بود. اگر بالاتر باشد، چرخش یک برد و در غیر این صورت یک باخت در نظر گرفته می شود. با اجرای 100 بار بالا، می توانم نسبت دفعاتی را که یک برد اتفاق افتاده است محاسبه کنم و آن را به صورت عددی بین 0 و 1 ارائه کنم. سوال من این است که چگونه می توانم انحراف معیار را برای این عدد اعمال کنم؟ آیا برای انجام این کار باید موارد فوق (شبیه سازی شبیه سازی ها) را چندین بار شبیه سازی کنم؟ چون کمی طول میکشه...
محاسبه انحراف معیار خروجی یک آزمایش عددی