_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
95777 | من در درک تحلیل میانجی که اخیراً انجام دادم مشکل دارم. من از ماکرو Sobel Preacher & Hayes (2004) برای SPSS استفاده کردم. نتایج به این صورت است: ضریب تأثیرات مستقیم و کلی s.e. t Sig(دو) b(YX) ,1626 ,0526 3,0908 ,0035 b(MX) ,2954 ,0897 3,2948 ,0020 b(YM.X) ,2116 ,0959 2,2064,Y م)، 1263 ,0538 2,3462,0236 TOTAL EFECT, b(YX), استاندارد شده بر اساس معیار اثر مستقیم, b(YX.M) Coeff b(YX) ,2310 اثر غیرمستقیم و اهمیت آمریکا ارزش s.e. LL95CI UL95CI Z Sig(two) Effect ,0625 ,0352 -,0064 ,1315 1,7776,0755 بنابراین آنچه من می فهمم این است که همه مسیرها مهم هستند - که فکر می کردم به این معنی است که میانجی وجود دارد. اما من همچنین می بینم که Z-test و تجزیه و تحلیل بوت استرپ به من می گوید که اثر قابل توجهی نیست. من واقعاً درک نمی کنم که چگونه همه مسیرها می توانند مهم شوند اما هنوز هیچ اثر غیر مستقیمی وجود ندارد؟ آیا درست است که فرض کنیم اگر حجم نمونه بزرگتر باشد، ممکن است اثری وجود داشته باشد؟ آیا توضیح دیگری وجود دارد؟ | اهمیت میانجیگری |
83646 | > یک فروشنده کازینو مشکوک است که مرگ او یک مرگ منصفانه نیست. او فکر می کند که دای شانس بیشتری به اعداد زوج می دهد (احتمال یک عدد زوج > بزرگتر از $0.5 است). او برای آزمایش مظنونان خود تصمیم به انجام یک آزمایش > می گیرد، او نتیجه ی رول های قالب مستقل 60 دلاری را یادداشت می کند. فروشنده میگوید که اگر تعداد اعداد زوج در آن رولهای 60 دلاری بیشتر از 35 دلار باشد، قالب ناعادلانه است. از من خواسته می شود: 1. فرض فروشنده را رسمی کنم. 2. منطقه رد ($C$) چیست؟ 3. احتمال هر دو اشتباه ($\alpha$ و $\beta$) چقدر است؟ من با گفتن X$ شروع کردم، تعداد نتایج زوج یک مکعب منصفانه $X\sim B(\frac{1}{2}, 60)$، و بنابراین $X \sim N (30، 15)$ $H_0: \mu = 30$ $H_1: \mu > 30$ بنابراین این فرض فروشنده است. ناحیه رد باید از این واقعیت حاصل شود که فروشنده اگر و تنها در صورتی که اعداد زوج در آزمایش کمتر یا برابر با 35 دلار باشد، H_0$ را رد خواهد کرد. من برای پیدا کردن $C$ و محاسبه $\alpha$ و $\beta$ مشکل دارم. | یافتن ناحیه رد یک مورد معین |
72636 | فرض کنید که $X$، $Y$ و $Z$ $\text{i.i.d.} \sim \text{Uniform}(0,1)$ هستند. اجازه دهید $t > 0$ یک ثابت ثابت باشد. (i) محاسبه $P(X/Y \leq t)$ (ii) محاسبه $ P(XY \leq t)$ (iii) محاسبه $ P(XY/Z \leq t)$ من راه حل (i) را پیدا کردم ) بخشی که مقادیر مختلف $t$ را تضعیف می کند. $ P(X/Y \leq t) = \int_0^1\int_0^{yt}dx dy = t/2 $ ; زمانی که $t\leq 1$ من به سختی محدودیت های دریاچه را برای مقادیر مختلف $t$ پیدا می کنم، یعنی وقتی $t\leq 1 $ و $t>1$ | محاسبه احتمال |
66346 | من یک مدل مارکوف مخلوط (شامل خوشههای K یا مؤلفهها) دارم که سعی میکنم آن را آموزش دهم، به عنوان مثال، خوشهبندی را روی مجموعهای از توالیهای طول متفاوت انجام دهم. هر جزء از مدل یک زنجیره مارکوف مرتبه اول است. مدل با موارد زیر تعریف می شود:  که در آن  مدلی است که رفتار دنبالهها را در خوشه k-ام توصیف میکند. هر جزء kth مدل (خوشه) دارای بردار توزیع احتمال اولیه (theta_KI) و یک ماتریس انتقال (theta_tK) است - به معادله 2 مراجعه کنید. برای هر دنباله در مجموعه متفاوت است). n حالت قابل مشاهده در مدل و m دنباله در هر خوشه وجود دارد، و مقدار کل دنباله ها M است. در این مورد، چگونه می توانم مراحل e- و m را برای الگوریتم EM خود تعریف کنم؟ درک من این است که باید تابع log likelihood مدل را به حداکثر برسانم، که مجموع احتمالات در تمام بردارها v_i (مترادف با دنباله seq_i) خواهد بود - چیزی شبیه به:  با این حال، من نمی دانم که آیا این تعریف درستی برای آنچه که باید حداکثر شود و کدام آرگومان ها نیاز به برای آن پیدا شود من به دنبال ادبیات بوده ام، اما بسیار کم است، تقریباً وجود ندارد. یک سوال دیگر: آیا واقعاً یک کتابخانه R وجود دارد که دارای توابعی باشد که بتوان چنین مدلی را برای الگوریتم EM بسط داد؟ | اجرای خوشهبندی EM برای مدل مارکوف مخلوط |
114863 | طبق آنچه من دیده ام، فرمول هموارسازی Kneser-Ny (مرتبه دوم) به نوعی به صورت $ \begin{align} P^2_{KN}(w_n|w_{n-1}) و= \ frac{\max \left\\{ C\left(w_{n-1}, w_n\right) - D, 0\right\\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{تراز} $ با ضریب عادیسازی $\lambda (w_{n-1})$ به صورت $ \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} داده شده است C\left(w_{n-1}, w'\right)} \times N_{1+}\left(w_{n-1}\bullet\right) \end{align} $ و احتمال ادامه $P_ {cont}(w_n)$ از یک کلمه $w_n$ $ \begin{align} P_{cont}(w_n) &= \frac{N_{1+}\left(\bullet w_{n}\right)}{\sum_{w'} N_{1+}\left(\bullet w'\right)} \end{align} $ که در آن $N_{1+}\left(\bullet w\right)$ تعداد زمینههایی است که $w$ در آن دیده میشود یا سادهتر، تعداد کلمات متمایز $\bullet$ قبل از کلمه داده شده است. $w$. از آنچه من فهمیدم، فرمول را می توان به صورت بازگشتی اعمال کرد. اکنون این لغات شناخته شده در زمینه های ناشناخته را به خوبی برای طول های مختلف n-گرم مدیریت می کند، اما چیزی که توضیح نمی دهد این است که وقتی کلمات خارج از فرهنگ لغت وجود دارد چه باید کرد. من سعی کردم از این مثال پیروی کنم که بیان میکند در مرحله بازگشت برای تکگرمها، $P_{cont}(/) = P^0_{KN}(/) = \frac{1}{V}$. سپس سند از این - به نقل از چن و گودمن - برای توجیه فرمول بالا به صورت $P^1_{KN}(w) = P_{cont}(w)$ استفاده میکند. من نمی توانم ببینم در حضور یک کلمه ناشناخته $w = \text{unknown}$ چگونه کار می کند. در این موارد $P_{cont}(\text{unknown}) = \frac{0}{\text{something}}$ زیرا بدیهی است که کلمه ناشناخته چیزی را در مورد مجموعه آموزشی ادامه نمیدهد. به همین ترتیب، تعداد n-گرم $C\left(w_{n-1}، \text{unknown}\right) = 0$ خواهد بود. بعلاوه، اگر دنبالهای از کلمات ناشناخته - مثلاً یک سهگرم از کلمات OOD - مواجه شود، کل عبارت $\sum_{w'} C\left(w_{n-1}, w'\right)$ ممکن است صفر باشد. چه چیزی را از دست داده ام؟ | در هموارسازی کنسر-نی، کلمات غیبی چگونه مدیریت می شوند؟ |
50254 | نمیدانم این انجمن درستی برای این کار است یا نه، اما اینجا میگویم: من سعی میکنم یک مدل مارکوف پنهان را پیادهسازی کنم تا بتوانم بهترین دنباله/مسیر را برای یک فایل آموزشی پیشبینی و پیدا کنم. تا کنون، من ضرایب (MFCC) یک سیگنال را دارم و به دنبال آموزش آن هستم تا بتوانم (دو مجموعه داده) را با استفاده از الگوریتم Viterbi برای یافتن بهترین مسیر مقایسه کنم. اما من ابهاماتی دارم: 1. اگر $\Pi$ را تخمین بزنم، آیا می توانم از الگوریتم رو به جلو برای یافتن احتمالات در یک حالت معین استفاده کنم؟ 2. آیا می توانم به جای استفاده از الگوریتم رو به جلو، از الگوریتم ویتربی برای یافتن احتمال استفاده کنم؟ 3. اگر بخواهم دو چیز محتمل (دو نتیجه) و N = 2 را شناسایی کنم M چه خواهد بود؟ من فرض می کنم که N = حالت ها و M = مشاهدات؟ اما، بردار من حاوی: N = 13، M = 450 است، بنابراین این مقادیر را نمی توان برای N->M برای HMM استفاده کرد. 4. بنابراین آیا من داده های آموزشی را به الگوریتم های رو به عقب که احتمال را برای هر حالت پیش بینی می کند ارسال می کنم، سپس این یک خروجی نهایی را به من می دهد ... که سپس می توانم آن را با رمزگشای Viterbi مقایسه کنم؟ | مدل مارکوف پنهان با ضرایب MFCC |
79629 | من در حال توسعه یک HMM (یا DBN) برای تشخیص هوشیاری از مشاهدات سری زمانی بسته شدن چشم هستم. هوشیاری به عنوان یک متغیر باینری (هوشیار یا غیر هوشیار) تعریف می شود. در حالی که من چارچوب کلی و مفروضات HMM ها را درک می کنم، در مورد مفهوم مشاهدات یا انتشارات کمی سردرگم هستم. به طور خاص چه چیزی می تواند به عنوان یک مشاهده استفاده شود؟ سردرگمی من از این واقعیت ناشی می شود که هر مشاهده فردی اطلاعات بسیار کمی در مورد هوشیاری ارائه می دهد. با توجه به این موضوع، من میخواهم انواع ویژگیهای زیر را در نظر بگیرم: 1. میانگین یا SD بسته شدن چشم در یک پنجره کوتاه مدت 2. اجزای طیفی (از یک DFT) در یک پنجره زمانی کوتاه 3. خروجی یک استاتیک الگوریتم ML (به عنوان مثال درخت تصمیم) آموزش دیده برای پیش بینی هوشیاری بر اساس مشاهدات بسته شدن چشم، من نمی دانم که آیا هر یک از این نوع ویژگی ها هستند قابل قبول و چگونه استفاده از این ویژگی ها تخمین پارامترهای HMM را تغییر می دهد؟ من به ویژه از اشاره به هر گونه ادبیات مرتبط قدردانی می کنم. متشکرم | محدودیت در نوع مشاهدات HMM |
68915 | من سعی می کنم از خوشه بندی k-means برای پروفایل رفتار استفاده از دستگاه تلفن همراه برای کاربران فناوری اطلاعات استفاده کنم. دادههای من شامل متغیرها/خوانشهای سطح کاربر و سیستم مختلف مانند تعداد تماسها/اس ام اس، استفاده از پردازنده/حافظه، تعداد کاربران و برنامهها/سرویسهای سیستم و غیره است. قرائتها هر 5 دقیقه انجام میشود. ایده ای که من دارم این است که از داده های 1 ماهه برای آموزش استفاده کنم، یعنی خوشه بندی، و سپس از داده های آینده برای مقایسه با خوشه های موجود و تلاش برای یافتن (ناهمسانی) بین این دو استفاده کنم. فرض بر این است که کاربران مختلف کاربرد متفاوتی خواهند داشت. از این رو خوانشهای USER B در خوشههای USER A قرار نمیگیرد. اکنون دو سؤال دارم: 1. پس از آموزش (خوشهبندی)، چگونه دادههای جدید را با خوشههای موجود مقایسه کنم تا (ناهمسانی) را تعیین کنم، یعنی دادههای جدید متعلق به یکسان هستند. کاربر یا نه؟ من به یافتن نزدیکترین خوشه فکر می کنم و سپس بررسی می کنم که آیا نقطه در محدوده این خوشه قرار دارد یا خیر. 2. من از نمودار Silhouettes برای تعیین کیفیت خوشه بندی استفاده می کنم. من مقداری منفی دریافت میکنم، مثلاً ببینید. آیا باید نگران باشم؟ یا داشتن مقادیر منفی طبیعی است؟ | K-به معنی خوشه بندی برای پروفایل استفاده است |
50256 | چگونه می توانم یک تخمین هیستوگرام از این توزیع حاشیه ای را رسم کنم: p(x1): وارد کردن numpy به عنوان np import matplotlib.pyplot به عنوان plt از scipy.stats norm import linalg = np.linalg N = 100 mean = [1,1] cov = [ [0.3، 0.2]، [0.2، 0.2]] داده = np.random.multivariate_normal(mean, cov, N) L = linalg.cholesky(cov) # print(L.shape) # (2, 2) unconrelated = np.random.standard_normal((2,N)) data2 = np .dot(L، نامرتبط) + np.array(mean).reshape(2،1) # print(data2.shape) # (2, 100) plt.figure() plt.scatter(data2[0,:], data2[1,:], c='green') plt.scatter(data[:,0 ]، داده[:،1]، c='yellow') plt.show() # رسم هیستوگرام ها و برازش توزیع های نرمال plt.subplot(211) plt.hist(data[:,0], bins=20, normed=1, alpha=0.5, color='green') plt.hist(data2[0,:], bins=20, normed=1, alpha= 0.5، color='زرد') x = np.arange(-1، 3، 0.001) plt.plot(x، norm.pdf(x، *norm.fit(data[:,0]))، color='green') plt.plot(x, norm.pdf(x, *norm.fit(data2[0,:])), color='زرد ') plt.title('Var 1') plt.subplot(212) plt.hist(data[:,1], bins=20, normed=1, alpha=0.5, color='green') plt.hist(data2[1,:], bins=20, normed=1, alpha=0.5, color='yellow') x = np.arange(-1, 3, 0.001) plt. plot(x, norm.pdf(x, *norm.fit(data[:,1])), color='green') plt.plot(x, norm.pdf(x، *norm.fit(data2[1,:]))، color='yellow') plt.title('Var 2') plt.tight_layout() همراه با یک راه حل تحلیلی با توجه به میانگین و کوواریانس پارامترها: N = 100 نمونه دو بعدی x = (x1,x2)T ∈ R2 از یک 2 بعدی گرفته شده است توزیع گاوسی، با میانگین μ = (1,1)T و ماتریس کوواریانس Σ = (0.3 0.2 0.2 0.2) به من گفته شده است که می توانم از این روش از تشخیص الگوی Bishops و یادگیری ماشین استفاده کنم (برگرفته از صفحه 88): p(xa ) = p(xa, xb) dxb آیا می توانید عبارت تحلیلی توزیع حاشیه ای p(x1) را برای من بنویسید؟ من از پایتون استفاده میکنم | ترسیم تخمین هیستوگرام همراه با حل تحلیلی پارامترهای میانگین و کوواریانس |
64779 | من یک طبقهبندیکننده دارم و برای ارزیابی عملکرد آن از اعتبارسنجی متقاطع استفاده میکنم. در هر تکرار، مجموعه داده را به مجموعه های آموزشی و آزمایشی تقسیم می کنم. مجموعه تست فقط موضوعی است که قرار است آن را ارزیابی کنم (یکی را کنار بگذارید). اکنون، مجموعه آموزشی را **تقسیم میکنم** و انتخاب ویژگی را به این صورت انجام میدهم: الگوریتم انتخاب ویژگی **فیلتر** خود را روی هر فولد اجرا میکنم. وقتی کارم تمام شد، یک الگوریتم رای گیری برای به دست آوردن مجموعه نهایی با ویژگی هایی که در هر فولد انتخاب شده بود دارم. من درک می کنم که این روش زمانی کافی است که شما یک نمونه کوچک مانند مورد من دارید (موضوع = 30، ویژگی ها = 960). **سوال من این است که چرا، اگر اصلاً، آیا انجام انتخاب ویژگی در کل مجموعه آموزشی به جای تقسیم آن به تارها، ایده بدی است؟** | انتخاب ویژگی در مجموعه آموزشی |
66342 | در یک مدل کاکس، مدل خطر متناسب را می توان به عنوان مثال: stset end، شکست (x==1) enter(start) مبدا (شروع) مقیاس (365.25) stcox a b c d estat phtest stphtest، detail /*test برای خطرات متناسب آزمایش کرد. */ stphplot، توسط (a) * ترسیم خطرات مختلف بر اساس زمان stphplot، توسط (b) stphplot، by(c) stphplot، by(d) stphplot، by(e) سوال من این است که آیا تست مشابهی وجود دارد، به جز stphplot که میتوانم برای Weibull یا رگرسیون نمایی در Stata انجام دهم تا بررسی کنم که آیا متناسب است یا خیر. فرض خطر وجود دارد؟ من اینگونه شروع کردم: stset پایان، شکست(x==1) enter(start) مبدا(شروع) مقیاس(365.25) streg a b c d e، dist(weibull) stphplot، توسط (a) * ترسیم خطرات مختلف بر اساس زمان stphplot، توسط( ب) stphplot، by(c) stphplot، by(d) stphplot، by(e) از کمک شما متشکرم! لیندا | آزمون خطر متناسب وایبول و پواسون - داده های بقای آمار |
109532 | من مجموعه داده ای از 300 مشاهده دارم که 200 مشاهده طبیعی است و بقیه بیماری را دارند. من نمرات ارزیابی شناختی این 300 شرکتکننده را دارم، و ارزیابی به بخشهای مختلفی تقسیم میشود: هذیان، افسردگی، اضطراب، و غیره. و اینکه آیا امتیاز بخش خاصی می تواند پیش بینی خوبی برای ابتلای شرکت کننده به این بیماری باشد یا خیر. من از رگرسیون لجستیک اطلاع دارم و با آن می توانم یک درخت طبقه بندی و یک منحنی ROC بسازم. آیا تکنیک های دیگری وجود دارد که بتوانم در اینجا استفاده کنم؟ من پذیرای رویکردهای مختلف هستم (تکنیکهایی برای پیشبینی، یا هر روش دیگری برای نگاه معنادار به دادهها). | چند تکنیک داده کاوی برای تجزیه و تحلیل علت بیماری چیست؟ |
95779 | سوال من در مورد تعداد مورد نیاز شبیه سازی برای روش تحلیل مونت کارلو است. تا آنجا که من می بینم تعداد مورد نیاز شبیه سازی برای هر درصد خطای مجاز $E$ (به عنوان مثال، 5) $$ n = \left\\{\frac{100 \cdot z_c \cdot \text{std}(x) است. }{E \cdot \text{mean}(x)} \right\\}^2 , $$ که $\text{std}(x)$ استاندارد است انحراف نمونهگیری حاصل، و z_c$ ضریب سطح اطمینان است (به عنوان مثال، برای 95٪ 1.96 است). بنابراین به این ترتیب می توان بررسی کرد که میانگین و انحراف استاندارد حاصل از شبیه سازی $n$ نشان دهنده میانگین واقعی و انحراف استاندارد با سطح اطمینان 95٪ است. در مورد من شبیه سازی را 7500 بار اجرا می کنم و میانگین متحرک و انحراف استاندارد را برای هر مجموعه 100 نمونه از 7500 شبیه سازی محاسبه می کنم. تعداد مورد نیاز شبیه سازی که من به دست می آورم همیشه کمتر از 100 است، اما درصد خطای میانگین و std در مقایسه با میانگین و std کل نتایج همیشه کمتر از 5٪ نیست. در بیشتر موارد درصد خطای میانگین کمتر از 5 درصد است اما خطای std تا 30 درصد میرسد. بهترین راه برای تعیین تعداد شبیه سازی مورد نیاز بدون دانستن میانگین واقعی و std چیست (در مورد من نتیجه شبیه سازی به طور معمول توزیع می شود)؟ پیشاپیش از هرگونه کمکی متشکرم * * * به منظور داشتن ایده ای در مورد نحوه توزیع نتایج شبیه سازی زمانی که تکرار بی نهایت بار اجرا می شود: به جای استفاده از میانگین و واریانس حاصل پس از تعداد n شبیه سازی، تصمیم گرفتم تابع مناسبی از توزیع حاصل شد، اما در اینجا n باید % خطای مجاز را پر کند. فکر میکنم از این طریق میتوانم نتایج صحیحتری در مورد تابع توزیع تجمعی پیدا کنم که با مثلاً مرتبط است. 97.5 درصد زیرا وقتی نتایج شبیهسازی 400 و 7000 را مقایسه میکنم، توابع برازش توزیع برای هر دو نمونهبرداری به نظر میرسد که تنها منحنی دومی هموارتر است. همچنین، از این رو، مدل در MATLAB/Simulink غیرخطی است، اگرچه پارامترهای ورودی تولید شده توزیع نرمال هستند، هیستوگرام حاصل از شبیهسازیها نرمال نیست، به همین دلیل من از «توزیع مقدار شدید تعمیمیافته» استفاده کردم که در MATLAB به عنوان 'gev' نامگذاری شده است. اما هنوز در مورد این روش کاملاً مطمئن نیستم، از قبل برای هر دستوری متشکرم | تعداد شبیه سازی مورد نیاز برای تحلیل مونت کارلو |
72635 | وقتی دو نمونه به هم مرتبط یا وابسته هستند، اما مشاهدات مطابقت ندارند، آیا آزمایشی وجود دارد که تعیین کند که آیا نمونه ها (میانگین یا غیر آن) متفاوت هستند؟ من به طور گسترده جستجو کرده ام و فقط آزمایش هایی را برای نمونه های همسان پیدا کرده ام، که چیزی نیست که نیاز دارم. | تفاوت بین (میان) نمونه های مرتبط، اما مطابقت ندارند را آزمایش کنید |
111301 | من روی پروژهای کار میکنم که به ویژگیهای تمایز 6 و 5 درجهای لیکرت در یک مقیاس نگاه میکند. من از بسته ltm در R استفاده می کنم تا این را در یک پارادایم نظریه پاسخ آیتم (irt) با استفاده از یک مدل پاسخ درجه بندی شده (grm) بررسی کنم. برای هر مورد، یک مقدار تبعیض به من داده می شود که با شیب ICC در هر سطح با توجه به سطح توانایی مطابقت دارد. برای شش مورد من، مقادیر (تقریبا): 2.1، 1.8، 1.3، 0.8، 2.7، 2.3. چگونه اینها را تفسیر کنم؟ آیا محدودیتی برای ویژگی های تبعیض آمیز خوب وجود دارد؟ آیا مقادیری مرتبط با سطوح تبعیض «ضعیف»، «متوسط» یا «قوی» وجود دارد؟ با تشکر از کمک شما! | تفسیر مقادیر تبعیض در مدلهای چندتومی IRT (grm). آیا برش یا لنگر وجود دارد؟ |
72631 | من یک سوال نظری در مورد یادگیری ماشین از نظر خوشه بندی می پرسم. آیا ممکن است با توجه به مجموعه ای از داده های کلاس هایی که دانش آموزان در یک ترم گذرانده اند، کلاس های اضافی را توصیه کنیم که دانش آموزان در صورت انتخاب کلاس ها باید در آنها شرکت کنند؟ من در امتداد خط تشکیل خوشههای کلاسها فکر میکنم و متوجه میشوم که آیا مجموعه خاصی از کلاسهای انتخاب شده با مجموعهای از کلاسهای از قبل موجود مطابقت دارد یا خیر. سپس کلاسی را که در مجموعه هستند توصیه کنید. اما من در یادگیری ماشینی تازه کار هستم و از هر گونه پیشنهاد الگوریتم دیگری استقبال می کنم. بعلاوه، این به ویژه نظری نیست، بنابراین با خیال راحت نادیده بگیرید: اما آیا کسی نرم افزار خاصی را می شناسد که بتواند این کار را انجام دهد؟ من می دانم که LensKit یک نرم افزار برای رسیدگی به توصیه ها است، اما به نظر می رسد به رتبه بندی نیاز دارد (که من ندارم). من از هرگونه دستکاری ریاضی که می تواند خوشه ها را به رتبه بندی تبدیل کند، استقبال می کنم. با تشکر | الگوریتمها/رویکردهای یادگیری ماشین برای توصیههای کلاس؟ |
79625 | من تازه وارد بیزی هستم و هنوز در تلاش برای کشف جزئیات این فرآیند هستم. در جایی خواندم که یکی از مزایای تخمین بیزی این است که به صرفه جویی در درجات آزادی کمک می کند و زمانی که تعداد نقاط داده کمتر و تعداد پارامترهای بیشتری وجود دارد می توان از آن استفاده کرد. آیا کسی می تواند به این موضوع بپردازد؟ من میدانم که ربطی به MC MC دارد، اما در مورد اینکه چگونه کمک میکند خیلی واضح نیست. | بیزی در مقابل OLS درجات آزادی آیا برای تخمین بیزی باید در مورد d.o.f زحمت بکشیم؟ |
66347 | برای خواندن نتایج تحلیل رگرسیون برای پایان نامه کارشناسی ارشدم که باید هفته آینده تحویل بدهم، به کمک شما فوری نیاز دارم. DV من لگاریتم طبیعی مخارج تحقیق و توسعه است، IV یک متغیر ساختگی است با برچسب **نزول**، که در آن 1 = شرکت در حال کاهش است و 0 = شرکت در حال کاهش نیست. ناظر مالکیت مدیریتی است که بر حسب درصد (0-100٪ یا 0-1.0)، با برچسب **MOWN** اندازه گیری می شود. پایان نامه من دو هدف دارد: 1) یافتن رابطه بین IV (کاهش) و DV (هزینه های تحقیق و توسعه، گزارش) 2) یافتن اثر تعدیل کننده MOWN بر رابطه بین IV-DV من کاهش، MOWN، و کاهش X MOWN را به طور همزمان پسرفت کردم. و ضرایب زیر را بدست آورد. $log(RD) = 6.984 - 0.852 Decline - 4.703Mown + 3.030MownDecline$ ضریب Decline **-0.852***** است، به این معنی که _شرکت ها 85% کمتر در مخارج تحقیق و توسعه سرمایه گذاری می کنند زمانی که Decline=1_ (درست است) ?) ضریب برای MOWN: **-4.703* _**ضریب MOWN x Decline: **3.030_** Contant: 6.984*** چگونه نتایج تعامل را تفسیر کنم؟ هنگامی که یک شرکت در حال افول است (نزول = 1)، _شرکت ها 303 درصد بیشتر در مخارج تحقیق و توسعه با یک درصد افزایش در MOWN سرمایه گذاری خواهند کرد. ثانیا، آیا می توانم متغیر MOWN را نیز به عنوان IV اضافی در نظر بگیرم؟ گفتن اینکه MOWN، مجری، تاثیر مستقیمی در DV هم دارد؟ گفتن اینکه _افزایش یک درصدی در MOWN DV را 470% کاهش می دهد_ از کمک شما بسیار متشکرم. من واقعا آن را قدردانی می کنم! | تفسیر تعامل بین ساختگی IV و تعدیل کننده پیوسته با log DV |
114865 | من در حال تجزیه و تحلیل دادههایی هستم که در مورد آنها ظن قوی دارم که مشابه خود هستند (پارامتر هرست بسته به روش تخمین و توالی نمونه از 0.60 تا 0.78 متغیر است). من همچنین مقادیر بالای تحقق را بسیار بیشتر مشاهده میکنم (در مقایسه با آزمایشهایی که هیچ شباهتی به خود مشکوک نیست) که نشان میدهد توزیع مولد میتواند دم بلند (سنگین) داشته باشد. به نظر می رسد که در این مورد نمی توان از نظریه ارزش افراطی برای استدلال در مورد رفتار دم استفاده کرد. در صورت تشابه خود، وابستگی برد بلند آشکارا i.i.d را نقض می کند. نیاز است، اما آیا ناتوانی در استفاده از EVT در مورد من به طور گستردهتری برای همه توزیعهای دم بلند اعمال میشود؟ | تئوری ارزش افراطی و توزیعهای دنباله دار سنگین (طولانی). |
79622 | از اینکه برای خواندن این وقت گذاشتید متشکریم. من با یادگیری ماشینی تازه کار هستم و به همین دلیل در رقابت Kaggle شرکت می کنم تا به من کمک کند پیشرفت کنم، اما یک سوال دارم. چگونه می توانم طبقه بندی های مختلف را مقایسه کنم؟ پایتون من آنقدرها که میخواهم مرتب نیست، اما فکر میکنم درست است. لطفاً اگر کار عجیبی انجام می دهم به من اطلاع دهید قطار = pca(train) cfr = KNeighborsClassifier(n_neighbors=neighbours, algorithm=kd_tree) cv = cross_validation.KFold(len(train), n_folds=10, indices=True) نتایج = [] i = 0 count = 0 برای traincv، testcv در cv: ClassPred = cfr.fit(train[traincv], target[traincv]).predict(train[testcv]) برای j در محدوده(0,(len(train)/10)): labelindex = testcv[j] if (ClassPred [j] == هدف[شاخص برچسب]: i = i+1 دقت = (i/2000.0)*100 i=0 results.append(accuracy) count = count + 1 print accuracy for fold, count, : , accuracy,% print time after fold, count, : , elspasedfold,% سپری شده = ( time.clock() - start) #print out میانگین نتایج تایید شده متقاطع چاپ نتایج برای RBF، c = 10.0، گاما = 0.1 \n + str(np.array(results).mean()) چاپ زمان صرف شده %ds است % سپری شده است. همانطور که می بینید، من اعتبارسنجی متقاطع 10 برابری را روی داده های آموزشی انجام می دهم و امیدوارم مقدار دقت را از طرف دیگر تولید کنم. سوال من در اینجا این است که چگونه می توانم طبقه بندی های مختلف را با هم مقایسه کنم؟ اگر cfr را بهعنوان یک طبقهبندیکننده متفاوت (مثلاً Random Forest) انتخاب کنم و مقداری برای آن بدست بیاورم، چگونه از نظر آماری این دو را مقایسه کنم؟ افکار اولیه من این است که به جای استفاده از یک مقداری که در حال حاضر خروجی می دهد، از یک آزمون t دو طرفه بر روی مقادیر برای هر فولد (بنابراین 10 مقدار در هر طبقه بندی کننده) استفاده کنم، که فکر می کنم میانگینی از تمام چین های ترکیبی است. سپس باید یک مقدار p دریافت کنم تا ببینم آیا تفاوت ها قابل توجه هستند یا خیر. من مطمئن نیستم که چگونه می توانم این را اجرا کنم یا اینکه آیا این کار درستی است. آمار من کمی تکه تکه است (که در حال کار بر روی آن هستم) اما هر کمکی که هر کسی می تواند به من بدهد بسیار قدردانی خواهد شد. بنابراین برای روشن شدن، با استفاده از پایتون و کیت علمی بهترین راه برای مقایسه عملکرد طبقهبندیکنندههای مختلف در دادههای من چیست؟ با تشکر ویرایش: معیار ارزیابی آموزشی این است که باید از اعتبارسنجی متقاطع 10 برابری استفاده شود. | مقایسه طبقهبندیکنندههای مختلف (با استفاده از مقادیر اعتبارسنجی متقاطع کیت اسکی) |
111305 | می توان نشان داد که برای یک نمونه iid از توزیع یکنواخت(0، 1)، \begin{equation} n(1-U_{(n)}) \rightarrow exp(1) \\\ n(U_{(1) )}) \rightarrow exp(1) \end{equation} برای مشاهده این، کافی است تابع توزیع سمت چپ را پیدا کنید و سپس حد را به بی نهایت ببرید. اکنون، معلوم می شود که می توانیم نشان دهیم که آنها در واقع مجانبی مستقل هستند و می توان توزیع مجانبی مشترک آنها را استخراج کرد. سوال من این است که چگونه می توانیم این کار را انجام دهیم. من کتابی پیدا کردم که این را بیان می کند اما اثبات را حذف کرده است. امیدوارم به دلیل سادگی آن حذف نشده باشد زیرا نمی توانم پاسخ را ببینم. **ویرایش:** در اینجا سعی می کنم با توابع مشخصه شیک باشم و از ترفندی مشابه چیزی که در یک کتاب دیده ام استفاده کنم. با این حال، هنوز چیزی در این محاسبه اشتباه است، اما من نمی توانم آن را بفهمم. اجازه دهید \begin{معادله} \Phi(t_1,t_2) = \mathbb{E}\exp{(it_1 n^2 U_{(1)} + i t_2 n^2 (1-U_{(n)})} ) \end{equation} سپس توجه کنید که تابع مشخصه مورد نظر ما $\Phi(\frac{t_1}{n},\frac{t_2}{n})$ خواهد بود. اکنون ما این را با تمایز تحت انتظار (بسط تیلور) حدود 0 گسترش می دهیم. با توجه به اینکه آمار سفارش یکنواخت در واقع بتا توزیع شده است، می توانیم انتظارات آنها را از فرمول میانگین بتا دریافت کنیم. \begin{equation} \Phi(\frac{t_1}{n},\frac{t_2}{n}) = 1 + (i \frac{n^2}{n+1} , i \frac{ n^2}{n+1}) (\frac{t_1}{n}، \frac{t_2}{n})^T + o(\|(\frac{t_1}{n}، \frac{t_2}{n})\|) \end{equation} مشکل این است که به $1 + it_1 + it_2$ میرود که اشتباه است زیرا باید در توابع مشخصه دو نمایی مستقل لحاظ شود. آیا کسی می تواند بفهمد که در محاسبه بالا کجا اشتباه کردم؟ | توزیع مجانبی آمار سفارش یکنواخت |
114868 | من مطالعه ای دارم که در آن یک پیش بینی کننده جدید (دودویی) برای یک بیماری (همچنین یک متغیر باینری) ایجاد کرده ام. مطالعه دارای دو بخش است. در قسمت اول، می خواهم آزمایش کنم که آیا پیش بینی کننده من به شدت با بیماری مرتبط است یا خیر. من در حال برنامه ریزی برای استفاده از آزمون کای اسکوئر در جدول پیش بینی کننده در مقابل بیماری احتمالی (2x2) برای این بخش اول هستم. در قسمت دوم، میخواهم آزمایش کنم که آیا پیشبینیکننده من مکمل پیشبینیکنندههای موجود (که دودویی یا پیوسته هستند) است. برای انجام این کار، من قصد دارم 2 مدل رگرسیون لجستیک تودرتو را برای پیش بینی بیماری مقایسه کنم: مدل 1 با پیش بینی کننده من و پیش بینی کننده های موجود، و مدل 2 تنها با پیش بینی کننده های موجود. من از آزمون نسبت درستنمایی یا معیار اطلاعات Akaike برای مقایسه استفاده خواهم کرد. سوال اصلی من این است: آیا باید از رگرسیون لجستیک برای بخش اول نیز به جای آزمون کای اسکوئر استفاده کنم؟ یا، آیا آزمون کای اسکوئر قدرتمندتر از رگرسیون لجستیک برای آزمون ارتباط در جداول احتمالی 2×2 است؟ این سوالات مربوط به یک تاپیک قبلی است، اما سوالات من در آنجا به طور کامل پاسخ داده نشد. همچنین آیا رگرسیون لجستیک بهترین راه برای آزمون فرضیه من در قسمت دوم مطالعه است؟ در نهایت اگر پاسخ تست قسمت دوم مطالعه من مثبت باشد، آیا قسمت اول آنقدر زائد می شود که در مطالعه گنجانده نشود؟ متشکرم. | رگرسیون لجستیک، مجذور کای و طراحی مطالعه |
61692 | به روز رسانی: من اطلاعات مهمی را در توضیحات قبلی خود حذف کردم... من در واقع با مشکل خاصی روبرو هستم که بهتر است به شرح زیر توضیح داده شود: با توجه به پارامترهای مشخص شده توسط کاربر $\alpha$ و $\beta$ (که در آن $0 <\ آلفا < \frac{1}{n+1}$, $\beta > 0$)، حداقل یک $n$-بردار $A=[a_1,a_2,....,a_N]$ ایجاد کنید به طوری که: $[ (a_1)^2 + (a_2)^2 + .... + (a_N)^2 ] = (\beta - \alpha)*\alpha$، که در آن $\alpha = 1 - (a_1 + a_2 + .. .. + a_N)$ و هر جزء از $A$ محدود شده است تا در بازه $(\alpha,1)$ قرار گیرد. *توجه داشته باشید که من از پرانتزهای گرد استفاده می کنم تا نشان دهم که این فاصله شامل نقاط مرزی آن نمی شود. * * * در حین کار روی یک مشکل گسترده تر در توسعه یک برنامه کامپیوتری، متوجه شدم که اگر بتوانم n-بردار (برای n ثابت)، با توجه به محدودیت های زیر تولید کنم، می توانم زمان زیادی را صرفه جویی کنم: 1. 1-هنجار هر بردار باید برابر با مقداری اسکالر تعیین شده توسط کاربر $\lambda$ باشد (توجه داشته باشید: $\lambda$ همیشه بین 0 و 1 خواهد بود) 2. مربع 2-هنجار هر بردار باید برابر با مقداری اسکالر تعیین شده توسط کاربر باشد. در انتخاب های $\lambda$ و $\phi$ با توجه به محدودیت های بالا... اما من فرض می کنم که می توانیم فرض کنیم که این پارامترها به خوبی توسط کاربر انتخاب شده اند. در نهایت، من به دنبال راهی برای انجام این کار هستم (یا تا حد امکان به انجام آن نزدیک شوم). با این حال، مطمئن نیستم که چگونه از زمین خارج شوم. | تولید بردارها تحت محدودیت های 1 و 2 هنجار |
61693 | من در حال حاضر در حال گذراندن دوره PGM توسط Daphne Koller در Coursera هستم. در آن، ما به طور کلی یک شبکه بیزی را به عنوان گراف علت و معلولی متغیرهایی که بخشی از داده های مشاهده شده هستند، مدل می کنیم. اما در آموزشها و مثالهای PyMC، من به طور کلی میبینم که کاملاً شبیه به PGM مدلسازی نشده است یا حداقل گیج شدهام. در PyMC والدین هر متغیر دنیای واقعی مشاهده شده اغلب پارامترهای توزیعی هستند که برای مدل سازی متغیر استفاده می کنید. حالا سوال من واقعا کاربردی است. فرض کنید من 3 متغیر دارم که دادهها برای آنها مشاهده میشود (A، B، C) (فرض کنیم همه آنها متغیرهای پیوسته هستند فقط به خاطر آن). از برخی دانش حوزه، می توان گفت که A و B باعث C می شوند. بنابراین در اینجا یک BN داریم - A، B والدین و C فرزندان هستند. اکنون از معادله BN P(A, B, C) = P(C | A, B) * P(A) * P(B) می توانم بگویم A و B چند توزیع نرمال با مقداری مو و سیگما هستند، اما چگونه آیا P(C | A, B) را مدل کنم؟ ایده کلی که می خواهم یاد بگیرم این است که چگونه این BN را با استفاده از PyMC یاد بگیرم تا بتوانم BN را پرس و جو کنم. یا باید BN را با پارامترهای مدل به نحوی افزایش دهم. آیا این مشکل با pymc قابل حل است؟ یا برخی اصول را اشتباه گرفته ام؟ هر گونه کمکی قدردانی خواهد شد! | استنتاج شبکه بیزی با استفاده از pymc (گیج شدن مبتدیان) |
34796 | من از بسته svydesign در R برای اجرای رگرسیون های لاجیت وزن دار نظرسنجی به صورت زیر استفاده می کنم: sdobj <- svydesign(id = ~ 0, weights = ~chweight, strata = ~strata, data = svdat) model1 <- svyglm(formula=formula1 ,design=sdobj,family = quasibinomial) با این حال، مستندات یک هشدار در مورد رگرسیون بدون تعیین اصلاحات جمعیت محدود (FPC): اگر fpc مشخص نشده باشد، نمونه گیری با جایگزینی در سطح بالا فرض می شود و تنها مرحله اول خوشه در واریانس های محاسباتی استفاده می شود. متأسفانه، من اطلاعات کافی برای تعیین جمعیت خود در هر سطح (که نمونه بسیار کمی از آن را انجام می دهم) ندارم. هر گونه اطلاعات در مورد نحوه تعیین وزن های نظرسنجی بدون اطلاعات FPC بسیار مفید خواهد بود. | بررسی رگرسیون وزنی بدون FPC در R |
34791 | من می خواهم از معیار اطلاعات Akaike (AIC) برای انتخاب تعداد مناسبی از عوامل برای استخراج در PCA استفاده کنم. تنها مسئله این است که من مطمئن نیستم چگونه تعداد پارامترها را تعیین کنم. یک ماتریس $T\times N$ $X$ را در نظر بگیرید، که در آن $N$ نشان دهنده تعداد متغیرها و $T$ تعداد مشاهدات است، به طوری که $X\sim N\left(0,\Sigma\right)$. از آنجایی که ماتریس کوواریانس متقارن است، تخمین حداکثر احتمال $\Sigma$ می تواند تعداد پارامترها را در AIC برابر با $\frac{N\left(N+1\right)}{2}$ تعیین کند. متناوبا، در یک PCA، می توانید اولین بردارهای ویژه $f$ و مقادیر ویژه $\Sigma$ را استخراج کنید، آنها را $\beta_{f}$ و $\Lambda_{f}$ بنامید و سپس $$\Sigma=\beta_ را محاسبه کنید. {f}\Lambda_{f}\beta_{f}'+I\sigma_{r}^{2}$$ کجا $\sigma_{r}^{2}$ میانگین واریانس باقیمانده است. با حساب من، اگر فاکتورهای $f$ دارید، پارامترهای $f$ را در $\Lambda_{f}$، پارامترهای $Nf$ را در $\beta_{f}$ و پارامتر $1$ را در $\sigma_{ خواهید داشت. r}^{2}$. آیا این رویکرد درست است؟ به نظر میرسد که با افزایش تعداد فاکتورها به $N$، پارامترهای بیشتری نسبت به رویکرد حداکثر احتمال به دست میآید. | انتخاب مدل PCA با استفاده از AIC |
26715 | من در یک موضوع از تحلیل مدلسازی موضوع سردرگم هستم. وقتی تحلیل مدلسازی موضوع را بر روی مجموعهای از اسناد انجام میدهیم، آیا باید مجموعهای از فهرست نامزدهای موضوع را به عنوان ورودی تجزیه و تحلیل ارائه کنیم؟ یا موضوعات به دست آمده فقط از خود اسناد ورودی استخراج می شوند؟ | با توجه به لیست نامزدهای موضوع برای تحلیل مدلسازی موضوع (LDA) |
79628 | من در حال گذراندن دوره تحلیل داده های کوچک با استفاده از نرم افزار SAS هستم. تقریباً به من گفته شد که نتایج را با استفاده از دادهها و توضیحات ارائه شده در یک صفحه StatSci خاص تولید کنم که میخواهم آن را در اینجا کپی کنم: > **موسسه ورزش استرالیا** > > کلمات کلیدی: رگرسیون چندگانه، یک یا تجزیه و تحلیل واریانس دو طرفه، عوامل > > **توضیح** داده های 102 مرد و 100 ورزشکار زن جمع آوری شده در > موسسه ورزش استرالیا، با حسن نیت ریچارد تلفورد و راس > کانینگهام متغیر شرح ورزش ورزشی جنسیت مرد یا زن Ht قد بر حسب سانتی متر وزن وزن بر حسب کیلوگرم LBM توده بدون چربی بدن RCC تعداد گلبول های قرمز WCC تعداد گلبول های سفید Hc هماتوکریت جیوه هموگلوبین Ferr غلظت فریتین پلاسما BMI شاخص توده بدن = وزن/قد^2 SSF مجموع پوست %Bfat % چربی بدن را تا میکند > **منبع** ریچارد تلفورد و راس کانینگهام، ملی > دانشگاه استرالیا. Cook, R. D., and Weisberg, S. (1994). مقدمه ای بر > گرافیک رگرسیون. ویلی، نیویورک > > **تجزیه و تحلیل** این به عنوان نمونه ای از طرح بندی یک طرفه یا دو طرفه بر اساس > ورزش و جنسیت، و همچنین نمونه ای از رگرسیون چندگانه کار می کند. (من از > log-Ferr استفاده کرده ام.) اما من کمی گیج هستم و واقعاً نمی توانم از شخص دیگری بپرسم زیرا شروع آخر هفته است. قسمت تحلیل یعنی چی؟ آیا آنها سعی می کنند فر را با استفاده از ورزش و جنسیت پیش بینی کنند؟ چه نتایج معنیداری باید از این دادهها به دست بیاورم؟ من واقعاً از ایدهها و شاید رویههای نرمافزار SAS که سعی میکنم بیشتر پیادهسازی و برای این تحلیل تطبیق دهم، قدردانی کنم. | چگونه می توان نتایج موسسه ورزش استرالیا را تکرار کرد؟ |
77375 | من خوانده ام (به عنوان مثال در اینجا) که یک رگرسیون لجستیک (چند جمله ای) با یک طبقه بندی کننده آنتروپی حداکثر مطابقت دارد. سوال من این است که چگونه می توان به فرمول رگرسیون لجستیک که با اصل آنتروپی حداکثر شروع می شود، خاتمه داد؟ | رگرسیون لجستیک و حداکثر آنتروپی |
18215 | به خوبی شناخته شده است که فواصل اطمینان و آزمون فرضیه های آماری به شدت مرتبط هستند. سوالات من بر مقایسه میانگین ها برای دو گروه بر اساس یک متغیر عددی متمرکز است. بیایید فرض کنیم که چنین فرضیه ای با استفاده از آزمون t تست شده است. از طرف دیگر، می توان فواصل اطمینان را برای میانگین هر دو گروه محاسبه کرد. آیا رابطه ای بین همپوشانی فواصل اطمینان و رد فرضیه صفر مبنی بر برابری میانگین ها (به نفع گزینه ای که معنی متفاوت است - آزمون دو طرفه) وجود دارد؟ به عنوان مثال، اگر فواصل اطمینان با هم تداخل نداشته باشند، یک آزمون می تواند فرضیه صفر را رد کند. | رابطه بین فاصله اطمینان و آزمون فرضیه آماری برای آزمون t |
50250 | من سعی می کنم توزیع Weibull را به یک مجموعه داده در R برازم. من یک مجموعه داده loss به عنوان یک فایل csv. دارم و از fitdistr(loss,invexp) استفاده می کنم. من این پیام را دریافت کردم: > شکست infitdistr(از دست دادن، invweibull): توزیع پشتیبانی نشده چگونه می توانم توزیع معکوس Weibull را به یک مجموعه داده در R تطبیق دهم؟ * * * متشکرم! من هم نمی دانم که چگونه این کار را در R انجام دهم و هم اینکه چرا هنگام استفاده از تابع fitdistr برای تخمین حداکثر احتمال با خطا مواجه می شوم. پیغام خطای من در مورد تابع invweibull در R است. همان مشکلی که من برای توزیع frechet دارم. مجموعه داده من به شرح زیر است: > 336.893 2.468.001 572.651 426.581 501.593 433.167 708.431 736.761 1.405.323 > 2.161.790.4294. 585.885 563.030 408.345 4.840.762 308.791 > 1.201.796 1.463.367 849.336 510.141 282.088 648.4759 648.4756 606.299 > 380.988 من مطمئن نیستم که بتوانم به سادگی یک Weibull را در معکوس مشاهدات قرار دهم و بگویم که پارامترها برای وایبول معکوس یکسان هستند. من از paket actuar و تابع invweibull و frechet استفاده می کنم و تبدیل به یک توزیع پشتیبانی نشده شکست می شوم. سوال ساده این است که چرا تخمینها را نمیتوان برای این مجموعه داده انجام داد و شاید کسی بداند که چگونه میتوان توزیعهای ویبول معکوس و فریشت را در R جا داد؟ از پاسخ شما به سوال من بسیار متشکرم! | برازش معکوس توزیع Weibull به داده ها در R |
37951 | مدتی است که برای سمینار خود به دنبال یک مطالعه مقدماتی خوب در مورد Copulas هستم. من در حال یافتن مطالب زیادی هستم که در مورد جنبه های نظری صحبت می کند، که خوب است، اما قبل از اینکه به آنها بپردازم، به دنبال ایجاد یک درک شهودی خوب در مورد موضوع هستم. آیا کسی می تواند مقاله خوبی را پیشنهاد کند که پایه و اساس خوبی برای یک مبتدی فراهم کند (من 1-2 دوره در زمینه آمار داشته ام و حاشیه ها، توزیع های چند متغیره، تبدیل معکوس و غیره را تا حد معقولی درک کرده ام)؟ | خواندن مقدماتی در Copulas |
24636 | > **تکراری احتمالی:** > چگونه یک نمودار پراکنده زیبا در R انجام دهیم؟ چگونه از ggplot برای انجام نمودارهای چندک binned (یک نوع نمودار پراکندگی) استفاده کنیم؟ سلام به همه، من طرح پراکندگی را انجام دادم: plot(x, y). حالا میخواستم پلات های کوانتیل binned انجام بدم... ggplot2 میتونه کمکم کنه؟ به عنوان مثال، داده های x را در 10 bin قرار می دهیم. برای هر سطل، 10 دهک داده y مربوطه را در آن سطل به صورت نقطه/نقطه رسم می کنیم. و سپس در همه سطلها، میخواهیم نقاط/نقطههای دهک مربوطه را به هم وصل کنیم (چیزی مانند منحنیهای معادل یا دهک همسان)... چگونه این کار را در R یا ggplot2 انجام دهم؟ آیا تابع/فرمان موجودی وجود دارد که بتواند این کار را انجام دهد؟ خیلی ممنون | چگونه از ggplot برای انجام نمودارهای چندک binned (یک نوع نمودار پراکندگی) استفاده کنیم؟ |
28744 | این یک سوال بسیار ساده است اما من نمی توانم آن را در هیچ کجای اینترنت یا کتاب پیدا کنم. من می خواهم ببینم که چگونه یک بیزی توزیع نرمال چند متغیره را به روز می کند. برای مثال: تصور کنید که $$ P({\bf x}|{\bf μ},{\bf Σ}) = N({\bf \mu}, {\bf \Sigma}) \\\ P({ \bf \mu}) = N({\bf \mu_0}, {\bf \Sigma_0}) $$ پس از مشاهده مجموعه ای از ${\bf x_1 ... x_n}$، می خواهم $P({\bf \mu | x_1 ... x_n})$ را محاسبه کنید. من می دانم که پاسخ $P({\bf \mu | x_1 ... x_n}) = N({\bf \mu_n}، {\bf \Sigma_n})$ است که در آن $$ \bf \mu_n = \Sigma_0 (\Sigma_0 + \frac{1}{n}\Sigma)^{-1}(\frac{1}{n}\sum_{i=1}^{n}{\bf x_i}) + \frac{1}{n }\Sigma(\Sigma_0+\frac{1}{n}\Sigma)^{-1}\mu_0 \\\ \bf \Sigma_n = \Sigma_0(\Sigma_0 + \frac{1}{n}\Sigma)^{-1}\frac{1}{n}\Sigma $$ من به دنبال اشتقاق این نتیجه با تمام جبر ماتریس میانی هستم. هر گونه کمک بسیار قدردانی می شود. | خلفی نرمال چند متغیره |
67968 | من یک مجموعه داده در هر دقیقه ضبط می کنم. با استفاده از تست توکی برای تشخیص پرت (به عنوان مثال، اگر تعداد نقاط بالاتر از Q2 + 2.3IQR بالای 10٪ از توزیع کل باشد) سپس پنجره یک دقیقهای را بهعنوان غیرعادی علامتگذاری میکنم. در دقیقه اول خوب کار می کند. در واقع، سیستم رفتار را برای چند دقیقه آینده ادامه میدهد و الگوریتم چند پنجره بعدی را به عنوان ناهنجاری علامتگذاری نمیکند، زیرا میانه به سمت بالا و پیوسته تغییر میکند. با دانش دامنه، سیستم برای دو تا سه دقیقه آینده به حالت غیرعادی ادامه میدهد و سپس مستقر میشود. برای درک من، باید یک الگوریتم دیگر را به همراه تست توکی اضافه کنم تا جابجایی ها نیز اندازه گیری شوند و به عنوان ناهنجاری علامت گذاری شوند. PS: نمیتوانم ضمیمه کنم زیرا شهرت کافی ندارم. اجازه دهید بیشتر روشن کنم... مشکل من چیزی متفاوت از نقاب زدن است. پنجره 1: توزیع: توزیع نرمال دنباله سمت راست پرت بر اساس قانون میانه: بله، زیرا تعداد معینی از نقاط بالاتر از Q2 + 2.3IQR میانه توزیع = 23 ویندوز 2: توزیع: توزیع نرمال اما گسترش کم، به عنوان اثر پنجره 1 پیوسته در پنجره 2 پرت بر اساس قاعده میانه: خیر، گسترش (واریانس) توزیع بیشتر است و هیچ نقطه بیرونی وجود ندارد Q2+2.3IQR میانه توزیع = 40 ویندوز 2: توزیع: توزیع معمولی اما گسترش کمی زیاد است، زیرا تأثیر پنجره 1 پیوسته در پنجره 2 و 3 بر اساس قانون میانه: خیر، گسترش (واریانس) توزیع است. بیشتر و هیچ نقطهای در خارج از Q2+2.3IQR وجود ندارد میانه توزیع = 60 ناگهان رفتار به چیزی شبیه به آنچه در پنجره 1 بود کاهش مییابد، از دانش دامنه پنجره 2، پنجره 3 ناهنجاری هستند. از سوی دیگر میتوان استدلال کرد که نمیتوان با این امر به عنوان ناهنجاری برخورد کرد زیرا رفتار سیستم در مرحله یادگیری چنین روشی را تکرار میکند. | تشخیص بیرونی با استفاده از قانون میانی |
92465 | من یک مدل لاجیت مختلط را با glmer اجرا کردهام و شی glmer حاصل را به عنوان یک فایل Rdata در دیسک ذخیره کردهام. اما وقتی آن را بارگذاری میکنم و با استفاده از print (myglmerobject,corr=0) آن را چاپ میکنم، لیستی از متغیرها، همبستگیها، و غیره را میبینم تا نتایج خوبی که این دستور ایجاد میکند. آیا ایده ای دارید که چگونه می توانم این را برطرف کنم؟ این یک مجموعه داده بزرگ است و ساعت ها طول می کشد تا دوباره مدل را اجرا کنم. | شی glmer ذخیره شده در R به درستی در R نشان داده نمی شود |
111302 | دنباله ای برای این سوال من یک مجموعه داده دارم که در آن: * $\frac{4}{5}$ از نقاط از: $(x, y) \sim \mathcal{U}_{2}(0,30)$, $( z) \sim \mathcal{U}_{1}(14.5، 15.5)$. * $\frac{1}{5}$ از نقاط از: $(x, y, z) \sim \mathcal{U}_{3}(0,30)$ از کجا $\mathcal{U} گرفته شده است _{d}(x,y)$ باید به عنوان یک مجموعه بعدی $d$ از نقاط تفسیر شود که در هر بعد از محدوده بین $x$ و $y$ ترسیم شده است. ## پیاده سازی من این را در متلب به این صورت پیاده سازی کرده ام: General Init: dim = 3; uniP = 1/5; wallP = 4/5; uniformN = ceil(N * uniP); wallN = سقف (N * wallP); توزیع اول (دیوار): % پارامتر lowWall = [0,0,14.5]; دیوار بالایی = [30،30،15.5]; % مقادیر [wallD] = blockUniformDist(LowerWall, upperWall, wallN, dim); توزیع دوم (نویز): % پارامترهای کمتر = 0; بالا = 30; % مقادیر [uniformD] = uniformDist(پایین، بالا، uniformN، کم نور)؛ داده ها را ترکیب کرده و چگالی را محاسبه کنید: % داده داده = [wallD; uniformD] % Density uniDensity = 1 / ((بالا - پایین) ^ dim); چگالی دیوار = 1; برای i=1 : dim wallDensity = wallDensity/(waperWall(i)-lowerWall(i)); end wallSpace = (data(:,3) < upperWall(3)) & (data(:,3) > bottomWall(3)); trueValues = wallP * wallDensity .* wallSpace + ... uniP .* (ones(N, 1) * uniDensity); wallSpace یک آرایه بولی است که برای هر مشاهده در داده نشان می دهد که آیا در داخل دیوار قرار دارد یا نه. از آنجایی که برد دیوار برابر است با برد دیوار برابر است با محدوده داده های یکنواخت در ابعاد یک و دو، من فقط بعد سوم را در نظر می گیرم. اگر نقطه ای با اندیس «i» بخشی از دیوار نباشد، چگالی آن «uniDensity» است، زیرا «wallSpace(i)» برای چنین دیوارهایی صفر است «trueValues(i)» برابر است با uniDensity. نقطه ای با شاخص «j» که z آن بین 14.5 و 15.5 است در دیوار است، بنابراین چگالی آن باید $\frac{4}{5} \cdot$ `wallDensity` \+ $\frac{1}{5} باشد. \cdot$ `uniDensity`. از آنجایی که «wallSpace[i]» یکی برای این نقاط است، این چگالی است که در «trueValues[j]» قرار میگیرد. «blockUniformDist(LowerWall، upperWall، wallN، dim)» به این صورت تعریف میشود: تابع [داده] = blockUniformDist(پایین، بالا، N، کم نور) %BLOCKUNIFORMDIST N مقدار را از یک توزیع یکنواخت با ٪ ابعاد کم نور نمونه میکند. % INPUT % - پایینتر: کمترین مقدار مجاز (در هر بعد) % - بالا: بالاترین مقدار مجاز (در هر بعد) % - N: تعداد نمونههای گرفتهشده % - کم نور: ابعاد توزیع % OUTPUT % - دادهها: بردار نمونه ها توزیع % مقادیر داده = rand(N, dim); برای i= 1 : داده کم نور(:,i) = پایین تر(i) + داده(:,i).*(بالا(i) - پایین(i)); انتهای انتهایی و 'uniformDist' به عنوان: تابع [داده] = uniformDist( پایین، بالا، N، کم نور) %UNIFORMDIST N مقدار را از یک توزیع نرمال با میانگین mu % و انحراف استاندارد sd در بعد کم نور نمونه میکند. % INPUT % - پایین تر: کمترین مقدار مجاز % - بالا: بالاترین مقدار مجاز % - N: تعداد نمونه های گرفته شده % - کم نور: ابعاد توزیع % OUTPUT % - داده: بردار نمونه ها % توزیع را تشکیل می دهند. مقادیر داده = پایین تر + rand(N، dim) .* (بالا - پایین); نتیجه ## نتیجه نتیجه این است که هر مشاهده یکی از دو چگالی $8.962962963e-04$ یا $7.407407407e-06$ دارد. رسم مجموعه داده با چگالی دیکته کننده رنگ (نقاط با چگالی $7.407407407e-06$ در قرمز و نقاط با چگالی $8.962962963e-04$ در آبی) نتیجه میشود: 06$ به رنگ قرمز و نقاط با تراکم $8.962962963e-04$ به رنگ آبی.](http://i.stack.imgur.com/5I0RP.jpg) ## سوال واقعی آیا نباید نقاط در ناحیه متراکم تر طرح همگی چگالی یکسانی داشته باشند، و بنابراین همه یک رنگ؟ | چگونه می توانم چگالی این مجموعه داده را که از دو توزیع سه بعدی مختلف تشکیل شده است محاسبه کنم؟ |
67964 | بگذارید دو نقطه در مختصات قطبی $(r_i، \theta_i)$ و $(r_j, \theta_j)$ نقاط هذلولی در $\mathbb{H}^2_\zeta$ با انحنای $K=-\zeta^2$ باشند. مختصات شعاعی این نقاط به صورت نمایی با توان $\alpha$ توزیع شده است: $p(r) = \alpha e^{\alpha(r - R)}$ با $R \approx \ln(N)$ (شعاع) از دیسک پوانکاره)، $N$ تعداد نقاط این دیسک است، توان $\alpha > 0$ و $r \in [0, R]$. مختصات زاویه ای به طور یکنواخت توزیع می شوند: $p(\theta) = \frac{1}{2\pi}$ با $\theta در [0, 2\pi]$. برای سادگی، اجازه دهید $\zeta = 1$. در نتیجه، فاصله هذلولی بین نقاط در $\mathbb{H}^2_1$ به صورت زیر تعریف میشود: $d_{i, j} = \text{acosh}[\cosh(r_i)\cosh(r_j) - \ sinh(r_i)\sinh(r_j)\cos(\theta_{i, j})]$ با $\theta_{i, j} = \pi - |\pi - |\theta_i - \theta_j||$. توزیع فواصل بین نقاط تصادفی با ویژگی های فوق در دیسک هذلولی با شعاع $R$ چگونه است؟ **ویرایش** من با تولید نقاط تصادفی با استفاده از $p(r)$ و $p(\theta)$ برای مقادیر مختلف $\alpha، N=1000$ و $\zeta=1$ بازی کردم. . اینها چگالی نقطه ای و توزیع فاصله هذلولی هستند:  با چشم، به نظر می رسد فاصله های هذلولی $Beta$ توزیع شده است. البته برای تایید این فرضیه باید تحلیل مناسبی انجام شود... | توزیع فاصله هذلولی بین نقاط تصادفی در دیسک پوانکاره |
111303 | من برخی از داده ها را دارم که تعداد دفعاتی است که یک فرد طی یک دوره 5 دلاری سال به مطب پزشک مراجعه کرده است. من میخواهم مدلی ایجاد کنم که بتواند محتملترین تعداد شمارشهایی را که یک فرد ممکن است به مطب پزشکان مراجعه کند، پیشبینی کند. وقتی به هیستوگرام توزیع شمارش نگاه کردم متوجه شدم که به درستی انحراف دارد، بنابراین به فکر رفتن با یک مدل پواسون هستم. سوالات من این است: 1. آیا این مدل خوبی برای پیش بینی تعداد شمارش است؟ 2. چه مدلها/روشهای دیگری را بهتر است بررسی کنیم؟ 3. وقتی مدل خود را داشتم چگونه می توانم دقت را آزمایش کنم؟ هر گونه کمک، نظر یا مرجع بسیار قدردانی خواهد شد! متشکرم | مدل پیش بینی از داده های شمارش |
23293 | من یک شی دارم: noise.lm این فقط یک مدل خطی ساده با X و Y است. وقتی resid(noise.lm) را تایپ میکنم، باقیماندهها را مانند این تولید میکند: 1 2 3 4 5 6 -0.40501681 -1.16960373 -0.66636219 - 0.41798296 1.37942381 0.84336242 من می خواهم به مقادیر باقیمانده بدون اعداد مشاهده دسترسی داشته باشم، شاید با ایجاد یک قاب داده مانند این باقیمانده 1 -0.40501681 2 -1.16960373 3 -0.66636219 . . . . . . یا آیا راه سادهتری برای ذخیره مقدار باقیمانده در متغیری مانند: residual_variable -0.40501681، -1.16960373، -0.66636219، -0.41798296، 1.37942381، 1.37942381، 0.82433 انجام میشود، وجود دارد. نمودار خودهمبستگی (طول(متغیر_بجای_مانده)،متغیر_باقی_شده) یا هنگام تلاش برای بررسی نرمال بودن با یک هیستوگرام... پیشاپیش متشکرم | چگونه می توانم خروجی باقیمانده را در یک متغیر دریافت کنم یا مانند یک قاب داده در R عمل کنم؟ |
77378 | آیا روشهای پیشبینی ناپارامتریک آماری خوبی در کنار روشهای یادگیری ماشینی مانند شبکههای عصبی/درختهای تصمیمگیری و غیره برای تحلیل سریهای زمانی وجود دارد؟ اگر چنین است، آیا بسته های R وجود دارد که آنها را پیاده سازی کند؟ با تشکر | آیا روش های پیش بینی ناپارامتریک وجود دارد؟ |
77376 | ما در اجرای مدل های خطی تعمیم یافته با داده های متناسب مشکل داریم. به عنوان مثال، ما دادههایی مانند این داریم: گونهها (رژیم غذایی) افراد در جنگل کل افراد نسبت جنگل X حشرهخوار 300.5 500.7 0.60 Y Frugivore 32.3 47.6 0.67 و میخواهیم تعیین کنیم که آیا این صفت بر نسبت افراد در جنگل تأثیر میگذارد یا خیر. توجه داشته باشید که اعداد جداگانه پیوسته هستند (اعشار دارند)، زیرا شمارش های اصلی با DISTANCE تنظیم شده اند. بیشتر مدل هایی که در R دیده ایم با داده های شمارش سروکار دارند. به عنوان مثال، M.J. Crawley _Statistics: An Introduction using R_، فصل 10: تجزیه و تحلیل نسبت داده ها (pdf) را ببینید. این مدلها از عبارت «cbind» برای پیوند دادن تعداد موفقیتها و تعداد شکستها استفاده میکنند و سپس آن را به پیشبینیکننده مرتبط میکنند: model.1 <- glm (cbind(IndividualsinForest, (TotalIndividuals-IndividualsinForest))~Diet, family= دو جمله ای) با این حال، به نظر می رسد دو مشکل برای استفاده از این رویکرد برای موقعیت ما وجود دارد: 1. ما از «glm» در یک «cbind» که بردارها را با مقادیر پیوسته (نقطه اعشاری) ترکیب میکند. مشخص نیست که آیا این مجاز است، اگرچه در R اجرا می شود. ما با ضرب کردن همه چیز در 1000 بازی کرده ایم تا از شر اعشار خلاص شویم، اما دریابیم که نتایج با چنین تکنیکی بسیار تغییر می کند (اگر در 10 ضرب شود نتایج بسیار متفاوت است. ، با 100، در 1000) 2. «cbind» یک رگرسیون وزنی را اجرا می کند، همانطور که کرولی توضیح داد. این به این معنی است که مدل دادههای گونه X در بالا را با 500.7 کل افراد سنگینتر از دادههای گونه Y با 47.6 نفر وزن میکند. اما از نظر مفهومی، ما یک رگرسیون وزنی نمیخواهیم، زیرا میخواهیم با همه گونهها یکسان رفتار کنیم: دادههای یک گونه نادر به اندازه دادههای یک گونه فراوان برای ما مهم است. گونه در اینجا واحد تکثیر است. ما سعی کردیم با استفاده از همان کد، با اضافه کردن ستونهایی به دادهها، یک رگرسیون غیر وزنی ایجاد کنیم، برای مثال، Species ProportionForest PINForest PTotal X .60 60 100 Y .67 67 100 و سپس اجرا: model.3 <- glm(cbind (PInForest، (PTotal-PInForest))~رژیم غذایی، خانواده = دوجمله ای) اما تجزیه و تحلیل های حاصل بسیار پراکنده هستند، و اجرای آنها با «خانواده = شبهبینومیال» نتایج عجیبی میدهد (تستهای کاملاً غیر حساس، با مقادیر p بزرگ برای تفاوتهای نسبتاً واضح). از این رو استراتژی تحلیلی کنونی ما این است که بر روی آرکسین تغییر نسبت داده و سپس یک مدل خطی کلی را اجرا کنیم. اما ما ترجیح میدهیم یک مدل خطی تعمیمیافته را اجرا کنیم، زیرا به نظر میرسد تبدیل آرکسین بازماندهای از آمارهای قدیمی قبل از رایانه باشد. هر ایده ای؟ | مدل های خطی تعمیم یافته با نسبت های پیوسته |
114860 | من انتخاب متغیر را با استفاده از کمند انجام می دهم. برای توضیح متغیر پاسخم، چندین پیشبین، هم مقولهای و هم عددی دارم، اما برای توضیح فرآیندی که زیربنای آن زمانی است که Lasso فقط یک دسته را از یک متغیر با چندین دسته انتخاب میکند، مشکل دارم. برای مثال، یکی از پیشبینیکنندههای من یک متغیر دستهبندی با چهار سطح است و Lasso فقط یکی از آنها را انتخاب میکند. بنابراین، Lasso با کل متغیر (چهار دسته) کار می کند، اما برخی ممکن است ورود کنند و برخی نه. چگونه می توانم این را توضیح دهم؟ این چیزی است که با تجزیه و تحلیل کوواریانس مرتبط است؟ امیدوارم سوال من منطقی باشد و از یک پاسخ نه چندان ریاضی قدردانی کنم. با تشکر | انتخاب متغیر: چرا دسته بندی های خاصی انتخاب می شوند اما دسته های دیگر انتخاب نمی شوند؟ |
92791 | من میدانم که آزمون بارتلت به این موضوع مربوط میشود که آیا نمونههای شما از جمعیتهایی با واریانسهای مساوی هستند یا خیر. اگر نمونهها از جمعیتهایی با واریانسهای مساوی باشند، در رد فرضیه صفر آزمون شکست میخوریم و بنابراین تحلیل مؤلفههای اصلی نامناسب است. من مطمئن نیستم که مشکل این وضعیت (داشتن یک مجموعه داده homoskedastic) کجاست. مشکل داشتن یک مجموعه داده که در آن توزیع اساسی همه داده های شما یکسان است چیست؟ من فقط اگر این شرایط وجود داشته باشد، مشکل بزرگی نمی بینم. چرا این یک PCA را نامناسب می کند؟ به نظر نمی رسد در هیچ کجای آنلاین اطلاعات خوبی پیدا کنم. آیا کسی تجربه ای در تفسیر اینکه چرا این تست به PCA مربوط است را دارد؟ | چرا کرویت تشخیص داده شده توسط تست بارتلت به معنای نامناسب بودن PCA است؟ |
61697 | چگونه میتوان تابع تولید لحظه توزیع چندجملهای، $\underline{X} \sim \mathrm{multinomial}(n, \underline{p})$ را پیدا کرد؟ من می دانم که طبق تعریف ما $$M_X (\underline{\theta}) = \mathbb{E} \exp{(\underline{\theta}^T X)} = \mathbb{E} \exp{\sum_{ داریم i=1}^k \theta_i X_i }$$ اما نمیتوانم ببینم چگونه میتوانیم از اینجا برویم؟ من واقعاً نمیتوانم به این فکر کنم که با مقدار مورد انتظار یک بردار چه کار کنم. من فکر نمیکنم که $X_i$ها مستقل باشند، بنابراین نمیتوانیم مقدار مورد انتظار را فاکتور کنیم. هر توضیحی قدردانی خواهد شد! | تابع مولد لحظه توزیع چندجمله ای |
23292 | تا آنجایی که من می دانم، LARS مشکل زیر را حل می کند (با استفاده از علامت گذاری مشابه افرون و همکاران. رگرسیون کمترین زاویه): > با توجه به یک بردار y و یک ماتریس X. چند بردار ستونی را از X انتخاب کنید، و > y را به صورت یک بیان کنید. ترکیب خطی این بردارهای ستونی. در مشکل من، من مجموعه ای از بردارها دارم که می توانند یک ماتریس Y را تشکیل دهند. می خواهم هر بردار ستون Y را به صورت ترکیبی خطی از برخی بردارهای ستون از X بیان کنم. امیدوارم کیفیت برازش خوب باشد (L2 ، و تعداد بردارهای ستونی که من از X استفاده می کنم کم است (L1). بنابراین، من نمیپرسم که آیا مطالعه سیستماتیک (مقالهای؟) در مورد استفاده از LARS برای برازش مجموعهای از بردارها به جای یک بردار وجود دارد. در زیر راه حل من است. نظرات بسیار قدردانی می شود. فرض کنید Y = (y1 y2 ...) و X = (x1 x2 ...)، که در آن yi، xi بردار هستند. Y را به عنوان یک بردار 1 بعدی با ابعاد بالا در نظر بگیرید (آن را صاف کنید) مانند $Y' = \left(\begin{array}{c} y1\\\ y2\\\ ...\end{array}\right)$ سپس ماتریس پایه جدید X' را به این صورت تعریف می کنیم (قسمت خالی همه صفر هستند) $X' = \left(\begin{array}{cccc} X & & \\\ & X &\\\ & & ...\end{array}\right)$ سپس ما فقط LARS را مستقیماً با استفاده از X' به تناسب Y' اعمال می کنیم. هنگامی که ستونها را از X' انتخاب کردیم، آنها را در مجموعهای از ستونها از X ادغام میکنیم، که مجموعه نهایی «بردار پایه» برای تناسب با Y خواهد بود. یکی از چیزهایی که در مورد راهحل بالا احساس ناراحتی میکنم این است که، آن را در نظر نمیگیرد. این واقعیت که مجموعه یکسانی از بردارهای پایه از X برای بیان تمام بردارهای ستون Y استفاده خواهد شد. فقط مرحله آخر نتیجه LARS را ادغام می کند. کمک شما قابل قدردانی است. با تشکر | حداقل رگرسیون زاویه برای مجموعه ای از بردارها؟ |
24419 | من مجموعهای از اسناد دارم و میدانم که ممکن است یک موضوع واحد را به اشتراک بگذارند. آیا راهی برای شناسایی این موضوع وجود دارد؟ من می دانم که LDA (تخصیص دیریکله نهفته) یک رویکرد است. اما نتیجه LDA این است که هر سند را با مجموعه ای از موضوعات مرتبط می کند. با این حال، من بیشتر علاقه مند به یافتن یک موضوع مشترک هستم که بتوان از آن برای برچسب گذاری این مجموعه استفاده کرد. | رویکرد برچسب گذاری مجموعه ای از اسناد با استفاده از یک موضوع مشترک |
24414 | فقط در مورد دو گزینه در کلاس scikits SVM کنجکاو هستم. کسی میدونه مقیاس C و کوچک کردن چیکار میکنه؟ متاسفانه در مستندات زیاد نیست. با تشکر | گزینه های SVM در scikit-learn |
114861 | من در محاسبه خطر تجمعی در یک بازه زمانی کمی سردرگم هستم. ما می دانیم که $H(t)=\int^{t}_{0}h(u)du$، اگر $\Delta t=t_1-t_0$ (1) $H(\Delta t)=\ داشته باشم int^{\Delta t}_{0}h(u)du$ (2) $H(\Delta t)=\int^{t_1}_{0}h(u)du-\int^{t_0}_{0}h(u)du$. کدام یک صحیح است؟ (1) یا (2)؟ احساس کردم (1) ممکن است درست باشد. | خطر تجمعی یک بازه زمانی را محاسبه کنید |
26717 | من اطلاعاتی در مورد حضور بیماران در یک سری جلسات مشاوره دارم. در هر جلسه، یک بیمار می تواند A، S یا D باشد. هر بیمار برای 12 جلسه داده دارد و 100 بیمار وجود دارد. من به چگونگی همبستگی خودکار متغیرها علاقه مند هستم. من فقط میتوانم جدولهای 3×3 (مثلاً) زمان 1 در مقابل زمان 2، زمان 1 در مقابل 3، زمان 2 در مقابل 3، و غیره درست کنم، اما کنجکاو هستم که آیا چیز پیچیدهتری وجود دارد. جستجو در این مورد، برخی از معیارها را برای خودهمبستگی مکانی، به عنوان مثال تعداد پیوستن، نشان داد، اما هیچ چیز به طور خاص برای خود همبستگی زمانی وجود ندارد. من همچنین میتوانم سعی کنم تعداد پیوستن را با دادههای زمانی تطبیق دهم، اما باز هم کنجکاو هستم که آیا کسی قبلاً این کار را انجام داده است. من به بسته های R و SAS دسترسی دارم | همبستگی خودکار متغیر اسمی |
28748 | در اینجا یک مشکل احتمال وجود دارد: شما مشاهده می کنید که به طور متوسط هر 5 دقیقه در یک جاده 5/0 اتومبیل از جلوی شما عبور می کنند. احتمال دیدن حداقل 1 ماشین در 10 دقیقه چقدر است؟ من سعی می کنم این را از 2 راه حل کنم. راه اول این است که بگوییم: P (بدون ماشین در 5 دقیقه) = 1 - 0.5 = 0.5. P (بدون ماشین در 5 دقیقه اول و بدون ماشین در 5 دقیقه دوم) = P (بدون ماشین در 5 دقیقه اول) * P (بدون ماشین در 5 دقیقه دوم) توسط استقلال. بنابراین P (حداقل 1 ماشین در 10 دقیقه) = 1 - 0.5*.5 = 0.75. با این حال، اگر من همان را امتحان کنم، با توزیع پواسون با نرخ لامبدا = 0.5 در واحد زمان، برای 2 واحد زمان، دریافت می کنم: P (حداقل 1 ماشین در 2 واحد زمان) = 1 - exp(- 2 * لامبدا) = 0.63. آیا من کار اشتباهی انجام می دهم؟ اگر نه، چه چیزی این اختلاف را توضیح می دهد؟ | احتمال حوادث |
77374 | مفروضات مدل سازی ARIMA / Box-Jenkins برای پیش بینی سری های زمانی چیست؟ | مفروضات مدل سازی ARIMA برای پیش بینی سری های زمانی چیست؟ |
73272 | من این مشکل را هنگام استفاده از شیب صعود دارم. من مقداری داده مصنوعی دارم و پس از اولین تکرار، تابع هدف کاهش می یابد و از تکرار دوم همچنان افزایش می یابد. آیا برای تابع محدب امکان پذیر است؟ من همچنین نرخ یادگیری بسیار پایین 0.001 دارم. هر گونه پیشنهاد | مسائل مربوط به محاسبه عملیات نزول گرادیان |
113097 | از آنچه که من متوجه شدم، آرگومان cp به تابع rpart به همان روشی که آرگومان های minsplit یا minbucket پیش از هرس درخت کمک می کند. چیزی که من نمی فهمم این است که مقادیر CP چگونه محاسبه می شوند. به عنوان مثال df<-data.frame(x=c(1،2،3،3،3،4)، y=as.factor(c(TRUE، TRUE، FALSE، TRUE، FALSE، FALSE))، روش= class) mytree<-rpart(y ~ x، data = df، minbucket = 1، minsplit=1) درخت حاصل... mytree n= 6 گره)، تقسیم، n، از دست دادن، yval، (yprob) * نشان دهنده گره پایانی 1) ریشه 6 3 FALSE (0.5000000 0.5000000) 2) x>=2.5 4 1 FALSE (0.7500000 0.25000000 0.25000000 0.25000000 0.25000000 0.25000000 0.25000000 UE) (0.0000000 1.0000000) * خلاصه... خلاصه (mytree) فراخوانی: rpart(فرمول = y ~ x، داده = df، minbucket = 1، minsplit = 1) n= 6 CP nsplit rel error xerror xstd 1 60.7006 2.0000000 0.0000000 2 0.0100000 1 0.3333333 0.6666667 0.3849002 0.666 و 0.01 از کجا می آیند؟ | چگونه مقادیر CP (پیچیدگی هزینه) در RPART (یا درخت های تصمیم به طور کلی) محاسبه می شوند. |
112700 | من یک داده طولی دارم که شبیه این است. تعداد نقاط زمانی برای هر شناسه متفاوت است. Y متغیر پاسخ باینری است (مقادیر 0 و 1 را بگیرید) و X1-X20 یا ویژگی های پیوسته یا طبقه ای هستند. شناسه نقطه زمانی X1 X2 ...X20 Y 1 09/19/2009 1 09/27/2010 2 02/05/2009 2 02/27/2010 2 03/01/2011 مقادیر گمشده ای برای X1-X20 نشان داده شده توسط NA وجود دارد . من می خواهم از روش Random Forest برای انتخاب ویژگی (X1-X20) استفاده کنم. مطمئن نیستم چگونه برای چنین داده های طولی اقدام کنیم زیرا نمونه ها مستقل نیستند. از هر گونه پیشنهادی استقبال خواهد کرد. | انتخاب ویژگی برای داده های طولی |
55020 | رکوردهای داده شده برای یک تیم در 2 ترم پاییز و بهار. می خواهیم بررسی کنیم که آیا بین ترم پاییز یا بهار و نتیجه برد یا باخت رابطه وجود دارد یا خیر. آیا می توان از آزمون کای دو استفاده کرد؟ نمونه ای از داده های پاییز، برد بهار، برد باخت، برد باخت، برد باخت، برد برد، برد باخت، باخت باخت، برد باخت، باخت با تشکر فراوان | تست مجذور کای برای بررسی رابطه بین فصل و برد/باخت |
91846 | من در تلاش برای بیان یک عملیات 2 مرحلهای در نماد ماتریسی، خودم را گیج کردهام - دادهها شامل 2 تکه اطلاعات است - مقدار اقلام مشابه فروخته شده در فروشگاههای مختلف و قیمت آنها در هر فروشگاه. فرض کنید من دادهها را در قالب زیر دارم-- * * * فرض کنید اطلاعات کمیت و قیمت را در ماتریسهای جداگانه قرار میدهم ( به طوری که ماتریس کمیت یک ماتریس 3 در 3 است که از ستون های 2،3،4 داده های ماتریس فوق تشکیل شده است و ماتریس قیمت یک ماتریس است. ماتریس 3 در 3 شامل داده های ستون های 5،6،7 از ماتریس بالا بود. نقل قول برای مورد B، نقل قول برای مورد C] چگونه می توانم عملیات زیر را در نمادهای ماتریسی بیان کنم، برای مثال، برای ذخیره 1، می خواهم ضرب کنم؟ مقدار مورد A بر اساس قیمت آن (آن را هزینه کلی A می نامید)، مقدار مورد B با قیمت آن (هزینه کلی B) و مقدار مورد C با قیمت آن (هزینه کلی C)، سپس من می خواهم مجموع را محاسبه کنم. از هزینه کلی هر 3 مورد من می خواهم این عملیات را برای همه فروشگاه ها انجام دهم. | سوال در مورد علامت گذاری عملیات ماتریس |
66343 | من برخی از مقالات و مطالب دیگر را در مورد ارزیابی سیستم های توصیه گر (RS) خوانده ام. اکثر آنها در مورد ویژگی های مختلف RS (مانند دقت، تنوع و غیره) و معیارهای مربوط به وظایف مختلف (مانند RMSE، دقت، فراخوانی و غیره) و برخی از پروتکل ها بحث می کنند. اما من هنوز در مورد پارتیشن بندی داده ها و روش دقیق اعتبار سنجی خیلی واضح نیستم. [شانی، گای، و آسلا گوناوردانا. ارزیابی سیستم های توصیه. کتابچه راهنمای سیستم های توصیه کننده Springer US, 2011. 257-297.] برای مثال، من می خواهم یک الگوریتم CF مبتنی بر کاربر را با بازخورد رتبه بندی ارزیابی کنم. فرمت داده ها رتبه بندی کاربر مورد است. 100 کاربر در مجموعه داده وجود دارد. اکنون می خواهم از روش اعتبارسنجی متقابل 5 برابری استفاده کنم. این راه من است: 1. طبق گفته کاربران، من به طور تصادفی مجموعه داده اصلی را به 5 برابر جدا می کنم. هر فولد شامل 20 کاربر است. 2. برای همه کاربران یک لحظه یکسان تنظیم کردم، به طوری که قبل و بعد از این لحظه زمانی، هر کاربر دارای تعدادی رتبه بندی باشد. دادههای هر کاربر x قبل از لحظه برای ایجاد نمایه کاربر، دادههای بعد از آنی برای اعتبارسنجی پیشبینی رتبه (کاربر x به عنوان کاربر پیشبینی شده) یا فقط پنهان شدن (کاربر x در انتخاب محله) است. 3. برای هر کاربر i در هر 5 تا، یک نمایه کاربری ایجاد می کنم که با بردار رتبه بندی{} برای کاربر i نمایش داده می شود. 4. برای fold-1، برای هر کاربر i در fold-1 شباهت های کاربر بین کاربر i و کاربران در fold-2 ~ fold-5 را محاسبه می کنم و مقدار مناسب k-NN را برای بدست آوردن همسایگی برای هر یک تنظیم می کنم. کاربر. 5. برای هر کاربر i در fold-1، رتبهبندیهای پیشبینیشده را از کاربران محلهاش دریافت میکنم (موارد استفاده نشده توسط کاربر آزمایششده) با یک معادله میانگین رتبهبندی مناسب. 6. محاسبه خطای پیش بینی برای کاربر i. 7. مرحله 2 تا 6 را برای هر بار تکرار کنید (5 برابر همه) و میانگین خطای پیش بینی را دریافت کنید. این یک دور است. 8. از ترکیب پارامترهای مختلف استفاده کنید (مثلاً اندازه همسایگی k-NN)، مرحله 2 تا 7 را چندین بار تکرار کنید تا کمترین خطای پیشبینی (به معنی بهترین ترکیب پارامتر) را به دست آورید. 9. با بهترین ترکیب پارامتر، کمترین خطای پیش بینی را دریافت می کنم و این نتیجه ارزیابی نهایی است. من دو سوال دارم: * آیا این روش برای ارزیابی الگوریتم CF مبتنی بر کاربر **صحیح** است؟ * اگر چنین است، داده های خاص در این روش مربوط به **مفاهیم مجموعه آموزشی، مجموعه تست و مجموعه اعتبارسنجی** از آمار چیست؟ | روش استاندارد برای ارزیابی الگوریتم CF مبتنی بر کاربر با مجموعه داده آفلاین چیست؟ |
23295 | من قبلاً در معرض R قرار گرفته بودم، اما پس از 10 سال دوری از زبان، متوجه شدم که باید از ابتدا شروع کنم. من یک مجموعه داده بزرگ با بیش از 1 میلیون ردیف و 20 متغیر دارم. میدانم که راههای سریعتر و سریعتری برای استخراج آن دادهها وجود دارد، اما مشتری من اصرار دارد که از آزمایش فرضیه برای شناسایی بخشها/خوشههای مهم استفاده کند. من به دنبال کد R هستم که بتواند یک آزمون t ترتیبی را در هر یک از 20 متغیر در یک زمان انجام دهد. فقط متغیرها و نمونه های قابل توجه را در قالب جدول برمی گرداند. واقعا از کمک قدردانی می کنم. | تست متوالی |
32826 | برای یک مسابقه اخیر Kaggle، من (به صورت دستی) 10 ویژگی اضافی را برای مجموعه تمرینی خود تعریف کردم، که سپس برای آموزش یک طبقهبندی تصادفی جنگلها استفاده میشود. من تصمیم گرفتم PCA را روی مجموعه داده با ویژگی های جدید اجرا کنم تا ببینم چگونه آنها با یکدیگر مقایسه می شوند. من دریافتم که 98% از واریانس توسط مؤلفه اول (اولین بردار ویژه) انجام می شود. سپس چندین بار طبقهبندی کننده را آموزش دادم، هر بار یک ویژگی را اضافه کردم و از اعتبارسنجی متقاطع و خطای RMS برای مقایسه کیفیت طبقهبندی استفاده کردم. من متوجه شدم که طبقه بندی ها با هر ویژگی اضافی بهبود می یابد، و نتیجه نهایی (با هر 10 ویژگی جدید) به مراتب بهتر از اجرای اول با (مثلا) 2 ویژگی بود. * با توجه به اینکه PCA ادعا می کند ~98٪ از واریانس در اولین مؤلفه مجموعه داده من است، چرا کیفیت طبقه بندی ها تا این حد بهبود یافته است؟ * آیا این موضوع برای سایر طبقه بندی کننده ها صادق است؟ RF در چندین هسته مقیاس می شود، بنابراین آموزش آن بسیار سریعتر از (مثلاً) SVM است. * اگر مجموعه داده را به فضای PCA تبدیل کرده بودم و طبقهبندی کننده را روی فضای تبدیل شده اجرا میکردم چه میشد. نتایج من چگونه تغییر می کند؟ | PCA و جنگل های تصادفی |
55023 | رگرسیون stata من در حال حاضر دارای متغیر زن است، اما میخواهم آزمایش کنم که آیا جنسیت روی متغیر دیگری اهمیت دارد یا خیر. چگونه می توانم متغیر مرد را ایجاد کنم؟ یا اصلا بهش نیاز دارم؟ آیا حذف متغیر زن نیز کارساز خواهد بود؟ | نحوه ایجاد متغیر male در stata |
32822 | موقعیتی را در نظر بگیرید که در آن ما یک طبقهبندی کننده را اجرا میکنیم (الگوریتم طبقهبندی واقعی در اینجا مهم نیست)، و برچسبهای کلاس بر اساس یک امتیاز داده میشوند. اگر نمره > 0، نقطه داده برچسب A، اگر امتیاز < 0، نقطه داده برچسب B می شود. تمام داده های آموزشی حاوی نقاط داده با نمرات مثبت یا منفی هستند. با این حال، در دادههای آزمایشی من، چند نقطه وجود دارد که امتیاز = 0 را برمیگرداند. * * * [ _اطلاعات اضافی از یک نظر در زیر_] من در یک کار طبقه بندی احساسات با این مشکل مواجه شدم. نمرات نرمال شده در محدوده [-1،1] قرار دارند که 0 امتیاز برای اسناد بدون احساس است. اینطور شد که در داده های آموزشی خود هیچ مدرک خنثی نداشتم، اما در داده های آزمایشی، برخی از مدارک نمره 0 را دریافت کردند. | نحوه محاسبه دقت و یادآوری زمانی که برخی از داده های تست طبقه بندی نشده باقی می مانند |
32821 | امیدوارم کسی بتواند به من کمک کند که از کدام مدل (شکستگی، لایه یا خوشه) برای داده های خود استفاده کنم. من دادههای جفت شدهای دارم، بنابراین باید هنگام مدلسازی Cox PH آن را در نظر بگیرم و مطمئن نیستم کدام مدل نتیجه دقیقتری به من میدهد. مطالعه من به بررسی مدت زمانی بود که یک فرد پس از قرار گرفتن در معرض یک محرک خاص آرام می شد. هر فرد در روزهای جداگانه تحت دو محرک متفاوت قرار گرفت. آنها به طور تصادفی به آنها تقسیم شدند که کدام محرک اول بود. من این را با تجزیه و تحلیل بقا (زمان تا رویداد) مدل کردهام، اما اکنون باید در نظر بگیرم که دادهها جفت شدهاند. هر کمکی در مورد اینکه چه زمانی از مدلهای شکنندگی، لایهها یا خوشهای استفاده میکنید عالی خواهد بود. | از کدام مدل برای خطرات متناسب کاکس با داده های جفت شده استفاده کنم؟ |
73279 | آیا کسی می تواند نتیجه کمی گیج کننده از یک مدل lmer4 در R را روشن کند؟ من یک اثر تصادفی تو در تو دارم، اما واریانس توضیح داده شده توسط هر سطح یکسان به نظر می رسد، و نمی توانم دلیل آن را ببینم. من مجموعه داده ای از مشاهدات زنبور عسل در آرایه های کنترل شده اسنپدراگون ها، با فرکانس های نسبی متفاوت از دو شکل رنگی دارم. پنج تیمار فرکانس وجود دارد و هر کدام سه بار تکرار میشوند، و هر یک از این 15 آزمایش یک کندوی زنبور عسل جداگانه دارد. برای هر آرایه، من روی چندین زنبور مشاهداتی دارم، و میخواهم بدانم چند بار بین یک رنگ یا سوئیچ حرکت میکنند. من این را بهعنوان یک مدل ترکیبی باینری در lme4 مدلسازی میکنم، با استفاده از یک جلوه تصادفی تودرتو برای محاسبه تغییرات ناشی از زنبورهای مختلف، کندوهای مختلف و تکرارهای مختلف: glmer(next_yellow ~ freqY + nflowers + ارتفاع + (1 | bee/ کندو/تکثیر)، داده=ftrans،خانواده=دوجمله ای) بخش ثابت تعیین می کند که آیا فراوانی گیاهان زرد، تعداد گل یا ارتفاع گل پیش بینی می کند که آیا گیاه بعدی که بازدید می شود زرد خواهد بود یا خیر، و همه واضح است. چیزی که من را گیج می کند خروجی اثرات تصادفی است: اثرات تصادفی: نام گروه ها Variance Std.Dev. rep:(hive:bee) (Intercept) 0.24964 0.49964 hive:bee (Intercept) 0.24964 0.49964 bee (Intercept) 0.24964 0.49964 تعداد obs: 1652,2 hive:6;bee کندو:bee, 286; bee, 286 بررسی داده ها نشان می دهد که تنوع زیادی بین زنبورها وجود دارد، و برای تکرار بسیار کم است، اما هنوز همگی آنها 0.24964 تخمین زده می شوند. آیا آماری برای این موضوع وجود دارد؟ یا این احتمال وجود دارد که من چیزی را با کدگذاری متغیرها یا چیز دیگری مخدوش کرده باشم (من به این نگاه کردم و هیچ چیز اشتباهی نمی بینم و همه چیز به عنوان سطوح فاکتور کدگذاری شده است). هر بینش بسیار قدردانی می شود! | چرا واریانس اثرات تصادفی تو در تو یکسان به نظر می رسد؟ |
109599 | اگر می خواهید دو الگوریتم یادگیری را با هم مقایسه کنید، به طور کلی از کدام متریک استفاده کنید: ROC یا دقت؟ من می دانم که در ROC، شما هم حساسیت و هم ویژگی را دریافت می کنید؟ | ROC در مقابل دقت |
107876 | من می خواهم اقتصاد یک بازی آنلاین را مطالعه کنم. به طور خاص می خواهم بررسی کنم که آیا امکان ایجاد یک مدل پیش بینی وجود دارد یا خیر. من سعی میکنم کل مفهوم را توصیف کنم و از کاغذ یا مدلهایی درخواست میکنم که مناسب موقعیت من باشد. من برای مقالات تحقیق کردم اما چیزی پیدا نکردم. کاربران راه های مختلفی برای کسب درآمد دارند. پول رایگان روزانه، فروش، ماموریت و غیره. کاربر می تواند مواردی مانند معجون ایجاد کند و سپس آنها را از طریق یک حراج به کاربران دیگر بفروشد. اقلام دارای قیمت استاندارد نیستند و کاربران با پیشنهاد قیمت آن را تعیین می کنند. همچنین آیتم ها دارای چند خاصیت شفابخشی و غیره هستند. من می خواهم مدلی ایجاد کنم تا پیش بینی کنم که آیا قیمت آیتم ها به دلیل تغییرات دیگر در بازی افزایش یا کاهش می یابد. به عنوان مثال، اگر من پول رایگان روزانه را به کاربران افزایش دهم، پول بیشتری روی اقتصاد می گذارم و می خواهم ببینم قیمت ها به نوعی تغییر می کند یا خیر. یا اگر من ویژگی های کالا را تغییر دهم چگونه این امر بر کل اقتصاد تأثیر می گذارد. من اطلاعات تاریخی واقعی زیادی برای استفاده دارم، اما چیزی مرتبط با این پیدا نکردم. | مدل پیشبینی اقتصاد بازی آنلاین |
24418 | من در یک کلاس روانسنجی در حال بررسی ماتریس چند ویژگی-چند روشی هستم. ما فقط باید بتوانیم آنها را تجزیه و تحلیل کنیم، اما من واقعاً دوست دارم بتوانم آنها را بسازیم. فکر میکنم که بتوانم این کار را انجام دهم (در اصل این بازآرایی ماتریس همبستگی با ضریب آلفا برای قطرها است). من کاملا مطمئن هستم که آن را دریافت کردم، اما یک **مجموعه داده** و یک **مثال MTMM تمام شده** می خواهم (چیزی که شبیه فرمت زیر است): به این ترتیب من میتوانم راهم را طی کنم و مطمئن شوم که محصول نهایی من به نظر میرسد که باید باشد. من چندین ساعت تلاش کردم تا چیزی پیدا کنم اما ناامید هستم و امیدوارم کسی چنین منبعی داشته باشد. من از R استفاده می کنم بنابراین برایم مهم نیست که مجموعه داده در چه فرمتی است. پیشاپیش از کمک شما متشکرم. | یک ماتریس و مجموعه داده چند صفتی-چند روشی |
92798 | در ادامه این سوال $p(h|D) = \frac{p(D|h)p(h)}{p(D)}$p(h) = $احتمال قبلی فرضیه $h$$p (D)$ = احتمال قبلی داده های آموزشی $D$ $p(h|D)$ = احتمال $h$ داده شده $D$ $p(D|h)$ = احتمال $D$ با توجه به $h$ I هستم وارد کردن داده های آموزشی $D$ به یک ماشین به شکل جدولی با $n$ نمونه های آموزشی. ماشین فقط نمونه های آموزشی $m$ را در بین $n$ نمونه های آموزشی خواند تا یک فرضیه به عنوان خروجی بدست آورد. من درک زیر را دارم: . $p(h) = $h$ احتمال قبلی فرضیه $h$ = $\frac{\left\vert{Version- space}\right\vert}{\left\vert{Hypothesis-space}\right\vert}$ $ p(D)$ = احتمال قبلی داده های آموزشی $D$ = $\frac{\left\vert{مشاهده- training-data}\right\vert}{\left\vert{Training-data}\right\vert}$ = $\frac{{m}}{{n}}$$p(D|h)$ = احتمال از $D$ داده شده $h$ = $\frac{\left\vert{Training-examples- satisfied-by-hypothesis-h}\right\vert}{\left\vert{Training data}\right\vert}$ = $\frac{\left\vert{Training-examples-satisfied-by- hypothesis-h} \right\vert}{{n}}$ من نمی دانم چگونه $p(h|D)$ را تفسیر کنم = احتمال $h$ داده شده $D$ در بالا فرم ها آیا درک من در مورد فرمول های مربوط به احتمالات صحیح است و فرمول برای $p(h|D)$ چیست؟ | فرمول های احتمالات در قضیه بیز |
56590 | من در حال خواندن کتابچه راهنمای فنی برای یک مطالعه مرتبط بین دو ارزیابی هستم. کاملاً واضح است که جدول خروجی مدل از یک معادله رگرسیون لجستیک برازش است. شانس قبولی در آزمون 2 به عنوان تابعی از نمره در آزمون 1 (نمره RIT):  احمقانه به نظر می رسد زمانی که مدلی که آن جدول را ساخته می تواند تخمین بهتری بدهد، از یک جدول جستجو استفاده کنید که به عدد 5 می رسد. اما چگونه می توانم آن معادله را از این خروجی بازسازی کنم؟ من درک خوبی از این دارم که اگر دادههای خام را داشته باشم چگونه این مدل را جا میدهم، اما مطمئن نیستم که در اینجا چه کار کنم. «glm(family=دوجملهای)» نیست، زیرا دادههایی که دارم نسبت شانس هستند، نه پاس / بدون عبور (یعنی 1s و 0s)، درست است؟ این دادهها است: PASS <- c(0، 0، 0، 0.01، 0.01، 0.01، 0.02، 0.04، 0.06، 0.1، 0.15، 0.23، 0.33، 0.45، 0.57، 0.7، 0.6، 0.57، 0.7، 0.6 0.94، 0.96، 0.98، 0.99، 0.99، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1) RIT <- c(120L، 125L، 130L، 140L 145 لیتر، 150 لیتر، 155 لیتر، 160 لیتر، 165 لیتر، 170 لیتر، 175 لیتر، 180 لیتر، 185 لیتر، 190 لیتر، 195 لیتر، 200 لیتر، 205 لیتر، 210 لیتر، 215 لیتر، 220 لیتر، 225 لیتر، 230 لیتر، 230 لیتر، 230 لیتر، 230 لیتر، 250 لیتر، 255 لیتر، 260 لیتر، 265 لیتر، 270 لیتر، 275 لیتر، 280 لیتر، 285 لیتر، 290 لیتر، 295 لیتر، 300 لیتر) | معادله رگرسیون لجستیک را از جدول داده های شانس دوباره ایجاد کنید |
107870 | من در جایی چنین جمله ای پیدا کردم، اما از طرف دیگر در برخی منابع یافتم که مشکلی ندارد. در مورد خطر بیش از حد برازش هنگام استفاده از 1-NN در مسئله طبقه بندی باینری که متغیرهای توضیحی مقادیر TF-IDF هستند (اندازه گیری کسینوس) چطور؟ | آیا k-NN با k=1 همیشه به برازش بیش از حد دلالت دارد؟ |
91842 | من یک سوال بسیار اساسی در مورد تنظیم پارامتر با استفاده از جستجوی شبکه دارم. به طور معمول برخی از روش های یادگیری ماشین دارای پارامترهایی هستند که باید با استفاده از جستجوی شبکه تنظیم شوند. برای مثال، در فرمول استاندارد زیر SVMها: $$ \min_w\frac{1}{2}\|w\|^2 + C\sum_{i=0}^{N}{\rm{hinge\ loss }}(x_i,y_i,w) $$ باید پارامتر مدل $C$ را تنظیم کنیم. اگر مجموعه های _training_ و _test_ به من داده شود، ابتدا مجموعه _training_ را به validation_train و validation_test تقسیم می کنم. پارامترها را با استفاده از Validation_train و Validation_test تنظیم کنید و سپس با استفاده از بهترین پارامترها، دوباره در مجموعه آموزشی کامل آموزش دهید و در نهایت تست را روی مجموعه تست انجام دهید. بنابراین سوال من این است که کدام یک از موارد زیر به طور متوسط بهتر است؟ 1. آیا بهتر است از مدل نهایی اعتبارسنجی که بر روی `Validation_train` آموزش داده شده است برای تست نهایی استفاده شود، زیرا پارامترها در این مجموعه آموزشی بهینه شده اند؟ 2. یا بهتر است از کل مجموعه آموزشی استفاده کنیم و مدل را با بهترین پارامترها از جستجوی گرید بازآموزی کنیم؟ اگرچه پارامترها برای این مجموعه بهینه نشده بودند، اما ما داده های آموزشی نهایی بیشتری در این مورد داریم. | چگونه تنظیم پارامترها را برای یادگیری ماشین انجام دهیم؟ |
28743 | آخرین فناوری در محاسبه کارآمد هموارسازی اسپلاین ها چیست؟ الگوریتمی که من اغلب از آن یاد میکنم الگوریتم Reinsch است که به سال 1967 بازمیگردد. همانطور که میدانم، گرانترین بخش انجام تجزیه Cholesky است. از آن زمان تاکنون چه الگوریتم های دیگری برای هموارسازی اسپلاین ها وجود داشته است؟ | پیشرفته ترین در صاف کردن اسپلاین ها |
409 | در حال حاضر من از انحراف معیار میانگین برای تخمین عدم قطعیت استفاده میکنم:  که در آن _N_ به صدها و میانگین یک میانگین سری زمانی (ماهانه) است. سپس آن را به این شکل ارائه میدهم:  برای هر عنصر (ماه) در سری زمانی (سالانه). آیا این معتبر است؟ آیا این برای سری های زمانی مناسب است؟ | چگونه عدم قطعیت اندازه گیری را تقریبی کنیم؟ |
92796 | اخیراً چند کتاب آمار را دوباره خواندم و به نکته عجیبی اشاره کردم: همه آنها مفروضات رگرسیون خطی را مورد بحث قرار می دهند و نیاز به یک متغیر وابسته توزیع شده نرمال را ذکر می کنند. در مرحله بعد، همیشه در مورد متغیرهایی که غیرعادی هستند و درمان بالقوه هستند مانند sqrt، log، معکوس و غیره بحث می شود. اما کتاب ها هرگز در مورد چگونگی تفسیر متغیر تبدیل شده بحث نمی کنند - که به نظر من عجیب است. از آنجایی که یک تابع sqrt تفسیر را از تولید ناخالص داخلی یک ایالت با افزایش 1 شاخص آزادی اجتماعی 1 افزایش می دهد به جعبه تولید ناخالص داخلی یک ایالت تغییر می دهد. هنگامی که شاخص آزادی اجتماعی 1 افزایش می یابد، 1 افزایش می یابد، که کاملاً تفاوت است. آیا کسی می تواند توضیح خوبی در این مورد به من بدهد؟ | تبدیل متغیر وابسته: چگونه آن را تفسیر کنیم؟ |
20386 | در مدلهای خطی، در کتاب من، شاخص شرط به صورت $\sqrt{\lambda_{max} \over \lambda_{min}}$ تعریف میشود که $\lambda_{max}$ حداکثر مقدار ویژه $ZZ^*$ است. ، یعنی ماتریس همبستگی متغیرهای مستقل و $\lambda_{min}$ حداقل مقدار ویژه است. من نتوانستم بفهمم چرا شاخص وضعیت به من کمک می کند تا چند خطی بودن را پیدا کنم. بنابراین، من به توضیح خودم رسیدم: > در تحلیل مؤلفه های اصلی، مقادیر ویژه واریانس داده ها > در هر یک از بردارهای ویژه را توضیح می دهند. بنابراین، داشتن نسبت زیادی از حداکثر مقدار ویژه به > حداقل مقدار ویژه به این معنی است که داده ها را می توان با تعداد کمتری از بردارهای ویژه نسبت به تعداد متغیرهای مستقل توضیح داد، که به این معنی است که بین متغیرهای مستقل همخطی > وجود دارد. با توجه به این موارد، در اینجا سؤالات من وجود دارد. 1. آیا توضیح خودم درست است؟ 2. چه توضیحی بهتر است؟ (لطفا درک کنید که من دانش جبر خطی قوی ندارم. پس لطفا با کلمات خیلی ساده توضیح دهید.) | درک شاخص شرایط مورد استفاده برای یافتن چند خطی |
32794 | در اینجا «قطع» به معنای کاهش دقت اعداد تصادفی و کوتاه نکردن سری اعداد تصادفی است. به عنوان مثال، اگر من $n$ اعداد واقعا تصادفی داشته باشم (از هر توزیعی، به عنوان مثال، نرمال، یکنواخت و غیره) با دقت دلخواه داشته باشم و همه اعداد را کوتاه کنم تا در نهایت به مجموعه ای از اعداد $n$ برسید. ، هر کدام دقیقاً 2 رقم بعد از اعشار دارند. آیا می توانم این مجموعه اعداد جدید را تصادفی بنامم؟ وقتی داشتم در مورد **اعداد تصادفی تولید شده از سخت افزار** می خواندم با این سوال مواجه شدم. مقاله ویکیپدیا میگوید _آنها اعداد تصادفی را با اندازهگیری یک فرآیند فیزیکی تولید میکنند._ اما از آنجایی که این اندازهگیری محدودیتهایی دارد (خطای اندازهگیری، دقت محدود، و غیره)، آیا میتوانیم این اعداد تولید شده از سختافزار را تصادفی بنامیم؟ | آیا اعداد کوتاه شده از یک مولد اعداد تصادفی هنوز تصادفی هستند؟ |
74794 | همچنین، آیا هیچ آموزش/وبلاگ در دسترس است که از آن آگاه هستید؟ | چگونه با استفاده از پایتون اعتبار متقابل سری های زمانی را انجام می دهید؟ |
24412 | این یک سوال اطلاعاتی کمی طولانی است. ما در حال جمعآوری دادهها از یک آزمایش کیفیت آب برای اندازهگیری آلودگی مدفوع هستیم. این آزمایش فلورسانس را در 11 محفظه مجزا اندازه گیری می کند. به دلیل فلورسانس بیشتر محفظه ها، آب آلوده تر است و روشی غیر خطی برای تعیین کمیت آلودگی آب بر اساس تعداد محفظه وجود دارد. یعنی یک محفظه مربوط به سطح آلودگی 2، پنج محفظه 46، ده محفظه 210 و هر یازده محفظه برابر است.. سطح ناشناخته بزرگتر از 210 است. مورد من می توانم سطوح آلودگی را ترسیم کنم، اما چگونه باید بیشتر از 210 را تجسم یا تجزیه و تحلیل کنم؟ آیا اصطلاحی برای این وجود دارد؟ با تشکر | تجزیه و تحلیل داده های طبقه بندی شده در جایی که آخرین دسته نامحدود است |
73276 | یک متغیر تصادفی X را در نظر بگیرید که میخواهیم مقدار آن را با استفاده از تخمینگر MMSE بیزی تخمین بزنیم. اجازه دهید $O_1(X)$ مجموعهای از مشاهدات باشد که به نحوی پیچیده به $X$ بستگی دارد (گرفته شده توسط $P(O_1|X)$) سپس تخمینگر MMSE میانگین شرطی $\hat{X}_1= است. \mathbb{E}[X|O_1]$. اکنون مجموعه دیگری از مشاهدات را در نظر بگیرید که احتمالاً تبدیل پیچیده ای از اولین $O_2(O_1)$ و برآوردگر MMSE مربوطه $\hat{X}_2=\mathbb{E}[X|O_2]$ است. اکنون واضح است که اگر نگاشت $O_2(O_1)$ قطعی باشد، آنگاه $MSE[\hat{X}_1]\le MSE[\hat{X}_2]$ از حداقل MSE $\hat{ X}_1$. سوال من این است که آیا این درست است همچنین زمانی که نگاشت $O_2(O_1)$ احتمالی است، که توسط توزیع شرطی $P(O_2|O_1)$ تعریف می شود. به طور شهودی، باید مانند هر تصادفی دیگر در نقشهبرداری باشد، فقط به نظر میرسد که نویز اضافی ایجاد میکند زیرا به X$$ بستگی ندارد. اما من نمی دانم که آیا کسی می تواند این را به صراحت نشان دهد. ویرایش شده: از آنجایی که برآوردگر MMSE بیطرفانه است، $MSE[\hat{X}_i]=V[\hat{X}_i]$ | برآوردگرهای بیزی MMSE از تبدیل مشاهدات |
23875 | من باید همبستگی بین دو مجموعه داده را پیدا کنم که غیرخطی هستند و فقط مقادیری بین 0 و 10 دارند. هر دو مجموعه دارای تعداد یکسانی از مقادیر هستند. من سعی کردم از R پیرسون استفاده کنم و با اضافه کردن n+10 به هر نقطه داده، مقداری خطی بودن را معرفی کنم. با این حال، این همبستگی قوی را در جایی که واقعاً نباید وجود داشته باشد، معرفی می کند. من با آمار کاملاً تازه کار هستم، بنابراین در اینجا توضیحی غیرعادی از آنچه در تلاشم برای رسیدن به آن هستم، ارائه شده است. من یک پرسشنامه دارم که از مشتریان نمره کلی بین 0-10 می خواهد. سپس چندین سؤال خاص دیگر برای مواردی مانند قیمت، خدمات و غیره میپرسم. این سؤالات نیز 0-10 هستند. من می خواهم میزان همبستگی بین نمره کلی و نمرات سوالات خاص را پیدا کنم. به عنوان مثال، اگر مشتریانی که به قیمت امتیاز بالایی می دهند، نمره کلی بالایی نیز می دهند، می توانم ببینم که قیمت برای مشتری مهم است. در حالی که اگر امتیاز آنها برای خدمات با نمره کلی مطابقت نداشته باشد، کیفیت خدمات برای مشتری اهمیت چندانی ندارد. یک همبستگی کامل در داده های من به این صورت خواهد بود: قیمت: 10، 10، 10، 10 نمره کلی: 10، 10، 10، 10 آیا کسی می تواند ضریب مناسبی برای رسیدن به این هدف پیشنهاد دهد؟ به سلامتی | ضریب همبستگی برای استفاده با مجموعه های محدود غیرخطی |
35444 | مجموعه داده های من کوچک است، تقریباً 12 در هر گروه (دو گروه). علاوه بر این، توزیع داده ها عادی نیست. در نتیجه، من یک آزمون Mann-Whitney U را اجرا کردم. با این حال، من یک ANOVA یک طرفه را نیز اجرا کردم و دقیقاً همان نتایج را گرفتم. کدام آزمایش را باید گزارش کنم و اشکالی ندارد که بگوییم هر دو را با نتایج مساوی اجرا کردم اما فقط ANOVA را گزارش دادم؟ | کدام آزمایش را باید گزارش دهم، ANOVA یا Mann-Whitney؟ |
77372 | من به دنبال راههای خوبی برای تخمین وضعیت واقعی سیستم از روی مجموعهای از مشاهدات هستم که چندین مقدار صحیح را میگیرند. به عنوان مثال من دنباله ای از مشاهدات X_i از متغیر مجهول Y را دارم. هم مشاهدات و هم مقدار واقعی Y متعلق به مجموعه {1،2،3،4،5} هستند. آیا تکنیک خاصی برای این موقعیت ها فراتر از میانگین متحرک وجود دارد؟ به عنوان مثال آیا فیلتر کالمن برای این تنظیمات تنظیم شده یا چیز بهتری وجود دارد؟ | فیلتر کردن داده های گسسته |
107871 | من می خواهم آزمایش کنم که آیا بیماری آلزایمر باعث تغییر در پیری مغز در مقایسه با بیماران سالم می شود یا خیر. بنابراین من یک مدل رگرسیون خطی از پارامترهای طیفی ضبط مغز (ویژگی ها یا متغیرهای وابسته) در مقابل سن (سن متغیر مستقل است) ساخته ام. اکنون میخواهم مدل را بر روی بیماران سالم برازش دهم و سپس از ضرایب برای محاسبه سن مورد انتظار بیماران آلزایمر استفاده کنم - مقایسه میانگین مربعات خطای مجموعه داده سالم و مجموعه دادههای آلزایمر باید به نشان دادن وجود یا عدم وجود تفاوت کمک کند. به پیری ناشی از بیماری (یعنی اگر مدلی که برای بیماران سالم به خوبی کار می کند برای بیماران آلزایمری به طرز بدی شکست بخورد، احتمالاً تفاوت وجود دارد) من حدس می زنم که مدل رگرسیون خطی را بر روی 80٪ بیماران سالم (مجموعه آموزشی) منطبق کنم، 20٪ را عقب نگه دارم ( به عنوان یک مجموعه آزمایشی) برای محاسبه MSE با. من از اعتبارسنجی متقاطع استفاده میکنم، اما در نهایت به تعداد مجموعههای مختلف ضرایب به اندازه چینهایی که دارم، میرسم و چگونه میتوانم بدانم که بیماران آلزایمری را با کدام یک مناسب کنم؟ میانگین ضرایب شاید؟ با این حال، یک مزیت اعتبار سنجی متقاطع این است که من میانگین و انحراف استاندارد تخمین های MSE را از مجموعه بیماران سالم دارم، بنابراین می توانم از آن برای تعیین اهمیت انحراف بین MSE سالم و بیمار استفاده کنم، که مفید است. حدس میزنم میتوانم چندین بار از زیرمجموعههای بیماران آلزایمر نمونهبرداری کنم و مجموعهای از تخمینهای MSE را ایجاد کنم که سپس میتوانم انحراف معیار و میانگین آن را محاسبه کنم تا تصوری از واریانس در آنجا نیز به دست بیاورم، بنابراین میتوانم درباره حساسیت آن اطلاعاتی داشته باشم. به آن مجموعه داده خاص است. (آیا باید این کار را با جایگزینی یعنی بوت استرپ انجام دهم؟ چرا یا چرا که نه؟) هر توصیه ای بسیار قدردانی می شود. | چگونه می توان آزمایش کرد که آیا تفاوت معنی داری در میانگین مربعات خطا بین دو مجموعه داده وجود دارد؟ |
32825 | من مطالعه ای را انجام دادم که در آن یک متغیر واحد به طور مکرر برای هر شرکت کننده، تحت شرایط مختلف اندازه گیری شد. تجزیه و تحلیل این داده ها با SPSS، با استفاده از مدل خطی عمومی -> ANOVA اندازه گیری های مکرر، و مشخص کردن هر معیار در فاکتورهای درون موضوعی، نسبتاً ساده بوده است. مشکل من زمانی پیش میآید که سعی میکنم برخی از دادههای پس از آزمایش را که جمعآوری کردهام، مانند آزمونی که همه شرکتکنندگان پس از آزمایش به پایان رساندند، با نمرات انتگرال بین 0-24 وارد کنم. من میخواهم این را لحاظ کنم تا ببینم این نمرات چگونه با معیارهای درون موضوعی مرتبط هستند و افزودن این دادهها به عنوان یک عامل بین موضوعی منطقی است، اما به دلیل ماهیت متغیر نمره آزمون، من تا 25 دسته دارم که باعث میشود کار با داده غیرممکن است به نظر می رسد که این موضوع باید یک مسئله رایج باشد، و گوگلینگ من کمی به من کمک کرده است، اما بیشتر نمونه هایی که دیده ام از متغیرهای طبقه بندی شده مانند جنسیت برای عوامل بین موضوعی استفاده می کنند. اگر فاکتور بین موضوعی طبقه بندی نشده باشد، چه کار کنم؟ برای هر بینش، نظر و راهنمایی شما بسیار سپاسگزار خواهم بود. با تشکر | چگونه باید داده ها را با متغیرهای اندازه گیری مکرر و فاکتورهای عدد صحیح بین موضوع تجزیه و تحلیل کنم؟ |
91847 | فرض کنید من یک مدل رگرسیون لجستیک مانند این دارم: set.seed(123) df<-data.frame(y=rbinom(100,1,0.5), x1=rnorm(100,10,2), x2=rbinom( 100،20،0.6)) fit<-glm(y~x1*x2,data=df,family=binomial) coef(summary(fit)) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 5.08314564 6.43692399 0.7896855 0.4297115 x1 -0.66691041 0.64071095 -1.04089712 -1.0408912 0.0408971206 0.64071095 -1.04089771206. 0.51254819 -0.5528974 0.5803337 x1:x2 0.04037126 0.05100223 0.7915588 0.4286180 آیا کسی میداند چگونه ماتریس پیشبینی را با فرمت این x2:1:1 x2 x2 دریافت کند 10.506637 10 105.06637 2 1 9.942906 17 169.02941 3 1 9.914259 10 99.14259 4 1 12.737205 11 12941. | چگونه می توان ماتریس پیش بینی را با توجه به فرمول یک مدل رگرسیون در R بازیابی کرد؟ |
107874 | من در حوزه هدف گذاری تبلیغات موبایلی تحلیل داده انجام می دهم. من تقریباً **18 ویژگی** دارم و برای ترکیبی از این ویژگی ها، بسته به اینکه روی قالب کلیک شده باشد یا خیر، نتیجه درست یا نادرست است **(1/0)**. مشکل اینجاست که **کلاس خروجی بسیار کج است**. نرخ کلیک در حدود **0.4%** است. (یعنی مقدار 1 فقط 4 از 1000 بار است). من یک مجموعه داده **2 میلیون ردیف** دارم و از 90٪ به عنوان مجموعه قطار و 10٪ به عنوان مجموعه آزمایشی استفاده می کنم. من از **رگرسیون لجستیک** از بسته **sckit-learn** در **python** استفاده کرده ام. اکنون پس از آموزش مدل خود، تمام مقادیر برای مجموعه تست را به عنوان 0 دریافت می کنم. لطفاً به من بگویید مشکل از چه چیزی می تواند باشد و برای حل آن چه باید بکنم؟ P.S. : من سعی کرده ام اندازه مجموعه داده های خود را افزایش داده و همچنین تعداد ویژگی ها را کاهش دهم (حتی به یک ویژگی). اگر احتمال هر کلاس (0/1) را در مجموعه تست ببینم، حدود 0.002 - 0.005 برای 1 دریافت می کنم. با تشکر | چگونه می توان با یک کلاس کج در طبقه بندی باینری که دارای ویژگی های زیادی است برخورد کرد؟ |
23874 | این پست ادامه پست قبلی من است (که به 'lme' علاقه مند بود) و از همان مجموعه داده استفاده می کند. اکنون می خواهم بدانم چگونه با استفاده از `lme4` آن را تجزیه و تحلیل کنم. ## داده ها داده ها از یک آزمایش رفتاری است که در آن شرکت کنندگان در 6 گروه (بر اساس دو عامل متقاطع) روی 16 کارآزمایی (دو عامل 4 سطحی متقاطع) کار کردند. یعنی یک مجموعه داده «d» با دو عامل بین موضوعی، «گروه» و «شرط»، و دو عامل درون موضوعی (یعنی عوامل اندازه گیری مکرر)، «موضوع» و «مشکل» (من آپلود کردم) داریم. داده ها را در pastebin قرار دهید، بنابراین همه باید بتوانند آن را به دست آورند)، شناسه شرکت کننده 'code' است، dv 'mean' است: > d <- read.table(url(http://pastebin.com/raw.php?i=4hRFyaRj), colClasses = c(rep(factor, 6), numeric)) > str(d) 'data .frame': 2928 obs. از 6 متغیر: کد $ : فاکتور w/ 183 سطح A03U، A08C،...: 1 1 1 1 1 1 1 1 1 1 1 ...
$ group : فاکتور w/ 2 سطح کنترل، تجربی: 2 2 2 2 2 2 2 2 2 2 ... $ شرط: عامل w/ 3 سطح جایگزین،...: 3 3 3 3 3 3 3 3 3 3 ...
$ موضوع : فاکتور w/ 4 سطح 1،2،3،4: 1 1 1 1 2 2 2 2 3 3 ... $ مشکل : فاکتور w/ 4 سطح AC، DA،MP،..: 3 4 1 2 3 4 1 2 3 4 ...
میانگین $ : num 94.5 94.5 86.5 84.5 80 46.5 73.5 43.5 51 39 ... روش معمول برای تجزیه و تحلیل این داده ها برازش ANOVA بر روی این داده ها است (توجه داشته باشید که چگونه عبارت خطا برای عوامل درون موضوعی ساخته می شود): m1 < - aov(mean ~ (شرایط*گروه*مشکل*موضوع) + خطا(کد/(مسئله*موضوع))، د) ## سوال علاقه اصلی من به داده ها موارد زیر است: * آیا تأثیر عامل گروه در هر سطحی (یعنی تأثیر اصلی یا تعامل) وجود دارد؟ امیدوارم وجود نداشته باشد. * آیا تعامل شرط با مشکل وجود دارد؟ یا حتی تعامل شرط با مسئله و موضوع؟ من دو سوال در مورد تجزیه و تحلیل در `lme4` دارم: 1. چگونه می توانم این سوالات را با استفاده از `lme4` مشخص کنم؟ 2. از آنجایی که «lme4» مقادیر p را ارائه نمی دهد، چگونه تعیین کنم که آیا یک متغیر (مثلاً گروه) تأثیری دارد یا خیر (تصور می کنم از نوعی آزمون نسبت درستنمایی استفاده می کنم) و مقدار بحرانی که باید بالاتر از آن باشد چقدر است. اثر را به عنوان مهم بپذیرید؟ همانطور که احتمالاً از توضیحات بالا مشخص است، من نه متخصص در lme4 هستم و نه آماردان، بنابراین هم Venables & Ripley و هم کتاب lme4 توسط Bates کار سختی برای من ایجاد کردند. من را مثل قبل بی خبر رها کرد. | چگونه با استفاده از lme4 این مجموعه داده را با 2 فاکتور بین، دو فاکتور درونی تجزیه و تحلیل کنیم؟ |
32795 | مربع کای مدل من می گوید که مدل «پر» من به طور قابل توجهی بهتر از مدل تهی نیست. اما -2LL من 80 است (آیا این _کم_زیبا نیست؟) و Nagelkerke $R^2$ من 0.20 است. از طرف دیگر، یک IV قابل توجه در مدل من وجود ندارد... پس چگونه باید -2LL پایین تر و 0.20 Nagelkerke $R^2$ نه چندان کوچک را تفسیر کنم؟ | چگونه می توان مقدار نسبتاً خوب -2LL و Nagelkerke $R ^2$ را بدون هیچ IV قابل توجهی تفسیر کرد |
71282 | من سعی می کنم تراکم هسته را برای تعداد روزهایی که یک کودک بیمار است تخمین بزنم. حدود 73 درصد از کودکان گزارش می دهند که بیمار نیستند، یعنی صفر. چگونه می توانم چگالی هسته را برای این متغیر سانسور شده با استفاده از Stata تخمین بزنم؟ | تخمین چگالی هسته برای یک متغیر با تعداد زیادی صفر |
67967 | من یک ماتریس $x=N\times M$ از نقاط داده $N$ دارم که هر کدام دارای ویژگیهای $M$ هستند. همچنین $y$ بردار برچسب های باینری است. در مورد من، $N$ بسیار کوچکتر از $M$ است، بنابراین قبل از اجرای یک طبقهبندی کننده مانند SVM از PCA برای کاهش ابعاد استفاده کردم. من 100 مؤلفه اول را انتخاب کردم که 85 درصد واریانس را توضیح داد. SVM با آن 100 ویژگی به من تبعیض ضعیفی از AUC ~ 0.6 داد. اخیراً به روش دیگری برای کاهش ابعاد فکر کردم، که در مورد اعتبار آن مطمئن نیستم: هر ویژگی یک بردار از مقادیر $N$ است که میتوان آنها را با توجه به برچسبها به 2 بردار مختلف جدا کرد. بنابراین برای هر ویژگی، میتوانم محاسبه کنم که چقدر میتواند دو کلاس را به تنهایی با استفاده از AUC یا حتی فقط p-value یک آزمون t (با توجه به اینکه هیستوگرامها عادی هستند) متمایز کند. مشکل این روش، وابستگی بردارهای ویژگی است. آیا کسی می داند چگونه می توانم بهترین بردارهای ویژگی $k$ را انتخاب کنم که با هم کلاس ها را به بهترین شکل متمایز می کنند؟ | تمایز و کاهش ابعاد |
20385 | من در حال حاضر در جستجوی الگوریتمی هستم که با توجه به تاریخچه قیمت ها (30، 50، 100، ...) تعیین کند که آیا زمان خرید چیزی (یک کالا، یک سهام، یک سرویس و غیره) فرا رسیده است یا خیر. ایده من چیزی شبیه به این است: > با توجه به تاریخچه قیمت ها، شما باید همین الان خرید کنید زیرا احتمال دارد قیمت > افزایش یابد. یا، > با توجه به تاریخچه قیمت ها، احتمالاً قیمت حتی کمتر هم می شود، بنابراین > باید منتظر خرید باشید. من برای یافتن این مورد در گوگل جستجو کردم، اما فکر می کنم ممکن است کلمات کلیدی مناسبی را وارد نکرده باشم، زیرا نتوانستم چیزی پیدا کنم. این یا این وجود ندارد زیرا قابل اعتماد نیست. آمار نقطه قوت اصلی من نیست، اما الگوریتم ها هستند. اگر دانشی از یک مطالعه ریاضی در این زمینه دارید، من هم آن را قبول خواهم کرد. | الگوریتمی برای ارزیابی اینکه آیا باید اکنون بخرید یا صبر کنید |
35442 | من سعی می کنم راهی برای انجام رگرسیون لجستیک تودرتو در R پیدا کنم که متناسب با نیازهای من باشد. من یک مجموعه داده بسیار بزرگ با تقریبا 200 متغیر در دسترس دارم. من بهترین مدل خود را پیدا کرده ام و شامل 12 مورد از این متغیرها است. من از مشکلات استفاده از 12 متغیر در رگرسیون لجستیک آگاه هستم و نمی خواهم آنها را در اینجا پوشش دهم. من از این مدل برای پیش بینی احتمال ترک تحصیل دانش آموز از دبیرستان استفاده می کنم. مجموعه دادهای که من استفاده میکنم شامل دانشآموزانی است که احتمال آنها را پیشبینی میکنم، دادههای گمشدهای دارد. مثلاً بگویید مدل من این است: ترک تحصیل ~ نرخ حضور + ثبت نام + سن اختلاف + نژاد + غیبت ها حالا بگویید برای دانش آموز خاصی مشخص نیست که چند غیبت داشته است. من از تابع پیش بینی برای یافتن احتمالات خروج از مدل خود استفاده می کنم. اگر یکی از متغیرها گم شده باشد یا NA باشد، هیچ احتمال پیش بینی شده ای وجود ندارد زیرا NA است. برای رفع این مشکل می خواهم از رگرسیون لجستیک تودرتو استفاده کنم. بنابراین برای دانشآموزی با مقدار گمشده در «غیبت»، مدل Dropout ~ AttendanceRate + Enrollments + AgeDiff + Race است، من در حال حاضر از تابع glm برای انجام رگرسیون لجستیک خود استفاده میکنم. من درک می کنم که نمی تواند رگرسیون لجستیک تودرتو انجام دهد. بنابراین چگونه می توانم رگرسیون لجستیک تودرتو را از مدل کامل خود انجام دهم تا بتوانم احتمال ترک تحصیل دانش آموزان را بدون توجه به متغیر یا متغیرهایی که ممکن است گم شده باشد، پیش بینی کنم. من متوجه هستم که استفاده از مدلهای تودرتو به قدرت مدل من برای اهداف پیشبینی آسیب میزند، اما حاضرم آن را فدای اهدافم کنم. هر گونه پیشنهاد؟ | رگرسیون لجستیک تو در تو در R |
61526 | تست متوالی برای سری های زمانی رایج است. به یک نوع تست SupF یا یک آزمون چو برای شکست ساختاری در پارامترها در شبکه ای از نقاط داده فکر کنید. بنابراین، ما آمارهای زیادی (به تعداد نقاط داده و مدول چند نقطه از ابتدا و پایان) و مقادیر P مربوط به آنها داریم. FDR برای مورد مستقل خوب است، آنچه که من توضیح دادم آمار تست بسیار همبسته را نشان می دهد، بنابراین FDR بسیار محدود کننده است. یعنی رد شدن نشانه واضحی برای وقفه است، اما عدم رد شدن.. ممکن است به این دلیل باشد که ما نقاط داده زیادی داریم (بنابراین FDR_pv کوچک است)، من می توانم روی شبکه درشت تر جستجو کنم تا تعداد تست ها را کاهش دهم، بنابراین حداکثر بیش از یک شبکه = {1،2،3،...،T} ممکن است رد نشود، اما حداکثر بیش از یک شبکه = {1،3،5،...، T} ممکن است رد شود، که باعث نمی شود خیلی زیاد حس آیا کسی آشنایی دارد و ممکن است بتواند برخی از ارجاعات را برای پسوند FDR به دامنه سری زمانی ارائه دهد؟ | پسوند FDR به دامنه سری زمانی؟ |
56596 | من یک مجموعه داده از مقادیر x و y دارم که میخواهم یک تناسب خطی روی آن ایجاد کنم. با استفاده از «polyfit(x,y,1)» ضرایب «a» و «b» را برای برازش خطی «ax = b» برای این داده به دست میآورم، اما همچنین میخواهم عدم قطعیت یا انحراف استاندارد را برای این ضرایب پیدا کنم. . کسی راه آسانی برای انجام این کار می شناسد؟ Google-fu من فقط این نتیجه را به من داد و از آنجایی که به عنوان آخرین پاسخ در آن تاپیک اصلاحی بر پاسخ اول است، نمی دانم که آیا باید به هر یک از پاسخ ها اعتماد کنم یا خیر. پاسخ آن تاپیک این است: [z,s]=polyfit(x,y,1); ste = sqrt(diag(inv(s.R)*inv(s.R')).*s.normr.^2./s.df); | یافتن عدم قطعیت در ضرایب از polyfit در Matlab |
61529 | من مطمئن نیستم که کدام تحلیل برای تحلیل مسیر یا SEM (مدل سازی معادلات ساختاری) مناسب تر است. من به روابط بین تعدادی از متغیرها نگاه می کنم که توسط مقیاس ها اندازه گیری شده اند (یعنی خرده مقیاس های برون گرایی و روان رنجوری BFI، خرده مقیاس خودپسندی SLSC-R، و غیره) فکر می کنم دو انتخاب دارم: 1. رفتار یک SEM با استفاده از هر سوال/موضوع به عنوان شاخص عاملی که زیرمقیاس نشان دهنده آن است. ترازوهایی که من استفاده می کنم از 4 ماده تا 10 مورد متفاوت است. خطای اندازه گیری کنترل می شود اما تناسب مدل ممکن است به دلیل پیچیدگی بیشتر دشوارتر باشد. 2. یک تحلیل مسیر را با استفاده از نمرات ترکیبی خرده مقیاس ها به عنوان متغیرهای مشاهده شده انجام دهید و تنها یک تحلیل مسیر انجام دهید. فرض عدم خطای اندازه گیری با تشکر از راهنمایی شما. | SEM یا تحلیل مسیر: متغیرهای پنهان با آیتم های جداگانه به عنوان شاخص، یا امتیازات ترکیبی به عنوان متغیرهای مشاهده شده؟ |
56042 | توزیع $\bar{X}^{-1}$ با X یک متغیر تصادفی پیوسته iid است که به طور یکنواخت توزیع شده است؟ آیا می توانم از CLT در اینجا استفاده کنم؟ | توزیع $\bar{X}^{-1}$ چگونه است؟ |
61521 | من میخواهم بر اساس یک اندازهگیری انسانشناختی، نقطه برش جنسیت را پیدا کنم. من میتوانم منحنیها را ترسیم کنم و میدانم که در صورتی که حساسیت و ویژگی هر دو به یک اندازه مهم هستند، باید نزدیکترین نقطه به گوشه سمت چپ بالای کادر (یا اگر منحنی منفی است، نزدیکترین نقطه به گوشه پایین سمت راست) تعیین شود. به عنوان برش. با این حال، من نمی دانم که آیا تابعی از قبل در R یا برنامه های دیگری برای تعیین این موضوع وجود دارد یا خیر؟ فقط می دانم که SPSS چنین عملکردی ندارد. آیا برنامه یا R را می شناسید که بتواند آن را از طریق یک تابع از قبل پیاده سازی شده انجام دهد؟ | نقطه برش در منحنی ROC. آیا یک تابع ساده وجود دارد؟ |
56593 | همانطور که از عنوان پیداست، چگونه باید K را در K-Nearest Neighbours تنظیم کنید؟ آیا این فقط یک مورد است که مقادیر کمتر K بیشتر مستعد برازش شدن هستند و مقادیر بزرگتر K احتمالاً انعکاس دقیق تری ارائه می دهند (کمتر مستعد نویز هستند). همچنین مقدار بهینه K تا حد زیادی به مجموعه آموزشی بستگی دارد، اما من نمیدانستم که آیا یک تکنیک کلی وجود دارد که استفاده میشود؟ | به طور کلی چگونه K را در K-NN تنظیم می کنید؟ |
23879 | فرض کنید من یک کد ساده مانند آنچه در زیر آمده است دارم. مرتب سازی proc; توسط var1 var2; اجرا؛ proc gplot; نمودار y*x ; توسط var1 var2; اجرا؛ در خروجی، یک دسته نمودار وجود دارد. علاوه بر تمام ترکیبهای مقادیر var1 و var2، نمودارهایی را نیز دریافت میکنم که در آن «var1=.» در ترکیب با هر مقدار var2 (و غیره) وجود دارد. آیا «var1=.» به این معنی است که طرح شامل تمام مقادیر var1 است؟ یا داده هایی که در آن var1 به نوعی خالی است؟ یا چیز دیگری؟ آیا راهی وجود دارد که بتوانم اینها را چاپ نکنم (یعنی اگر دقیقاً به تعداد ترکیبهای var1 و var2 نمودار بخواهم؟) این فقط برای دو متغیر مهم نیست، اما در هنگام استفاده از متغیرهای بیشتر، نمودارهای اضافی زیادی ایجاد می کند. با تشکر | SAS: هنگام استفاده از دستور by، var1 = . میانگین در خروجی؟ |
27140 | من یک بازی رولت را شبیه سازی می کنم (در R)، که در آن قماربازی را شبیه سازی می کنم که با 100 پوند شروع می شود، طبق استراتژی 10 بار چرخ را می چرخاند (مثلاً 5 پوند برای هر چرخش روی قرمز شرط می بندم). در پایان این شبیه سازی موجودی بانک یا بیشتر یا کمتر از 100 پوند خواهد بود. اگر بالاتر باشد، چرخش یک برد و در غیر این صورت یک باخت در نظر گرفته می شود. با اجرای 100 بار بالا، می توانم نسبت دفعاتی را که یک برد اتفاق افتاده است محاسبه کنم و آن را به صورت عددی بین 0 و 1 ارائه کنم. سوال من این است که چگونه می توانم انحراف معیار را برای این عدد اعمال کنم؟ آیا برای انجام این کار باید موارد فوق (شبیه سازی شبیه سازی ها) را چندین بار شبیه سازی کنم؟ چون کمی طول میکشه... | محاسبه انحراف معیار خروجی یک آزمایش عددی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.