_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
48944
من یک مجموعه داده بقا دارم. من می‌خواهم تغییرات خاص خوشه‌ای را ببینم، که معمولاً می‌توانیم با استفاده از مدل خطر متناسب کاکس با شکنندگی انجام دهیم. اما، فرض نسبت خطر ثابت Cox PH ممکن است در برخی شرایط مناسب نباشد، به ویژه زمانی که نرخ خطر افراد مختلف با نرخ مرگ و میر جمعیت همگرا شود. در این شرایط، یک مدل شانس متناسب ممکن است مناسب تر باشد. اما چگونه می توانیم یک مدل شانس متناسب با اثر تصادفی (شکنندگی) انجام دهیم؟ آیا بسته R برای این کار موجود است؟
مدل شانس متناسب با اثرات تصادفی
89557
من چند سوال در مورد محدودیت های SVM و ANN برای مشکل چند کلاسه دارم. من در مورد استراتژی های یک در برابر همه و همه در برابر همه می دانم اما فقط می خواهم محدودیت SVM و ANN منحصر به فرد را بدانم. آیا محدودیت نظری برای تعداد کلاس هایی که یک SVM می تواند یاد بگیرد وجود دارد؟ من فرض می‌کنم که اگر بردارهای زیادی وجود داشته باشند، می‌توانند همپوشانی داشته باشند و SVM به درستی کار نمی‌کند. در مورد شبکه های عصبی مصنوعی چطور؟ آیا به تعداد نورون های خروجی مربوط می شود؟ آیا می توانیم ردپای حافظه را بر اساس تعداد بردارها و نورون ها محاسبه کنیم؟
محدود کردن چند طبقه بندی SVM - ANN
19350
اگر میانگین، s.d.، میانه و شمارش برای نمونه A و همینطور برای نمونه B داشته باشم، می توانم نمونه ها را دور بریزم و دقیقاً میانگین، میانه و s.d را محاسبه کنم. برای ترکیب؟ خوب میانگین آسان است. این سوال در کد R است: a=c(1,2,3,4,5) b=c(2,2,3,4,4,5) c=c(a,b) m=(( length(a)*mean(a)) + (length(b)*mean(b)) ) / (length(a)+length(b)) print(mean(c) == m) #TRUE s= ? ?? print(sd(c) == s) d= ??? print(median(c) == d) چند چیز را برای s.d امتحان کردم. اما شکست خورد. من هیچ ایده ای برای میانه نداشتم. (برای s.d. نزدیکترین چیزی که من دریافت کردم var(a)*(length(a)-1) بود، همین کار را برای b انجام دادم، سپس مجموع را بر طول(a)+طول(b)-1 تقسیم کردم. 1.733 در مقایسه با var(c) از 1.7636.) به عنوان یک مثال عملی، اگر من تیک های سهام را جمع آوری کنم، میانگین، میانه و را محاسبه می کنم. sd برای هر دوره 1 دقیقه. آیا می توانم از آن نوارهای 1 دقیقه ای برای ایجاد همان داده ها برای نوارهای 5 دقیقه ای استفاده کنم و از داده های نوار 5 دقیقه ای برای ایجاد میله های ساعتی و غیره استفاده کنم؟ یا اگر بخواهم بدانم s.d. برای بارهای هفتگی آیا باید کنه ها را نگه دارم و یک هفته کامل کنه را در حافظه بارگذاری کنم؟ (بله، متوجه هستم که می‌توانم با تیک زدن با میله‌های دقیقه‌ای خود به اندازه کافی تقریبی از پاسخ هفتگی به دست بیاورم، اما می‌خواستم تصورم را تأیید کنم که وقتی تیک‌ها را دور انداختم، پاسخ دقیق غیرممکن است.) به‌روزرسانی: داده شده است. که من اشتباه کردم و گرفتن s.d. امکان پذیر است (پاسخ های زیر را ببینید)، اکنون در تعجب هستم که آیا میانه نیز غیرممکن نیست؟ به عنوان مثال اگر من انحراف مطلق میانه (`mad()` در R) را برای هر دوره فرعی هم بدانم چطور؟
چگونه انحراف معیار کلی را از انحراف معیار زیردوره ها محاسبه کنیم؟
19351
من قبلاً یک سؤال ارسال کردم که در آن ذکر کردم که به یادگیری یادگیری ماشین علاقه مند هستم اما پیشینه من در آمار و احتمال بسیار ضعیف است. اخیراً صفحاتی از 2 کتاب را پیش‌نمایش کردم که به نظر می‌رسد کاملاً با نیازهای من مطابقت دارند. من فقط می خواستم بدانم با توجه به سابقه و اهدافم، جامعه در مورد انتخاب های احتمالی من چه فکری می کند. (1) همه آمار: دوره مختصر در استنتاج آماری توسط لری واسرمن. به نظر من خوب است، اما نویسنده پاسخی برای مشکلات تمرینی ارائه نمی دهد (چه رسد به یک راه حل). (2) کتابی به ظاهر کمتر شناخته شده اما دوباره مختصر: احتمالات و آمار برای دانشمندان کامپیوتر نوشته مایکل بارون آیا نظری در مورد این کتاب ها یا جایگزین های خوبی دارید؟ فقط برای تاکید، من یک دانشجوی CS هستم که به دنبال سرعت گرفتن با احتمال و آمار برای یادگیری ماشین هستم. من در این مرحله فقط به دنبال پیشنهاد **کتاب** هستم نه وب سایت یا فیلم.
یادگیری احتمال و آمار با هم
363
اگر می‌توانستید به گذشته برگردید و به خودتان بگویید که در ابتدای کار خود به عنوان آمارگیر کتاب خاصی را بخوانید، آن کتاب کدام کتاب است؟
تاثیرگذارترین کتابی که هر آمارشناس باید بخواند چیست؟
51915
من می خواهم یک پروپوزال به این شکل طراحی کنم: $$ p(t=(t_i)|\hat{t}=(\hat{t}_i)) $$ where $t$ (و $\hat{t} $) در یک ابرصفحه همبسته قرار دارد $T \ زیر مجموعه R^n$: $$ t \in T \فلش سمت چپ \sum_i t_i=1 $$ در حالت ایده‌آل می‌خواهم به چیزی شبیه به: $$ نزدیک شوم (t_i)| (\hat{t}_i) \sim \mathcal{N}((\hat{t}_i),\sigma^2 I) $$ با این محدودیت که $\sum_i t_i=1$ (یا هر چیزی مشابه طعم). یک استراتژی بصری می تواند منجر به الگوریتم زیر شود: 1) $\tilde{t}_i \sim \mathcal{N}(\hat{t_i},\sigma)$ 2 به صورت جداگانه نمونه برداری کنید) سپس $t_i = \frac{\ را مجدداً عادی کنید tilde{t}_i}{\sum_j \tilde{t}_j}$، اما به نظر من مشخص کردن پیشنهاد حاصل (و به ویژه محاسبه $\frac{p(t=(t_i)|\hat{t}=(\hat{t}_i))}{p(\hat{t}=(\hat{t}_i))|t=( t_i))}$ همانطور که من آن را در یک الگوریتم سرعت کلان شهر اعمال می کنم). آیا کسی پیشنهاد جایگزین یا ایده ای در مورد نحوه برخورد با $\frac{p(t=(t_i)|\hat{t}=(\hat{t}_i))}{p(\hat{t} دارد؟ =(\hat{t}_i))|t=(t_i))}$ ? توجه: من با $n$ بزرگ ($T \زیر مجموعه R^n$) سر و کار دارم و بنابراین به یک استراتژی کاملا کارآمد نیاز دارم.
تولید یک بردار تصادفی در یک ابرصفحه افین
83732
من سعی می کنم مقدار مجذور کای را برای داده های برازش خود محاسبه کنم: $$ \chi^2 = \sum_i^n{\frac{(y-f(x))^2}{f(x)}} $$ where $ f(x)$ مقادیر نظری از تابع برازش و $y$ مشاهدات هستند. با این حال، اگر مقادیر مورد انتظار خیلی کوچک باشند، من (منطقی) اعداد بسیار بزرگ را دریافت می کنم. به عنوان مثال، اگر من chi-squared را برای مقادیری که در زیر لیست شده است محاسبه کنم، در نتیجه (در C++): -inf را دریافت خواهم کرد. اما نرم افزار آماری که من از آن به عنوان مرجع استفاده می کنم، خی دو را 0.39 خروجی می دهد. لطفا راهنمایی کنید که من چه اشتباهی انجام می دهم؟ داده های نمونه به شرح زیر است: y: | f(x): 0 | 0.000233516 0 | 0.000748074 0 | 0.00226688 1 | 0.00649784 1 | 0.0176183 1 | 0.0451873 1 | 0.109628 0 | 0.251586 0 | 0.546141 0 | 1.12145 0 | 2.17825 1 | 4.00215 3 | 6.9556 6 | 11.4349 17 | 17.7821 22 | 26.1572 42 | 36.3961 41 | 47.9043 61 | 59.6417 79 | 70.2394 83 | 78.2468 82 | 82.4535 74 | 82.1877 81 | 77.4925 58 | 69.1145 73 | 58.3087 39 | 46.5322 34 | 35.1261 14 | 25.082 24 | 16.9414 19 | 10.8241 16 | 6.5417 11 | 3.73977 4 | 2.02234 4 | 1.03448 4 | 0.500544 4 | 0.229097 2 | 0.0991863 2 | 0.04062 2 | 0.0157356 1 | 0.00576612 2 | 0.00199866 1 | 0.000655315 0 | 0.000203244 0 | 5.96265e-05 0 | 1.65469e-05 0 | 4.34361e-06 0 | 1.07855e-06 0 | 2.53329e-07 1 | 5.62841e-08
مجذور کای Goodness of Fit - مقادیر مورد انتظار بسیار کوچک
87608
من چند آزمایش/روش بر روی داده های خود انجام داده ام و نتایج متناقضی دریافت می کنم. من یک مدل خطی دارم که می گوید: reg1 = lm (وزن = قد + سن + جنسیت (طبقه ای) + چندین متغیر دیگر). اگر هر عبارت را به صورت خطی مدل کنم، یعنی بدون عبارت مجذور یا تعاملی، و vif(reg1) را اجرا کنم، 4 متغیر >15 خواهد بود. اگر متغیری را با بالاترین عدد vif حذف کنم و دوباره آن را اجرا کنم گیف ها تغییر می کنند و اکنون فقط 2 متغیر > 15 هستند. این کار را تکرار می کنم تا زمانی که 20 متغیر (از 30 متغیر) زیر 10 باقی بمانم. اگر به طور مستقیم روی reg1 از گام به گام استفاده کنم، فاکتور 'بالاترین vic' را حذف نمی کند. ** من نمی فهمم که چگونه به من می گوید چه چیزی به طور خطی به چه متغیری و چگونه وابسته است (و به نظر می رسد با وجود جستجوی طولانی مدت نمی توانم این اطلاعات را پیدا کنم).** علاوه بر این، وقتی به نمودارهای باقی مانده نگاه می کنم ، بیشتر آنها افقی به نظر می رسند به جز تعدادی که وارونه و منحنی هستند (هیچکدام از اینها vif بالایی ندارند). آیا این بدان معناست که یک تحول لازم است؟ (من نقاط پرت، نقاط اهرمی و غیره را حذف کردم - اما اکنون به نظر می رسد بیشتر وجود دارد!) reg2 = lm (وزن = (قد + سن + جنسیت (مقوله) + چندین متغیر دیگر)^2). اگر من vif را روی این اجرا کنم، همه شرایط > 500 هستند! چه چیز دیگری را امتحان کرده‌ام (بدون برش هیچ متغیر): (1) وقتی عیب‌یابی را اجرا می‌کنم و با آمار دوربین واستون بررسی می‌کنم که نشان می‌دهد مدل خطی نیست... (2) باکس کاکس لامبدا = را می‌دهد، خطاها مرتبط به نظر می‌رسند. 1 بنابراین نیازی به تغییر نیست. (3) LASSO کمترین cp را در مدل کامل 30 متغیر (یعنی حداقل مربعات) می دهد (4) رگرسیون Ridge لامبدا = 0 را می دهد که من را شگفت زده کرد. من واقعاً در مورد این داده ها گیج می شوم. ** برای تعیین یک مدل مناسب برای وزن، باید فقط به عبارت های خطی نگاه کنم یا اصطلاحات خطی و تعاملی (به یاد داشته باشید که 25 متغیر وجود دارد، بنابراین 30^2 عبارت تعاملی وجود دارد)؟** وقتی بررسی می کنم که کدام یک فقط در reg2 مهم هستند. 12 پیش‌بینی‌کننده و 6 عبارت تعاملی مهم به نظر می‌رسند (AIC با این ترکیب پس از اجرای مرحله پایین‌ترین مقدار است). ** آیا باید فقط از این «مدل جدید با متغیرهای حذف شده/شرایط تعامل» استفاده کنم و تمام آزمایشاتم را انجام دهم، به عنوان مثال؟ روش گام به گام، LASSO و غیره یا آیا این کار را روی کل مدل انجام می دهم؟** از نظر درک مراحل برای یافتن یک مدل مناسب برای وزن با استفاده از متغیرها کاملاً گم می شوم. ** آخرین سوال من این است که وقتی مدل را داشتم - چگونه می توانم آن را آزمایش کنم/ثابت کنم که بهترین مدل است/مدل مناسبی است؟** هر کمکی واقعاً قابل قدردانی است.
در مورد چند خطی بودن، انتخاب متغیر و اصطلاحات تعامل سردرگم است
105782
اگر عملکردی دارید که می‌خواهید شبکه عصبی آن را یاد بگیرد و نمونه‌های کافی از داده‌ها با پوشش مناسب دارید و هیچ نویز در داده‌ها وجود ندارد، آیا انتظار رسیدن به نرخ خطا (تقریباً) صفر منطقی است. ، یعنی دقت 100% با یک شبکه عصبی؟
اگر داده ها بدون نویز باشند، آیا یک شبکه عصبی می تواند به دقت 100% دست یابد؟
3888
من یک سری boxplot دارم که با ggplot2 تولید می کنم. من می خواهم ترتیب نمایش آنها را کنترل کنم. آیا راهی برای کنترل این نظم وجود دارد؟ من دو ژنوتیپ دارم و می‌خواهم آنها را به‌عنوان WT و سپس KO به جای معکوس (که به عنوان پیش‌فرض دریافت می‌کنم) نمایش داده شوند. کد من در حال حاضر این است: p <- qplot (ژنوتیپ، فعالیت. نسبت، داده = df) p + geom_boxplot() + geom_jitter() همچنین اگر این به عنوان یک سوال SO بهتر از این انجمن است، لطفا به من اطلاع دهید (و اگر این انجمن درستی است که کسی می تواند یک برچسب ggplot ایجاد کند).
مرتب سازی مجدد داده های دسته بندی شده در ggplot2
7531
من داده‌های مربوط به مدت زمان فرآیند (بر حسب دقیقه) و اجزای (روش‌های) انجام شده در طول آن را دارم به این صورت (CSV): * * * id,time,p1,p2,p3,p4 1,30,1,0,0,0 2,32,1,0,0,0 3,56,1,1,0,0 4,78,1,1,0,1 5,78,1,1,0,1 6,100,1,1,1,1 7,98,0,1,1,1 من باید مدت زمان هر مؤلفه را تخمین بزنم (روش) می خواهم چیزی شبیه به این بدست بیاورم: مؤلفه، زمان حداکثر، زمان حداقل، میانگین زمان، زمان SD، نمونه‌های p1,... p2,.... p3,... p4,.... **توجه:** من به زمان تخمینی رویه‌ها نیاز دارم نه زمان فرآیندهایی که رویه استفاده شده است. فکر می‌کنم راه‌حل ابتدا باید همه ترکیب‌ها را گروه‌بندی کند و سپس رویه‌های ساده (1 فرآیند = 1 رویه) زمان باید ارزیابی شود $$t_1 = 30$$ #id=1 $$t_1 = 32$$ #id=2 سپس پیچیده‌تر اقدامات باید انجام شود: برای مثال، زمان رویه 2 (از نمونه) را می توان با تفریق محاسبه کرد: $$t_1 = \sum{(t_1+t_2+t_3+t_4)} - \sum{(t_2+t_3+t_4)} = 100 - 98 = 2$$ # ID 6 - 7$$t_2 = \sum{(t_1+t_2) } - t_1 = 56 - 30\pm1 = 26\pm1$$ #id 3 - (1,2) $$t_3 = \sum{(t_1+t_2+t_3+t_4)} - \sum{(t_1+t_2+t_4)} = 100 - 78 = 22$$ # ID 6 - 5 $$t_4 = \sum{( t_1+t_2+t_4)} - \sum{(t_1+t_2)} = 78 - 56 = 22$$ #id 4 - 3 سپس میانگین، SD، حداقل، حداکثر برای همه $t_i$ محاسبه می‌شود. اگر چندین روش وجود داشته باشد، همیشه زمان برای هر یک از آنها با تقسیم زمان ترکیب بر اندازه ترکیب محاسبه می شود. من فکر می کنم این روش باید فقط قبل از خروجی نتیجه انجام شود. همچنین ممکن است نوعی اصلاح برای رویه هایی باشد که در طول این توالی انجام می شوند. ممکن است محدودیت تکرار وجود داشته باشد، یا شرط توقف وجود داشته باشد، سپس آخرین تکرار در مقایسه با قبلی تغییری در نتیجه نداشته باشد یا کمتر از 1٪ تغییر کند. بخش دوم، مقایسه زمان‌های رویه زمانی است که به طور جداگانه و در ترکیب با موارد دیگر انجام می‌شود. و برای تخمین موثرترین (کاهش زمان کل) و بی اثر (افزایش زمان کل) ترکیب روش. سوال این است: * چگونه می توان به این امر دست یافت؟ * چه روش هایی باید/می توان استفاده کرد؟ * برای این کار از چه نرم افزارهای آماری می توان استفاده کرد؟
رگرسیون چندگانه با پیش بینی کننده های باینری. تجزیه و تحلیل ارزش مولفه
88603
می خواهم بدانم چرا رگرسیون لجستیک را مدل خطی می نامند. از یک تابع سیگموئید استفاده می کند که خطی نیست. پس چرا رگرسیون لجستیک یک مدل خطی است؟
چرا رگرسیون لجستیک یک مدل خطی است؟
48941
فرض کنید کسی می‌خواهد تخمین حداکثر احتمال $x^{MLE}$ یک بردار غیرتصادفی $x \in \mathcal{R}^{p}$ را با استفاده از $n$ اندازه‌گیری‌های $z_1, \dots, z_n \in بدست آورد. \mathcal{R}^k$. مشاهدات تابع غیر خطی $x$ هستند که با (iid) نویز گوسی میانگین صفر $w_i$ با ماتریس کوواریانس شناخته شده $R_i$: $$ z_i = f(x) + w_i $$ من می دانم که اگر $f (\cdot)$ تابع خطی $x$ بود، سپس $$ S(x^{MLE}) = \sum_i (z_i - f(x^{MLE}))^T R_i^{-1} (z_i - f(x^{MLE})) $$ بر اساس توزیع $\chi^2$ با $nk-p$ توزیع خواهد شد درجات آزادی اکنون برای $f(\cdot)$ غیر خطی: 1. آیا $S(x^{MLE})$ بر اساس توزیع $\chi^2$ توزیع شده است؟ اگر بله، درجات آزادی آن چقدر است؟ 2. فرض کنید $S(x^{MLE})$ تقریباً بر اساس توزیع $\chi^2$ با همان درجات آزادی توزیع شده است. فرض کنید ما از صحت مدل مطمئن هستیم: توزیع نویز، فرض نویز iid، و غیره. برآورد حداکثر احتمال $x^{MLE}$ با احتمال معین با بررسی احتمال بدست آوردن $S(\tilde{x})$؟
آزمون کای دو برای حداقل مربعات غیر خطی
110152
فرض کنید من جمعیتی دارم که بر اساس جنسیت و گروه سنی طبقه بندی شده اند. با داشتن نسبت آنها، چگونه باید واحدهای نمونه گیری را برای مصاحبه انتخاب کنم؟ چگونه از رعایت سهمیه های تعریف شده اطمینان حاصل کنم؟ مثلاً اگر مصاحبه کننده قبلاً سهمیه آقایان را کسب کرده باشد، آیا باید از مصاحبه با مرد بالای 85 سال خودداری کند تا بتواند به سهمیه گروه سنی خود (یک مورد نادر) دست یابد؟ اگر نتواند ویژگی ها را از قبل تعیین کند چه؟ آیا او باید مشاهده را حذف کند؟
یک نمونه سهمیه چگونه باید اجرا شود؟
369
بگویید من برنامه‌ای دارم که فید خبری را رصد می‌کند و در حین نظارت بر آن، می‌خواهم بفهمم چه زمانی یک دسته داستان با یک کلمه کلیدی خاص در عنوان منتشر می‌شود. در حالت ایده‌آل، من می‌خواهم بدانم چه زمانی تعداد غیرمعمولی از داستان‌ها در اطراف یکدیگر جمع شده‌اند. من در تجزیه و تحلیل آماری کاملاً تازه کار هستم و نمی دانم چگونه به این مشکل برخورد می کنید. چگونه انتخاب می کنید که چه متغیرهایی را در نظر بگیرید؟ چه ویژگی های مسئله بر انتخاب الگوریتم شما تأثیر می گذارد؟ سپس، چه الگوریتمی را انتخاب می کنید و چرا؟ با تشکر، و اگر مشکل نیاز به توضیح دارد لطفا به من اطلاع دهید.
کار بر روی یک مشکل خوشه بندی
51918
کد و خروجی زیر را در نظر بگیرید: par(mfrow=c(3,2)) # تولید داده تصادفی از توزیع ویبول x = rweibull(20, 8, 2) # Quantile-Quantile Plot برای توزیع های مختلف qqPlot(x, log- عادی) qqPlot(x، نرمال) qqPlot(x، نمایی، DB = TRUE) qqPlot(x، cauchy) qqPlot(x، weibull) qqPlot(x، لجستیک) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fnXnH.jpg) به نظر می رسد که طرح Q-Q برای log-normal تقریباً مشابه نمودار Q-Q برای ویبول است. چگونه می توانیم آنها را تشخیص دهیم؟ همچنین اگر نقاط در ناحیه ای باشند که توسط دو خط سیاه بیرونی تعریف شده است، آیا این نشان می دهد که از توزیع مشخص شده پیروی می کنند؟
تفسیر طرح Q-Q
7683
من در تلاش برای یافتن روشی برای کاهش تعداد دسته‌ها در داده‌های اسمی یا ترتیبی هستم. به عنوان مثال، فرض کنید که من می خواهم یک مدل رگرسیون بر روی مجموعه داده ای بسازم که تعدادی فاکتور اسمی و ترتیبی دارد. در حالی که من با این مرحله مشکلی ندارم، اغلب با موقعیت هایی مواجه می شوم که یک ویژگی اسمی بدون مشاهدات در مجموعه آموزشی است، اما متعاقباً در مجموعه داده اعتبارسنجی وجود دارد. زمانی که مدل با موارد دیده نشده (تاکنون) ارائه می شود، این به طور طبیعی منجر به ایجاد خطا و خطا می شود. موقعیت دیگری که می‌خواهم مقوله‌ها را ترکیب کنم، زمانی است که مقوله‌های بسیار زیاد با مشاهدات کم وجود دارد. بنابراین سؤالات من این است: * در حالی که می‌دانم شاید بهترین کار این باشد که بسیاری از دسته‌های اسمی (و ترتیبی) را بر اساس اطلاعات پیش‌زمینه دنیای واقعی قبلی که آنها ارائه می‌دهند، ترکیب کنیم، آیا روش‌های _سیستماتیک_ (ترجیحاً بسته‌های «R») در دسترس هستند؟ * چه رهنمودها و پیشنهادهایی در مورد، آستانه های برش و غیره ارائه می دهید؟ * محبوب ترین راه حل ها در ادبیات چیست؟ * آیا استراتژی های دیگری به جز ترکیب دسته های کوچک اسمی در یک دسته جدید، دیگر وجود دارد؟ لطفاً اگر پیشنهادات دیگری هم دارید با ما تماس بگیرید.
روش هایی برای ادغام / کاهش دسته ها در داده های ترتیبی یا اسمی؟
16121
من سری داده های 1 بعدی دارم که در فواصل زمانی زوج نمونه برداری شده اند. آنها پر سر و صدا هستند اما دقیقاً همان منحنی (ناشناخته) زیرین را دارند - با یک تفاوت: آنها در زمان با مقداری تاو ناشناخته جبران می شوند. بهترین (محکم ترین) برآورد آن تاو چیست؟ همچنین تخمینی که بتوان به سرعت محاسبه کرد (که جزو لحظه های توزیع نیست) چیست؟
برای دو سری داده نمونه برداری افست، بهترین تخمین افست بین آنها چیست؟
110157
من با یک مدل بهینه‌سازی اقتصادی کار می‌کنم که تلاش می‌کند پویایی یک بازار کالای خاص (قیمت‌ها، مقادیر، تولید و غیره) را برای فرکانس‌های مختلف (ماهانه، فصلی، سالانه) مدل کند. این مدل از بسیاری جهات خوب کار می کند، اما می توان دید که خروجی مدل قیمت به طور سیستماتیک اشتباه است. در اینجا یک طرح شماتیک وجود دارد: ![Plot 1](http://i.imgur.com/lPf0ZoT.jpg) همانطور که می بینید، خروجی مدل به طور سیستماتیک داده های تاریخی را از نظر حرکات بالا و پایین دست کم می گیرد. قیمت شبیه‌سازی‌شده در مقایسه با داده‌های تاریخی بسیار کند عمل می‌کند. (ویرایش: مدل یک مدل آماری نیست. یک مدل بهینه‌سازی اقتصادی بنیادی است: هر مصرف‌کننده و تولیدکننده به صورت جداگانه سود خود را تحت محدودیت‌های خاصی بهینه می‌کند. در نرم افزار GAMS نوشته شده است و شامل هزاران کد خط است.) سوالات من: 1. برای تصحیح خطای سیستماتیک در خروجی مدل از چه روش آماری استفاده کنم؟ 2. مدل همچنین یک پیش بینی تولید می کند. آیا راهی برای اصلاح سوگیری پیش بینی شده در پیش بینی وجود دارد؟ (من با R و MATLAB کار می کنم) پیشاپیش از شما متشکرم
چه روش آماری برای تصحیح خطای سیستماتیک در خروجی یک مدل بهینه سازی اقتصادی وجود دارد؟
7534
من یک جدول احتمالی دارم که ثابت نیست، بسته به داده ها متفاوت است. من می خواهم بدانم یک سلول خاص در مقایسه با سلول های دیگر چقدر مهم است. آیا روشی برای این کار وجود دارد؟
چگونه تعیین می کنید که آیا یک سلول خاص از جدول اقتضایی i x j از نظر آماری در بین تمام سلول های دیگر معنادار است؟
7532
می خواهم از شما بپرسم که تعداد لگ های صحیح در تست ARCH LM چقدر است؟ من به ArchTest در بسته FinTS اشاره می کنم، اما ArchTest های دیگر (مانند مورد در Eviews) نتایج مشابهی را ارائه می دهند. در بسیاری از سری های زمانی، زمانی که من Lags را بین 1:5 انتخاب می کنم، p.value معمولا بالاتر از 0.05 است، اما با افزایش Lags، p.value کوچکتر می شود. پس چگونه می توان تصمیم درست را انجام داد اگر برای lag=1، سری زمانی همسان به نظر می رسد (بدون اثرات ARCH)، اما برای تاخیر=5 و lags=12 نتیجه ناهمسان (وجود ACH) یا معکوس است؟ با تشکر جان #کد مثال در کتابخانه R library(quantmod) (FinTS) getSymbols(XPT/USD,src=oanda) ret_xptusd<-as.numeric(diff(log(XPTUSD))) ones<-rep (1500) ols<-lm(ts(ret_xptusd)~ones);ols residuals<-ols$residuals ArchTest(residuals,lags=1) # p-value = 0.008499 ArchTest(residuals,lags=5) # p-value = 0.08166 ArchTest(residuals,lags=12) #p-value = 0.
چگونه با استفاده از تست ARCH LM تعداد لگ ها را در مدل های ARCH انتخاب کنیم؟
65186
شاید این یک سوال احمقانه باشد، اما هنگام تولید یک مدل با caret و استفاده از چیزی مانند LOOCV یا (حتی بیشتر از آن) LGOCV، تقسیم داده ها به مجموعه های قطار و آزمایش چه فایده ای دارد اگر اساساً این کار باشد. مرحله اعتبارسنجی متقاطع به هر حال چه می کند؟ من برخی از سوالات مرتبط را خواندم و آنها پیشنهاد کردند که برخی از روش‌های اعتبارسنجی متقاطع (به عنوان مثال آنچه در اینجا در سایت caret توضیح داده شده است) با هدف _انتخاب ویژگی_ است. اما در مورد من، من از «randomForest» («روش = «rf»») و «kernlab» («روش = svmRadial») استفاده می‌کنم، که در گروهی که تلاش می‌کند پیش‌بینی‌کننده‌ها را پاک کند، فهرست نشده‌اند. بنابراین، سؤال من این است که اگر از چیزی مانند «cross_val <- trainControl(method = LGOCV, p = 0.8) استفاده کنم، آیا این همان آموزش بر روی 80٪ از داده های من نیست، و مدل حاصل را روی بقیه آزمایش می کنم. 20 درصد، و این کار را بارها و بارها انجام می‌دهید تا ایده خوبی درباره عملکرد مدل داشته باشید؟ اگر چنین است، آیا نیازی به تقسیم داده های من به مجموعه های قطار/آزمایش وجود دارد؟ P.S. من تا حدودی در حال انجام مدل‌هایی بر روی نمونه‌های اولیه DOE تولید شده تجربی هستم (به کالاهای سخت فکر کنید که در آن ورودی‌ها را تغییر می‌دهیم و سپس از روش‌های آزمایشی برای اندازه‌گیری ویژگی‌های مختلف در مورد نمونه اولیه استفاده می‌کنیم). به این ترتیب، من مجموعه داده‌ای بزرگ با سطوح پیش‌بینی‌کننده متداخل زیادی برای مدل‌سازی ندارم - ما اغلب یک آزمایش را در هر نقطه مورد علاقه DOE اجرا می‌کنیم، زیرا تولید داده در این مورد گران است. بنابراین، من می‌خواهم از تمام داده‌هایی که می‌توانم برای یک مدل دقیق استفاده کنم، اما می‌خواستم اینجا بررسی کنم که چیزی واضح را از دست ندهم و با تقسیم نکردن چیزها، یک مدل ضعیف ایجاد کنم. * * * **ویرایش:** در پاسخ به سوال @topepo، من ویژگی های اندازه گیری فیزیکی یک ترکیب را بر اساس تنظیم ورودی های شیمیایی فرمول مدل می کنم. من نمی توانم در مورد کاربرد واقعی خود بحث کنم، اما یک مثال بر اساس فرمول بندی رنگ لاتکس داخلی می سازم. من آزمایش‌های طراحی‌شده‌ای را انجام می‌دهم که در آن 4-5 ماده شیمیایی را با هم ترکیب می‌کنیم، شاید با درصد مواد جامد بازی می‌کنیم، و مقداری زمان برای گرم کردن محلول پلیمر برای تنظیم درجه پلیمریزاسیون. سپس ممکن است رئولوژی، وزن مولکولی، سختی پوشش رنگ، مقاومت در برابر آب و غیره را اندازه گیری کنیم. ما تکرارهای مناسبی از چندین متغیر داریم، اما تعداد کمی تکرار _true_ به این معنا که هر سطح DOE دقیقاً یکسان بود. مجموع مجموعه داده 80 مشاهده است و شاید 4-5 تکرار دقیق باشد. ما 15 آزمایش مختلف انجام داده‌ایم، و شاید 5-6 مورد از آنها برای هر مشاهده انجام شده باشد. برخی از پاسخ ها برای 25-50 درصد داده ها وجود دارد. از اینجا، ما می‌خواهیم اثرات 7 پیش‌بینی‌کننده خود را بر روی ویژگی‌های خروجی مدل‌سازی کنیم و سپس بهینه‌سازی کنیم تا فضاهای طراحی جدیدی را هدف قرار دهیم که به احتمال زیاد ویژگی‌های مورد نظر را ارائه می‌دهند. (از این رو سوال من اینجاست. هنگامی که یک مدل آموزش دیده داشتم، خوب است که معکوس را انجام دهم و پاسخ های دلخواه را برای به دست آوردن بهترین حدس در سطوح ورودی ممکن برای امتحان بعدی انجام دهم).
R/caret: آموزش و مجموعه تست در مقابل اعتبارسنجی متقابل؟
19355
با استفاده از دستور R «پیش‌بینی»، اگر مقدار پیش‌بینی تقریباً یکسان باشد، در مرحله بعد چه کاری می‌توانم انجام دهم؟ به عنوان مثال، یک مدل سری زمانی به عنوان مدل AR(1) تعیین می شود و من مقدار بعدی را پیش بینی می کنم اما بسیار مشکوک است. (دوره داده ها = 12 و دوره پیش بینی = 12 ماه، 1 سال) داده های نمونه در زیر آمده است. آیا این بدان معناست که فقط چند داده اولیه در دسترس است؟ و من می توانم فقط چند دوره زمانی آینده را پیش بینی کنم؟ 2459853 2481777 2496666 2506778 2513645 2518309 2521476 2523627 2525088 2526080 2526754 2527211 من در مورد همه چیز فکر می کنم. داده ها در زیر داده های اصلی و داده های اول مقدار پیش بینی شده است. با تشکر > 2935833 2622529 2719635 2625179 2311187 2101758 2552638 2883423 3128904 > 2959348 2759000 223285 223375 2625675 2326076 1662956 1772409 > 1797275 2639852 2799990 3133285 2438296 2583766 2610157 2499999 2610157 2499990 2283420 2505128 2873785 2339727 2985829 3037351 1828265 1038562 > 1474727 1523331 2122667 2522524 2522526 2155973 2294976 2809652 > 2436293 2561852 2199544 2674423 2551363 3110508 3177925 3046952 283029 > 283029 2809172 3136842 3355368 3604565 3013310 3125751 2548605 > 2646575 2231458 1962095 1958019 2123026 2142305 2356447 2427571
سری های زمانی بعدی را در مقدار پیش بینی R پیش بینی کنید
91929
من در حال مطالعه تجزیه و تحلیل مقایسه ای از الگوریتم های دو خوشه ای برای داده های بیان ژن هستم (Eren, Kemal, et al. - 2013) هنگام توضیح روش چنگ و چرچ، می گوید: > نشان داده شد که MSR در یافتن دو خوشه ثابت، ردیف ثابت موفق است. > و دو خوشه ستونی، و دو خوشه شیفت. من خیلی جستجو کردم اما نتوانستم تعریفی از دو خوشه شیفت پیدا کنم. ### ویرایش من تعریف **دو خوشه شیفت کامل** را در کتاب خوشه بندی منیفولد خطی مبتنی بر مدل یافتم: > یک دو خوشه (الگو) شیفت کامل، همبستگی های مثبت کامل را بین زیرمجموعه ای از ویژگی ها القا می کند. آیا می توانم فرض کنم که دو خوشه های شیفت دو خوشه هایی با همبستگی مثبت قوی هستند (در صورت همبستگی های مثبت کامل، دو خوشه های شیفت کامل)؟
دو خوشه شیفت چیست؟
110158
اگر انتخاب را بر روی برخی از متغیرهای هزینه رگرسیون کنیم، پس معنای ضرایب را چگونه تفسیر می کنید؟ در این مقاله منتشر شده در American Economic Review، پیوند: http://economics.mit.edu/files/4513 بر اساس نتایج تخمینی در جدول 1، نویسندگان به این نتیجه رسیدند که افراد مایلند بیش از 300 دلار برای پوشش کامل سوراخ دونات بپردازند. (این یک طرح بیمه است که سوراخ های دونات مدیکر را پوشش می دهد. این یک متغیر ساختگی با ضریب 1.865 است) من نمی توانم درک کنم چگونه نویسندگان می توانند بر اساس نتایج برآورد لاجیت به این نتیجه برسند! لطفا با آن کمک کنید؟
تفسیر نتایج لاجیت بر حسب دلار
10984
من برای توضیح دادن این موضوع مشکل دارم (از این رو عنوان عجیب و طولانی)، همچنین من یک ریاضیدان نیستم، من این داده ها را در یک پایگاه داده دارم و در تعجب بودم که چگونه می توانم آن را تجسم کنم (~~ و آینده را پیش بینی کنم ~~ ) فرض کنید من داده های زیر را برای یک کاربر به شما دادم، می تواند هر چیزی را نشان دهد، برای مثال بگوید نشان می دهد که آیا کسی در یک روز خاص دویده است (یا هر کار دیگری را انجام داده است): تاریخ انجام شد؟ 19/05/2011 بله 18/05/2011 خیر 17/05/2011 خیر 16/05/2011 نه 15/05/2011 نه 14/05/2011 بله 13/05/2011 بله 12/05/2011 بله 05/2011 بله 10/05/2011 خیر 9/05/2011 بله 8/05/2011 خیر 7/05/2011 نه 6/05/2011 بله 5/05/2011 خیر 4/05/2011 بله من چند سوال دارم: 1 چه داده هایی را می توانید از این استخراج کنید؟ چگونه می توان این را نشان داد (به غیر از نمودار دایره ای، نمودار میله ای و کل). 2. آیا به هر حال می توان پیش بینی کرد که فردا چه خواهند کرد؟ 3. من از کران پایین فاصله اطمینان نمره ویلسون برای پارامتر برنولی استفاده کردم تا نمره را بفهمم... این به چه معناست، آیا به هر حال این کار مفید است؟
چگونه می توانید احتمال انجام کاری را با توجه به داده های قبلی پیش بینی کنید؟
10985
آیا کسی می تواند به من نشان دهد که چرا پارامتر پراکندگی توزیع دو جمله ای منفی یک در نظر گرفته می شود؟ در مورد پواسون می توانید نشان دهید که $E(y)/V(y)=\mu/\mu=1$ که به آن equidispersion می گویند. اما چگونه می توانید نشان دهید که پارامتر پراکندگی توزیع دوجمله ای منفی نیز 1 است؟
پارامتر پراکندگی توزیع negbin
51916
من یک مجموعه داده دارم و وقتی از KS-Test استفاده می کنم، D=1$ دریافت می کنم. مهم نیست از چه توزیعی استفاده می کنم. به عنوان مثال، موارد زیر را در نظر بگیرید: ks.test(datapnorm) ks.test(datapexp) برای این موارد، من دریافت می کنم: D = 1، p-value < 2.2e-16 فرضیه جایگزین: دو- sided داده هایی که من دارم نمایی به نظر می رسد. با این حال KS-Test برعکس را نشان می دهد. چرا؟
آزمون کولموگروف اسمیرنوف
110156
من با مجموعه داده ساعتی دمای هوا کار می کنم که در 200 ایستگاه در یک منطقه نسبتاً کوچک ثبت شده است. من یک واریوگرام فضا-زمان (مثلاً مجموع-متریک) را برای مطابقت با داده هایم انتخاب کردم و اکنون سعی می کنم روی ایستگاه های مشابه خود پیش بینی کنم تا شکاف های NA (مقدار از دست رفته) را پر کنم. هنگام استفاده از تابع ()krigeST بر روی داده‌های انباشته روزانه، به نظر می‌رسد همه چیز نرم و روان پیش می‌رود، اما وقتی از آن در وضوح ساعتی اصلی استفاده می‌کنم، همیشه خطای زیر را دریافت می‌کنم: خطا در chol.default (A) مینور اصلی مرتبه 68 مثبت نیست. قطعی من آن را در گوگل جستجو کردم و متوجه شدم که مربوط به یک ماتریس است که کاملاً مثبت - قطعی نیست. با این حال، من مطمئن نیستم که چرا این اتفاق می‌افتد و نمی‌دانم که آیا هیچ یک از شما راهی برای رفع آن می‌داند (راه‌حلی برای جلوگیری از آن). با تشکر * * * در مدل نیمه متغیریگرام تجربی، مقادیر اولیه قطعه و تمام پارامترهای دیگر را مشخص می کنم. سپس مقدار بهینه با استفاده از تابع fit.variogram() پیدا می‌شود که مقدار 0 را برای قطعه مکانی، زمانی و مشترک مکانی-زمانی برمی‌گرداند. به نظر شما مشکل از اینجاست؟ چرا یک قطعه 0 باعث آن می شود؟ به طور کلی، من سعی نمی کنم از طریق یک شبکه فضایی پیش بینی کنم، بلکه سعی می کنم بر اساس مشاهداتی که برای توسعه واریوگرام استفاده می کنم، پیش بینی کنم. دلیل اینکه من باید این کار را انجام دهم این است که چندین مقدار NA را در مجموعه داده مکانی-زمانی خود پر کنم. روشی که من پس از انتخاب مدل واریوگرام، تخمین را انجام می‌دهم، اعتبارسنجی متقاطع است، از این رو، مقادیر مکانی-زمانی را در یک ایستگاه نظارتی معین، با استفاده از تعداد معینی از همسایگان آن ایستگاه، پیش‌بینی می‌کنم. تقریباً با توجه به تعدادی از همسایگان، مقدار 1 ایستگاه را در هر زمان تخمین می زنم. من سعی کردم مقادیرم را به حداکثر، حداقل، دمای میانگین روزانه جمع کنم و دیگر آن خطا را دریافت نمی کنم. در آن صورت، قطعات تخمینی من، به غیر از قطعه مشترک فضا-زمان، 0 نیستند.
R خطا در chol.default(A) krigeST از بسته gstat
82959
در چندین جا ادعایی دیدم مبنی بر اینکه MANOVA مانند ANOVA به علاوه آنالیز تفکیک خطی (LDA) است، اما همیشه به روشی دست تکان داده می شد. من می خواهم بدانم دقیقاً به چه معناست؟ من کتاب‌های درسی مختلفی پیدا کردم که تمام ماشین‌های MANOVA را توصیف می‌کردند (Hotelling- Lawley trace، Wilk lambda و غیره)، اما یافتن بحث عمومی خوب (چه رسد به _تصاویر_) برای کسی که آمارشناس نیست بسیار سخت است.
MANOVA چگونه با LDA مرتبط است؟
88606
من نسبتاً با R جدید هستم و سعی می کنم مدلی را با داده ها تطبیق دهم که از یک ستون دسته بندی و یک ستون عددی (صحیح) تشکیل شده است. متغیر وابسته یک عدد پیوسته است. داده ها دارای فرمت زیر هستند: predCateg، predIntNum، ResponseVar داده ها چیزی شبیه به این هستند: رتبه بندی، سن_در_سال، طبقه بندی_شاخص ثروت_A، 99، 1234.56 دسته_A، 21، 12.34 دسته_A، 42، 235، 234.57، من مدل می کنم این (احتمالاً با استفاده از GLM)، در R؟ [[ویرایش]] به تازگی به ذهن من رسیده است (پس از تجزیه و تحلیل داده ها به طور کامل)، که متغیر مستقل طبقه بندی در واقع مرتب شده است. بنابراین من پاسخ ارائه شده قبلی را به صورت زیر تغییر دادم: > fit2 <- glm(wealth_indicator ~ ordered(ranking) + age_in_years, data=amort2) > > fit2 Call: glm(formula = wealth_indicator ~ ordered(ranking) + age_in_years, data = amort2) ضرایب: (برق) مرتب (رتبه بندی).L ordered(ranking).Q ordered(ranking).C age_in_years 0.0578500 -0.0055454 -0.0013000 0.0007603 0.0036818 Degrees of Freedom: 39 Total (i.e. Null); 35 انحراف صفر باقیمانده: 0.004924 انحراف باقیمانده: 0.00012 AIC: -383.2 > > fit3 <- glm(wealth_indicator ~ ordered(ranking) + age_in_years + ordered(ranking)*age_in_years, g data=amort. شاخص_ثروت ~ مرتب (رتبه‌بندی) + سن_در_سال + مرتبه(رتبه‌بندی) * سن_در_سال، داده = amort2) ضرایب: (انتقال) مرتب (رتبه‌بندی). ordered(ranking).L: سن_در_سال 0.0021019 0.0036818 -0.0006640 ordered(ranking).Q:age_in_years ordered(ranking).C: سن_در_سال 0.0004848 -0.0002439 N.39 مجموع درجه رایگان 32 انحراف تهی باقیمانده: 0.004924 انحراف باقیمانده: 5.931e-05 AIC: -405.4 من کمی گیج شده ام که چه چیزی «مرتب (رتبه بندی).C»، «مرتب (رتبه بندی).Q» و «مرتب (رتبه بندی).L» در خروجی معنی داشته باشد، و قدردان کمک در درک این خروجی و نحوه استفاده از آن برای پیش بینی متغیر پاسخ
رگرسیون چندگانه با پیش بینی کننده های مقوله ای و عددی
10982
من یک تازه کار در آمار هستم. من روی توزیع لاپلاس برای الگوریتم کار می کنم. * آیا می توانید اول به من بگویید که چهار لحظه توزیع لاپلاس چیست؟ * آیا مانند توزیع کوشی دم بی نهایت دارد؟ * قاعده تجربی چیست؟
لحظات توزیع لاپلاس
10981
من دوباره یک سوال از math.stackexchange.com ارسال می کنم، فکر می کنم پاسخ فعلی در math.se درست نیست. $n$ اعداد را از مجموعه $\\{1,2,...,U\\}$ انتخاب کنید، $y_i$ همان $i$th شماره انتخاب شده است و $x_i$ رتبه $y_i$ در اعداد $n$ انتخاب بدون تعویض است. $n$ همیشه کوچکتر از $U$ است. رتبه ترتیب یک عدد بعد از مرتب شدن اعداد $n$ به ترتیب صعودی است. ما می توانیم $n$ نقاط داده $(x_1، y_1)، (x_2، y_2)، ...، (x_n، y_n)$، و بهترین خط مناسب برای این نقاط داده را می توان با رگرسیون خطی پیدا کرد. $r_{xy}$ (ضریب همبستگی) خوب بودن خط تناسب است، من می‌خواهم $\mathbb{E}(r_{xy})$ یا $\mathbb{E}(r_{xy}^2) را محاسبه کنم. $ (همبستگی تعیین). اگر نمی توان $\mathbb{E}[r_{xy}]$ را محاسبه کرد، یک تخمین یا کران پایین هنوز هم درست است. به روز شده: با محاسبه ضریب همبستگی نمونه با استفاده از داده های تولید شده به صورت تصادفی، می بینیم که $r_{xy}$ کاملاً به 1 بسته است، بنابراین می خواهم آن را از نظر تئوری اثبات کنم یا به صورت نظری داده های تولید شده با روش فوق را بگویم. بسیار خطی است به روز شده: آیا می توان توزیع ضریب همبستگی نمونه را بدست آورد؟
محاسبه انتظارات ریاضی از ضریب همبستگی یا $R^2$ در رگرسیون خطی
51913
من در تلاش برای مقایسه دو نمونه در SPSS هستم. من یک نمونه 350 از گروه 1 و 350 از گروه 2 گرفته ام. حال می خواهم این دو گروه را که با یک متغیر فیلتر مشخص می شوند (0 یا 1 بر اساس اینکه در نمونه بودند یا نه) مقایسه کنم. می خواهید چندین متغیر را در مورد آنها مقایسه کنید (به عنوان مثال: سن، تعداد مدرک تحصیلی، مبلغ اهدا). به نظر می رسد نمی توانم چیزهای مناسب را در جعبه های مناسب برای آزمون t قرار دهم. من سعی کردم فایل را به چند روش تقسیم کنم، متغیرهای ساختگی ایجاد کنم... آیا کسی راهی برای انجام این کار می داند؟ ممنون، تد
2 نمونه، آزمون t با چند متغیر وابسته SPSS
105787
> برآوردگر $b_1=\frac{\sum y_i}{\sum x_i}$ را در نظر بگیرید. فرض کنید $y_i = > \beta x_i + \epsilon_i$, $E[\epsilon_i]=0$, $E[\epsilon_i \epsilon_j] (i > \neq j)$ و $E[\epsilon_i^2]= \sigma_i^2$. مدلی برای واریانس > $b_1$ پیدا کنید که تخمینگر آن آبی است. پاسخ قرار است این باشد: > $v_i=x_i$ و $\sigma_i^2=\sigma^2 x_i$ با این حال، من مطمئن نیستم که چگونه به این پاسخ رسیدند. کسی میتونه لطفا کمک کنه؟ * * * _Update:_ من سعی کردم واریانس $b_1$ را محاسبه کنم. دریافت می‌کنم: $$ {\rm Var}(b_1)=\frac 1 {(∑x^2_i)^2}∑x^2_i\ {\rm Var}(\varepsilon_i) $$ من نمی‌دانم چگونه من می توانستم از اینجا ادامه دهم یا اینکه آیا این کار درستی بود.
حداقل مربعات وزنی
64856
من یک فضای 10 بعدی دارم که حاوی نقاطی است که دارای 1 یا 0 هستند. مثال دو نقطه : point1 : 1,1,1,0,0,0,1,1,0,1 point2 : 1,0,1,0,0,0,1,0,0,0 کدام تابع فاصله باید برای این استفاده کنم من اقلیدسی و منهتن را امتحان کرده‌ام اما نمی‌دانم کدام یک نسبت به دیگری برتری دارد؟ این داده باینری است (1=حال، 0=غایب) برای نشان دادن پیوندهایی که با یک کاربر مرتبط است. برای مثال، اولین رقم باینری ممکن است نشان دهد که کاربر www.google.com را پیکربندی کرده است یا خیر. خوشه های پیوندها هر کدام شامل پیوندهای کاربران خواهند بود. برای هر خوشه، من می‌خواهم هر پیوندی را که یک کاربر اضافه کرده است، اما دیگری اضافه نکرده است، توصیه کنم، این فقط برای کاربرانی در همان خوشه است. بنابراین من حدس می‌زنم این یک سیستم توصیه مبتنی بر خوشه‌بندی k-means است.
در این سناریو از چه روش مسافتی استفاده کنیم؟
65454
فقط کنجکاو هستم که وقتی از تابع دقت در SDMtools یک MAPE 10.69 دریافت می کنم، خروجی 10.96٪ یا 1069٪ است. این واقعا گیج کننده است با تشکر.
accuracy() خروجی MAPE، آیا خروجی از قبل به صورت درصد است؟
112598
من یک رگرسیون چند جمله ای را با استفاده از فرمول زیر انجام دادم: lm(انحراف ~ poly(myDF$distance,3,raw=T)) با این حال، خروجی خلاصه بیان می کند که تنها جمله سوم مهم است: ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (فاصله) -0.014825 0.095987 -0.154 0.8774 poly(myDF$distance, 3, raw = T)1 0.031286 0.143283 0.218 3(rawmyF$distance,218 0.827$) = -0.080363 0.065591 -1.225 0.2215 poly(myDF$distance, 3, raw = T)3 0.021517 0.009377 2.295 0.0224 * این چگونه تفسیر می شود؟ اولین حدس من این است که فقط مدل کامل درجه سوم (شامل شرایط درجه پایین تر) به طور قابل توجهی بهتر از فرضیه صفر با داده ها مطابقت دارد. آیا این درست است؟ به زبان ساده: آیا بی اهمیت بودن عبارت های درجه یک و دو به خوبی مدل لطمه می زند؟
تفسیر خروجی رگرسیون چند جمله ای در R
82951
من روی پروژه‌ای کار می‌کنم که در آن سعی می‌کنم تأثیر مخارج مشاوره‌ای که شرکت‌ها در سال قبل انجام داده‌اند را بر چندین چهره اقتصادی تعیین کنم. مجموعه داده من شامل تقریباً 2000 شرکت مختلف همراه با داده های 2 تا 7 ساله است، در نتیجه همه متغیرهای پیوسته تغییر شکل داده می شوند و تقریباً در یک مقیاس متفاوت هستند. برای توضیح همبستگی‌های رخ‌داده‌شده، من از یک مدل خطی اثر مختلط (R lme) استفاده می‌کنم که وقفه به عنوان تنها اثر تصادفی است. تحت این تنظیم، ناهمسانی قوی رخ می‌دهد و از آنجایی که من نمی‌توانم هیچ متغیر کمکی واریانسی را تعیین کنم، می‌خواهم از «weights=varIdent(form=~1|موضوع)» برای اختصاص واریانس هر شرکتی استفاده کنم. با این حال، استفاده از دستور weights به این روش منجر به یک مدل غیر همگرا می شود. برای بدست آوردن همگرایی، دو چیز را امتحان کردم: 1. سعی کردم واریانس باقیمانده را با واریانس اصلی متغیر وابسته تخمین بزنم و weights=varPower(form=~original_variance) را اضافه کردم. در حالی که این منجر به باقیمانده های زیباتر می شود، تخمین به وضوح نتایج اشتباهی ایجاد کرد. 2. ابتدا مدل را بدون آرگومان وزن تخمین زدم و از واریانس باقیمانده حاصل در مرحله دوم دوباره به عنوان آرگومان weights=varPower(form=~sidual_variance) استفاده کردم. این منجر به ظاهر بهتر باقی مانده ها می شود و در عین حال به نظر می رسد نتیجه بسیار منطقی تر است. حال سوال من: آیا رویکرد 2 معتبر است یا من مدل را به هر طریقی سوگیری می کنم یا تخمین واریانس درون گروهی و در نتیجه فواصل اطمینان اشتباه ایجاد می کنم؟
مدل اثرات مختلط خطی ناهمگرا (R lme)
10986
من سعی می کنم برای چیزی که تحلیل تعدیل شده (یا همچنین رگرسیون لجستیک تعدیل شده کمکی) نام دارد، کمکی بیابم. یک پاسخ معمولی این بوده است که من ممکن است فقط رگرسیون لجستیک چند متغیره را بخواهم، اما این چیزی نیست که من به دنبال آن هستم. مشکلی که من دارم این است که تحلیل تعدیل شده دقیقا چیست. به عنوان مثال، من یک مجموعه نرم افزاری در اختیار دارم که این نوع تحلیل تنظیم شده را انجام می دهد. ما تعدادی ژن و متغیرهای بالینی مختلف از بیماران داریم. کاری که به نظر می رسد این روش انجام می دهد، تنظیم مقادیر p ژن ها است. اما نمی توانم بفهمم چرا و چگونه. بنابراین من سعی می کنم به خارج از این مجموعه نرم افزاری حرکت کنم تا واقعاً بفهمم که ریاضیات اساسی این تکنیک آماری چیست. وقتی این سوال را در جاهای دیگر پست کردم، پاسخ این بود که باید دوره های بیشتری را در زمینه آمار بگذرانم. بنابراین ضمن تایید کوتاهی‌ام، می‌خواهم بپرسم که آیا کسی می‌تواند من را در جهت تا حدودی درست راهنمایی کند. من سعی کرده ام منابعی برای کمک پیدا کنم، اما فکر می کنم سوالم را به اندازه کافی درست مطرح نمی کنم. به‌علاوه، من سابقه‌ای در علوم کامپیوتر دارم و اخیراً به آمار زیستی منشعب شده‌ام و از نرم‌افزار جعبه سیاه استفاده نمی‌کنم، بنابراین در نهایت می‌خواهم این تکنیک را دوباره در R پیاده‌سازی کنم. ارائه شده است. لطفا اگر راهی هست که بتوانم سوالم را واضح تر مطرح کنم به من اطلاع دهید.
رگرسیون لجستیک تعدیل شده کمکی (تحلیل تعدیل شده)
65188
فرض کنید $L$ یک ماتریس مثلثی تصادفی $p\ بار p$ است، با چگالی مشخص، $f(L)$. برای محاسبه چگالی $C=L L^{\top}$، باید از فرمول تغییر چگالی استفاده کرد. این کمی مودار است زیرا $C$ و $L$ ماتریس هستند. با جستجو در وب، فرمول $$ \frac{\mathrm{d}\operatorname{vech}\left(C\right)}{\mathrm{d}\operatorname{vech}\left(L\right) را پیدا کردم )} = S_p \left[ \left(I_p \otimes L\right) T_{p,p} + L\otimes I_p \right] S_p^{\top}، $$ که در آن $S_p$ ماتریس حذف است که $\operatorname{vec}$ را به $\operatorname{vech}$ می برد و $T_{p,p}$ ماتریس انتقال است: $T_{m,n }\operatorname{vec}\left(X\right) = \operatorname{vec}\left(X^{\top}\right),$ for $m\times n$ ماتریس X$. محاسبه عامل تعیین کننده این محصول زشت در حال حاضر فراتر از توانایی های من است. با این حال، من فرض می کنم که این یک مشکل با یک راه حل شناخته شده است.
چگونه یک چگالی را از عامل Cholesky به چگالی ماتریس ترجمه می کنید؟
64855
نرخ عفونت بیماران بستری از کل جمعیت بستری در هر سه واحد بزرگسالان ردیابی می‌شود و امکان مقایسه آن با نرخ قبل و بعد از آموزش بهداشت دست را فراهم می‌کند. فرضیه من این است که با ارائه آموزش بهداشت دست به DCS، رابطه معکوس با نرخ عفونت بستری وجود خواهد داشت. اگر از آزمون t برای تعیین تفاوت بین آموزش بهداشت پست و قبل از دست استفاده کنم، چگونه می توانم رابطه معکوس را اندازه گیری کنم؟ آیا می توان رابطه معکوس را اندازه گیری کرد؟ آیا در این مورد باید تحلیل همبستگی انجام دهم؟
آزمون t برای تعیین تفاوت بین آموزش بهداشت پست و قبل از دست، چگونه می توانم رابطه معکوس را اندازه گیری کنم
82952
من یک تست Mantel را با استفاده از mantel.test در بسته میمون اجرا می کنم. در ابتدا، ماتریس های فاصله ایجاد کرده ام. dist.mat <\- تابع (فاصله‌ها، بعد) { x <- ماتریس(NA، nrow = بعد، ncol = بعد) diag(x) <- 0 lcomb <- ماتریس (NA، nrow = 1، ncol = 2) for(i در 1:nrow(x)) { for(j در 1:ncol(x)) { if(i > j) {lcomb <- rbind(lcomb, c(i, j))} j <- j + 1 } i <- i + 1 } lcomb <- lcomb[-1 , ] ucomb <- cbind(lcomb[ , 2], lcomb[ , 1 ]) برای (i در 1: طول (فاصله ها)) { x[lcomb[i, 1]، lcomb[i، 2]] <- فاصله[i] x[ucomb[i، 1]، ucomb[i، 2]] <- فاصله[i] i <- i + 1 } x } THEN، geo.dist < \- dist.mat(distance = data2[ , 1], dimension = 12) gen.dist <\- dist.mat(distance = data2[ , 2]، بعد = 12) پس از آن، 2 ماتریس فاصله خود را بررسی کردم و اعداد صحیح هستند. هر زمان که می‌خواهم آزمایش را اجرا کنم، این پیام را دریافت می‌کنم: Error in density.default(nullstats): 'x' حاوی مقادیر گم شده ای است که فکر می کردم ربطی به بعد ماتریس دارد، بنابراین آن را از 12 به 11 تغییر دادم. ، دوباره پیغام خطایی دریافت کردم که می گوید: خطا در lcomb[i, 1] : subscript خارج از محدوده آیا پیشنهادی برای حل این مشکل دارید؟ به سلامتی
اجرای تست Mantel در میمون با مقادیر از دست رفته
38826
من اطلاعاتی از 200 مشتری در مورد ترجیح برند آنها از 5 فروشگاه زنجیره ای فست فود بین المللی جمع آوری کرده ام. از هر مشتری خواسته شد تا تمام 5 برند را از بالاترین به پایین ترین رتبه بندی کند (5 برای ترجیح داده شده ترین و 1 برای نام تجاری کم ترجیح). من تعدادی IV مانند سن مشتری، درآمد، جنسیت، تعداد دفعات مصرف فست فود توسط مشتری، میانگین زمان سرویس مغازه و برخی عوامل دیگر مانند این را جمع آوری کرده ام. می‌خواهم ببینم ترجیح برند چگونه تحت تأثیر این IVها قرار می‌گیرد. همچنین می‌خواهم بدانم مشتری معمولاً چگونه برندها را رتبه‌بندی می‌کند. یعنی پیش بینی ترجیح برند. همچنین می‌خواهم ببینم ترجیح برند به طور قابل توجهی با یکدیگر متفاوت است (مقایسه چندگانه؟ مطمئن نیستم!). اگرچه به نظر می رسد یک مشکل آماری بسیار ساده است، اما من گیج شده ام زیرا سوال مربوط به متغیر وابسته (ترجیح برند) شامل 5 رتبه برای هر مشتری است. زیرا هر مشتری رتبه ای متناسب با هر برند می دهد. در این صورت متغیر وابسته در اینجا چه خواهد بود؟ چه نوع رگرسیونی باید انجام شود؟ آیا کسی می تواند به من پیشنهاد دهد که چگونه تجزیه و تحلیل را انجام دهم؟
رگرسیون و روش های مقایسه چندگانه برای داده ها که در آن هر دسته بندی در دسترس رتبه بندی می شود
110153
اجازه دهید $Z \sim N(0,1)$ و اجازه دهید $Y=Z$. فرض کنید می‌خواهم محاسبات عجیب زیر را انجام دهم: $f(z)=\int f(z|y)f(y)dy=E_Y[f(z|y)]$ و سپس از مونت کارلو برای تخمین $E_Y[ f(z|y)]$. مشکل برای یک $z$ ثابت است، $y$ is draw تقریبا هرگز برابر با $z$ نیست، و بنابراین $f(z|y)$ تقریبا همیشه صفر است، و بنابراین مونت کارلو من در عمل به من خواهد داد. $E_Y[f(z|y)]=0$. چگونه باید به این واقعیت رسیدگی کنم که در واقع یک احتمال $0$ وجود دارد که من $y=z$ بسیار مورد نیاز را ترسیم کنم که برای آن $f(z|y)$ سنبله بی نهایت قدرت $f(z)$ است، بنابراین که مونت کارلو من واقعاً قرار است تمرین کند؟ * * * اگر تعجب می کنید که چرا من چنین تمرین عجیبی انجام می دهم، زمینه واقعی من شامل دانشی از استنتاج دیریکله است. من سعی می کنم کاری شبیه به اسلاید 44 این ارائه انجام دهم، به جز خوشه های بی نهایت. اساساً، با روحی مشابه آن اسلاید، من $f(\theta_{n+1} |X_1,...,X_n) \\\ =\int f(\theta_{n+1} |\theta_1 را می‌خواهم ,...,\theta_nX_1,...,X_n) f(\theta_1,...,\theta_n|X_1,...,X_n) dX_1...dX_n \\\ =E[f(\theta_{n+1} | \theta_1,...,\theta_n)]$ که در آن $\theta_1,...,\theta_n \sim \theta_1,...,\theta_n | X_1,...,X_n$ من کاملا می دانم چگونه از Gibbs Sampling برای نمونه برداری از $\theta_1,...,\theta_n استفاده کنم | X_1،...، X_n$. با این حال، من نگران این واقعیت هستم که $f(\theta_{n+1} | \theta_1,...,\theta_n)$ حاوی توابع دلتای dirac است. نگرانی مشابه بالا: برای $\theta_{n+1}$ ثابت، تقریباً هرگز مقداری $\theta_i$ برابر با $\theta_{n+1}$ نمی‌کشم. و اگر توابع دیراک دلتا هرگز در مونت کارلو من وارد عمل نشوند، آنگاه $E[f(\theta_{n+1} | \theta_1,...,\theta_n)]$ با مونت کارلو فقط $h( \theta_{n+1})$ که در آن $h$ توزیع $DP$ بود - یعنی هیچ به روز رسانی اتفاق نیفتاد!!
محاسبه انتظارات مونت کارلو زمانی که دلتای دیراک وجود دارد
10987
من به دنبال ورودی در مورد نحوه سازماندهی کد R و خروجی دیگران هستم. تمرین فعلی من نوشتن کد در بلوک ها در یک فایل متنی به این صورت است: #================================ ================ # 19 مه 2011 date() # تحلیل همبستگی متغیرها در خلاصه sed load(/media/working/working_files/R_working/sed_OM_survey.RData) # همبستگی بین سطح تخمینی و میانگین perc.OM در نمونه های epi cor.test(survey$mean.perc.OM[survey$Depth == epi ]، survey$est.surf.OM[survey$Depth == epi])) #================================================= = سپس خروجی را در یک فایل متنی دیگر، معمولاً با مقداری حاشیه‌نویسی، قرار می‌دهم. مشکلات این روش عبارتند از: 1) کد و خروجی به طور صریح به غیر از تاریخ پیوند ندارند. 2) کد و خروجی به صورت زمانی سازماندهی شده اند و بنابراین جستجوی آن دشوار است. از آنجایی که می‌توانم فهرستی از مطالب را تهیه کنم، یک سند Sweave را با همه چیز در نظر گرفتم، اما به نظر می‌رسد که این ممکن است دردسر بیشتری نسبت به مزایایی که ارائه می‌دهد باشد. لطفاً هر روال مؤثری را که برای سازماندهی کد R و خروجی خود دارید که امکان جستجو و ویرایش کارآمد تجزیه و تحلیل را فراهم می کند، به من اطلاع دهید.
راه های کارآمد برای سازماندهی کد R و خروجی چیست؟
65183
در محصول نظرسنجی مصرف کننده گوگل، آنها فواصل اطمینان را با استفاده از فاصله امتیازی ویلسون برای نتایج بدون وزن محاسبه می کنند. کسی میدونه چطوری فاصله اطمینان بعد از وزن دهی رو محاسبه میکنن؟ آنها همچنین بیان می کنند که ترتیب از نظر آماری معنی دار است. از چه آزمون آماری برای آن استفاده می کنند؟ http://www.google.com/insights/consumersurveys/view?survey=qmqopldup5euq&question=1&filter=&rw=1
آمار نظرسنجی مصرف کنندگان گوگل
64852
فرض کنید امروز قصد دارم یک سکه را برگردانم. من معتقدم که از هر 10 تلنگر 9 مورد بالا خواهد آمد. سکه را برمی‌گردانم و از 10 عدد 8 سر هستند. آیا توزیع اعتقاد من 1. بتا(9+8، 1+2) 2. بتا(1+9+8، 1+1+2) 3. بتا(m+8، n+2) است که در آن m و n بر اساس نمودار بتا(m,n) و تصمیم گیری در مورد اینکه آیا درست است یا خیر. (این یک پاسخ ظاهری نیست، یک پیشنهاد واقعی است.) 4. گزینه پنهان 4. اگر از شماره 1 استفاده کنم، معتقدم که پیش از این نامناسب است، اما ویکی‌پدیا ادعا می‌کند که برخی آماردانان از آنها استفاده می‌کنند. این انتخاب برای من واضح نیست.
چگونه پارامترها را برای نسخه بتای قبلی خود انتخاب کنم؟
64587
من خودم همیشه از میانگین هندسی برای تخمین میانه لگ نرمال استفاده می کنم. با این حال، در دنیای صنعت، گاهی اوقات استفاده از میانه نمونه نتایج بهتری می دهد. بنابراین سؤال این است که آیا محدوده/نقطه ای برش وجود دارد که از آن میانه نمونه بتوان به طور قابل اعتمادی به عنوان تخمینگر برای میانه جمعیت استفاده کرد؟ همچنین، میانگین هندسی نمونه MLE برای میانه است، اما بی طرفانه نیست. اگر $\sigma$ شناخته شده باشد، یک برآوردگر بی طرفانه $\hat{\beta}_{\mbox{CGM0}}=\exp(\hat{\mu}-\sigma^2/2N)$ خواهد بود. در عمل، از آنجایی که $\sigma$ همیشه ناشناخته است، از یک تخمین‌گر اصلاح‌شده تعصبی $\hat{\beta}_{\mbox{CGM}}$ استفاده می‌شود. مقالاتی وجود دارد که می گویند این برآوردگر زمینی تصحیح شده با بایاس به دلیل MSE کوچکتر و بی طرفی بهتر است. با این حال، در واقعیت، زمانی که ما فقط حجم نمونه 4 تا 6 داریم، می توانم استدلال کنم که تصحیح سوگیری از 1 معنی ندارد. بی طرفی به این معنی است که برآوردگر حول پارامتر جمعیت واقعی متمرکز است، نه زیر پارامتر و نه بیش از حد تخمین زده می شود. . برای توزیع دارای انحراف مثبت، مرکز میانه است نه میانگین. 2. تغییر ناپذیر برای تبدیل ویژگی مهمی در منطقه فعلی من است (تبدیل بین DT50 و نرخ تخریب k، k=log(2)/DT50). بر اساس داده های اصلی و داده های تبدیل شده، نتایج متفاوتی دریافت خواهید کرد. 3. برای حجم نمونه محدود، میانگین بی طرفی به طور بالقوه گمراه کننده است. تعصب خطا نیست، یک برآوردگر بی طرفانه می تواند خطای بزرگتری بدهد. از دیدگاه بیزی، داده ها شناخته شده و ثابت هستند، MLE احتمال مشاهده داده ها را به حداکثر می رساند، در حالی که تصحیح بایاس بر اساس پارامترهای ثابت است. برآوردگر میانگین هندسی نمونه MLE، میانه-بی طرفانه، تغییرناپذیر نسبت به تبدیل ها است. من فکر می کنم که باید به برآوردگر زمینی تصحیح شده بایاس ترجیح داده شود. درست میگم؟ با فرض $X_1,X_2,...,X_N \sim \mbox{LN}(\mu,\sigma^2)$$\beta = \exp(\mu)$\hat{\beta}_{\mbox {GM}}= \exp(\hat{\mu})= \exp{(\sum\frac{\log(X_i)}{N})} \sim \mbox{LN}(\mu،\sigma^2/N)$\hat{\beta}_{\mbox{SM}}= \mbox{میانگین}(X_1،X_2،...،X_N) $ $\hat{\beta}_{\mbox{CGM}}= \exp(\hat{\mu}-\hat\sigma^2/2N)$ جایی که، $\mu$ و $\sigma$ هستند log-mean و log-sd، $\hat\mu$ و $\hat\sigma$ MLEهای $\mu$ و $\sigma$ هستند. یک سوال مرتبط: برای واریانس میانه نمونه، یک فرمول تقریبی $\frac{1}{4Nf(m)^2}$ وجود دارد; اندازه نمونه به اندازه کافی بزرگ برای استفاده از این فرمول چقدر است؟
چه زمانی از میانه نمونه به عنوان تخمینگر برای میانه توزیع لگ نرمال استفاده کنیم؟
94819
$X $ به دنبال $ Po(80) $ است. من از یک تقریب معمولی برای بدست آوردن $P(55\leq X\leq 75)$ استفاده کردم که درست شد. من باید $P(X=80)$ را پیدا کنم. من توزیع پواسون را مستقیماً امتحان کردم. با این حال، ماشین حساب من هنگام محاسبه $80^{80}$ خطا نشان می دهد. پاسخ صحیح 0.0446 است. آیا باید از توزیع نرمال استفاده کنیم؟ با تشکر
توزیع پواسون با مقدار دقیق x و میانگین عدد بزرگتری است
69759
در SVM، هسته گاوسی به صورت زیر تعریف می شود: $$K(x,y)=\exp\left({-\frac{\|x-y\|_2^2}{2\sigma^2}}\right)= \phi(x)^T\phi(y)$$ که در آن $x، y\in \mathbb{R^n}$. من معادله صریح $\phi$ را نمی دانم. من می خواهم آن را بدانم. و من می خواهم بدانم که آیا $$\sum_ic_i\phi(x_i)=\phi \left(\sum_ic_ix_i \right)$$ کجا $c_i\in \mathbb R$ است. حالا فکر می کنم برابر نیست. زیرا، استفاده از کرنل فقط وضعیتی را کنترل می کند که کلاسیر خطی کار نمی کند. من می دانم که $\phi$ x را به یک فضای بینهایت پروژه می دهد. بنابراین اگر همچنان خطی باقی بماند، مهم نیست چند بعد باشد، svm باز هم نمی تواند طبقه بندی خوبی داشته باشد.
هسته گاوسی
65456
می خواستم بدانم که آیا یک ARMA غیر ثابت را می توان همیشه بعد از تفاوت ثابت کرد؟ این سوال از نظر متریک در مورد سوال قبلی من ناشی می شود: > ... شما باید از ARIMA استفاده کنید (به این معنی که اگر > ARMA غیر ثابت است باید تفاوت را بگیرید). – معیارهای دیروز > > یک ARMA غیر ثابت (2،3) به این معنی است که ARMA می گوییم I(1)، سپس تبدیل به > ARIMA(2،1،3) می شود، یعنی اگر y را یک بار تفاوت کنید، آنگاه می شود > ثابت ARMA. – معیارهای دیروز در مثالی که او آورد، چرا یک ARMA(2.3) غیر ثابت می تواند به ARIMA(2،1،3) تبدیل شود؟ ARIMA به گونه ای تعریف شده است که می تواند پس از تفاوت، به **ایستا** ARMA تبدیل شود. چگونه بفهمیم که یک ARMA (2.3) غیر ثابت می تواند بعد از تفاوت تبدیل به **ایستا** ARMA شود؟ با تشکر و احترام!
آیا می توان یک ARMA غیر ثابت را همیشه بعد از تفاوت ثابت کرد؟
43031
پس از آزمایش برخی موارد، به نظر می رسد درست است که اگر پارتیشن هایی را در یک مجموعه داده ایجاد کنید، داده ها را در پارتیشن ها میانگین کنید، سپس میانگین ها را میانگین کنید، همان نتیجه ای را دریافت می کنید که اگر کل مجموعه داده را میانگین گرفته باشید. به عنوان مثال: avg(1,3,5,8,4,2) = 3.8333 avg(1,3,5) = 3 avg(8,4,2) = 4.6667 avg(3, 4.6667) = 3.8333 I'd دوست دارم بتوانم نشان دهم که این همیشه درست است. هیچ ایده ای در این مورد؟ با تشکر
چگونه ثابت کنیم که میانگین میانگین پارتیشن های مختلف یک مجموعه داده، میانگین کلی یکسانی را تولید می کند
11585
من برخی از داده‌ها را اندازه‌گیری کردم (اندازه‌گیری زمان اجرای کد، برای کسانی که کنجکاو هستند) که نمی‌دانم مقدار مورد انتظارشان چقدر است. داده‌ها گسسته هستند و من نمی‌دانم چه نوع ویژگی‌هایی دارد یا از چه توزیعی پیروی می‌کند. تنها چیزی که مشخص است این است که مقادیر کم و بیش مستقل از یکدیگر هستند. من می گویم کم و بیش، زیرا برخی از اثرات کش وجود دارد که می تواند یک اندازه گیری را با اندازه گیری دیگر مرتبط کند، اما نمی دانم چگونه ممکن است روی اندازه گیری ها تأثیر بگذارد. علاوه بر این، من می‌دانم که هر اندازه‌گیری مقدار مشخصی دانه‌بندی دارد، زیرا من فقط می‌توانم به چیزی شبیه دقت $\frac{1}{Frequency}$ اندازه‌گیری کنم، که توسط سرعت پردازنده من محدود شده است. با توجه به اینکه من کل نمونه‌های $N$ از داده‌ها را دارم، چه چیزهایی می‌توانم انجام دهم تا بگویم، به عنوان مثال، من به X$% اطمینان دارم که زمان اجرای مورد انتظار این کد باید $Y$ باشد؟ من اساساً می خواهم تعیین کنم که اندازه گیری های من چقدر دقیق هستند و تا چه حد از آنها اطمینان دارم. من هیچ ایده ای برای انجام این کار ندارم، زیرا هرگز فرصتی برای شرکت در کلاس آمار مناسب نداشته ام.
چگونه می توانم از نظر آماری تعیین کنم که آیا داده های من در اندازه گیری زمان اجرای کد خوب هستند؟
11580
اخیراً مقاله ای در مورد ارتباط بین سن و متاستاز غدد لنفاوی خواندم. نویسندگان بیان کردند که: «از آنجایی که بر اساس ادبیات موجود، رابطه غیرخطی بین سن و درگیری غدد لنفاوی انتظار می‌رفت، درگیری غدد لنفاوی نیز با استفاده از رگرسیون لجستیک ناپارامتریک بر اساس هموارسازی پراکندگی وزنی (کم) موضعی، بر اساس سن رگرسیون شد.» آیا کسی می تواند توضیح دهد که رگرسیون لجستیک ناپارامتریک بر اساس هموارسازی پراکندگی وزن محلی (کم) چیست؟
رگرسیون لجستیک ناپارامتریک بر اساس هموارسازی پراکندگی وزن محلی چیست؟
43037
من برخی از داده های طبقه بندی شده از یک کلینیک در یک دوره طولانی مدت یک ساله دارم. برنامه این است که یک تست مربع چی پیرسون (استقلال) روی این داده ها انجام شود. من در حال استخراج داده ها از پایگاه داده یک کلینیک هستم و هدف من این است که ببینم آیا بیماران مرد بیشتر از بیماران زن می توانند قرار ملاقات خود را لغو کنند. سوال من این است: مجذور چی به نمونه‌های مستقل نیاز دارد، اما این احتمال وجود دارد که بیماران در آن بازه زمانی چندین قرار ملاقات داشته باشند. در حالی که می‌توانم این چند شرکت کننده را شناسایی کنم، سپس چگونه آنها را به یک دسته اختصاص دهم (با فرض اینکه برخی در چندین دسته مختلف ظاهر شوند). به عنوان مثال... جان دو ممکن است داشته باشد: * در ژانویه در یک قرار کاردیولوژی شرکت کرده است * در فوریه در یک قرار ملاقات قلب و عروق شرکت کرده است * قرار ملاقات قلب و عروق را در ماه مارس لغو کرده است تا به حد مجاز برسد: * جان دو سپس از یک جنسیت (بسیار سریع) عبور می کند. رویه تغییر انتساب و جین دو می شود و سپس قرار ملاقات قلب خود را در آوریل لغو می کند. بنابراین از یک نفر داریم: * مرد/لغو: 1 * مذکر/حضور: 2 * زن/لغو: 1 آیا Chi Squared آزمون صحیحی برای استفاده در این نمونه است؟ اگر چنین است، آیا پردازش داده‌ای وجود دارد که باید روی داده‌هایم انجام دهم تا بیمارانی را که چندین بار در دسته‌های مختلف ظاهر می‌شوند، حساب کنم؟
استقلال در طول زمان
88601
من مجموعه داده ای دارم که به طور تصادفی برای آزمایش تأثیر چرا بر روی خاک جمع آوری شده است. برای آزمایش تاثیر چرا، 6 نمونه خاک از داخل حصار و 6 تکرار از بیرون حصار جمع آوری شد. با این حال، برخی از مناطق تنها 1 سال حصارکشی شده اند، در حالی که برخی دیگر 35 سال حصار کشی شده اند. این مناطق حصارکشی شده در سراسر یک کشور گسترده شده اند، بنابراین در انواع بافت خاک و مناطق زیست محیطی که به آنها تعلق دارند، متفاوت هستند. همانطور که قبلاً اشاره کردم، داده ها به طور تصادفی جمع آوری شدند. بنابراین، برخی از مناطق زیست محیطی تنها دارای دو حصار هستند که در سال های حصارکشی و نوع بافت خاک متفاوت است. برخی از انواع بافت خاک فقط در یک منطقه اکو وجود دارد اما در سایرین وجود ندارد. اساساً سرفصل‌های داده‌ها به شرح زیر است: مناطق – استپ جنگلی، استپ بیابانی و غیره. نوع بافت خاک – رس، لوم رسی و غیره. Site_id – نشان‌دهنده شناسه حصار است. هر حصار شناسه مخصوص به خود را دارد و درمان استراحت و چرا شده است Rested_years - نشان می دهد که چند سال منطقه حصارکشی شده است. درمان - استراحت و چرا. Grazed به این معنی است که داده ها در خارج از حصار جمع آوری می شوند. Rested به این معنی است که داده ها در داخل یک حصار جمع آوری می شوند. Replicate – تکرار شماره 1-6. Five_in - داده های خاک در عمق 0-5 سانتی متر. من به اجرای تجزیه و تحلیل جداگانه برای هر منطقه فکر می کنم زیرا علاقه ای به مقایسه منطقه ندارم. من فکر می کنم منطقه به اندازه کافی بزرگ است که متفاوت باشد (آماده سازی، دما، و غیره) بنابراین، می توانم توجیه کنم که چرا آنها نباید با هم تجزیه و تحلیل شوند. سپس، من فکر می کنم که نوع بافت خاک به عنوان یک عامل تصادفی و site_id به عنوان عامل تو در تو در یک نوع بافت خاک گنجانده شده است. همچنین به این فکر می‌کنم که سال‌های استراحت را به‌عنوان متغیر کمکی لحاظ کنم. با این حال، مطمئن نیستم. هر گونه پیشنهاد کمکی قدردانی خواهد شد
نحوه تجزیه و تحلیل داده ها با تعداد زیادی داده از دست رفته (از جمله متغیرهای کمکی، تودرتو و مسدود کردن)
16122
فرض کنید در حال اجرای یک تست A/B در یک وب سایت هستید. همچنین فرض کنید روش استاندارد نمایش تصادفی یک نسخه یا نسخه دیگر به دلیل _SEO hand-waving_ غیرقابل استفاده است. صفحه خاص مورد آزمایش برای هر شهر بومی سازی شده است، بنابراین بهترین روش تست یک برنامه نویس تحصیل کرده آماری شما این است که به طور تصادفی جمعیت شهرها را به دو گروه آزمایش و کنترل تقسیم کند. اکنون چند هفته بعد است و شما نتایجی دارید که معتبر به نظر می‌رسند، اما کسب و کارها را راضی نمی‌کند. آنها می خواهند گروه های آزمون و کنترل را تغییر دهند و آزمون را دوباره اجرا کنند. این برای برنامه نویس شما درست به نظر نمی رسد، زیرا ترجیح می دهد شهرها را مجدداً تصادفی کند. آیا چرخاندن گروه های آزمون و کنترل اصلاً اعتباری دارد؟ آیا دلیل قابل تصوری برای انجام این کار به جای تصادفی سازی مجدد وجود دارد؟ ویرایش برای افزودن: هر گروه شامل بیش از 8000 شهر (همه در ایالات متحده) است.
گروه های تست و کنترل برگردان
82950
من از تابع آدونیس در بسته **وگان** استفاده می کنم تا تفاوت تفاوت های موجود در یک جامعه (همسانان PCB) بین چندین عامل مختلف را تعیین کنم. ## مدل Adonis pcbtest3 <- adonis(pcbcong ~ BASIN + FISH_CLASS + REACH، داده = pcbcov، روش = bray، جایگشت = 999) ## pcbcong=ماتریس تفاوت‌های جامعه «BASIN» دارای 3 سطح است، «SS» دارای «FISH_LA» است. دو سطح و «REACH» دو سطح دارد. من می‌خواهم از این روش برای اجرای مدلی استفاده کنم که در آن «BASIN» تودرتو است و مستقیماً شباهت‌های جامعه بین فاکتورها، «FISH_CLASS» و «REACH» را آزمایش می‌کند. آیا استفاده از «adonis()» در وگان معقول به نظر می رسد؟
طراحی تودرتو - عملکرد آدونیس در بسته گیاهی R
69751
از من خواسته شده است که یک کاغذ را بررسی کنم. مقاله از رگرسیون خطی لاگ استفاده می کند. در معادله خطی ورود به سیستم زیر، $x$ متغیر وابسته است، $y$ یک متغیر کمکی پیوسته، $z$ یک متغیر طبقه‌بندی است که مقدار 0 یا 1 را برای yes/no دارد. $A$ و $B$ ضرایب رگرسیون هستند و $C$ رهگیری است. معادله این است: $\log(x) = A \times \log(y) + Bz + C$ $\log$ در اینجا لگاریتم طبیعی است. با حل این معادله برای x، نویسنده $x = y^A \times e^Bz \times e^C$ دریافت کرد به دلایلی، من فکر می‌کنم که درست نیست. میشه لطفا یکی بگه این درسته؟ اگر اینطور نیست، اشتقاق صحیح معادله 2 از معادله 1 چیست؟
سوالات معادله رگرسیون خطی لگاریتم
64581
من از «glmnet» استفاده می کنم که در آن متغیر وابسته من باینری است (کلاس 0، کلاس 1). من می خواهم درصد دقت مدل را گزارش کنم. بنابراین من از تابع پیش بینی برای مجموعه داده آزمایشی خود استفاده می کنم. با این حال، مقادیر برگردانده شده به جای 0 و 1 بودن، به صورت اعشاری هستند. بنابراین من یک آستانه 0.5 تعیین می کنم، به این معنی که اگر مقدار پیش بینی شده > 0.5 باشد، آن را به عنوان 1 و اگر مقدار پیش بینی شده <= 0.5، آن را به عنوان در نظر بگیرم. 0. سپس با مقایسه مقادیر واقعی و پیش‌بینی‌شده داده‌های آزمایشی، یک ماتریس سردرگمی ایجاد می‌کنم. من از این به دقت پی می برم. کد نمونه ام را در زیر قرار داده ام. من مطمئن نیستم که آیا این روش مناسبی برای گزارش درصد دقت برای مدل «glmnet» است که یک متغیر وابسته باینری را پیش‌بینی می‌کند. داده <- read.csv('datafile', header=T) mat <- as.matrix(data) X <- mat[, c(1:ncol(mat)-1)] y <- mat[, ncol( mat)] fit <- cv.glmnet(X, y, family=binomial, type.measure=class, alpha=0.1) t <- 0.2*nrow(mat) #20% داده t <- as.integer(t) testX <- mat[1:t, 1:ncol(mat)-1] predicted_y <- predict(fit, s=0.01, testX , type='response') predicted_y[predicted_y>0.5] <- 1 predicted_y[predicted_y<=0.5] <- 0 Yactual <- mat[1:t، ncol(mat)] confusion_matrix <- ftable(Yactual, predicted_y) دقت <- 100* (sum(diag(confusion_matrix)) / length(predicted_y))
چگونه درصد دقت را برای رگرسیون لجستیک glmnet گزارش می کنید؟
65187
من 313 مرد و 356 زن دارم. مردان و زنان هر کدام دو نظرسنجی (مخصوص جنسیت) (یک نسخه اصلی و یک نسخه اصلاح شده) انجام دادند. نظرسنجی که بررسی می‌کنم معیاری از تجربیات جنسی ناخواسته با نسخه‌های موازی برای مردان و زنان است (به عنوان مثال نسخه زنانه = آیا تا به حال قربانی شده‌اید؟ نسخه مردانه = آیا تا به حال مرتکب شده‌اید؟). نرخ گزارش شده قربانی شدن زنان (در نسخه اصلی) به طور کلی حدود 15٪ است، در حالی که گزارش های مردان از ارتکاب به طور کلی حدود 4٪ است. این تناقض بین گزارش‌های زنان مبنی بر قربانی شدن و گزارش‌های مرد از ارتکاب جرم، چیزی است که من به آن علاقه‌مندم. من نظرسنجی اصلی را به یک نسخه اصلاح‌شده بازنگری کرده‌ام، و فرضیه من این است که اختلاف [قربانی]/مذکر [مجرم] باعث خواهد شد. با استفاده از نسخه نظرسنجی اصلاح شده من کاهش یابد. بنابراین، من به داده‌های تعداد فراوانی انتخاب‌های دوگانه نگاه می‌کنم (بله [این تجربه را داشتم]، یا خیر [هرگز این تجربه را نداشتم]). من تست مک نمار را برای هر جنسیت انجام دادم، نسخه های نظرسنجی را با هم مقایسه کردم و آنها نشان دادند که پاسخ های مرد تغییر می کند (به طور قابل توجهی) و در نسخه اصلاح شده در مقایسه با نسخه اصلی افزایش می یابد، در حالی که نرخ زنان در نسخه های نظرسنجی معادل است. همچنین آزمون‌های t نمونه زوجی را انجام دادم که X اصلاح‌شده با مردانه و X زنانه اصلی را مقایسه کرد، و نتایج در اینجا نیز افزایش قابل‌توجهی در پاسخ‌دهی مردان به نسخه اصلاح‌شده نشان می‌دهد، اما تفاوت معناداری در نمرات زنان در نظرسنجی وجود ندارد. نسخه ها بنابراین، من می دانم که اصلاح شده به طور قابل توجهی نرخ پاسخ مردان را افزایش می دهد (و نرخ زنان را افزایش نمی دهد) به طوری که اختلاف کاهش یافته است، اما اکنون می خواهم یک راه مستقیم و از نظر آماری قوی تر بگویم که تفاوت های مرد و زن به طور قابل توجهی بین زن و مرد متفاوت است. اقدامات می خواستم بدونم که آیا می توانم با ترکیب نمرات مرد و زن دوباره مک نمار انجام دهم (مثلاً نظرسنجی اصلی بله خیر _________________________________________________________________ بله | (مرد YY + زن YY) | (YN مرد + زن YN) | نظرسنجی اصلاح شده |___________________________________________________________________ (مرد NY + زن NY) |. NN + زن | روش دیگر برای مقایسه میزان اختلاف دو گروه در دو معیار مختلف با تشکر از همه!!!
تست مک نمار با مقادیر ترکیبی سلول؟
51917
من مطمئن نیستم که آیا این انجمن مناسب برای پرسیدن این سوال است یا خیر. من برخی از اطلاعات خانه ها را دارم، مانند اندازه آنها (به متر مربع)، اگر از تهویه هوا استفاده می کنند، چند نفر ساکن در آن زندگی می کنند، مصرف برق آنها را هم دارم. من می خواهم هر الگوریتم یادگیری ماشینی را با مجموعه داده های بالا آموزش دهم تا مدلی ایجاد کنم که مصرف خانه ها را تخمین بزند. من الگوریتم های مختلفی را امتحان کردم (با استفاده از ابزار weka)، اما نتایج خوبی نداشتم. به من گفته شد که SVM ها می توانند این مشکل را با پیش پردازش درست حل کنند. با این حال نتایج خوبی هم نداشتم. آیا کسی می تواند به من کمک کند که چگونه باید به این مشکل برخورد کنم؟ پیشاپیش ممنون
استفاده از الگوریتم یادگیری ماشین مناسب
64589
من آزمایشی را اجرا می کنم که با استفاده از مقیاس لیکرت اندازه گیری می شود و از 24 متغیر 6 متغیر دارم که دارای چولگی یا کشیدگی قابل توجه هستند. اینها با برخی از ارزش های مثبت و برخی منفی مخلوط شده اند. من داده‌هایم را با استفاده از تبدیل‌های log، تبدیل ریشه مربع، تبدیل‌های متقابل و تبدیل نمره معکوس تبدیل کردم، اما این مشکل را حل نکرد. در واقع، تمام کاری که انجام داد این بود که تعداد بیشتری از متغیرهای دارای انحراف قابل توجهی را به من داد (به عنوان مثال، تبدیل ریشه دوم باعث شد که 11 متغیر به طور قابل توجهی منحرف شوند یا از کشیدگی رنج ببرم). آیا نوع دیگری از تبدیل داده‌ها وجود دارد که هر کسی بتواند توصیه کند که ممکن است کمک کند، به خصوص زمانی که برخی از انحرافات مثبت و برخی دیگر منفی هستند؟ اگر چنین است، آیا کسی سینتکس SPSS را می داند؟
دگرگونی ها انحراف های قابل توجه را اصلاح نمی کنند
65455
فرض کنید من یک فرضیه صفر $H_{0}$ دارم که داده های من از مدل $M_{1}$، با پارامتر $\theta = \theta_{1} $ (به طوری که مدل به صورت $M(\theta_ پارامتر شده است، دارم. {1})$)، و یک فرضیه جایگزین $H_{1}$ برای مدل $M_{1}(\theta)$ که در آن $\theta = \theta_{2}$. آیا می توانم از آزمون نسبت درستنمایی در مواردی مانند این استفاده کنم که در حال مقایسه احتمال بین دو مدل هستم؟ اگر نه، آیا می توانم از عامل بیز برای انجام آزمون فرضیه به عنوان جایگزین استفاده کنم؟
آیا می توانید نسبت احتمال را بین مدل های مختلف آزمایش کنید؟
46209
آیا می دانید چرا ما از ارقام قابل توجه در آمار استفاده نمی کنیم؟ چیزی در امتداد خط ما از تخمین ها استفاده می کنیم تا قوانین مربوط به دقت اعمال نشود ;)؟
چرا از ارقام قابل توجه استفاده نمی کنیم؟
81604
آیا کسی می تواند توضیح دهد که یادگیری چند وظیفه ای به روشی شهودی چیست؟ از Wiki: > یادگیری چند وظیفه ای با هدف بهبود عملکرد الگوریتم های یادگیری با > طبقه بندی کننده های یادگیری برای چندین کار به طور مشترک. چند وظیفه چیست؟ کسی میتونه مثال بزنه؟ این چگونه به _ساختار_ داخل _داده های آموزشی_ مرتبط است؟
درک شهودی یادگیری چندکاره
43036
من با متغیرهای مستقل خود در یک مدل خطی دست و پنجه نرم می‌کردم و متوجه می‌شوم که چگونه وقتی همه متغیرها استاندارد می‌شوند، y-intercept 0 می‌شود. به طور شهودی می‌دانم که با تغییر با میانگین متغیرهای توزیع شده نرمال، خط را تغییر می‌دهم، اما می‌خواستم بدانم آیا روشی دقیق‌تر/نظری برای توضیح/استنتاج این موضوع وجود دارد؟ با فرض اینکه ما با مدلی به شکل y = Xb + e شروع می کنیم که در آن y بردار متغیرها است، X ماتریس طراحی و b ماتریس ضریب است، و از هر متغیر تصادفی میانگین نمونه مربوطه آن را کم کرده و بر عدد مربوطه تقسیم می کنیم. انحراف استاندارد نمونه چگونه می بینیم که ماتریس طراحی تمام صفرها را در ستون اول خود می گیرد؟
چرا وقتی متغیرها را استاندارد می‌کنم، مقطع y یک مدل خطی ناپدید می‌شود؟
97663
من به دنبال بسته های R هستم که برخی از روش های جدید PCA را پیاده سازی می کند. اولین مورد، روش تعقیب مؤلفه اصلی پایدار ژو _ و همکاران (2010) است. دومین مورد، PCA از طریق الگوریتم Outlier Pursuit Xu _et al._ (2012) است. هر دو مقاله‌هایی هستند که در آمار بسیار مورد استناد قرار گرفته‌اند، با این حال من نتوانستم هیچ‌کدام از آنها را در نمای تکلیف R قوی یا چند متغیره پیدا کنم و به این فکر می‌کردم که آیا کسی آگاه‌تر می‌تواند مرا در جهت درست راهنمایی کند. 1. Zihan Zhou، Xiaodong Li، John Wright، Emmanuel Candes and Yi Ma (2010). پیگیری مولفه اصلی پایدار. 2. H. Xu، C. Caramanis، S. Sanghavi (1391). PCA قوی از طریق تعقیب دورافتاده، IEEE Transactions on Information Theory، 58(5)، صفحات 3047-3064، 2012.
پیاده سازی برخی از روش های جدید پیگیری مولفه اصلی
46201
من 149 مکان دارم که از شرق به غرب ردیف شده اند. من فواصل جغرافیایی بین هر مکان و مکان مجاور که به سمت غرب می رود را دارم. من می خواهم آزمایش کنم که آیا مکان ها به صورت تصادفی توزیع شده اند یا خیر. بنابراین، من دورترین مکان غربی و دورترین مکان شرقی را انتخاب می کنم و 145 مکان تصادفی در این فضا ایجاد می کنم و فاصله بین هر مکان متوالی (دوباره از شرق به غرب) را پیدا می کنم. سپس توزیع واقعی فواصل را در مقابل توزیع تصادفی فاصله‌ها با استفاده از Kolmogorov Smirnov آزمایش می‌کنم تا مقدار p را بدست بیاورم. با این حال، اگر من تصمیم به انجام 1000 شبیه سازی داشته باشم، آیا منطقی است که فقط میانگین (یا میانه) مقدار p 1000 آزمون KS را محاسبه کرده و این را گزارش کنم؟
گرفتن میانگین p مقدار از مجموعه ای از مقادیر p شبیه سازی شده
17298
من می خواهم تعامل بین دو متغیر را در SAS ترسیم کنم. یکی پیوسته و دیگری باینری است.
چگونه جلوه های تعاملی را در SAS ترسیم می کنید؟
21380
من از R برای ایجاد نمودارهای منظمی که در اسناد مایکروسافت آفیس استفاده می کنم استفاده می کنم. طبق این صفحه بهترین کیفیت با درایور پی دی اف به دست می آید. متأسفانه Word از وارد کردن ارقام PDF پشتیبانی نمی کند. از چی استفاده کنم؟
در R بهترین درایور گرافیک برای استفاده از نمودارها در Microsoft Word چیست؟
97668
من با اشاره ای به الگوریتم Supersmoother برخورد کردم که در یک سری زمانی برای قیمت ها اعمال می شد. آیا کسی از آموزش پایتون اطلاعی دارد یا اینکه پانداها چنین قابلیتی دارند؟
الگوریتم Supersmoother - آموزش؟
64585
مقایسه فواصل اقلیدسی با تاب زمانی دینامیکی (DTW): آیا فاصله اقلیدسی هنگام خوشه‌بندی سری‌های زمانی که همگی دارای طول و فاصله نمونه‌برداری یکسان هستند، بهتر از DTW عمل می‌کند؟ آیا دلایلی به نفع DTW برای این مورد خاص وجود دارد؟
آیا استفاده از تاب زمانی پویا هنگام خوشه بندی سری های زمانی که همگی دارای طول و فاصله نمونه گیری یکسان هستند منطقی است؟
46208
من از ماژول KernSmoothIRT در R برای انجام تجزیه و تحلیل ناپارامتریک برخی موارد استفاده کرده ام. من سعی می کنم راهی برای تعیین کمیت دشواری و تبعیض مجموعه خاصی از آیتم ها پیدا کنم. بهترین راه برای انجام این کار با این ماژول چیست؟ از نظر هندسی، فکر می‌کنم به دنبال مقدار OCC در تتا=0 و شیب P(theta)=0.5 هستم، اما مطمئن نیستم که چگونه می‌توانم این را از آنچه که توسط کتابخانه تولید می‌شود، بفهمم.
چگونه می توانم دشواری و تبعیض را از یک مدل غیر پارامتری IRT استخراج کنم؟
94000
پس از انجام مدل مخلوط خطی با lme4، من از lsmeans برای مقایسه زوجی با این دستور استفاده کردم: lsmeans(lmer52, pairwise~color, adjust=tukey) مطمئن نیستم که مقایسه های چندگانه زوجی، با استفاده از حداقل مربعات باشد. (LSMEANS) و تعدیل توکی». کسی نظری داره که آیا دقیقا همینطوره؟
Lsmeans: آیا این همان کاری است که من انجام دادم؟
17294
من یک مجموعه داده 1 بعدی با 83163 نقطه داده دارم و می خواهم بدانم که آیا داده ها از توزیع نرمال پیروی می کنند یا خیر. من سعی کردم از shapiro.test و ks.test در R استفاده کنم: d یک بردار است حاوی داده > shapiro.test(sample(d, 5000)) داده های تست نرمال Shapiro-Wilk: sample(d, 5000) W = 0.9694, p -value < 2.2e-16 (چند بار تکرار شد. _Note subsampling_.) > ks.test(d, dnorm، mean=mean(d)، sd=sd(d)) داده های آزمون کولموگروف-اسمیرنوف یک نمونه: d D = 1، p-value < 2.2e-16 فرضیه جایگزین: پیام هشدار دو طرفه: در ks. test(d، dnorm، mean = mean(d)، sd = sd(d)): نمی توان مقادیر p صحیح را با پیوندهای هر دو محاسبه کرد آزمون ها نشان می دهد که توزیع داده ها نرمال نیست. بنابراین من سعی کردم داده ها را ترسیم کنم (سیاه)، و به نظر می رسد بلندتر از یک توزیع معمولی با میانگین و sd برآورد شده از داده ها (آبی) باشد. ![http://dl.dropbox.com/u/38050492/data-distrib.png](http://i.stack.imgur.com/2AiBl.png) تعجب کردم که آیا واریانس بیش از حد تخمین زده شده است نقاط پرت، بنابراین من سعی کردم واریانس Winsorized را محاسبه کنم. من به طور اکتشافی اوج را با توزیع داده مطابقت دادم، اما نمی توانم تناسب خوبی (قرمز) داشته باشم. ویرایش: qqplot نیز غیر عادی بودن را پیشنهاد می کند. ![http://dl.dropbox.com/u/38050492/qqplot.png](http://i.stack.imgur.com/UW6ab.png) آیا توزیعی وجود دارد که داده ها را بهتر مدل کند؟ دلیل اینکه من می‌خواستم نرمال بودن را بررسی کنم این است که دیگران آزمون‌های z دو نمونه‌ای را انجام داده‌اند و داده‌ها را با استفاده از توزیع‌های گاوسی مدل‌سازی کرده‌اند. برای کوتاه کردن داستان طولانی، اگر توزیع داده‌ها نرمال فرض شود، ریاضیات به خوبی کار می‌کنند. از آنجایی که فرض نرمال بودن فراتر از کاربرد ساده آزمون‌های پارامتریک است، نمی‌دانم زمانی که داده‌ها به طور معمول توزیع نمی‌شوند، نتایج چقدر قوی هستند... به نظر می‌رسد انحراف قابل‌توجهی از نرمال بودن از نظر کشش توزیع وجود دارد. . و این انحراف از مجموعه داده به مجموعه داده سازگار است...
آیا توزیع داده های من نرمال است؟ (آزمون های شاپیرو و کولموگرنوف-اسمیرنوف را امتحان کردم)
94006
من با مدل های مخلوط کاملاً تازه کار هستم و امیدوارم به من کمک کنید تا بفهمم چگونه کار می کنند. فرض کنید من یک متغیر تصادفی پیوسته تک متغیره **_x_** دارم که زمان یک بازدید را نشان می دهد، و فرض کنید که **_x_** چندوجهی است، یعنی با بیش از یک توزیع احتمال توصیف شده است. من می‌خواهم تعداد زیرجمعیت‌های موجود در کل جمعیت **_x_** را پیدا کنم. می‌دانم که می‌توانم از مدل‌های مخلوط محدود استفاده کنم، جایی که باید تعدادی مولفه و توزیع احتمال هر جزء را مشخص کنم، مانند گاوسیان. با این حال، آنچه من می خواهم این است که تعدادی از مؤلفه ها را از داده ها یاد بگیرم و در مورد توزیع هر مؤلفه فرضی نداشته باشم، بلکه در حالت ایده آل آن را از مدل استنتاج کنم. من می دانم که مدل مخلوط بیزی می تواند این کار را انجام دهد، با این حال من در تلاش برای درک نحوه عملکرد مدل هستم. به طور خاص، چگونه می توان مدل مخلوط ناپارامتریک بیزی را برای متغیر تصادفی پیوسته اعمال کرد؟ آیا فرضی در مورد توزیع هر جزء وجود دارد و اینکه چگونه باید پیشین ها را انتخاب کنم؟
مدل مخلوط بیزی برای متغیر تصادفی پیوسته تک متغیره
94002
من اکنون مقاله ای را مرور می کنم که در آن نویسندگان تصمیم گرفتند یک DV را از طریق رگرسیون خطی با استفاده از متغیرهای دیگر، فراتر از سایر متغیرها، با استفاده از متغیرهای ساختگی به دست آمده از یک تقسیم یک سوم متغیرهای پیوسته، که معمولاً توزیع نشده بودند، پیش بینی کنند. به عبارت دیگر، به عنوان مثال، آنها یک متغیر توزیع نشده را انتخاب کردند، متغیر را به سه سوم تقسیم کردند، سه متغیر ساختگی برای هر یک سوم ایجاد کردند (تصور می کنم آنها 1 را به موضوعی که در یک سوم انتخاب شده در هر متغیر قرار می گیرد، اختصاص دادند) و همه را قرار دادند. متغیرهای ساختگی در مدل رگرسیون مدل‌های رگرسیون آن‌ها مقدار R^2 واقعاً بالایی (90/0) دریافت می‌کنند. آیا انجام این کار صحیح است؟
آیا درست است که متغیرهای غیر عادی را در یک سوم قرار دهیم و آنها را در مدل های رگرسیون چند متغیره قرار دهیم؟
43034
فرض کنید یک k-means آنلاین بسیار ساده داریم که در آن هر نقطه داده جدید به نزدیکترین مرکز خود اختصاص داده می شود (میانگین به صورت تدریجی به روز می شود). هر مرکز (خوشه) با رایج ترین برچسب نقاط داده اختصاص داده شده به آن خوشه برچسب گذاری می شود. در این پیکربندی خاص: آیا می توان نوعی احتمال پسین را محاسبه کرد؟ به عنوان مثال، آیا احتمال بعدی یک برچسب کلاس $y$ با توجه به نقطه داده $x$ ($P(y|x)$) فقط $1/\text{فاصله}(x, m_y)$ است، جایی که $m_y $ مرکزی است با برچسب $y$ که نزدیکترین به $x$ است؟
چگونه می توان یک احتمال پسینی از y را با x تعریف کرد در حالی که مدل احتمالی نیست؟
57079
من برخی از داده ها را با استفاده از تخمین کاپلان مایر تجزیه و تحلیل کرده ام. با این حال، من احساس می کنم که این برآوردگر به دلیل نرخ بالای سانسور در داده های من (تقریباً 50٪ در زمان های بعدی سانسور می شود) سوگیری دارد. چه راه هایی برای پرداختن به این موضوع در تحلیل وجود دارد؟
نرخ سانسور بالا در تجزیه و تحلیل بقا
11583
آیا کسی مرجع/پیوندی را می‌داند که بتوانم پیاده‌سازی متلب آمار شکاف برای خوشه‌بندی را همانطور که در این مقاله ذکر شده است پیدا کنم؟
آمار شکاف پیاده سازی متلب
11632
آیا کسی می داند فرمول فاصله کوک چیست؟ فرمول اصلی فاصله کوک از باقیمانده های دانشجویی استفاده می کند، اما چرا R از std استفاده می کند. باقیمانده های پیرسون هنگام محاسبه نمودار فاصله کوک برای GLM. من می دانم که باقیمانده های دانشجویی برای GLM ها تعریف نشده اند، اما فرمول محاسبه فاصله کوک چگونه به نظر می رسد؟ مثال زیر را فرض کنید: تعداد داروها <- rcauchy(84، 10) ارزش سلامت <- rpois(84،75) تست <- glm(ارزش سلامتی ~ تعداد داروها، خانواده = سم) طرح (تست، که = 5) فرمول کوک چیست فاصله؟ به عبارت دیگر، فرمول محاسبه خط چین قرمز چیست؟ و این فرمول برای باقیمانده های استاندارد شده پیرسون از کجا می آید؟ ![فاصله آشپز](http://i.stack.imgur.com/QdjMg.png)
چه نوع باقیمانده و فاصله کوک برای GLM استفاده می شود؟
97661
در واقع من می خواهم حجم معامله شده یک سهم را در مدل Garch(1,1) خود اضافه کنم تا نوسانات را پیش بینی کنم. در Matlab می توانم مدل را به صورت garch(1,1) مشخص کنم و سپس از دستورات تخمین و پیش بینی استفاده کنم. اما من اینطور نیستم. مطمئن شوید که چگونه می توانم مدل گارچ (1،1) افزایش حجم خود را در Matlab مشخص کنم. هر گونه کمک در این مورد بسیار قدردانی خواهد شد. ممنون، جایدیپ شیتوله
مدل گارچ افزایش یافته حجمی (1،1) در متلب
57071
من با تیمی کار می‌کنم که سخت فشار می‌آورند تا یک تحلیل مشترک در مورد آنچه که اساساً یک طرح فاکتوریل ۲×۲ است انجام دهد. با این حال، من این احساس را دارم که این فقط چکش مورد علاقه آنهاست و لزوماً ایده خوبی نیست، بنابراین من می خواهم به روشی آگاهانه عقب نشینی کنم. تجزیه و تحلیل مشترک چه مفروضاتی را در مورد داده ها انجام می دهد؟ چه زمانی ایده خوبی نیست؟ از طراحی فاکتوریل چه چیزی می تواند داشته باشد؟
مفروضات و موارد منع آنالیز مشترک
64328
می‌خواهم ببینم آیا یک متغیر تعاملی در یک رگرسیون چندگانه برای کل نمونه و سپس فقط برای مردان و فقط برای زنان معنادار است. وقتی متغیر تعامل را برای کل نمونه ایجاد کردم، اجزای تعامل را با کم کردن میانگین کل نمونه در مرکز قرار دادم. **حالا، وقتی می‌خواهم مردان و زنان را جداگانه بررسی کنم، آیا باید متغیرهای متمرکز و متقابل خاص زن و مرد را دوباره محاسبه کنم و آنها را با میانگین‌های نمونه زن و مرد مربوطه برای مؤلفه‌های تعامل در مرکز قرار دهم؟**
آیا هنگام بررسی اثر تعدیل کننده در مردان و زنان به طور جداگانه باید متغیرها را در مرکز قرار دهم؟
94009
من یک مدل جنگل تصادفی (مدل رگرسیون) با استفاده از بسته randomForest در R ساخته‌ام و همبستگی بین مقادیر پیش‌بینی‌شده و واقعی را محاسبه می‌کنم تا بدانم مدل آموزش‌دیده چگونه قرار است عمل کند، که در من بسیار بالاست. در این مورد، بنابراین من متعجب بودم که در چنین حالتی چگونه این همبستگی ایجاد می شود، منظورم این است که یک همبستگی یا هر نوع همبستگی اعتبار متقاطع را کنار بگذارد یا فقط تصادفی باشد و نمی تواند نشان دهنده عملکرد واقعی مدل هنگام آزمایش بر روی موارد جدید دیده نشده است؟ تصویر زیر یک عکس فوری از اسکریپت من برای محاسبه همبستگی است که در آن x داده ها (مشاهدات) و y مقادیر عددی است که می خواهم مدل یاد بگیرد/پیش بینی کند (در موارد آزمایش): mytr_all = randomForest (x, y, ntree) = 500,corr.bias=TRUE) cor(mytr_all$y,mytr_all$پیش‌بینی شده)
همبستگی ابزار رگرسیون جنگل تصادفی در R چه چیزی را نشان می دهد
57031
من داده‌هایی از یک آزمایش نظرسنجی دارم که در آن پاسخ‌دهندگان به‌طور تصادفی به یکی از چهار گروه تقسیم شدند: > خلاصه (df$Group) درمان کنترل1 درمان2 درمان3 59 63 62 66 در حالی که سه گروه درمانی در محرک اعمال شده کمی متفاوت هستند، تمایز اصلی که من به آن اهمیت می دهم بین گروه کنترل و درمان است. بنابراین من یک متغیر ساختگی Control تعریف کردم: > summary(df$Control) TRUE FALSE 59 191 در نظرسنجی، از پاسخ دهندگان خواسته شد (در میان چیزهای دیگر) انتخاب کنند که کدام یک از دو مورد را ترجیح می دهند: > summary(df$Prefer) A B NA's 152 93 5 سپس، پس از دریافت محرکی که توسط گروه درمان آنها تعیین شد (و هیچ کدام اگر در گروه کنترل بودند)، پاسخ دهندگان از آنها خواسته شد که بین دو چیز یکسان یکی را انتخاب کنند: > خلاصه (df$Choice) A B 149 101 من می‌خواهم بدانم آیا حضور در یکی از سه گروه درمانی بر انتخابی که پاسخ‌دهندگان در این سؤال آخر انجام دادند، تأثیری داشت یا خیر. فرضیه من این است که پاسخ دهندگانی که درمان دریافت کرده اند، احتمال بیشتری دارد که A را نسبت به B انتخاب کنند. با توجه به اینکه من با داده‌های طبقه‌بندی کار می‌کنم، تصمیم گرفته‌ام از یک رگرسیون لاجیت استفاده کنم (اگر فکر می‌کنید اشتباه است، راحت زنگ بزنید). از آنجایی که پاسخ دهندگان به طور تصادفی تخصیص داده شده اند، من این تصور را دارم که لزوماً نیازی به کنترل سایر متغیرها (به عنوان مثال جمعیت شناسی) ندارم، بنابراین آنها را برای این سؤال کنار گذاشتم. اولین مدل من به سادگی این بود: > x0 <- glm(محصول ~ کنترل + ترجیح، داده = df، خانواده = دوجمله(link=logit)) > خلاصه (x0) تماس: glm(فرمول = انتخاب ~ کنترل + ترجیح، خانواده = دو جمله ای (پیوند = logit)، داده = df) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.8366 -0.5850 -0.5850 0.7663 1.9235 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 1.4819 0.3829 3.871 0.000109 *** ControlFALSE -0.4068 0.3760 -1.082 0.279224 PreferA -2.7538 0.326 -2.7538 -2.7538 - 0.326 -2-4 Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 328.95 در 244 درجه آزادی انحراف باقیمانده: 239.69 242 درجه آزادی (5 مشاهده حذف شده به دلیل عدم وجود) AIC: 245.69 تعداد تکرارهای امتیازدهی فیشر: 4 من این تصور را دارم که معنادار بودن رهگیری از نظر آماری چیزی نیست که معنای قابل تفسیری داشته باشد. فکر کردم شاید باید یک اصطلاح تعاملی را به شرح زیر وارد کنم: > x1 <- glm(Choice ~ Control + Prefer + Control: Prefer, data=df, family=binomial(link=logit)) > summary(x1) Call : glm (فرمول = محصول ~ کنترل + ترجیح + کنترل: ترجیح، خانواده = دو جمله ای (پیوند = logit)، داده = df) باقیمانده های انحراف: Min 1Q Median 3Q Max -2.5211 -0.6424 -0.5003 0.8519 2.0688 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 3.135 1.021 3.070 0.00214 ** ControlFALSE -2.309 1.054 -2.190 0.02853 * PreferA -5.150 1.152 -4.572Free 1.152 -4.57Pefer ALSE 2.850 1.204 2.367 0.01795 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 328.95 در 244 درجه آزادی انحراف باقیمانده: 231.27 241 درجه آزادی (5 مشاهده حذف شده به دلیل عدم وجود) AIC: 239.27 تعداد تکرارهای امتیازدهی فیشر: 5 اکنون وضعیت پاسخ دهندگان در یک گروه درمانی تأثیر مورد انتظار را دارد. آیا این مجموعه مراحل معتبری بود؟ چگونه می توانم عبارت تعامل ControlFALSE:PreferA را تفسیر کنم؟ آیا ضرایب دیگر هنوز شانس ورود به سیستم هستند؟
تفسیر اصطلاحات تعامل در رگرسیون لاجیت با متغیرهای طبقه بندی شده
27974
من می‌دانم که معمولاً مطالعات سری‌های زمانی به دنبال ارائه توضیح علّی از چیزی نیستند، بلکه هدفشان پیش‌بینی است. در این صورت منطقی است که بیشتر مطالعات سری های زمانی مربوط به سوگیری متغیر حذف شده نباشد. با این حال، من با یک مطالعه سری زمانی مواجه شده ام که به دنبال توضیح هزینه های دفاعی شوروی در یک دوره زمانی خاص است. نویسندگان در مورد استفاده از مدل خود برای اهداف پیش بینی احتیاط می کنند. آیا منصفانه است که بگوییم سوگیری متغیر حذف شده چیزی است که ما در این مورد خاص نگران آن هستیم؟ شاید پاسخ برای بسیاری از شما واضح باشد اما فقط به دنبال تأیید افکار من هستید. با تشکر جی ال
داده های سری زمانی و تعصب متغیر حذف شده
81606
من یک مجموعه داده با اندازه گیری های مکرر روی سوژه ها دارم. حجم کل نمونه $n=118$ و تعداد خوشه ها (یعنی آزمودنی ها) $m=49$ است. کوچکترین خوشه به اندازه 2 و بزرگترین خوشه اندازه 4 است. در واقع حدود 60 درصد از خوشه ها اندازه 2 هستند، یعنی فقط دو مشاهده برای هر موضوع. متغیر نتیجه پیوسته است و 5 متغیر کمکی مورد علاقه وجود دارد. برنامه من این است که یک مدل مختلط خطی (LMM) را با یک اثر موضوع تصادفی، یعنی یک عبارت رهگیری تصادفی، جا بدهم. اگر فرض نرمال بودن باقیمانده‌ها برآورده نشود و تبدیل‌ها مشکل را حل نکنند، از GEE با پیوند هویت (یعنی یک مدل حاشیه‌ای) برای مدل‌سازی داده‌ها استفاده می‌کنم زیرا به فرض نرمال بودن نیاز ندارد. با این حال، قبل از شروع این ماجراجویی، نگرانی هایی در مورد ویژگی های مجانبی LMM ها و GEE ها داشتم. من می‌دانم که برای GEE رفتارهای مجانبی به تعداد خوشه‌های $m$ بستگی دارد (به عنوان مثال لی و مک کیگ، Statistica Sinica، 2013). آیا دستورالعمل/توصیه‌هایی در مورد تعداد خوشه‌های $m$، تعداد مشاهدات $n$ و حداقل/حداکثر اندازه خوشه برای دو روش وجود دارد؟
چند خوشه برای مدل های مختلط خطی و GEE؟
94005
من به میانگین و انحراف معیار نقشه‌های مختلف مانند داده‌ها نگاه می‌کنم و هر کدام اطلاعات معنی‌داری می‌دهند، اما گاهی اوقات اطلاعات متفاوتی ارائه می‌دهند. مثلاً ایالت های یک کشور را در نظر بگیریم. یک حالت میانگین بالاتری نسبت به بقیه دارد، اما انحراف معیار به خودی خود خوب به نظر می رسد زیرا نقاط منفرد از کل حالت بالاتر هستند. در مورد دیگر، میانگین به نظر می رسد متوسط ​​است، اما حالت دارای مقادیر بالاتر و پایین تر به طور مساوی توزیع شده است، بنابراین انحراف استاندارد بالاتر است. حال چگونه می توانید میانگین و انحراف معیار را به یک مقدار معنادار واحد اندازه گیری کنید؟ فرض کنید، رنگ نقشه هم زمانی که میانگین هر ایالت از میانگین کشور منحرف می شود و هم انحراف استاندارد ایالت بالا است، داغ به نظر می رسد.
چگونه میانگین و انحراف معیار را به یک مقدار معنادار و قابل اندازه‌گیری تبدیل کنیم؟
60664
با توجه به یک سری زمانی، من می خواهم پارامترهای یک مدل AR(1) را برای آن تخمین بزنم. همانطور که در ویکی پدیا توضیح داده شد، راه های مختلفی برای انجام این کار وجود دارد. چیزی که ممکن است یک روش ساده نامیده شود، محاسبه میانگین نمونه، واریانس و اتوکوواریانس نمونه و سپس بدست آوردن پارامترهای مدل AR(1) با استفاده از برخی معادلات ساده است. روش دیگر، می توان از چیزهای پیچیده تری مانند تخمین حداکثر احتمال استفاده کرد. مزیت یک روش در مقابل روش دیگر چیست؟ آیا تفاوت های _قابل اثبات_ وجود دارد؟ برای مثال، فرض کنید داده‌های من واقعاً از یک فرآیند AR(1) می‌آیند، آیا روش «ساده‌پولی» نسبت به روش‌های دیگر مانند حداکثر احتمال، دقیق‌تر است؟
تخمین پارامتر AR(1).
81608
من یک سوال احتمال دارم: چگونه می توانم احتمال وقوع یک رویداد را در یک {زمان، مکان} خاص نشان دهم؟ زمان و مکان چگونه نمایش داده می شود؟ مثال: من می‌خواهم وقوع ادرار کردن سگ‌های محله را در محله‌ام نشان دهم. فرض کنید می‌توانم تعداد دفعات ادرار کردن سگ‌ها را بشمارم، و فضای حالت {زمان، مکان} است، فرض کنید در هفته و در هر منطقه از محله. می‌خواهم رویداد را به یک رخداد خاص محدود کنم: {time,place: time $=$ فقط در یکشنبه. $=$ فقط در حیاط خلوت من قرار دهید} اگر احتمال ادرار کردن سگ ها در یک مکان خاص به صورت زیر تعریف شود: * $Ap$ - رویداد ادرار کردن سگ در یک مکان خاص * $P(Ap=x)$ - احتمال ادرار کردن سگ در یک مکان خاص $x$ و احتمال ادرار کردن سگ در یک زمان خاص: * $At$ - رویداد ادرار کردن سگ در یک زمان خاص $t$ * $P(At=t)$ - احتمال ادرار کردن سگ در یک زمان خاص $t$ چگونه می توانم احتمال ادرار کردن در یک {زمان، مکان} خاص را نشان دهم؟ P.S. چگونه با زمان، مکان رفتار کنیم؟ آیا زمان و مکان متغیرهای تصادفی مشترک $Xt,Xp در نظر گرفته می شوند؟ P(Xt=t,Xp=x)$ اگر چنین است آیا مستقل هستند؟ $P(Xt=t،Xp=p)$ = $P(Xt=t)*P(Xp=x)$
تعریف احتمال رویداد زمان و مکان در بازنمایی تعریف کمک می کند
60660
من یک مجموعه داده دارم (y در مقابل t) که فکر می‌کنم بهترین توصیف آن با این موارد است: * شیب اولیه به سمت پایین * شاید در t = 1 یا 2، شیب تند رو به پایین * مجانبی در y = 0 ![توضیح تصویر را در اینجا وارد کنید](http ://i.stack.imgur.com/85kvc.png) ![واقعی، فازی data](http://i.stack.imgur.com/4gmOe.png) من می خواهم داده ها را تبدیل کنم تا بتوانم یک رگرسیون خطی قوی بسازم. بخش دوم برای واپاشی نمایی خوب به نظر می رسد (از ln(y) به عنوان متغیر وابسته استفاده کنید)، اما چگونه می توانم با قسمت اول ترکیب کنم؟ **چگونه باید داده های خود را قبل از رگرسیون تغییر دهم؟** **تصاویر زیر برای پاسخ به درخواست های نظر دهندگان در نظر گرفته شده است**![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/gs15y.png ) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LVr5c.png) ![توضیحات تصویر را وارد کنید اینجا](http://i.stack.imgur.com/tOyIn.png)
چه یک تبدیل خوب برای عملکرد پوسیده با یک فلات
11582
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HlAfJ.jpg) تصویر بالا نمایانگر بازدیدهای صفحه مقاله در طول زمان است. محور X روز است که 9 آخرین روز است. محور y تعداد بازدید از صفحه است. من به دنبال یک محاسبه فیزیک یا آماری مناسب و نه پیچیده هستم که بتواند به من (بر اساس سابقه بازدید از صفحه) روند فعلی بازدیدهای صفحه در n روز گذشته را نشان دهد. بنابراین اساساً، در 5 روز گذشته این پیوند به طور غیرعادی بالاتر از حد معمول بوده است و اگر چنین است با چه درجه/قدر؟ در حالت ایده‌آل، پاسخ یک کلاس الگوریتمی را ارائه می‌دهد که برای این مشکل و همچنین نمونه‌هایی از آن با استفاده از داده‌های ارائه‌شده از این نمودار بالا اعمال می‌شود.
چگونه می توانم سرعتی را بدست بیاورم که این پیوند چقدر روند دارد؟
46205
من مقدار زیادی از داده های گیاهی دارم که به 13 کلاس زیستگاه تقسیم شده است. من سعی می کنم تعیین کنم که کدام پوشش گیاهی با هر نوع اهمیتی به کدام زیستگاه می ریزد یا وجود ندارد. من برای اجرای یک رگرسیون لجستیک چند جمله ای، به طور خاص با استفاده از glmnet (چون تقریباً 200 متغیر و فقط حدود 260 مشاهده دارم) قرار گرفته ام. اجرای cv.glmnet با استفاده از کد: cv<-cv.glmnet(data,Class,family=multinomial,nfolds=50,standardize=FALSE) فهرستی از اعدادی را دریافت می کنم که در تلاش برای درک آنها هستم، اما کد: coef(cv, s=cv$lambda.1se) که ضرایب هر متغیر را برای هر طبقه زیستگاه برای لامبدا که 1 SE بزرگتر از حداقل مقدار لامبدا است (که تا آنجایی که من می توانم مقدار لامبدای پذیرفته شده را بگویم). (قطع) 0.7914263664 سالیکس 0.0000000000 مش 0.0000000000 پین 0.0000000000 چوک . Betula 0.0025260258 Ideae 0.0000000000 Leather 0.00000000000 چیزی که من تعجب می کنم، با استفاده از این ضرایب، آیا می توان بیان کرد که مقادیری با بزرگترین بزرگی (هر دو نزدیکترین به -1 و 1+) مهمترین آنها هستند که کلاس را تعریف می کنند. تا 0 بی اهمیت هستند و آن ها با دوره در طول cv.glmnet حذف شدند. پس در این صورت گیاه «بتولا» از همه تأثیرگذارتر خواهد بود و «چوک» آنقدر بی تأثیر بود که حذف شد؟ همچنین، نمی دانم رهگیری به چه معناست، اما تصور می کنم که می توانم آن یکی را به تنهایی پیدا کنم.
تعیین اینکه کدام متغیرها با استفاده از cv.glmnet در R حذف شده اند
60668
من سعی می کنم یک آزمون آماری پیدا کنم که بتواند به من در مقایسه میانگین دو گروه وابسته کمک کند. داده های من: 1. مقادیر پارامتر از ناحیه ماده سفید در مغز موش آزمایشگاهی 2. مقادیر پارامتر از ناحیه ماده سفید در همان مغز موش، پس از تثبیت بافت فرسوده شود. من نمی توانم دو مغز را با یکدیگر تراز / ثبت کنم، بنابراین منطقه ای که در داخل بدن مشخص کردم دقیقاً با منطقه ای که در بافت ثابت ترسیم کرده ام یکسان نیست. آرزوی من: * می خواهم میانگین دو ناحیه ماده سفید را با هم مقایسه کنم. پیشنهاد من: * یک آزمون t زوجی، اما از آنجایی که می دانم هر مقدار پیکسل در مجموعه داده 1 دقیقاً با مقدار پیکسل در مجموعه داده 2 مطابقت ندارد، انجام تست t زوجی دقیقاً درست نیست. آیا آزمایشی برای داده های وابسته اما نه جفت شده وجود دارد؟
مقایسه مجموعه داده های وابسته اما جفت نشده
11634
من سن رسوبات دریاچه را در پایه یک هسته رسوبی با تقسیم کل جرم رسوب هسته ($\mathrm{mg} \\mathrm{cm}^{-2}$) بر نرخ تجمع رسوب محاسبه می‌کنم. $\mathrm{mg} \ \mathrm{cm}^{-2}\ \mathrm{y}^{-1}$). هم جرم رسوب و هم سرعت انباشتگی با آنها تفاوت دارند. جرم رسوب میانگین 3 نمونه است و نرخ تجمع آن $\pm 10\% $ گزارش شده است. درک من این است که می توانم خطای مربوط به سن را به صورت زیر محاسبه کنم: $\sqrt{\left(\frac{\delta x}{x}\right)^2 + \left(\frac{\delta y}{y }\right)^2}$ که در آن $\delta x$ و $\delta y$ خطای نسبی تقسیم‌بندی اندازه‌گیری‌ها هستند (یعنی $x$ و $y$). خطای مربوط به نرخ رسوب $\pm \ 10% $ است اما خطای مربوط به جرم رسوب در یک انحراف استاندارد است. آیا این اشکال خطا با فرمول انتشار خطای بالا سازگار هستند؟ متشکرم.
چگونه انتشار خطا را با معیارهای مختلف خطا محاسبه کنم؟
48129
> دو ظرف $A$ و $B$ در مجاورت یکدیگر قرار می گیرند و گاز > از روزنه کوچکی عبور می کند و به آنها می پیوندد. > > در مجموع $N(>1)$ مولکول در بین ظروف توزیع شده است. > > فرض کنید در هر دوره زمانی یک مولکول، که به طور یکنواخت و به طور تصادفی > از $N$ موجود انتخاب شده است، از این روزنه عبور می کند. > > اجازه دهید $X_n$ تعداد مولکولها در $A$ بعد از $n$ واحد زمان باشد. > > ماتریس انتقال را کار کنید و حالت ها را طبقه بندی کنید. من فکر می کنم که فضای حالت من تعداد مولکول ها در $A$ در زمان $n$ خواهد بود و بنابراین می توانم $S = \\{0, 1, ..., N\\}$ را تعریف کنم. بنابراین از اینجا، ماتریس من قرار است تعداد مولکول ها را در $A$ نشان دهد. بنابراین، برای مثال $P_{11}$ احتمال انتخاب یک مولکول از $A$ و قرار دادن آن در $A$ است. این نمی تواند اتفاق بیفتد زیرا مولکول باید از طریق روزنه عبور کند. بنابراین من دریافتم که تمام $P_{ii} = 0$ است. همچنین، ما می دانیم که اگر ما مولکول های $i$ را در $A$ در زمان $t$ داشته باشیم، یا یک مولکول به دست می آوریم، زیرا این یکی از $B$ انتخاب شده است، یا یک مولکول را از دست می دهیم، همانطور که قبلا بوده است. از $A$ انتخاب شده است. احتمال انتخاب یک مولکول $\frac{1}{N}$ است و بنابراین می توانیم بگوییم $$P_{ij} = \begin{cases} \frac{1}{N} & \text{if } j = i + 1 \\\ 1 - \frac{1}{N} & \text{if } j = i - 1 \\\ 0 & \text{در غیر این صورت} \end{cases} $$ بنابراین با استفاده از این، ماتریس را به صورت $$\pmatrix{0 & 1 & 0 & 0 & 0 & ...\\\ 1 - \frac{1}{N} & 0 & \frac{1 دریافت کردم. }{N} & 0 & 0 & ... \\\ 0 & 1 - \frac{1}{N} & 0 &\frac{1}{N} & 0 &... \\\ . & . &. &. &. &. \\\ . &. &. &. &. &. \\\ 0 & 0 & 0 &0 &... & \frac{1}{N} \\\ 0 & 0 & 0 & ... & 1 & 0}$$ اما در پاسخ ها به جای داشتن 1 دلار $ در صورت حساب است، آنها $i$ را در همه جا دارند. چطور می شود؟
محاسبه احتمالات انتقال برای انتشار Ehrenfest
97662
تا آنجا که من می دانم، درخت های تصمیم همیشه با داده های برچسب دار برای یادگیری قوانینی که بین برچسب های مختلف تفاوت قائل می شوند، استفاده می شود. اما آیا چیزی به نام درخت تصمیم بدون نظارت وجود دارد؟ بگویید من یک مجموعه داده بدون برچسب دارم و می‌خواهم قوانینی به شکل $x_1 > 2\ پیدا کنم. و \; x_2 > 4$ که _best_ داده ها را خوشه بندی می کند. من این مقاله و پتنت مربوط به آن را پیدا کردم. آیا آنها در مورد آنچه من نیاز دارم صحبت می کنند؟ آیا آثار دیگری در مورد موارد مشابه صحبت می کنند؟
درختان تصمیم گیری بدون نظارت