_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
71984 | خوب، من در حال خواندن این کتاب به نام تجزیه و تحلیل داده های بیزی هستم و این ایده یکسان بودن در گزارش چیزی را بیان می کند که من هیچ سرنخی ندارم که ممکن است به چه معنا باشد؟ مثال 1: معرفی توزیع دیریکله به عنوان مزدوج برای توزیع چند جمله ای: $$p(\theta|\alpha) \propto \prod\limits_{j=1}^{k}{\theta_{j}^{\alpha_{ j}-1}}$$ که در آن توزیع به $\theta_{j}$s غیرمنفی محدود شده است $\sum\limits_{i=1}^{k}{\theta_j}=1$. ... تنظیم $\alpha_j=0$ برای همه $j$ منجر به توزیع قبلی نامناسب می شود که در $log(\theta_j)$ یکنواخت است. مثال 2: یا در جایی دیگر در کتاب در مورد توزیع های عادی ذکر شده است که در نظر گرفتن $p(\sigma^2)\propto \frac{1}{\sigma^2}$ یک توزیع یکنواخت با توجه به $\sigma$ ایجاد می کند. در مقیاس ورود به سیستم. کسی می تواند شرایط را توضیح دهد؟ | یکنواخت بودن در لاگ برخی از پارامترها؟ |
94767 | من روی پروژه ای کار می کنم که در آن ما در حال انجام خوشه بندی بر روی داده های با ابعاد بالا (~ 1000 متغیر) هستیم و به دنبال زیرجمعیت هایی از مشاهدات حاصل از خوشه بندی هستیم. به تجزیه و تحلیل بیان ژن فکر کنید. به طور خاص، من نمونه های جفتی دارم که در آنها نسبت هر ژن را بین دو شرط محاسبه کرده ام تا مجموعه ای از مقادیر نسبی را ارائه دهم. سپس تعداد متغیرها را با شناسایی آنهایی که مقدار تغییر معینی برای حداقل تعداد مشاهدات دارند کاهش میدهم - برای مثال، فقط متغیرهایی را که دارای تغییرات 10 برابری (بالا یا پایین) هستند حداقل برای 25٪ از مشاهدات نگه میدارم. سپس خوشهبندی بر روی آن مجموعه کاهشیافته انجام میشود تا زیرجمعیتهایی که سطوح بیان متفاوتی دارند شناسایی شوند. ایده این است که زیرجمعیت های مختلفی را پیدا کنیم که ممکن است به شرایط آزمایشی مختلف واکنش متفاوتی نشان دهند. سوال اندازه نمونه به این شکل مطرح شده است: با فرض اینکه شرایط آزمایشی ما بر 10٪ از کل جمعیت تأثیر دارد، برای شناسایی زیرجمعیت های واقعی به چند نمونه نیاز داریم. من به محاسبات توان برای آزمون t نگاه کردهام که در آن فرض میکنم دو جمعیت، زیرجمعیتهای مختلفی هستند که ممکن است از خوشهبندی پدید آیند، و فرض میکنم که alpha=.05 اهمیت مورد نظر برای جداسازی گروهی آن دو است. من نمی دانم چگونه اندازه افکت را تعیین کنم. و به نظر می رسد این یک راه ساختگی برای رسیدن به یک پاسخ است. افکار؟ | اندازه نمونه سوال - سوال بد مطرح شده؟ |
95507 | من میخواهم احتمال لاگ آزمون یک ماتریس کوواریانس معکوس مدل گرافیکی گاوسی را در آزمون اعتبارسنجی متقاطع رها کردن یک بیرون در R محاسبه کنم. بنابراین، چیزی که میخواهم محاسبه کنم $log(det(\theta)) -trace(S است. \theta)$ که $S$ ماتریس کوواریانس نمونه داده های آزمون CV است و $\theta$ ماتریس کوواریانس معکوس است که با استفاده از آموزش CV تخمین زده شده است. داده ها مشکل این است که، از آنجایی که دادههای آزمایش فقط یک نمونه را شامل میشود (بعد $1\ برابر p$ که $p$ تعداد متغیرها است)، ماتریس کوواریانس تجربی در این فرمول ($S$) $p \times p نیست. $ اما $1 \times 1$ است (با استفاده از توابع $var()$ یا $cov()$ در R محاسبه می شود. اما $\theta$ با استفاده از $n-1$ نمونه داده های آموزشی تخمین زده می شود، بنابراین $p\ برابر p$ است، بنابراین من در مورد نحوه محاسبه $trace(S\theta)$ از ابعاد $S سردرگم هستم. $ و $\theta$ برای ضرب مناسب نیستند. اگر حجم نمونه دادههای آزمون بزرگتر از 1 باشد (سایر اعتبارسنجیهای متقاطع غیر از ترک یکاوت)، چنین مشکلی وجود ندارد. بنابراین، چگونه احتمال گزارش آزمون GGM را برای CV یک خروجی محاسبه کنیم؟ با تشکر | اعتبار سنجی متقاطع خروجی برای مدل های گرافیکی گاوسی تخمین کوواریانس معکوس |
112211 | من از یک الگوریتم بهینه سازی پیوسته برای بهینه سازی تعداد نورون های شبکه عصبی در لایه های اول و دوم علاوه بر انتخاب ویژگی استفاده می کنم، بنابراین از این ساختار برای تبدیل خروجی ادامه (بین 0 و 1) به مقادیر صحیح مثبت در MATLAB استفاده کردم: Neuron_Layer_I=(min( طبقه(1+21*Neuron1),21))+3; به عنوان مثال در معادله بالا 'Neuron1' خروجی الگوریتم بهینه سازی است، بنابراین اگر برای 'Neuron1' '0' داشته باشیم، تعداد نورون های لایه اول '3' و اگر '1' برای 'Neuron1'، تعداد نورون ها باشد. در لایه اول `24` است. من محدوده «[0 24]» را برای لایه دوم نیز دارم. سوالات من: * آیا این معادله بهترین معادله برای تبدیل مقادیر من است؟ * گرایش سیستم من به سمت استفاده از «24 نورون» در لایه اول و «24 نورون» برای لایه دوم است. هنگامی که من محدودههای تعداد نورونها را در «لایه 1» و «لایه 2» تغییر میدهم (کاهش یا افزایش میدهم) تمایل سیستم من به حداکثر مقادیر آن محدوده است. چرا؟ من یک مشکل طبقه بندی باینری و استفاده از تابع 'patternnet' در متلب دارم. من از «الگوریتم رقابتی امپریالیستی (ICA)» برای بهینهسازی استفاده میکنم. چند وقت پیش من علاوه بر این ساختار، بهینهسازی «توقف زودهنگام (تکرار حداکثر)» را در سیستمم دارم و بهترین تکرار حداکثر توقف اولیه، همان طور که در بالا گفتیم، به سمت حداکثر خشم بهینهسازی بود، بنابراین آن را حذف کردم. الان من همین مشکل را با تعداد نورون ها دارم. علاوه بر سوالات بالا، توصیه شما برای بهبود سیستم من چیست؟ سیستم من اندازه نمونه خاصی ندارد، در موارد آزمایشی من بین 200 تا 700 است. این یک مشکل مالی است. با تشکر | تبدیل عدد ادامه به عدد صحیح در الگوریتم های بهینه سازی در متلب |
71986 | من در حال ایجاد برخی رگرسیون های باینری هستم و نمی دانم که آیا باید از اندازه نسبت های شانس شگفت زده شوم. در این مثال خاص، متغیر وابسته نشان می دهد که آیا دانش آموز می تواند به یک هدف مشخص در زبان دوم دست یابد یا خیر. متغیرهای توضیحی سن به عنوان متغیر کمکی پیوسته و معیار سنجش سواد در زبان اول هستند. من از SPSS برای محاسبه مدلها استفاده میکنم و به نظر میرسد که آنها خوب کار میکنند (من یک مجموعه داده بزرگ از حدود 40000 مورد و تعداد کمی سلول خالی در دادهها، بدون علامت هشدار و غیره دارم) من 0 را به عنوان مرجع انتخاب کردهام. دسته برای هر دو متغیر توضیحی نتیجه و طبقه بندی. همانطور که متوجه شدم، تخمینهایی که در زیر میبینم به من میگویند که اگر دانشآموز خواندن L1 را در سطح 4 نشان دهد، 372 برابر بیشتر احتمال دارد که بتواند مهارت مورد نیاز را در زبان دوم نشان دهد. الگوی تخمین ها دقیقاً همانطور است که من انتظار دارم، مسئله من این است که آیا باید به بزرگی تخمین ها توجه داشته باشم یا این که در مواردی که به وضوح ارتباط قوی بین دو متغیر وجود دارد، معمول است. با تشکر فراوان KB > پارامتر B Exp(B) > > (Intercept) -3.077 > Age 0.075 1.078 > [L1 Reading=4] 5.921 372.784 > [L1 Reading=3] 5.330 206.438 > [L1 Reading=2] >7L21 > 4.2 خواندن=1] 3.025 20.594 > [L1 Reading=0] 0 0 جدول بندی متقاطع L1 و DV: > > +------------------------------ +------+-------+-------+ > | | 0 | 1 | 2 | 3 | 4 | مجموع| > | 0.00 | 17537 | 6487 | 784 | 100 | 44 | 24952 | > | 1.00 | 1284 | 9891 | 4287 | 1576 | 1328 | 18366 | > | مجموع | 18821 | 16378 | 5071 | 1676 | 1372 | 43318 | > +-----------------------+------------------------ -----+ > | نگرانی در مورد اندازه تخمین نسبت شانس در مدل رگرسیون لجستیک باینری |
37980 | من علاقه مند به تخمین رگرسیون پواسون برای نرخ مرگ و میر هستم، با تعداد مرگ و میر به عنوان متغیر وابسته و لاگ (اندازه جمعیت) به عنوان جبران. من 50 مشاهده (حالت) دارم. من از قوانین سرانگشتی در مدلهای رگرسیون متغیر برای تعیین حداکثر تعداد پیشبینیکنندهها آگاه هستم. به عنوان مثال: مدل کاکس: حداقل 5 رویداد در هر پیش بینی، رگرسیون لجستیک: حداقل 5 مشاهده که در آن Y=1 در هر پیش بینی _و غیره... آیا قانون مشابهی برای مدل های پواسون وجود دارد؟ نماینده مجلس | قانون سرانگشتی - تعداد پیش بینی کننده ها - نرخ های رگرسیون پواسون |
9776 | من یک جریان ثابت از مختصات جغرافیایی دارم مانند این: (lat1، long1)، (lat2، long2)، (lat3، long3) می دانم که دستگاه اندازه گیری می تواند 100 متر خاموش باشد. چگونه می توانم نویز را فیلتر کنم و اندازه گیری های واقعی را دریافت کنم؟ منظورم این است که اگر دو موقعیت با برد 100 متر باشد، می توان آنها را به عنوان یک موقعیت در نظر گرفت. چگونه می توانم از فیلتر کالمن برای حل این مشکل استفاده کنم؟ | چگونه فیلتر کالمن را روی مختصات جغرافیایی اعمال کنیم؟ |
112210 | من یک مجموعه داده نرمال شده کوچک، 30 مشاهده و 18 پیش بینی دارم. همه پیوسته هستند و برخی از متغیرها مرتبط هستند. من رگرسیون خطی را روی آن با استفاده از Weka اجرا کردم. مدل به طور خودکار برخی از پیشبینیکنندههای خطی را حذف کرد و تعداد پیشبینیکنندهها را از 18 به 7 کاهش داد. سپس پیشبینی مدل را برای متغیر هدف در مقابل دادههای متغیر هدف واقعی (آموزش + مجموعه تست) ترسیم کردم. ضریب همبستگی 0.92 بود.  اگر دادهها را بهگونهای تقسیم کنم که 10٪ (3 نمونه) از آن را تقسیم کنم، میانگین مربع خطا در آزمون 12٪ بود. به عنوان مجموعه تست استفاده شد. با افزایش نقاط تست که انتظار می رود به دلیل کوچک بودن مجموعه داده، خطا افزایش می یابد. پرسشها- * نگاهی گذرا به شکل زیر نشان میدهد که مدل باید در اکثر نقاط تست نیز عملکرد خوبی داشته باشد، زیرا نقاط پراکنده به نظر نمیرسند و مدل خطی است. چرا این نمودار بسیار فریبکارانه خوب به نظر می رسد، زیرا فقط تغییر دانه تصادفی در Weka، یعنی استفاده از یک مجموعه متفاوت از 3 نقطه مجموعه آموزشی با استفاده از همان مدل، ضریب همبستگی را به 0.33 کاهش می دهد و میانگین مربع را افزایش می دهد. خطا تا 82 درصد * در برخی موارد corr همچنان بالا بود (0.80+) اما میانگین خطا 100% بود! من معتقدم که یک «مدل خطی» نمیتواند دادهها را «بیش از حد برازش» کند، زیرا فقط یک خط مستقیم است که سعی میکند با نقاط داده مطابقت کند (اگر اشتباه میکنم، مرا تصحیح کنید). بیش از حد برازش معمولاً هنگام برخورد با چند جمله ای های مرتبه بالا یک مسئله است. آن را نمی تواند بیش از حد ضعیف است، زیرا در مجموعه آموزشی برای این مورد کاملاً خوب عمل می کند، همانطور که توسط corr بالا نشان داده شده است. پس داره چیکار میکنه؟ (شکل های زیر مربوط به داده های بالا نیست. فقط برای مصور بودن)  با تشکر فراوان برای هر گونه کمکی! | مدل خطی - درک عملکرد در مجموعه های آموزشی و آزمایشی |
63528 | من به دنبال حل نقطه ای هستم که در آن 2 تابع مقابل **Weibull** به هم می رسند. من از بسته drc استفاده می کنم، با نوع 2 Weibull که دارای 2 پارامتر در `R` است. من هر دو خط را با دادههایم تطبیق دادهام، و اکنون وقفههای _e_ و _b_ را برای توابع تعریفکننده هر خط دارم. اکنون می خواهم جایی که مقادیر x معادل هستند را حل کنم. تابع **Weibull (type2) 2** این است: $$ f(x)= 1-\exp\left[-\exp\left(b\times (\log(x) - \log(e)\ راست))\right] $$ خط فروپاشی نمایی: برآورد Std. خطای t-value p-value b:(Intercept) -2.226194 0.225339 -9.879323 0 e:(Intercept) 1.209326 0.072042 16.786444 0 خط افزایش نمایی: برآورد Std. خطای t-value p-value b:(Intercept) 1.616248 0.145047 11.142956 0 e:(Intercept) 1.837511 0.072107 25.482970 0 در حالت ایده آل من می خواهم برای این امتیاز هم فاصله بگیرم. من این اجرا را در R دارم، بنابراین اگر بتوانم کد پیشنهادی را وارد کنم، عالی خواهد بود. این برای مقاله ای است که من می نویسم و حل کننده این سؤال را به این نشریه اضافه می کنم. در مقاله، من از تابع Weibull برای مدلسازی واکنش PCR استفاده میکنم. این کد برای مثال افزایش نمایی است: # ابتدا دادههای خام را وارد کنید: # من آن را از اکسل میکشم > CCrelative <- read.xlsx('CC نسبی تاشو افزایش میدهد.xlsx', 1) > colnames (CCrelative) <- c (MolOffTarget، x1، x2) > print(CCrelative) #اینجا بعد از وارد کردن MolOffTarget x1 x2 1 است 50001.0 8.474 8.372 2 5001.0 7.795 7.617 3 501.0 7.090 7.291 4 56.0 6.258 4.803 5 6.0 2.093 6.0 2.090 1.819 1.1 0.480 0.508 #اکنون با کم کردن کمترین مقدار از هر یک > CClog0 <- تبدیل (CCrelative, x1 = (x1-(CCrelative[7,2]))، x2=(x2-(CCrelative) حداقل هر ستون را روی 0 تنظیم کنید [7،3]))) #now normalize به حداکثر مقدار > CClogT <- transform(CClog0, x1 = (x1/(CClog0[1,2]))، x2=(x2/(CClog0[1,3]))) # اکنون اولین مقیاس log10 ستون را ایجاد کنید > CClogT <- تبدیل (CClogT, MolOffTarget = log10(MolOffTarget) ) #now ستون های x1 و x2 را در یک قاب داده جدید ادغام کنید > CClogT2 <- data.frame(rep(CClogT$MolOffTarget, 2), c(CClogT$x1,CClogT$x2)) > colnames(CClogT2) <- c(MolOffTarget، FAM) > CClogT2.W2.2 <- drm (FAM ~ MolOffTarget، داده = CClogT2، fct = W2.2()) در اینجا کد برای فروپاشی نمایی: > CCvicRelative <- read.xlsx('CCvicRelative fold.xlsx', 1) > colnames (CCvicRelative) <- c(MolOffTarget، x1، x2) > print(CCvicRelative) MolOffTarget x1 x2 1 50001.0 -0.717 -0.706 2 5001.0 -0.565 -0.567 3 501.0 -0.360 -0.349 4 56.0 -0.001 0.584 5 6.0 1.568 1.582 6 1.5 1.7201.721. 1.844 #اکنون با کم کردن کمترین مقدار از هر یک > CCvic0 <-(CCvicRelative, x1 = (x1-(CCvicRelative[1,2]))، x2=(x2-(CCvicRelative[1) حداقل هر ستون را روی 0 تنظیم کنید ,3]))) #now normalize به حداکثر مقدار > CCvicT <- transform(CCvic0, x1 = (x1/(CCvic0[7,2]))، x2=(x2/(CCvic0[7,3]))) # اکنون اولین مقیاس log10 ستون را بسازید > CCvicTlog <- transform(CCvicT, MolOffTarget = log10(MolOffTarget) ) #now ستون های x1 و x2 را در یک قاب داده جدید ادغام کنید > CCvicT2 <- data.frame(rep(CCvicTlog$MolOffTarget, 2), c(CCvicTlog$x1,CCvicTlog$x2)) > colnames(CCvicT2) <- c(MolOffTarget، VIC) > CCvicT2.W2.2 <- drm (VIC ~ MolOffTarget، داده = CCvicT2، fct = W2.2()) با عرض پوزش که در این HTML کمی خنده دار است. کمی طول کشید تا به این بسته عادت کنم. من قبلا از بسته های Bioconductor استفاده می کردم. من قبلاً با تابع Weibull اشتباه کردم. مورد صحیح اکنون موجود است. | حل نقطه قطع / هم ارزی / نقطه تقاطع جایی که دو رگرسیون وایبول به هم می رسند |
67318 | به طور خاص، فرض کنید من دو رویداد، A و B، و برخی پارامترهای توزیع $ \theta $ دارم، و من می خواهم به $P(A | B,\theta)$ نگاه کنم. بنابراین، سادهترین تعریف احتمال شرطی، با توجه به برخی رویدادهای A و B، سپس $P(A|B) = \frac{P(A \cap B)}{P(B)}$ است. بنابراین اگر چندین رویداد برای شرطی کردن وجود دارد، مانند آنچه در بالا گفتم، آیا میتوانم بگویم که $P(A | B,\theta) \stackrel{?}{=} \frac{P((A | \theta)\cap (B | \theta))}{P(B|\theta)}$ یا من کاملاً اشتباه به آن نگاه می کنم؟ من معمولاً وقتی با احتمالات سر و کار دارم، خودم را روانی می کنم، واقعاً نمی دانم چرا. | تعریف احتمال شرطی با چند شرط |
37987 | بنابراین 50٪ احتمال دارد که من 150٪ به نظر می رسد که X سرطان را درمان کند، و 100٪ که Y سرطان را درمان می کند. به غیر از این، هیچ ایده ای ندارم بدون اینکه در گوگل سرچ کنم چگونه این را بفهمم. توضیح مفصل خوب است. **ویرایش: 66% بعید است (یا احتمال دارد؟) که Y در مقایسه با X سرطان را درمان کند --** **اکنون قوانین اساسی که برای کشف این موضوع به همراه سایر مشکلات مشابه مورد نیاز است چیست؟* * | دریابید که Y نسبت به X چقدر بعید است -- زمانی که X نسبت به Y 50 درصد بیشتر احتمال دارد سرطان را درمان کند |
67312 | من سعی می کنم مجموعه داده ای را با حداقل 50 متغیر توضیحی که به صورت 0 و 1 برای حضور/غیاب و یک متغیر پاسخ باینری (مورد/کنترل) کدگذاری شده اند، تجزیه و تحلیل کنم. هدف این است که ببینیم چگونه متغیرها می توانند جدایی بین مورد و کنترل را پیش بینی کنند. از آنجایی که متغیرهای بیشتری نسبت به مشاهدات وجود دارد، من یک تحلیل تفکیک حداقل مربعات جزئی (PLS-DA) را با استفاده از بسته mixOmics در R اعمال کردم. با این حال، وقتی میخواهم اهمیت آنالیز را با PLSDA.test (بسته RVAideMemoire) آزمایش کنم. بسیاری از هشدارها: `1: در pls(X، ind.mat، ncomp = ncomp، حالت = رگرسیون، ... : صفر- یا پیشبینیکنندههای واریانس نزدیک به صفر، ماتریس پیشبینیکنندهها را به پیشبینیکنندههای واریانس نزدیک به صفر بازنشانی کنید متغیرها به عوامل، اما این کمک نمی کند آیا تجزیه و تحلیل متفاوتی وجود دارد که چگونه می توانم با متغیرهای حضور و غیاب به عنوان پیش بینی کننده برخورد کنم؟ پیشاپیش از پاسخ شما متشکرم!!! | PLS-DA با پیشبینیکنندههای باینری در R (بسته mixOmics) |
37367 | من میخواهم حداقل مربعات ضرایب را برای $y=\beta_0+\beta_1*x_1+\varepsilon$ با استفاده از فرمول کلی استخراج کنم. آیا کسی می تواند من را در مورد نحوه رسیدن از B به D در تصویر زیر راهنمایی کند؟  | اثبات رگرسیون ساده با استفاده از فرمول عمومی |
9778 | اکثر الگوریتمهای خوشهبندی که من دیدهام، با ایجاد فاصلههای هر یک در میان تمام نقاط شروع میشوند، که در مجموعه دادههای بزرگتر مشکلساز میشود. آیا کسی هست که این کار را انجام ندهد؟ یا به نوعی رویکرد جزئی / تقریبی / پلکانی دارد؟ کدام الگوریتم/پیاده سازی خوشه بندی کمتر از O(n^2) فضای اشغال می کند؟ آیا لیستی از الگوریتم ها و زمان و مکان مورد نیاز آنها در جایی وجود دارد؟ | خوشه بندی فضای کارآمد |
67319 | من چهار مدل دارم که هر کدام با MCMC روی تعداد زیادی درخت فیلوژنتیک اجرا می شوند. هر مدل به دست آمده دارای یک احتمال پسین ورود به سیستم (مجموع احتمال ورود و ورود به سیستم قبل) است. از آنجایی که من باید میانگین وزن مدل ها را بر اساس مدل های پسین آن ها محاسبه کنم (میانگین سازی مدل بیزی)، به احتمالات پسین اصلی نیاز دارم. چگونه می توانم آنها را از 0 تا 1 استاندارد کنم؟ آیا باید از بین چهار مدل برای هر درخت عادی کنم؟ همچنین در نظر بگیرید که پسین های لاگ من منفی و بسیار کم هستند (<-700)، سپس وقتی نمایی آنها را محاسبه می کنم 0 دریافت می کنم. پیشاپیش ممنون | تبدیل احتمالات پسین ورود به سیستم برای میانگینگیری مدل بیزی |
50807 | من مشکل (چند کلاسه) **طبقه بندی** را بر اساس **سری زمانی** با طول متغیر $T$ در نظر میگیرم، یعنی یافتن تابع $$f(X_T) = y \in [1..K ]\\\ \text{برای } X_T = (x_1، \dots، x_T)\\\ \text{با } x_t \in \mathbb{R}^d ~,$$ از طریق یک نمایش جهانی از سری زمانی توسط مجموعه ای از **ویژگی*های انتخاب شده** $v_i$ با اندازه ثابت $D$ مستقل از $T$, $$\phi(X_T) = v_1, \dots, v_D \in\ mathbb{R}~,$$ و سپس از روش های طبقه بندی استاندارد در این مجموعه ویژگی استفاده کنید. _من **علاقه ای به پیش بینی کردن، یعنی پیش بینی $x_{T+1}$_ ندارم. به عنوان مثال، ما ممکن است نحوه راه رفتن یک فرد را برای پیش بینی جنسیت آن تجزیه و تحلیل کنیم. **ویژگی های استانداردی که ممکن است در نظر بگیرم کدامند؟** به عنوان مثال، واضح است که می توانیم از _mean_ و _واریانس_ سری (یا لحظه های مرتبه بالاتر) استفاده کنیم و همچنین به حوزه فرکانس نگاه کنیم، مانند انرژی موجود در برخی بازه _تبدیل فوریه گسسته_ سری (یا _تبدیل موجک گسسته_). | ویژگی های طبقه بندی سری های زمانی |
112215 | من با داده های طولی کار می کنم، جایی که در هر نقطه زمانی تعداد متفاوتی از اقلام وجود دارد. من با تابع MCdynamicIRT1d در MCMCpack در R کار می کنم تا یک مدل IRT پویا با آیتم های باینری را تخمین بزنم. با این حال، در حال حاضر من علاقه مند به مدل سازی آیتم های ترتیبی در همان مدل هستم. من نمونه ای از یک مدل IRT پویا با داده های ترتیبی در BUGS پیدا کردم و کد مبتنی بر یک فایل داده CSV به این صورت است: CTRY YEAR Item1 Item2 Item3 Item4 افغانستان 1981 0 1 0 0 افغانستان 1982 2 0 1 2 .... آلبانی 1981 0 2 0 0 آلبانی 1982 1 0 0 1 .... مسئله این است که داده های من در هر نقطه زمانی تعداد اقلام متفاوتی دارند. من با پرونده های دادگاه عالی ایالات متحده کار می کنم، و دادگاه تعداد متفاوتی از پرونده ها را در سال می بیند. بنابراین دادههای من ممکن است چیزی شبیه به این باشد: Justice1 Justice2 سال زمان 0 0 1960 1 1 0 1960 1 0 1 1960 1 0 0 1961 2 0 0 1961 2 0 0 1961 2 0 0 1903 1961 2 0 0 1961 آیا فکری در مورد اینکه چگونه می توانم ساختار داده خود را با تعداد متفاوتی از اقلام در هر نقطه زمانی تطبیق دهم؟ من از هر توصیه ای که می توانید ارائه دهید قدردانی می کنم!!! ===== کد BUGS من سعی می کنم با آن کار کنم ==== model{ for(i در 1:n){# n تعداد obs برای (مورد در 1:4) است{ logit(Z[i, مورد، 1]) <- آلفا[مورد، 1] - بتا[مورد]*x[i] logit(Z[i، مورد، 2]) <- آلفا[مورد، 2] - beta[iem]*x[i] Pi[i، مورد، 1] <- Z[i، مورد، 1] Pi[i، مورد، 2] <- Z[i، مورد، 2] - Z[i، مورد، 1] Pi[i، مورد، 3] <- 1 - Z[i، مورد، 2] y[i، مورد] ~ dcat(Pi[i، مورد، 1:3]) } x[i] <- mu[کشور[i]، سال[i]] } سیگما ~ dunif(0،1) کاپا <- pow(سیگما، -1) برای(c در 1:n .country){ mu[c, 1] ~ dnorm(0, 1) for(t in 2:n.year){ #n.year تعداد سالها mu[c, t] ~ dnorm(mu[c، t-1]، کاپا) } } for(j در 1:4){ beta[j] ~ dgamma(4، 3) alpha0[j، 1] ~ dnorm(0، 0.25) آلفا0 [j، 2] ~ dnorm(0، 0.25) آلفا[j، 1:2] <- مرتب سازی(alpha0[j, 1:2]) } } | فرمت داده های طولی در WinBUGS یا OpenBUGS، تعداد آیتم های مختلف در هر نقطه زمانی |
108691 | من در تجزیه و تحلیل آماری کاملاً تازه کار هستم و باید هر روز هزاران پوشه/فایل را بررسی کنم تا در نگاه اول ببینم آیا اندازه فایل نشان دهنده یک خطا است (خیلی بزرگ/کوچک و غیره). اندازه فایل ها به طور معمول توزیع نمی شوند و برخی از فایل ها در طول زمان روند صعودی/نزولی دارند. در حال حاضر، از آنجایی که من این را با استفاده از matlab برنامهنویسی میکنم و با برنامهنویسی آماری و matlab جدید هستم، انحراف استاندارد دادهها را 2* میگیرم، اما این همیشه منجر به تست دقیق نمیشود. آیا کسی توصیه ای دارد؟ دو نمونه از نقاط پرت (سبز) و محدوده آزمایش فعلی من (قرمز) پیوست شده است.   فکر کردم میانگین متحرک ممکن است ایده خوبی است، اما از آنجایی که این برنامه زمان می برد، می خواهم قبل از ادامه با کارشناسان مشورت کنم و مطمئن نیستم که چگونه آزمایشی را برای بررسی موارد پرت در این مورد اجرا کنم. | مقایسه اندازه فایل ها در روز برای مقادیر پرت، از چه آزمایشی استفاده کنیم؟ |
68323 | آیا ادبیاتی وجود دارد که انتخاب اندازه minibatch را هنگام انجام نزول گرادیان تصادفی بررسی کند؟ در تجربه من، به نظر می رسد این یک انتخاب تجربی است که معمولاً از طریق اعتبارسنجی متقاطع یا با استفاده از قوانین مختلف سرانگشتی یافت می شود. آیا این ایده خوبی است که با کاهش خطای اعتبارسنجی، اندازه مینی بچ را به آرامی افزایش دهیم؟ این چه تأثیری بر خطای تعمیم خواهد داشت؟ آیا بهتر است از یک مینی بچ بسیار کوچک استفاده کنم و مدل خود را صدها هزار بار به روز کنم؟ آیا بهتر است یک عدد متعادل بین بسیار کوچک و دسته ای داشته باشم؟ آیا باید اندازه مجموعه کوچک خود را با اندازه مجموعه داده یا تعداد مورد انتظار ویژگی ها در مجموعه داده مقیاس کنم؟ من بدیهی است که سوالات زیادی در مورد اجرای طرح های یادگیری مینی بچ دارم. متأسفانه، بیشتر مقالاتی که خواندم واقعاً نحوه انتخاب این فراپارامتر را مشخص نمی کنند. من از نویسندگانی مانند Yann LeCun، به ویژه از مجموعه مقالات Tricks of the Trade، موفقیت هایی کسب کرده ام. با این حال، من هنوز ندیده ام که به این سؤالات به طور کامل پرداخته شود. آیا کسی توصیه ای برای مقالات دارد، یا توصیه ای در مورد اینکه از چه معیارهایی می توانم برای تعیین اندازه های مینی دسته خوب هنگام تلاش برای یادگیری ویژگی ها استفاده کنم، دارد؟ | انتخاب اندازه مینی بچ مناسب برای نزول گرادیان تصادفی (SGD) |
67311 | من در حال حاضر 146 شرکت کننده در 4 گروه به شرح زیر دارم: * گروه 1 = 46 * گروه 2 = 40 * گروه 3 = 29 * گروه 4 = 37 هر گروه همان 20 آزمایش را تکمیل می کند، اما گروه ها ویژگی های متفاوتی دارند (به همین دلیل است که آنها جدا شده اند). میخواهم بدانم آیا در هر دسته شرکتکنندگان کافی برای به دست آوردن نتایج آماری معنیدار دارم یا اینکه باید به مطالعه ادامه دهم و شرکتکنندگان بیشتری داشته باشم. | چگونه می توان تشخیص داد که حجم نمونه من به اندازه کافی بزرگ است یا خیر |
72573 | این برگرفته از این سوال است: چگونه دو گروه را با اندازه گیری های متعدد برای هر فرد با R مقایسه کنیم؟ در پاسخهای موجود (اگر درست متوجه شده باشم) متوجه شدم که واریانس درون موضوعی بر استنتاجهای حاصل از میانگینهای گروه تأثیر نمیگذارد و اشکالی ندارد که به سادگی میانگینهای میانگین را برای محاسبه میانگین گروه بگیرید، سپس واریانس درون گروهی را محاسبه کنید و از آن استفاده کنید. برای انجام تست های معناداری من مایلم از روشی استفاده کنم که در آن هر چه واریانس درون موضوعی بزرگتر باشد، کمتر در مورد معنای گروه مطمئن هستم یا درک می کنم که چرا تمایل به آن معنا ندارد. در اینجا نموداری از داده های اصلی همراه با برخی از داده های شبیه سازی شده است که از همان میانگین موضوعی استفاده می کردند، اما اندازه گیری های فردی را برای هر موضوع از یک توزیع نرمال با استفاده از آن میانگین ها و یک واریانس کوچک درون موضوعی نمونه برداری کردند (sd=.1). همانطور که مشاهده می شود فواصل اطمینان سطح گروه (ردیف پایین) تحت تأثیر این قرار نمی گیرند (حداقل روشی که من آنها را محاسبه کردم).  من همچنین از rjags برای تخمین میانگین گروه به سه روش استفاده کردم. 1) از داده های اصلی خام استفاده کنید 2) فقط از معنی موضوع استفاده کنید 3) از داده های شبیه سازی شده با sd کوچک درون موضوعی استفاده کنید نتایج در زیر آمده است. با استفاده از این روش می بینیم که 95% فواصل معتبر در موارد #2 و #3 باریکتر است. این با شهود من از آنچه که میخواهم هنگام استنتاج در مورد ابزارهای گروهی رخ دهد، برآورده میکند، اما مطمئن نیستم که آیا این فقط بخشی از مدل من است یا ویژگی فواصل معتبر. توجه داشته باشید. برای استفاده از rjags باید ابتدا JAGS را از اینجا نصب کنید: http://sourceforge.net/projects/mcmc-jags/files/  کدهای مختلف در زیر آمده است. داده های اصلی: ساختار(c(1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 2، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 1، 1، 1، 1، 1، 1، 2، 2، 2، 2، 2، 2، 3، 3، 3، 3، 3، 3، 4، 4، 4، 4، 4، 4، 5، 5، 5، 5، 5، 5، 6، 6، 6، 6، 6، 6، 7، 7، 7، 7، 7، 7، 8، 8، 8، 8، 8، 8، 9، 9، 9، 9، 9، 9، 10، 10، 10، 10، 10، 10، 11، 11، 11، 11، 11، 11، 12، 12، 12، 12، 12، 12، 13، 13، 13، 13، 13، 13، 14، 14، 14، 14، 14، 14، 15، 15، 15، 15، 15، 15، 16، 16، 16، 16، 16، 16، 17، 17، 17، 17، 17، 18، 18، 18، 18، 18، 18، 2، 0، 16، 2، 16، 2، 8، 10، 8، 6، 4، 4، 8، 22، 12، 24، 16، 8، 24، 22، 6، 10، 10، 14، 8، 18، 8، 14، 8، 20، 6، 16، 6، 6، 16، 4، 2، 14، 12، 10، 4، 10، 10، 8، 4، 10، 16، 16، 2، 8، 4، 0، 0، 2، 16، 10، 16، 12، 14، 12، 8، 10، 12، 8، 14، 8، 12، 20، 8، 14، 2، 4، 8، 16، 10، 14، 8، 14، 12، 8، 14، 4، 8، 8، 10، 4، 8، 20، 8، 12، 12، 22، 14، 12، 26، 32، 22، 10، 16، 26، 20، 12، 16، 20، 18، 8، 10، 26)، .Dim = c(108L، 3L)، .Dimnames = list(NULL، c(گروه، موضوع ، مقدار))) دریافت موضوع به معنی و شبیه سازی داده ها با واریانس کوچک درون موضوعی: #Get Subject Means معنی دارد<-جمع (Value~Group+Subject, data=dat, FUN=mean) #Initialize dat2 dataframe dat2<-dat #نمونه اندازه گیری فردی برای هر موضوع temp=NULL برای(i در 1:nrow (به معنی)){ temp<-c(temp,rnorm(6,means[i,3], .1)) } #تنظیم مقادیر شبیه سازی شده dat2[,3]<-temp تابع متناسب با مدل JAGS: require(rjags) #Jags fit function jags.fit<-function(dat2){ #Create model JAGS modelstring = model{ for(n در 1:Ndata){ y[n]~dnorm(mu[subj[n]],tau[subj[n]]) T(0, ) } for(s in 1:Nsubj){ mu[s]~dnorm(muG,tauG) T(0, ) tau[s] ~ dgamma(5,5)} muG~dnorm(10,.01) T( 0, ) tauG~dgamma(1,1) } writeLines(modelstring,con=model.txt) ############# #قالببندی داده Ndata = nrow(dat2) subj = as.integer( factor( dat2$Subject , level=unique(dat2$subject ) ) ) Nsubj = طول( منحصر به فرد( subj)) y = as.numeric(dat2$Value) dataList = list( Ndata = Ndata , Nsubj = Nsubj , subj = subj , y = y ) #گره ها برای نظارت بر پارامترها=c(muG,tauG,mu,tau) #MCMC تنظیمات adaptSteps = 1000 burnInSteps = 1000 nChains = 1 numSavedSteps = nCha *10000 thinSteps=20 nPerChain = سقف ( ( numSavedSteps * thinSteps ) / nChains ) #Create Model jagsModel = jags.model( model.txt , data=dataList, n.chains=nChains , n.adapt=adaptquietSteps , n.adapt=adaptquietSteps در: گربه( Burning in the MCMC chain...\n ) update(jagsModel, n.iter=bur | آیا هنگام استنباط در مورد میانگین های گروهی، فواصل معتبر به واریانس درون موضوعی حساس هستند در حالی که فواصل اطمینان حساس نیستند؟ |
30358 | من در پکیج e1071 دسته بندی متن را با R و SVM انجام می دهم. من حدود 30000 فایل متنی برای آموزش و 10000 فایل برای تست دارم. هدف این است که **_hierarchically_** این فایل ها را دسته بندی کنیم. مثلا من در سطح 1 13 دسته دارم مثل ورزش، ادبیات، سیاست و ... و در سطح دوم بیش از 300 دسته است. به عنوان مثال، زیر رده ورزشی، زیرمجموعه هایی مانند فوتبال، بسکتبال، راگبی و غیره وجود دارد. **دو استراتژی** برای رسیدن به دسته بندی در سطح 2 وجود دارد. سطح (13 دسته)، و سپس به صورت بازگشتی، فایل ها را در میان زیرمجموعه های خود طبقه بندی می کند. **استراتژی دوم** مستقیم تر است، یعنی به همه دسته ها (بیش از 300) در سطح 2 برچسب های مختلفی اختصاص می دهیم، سپس مدل را با SVM آموزش می دهیم. برای استراتژی دوم، اگرچه من از SVD برای ماتریس doc-term استفاده کرده ام، ابعاد آن را به 30000 * 10 کاهش داده ام. **. بنابراین میخواهم از شما اساتید بپرسم که آیا تعداد زیاد دستهها یک مشکل واقعی برای SVM است؟ به طور خاص، در مورد من، کدام استراتژی نتایج بهتری به همراه خواهد داشت و در عمل عملی تر است؟ با تشکر بسیار برای هر نظر مفید و راه حل! | تعداد کلاس های مناسب برای SVM در دسته بندی متن |
97562 | من در این مورد تحقیقات زیادی انجام داده ام اما نمی توانم دقیقاً بفهمم که چگونه این کار را انجام دهم. من باید مشکلی را پیدا کنم که بتوان آن را با استفاده از بهینه سازی مونت کارلو حل کرد (مهم است که یک بهینه سازی باشد نه شبیه سازی). من با محاسبه مساحت اشکال پیچیده و مشکل TSP برخورد کردم. آیا کسی میداند آیا کدی وجود دارد که از تولید اعداد تصادفی (روش مونت کارلو) برای هر یک از این بهینهسازیها (یا بهینهسازیهای دیگری که میتواند توسط مونت کارلو حل شود؟) استفاده میکند یا خیر. با تشکر | بهینه سازی مونت کارلو |
107711 | من یاد گرفتم که بوت استرپ برای درمان غیر عادی بودن باقیمانده ها استفاده می شود و اساساً نمونه برداری مجدد را انجام می دهد. من بوت استرپ را روی Stata انجام دادم و نتیجه را با رگرسیون معمولی مقایسه کردم. reg salary salbegin educ, vce(bootstrap, reps(1000)) ------------------------------------ ------------------------------------------ | بوت استرپ مشاهده شده حقوق مبتنی بر عادی | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ سالبگین | 1.672631 .0962783 17.37 0.000 1.483928 1.861333 educ | 1020.39 164.8032 6.19 0.000 697.3818 1343.398 _cons | -7808.714 1582.694 -4.93 0.000 -10910.74 -4706.692 ------------------------------------------------ ----------------------------- حقوق و دستمزد سالبیگین آموزش ------------------------------------------------ ---------------------------- حقوق | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ سالبگین | 1.672631 .058847 28.42 0.000 1.556995 1.788266 educ | 1020.39 160.5504 6.36 0.000 704.9064 1335.874 _cons | -7808.714 1753.86 -4.45 0.000 -11255.07 -4362.355 ------------------------------------------------ ---------------------------- با کمال تعجب، به نظر نمی رسد که ضریب و مقدار p تغییر کنند. اگر بوت استرپ نمونه برداری مجدد انجام می دهد، چرا نتیجه رگرسیون تغییر نمی کند؟ بوت استرپ واقعاً چه می کند؟ آیا فقط خطای استاندارد را تصحیح می کند؟ | چرا نتایج رگرسیون پس از بوت استرپ تغییر نمی کند؟ |
108693 | من تازه وارد تحقیق هستم و تازه شروع کرده ام. مطالعه پیش بینی شده من در مورد عوامل تعیین کننده مشارکت جامعه در برنامه ریزی برای مداخلات غیر پزشکی HIV و ایدز است. حال سوال این است که آیا مدل مربوط به مطالعه من است؟ مقیاس شاخص برای متغیر وابسته من 1 و 2 است که به ترتیب به معنای مشارکت کم و زیاد در برنامه ریزی است. عوامل متعددی وجود دارند که تصور میشود بر مشارکت مثبت تأثیر منفی میگذارند، یعنی J=0،1...j. لطفاً اگر مناسب استفاده است، راهنمایی کنید. | مدل لجستیک ترتیبی |
24164 | رگرسیونی که در آن همه IV ها پس از رگرسیون با بقیه IV ها با باقیمانده هایشان جایگزین می شوند. من دیده ام (به عنوان مثال در عناصر یادگیری آماری) چگونه انجام این کار در یک رگرسیون چند متغیره ضرایب چند متغیره را از رگرسیون های تک متغیره به دست می دهد. اما به غیر از این، چرا از استفاده از IV های متعامد به جای نمونه های معمولی سود می برد؟ چه دلایلی برای انجام این کار در رگرسیون چند متغیره وجود دارد؟ | چرا باید یک رگرسیون متعامد (گرم اشمیت) انجام داد؟ |
59974 | یک رویکرد برای آزمون فرضیه های پیشنهادی داده ها، روش شفه است. طبق مقاله ویکیپدیا، کنتراست $C = \sum_{i=1}^r c_i \mu_i$ (که در آن $\sum_{i=1}^r c_i=0$) توسط کنتراست نمونه مربوطه تخمین زده میشود. کلاه C$، و واریانس دومی با $s^2_{\hat C} = \hat\sigma^2_e \sum_{i=1}^r تخمین زده میشود. c_i^2/n_i$ (که در آن $n_i$ اندازه نمونه از جمعیت $i$th و $n=\sum_{i=1}^r n_i$ است)، و به احتمال $1-\alpha$ همه فواصل اطمینان به شکل $\hat C\pm s_C\sqrt{(r-1)F_{\alpha,r-1,n-r}}$ معتبر هستند (همه آنها حاوی پارامترهایی که آنها برآورد می کنند). همه به معنای برای همه تضادها است. بنابراین من به دنبال یک تغییر در این وضعیت هستم. بهجای مقایسههای چندگانه، من این رگرسیون خطی ساده را دارم: $y_i = \alpha+\beta x_i+\text{error}_i$، با ۲۲ نقطه داده، که هیچ دوتای آنها یک مقدار مشترک $x$ ندارند. 20 مورد از آنها به نظر می رسد که اگر یک خط از طریق آنها معقول است. دو مورد دیگر جدا از آن خط هستند، و خطی که از آن دو نقطه عبور میکند بسیار نزدیک به همان خطی است که از تطبیق مدل با 20 نقطه دیگر به دست میآید. بنابراین من یک حدس سریع در مورد چگونگی اصلاح روش شفه برای این وضعیت به خطر انداخته ام. (شاید بعداً جزئیات را با دقت بررسی کنم و ببینم آیا می توانم ثابت کنم که حدس من منطقی است.) * یک متغیر نشانگر $w$ معادل $1$ در 20 مورد و برابر با $2$ در دو مورد دیگر معرفی کنید. مدل $y_i=\alpha + \gamma w_i+ \beta x_i+\text{error}_i$ را مطابقت دهید. * به جای $s^2_C$ از میانگین مجذور خطای معمول از این برازش استفاده کنید. * به جای تضاد بین $Y_i$، از تضاد بین باقیمانده های مدل بدون نشانگر استفاده کنید. * به جای $(r-1)F_{\alpha,r-1,N-r}$، از $(22-1)F_{\alpha,22-1,22-3}$ استفاده کنید زیرا $22-3$ وجود دارد درجه آزادی برای خطا احمق ها هجوم می آورند . . . . آیا بعد از اینکه همه چیز را بررسی کردم، این هنوز قابل قبول به نظر می رسد؟ PS: به نظر من در زیر توجه کنید. و اگر این کار اشتباهی است، آیا کار درستی وجود دارد؟ | تضاد پیشنهاد شده توسط داده ها |
50803 | فرض کنید شما یک اندازه گیری $Y_i$ دارید. حال فرض کنید که تفاوت بین دو اندازه گیری $\delta_{ij}=Y_i-Y_j$ یک اندازه گیری ترتیبی است. از درک من، $Y_i$ آموزنده تر از اندازه گیری ترتیبی است زیرا تفاوت ها معنی دار هستند. اما همچنین اطلاعات کمتری نسبت به مقیاس فاصله ای دارد زیرا فواصل اندازه گیری نسبت نیستند. $Y_i$ را چه می نامید؟ نمونه ای که من به آن فکر می کردم یک سیستم امتیاز برای یک نردبان در یک مسابقه ورزشی است. فرض کنید سه تیم برتر در یک رشته ورزشی در پایان یک فصل به ترتیب 72،60،58 دلار امتیاز دارند. سپس من انتظار دارم که تیم اول بهتر از تیم دوم باشد _به میزان بیشتر_ از تیم دوم بهتر از تیم سوم به عنوان $(72-60)>(60-58)$. اما نمیتوانم بگویم که با استفاده از این اندازهگیری، آنها 6 دلار برابر بهتر هستند (6=\frac{72-60}{60-58}$) - فقط میگویم (با استفاده از دستور زبان ضعیف) بیشتر بهتر. | اندازه گیری که در نیمه راه بین ترتیبی و بازه ای است را چه می نامید؟ |
95505 | ادبیات نشان میدهد که ما باید مجموعه دادهای داشته باشیم که شرایط همسویی را برآورده کند. اما به نظر می رسد چنین شرطی مناسب نیست. | آیا برای تحلیل رگرسیون خطی اجباری است که یک متغیر وابسته و هم متغیر مستقل دارای واریانس مساوی باشند؟ |
59970 | چیزی که من دارم: یک فرآیند تکراری مبتنی بر استفاده از یک جبر بسیار ساده برای نشان دادن یک نرخ، با وابستگی کلی بین هر تکرار و نسخه قبلی آن (یک پارامتر ورودی برای (n)مین تکرار، پارامتر خروجی از (n-1) است. )تکرار. آنچه من می خواهم: نوعی تغییر در جبر اجازه می دهد تا سطحی از استقلال در میان تکرارهای متوالی، به این ترتیب اجازه موازی سازی. آنچه تاکنون میدانم (یا به آن اعتقاد دارم: ادبیات منتشر شده گستردهای در مورد روشهای تکراری موازی وجود دارد، اما بیشتر آنها درباره روشهای کلاسیک مانند: http://machinelearning.wustl.edu/mlpapers/paper_files/NIPS2006_725.pdf هستند، اما من من نمی توانم تشخیص دهم که از کدام یک از آنها می توانم برای کمک به جبر ساده ام استفاده کنم. سوال: آیا کسی می تواند به من کمک کند تا به ادبیات مبانی تبدیل جبر با هدف موازی سازی اشاره کنم؟ (هر گونه فکر در این مورد بسیار مفید خواهد بود) | موازی سازی یک مدل تکراری |
3950 | من در حال حاضر با بردارهای ویژگی کار می کنم که از ویژگی های پیوسته تشکیل شده اند، بنابراین می توانم از فاصله اقلیدسی برای مواردی مانند طبقه بندی KNN و خوشه بندی استفاده کنم. اکنون می خواهم یک ویژگی اسمی اضافه کنم که تابع فاصله خاصی تعریف شده است. چه گزینههایی برای ترکیب این توابع فاصله دارم، بنابراین هنوز یک فاصله برای دو بردار بدست میآورم؟ | چه گزینه هایی برای ترکیب توابع مختلف فاصله وجود دارد؟ |
4196 | من یک سری زمانی X(t) دارم. هر X(t) دارای سه نتیجه ممکن است: A,B,C. من به نسبت A,B,C به کل علاقه دارم. با فرض اینکه N تعداد کل نقاط داده ای است که من برای X(t) جمع آوری کرده ام، _ چگونه می توانم سطوح اطمینان A/N، B/N و C/N را محاسبه کنم زمانی که X(t) به طور شهودی مستقل نیستند؟ به عنوان مثال: X(t) نشان دهنده این است که آیا خودرو در حال حرکت است (سرعت>0)، متوقف شده (سرعت=0) یا موتور آن خاموش است. داده هایی که من جمع آوری کردم یک برش زمانی مربوط به یک ماشین است. برای من، این دستهها مستقل نیستند، زیرا وقتی ماشین در X(t) حرکت میکند، به احتمال زیاد همچنان در X(t) حرکت میکند. [درست می گویم؟] | فاصله اطمینان برای نسبت در سری های زمانی |
68329 | فرض کنید $X,Y$ و $Z$ نرمال چند متغیره با میانگین و ماتریس کوواریانس کامل هستند. انتظار شرطی $E(X | Y)$ به خوبی شناخته شده است. اگر $Y$ و $Z$ (و $X$) همبستگی داشته باشند، انتظار مشروط $E(X | Y,Z)$ چیست؟ به نظر میرسد که کتابهای درسی استاندارد فقط زمانی را پوشش میدهند که $Y$ و $Z$ همبستگی نداشته باشند. | متغیرهای انتظار شرطی 3 |
30354 | در مشکل من 2 طبقه بندی C1 و C2 دارم. هر دو C1 و C2 طبقه بندی کننده های Naive Bayes هستند، اما تفاوت بین آنها این است که از روش های مختلف انتخاب ویژگی استفاده می کنند. هر دو طبقهبندیکننده روی مجموعه دادهای از 10000 نمونه (با برچسب نویزدار) آموزش داده میشوند و روی یک مجموعه داده متفاوت از 1000 نمونه (به صورت دستی برچسبگذاری شده) آزمایش میشوند، هر دو مجموعه داده متعادل هستند. اکنون، من دقت هر دو طبقهبندیکننده را بر روی تعداد نمونههای فزاینده ترسیم کردهام و با بازرسی بصری دریافتم که C2 عموماً دقت و یادآوری بهتری نسبت به C1 دارد. من می خواهم بدانم که آیا چنین تفاوتی از نظر آماری معنی دار است یا خیر تا ارزیابی کنم که C2 بهتر از C1 است. قبلاً، من از همان مجموعه داده برای اعتبارسنجی k-cross استفاده میکردم، میانگین و تغییرات دقت هر دو طبقهبندیکننده را بهدست آوردم و آزمون t دانشجویی را روی مقدار مشخصی از ویژگیها محاسبه کردم. با این حال، اکنون 2 مجموعه داده مختلف برای آموزش و آزمایش دارم. چگونه می توانم در چنین شرایطی آزمایش انجام دهم؟ آیا باید میانگین دقت را برای همه مقادیر مختلف ویژگی بدست بیاورم؟ پیشاپیش متشکرم... **ویرایش** در مورد دامنه، من با تجزیه و تحلیل احساسات (SA) سروکار دارم، داده های متنی را در 3 کلاس مثبت، منفی و خنثی طبقه بندی می کنم. در مورد هزینه خطا، در این مرحله من فرض میکنم که تمام هزینههای خطا یکسان هستند (اگرچه میدانم که هزینه طبقهبندی منفی به عنوان مثبت بیشتر از منفی به عنوان خنثی است). با توجه به تفاوت قابل توجه عملی هنگام برخورد با SA، من فرض می کنم که بهبود 1٪ قابل توجه است، زیرا مقالات قبلی معمولاً چنین پیشرفت هایی را ارائه می دهند. من میخواهم دقت C1 و C2 را هنگام آموزش روی دادههای برچسبگذاری شده خودکار و آزمایش روی دادههای برچسبگذاری شده دستی آزمایش کنم. | مقایسه دو طبقهبندی کننده در جفت مجزای مجموعه دادههای قطار و آزمایش |
3024 | من میدانم که برای مجموعههای داده خاصی مانند رای دادن، عملکرد بهتری دارد. چرا رگرسیون پواسون بر رگرسیون خطی معمولی یا رگرسیون لجستیک استفاده می شود؟ انگیزه ریاضی آن چیست؟ | چرا از رگرسیون پواسون برای داده های شمارش استفاده می شود؟ |
91839 | این یک سؤال ساده برای آزمایش فرضیه بین یک جایگزین ساده و یک جایگزین پیچیده است. من میخواهم فرضیه صفر $H_0 را آزمایش کنم: \mu = \mu_0$ در مقابل $H_1 جایگزین: \mu = \mu_0 \pm \epsilon =\mu_1$ که $\epsilon$ یک عدد ثابت است که $\mu_0+\epsilon $ و $\mu_0-\epsilon$ هر دو به یک اندازه محتمل هستند. بنابراین می توانم بگویم که قوی ترین تستی است که در آن ما برای $\mu_0>\mu_1$ و $\mu_0<\mu_1$ تست می کنیم؟ | آزمون فرضیه ساده صفر در مقابل جایگزین پیچیده |
37989 | من یک بار روشی را شنیدم که از کمند دو بار استفاده میکند (مانند یک کمند دوگانه) که در آن شما کمند را روی مجموعه اصلی متغیرها، مثلاً S1، اجرا میکنید، یک مجموعه پراکنده به نام S2 به دست میآورید، و سپس دوباره کمند را روی مجموعه S2 اجرا میکنید تا مجموعه S3 را به دست آورید. . آیا اصطلاح روش شناختی برای این موضوع وجود دارد؟ همچنین دو بار انجام کمند چه مزایایی دارد؟ | مزایای انجام دبل کمند یا اجرای دوبار کمند؟ |
67317 | من داده های بافت خاک را با GeoR و ARCGIS درون یابی می کنم. فرآیند کریجینگ معمولی مستقیم است و GeoR اعتبار سنجی متقاطع را تسهیل می کند. آیا شخص دیگری پارامترهای واریوگرام، قطعه و/یا آستانه، بیشتر از محدوده خاک رس 0-100٪ تولید کرده است؟ به نظر می رسد که این نتایج واریانس کریجینگ را خراب می کند. واریانس خروجی بیشتر از محدوده مشاهدات است. ممنون از وقتی که گذاشتید. | چگونه تخمین های واریوگرام را به یک درصد محدود می کنید؟ |
59979 | من چند سوال درست / غلط در یک آزمون تمرینی داشتم که در صورت امکان می خواهم در مورد آنها صحبت کنم. * مقدار $R^2$ نزدیک به 1 نشان میدهد که رگرسیون خطی متناسب با دادهها است بله، اما من مطمئن نیستم که چگونه آن را غیر از شهودی استدلال کنم. به طور دقیق تر، چرا تصمیم می گیریم $R^2$ را به صورت 1-(مجموع باقیمانده ها/ مجموع مجموع مربع ها) تعریف کنیم؟ * تخمین واریانس خطا $s^2$ یک متغیر تصادفی است به اعتقاد من به این دلیل است که اگر به درستی به خاطر بسپارم نحوه تغییر خطا معمولاً توزیع می شود. اگه کسی توضیح بده خیلی ممنون میشم * $∑(Y_{1,i}−Y_{2,i})^2 = 0$، که $Y_1$ مقدار پیشبینیشده و $Y_2$ مقدار واقعی است. از آنجایی که مجموع باقیمانده ها صفر است و از آنجایی که این معادل با مجموع باقیمانده ها است، باید صفر باشد. | سوالات مربوط به رگرسیون خطی |
91187 | من در حال یادگیری نحوه استفاده از شبکه عصبی Hopfield به عنوان حافظه آدرس پذیر زمینه هستم. هدف به دست آوردن یک نقطه ثابت از شبکه است که حالت تعادل را نشان می دهد. این بردار حالت برای تکرارهای متوالی بدون تغییر می ماند و نقطه ثابت نامیده می شود. وقتی شبکه به نقطه ثابت رسید، می گوییم به یک تصمیم یا هدف رسیده است. همانطور که از تصویر زیر مشاهده می شود، با استفاده از فرمول بازگشتی، X2 نقطه ثابت است. WeightMatrix = [0.0 0.0 -1 0 1; 0.0 0.0 0 -1 0; 0.0 -1 0.0 0 -1; -1 1.0 0.0 0.0 0.0; 0.0 0.0 0.0 1 0.0]; X1 = (1 0 0 0 0) % مثال آموزش اولیه X1*W = [0,0,-1,0,1]; X2 = f(X1*W) = [1,0,0,0,1] X2*W = [0,0,-1,1,1]; X3 = f(X2*W) = [1,0,0,1,1] X3*W = [-1,1,-1,1,1]; X4 = f(X3*W) = [1،1،0،1،1] X4*W = [-1،1،-1،0،1]; X5 = f(X4*W) = [1,1,0,0,1] X5*W = [0,0,-1,0,1]; X6 = f(X5*W) = [1,0,0,0,1] = X6 = **X2** مشکل: مثال فوق بر اساس مقاله لینک دانلود با عنوان مطالعه کاربردی در پشتیبانی تصمیم گیری با شناخت فازی است. نقشه نحوه آموزش [نقشه شناختی فازی][2] را با این مثال در بخش 2.2 توضیح می دهد. وقتی مثال را شبیهسازی کردم، با استفاده از همان تابع آستانه لجستیک لجستیک، تابع سیگموئید لجستیک f(X1*W) = 1/(1+exp(-X1*W).، پس از ارسال نتیجه به خروجی مشابهی دریافت نمیکنم. تابع آستانه همانطور که در مقاله ذکر شد در نتیجه، برنامه/شبکه میلیون ها زمان را تکرار می کند و با عبور از نتیجه به یک نقطه ثابت همگرا نمی شود از X1*W به f، من اعداد با ارزش واقعی را برای X2 دریافت می کنم و برای بقیه تکرارها مشکلی وجود دارد یا اینکه کد من نادرست است؟ لطفا کمک کنید CODE Training1 = [1,0,0,0] t = 1; 1 while(err~=0) Out = X(t,:)*WeightMatrix = 1./(1+exp(-lambda.*Out)*(Out - Out); temp).')/numel(temp) = t+1 X(t:) = پایان | موضوع آموزش شبکه هاپفیلد و مشکل همگرایی |
59977 | فرض کنید ما در حال اجرای یک تست A/B در وبسایت خود هستیم که کلیکهای دکمه آبی (خط پایه) را با کلیکهای دکمه سبز مقایسه میکند. * من از http://www.evanmiller.org/ab-testing/sample-size.html برای محاسبه تعداد مورد نیاز آزمودنی های خود در هر شاخه با پارامترهای زیر استفاده می کنم: * سطح معنی داری **5%** * قدرت آماری **80%** * نرخ تبدیل پایه تاریخی مشاهده شده **5%** * حداقل اثر قابل تشخیص مطلوب **1%** (یعنی تبدیل بین 4% و 6% خواهد بود غیر قابل تشخیص از خط پایه) با استفاده از ماشین حساب، مشخص می کنم که برای اعلام نتیجه به **7663 بازدید از صفحه** نیاز داریم. حالا فرض کنید همه بی تاب می شوند و بعد از **فقط 900 بازدید از صفحه** تصمیم می گیرند آزمایش را بررسی کنند. طرح بازی: 1) اگر معلوم شد که دکمه سبز ** حداقل 3٪ بهتر از خط پایه است، تصمیم می گیریم آزمایش را به پایان برسانیم و دکمه سبز را به عنوان برنده اعلام کنیم (3٪ MDE با همان مقدار سایر پارامترهای اولیه طبق ماشین حساب فقط به 894 بازدید از صفحه نیاز دارند. 2) اگر بعد از 900 بازدید از صفحه مشخص شد که دکمه سبز **کمتر از 3٪ بهتر** از خط پایه است، تصمیم می گیریم آزمایش را تا 7663 بازدید از صفحه ادامه دهیم و سپس در آن زمان نتیجه گیری کنیم. آیا ما با این برنامه بازی سوگیری را معرفی می کنیم؟ | سوگیری نگاه کردن به داده های تست AB و تنظیم حداقل اثر قابل تشخیص |
112220 | من از 12 موش اندازه گیری دارم که در دو شرایط گروه بندی شده اند. من هر موش اندازه گیری از 4 بافت دارم. طراحی متعادل نیست، 5 موش در شرایط 1 و 7 موش در شرایط 2. پس از خواندن کتابچه راهنمای bioconductor edgeR، مدل زیر را تنظیم کردم: طراحی <- model.matrix(~ Condition + Tissue + Condition: Mouse + Condition: Tissue) سپس به صورت دستی عبارات را بدون هیچ مشاهده ای حذف کردم. design <- design[, -which(colnames(design) %in% c(Condition1:Mouse6، Condition1:Mouse7))] می توانم مدل را متناسب کنم، اما وقتی تضادها را تنظیم می کنم گیج می شوم. من می خواهم اثر اصلی بودن در شرط2، اثر اصلی هر بافت و اثر متقابل برای هر بافت را دریافت کنم. colnames(طراحی) [1] (برق) شرط 2 بافت2 [4] بافت 3 بافت4 شرایط1: موش2 [7] شرایط2: موش2 شرایط1: موش3 شرایط2: موش3 [10] شرط 1: موش4 شرایط2: موش4 شرط 1: موش5 [13] شرایط2: موش5 شرایط2: موش6 شرایط2: موش7 [16] شرایط2: بافت2 شرایط2: بافت3 شرایط2: بافت 4 برای دریافت اثر اصلی شرط، از آن استفاده میکنم. کنتراست c(0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0) مقایسه به عنوان مثال بافت 1 و 2 یا 2 و 3 من این را دوست دارم c(0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0) c(0,0,-1,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0) اما بگویید می خواهم تفاوت بین شرط 1 را بدست بیاورم و 2 در بافت 1. داده شده است نحوه ساخت ماتریس مدل بافت 1 وجود ندارد. آیا می توانم مقایسه ای انجام دهم مانند: c(0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,-1,-1,-1) و چگونه در مورد یک تست آنووا مانند برای تغییرات در تمام شرایط تعامل بافت: شرایط. کنتراست c(0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,1,1) فقط بافت2، 3 و 4 را مقایسه می کند، و با چی سوالات زیادی اینجاست جمع بندی سریع 1\. آیا حذف عبارت های خالی در یک طرح نامتعادل مشکلی ندارد؟ 2\. چگونه می توانم اثر سطح را در دسته بافت ها که در ماتریس مدل وجود ندارد پیدا کنم. 3\. چگونه می توانم تغییراتی را که در تمام سطوح شرایط تعامل اتفاق می افتد (مربوط به مشکل بافت 1 از دست رفته) پیدا کنم. پیوند به صفحه ای با ماتریس مدل R کامل/ راهنمای مدل خطی نیز قدردانی می شود. | R model.matrix و makeContrast. درک مدل و کنتراست احتمالی |
4193 | اکثر نتایج مجانبی در آمار ثابت می کنند که به عنوان $n \rightarrow \infty$ یک برآوردگر (مانند MLE) به یک توزیع نرمال بر اساس یک بسط تیلور مرتبه دوم تابع درستنمایی همگرا می شود. من معتقدم نتیجه مشابهی در ادبیات بیزی وجود دارد، قضیه حد مرکزی بیزی، که نشان می دهد که پسین به طور مجانبی به یک نرمال همگرا می شود به عنوان $n \rightarrow \infty$ سوال من این است که آیا توزیع به چیزی قبل از همگرا می شود. بر اساس ترم سوم سریال تیلور عادی میشه؟ یا به طور کلی این امکان وجود ندارد؟ | آیا مجانبی مرتبه سوم وجود دارد؟ |
31004 | اگر با اثرات تصادفی متقاطع (نمونه ای از کلمات و نمونه ای از افراد) کار می کنید، باید به جای مقادیر F1 و F2 خود، طبق کلارک (1973)، Raaijmakers و همکاران، یک minF' را گزارش کنید. (1999)، ... من این سایت را پیدا کردم که minF را برای من محاسبه می کند. با این حال، این تنها در صورتی کار می کند که درجه آزادی من برای F1 و F2 یکسان باشد. از آنجایی که فرض کروی بودن در تجزیه و تحلیل F1 من نقض شد، من از تصحیح گلخانه-گیسر استفاده کردم که منجر به درجات مختلف آزادی شد. چگونه می توانم minF را در این مورد محاسبه کنم؟ یا درجات آزادی با توجه به آماره F نقشی ندارند؟ این امکان پذیر است، زیرا فرمول اصلی فقط با آمار F کار می کرد. آیا سایت یا نرم افزاری (مشابه همان چیزی که لینک کردم) وجود دارد که بتواند این کار را انجام دهد؟ | چگونه minF' را با درجات آزادی تصحیح شده محاسبه کنیم؟ |
91185 |  من در مورد نحوه محاسبه فراوانی های نسبی مشاهده شده در زبانشناسی پیکره تردید دارم. من این کار را به این صورت انجام دادم: تعداد کلمات را در هزار ضرب کردم و سپس همه را بر اندازه بدنه تقسیم کردم، برای مثال 81*1000/130621 = 0.62. من همین کار را با پیکره دیگر با اندازه متفاوت انجام دادم: 49*1000/33756=1.4. آیا به نظر شما این است که مجموعه ها عادی/استاندارد شده اند؟ در مورد من، به نظر نمی رسد به دلیل نسبت بالاتر در مجموعه دوم (مقالات علمی محبوب) باشد. با تشکر | آمار رشته زبانشناسی |
91838 | با توجه به دو متغیر تصادفی با ارزش واقعی $X$ و $Y$، توزیعهای شرطی $Y$ هستند که به $X$ مقادیر متفاوتی میدهند، $ \\{ p(y|x)، \forall x\\}$، به عنوان یک خانواده پارامتری از توزیع ها، یعنی یک مدل پارامتری (در آمار) در نظر گرفته می شود؟ | آیا توزیع های شرطی را می توان به عنوان یک خانواده پارامتری از توزیع ها در نظر گرفت؟ |
31006 | آزمون کاپا ($\kappa$) یک نوع آزمون Z است. اگر خیلی اشتباه نکنم، برای محاسبه تست $\kappa$، فقط میتوانیم واریانس مناسب $\hat {var}(\hat\kappa)$ را برای آمار کاپا $\hat\kappa$ تخمین بزنیم و سپس آن را تغذیه کنیم. به آزمون z با گرفتن $\mu$ = $\hat\kappa$ و $\sigma^2$ = $var(\hat\kappa)$. برای محاسبه توان آزمون z می توان از رابطه $1 - \beta = \phi(Z_{a} - \sqrt n * (\mu-\mu_0)/\sigma)$ استفاده کرد آیا توان این z زیربنایی -test هم قدرت تست $\kappa$ اصلی باشد؟ اگر نه، چرا؟ | آیا قدرت تست کاپا با تست z اساسی یکسان است؟ |
72574 | من روشی را دیده ام که به موجب آن به جای تلاش برای تخمین پارامتر پشته (k) به طور مستقیم از داده ها (با استفاده از یکی از بسیاری از تخمینگرهای پارامتر رج در ادبیات) شما آن را به صورت تکراری حل می کنید. روش به اندازه کافی ساده است: شما به سادگی k (در مراحل کوچک مناسب) را افزایش می دهید تا زمانی که عدد شرط کاهش یابد ضربه 10. در ابتدا این به نظر من راه حل بسیار خوبی است، اما من هرگز مقاله/کتاب رگرسیون ریج را ندیده ام. از آن استفاده می کند. به روز رسانی OK این اساساً روشی است که توسط مارکوارت پیشنهاد شده است معکوس های تعمیم یافته، رگرسیون ریج، تخمین خطی مغرضانه و تخمین غیر خطی تنها تفاوت او در استفاده از VIF برای اندازه گیری MC است در حالی که این روش از عدد شرط استفاده می کند. مک دونالد و گالرنو ارزیابی مونت کارلو از برخی برآوردگرهای نوع ریج خاطرنشان می کنند که این روش ممکن است برای همه مجموعه داده ها مناسب نباشد زیرا شامل مقادیر y (مشاهدات) نمی شود. من هنوز مقاله ای پیدا نکرده ام که در آن روش مارکوارت در برابر تخمینگرهای دیگر برای پارامتر ridge آزمایش شود آیا کسی چنین مقاله ای را می شناسد؟ آیا این روش از نظر تئوری درست است؟ حتی اگر (همانطور که من گمان میکنم) اینطور نباشد، برای تمرینکنندگان معمولی که فقط میخواهند تخمینهای باثباتتری از بتای خود (وزنهای رگرسیون) ارائه دهند، به جای اینکه آنها را به مقادیر بسیار غیرواقعی منفجر کنند واقعاً مهم نیست. آنها MC شدید را تجربه می کنند؟ واقعاً من میخواهم روشی بهتر از این را پیدا کنم که به طور ایدهآل دارای پشتوانه نظری محکمی باشد، اما دیدن آن از نظر عملی دشوار است که بتوان آن را بهبود بخشید؟ | روش تکراری برای یافتن پارامتر رگرسیون ریج |
103760 | من یک سوال در مورد طرح QQ و تست KS دارم. من یک نمونه دارم که چند موقعیت روی ژنوم است و فاصله بین این موقعیت ها را محاسبه کردم. و من توزیع صفر را با رسم تصادفی موقعیت ها از ژنوم ایجاد کردم و فاصله بین آنها را به همین ترتیب محاسبه کردم. (1000 بار) من می خواهم آزمایش کنم که آیا توزیع فاصله نمونه من با توزیع فاصله موقعیت های انتخاب شده به طور تصادفی یکسان است یا خیر. ابتدا از نمودار QQ برای آزمایش آن استفاده کردم، و دریافتم نمودار QQ به این صورت است:  نمودار QQ کج است. ، سپس می خواهم از آزمون KS استفاده کنم تا ببینم آیا آنها از همان توزیع هستند یا خیر. با این حال، من نتوانستم یک P-value قابل توجه از استفاده از تابع ks.test() در R بدست بیاورم. P-value حدود 0.09 است... برای واضح بودن، این هیستوگرام توزیع تهی است که من با شبیه سازی ایجاد کردم:  آیا کسی می داند که چرا من نتوانستم نتیجه قابل توجهی از آزمون KS بدست بیاورم؟ یا اگر روش دیگری برای آزمایش تفاوت بین این دو توزیع وجود دارد؟ خیلی ممنون | نمودار Q-Q و آزمون KS |
30359 | ببخشید اگر این سوال احمقانه است، اما به نظر می رسد که من چند چیز را با هم مخلوط می کنم و دوست دارم کسی بتواند همه چیز را برای من درست کند. لطفا من را تصحیح کنید! این تا حدودی با پست من در اینجا مرتبط است: امتیاز ترکیبی نسبت برای DV در rANOVA- نیاز به کمک در تفسیر نتایج من مطالعهای انجام دادم که در آن همه شرکتکنندگان به 3 مورد باینری در هر یک از 4 شرایط پاسخ دادند (طراحی 2x2 که در آن هر یک از عوامل ثابت، درون آزمودنیها تلاقی داده شد. دیگری). من هیچ کدام را بین عوامل موضوعی لحاظ نمی کنم. 3 مورد برای ایجاد یک نسبت متوسط شدند (بله، بله، من مقالات Dixon و Jaeger را دیدهام اما نمیخواهم وارد مدلسازی چند سطحی شوم، لطفاً مرا تحمل کنید. اگر فکر میکنید باید GEE را انجام دهم. - لطفاً به من بگویید چگونه از آنجایی که قبلاً از آن استفاده نکرده ام). فرضیه اول من این است که در شرایط 1،1 و 1،2، مردم احتمال بیشتری برای انتخاب محصول ارزانتر دارند (A در 1،1 و B در 1،2). فرضیه دوم من این است که در هر دو 2،1 و 2،2 افراد احتمال بیشتری برای انتخاب B دارند. من هم جدولی با امکانات و فواصل اطمینان گرفتم. 1. به جای اجرای یک تحلیل، باید هر سطح را جداگانه با معیار 0.5 مقایسه می کردم؟ از آنجایی که داده های بین شرایط همبستگی دارند، از کدام آزمون استفاده کنم؟ 2. چگونه اثرات و سطوح اصلی در تعامل را توضیح دهم؟ آیا سطوح را با یکدیگر مقایسه کنم (یعنی تفاوت دارند) و سپس به CI نگاه کنم تا ببینم هر کدام به کدام سمت می روند (یعنی > یا < از 0.5). 3. چگونه یک CI حاوی 0.5 را تفسیر کنم؟ آیا می توانم بگویم که آن سطح ترجیح یک محصول را ندارد؟ احساس می کنم چیزهای زیادی در این اطراف شنا می کنم. من از همه کمک ها سپاسگزارم بنابراین پیشاپیش از شما متشکرم. | درک آزمون فرضیه ها، فواصل اطمینان و فرکانس ها |
91235 | من از تحلیل بقا برای مدلسازی زمان برای یک رویداد استفاده میکنم. من میخواهم اثر یک متغیر پیشبینیکننده پیوسته بر میزان خطر را بررسی کنم. مقدار پیش بینی پیوسته از 0-8.5 متغیر است. این متغیر برای هر مشاهده ثابت است (1 مقدار) یعنی وابسته به زمان نیست. داده ها همچنین با برش چپ مشخص می شوند، یعنی برخی از بیماران پس از زمان صفر وارد مطالعه می شوند. مسئله ای که من دارم این است که متغیر مستقل چندان مستقل نیست. بخش بالایی محدوده آن تنها با مقادیر کمی از زمان مرتبط است. من خودم را متقاعد کرده ام که این مسئله وابستگی من را از استفاده از این نوع تحلیل باز می دارد. آیا کسی می تواند به مرجعی اشاره کند که ممکن است من را خلاف آن متقاعد کند. | همبستگی بین متغیرهای پیش بینی کننده و زمان در تحلیل بقا؟ |
91238 | من یک سری از توزیع های دم سمت چپ / دم سنگین دارم که می خواهم آنها را نشان دهم. 42 توزیع در سه عامل وجود دارد (که در زیر با عنوان A، B و C مشخص شده است). همچنین، تغییر در فاکتور B در حال کاهش است. مشکلی که من دارم این است که به سختی می توان توزیع ها را در مقیاس نتیجه متمایز کرد (یک نسبت یا تغییر برابر): :  آیا کسی پیشنهادی در مورد تکنیک های دیگر برای تجسم این داده ها دارد؟ با تشکر | تجسم بسیاری از توزیعهای منحرف به چپ |
111977 | من روی آزمایش های جوانه زنی بذر با برخی از درمان های شکستن خواب کار کرده ام و فقط برای برخی از تیمارها فقط جوانه زدم. من باید پارامترهایی مانند روز برای جوانه زنی اولیه و روز برای جوانه زنی نهایی را تجزیه و تحلیل کنم. از آنجایی که من فقط برای چند تیمار جوانه زدم و برای برخی دیگر جوانه زنی نداشتم و باید داده های تجزیه و تحلیل شده ای را در مورد روزهای اولیه و پایانی جوانه زنی ارائه کنم که برای برخی از تیمارها وجود ندارد زیرا هیچ بذری در آن تیمارها جوانه زده نیست. بنابراین چگونه می توان این نوع داده ها را تجزیه و تحلیل کرد؟ آیا تغییری لازم است؟ | تبدیل برای صفرها |
111978 | برای توزیع نمایی به یک تست تناسب نیاز دارم. من درک می کنم که کولموگروف-اسمیرنوف به طور کلی بسیار قدرتمند در نظر گرفته نمی شود و اندرسون-دارلینگ برتر در نظر گرفته می شود. با این حال من دو مشکل دارم. * هیچ یک از ادبیاتی که من می توانم پیدا کنم به طور خاص در مورد خوب بودن تناسب برای توزیع های نمایی صحبت نمی کند. اندرسون-دارلینگ تقریباً همیشه در مورد توزیع نرمال مورد بحث قرار می گیرد. * آیا بسته R (یا python) برای انجام یک تناسب اندرسون-دارلینگ برای توزیع نمایی وجود دارد؟ من می توانم آنها را برای توزیع های دیگر پیدا کنم. * آیا تست بهتری (که در R یا پایتون وجود دارد) وجود دارد؟ | توزیع نمایی اندرسون دارلینگ |
34185 | من سعی می کردم مشکلی را حل کنم و در مرحله ماقبل آخر (فکر می کنم) گیر کردم. می توانم نشان دهم که Var(X) = Var(Y) = Cov(X,Y)، که در آن X و Y متغیرهای تصادفی با میانگین ها و واریانس های محدود هستند. بر اساس عبارت فوق، آیا می توانم بگویم که X و Y یکسان هستند؟ یا P(X=Y) = 1؟ | مشکلی در نظریه احتمال |
35274 | اجازه دهید $(x_1، \ldots، x_n)$ یک i.i.d باشد. نمونهگیری تصادفی از توزیع عادی مشروط ${\cal N}(\mu,\sigma^2)$ با توجه به یک رویداد $A$ احتمالاً وابسته به پارامتر: برای مثال وقتی ${\cal N}(\mu، \sigma^2)$ اما $x_i$ را فقط در زمانی که $x_i \in [\mu-3\sigma, \mu+3\sigma]$ حفظ میکنیم. آیا روش های شناخته شده ای برای انجام استنتاج آماری روی پارامترها وجود دارد؟ | استنتاج از مشاهدات مشروط |
109877 | این ممکن است بی اهمیت باشد، اما من به خروجی نرم افزار HLM7 عادت کرده ام و اکنون به Stata (xtmixed) تغییر می کنم. برای مثال، تصور کنید من دانشآموزان (سطح-1) در داخل مدارس (سطح-2) لانه کردهام. با اجرای یک مدل خالی، در HLM، من به راحتی می توانم مولفه واریانس مربوط به هر سطح را ببینم، تا ببینم چه مقدار در سطح 1 و چه مقدار در سطح 2 است. با شروع از آن، من همچنین ضریب همبستگی درون کلاسی را محاسبه می کنم. اکنون مولفههای واریانس را میبینم، در خروجی «xtmixed»، اینها بهعنوان تخمینهای انحراف استاندارد رهگیری «sd(_cons)» و باقیماندههای «sd(Residual)» گزارش میشوند. چگونه می توانم مقدار p مرتبط را محاسبه کنم تا ببینم آیا معنی دارد؟ | اهمیت مولفه های واریانس در خروجی Stata |
91188 | من مدلی با ماتریس احتمال برای توزیع $x$, $y=\\{0,1\\}$, $p(x,y|w)$ دارم که در آن $w=[w_1,w_2,w_3, w_4]$p(x=0,y=0)=w_1$, $p(x=0,y=1)=w_2$$p(x=1,y=0)=w_3$, $p(x=1,y=1)=(1−w_1−w_2−w_3)$ میخواهم از Bayes Factors برای مقایسه آن با مدل دیگری استفاده کنم، بنابراین میخواهم احتمال حاشیهای مدل خود را پیدا کنم. از این رو، من به یک پیش نیاز دارم. **در این مورد از چه توزیعی برای $p(w)$ استفاده میکنید و شکل آن چگونه خواهد بود؟** | احتمال حاشیه ای قبلی |
35279 | من سعی می کنم کاری را انجام دهم که فکر می کردم یک مشکل اساسی است اما به نظر نمی رسد به درستی کار کنم. من به دنبال رد ادعایی هستم مبنی بر اینکه جزر و مد باعث ایجاد زلزله می شود، جایی که مکانیسم اصلی که مردم ادعا می کنند این است که در طول ماه جدید یا کامل، و به ویژه در طول ماه حضیض (زمانی که نزدیکترین فاصله به زمین است) اتفاق می افتد. مردم دوست دارند پنجره های 1± هفته ای بدهند که اساساً نیمی از چرخه قمری است، بنابراین به نظر اساسی می رسد که احتمال وقوع زلزله، با توجه به شانس تصادفی، 50٪ باشد که در عرض یک هفته، به عنوان مثال، ماه کامل رخ دهد. . به طور مشابه، از آنجایی که حضیض/آخر تقریباً در یک مقیاس زمانی اتفاق میافتد، به نظر میرسد که احتمال وقوع زلزله در عرض 1 هفته پس از یک ماه حضیض 50 درصد است. این دو را کنار هم بگذارید و 25 درصد احتمال دارید که زلزله در حضیض و ماه کامل رخ دهد، درست است؟ (نکته مهم، _به روز شده_: دوره واقعی بین ماه های جدید/کامل به طور متوسط 29.52 روز است، زمان واقعی بین ماه های حضیض به طور متوسط 27.56 روز است. 27.55±0.27)، در حالی که حضیض است بسیار نامتقارن، داشتن یک حالت 28.4 روزه در اوج تقریباً یک Lorentzian، 0.08 ± روز است. من فکر می کنم این می تواند مدل سازی را از بین ببرد؟) با فرض اینکه درست باشد، به نظر می رسد که دارم اجرا می کنم در هنگام تلاش برای کشف احتمال وقوع زمین لرزه به طور تصادفی در ± X روز از هر دو حضیض و ماه کامل، به مسائل مربوط می شود. من فکر کردم که معادله به سادگی خواهد بود (2*X/(# روز در ماه قمری، 29.5))*(2*X/(# روز بین حضیض، 27.5)). با این حال، زمانی که من یک شبیهسازی مونت کارلو با 500000 تاریخ تصادفی انتخاب شده در بازه زمانی 1933 تا 2012 انجام میدهم (فقط زمانی که دادههای زلزله دارم)، کسریها در یک ردیف قرار نمیگیرند. به عنوان مثال، شبیه سازی نشان می دهد که 14.4٪ باید در عرض 5 روز از ماه کامل و حضیض باشد، اما ریاضیات من می گوید که این فقط 12.3٪ است. من نتایج شبیه سازی خود را بر اساس روزهای حضیض، اوج، ماه نو و ماه کامل بررسی کرده ام. همانطور که از یک توزیع تصادفی با N$ بزرگ انتظار می رود، تعداد دفعاتی که زلزله شبیه سازی شده در یک دوره زمانی معین از حداکثر حضیض/آخرین/نو/ماه کامل فاصله دارد، زوج است. به جز حضیض، که در آن من یک سقوط را برای $>|±12.5|$ روز از زمانی که نزدیکترین به حضیض است می بینم. من فکر می کنم این مربوط به توزیع غیر گاوسی زمان حضیض است؟ و آیا این تفاوت 2 درصدی در مثال 5 روزه را می تواند به حساب آورد؟ آیا بهترین راه برای نزدیک شدن به این موضوع، زیرا این زمانهای حضیض کمی دیوانهکننده هستند، صرفاً با نتایج مونت کارلو همراه است؟ P.S. این بهروزرسانی شده است تا اصلاحی را که در دادههایم انجام دادهام بهتر منعکس کند. هنگامی که من در ابتدا این پست را ارسال کردم، تاریخ های نادرست کامل یا ماه نو را در جدول خود داشتم که نتایجی را از بین می برد. | تلاش برای محاسبه احتمالات پایه قمری |
91230 | من یک سری زمانی دارم که در آن نمونه ها تقریباً ماهانه در طول ده سال جمع آوری می شوند. من میخواستم شناسایی کنم که آیا تعدادی از گونههای باکتریایی متغیر فصلی هستند و آیا در طول زمان افزایش یا کاهش یافتهاند. من فراوانی گونهها را با رگرسیون خطی بر اساس معادله S = a + b*ED +c*DL + d*DDL مدلسازی کرده بودم. جایی که S فراوانی یک گونه است. ED: تعداد روزهای سپری شده از شروع مطالعه. DL: طول روز در روز جمعآوری نمونهها DDL: نرخ تغییر طول روز، در اینجا به عنوان طول روز منهای طول روز اندازهگیری شده سی روز قبل اندازهگیری میشود. سپس به مقادیر P مرتبط با هر یک از این ضرایب و خود ضرایب نگاه کردم. اگر ED از نظر آماری معنیدار بود، من گفتم سهپایه بلندمدت وجود دارد، و اگر ضریب ED مثبت بود، فراوانی گونهها در حال افزایش بود. اگر ضرایب DL یا DDL از نظر آماری معنی دار بود، گفتم فراوانی گونه ها فصلی است. اگر DL ضریب آماری معنیداری داشت، من گفتم این گونه در تابستان بیشترین فراوانی را داشت. اگر منفی باشد، بیشترین فراوانی در زمستان است. الگوی مشابه برای DDL، مثبت، فراوان ترین در بهار، منفی ترین در پاییز. یک بررسی کننده به من می گوید که تحلیل رگرسیون ممکن است مناسب نباشد زیرا طول روز و تغییر طول روز همبستگی خودکار و همچنین متغیر هستند. آیا این انتقاد صحیح است؟ اگر معتبر باشد، آیا چیزی وجود دارد که بتوانم از این نوع تحلیل نجات دهم؟ آیا رویکرد بهتری وجود دارد؟ اگر نه، چرا معتبر نیست؟ من احساس میکنم این رویکرد مشابه ساخت مدلهای مثلثاتی برای توصیف یک مجموعه داده است، به عنوان مثال y = a + b*t + c*sin(2pi*t/L) + d*cos(2pi*t/L)، که مردم از آن استفاده میکنند. برای مدلسازی چند سری زمانی آیا می توانم فقط عبارت علامت و کسینوس را با DL و DDL جایگزین کنم (که سینوسی هستند و DDL اساساً مشتق DL است) یا من قوانینی را در آنجا زیر پا می گذارم؟ با تشکر | استفاده از طول روز و نرخ تغییر طول روز در رگرسیون خطی |
91236 | اگر تنها اطلاعاتی که برای همبستگی پیرسون دارید، فاصله اطمینان 95% باشد، از آن داده ها چه چیزی می توانید استنباط کنید؟ به عنوان مثال، اگر ضریب همبستگی (0.24; 0.78) داشته باشید بهترین استنتاج چیست؟ من پیشینه قوی در آمار ندارم، بنابراین اگر کسی بتواند آن را بدون تعداد زیادی معادلات توضیح دهد که ترجیح داده می شود، متشکرم! | چه چیزی را می توان از فاصله اطمینان 95 درصد در یک ضریب همبستگی استنباط کرد؟ |
112223 | من با قاببندی دادههای صوتی و آموزش یک رمزگذار خودکار تک لایه برای یافتن فرمی با ابعاد کاهشیافته (مثلاً فریمهای ۱۲۸ نمونه تا فریمهای ۳۲ بعدی) را آموزش دادهام. هنگامی که من صدا را پس از عبور از لایههای کدگذاری/رمزگشایی آزمایش میکنم، به نظر میرسد که اثری کمگذر دارد. چرا ممکن است این باشد؟ | استفاده از رمزگذارهای خودکار برای کاهش ابعاد در صدا: چرا این یک جلوه پایین گذر ایجاد می کند؟ |
30970 | آیا کسی می تواند لطفاً من را روشن کند؟ من افراد $N$ دارم که به گروه های $K$ با $N>K$ تقسیم شده اند. برخی از گروه ها فقط 1 نفر دارند، برخی گروه های دیگر افراد بیشتری دارند. هر فرد دارای 4 ویژگی (4 متغیر) است: $F_0، F_1، F_2، $ و $F_3$، که در آن $F_0$ به سادگی نشانگر گروه است. بنابراین، ماتریس داده به اندازه $N \ برابر 4 $ است. همچنین یک بردار وزن $w$ به طول $N$ وجود دارد که وزن هر یک از $N$ افراد در رگرسیون را نشان می دهد. می توانم بپرسم آیا مدل زیر یک مدل قطع تصادفی است؟ 1. یک بتا مشترک برای همه افراد N وجود دارد. 2. هر گروه دارای یک خط رگرسیون درون گروهی متفاوت است (شیب یکسان اما برش های متفاوت). 3. خط رگرسیون در هر گروه از ابر متشکل از اعضای گروه عبور می کند. و تک تک باقیمانده ها در اطراف خط رگرسیون، در هر گروه پراکنده می شوند. این به نظر من شبیه یک مدل تقاطع تصادفی است. با این حال، چگونه می توانم به صراحت معادله را بنویسم؟ $$ {\boldsymbol y} = {\bf X} \beta + {\bf Z} b + \varepsilon $$ به طور خاص، با سه متغیر ویژگی $F_1، F_2$ و $F_3$ و متغیر نشانگر گروه $ F_0$. من در نوشتن صراحتاً $X$ و $Z$ مشکل دارم. علاوه بر این، $F_2$ من یک متغیر عامل است. لطفاً کسی می تواند به من نشان دهد که ماتریس های $X$ و $Z$ به طور واضح چگونه به نظر می رسند؟ و $b$ در اینجا چه چیزی را نشان می دهد؟ و چگونه می توانم وزنه ها را در LME در `R` تنظیم کنم؟ اگر میخواهم وزنهای «گروهی» و وزنهای «انفرادی» داشته باشم، چگونه باید این کار را انجام دهم؟ متشکرم [ps1 @ Macro] با تشکر فراوان ماکرو برای پاسخ بسیار جامع شما. من به هضم نوشته های شما ادامه می دهم و با سوالات بیشتر با شما و تخصص شما مشورت خواهم کرد. اولین سوال من این است: شما فکر می کنید شرط 2 و شرط 3 با یکدیگر تضاد دارند. نمی فهمم چرا در اینجا فکر من است: حتی اگر برای یک گروه خاص، بتا کلی برای آن گروه بسیار بد است. با تنظیم رهگیری برای آن گروه، حداقل هنوز می توانم خط رگرسیون را که از ابر عبور می کند، دریافت کنم، درست است؟ به طور دقیق تر، در یک مدل رهگیری تصادفی (همه گروه ها دارای بتای یکسان هستند)، آیا وضعیت زیر ایجاد می شود؟ همه نقاط داده در یک گروه در یک طرف خط رگرسیون آن گروه قرار دارند؟ * * * در یک مدل قطع تصادفی، برای هر گروه، خط رگرسیون از کدام نقطه عبور می کند؟ در OLS عمومی، ما می دانستیم که این نقطه (xbar، ybar) است که از طریق خط رگرسیون عبور می کند. اما برای هر گروه در یک مدل قطع تصادفی، آن نقطه مرکزی کدام نقطه است؟ * * * علاوه بر این، در R، چه راهی مناسب برای تجسم آنچه در یک گروه خاص در یک مدل ترکیبی اتفاق میافتد چیست؟ با تشکر فراوان برای کمک شما! | درک معادله مدل اثرات مختلط خطی و برازش یک مدل اثرات تصادفی با وزن در R |
109872 | من با محاسبه فاصله اطمینان برای نسبت نرخ بروز بین دو جمعیت مشکل دارم. با استفاده از PROC STDRATE از SAS، نسبت نرخ بروز (تفاوت در نرخ بروز بین دو دوره زمانی)، نسبت نرخ ورود، خطای استاندارد و مقدار z را به دست آوردم. من تعجب می کنم (1) چرا SAS فواصل اطمینان را برای نسبت نرخ ارائه نمی دهد؟ (2) چگونه می توانم خودم اینها را محاسبه کنم؟ من خوانده ام: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1255808/ اما این یک معنی نیست، به همین دلیل است که فرمول ساده: SE = SD/√ (اندازه نمونه)، احتمالاً درست نیست پیشاپیش از کمک بسیار سپاسگزارم! | محاسبه فاصله اطمینان از برآورد نقطه ای و خطای استاندارد |
91234 | می خواستم بدانم مراحل انجام کریجینگ فاکتورینگ چیست؟ می دانم که برای استخراج اجزای خاصی که ممکن است معنای فیزیکی داشته باشند استفاده می شود و این با کریجینگ به دست می آید. با این حال، من در مورد ویژگی های چنین روشی سؤالاتی دارم. به هر حال، شرح زیر از مسئله متعلق به کتاب عالی زمین آمار چند متغیره واکرناگل است. فرض کنید یک متغیر تصادفی $Z({\bf{x}})$ داریم که می تواند به برخی از اجزای ثابت $Z_{u}({\bf{x}_{\alpha}})$ و یک جزء ذاتی تجزیه شود. $Z_{S}({\bf{x_{\alpha}}})$. ما علاقه مند به کریگ کردن این جزء ذاتی هستیم: $Z_{S}^{*}({\bf{x_{0}}}) = \sum_{\alpha=1}^{n}w_{\alpha}^{ S}Z({\bf{x_{\alpha}}})$ بنابراین، با تخمین واریانس $\sigma_{E}^{2}$ دریافت میکنیم: \begin{array}{} \sigma_{E}^{2} &= var(Z_{S}^{*}({\bf{x_{0}}})-Z_{S}({\bf{x_{0}}}) )\\\ & = \sum_{u=0}^{S-1}C^{u}({\bf{x_0}}-{\bf{x_0}}) - \gamma^{S}({\bf{x_0}}-{\bf{x_0}}) - \sum_{\alpha=1}^{n}\sum_{\beta=1}^{n}w_{ \alpha}^{S}w_{\beta}^{S}\gamma({\bf{x_\alpha}}-{\bf{x_\beta}})\\\ &+2\sum_{\alpha=1}^{n}w_{\alpha}^{S}\gamma^{S}({\bf{x_\alpha}}-{\bf{x_0}}) \ end{array} و کمینه سازی (با توجه به وزن ها) به دست می آید: $$\sum_{\beta=1}^{n} w_{\beta}^{S}\gamma({\bf{x_\alpha}}-{\bf{x_\beta}}) + \mu_{S} = \gamma^{S}({\bf{ x_\alpha}}-{\bf{x_0}}) \thinspace \thinspace \text{برای $\alpha$=1،...n}$$ $$\sum_{\beta=1}^{n}w_{\beta}^{S}=1$$ که در آن $\mu_{S}$ ضریب لاگرانژ به دلیل محدودیت در وزنها است. همانطور که من متوجه شدم، ایده معمولاً این است که وزنهای $w_{\beta}$ را بدست آوریم که واریانس $\sigma_{E}^{2}$ را به حداقل میرساند تا مقادیر جدید ${\bf{x_{0} را تخمین بزنیم. }}$. در این مورد، مقادیری که باید تخمین زده شوند، اجزای ذاتی $Z_{S}^{*}({\bf{x_{0}}})$ هستند. با این حال، من مطمئن نیستم که چگونه می توان از داده ها واریوگرام های مورد نیاز برای این معادلات را جمع کرد. علاوه بر این، در کریجینگ فاکتورگیری، تابع واریوگرام یا کوواریانس به چندین واریوگرام که با اجزای $Z({\bf{x}})$ مطابقت دارد، تجزیه میشود. با فرض اینکه واریوگرام ها را می شناسم، آیا باید از چیزی مانند $\gamma_{1}({\bf{x_\alpha}}-{\bf{x_\beta}}) + \gamma_{2}({\bf{x_) استفاده کنم \alpha}}-{\bf{x_\beta}}) ... $ به جای $\gamma({\bf{x_\alpha}}-{\bf{x_\beta}})$ در معادلات کریجینگ؟ | جزئیات در مورد کریجینگ و واریوگرام |
87921 | من در مورد آزمون t Student خوانده ام، اما به نظر می رسد زمانی که می توانیم فرض کنیم که توزیع های اصلی به طور معمول توزیع شده اند، کار می کند. در مورد من، آنها قطعا نیستند. همچنین، اگر من 13 توزیع داشته باشم، آیا باید تست های '13^2' را انجام دهم؟  | چگونه می توانم آزمایش کنم که آیا دو توزیع (غیر عادی) با هم تفاوت دارند؟ |
34180 | این احتمالاً برای هر کسی که از R استفاده می کند یک سؤال بسیار ساده است، اما من با آن (و به طور کلی آمار) تازه کار هستم و نمی توانم این محاسبات ساده را بفهمم. من 3 نوع گیاه (A، B، C) دارم که با 2 ماده مغذی مختلف آزمایش شده اند و وزن گیاهان اندازه گیری شده است. داده ها متعادل است. (در اینجا یک نمونه از مجموعه داده است: http://dl.dropbox.com/u/1755762/example.csv) من می توانم میانگین بین ژنوتیپ ها و تیمارها را با به عنوان مثال bargraph.CI از بسته sciplot مقایسه کنم. , که به دلیل نوارهای خودکار SE دوست دارم: bargraph.CI(Genotype, Weight, Treatment, legend=T, ylab=Dry weight (g)، xlab=Genotype) که چیزی شبیه به آن را تولید می کند (فقط برای داشتن ایده در مورد آنچه که من به آن نگاه می کنم):  سپس این را با کلاسهای یک آزمون پسهک HSD با «HSD.test» از بسته «agricolae» تکمیل میکنم (اگر Anova ژنوتیپ×درمان را نشان داد. تعامل): int <- تعامل (ژنوتیپ، درمان) HSD.test(aov(Weight~int)، int، group=T) اما **چگونه می توانم نرخ حفاظت بین دو تیمار را برای هر ژنوتیپ مقایسه کنم؟* * منظور من از این است: برای هر ژنوتیپ، نسبت میانگین وزن تیمار 1 نسبت به میانگین وزن درمان 2 را مقایسه کنید (این فقط یک بار در هر خواهد بود. ژنوتیپ، نشان دهنده میزان حفظ وزن بین دو تیمار). دریافت نموداری مشابه آنچه «bargraph.CI» تولید میکند بسیار عالی است، اما نمیدانم چگونه تفاوتهای بین آن نرخهای حفظ وزن قابل توجه است یا خیر: آیا میلههای خطای استاندارد در اینجا مرتبط هستند؟ | مقایسه نرخ حفاظت از یک متغیر در آزمایش دو عاملی |
87922 | اگر داده ها نرمال شوند به طوری که هر ورودی دارای میانگین 0 و انحراف استاندارد 1 باشد، شبکه عصبی پیشخور بهتر عمل می کند. آیا این برای یک ماشین بولتزمن محدود نیز صادق است؟ (آزمایشهای من میگویند، نه، اینطور نیست.) | هنگام آموزش یک RBM چگونه داده ها باید عادی شوند؟ |
87925 | من LMM را در lme4 انجام می دهم و languageR را برای اجرای pvas.fnc() نصب کرده ام، اما با وقفه و شیب تصادفی کار نمی کند. این پیام است: خطا در pvals.fnc(lmer1): نمونهبرداری MCMC هنوز در lme4_0.999375 برای مدلهایی با پارامترهای همبستگی تصادفی اجرا نشده است. برای مدلهایی که فقط برش تصادفی دارند، این تابع به خوبی کار میکند. سپس برای بدست آوردن مقادیر p باید چه کار کنم؟ | pvals.fnc با وقفه و شیب تصادفی کار نمی کند. چگونه مقادیر p را بدست آوریم؟ |
23248 | من یک مشکل از فرم احتمال اینکه یک کاربر فیلم خاصی را لایک کند چقدر است؟ برای تعدادی از کاربران، من فیلم هایی را که هرکدام به صورت تاریخی تماشا کرده اند، و فیلم هایی که هر کدام دوست داشته اند، می دانم. علاوه بر این، برای هر فیلم نام کارگردان را می دانم. من یک رگرسیون لجستیک را برای هر کاربر از فرم کالیبره کردم: `glm(like_by_user_1 ~ liked_by_user_2 + ... + liked_by_user_k + factor(director), family=binomial, data = subset(MovieWatchings, user_id == 1))” اما مشکل من است. است: می گویند که در گذشته، کاربر 1 فیلم هایی از کارگردانان 'D1' را تماشا کرده است از طریق DM، اما ماه آینده U1 فیلمی به کارگردانی DN را تماشا می کند؟ در آن صورت تابع R `predict()` خطا می دهد، زیرا مدل glm برای کاربر 1 پارامتر تخمینی برای مورد director = DN ندارد. اما من باید چیزی در مورد احتمال U1 برای دوست داشتن فیلم جدید بدانم، زیرا هنوز می دانم که چه کاربران دیگری این فیلم را دیده و دوست داشته اند و این قدرت پیش بینی دارد. چگونه می توانم مدل خود را طوری تنظیم کنم که بتوانم رفتار علاقه مندی کاربران دیگر، و ترجیحات کارگردان کاربر 1 را در نظر بگیرم، اما هنوز زمانی که کاربر 1 اولین فیلم خود را از کارگردان جدید می بیند، پیش بینی های معقولی داشته باشد؟ آیا رگرسیون لجستیک حتی نوع مدل مناسبی برای این مورد است؟ | پیش بینی های خارج از نمونه برای مدل های رگرسیون لجستیک در R |
79068 | متغیر وابسته: مرگ (0 یا 1) متغیرهای مستقل: دوز (0، 10 یا 20)، زمانبندی (زود یا دیر)، PreviousDVT (0 یا 1) با نادیده گرفتن متغیر زمانبندی در حال حاضر، مدلی که من در ابتدا به انجام آن فکر میکردم این بود. یک GLM log-دوجمله ای با فرمول مرگ ~ دوز * قبلیDVT همه ترکیبات دوز X (باید) وجود داشته باشد PreviousDVT موجود در مجموعه داده (دوز 0 با/بدون DVT قبلی، دوز 10 با/بدون DVT قبلی و دوز 20 با/بدون DVT قبلی). اینجاست که من با مشکل مواجه می شوم. همچنین میخواهم بدانم که آیا دادن این دارو در 24 ساعت (زود) در مقایسه با دادن آن بعد از 24 ساعت (تأخیر) بر نتیجه تأثیر میگذارد یا خیر. اگر دوز 0 باشد، زمان بندی به سادگی اعمال نمی شود. فکر میکنم به نوعی طراحی تودرتو نیاز دارم (Death ~ PreviousDVT * Dose/Timing)، اما مدتی گذشته است و همچنین مطمئن نیستم که چگونه اطمینان حاصل کنم که وقتی به زمانبندی نگاه میکنم به دلیل همه موارد، نتایج جعلی دریافت نکنم. دوز=0 مورد کمک کننده است. به طور خلاصه: (1) من یک متغیر دارم که در آن یک سطح (Dose=0) به این معنی است که سطوح در متغیر دیگر (Timing) بی معنی هستند. آیا به سطح دیگری در زمان بندی نیاز دارم، یعنی غیر قابل اجرا؟ (2) چگونه این مشکل را در R مدل کنم؟ مدتی است که طراحیهای تودرتو انجام دادهام (با فرض اینکه این یکی است) - آیا مرگ ~ PreviousDVT * دوز/زمانبندی؟ خیلی ممنون | آیا یک GLM log-دوجمله ای تودرتو برای این کار مناسب است؟ |
66042 | از ویکیپدیا برای مدل جلوه ثابت: > مدل جلوههای مشاهده نشده خطی را برای N مشاهدات و T زمان در نظر بگیرید: $$ y_{it} = X_{it}\mathbf{\beta}+\alpha_{i}+u_{it } \quad t=1,..,T, > \quad i=1,...,N $$ که $y_{it}$ متغیر وابسته مشاهده شده برای > individual است $i$ در زمان $t$، $X_{it}$ متغیر زمانی است $1\times k$ > ماتریس رگرسیور، $\alpha_{i}$ فرد ثابت زمان مشاهده نشده > اثر و $u_{it است. }$ عبارت خطا است. برخلاف $X_{it}$، $\alpha_{i}$ توسط اقتصادسنج قابل مشاهده نیست. مثالهای متداول برای اثرات تغییر ناپذیر زمانی $\alpha_{i}$ توانایی ذاتی افراد یا عوامل تاریخی و سازمانی برای کشورها هستند. > > برخلاف مدل اثرات تصادفی (RE) که $\alpha_{i}$ مشاهده نشده > مستقل از $x_{it}$ برای همه $t=1,...,T$ است، مدل FE **اجازه می دهد > $\alpha_{i}$ باید با ماتریس رگرسیون $x_{it}$** مرتبط شود. با این حال، برون زایی دقیق هنوز مورد نیاز است. > > از آنجایی که $\alpha_{i}$ قابل مشاهده نیست، نمی توان مستقیماً آن را کنترل کرد. > مدل FE $\alpha_{i}$ را با پایین آوردن متغیرها با استفاده از تغییر درونی حذف می کند: $$ > y_{it}-\overline{y_{i}}=\left(X_{it}-\overline{ X_{i}}\right) \beta+ \left( > \alpha_{i} - \overline{\alpha_{i}} \right ) + \left( > u_{it}-\overline{u_{i}}\right) = \ddot{y_{it}}=\ddot{X_{it}} > \beta+\ddot{u_{it}} $$ where > $ \overline{X_{i}}=\frac{1}{T}\sum\limits_{t=1}^{T}X_{it}$ و > $\overline{u_{i}}=\frac{1}{T}\sum\limits_{t=1}^{T}u_{it}$. از آنجایی که > **$\alpha_{i}$ ثابت است**، $\overline{\alpha_{i}}=\alpha_{i} $ و بنابراین > اثر حذف میشود. سپس تخمینگر FE $\hat{\beta}_{FE}$ با یک رگرسیون OLS $\ddot{y}$ در $\ddot{X}$ به دست میآید. از یک طرف، می گوید مدل FE اجازه می دهد $\alpha_{i}$ با ماتریس رگرسیون $x_{it}$ همبستگی داشته باشد، که من می فهمم که هم $\alpha_{i}$ و هم $x_ {it}$ متغیرهای تصادفی هستند. از طرف دیگر، میگوید $\alpha_{i}$ ثابت است و تصور قبلی من این است که $\alpha_{i}$ در مدل جلوههای ثابت غیرتصادفی است و در مدل جلوههای تصادفی تصادفی است. بنابراین من در تعجب بودم که چگونه اثر ثابت را به درستی درک کنم؟ با تشکر و احترام! | آیا اثر ثابت در مدل اثر ثابت یک متغیر تصادفی است یا خیر؟ |
72515 | امیدوارم از SVM یک کلاسه LIBSVM برای آموزش نمونه های آموزشی برای بدست آوردن مدل استفاده کنم. سپس، از مدل برای پیشبینی اینکه آیا دادههای آزمایشی جدید و دادههای آموزشی یک نوع هستند یا خیر، استفاده خواهم کرد. در روند آموزش سوالاتی به شرح زیر دارم: * آیا نمونه های آموزشی همگی باید نمونه مثبت باشند یا خیر؟ * کدام تابع کرنل می تواند نتیجه بهتری بگیرد، هسته **خطی** یا *کرنل **RBF**؟ * تأثیر مقادیر nu بر مدل چیست؟ | آموزش SVM یک کلاس با استفاده از LibSVM |
34188 | هر هفته، من و دوستانم $m-1$ وارد یک مسابقه میخانه می شویم که $n$ امتیاز دارد. در هر هفته فقط برخی از ما آنجا هستیم. حضور/غیبت عضو $i$ را در هفته $t$ در ماتریس $x_{ti}$ ثبت کنید. من می خواهم یک مدل پیش بینی برای تعداد امتیازهایی که در هر هفته به دست می آوریم، بسته به اینکه چه کسی آنجاست، بسازم. یک مدل ساده این است که فرض کنیم هر سوال به یک اندازه سخت است، و بازیکن $i$ احتمال دارد $p_i$ هر سوالی را بداند. سپس احتمال اینکه یک سوال داده شده را درست دریافت کنیم $$q({\bf x},{\bf p}) = 1 - \prod_{i=1}^m(1-p_i)^{x_i}$$ است. بنابراین، احتمال اینکه ما $k$ امتیاز کسب کنیم، $$P است({\rm Score} = k|{\bf x},{\bf p}) = {n\choose k}q^k(1-q)^{n-k}$$ و احتمال ورود به سیستم برای ${\bf p}$ و ${\bf x}$ معین $$L = \log {n\choose است k} + k\log q + (n-k)\log(1-q)$$ من میتوانم یک روال عددی بنویسم که این را به حداکثر میرساند تا تخمینگر حداکثر احتمال را برای $\bf p$ پیدا کنم. با این حال، تخمین حاصل به شدت با داده ها سازگاری دارد (همانطور که می توان با اعتبارسنجی متقابل تشخیص داد). به نظر می رسد یک راه حل خوب این است که یک اصطلاح جریمه (قاعده سازی) را در $L $ معرفی کنیم که احتمالات بزرگ یا کوچک را جریمه می کند. همانطور که من متوجه شدم، این معادل داشتن یک پیشین در $\bf p$ است. با این حال، من نمی دانم این پیشین باید چه شکلی باشد. دو انتخاب ساده برای مدت جریمه عبارتند از: $$\| {\bf p} - 1/2\|^2$$ و $$-\sum_i\log \left( \frac{p_i}{1-p_i}\right)$$، اما اینها بسیار موردی هستند. من می خواهم بدانم که مزدوج مناسب چیست (با فرض اینکه یکی وجود داشته باشد). هر نکته ای؟ | مزدوج قبل برای توزیع دوجمله ای |
4191 | الگوریتمهای MCMC مانند نمونهبرداری Metropolis-Hastings و Gibbs راههایی برای نمونهبرداری از توزیعهای خلفی مشترک هستند. فکر میکنم میفهمم و میتوانم به راحتی کلان شهرها را پیادهسازی کنم - شما به سادگی نقاط شروع را به نحوی انتخاب میکنید، و بهطور تصادفی در فضای پارامتر قدم میزنید، با هدایت چگالی پسین و تراکم پیشنهاد. نمونه برداری گیبس بسیار شبیه به نظر می رسد اما کارآمدتر است زیرا فقط یک پارامتر را در یک زمان به روز می کند، در حالی که بقیه پارامترها را ثابت نگه می دارد و عملاً فضا را به صورت متعامد طی می کند. برای انجام این کار، به شرطی کامل هر پارامتر به صورت تحلیلی از * نیاز دارید. اما این شرط های کامل از کجا می آیند؟ $$ P(x_1 | x_2,\ \ldots,\ x_n) = \frac{P(x_1,\ \ldots,\ x_n)}{P(x_2,\ \ldots,\ x_n)} $$ برای بدست آوردن مخرج باید مفصل را بیش از $x_1$ به حاشیه ببرید. اگر پارامترهای زیادی وجود داشته باشد، کار زیادی برای انجام تحلیلی به نظر میرسد، و اگر توزیع مشترک خیلی «خوب» نباشد، ممکن است قابل کنترل نباشد. من متوجه هستم که اگر از conjugacy در سراسر مدل استفاده کنید، شرطیهای کامل ممکن است آسان باشد، اما باید راه بهتری برای موقعیتهای کلیتر وجود داشته باشد. تمام نمونههای نمونهگیری گیبس که من آنلاین دیدهام، از نمونههای اسباببازی استفاده میکنند (مانند نمونهگیری از یک نرمال چند متغیره، که در آن شرطها فقط خود نرمال هستند)، و به نظر میرسد که از این موضوع طفره میروند. * یا اصلا به شرطی کامل به صورت تحلیلی نیاز دارید؟ برنامه هایی مانند winBUGS چگونه این کار را انجام می دهند؟ | شرایط کامل در نمونه گیری گیبس از کجا می آیند؟ |
35271 | من دارم بازی iPhone/Steam Hero Academy را بازی می کنم. این بازی کمی شبیه شطرنج است، با این تفاوت که یک مقدار تصادفی وجود دارد، و در ابتدای بازی بازیکنان انتخاب می کنند که از چه تیمی استفاده کنند، هر کدام نقاط قوت و ضعف متفاوتی دارند. هر دو بازیکن می توانند یک تیم را انتخاب کنند. حدود 400 نفر از ما در یک لیگ غیر رسمی بازی می کنیم، جایی که بازی های خود را به صورت آنلاین برای رتبه بندی Elo ضبط می کنیم. من مطمئن نیستم که چند بازیکن فعال هستند. من رکورد برد/ باخت را برای هر مسابقه بین چهار تیم دارم. تساوی بسیار نادر است. نادرترین مسابقه دارای 143 بازی است. متداول ترین بازی 260 بازی دارد. 3234 بازی در پایگاه داده وجود دارد. **آزمایش مناسب برای تعیین اینکه آیا تیم ها از قدرت برابری برخوردار هستند چیست؟** بیایید فرض کنیم عدم تعادل سنگ-کاغذ-قیچی نامطلوب است. یعنی اگر تیم A تیم B را شکست دهد که تیم C را که تیم A را شکست دهد، یک بازی نامتعادل داریم. هر مسابقه باید عادلانه باشد. یک عارضه این است که بسیاری از بازیکنان تیم های ترجیحی دارند، به طوری که اگر تیم A در بین بازیکنان برتر محبوبیت زیادی داشته باشد، قوی تر به نظر می رسد. من گمان می کنم که فعلاً باید این تأثیر را نادیده بگیریم. عارضه دیگر این است که علیرغم تلاش های ما برای بهبود این مشکل با یک نقص، یک مزیت جزئی برای اول شدن وجود دارد. بیایید این تأثیر را نیز نادیده بگیریم. | برای تشخیص عدم تعادل تیم در یک بازی از چه تستی باید استفاده کرد؟ |
100238 | من سعی می کنم اثر منحصر به فرد پیش بینی کننده های محیطی مختلف را بر روی وقوع گونه ها مرتب کنم (داده های حضور/غیاب). من مدلهای «glm» را در R با «family=binomial» اجرا کردهام. اکثر متغیرهای من مقادیر P بسیار قابل توجهی دارند، اما من مجموعه داده بزرگی دارم (~8000 نقطه داده)، بنابراین شاید چندان تعجب آور نباشد. من همچنین درصد انحراف توضیح داده شده را با استفاده از بسته «BiodiversityR» محاسبه کرده ام. برخی از متغیرهای بسیار مهم من بر اساس مقدار P دارای انحراف توضیحی بسیار کم (1٪ یا بیشتر) هستند. آیا قاعده کلی وجود دارد که بگوییم یک پیش بینی کننده بر اساس انحراف توضیح داده شده معنی دار نیست؟ آیا آزمایش دیگری که باید شامل شود؟ من میخواستم هر متغیر را به تنهایی بررسی کنم و سپس تعاملات خاصی را آزمایش کنم، اما فقط در صورتی که متغیر در مدلی که تنها پیشبینیکننده باشد، «مهم» باشد. | سطح مربوط به درصد انحراف توضیح داده شده در GLM چیست؟ |
23245 | به عنوان یک سرگرمی جانبی، من در حال کاوش در پیش بینی سری های زمانی (به ویژه با استفاده از R) بوده ام. برای دادههایم، تعداد بازدیدهای روزانه را دارم، برای هر روز که تقریباً به 4 سال قبل برمیگردد. در این داده ها الگوهای متمایز وجود دارد: 1. دوشنبه تا جمعه بازدیدهای زیادی دارد (بیشترین تعداد در دوشنبه/سه شنبه)، اما در شنبه و یکشنبه به شدت کمتر است. 2. برخی از زمانهای سال کاهش مییابد (یعنی بازدیدهای کمتر در تعطیلات ایالات متحده، تابستانها رشد کمتری نشان میدهند) 3. رشد قابل توجه سال به سال خوب است که بتوانیم سال آینده را با این دادهها پیشبینی کنیم و همچنین از آن استفاده کنیم. رشد ماه به ماه تعدیل فصلی داشته باشد. اصلیترین چیزی که من را با نمایش ماهانه پرت میکند این است: * ماههای خاص دوشنبه/سهشنبه بیشتری نسبت به ماههای دیگر خواهند داشت (و این نیز در طول سالها ثابت نیست). بنابراین ماهی که در روزهای هفته بیشتر اتفاق می افتد باید بر اساس آن تنظیم شود. کاوش هفتهها نیز دشوار به نظر میرسد، زیرا سیستمهای شمارهگذاری هفته بسته به سال از 52 تا 53 تغییر میکنند، و به نظر میرسد «ts» این کار را انجام نمیدهد. من فکر می کنم میانگین روزهای هفته را در نظر بگیرم، اما واحد حاصل کمی عجیب است (رشد میانگین بازدیدهای روز هفته) و این به معنای حذف داده ها است که معتبر است. من احساس میکنم این نوع دادهها در سریهای زمانی رایج هستند، (مثلاً مصرف برق در ساختمانهای اداری ممکن است چیزی شبیه به این باشد)، کسی در مورد نحوه مدلسازی آن، به ویژه در R، توصیهای دارد؟ دادههایی که من با آنها کار میکنم کاملاً مستقیم است، به این صورت شروع میشود: [,1] 2008-10-05 17607 2008-10-06 36368 2008-10-07 40250 2008-10-08 39631 2008-1088-1008 -10-10 35706 2008-10-11 18245 2008-10-12 23528 2008-10-13 48077 2008-10-14 48500 2008-10-15 49017 2008-2008 2008-10-17 46909 2008-10-18 22467 و تا به امروز به همین منوال ادامه دارد، با روند کلی رشد، برخی کاهش ها در حدود هفته های تعطیلات ایالات متحده، و رشد عموما در طول تابستان کند می شود. | رشد ماه به ماه با تعدیل فصلی با فصلی بودن هفتگی |
30975 | من یک طرح پراکنده دارم. چگونه می توانم خط روند غیر خطی اضافه کنم؟ | چگونه خط روند غیر خطی را به نمودار پراکندگی در R اضافه کنیم؟ |
30976 | من در مورد نحوه رتبه بندی و رتبه بندی افراد در گروهی که فقط به صورت دوتایی با یکدیگر تعامل/رقابت می کنند (به عنوان مثال، سیستم هایی مانند سیستم رتبه بندی ELO برای شطرنج) جالب هستم. * آیا روش های پیشرو یا روش های دقیق تر و پیشرفته تر وجود دارد؟ * آیا بسته های R وجود دارد که پیاده سازی را آسان کند؟ * آیا روش هایی وجود دارد که بتواند از اطلاعات کمکی و همچنین نتیجه یک مسابقه/بازی استفاده کند؟ * آیا روش هایی وجود دارد که بهتر می تواند از اطلاعات حاشیه برد در مقابل برد/باخت دوگانه استفاده کند؟ * در ادبیات به دنبال چه چیزی باشم؟ | چگونه می توان با رتبه بندی و رتبه بندی بر اساس داده های رقابت زوجی شروع کرد؟ |
66048 | من نمی دانستم این انجمن وجود دارد بنابراین این را در Stack Overflow پرسیدم اما شاید اینجا مناسب تر باشد ... من یک سوال در مورد کاهش ابعاد با استفاده از PCA دارم. اگر مجموعهای از قطار داشته باشم (train.arff، 10 ویژگی) یک PCA انجام میدهم و دادههایم را با توجه به متغیرهای تبدیلشده جدید ذخیره میکنم (مثلاً دو ویژگی اول را انتخاب میکنم، ترکیبی از ویژگیهای اصلی، که بیشتر موارد را جمعآوری میکند. واریانس)، و این مجموعه قطار تبدیل شده را trainset-afterPCA.arff نامید. حالا یک مدل را با استفاده از این فایل (که فقط 2 ویژگی دارد) آموزش می دهم و آن را ذخیره می کنم. اگر اکنون یک مجموعه داده جدید دارم که با 10 ویژگی اصلی ساخته شده است و می خواهم از مدلی که قبلا ساخته بودم برای طبقه بندی این داده های جدید استفاده کنم، چگونه باید ادامه دهم؟ اگر من فقط سعی کنم روی این مجموعه داده جدید آزمایش کنم، آموزش و آزمایش با هم سازگار نیستند، درست است؟ اگر PCA را روی مجموعه آزمایشی اجرا کنم، ویژگی های جدید به دست آمده با ویژگی های به دست آمده در مجموعه آموزشی یکسان نخواهد بود. چه کار کنم؟ * * * به روز رسانی: فقط برای نشان دادن (بخشی) از خروجی weka: نسبت مقدار ویژه تجمعی 2.31715 0.28964 0.28964 0.512ent-0.472Threshold+0.422impRes-0.335pssm-mut+0.2t...335pssm-mut+0.2t... 0.21533 0.50497 0.593pssm-mut+0.501pssm-wt+0.41 Threshold+0.403hyd+0.161sub... 1.31987 0.16498 0.66996 0.698vdw+0.628sub+0.219Threshold-0.168hyd+0.154ent... 0.88362 0.11045 0.78041 0.53impRes-0.51pssm-wt-0.478hyd+0.478enthy+0. 0.8404 0.10505 0.88546 0.605hyd-0.552impRes-0.319pssm-wt-0.26pssm-mut+0.235ent... 0.56935 0.07117 0.95663 -0.656vdw+0.531sub-0.449hy+0.207Threshold-0.145pssm-mut... بردارهای ویژه V1 V2 V3 V4 V5 V6 -0.4716 0.4104 0.219 -0.0231 0.2010 Threshold -0.0231 0.201 -0.201 -0.1263 0.6977 0.0049 -0.1865 -0.6556 vdw 0.2465 0.4028 -0.1679 0.346 0.6055 -0.4486 hyd 0.2511 0.1625190.160970. 0.5306 زیر 0.2799 0.5007 0.0529 -0.5097 -0.3189 0.061 pssm-wt -0.335 0.593 -0.1004 0.0423 -0.2602 -0.2602 -0.180-0.180-0.145 pssm-wt 0.1544 -0.4783 0.2354 -0.1246 ent 0.4217 0.1459 -0.0799 0.5297 -0.5521 -0.0645 impRes بنابراین، بر اساس پاسخ شما، اگر اکنون V1 و V2 را برای محاسبه و نشان دادن ویژگی جدید برای V1 انتخاب کنم و V2 را برای نشان دادن داده های خود انتخاب کنم. مجموعه تست، قبلی به مجموعه آزمایشی را در مدل آپلود کنید.. V1 --> att جدید 1 = 0.512ent-0.472Threshold+0.422impRes-0.335pssm-mut+0.28pssm-wt... V2 --> att جدید 2 = 0.593pssm-mut+0.501pssm-wt+0.41Threshold+0.403hyd+0.161sub... | اگر مدل با استفاده از مجموعه آموزشی تبدیل شده با PCA ساخته شده است، چگونه از داده های مجموعه تست استفاده کنیم؟ |
115298 | من یک خزنده وب دارم و می خواهم بتوانم یک کلاس خاص از وب سایت (شبکه های اجتماعی) را از سایرین متمایز کنم. مشکل من این است که داده های طبقه بندی شده اولیه من واقعاً کوچک است. کاری که من نمیخواهم انجام دهم این است: * ابتدا الگوریتم خود را روی این دادهها آموزش دهم. * دریافت بازخورد از کاربر (درست، اشتباه) در وب سایت های طبقه بندی شده و از آن برای افزایش مجموعه داده های خود و آموزش مجدد الگوریتم خود استفاده کنید. آیا این امکان پذیر است یا داده های جدید من به دلیل انتخاب قبلی به عنوان یک وب سایت شبکه اجتماعی توسط الگوریتم من مغرضانه است؟ کدام الگوریتم یادگیری نظارت شده برای بازآموزی پس از کسب داده های جدید ایده آل است؟ در نظر بگیرید که ویژگی های وب سایتی که در نظر داشتم الگوریتم آموزش را بدهم چیزی شبیه به تعداد تگ های خاص html (مانند [آنکر تگ] یا img) و تعداد تکرار برخی کلمات خاص بود. (اگر پیشنهاداتی در مورد ویژگی های بهتر دارید خوشحال می شوم که بشنوم) | الگوریتم یادگیری نظارت شده که می تواند به راحتی با داده های جدید بازآموزی شود |
41449 | > **موضوع تکراری:** > مقایسه دو نتیجه دقت طبقهبندیکننده برای معنیداری آماری با > t-test من دو طبقهبندی Naives Bayes را کد کردم (با استفاده از ویژگیهای مختلف دادههای مشابه) و از اعتبارسنجی متقاطع k-fold افزایشی استفاده کردم. به عنوان خروجی که من محاسبه کرده ام (برای هر یک از دو NBC): برای هر k اندازه مجموعه آموزشی: دقت متوسط / خطای استاندارد با مشاهده این داده ها این فرضیه را فرموله می کنم که یکی از این دو عملکرد بهتری دارد (از نظر دقت). چگونه می توانم اهمیت نتایج خود را از این نظر ارزیابی کنم که آیا باید فرضیه صفر را به نفع فرضیه خود رد کنم یا خیر؟ ممنون از هر کمکی :) | مقایسه دو طبقهبندیکننده Naives Bayes (با استفاده از ویژگیهای مختلف دادههای مشابه) و استفاده از اعتبارسنجی متقاطع k-fold افزایشی |
6755 | فایل های داده از http://www.csie.ntu.edu.tw/~cjlin/libsvm/ در قالب 'svm' هستند. من سعی می کنم این را در نمایش ماتریس پراکنده در R بخوانم. آیا راه آسان/کارآمدی برای انجام این کار وجود دارد؟ این چیزی است که من اکنون انجام میدهم: خواندن در فایل خط به خط (800000 خط)، برای هر خط کلاسها، مقادیر و ستونها جداگانه است. کلاس ها را به عنوان یک لیست و ویژگی ها را به عنوان یک ماتریس پراکنده .csr (1 ردیف) ذخیره کنید، سپس ردیف ویژگی را با تمام ردیف های قبلی rbind کنید. این بسیار ناکارآمد است و اساساً تمام نمی شود (12 دقیقه برای 1000 خط). من فکر می کنم از rbinding ماتریس های پراکنده به محض اینکه تعداد ردیف ها شروع به بزرگ شدن کند، به دست می آید. توجه: ماتریس (800000*48000) برای ساختن و تبدیل آن به فرمت پراکنده بسیار بزرگ است. با تشکر | خواندن در فایل های SVM در R (libsvm) |
92761 | من یک مجموعه داده با 2 معیار دارم که بیش از 30 نقطه زمانی آزمایش شده است. من دو گروه از مردم دارم که هر دو اندازه را در هر 30 نقطه زمانی دارند. چگونه می توانم گروه ها را با استفاده از SPSS مقایسه کنم؟ | مقایسه گروه ها با استفاده از SPSS |
109257 | ما دادههای گروهی و مواجهه نادری داریم که در یک مجموعه داده اپیدمیولوژیک بزرگ با کنترلها مطابقت میدهیم. متغیر تطبیق یک شاخص محله (خوشه) شناسایی شده است که تضمین می کند که افراد درون خوشه ها همبستگی بالایی دارند. این یک نوع تحلیل اپیدمیولوژی اجتماعی است که به پیامدهای مرتبط با سلامت و «تعیینکنندههای» رفتاری اجتماعی به عنوان عوامل خطر احتمالی با دادههای مقطعی نگاه میکند (متغیرهای تحلیلی مورد علاقه ما فقط در ابتدا جمعآوری شدند). پس از کنترل عوامل مخدوش کننده سطح فردی، ما با موضوع مخدوش کننده های سطح محله که بسیار وسیع و از اهمیت فوق العاده هستند، باقی ماندیم. اطلاعات سطح محله در دسترس ما قرار نگرفت، بنابراین تطبیق بر اساس همسایگی راهی مناسب برای کنترل اثرات مخدوش کننده آن به نظر می رسد. هنگامی که تطبیق انجام شد، ما 10٪ موارد را به دلیل جفت شدن نامتناسب (تعداد کم یا عدم وجود کنترل) از دست دادیم. سوال من این است: 1. آیا حذف موارد بیهمتا نشاندهنده امکان مخدوشسازی باقیمانده به دلیل مخدوشکنندههای اندازهگیری نشده سطح همسایگی است (علیرغم اینکه همه افراد به اندازه کافی در تحلیل نهایی مطابقت دارند) 2. به دنبال یک مدل اثرات ثابت است، یک تحلیل حساسیت عملی برای ارزیابی آیا تطابق معقول و صحیح بود؟ | موارد حذف شده از مطالعات همسان |
72514 | من دانشجوی کارشناسی ارشد هستم و در حال تحصیل در مقطع دکتری هستم. در سیستم های اطلاعاتی تحقیق پایان نامه من شامل استفاده از مدل سازی معادلات ساختاری (SEM-PLS) به عنوان روش اصلی تجزیه و تحلیل داده است. پس از مقایسه بستههای نرمافزاری مختلف به این نتیجه رسیدم که راهحل بهینه برای من اجاره STATISTICA 12 (Ultimate Academic Bundle) برای انجام تجزیه و تحلیل دادهها (تحلیل آماری پایه و SEM) پس از جمعآوری دادهها است. من سوالات زیر را دارم: 1. مزایا و معایب استفاده از نسخه 64 بیتی STATISTICA در مقابل نسخه 32 بیتی چیست؟ 2. آیا STATISTICA 12 امکاناتی برای انجام و مستندسازی مطالعات آزمایشی و اصلی SEM دارد؟ پیشاپیش از شما متشکرم | STATISTICA 12 برای تجزیه و تحلیل داده های SEM |
86283 | من به تازگی کار با مدل های ترکیبی و پکیج lme4 را شروع کرده ام و پس از مشاوره در حال تفسیر برخی از نتایج بودم. من یک مجموعه داده دارم که به تغییر ارتفاع لانه پرندگان (NAP) در طول زمان (سال) نگاه می کند. من دو اثر تصادفی دارم که مربوط به داده های من است. منطقه ای که پرندگان در آن لانه می کنند (Area) و هویت پرندگان (MaleID). من با برازش یک مدل ترکیبی ساده با شیبهای تصادفی برای MaleID شروع کردم، زیرا این بیشتر به سوال من مرتبط است. ELEV.LME<-lmer(NAP~Year+(0+Year|MaleID),data=ELEV) این مدل به خوبی کار می کند و مقداری واریانس در شیب های MaleID نشان می دهد. با این حال، من همچنین میدانم که رهگیریهای Area و احتمالاً تصادفی MaleID نیز مهم هستند. من یک مدل جدید از جمله منطقه نصب کردم. ELEV.LME2<-lmer(NAP~Year+(0+Year|MaleID)+(1|Area),data=ELEV) اما اکنون واریانس شیبهای تصادفی در MaleID 0 است. اگر رهگیریهای تصادفی را برای شناسه مرد؛ ELEV.LME4<-lmer(NAP~Year+(1|MaleID)+(0+Year|MaleID),data=ELEV) من در ابتدا فکر می کردم این ممکن است به دلیل وجود مواردی از MaleID باشد که فقط یک بار در مجموعه داده رخ می دهد، اما وقتی اینها حذف شدند همان مقدار 0 را دریافت کردم. آیا این مقدار 0 ناشی از کدنویسی من است یا یک مشکل ساختاری با داده های من؟ یا این نتیجه به من می گوید که تغییر در شیب های MaleID هیچ یک از واریانس NAP را در طول سال توضیح نمی دهد؟ من انتظار نداشتم واریانس زیادی در شیبهای تصادفی وجود داشته باشد، اما 0 عجیب به نظر میرسد، به خصوص که پس از تغییر در مجموعه داده، همان نتیجه را دریافت کردم. هر گونه کمک یا راهنمایی بسیار قدردانی خواهد شد. متشکرم من یک خروجی dput() از زیر مجموعه ای از داده های خود را در زیر قرار داده ام. مجموعه داده واقعی هزاران رکورد است و سطوح بسیار بیشتری از Area دارد، اما من با این مجموعه داده کاهش یافته با همین نتیجه روبرو می شوم. ساختار(فهرست(MaleID = c(1003L, 1010L, 1113L, 1113L, 1113L, 1113L, 1113L, 1113L, 1113L, 1113L, 1113L, 1113L, , 1113L, 1113L, 1113L, 1113 1167 لیتر، 1167 لیتر، 1168 لیتر، 1168 لیتر، 1168 لیتر، 1200 لیتر، 1207 لیتر، 1207 لیتر، 1216 لیتر، 1216 لیتر، 1216 لیتر، 1216 لیتر، 1216 لیتر، 11216 لیتر، 1216 لیتر، 11216 لیتر 1223 لیتر، 1240 لیتر، 1240 لیتر، 1240 لیتر، 1240 لیتر، 1240 لیتر، 1240 لیتر، 1240 لیتر، 1257 لیتر، 1257 لیتر، 1299 لیتر، 1300 لیتر، 1300 لیتر، 11302 لیتر، 11302 لیتر 1310L, 1312L, 1327L, 1327L, 1327L, 1330L, 1347L, 1347L, 1347L, 1347L, 1347L, 1347L, 1347L, 11347L, 11347L 1390L, 1393L, 1393L, 1393L, 1393L, 1393L, 1393L, 1393L, 1393L, 1404L, 1404L, 1420L, 1420L, 1420L, 11420L 1420L, 1425L, 1440L, 1440L, 1449L, 1449L, 1449L, 1449L, 1449L, 1449L, 1449L, 1449L, 1449L, 1445L, 11452L 1454L, 1465L, 1465L, 1465L, 1465L, 1466L, 1488L, Year = c(1995L, 1995L, 1995L, 1996L, 2008L, 2010L, 2008L, 2010L, 1,20L, 2011L, 1466L 2012L, 2012L, 2012L, 2013L, 2013L, 1995L, 1996L, 1996L, 2008L, 2010L, 2011L, 1995L, 1995L, 1995L, 1990L, 1996L 2011L، 2011L، 2012L، 2012L، 2013L، 1995L، 1995L، 2008L، 2008L، 2010L، 2011L، 2011L، 2012L، 2012L، 2019L، 2019L. 1995L، 1995L، 1996L، 1996L، 1996L، 1996L، 1996L، 1996L، 1996L، 2008L، 2010L، 1996L، 2008L، 2001L، 2001L، 2001L. 2011L, 2012L, 2012L, 2012L, 2013L, 1996L, 1995L, 1995L, 1995L, 1996L, 2008L, 2008L, 2010L, 2019L, 2019L, 2019L 1995L، 1996L، 1996L، 2008L، 2010L، 2010L، 2010L، 1996L، 1995L، 1995L، 1995L، 1996L، 2008L، 2010L، 2010L، 2008L، 2010L 2011L, 2011L, 2012L, 1995L, 1996L, 1996L, 1996L, 1995L, 1995L, 1995L, 1995L, 1996L, 1995L, 1L,L, 1,1,L, 1,L,1,L,1, 1,1,L,1,1 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر)، .برچسب = c(A، B)، کلاس = ضریب)، NAP = c(158L، 144L، 144 لیتر، 150 لیتر، 149 لیتر، 155 لیتر، 143 لیتر، 140 لیتر، 147 لیتر، 140 لیتر، 132 لیتر، 143 لیتر، 137 لیتر، 141 لیتر، 147 لیتر، 155 لیتر، 138 لیتر، 140 لیتر، 190 لیتر، 163 لیتر، 144 لیتر، 139 لیتر، 138 لیتر، 147 لیتر، 147 لیتر، 144 لیتر، 136 لیتر، 141 لیتر، 144 لیتر، 153 لیتر، 149 لیتر، 135 لیتر، 143 لیتر، 209 لیتر، 144 لیتر، 220 لیتر، 138 لیتر، 185 لیتر، 135 لیتر، 136 لیتر، 189 لیتر، 189 لیتر، 189 لیتر، 185 لیتر، 184 لیتر، 149 لیتر، 150 لیتر، 157 لیتر، 178 لیتر، 187 لیتر، 190 لیتر، 147 لیتر، 145 لیتر، 149 لیتر، 145 لیتر، 166 لیتر، 140 لیتر، 138 لیتر، 144 لیتر، 183 لیتر، 183 لیتر، 143 لیتر، 135 لیتر، 142 لیتر، 134 لیتر، 152 لیتر، 153 لیتر، 142 لیتر، 198 لیتر، 169 لیتر، 142 لیتر، 151 لیتر، 160 لیتر، 160 لیتر، 163 لیتر، 153 لیتر، 153 لیتر، 184 لیتر، 132 لیتر، 141 لیتر، 175 لیتر، 153 لیتر، 144 لیتر، 162 لیتر، 168 لیتر، 169 لیتر، 142 لیتر، 154 لیتر، 139 لیتر، 129 لیتر، 161 لیتر، 166 لیتر، 162 لیتر، 134 لیتر، 159 لیتر، 159 لیتر، 138 لیتر، 158 لیتر، 1. c(MaleID، Year، Area، NAP)، class = data.frame، row.names = c(NA, -102L)) | تفسیر شیب های تصادفی برابر با 0 با استفاده از lmer در R |
95018 | من یک وظیفه دارم که در آن از شرکت کنندگان می خواهم یک سری از تصاویر را مشاهده کنند. پس از مشاهده هر تصویر، چندین گزینه به آنها داده می شود که با استفاده از آنها باید انتخابی اجباری داشته باشند که تصویر در کدام دسته قرار می گیرد. دسته ها اغلب از نظر مفهومی یا بصری کاملاً به یکدیگر نزدیک هستند، به عنوان مثال. قومیت های مختلف از یک چهره (به عنوان مثال سفید، آسیایی، سیاه)، حالات مختلف چهره (مانند خوشحال، عصبانی، غمگین)، دوره های مختلف برای یک قطعه معماری (مثلاً نئوکلاسیک، گرجی، گوتیک. سوال من این است: آیا چنین داده هایی به شما کمک می کند. خود را با استفاده از تحلیل عاملی اکتشافی و تاییدی (با استفاده از مجموع پاسخهای صحیح برای هر دسته) تجزیه و تحلیل کند، یا آیا مشکلی ذاتی در تا حدودی غیر مستقل بودن این اقدامات که این رویکرد تحلیلی را مشکل ساز می کند. | داده های انتخاب اجباری با تحلیل عاملی تاییدی امکان پذیر است؟ |
23244 | در یادگیری تک برچسب، یک برچسب واحد داریم که باید آن را پیش بینی کنیم. بیشتر وظایف آموزشی تک برچسب هستند، مانند رایج ترین مثالی که در آن باید پیش بینی کنیم که یک مشتری خوب یا بد خواهد بود. در یادگیری چند برچسبی بیش از یک برچسب وجود دارد. برای مثال اگر بخواهیم یک عکس را تگ کنیم، بیش از یک تگ می گذاریم. برچسبها در حال حاضر توسط یک بردار توصیف میشوند و نه با مقادیر منفرد مانند یادگیری تک برچسب. من سعی می کنم یک درخت تصمیم بسازم که بهترین تقسیم ها را بر اساس واریانس پیدا کند. درخت تصمیم من سعی می کند فرمول زیر را به حداکثر برساند: Var(D)*|D| - Sum(Var(Di)*|Di|) D گره اصلی است و Di تقسیم هایی هستند که با انتخاب یک ویژگی ایجاد می شوند (منظور از Di، گره ای است که با انتخاب یک ویژگی و مقدار i-ام آن تولید می شود). مشکل من اینه تصور کنید که من یک ماتریس برای ذخیره بردارهای برچسب هر گره دارم که در سطرها نمونه ها و در ستون ها مقادیر هر برچسب وجود دارد. بیایید بگوییم که این ماتریس mXn است. پس از یافتن واریانس برای این ماتریس، من یک بردار 1Xn دارم که در هر ستون، واریانس هر برچسب را دارم. اکنون باید تفاوت بین 2 بردار را پیدا کنم که در آن هر بردار در یک عدد ضرب می شود. مشکل من این است که چگونه تصمیم بگیرم که بهترین تقسیم، زمانی که نتیجه فرمول من بردار است، کدام است؟ منظورم این است که اگر برچسب های تکی داشتم، یک عدد را به عنوان نتیجه داشتم و به سادگی بزرگ ترین را انتخاب می کردم. اکنون که بردارها را دارم، چگونه می توانم تصمیم بگیرم که بهترین تقسیم کدام است؟ به عنوان مثال، اجازه دهید بگوییم که نتیجه فرمول من برای 2 ویژگی مختلف، این 2 بردار است: 1،2،3،4،5 (ویژگی i) 2،3،4،5،6 (ویژگی j) چگونه انتخاب کنم بین صفت i و j؟ | چگونه می توان بهترین تقسیم را در درخت های تصمیم با استفاده از بردارهای برچسب پیدا کرد؟ |
109253 | نحوه مقایسه نتایج مدل مختلط خطی تعمیم یافته (GLMM، دوجمله ای منفی) با یک مدل مختلط خطی تبدیل شده ورود به سیستم (چند سطحی، سلسله مراتبی). من یک مجموعه داده (شمارش) دارم که تودرتو است. من 2 مدل مختلط را برازش کردم: (1) مدل مختلط خطی با متغیر پاسخ تبدیل شده log و (2) مدل مخلوط دو جمله ای منفی. سوال من این است: چگونه این دو مدل را با هم مقایسه کنیم؟ کدام یک مدل بهتر است؟ مدل بهتر چقدر بهتر است؟ من به یک اندازه گیری قابل مقایسه نیاز دارم. از آنجایی که من صفر و میانگین بزرگی ندارم، تبدیل log باید به خوبی توزیع نرمال را تقریب کند. من می دانم، برخی از رد تبدیل داده های شمارش در ادبیات وجود دارد (به عنوان مثال، Hara & Kotze. 2010 را ببینید. داده های شمارش تبدیل را وارد نکنید). با این حال، نتایج حاصل از این داده های شبیه سازی شده ممکن است قابل انتقال به برنامه های کاربردی دنیای واقعی نباشد (همانطور که خود نویسندگان بیان کردند). با این حال، من نمی دانم که کدام یک مدل بهتر است و تا چه حد بهتر است. نمودارهای اعتبارسنجی من امکان شناسایی یک مدل ارجح را نمی دهد. من می دانم که این یک موضوع بحث برانگیز است و من انتظار پاسخ ساده سیاه یا سفید را ندارم. با این حال، آیا رویکردهای عملگرایانه وجود دارد؟ مجموعه داده ها: * حدود 220 مشاهده (شمارش)، * 12 پیش بینی در مدل کامل، * میانگین نسبتاً بزرگ و * واریانس بزرگ (پواسون به دلیل پراکندگی زیاد کار نمی کند) * بدون مشاهده صفر * 2 شیب تصادفی مدل های برازش شده (پس از انتخاب متغیر گام به گام): (1) مدل مختلط خطی با پاسخ تبدیل شده log LMM <- lme (log(Y) ~ a + b + e + f، تصادفی = ~ - 1 + e + f |، روش = REML، داده = my_data) (2) مدل مخلوط دو جمله ای منفی GLMM <- glmmPQL(Y ~ a + c + d + e. + f، تصادفی = ~ - 1 + e + f | مکان ,data=my_data) (A) نوعی R² (R مربع) می تواند LMM محاسبه شود. و GLMM (حاشیه ای و مشروط). برای مثال ببینید http://glmm.wikidot.com/faq و اینجا (Nakagawa & Schielzeth (2013) یک روش کلی و ساده برای به دست آوردن R 2 از مدل های تعمیم یافته خطی اثرات مختلط). با این حال، من نمیتوانم آن را روی یک مدل ترکیبی دوجملهای منفی اعمال کنم. (ب) معیارهای اطلاعاتی (AIC، BIC و غیره) قابل محاسبه است. آنها همچنین برای مدلهای مختلط (http://glmm.wikidot.com/faq) مورد بحث قرار میگیرند، بهویژه اینکه درجات آزادی چگونه باید محاسبه شوند. من با مشکلات زیر روبرو شدم: * استفاده از glmmPQL از بسته MASS برای نصب GLMM امتیاز AIC ایجاد نمی کند (glmmPQL از شبه احتمال و بدون log-احتمال استفاده می کند (بنابراین نه AIC و نه BIC، که بر اساس احتمال log است) * بسته های دیگر برای برازش GLMM با توزیع دو جمله ای منفی مانند تابع glmmADMB یا glmer.nb از بسته lme4 امتیازات AIC را تولید می کند، اما در مقیاس بسیار متفاوت در مقایسه با تابع lme از بسته nlme برای نصب LMM، علاوه بر این، من در نصب GLMM با استفاده از glmmADMB یا glmer.nb (همگرایی و برخی از پیام های خطای عجیب) مشکل داشتم. ج) اعتبارسنجی متقاطع: * من موفق به اجرای اعتبار متقاطع برای GLMM (دوجمله ای منفی) با استفاده از glmmPQL آیا کسی می داند که چگونه این اقدامات را برای ارزیابی 2 مدل انجام دهد یا اینکه آیا هر گونه نکات قابل مقایسه ای وجود دارد | LMM GLMM (مدل مختلط خطی تعمیم یافته، دو جمله ای منفی) را با اندازه گیری عددی (AIC BIC، اعتبار متقاطع، R² مربع) برای اعتبارسنجی مدل مقایسه کنید. |
92764 | من سعی می کنم سیستمی از معادلات کلان اقتصادی (همزمان) را تخمین بزنم، و در مورد وجود روش های مختلف از جمله مدل های معادلات ساختاری، مدل های معادلات همزمان، روش های تعمیم یافته لحظه ها، و خودرگرسیون برداری ساختاری (بدون رفتن به بیزی) مطلع شده ام. روش ها). من می دانم که پاسخ کوتاهی برای این وجود ندارد، اما واقعاً ممنون می شوم اگر کسی بتواند به من کمک کند تا این روش ها را متمایز کنم. هدف از تخمین پارامترها درک ساختار اقتصاد است تا بتوانم مدل را با مجموعهای از دادههای متفاوت تطبیق دهم (مثلاً اگر هدف تورمی مقام پولی 4 باشد برای خروجی اقتصاد چه اتفاقی میافتد. ٪ به جای 0٪. خیلی ممنون | برای تخمین پارامترهای یک مدل از کدام روش استفاده کنم؟ |
72512 | آیا کتاب یا مقاله ای وجود دارد که راه های یافتن توزیع سیگنال های مشاهده شده را ذکر کند؟ پس از مشخص شدن میانگین و واریانس، چگونه توزیعی را که به آن تعلق دارد، تعیین/پیدا کنم؟ بسته های نرم افزاری برای انجام این کار برای شما وجود دارد، اما آیا چارچوب نظری وجود دارد؟ من در گوگل جستجو کرده ام و تست هایی مانند chi-square و همه آنها را پیدا کرده ام اما هیچ فرم تحلیلی برای محاسبه میانگین و سایر پارامترها وجود ندارد و جایی که نحوه یافتن توزیع داده ها را ذکر کرده است. | روش تعیین توزیع داده ها |
92760 | من یک انتگرال ساده $\int^1_{-2} \exp{x^2}(x+1)dx $ را با روش مونت کارلو با استفاده از تابع چگالی خطی $p_\xi (x) = \frac{4 محاسبه میکنم. }{9} + \frac{2}{9} x $. فرض کنید من یک نمونه دارم که در بازه [0،1] توزیع شده است. برای اینکه در بازه [-2،1] توزیع شود، آن را با پیروی از الگوریتم محاسبه، $\int\limits_0^{\xi} \frac{4}{9} + \frac{2}{9 یکپارچه کردم. } x dx= U $ بعد از حل معادله $\xi = \sqrt{9 \cdot U + 4} – 2$ به دست میآید. همانطور که ξ باید از [-2,1] باشد، من کمی معادله را تغییر دادم، بنابراین نتیجه نهایی من $\xi = \frac{3(\sqrt{9 \cdot U + 4} – 2 )}{\ بود. sqrt{13} – 2} – 2 $، که در آن U متغیر تصادفی از نمونه من است. این قانون می گوید که تقریب انتگرال باید $I \approx \frac{1}{n} \sum \limits^n_{i=1} \exp({\xi_i^2})(\xi_i +1 ) \ باشد. cdot \frac{1}{p_{\xi} (\xi_i)} $ جایی که n تعدادی از متغیرهای تصادفی در U است. من سعی کردم آن را با R محاسبه کنم، اما همیشه پاسخ اشتباه دریافت کنید نتیجه واقعی -8.02465 است، اما من -1163.554 را دریافت می کنم. من نمی دانم اشتباه من دقیقاً کجاست، چه در کد R من باشد یا در الگوریتم. کد R: x1=c() x1[1]=1 a=1141 c=247 b=a-1 m=1216 برای (i در 1:(m-1)){ x1[i+1]=(a *x1[i]+c)%%m} m=1216 x=c() int=c() U=x1/m for(i در 1:m){ x[i]=sqrt(9*U[i])-2 int[i]=exp(x[i]^2)*(x[i]+1)/(4+2*x[i]) } I=9/m*sum(int) I | ادغام مونت کارلو |
100231 | من در حال انجام مطالعه ای در مورد منبع کنترل و توانایی مقابله با حمایت اجتماعی هستم. برای خرده مقیاس منبع کنترل - باور درونی، مشخص شد که در هنگام استفاده از تحلیل آماری رگرسیون خطی، پیشبینی معناداری بر توانایی مقابله وجود ندارد. با این حال، هنگامی که خرده مقیاس باور درونی به سطوح بالا و پایین طبقه بندی شد و با آزمون آنوای دو طرفه بر روی توانایی مقابله ای مورد آزمایش قرار گرفت، می توان دریافت که تأثیر اصلی معنی داری وجود داشت. بنابراین، چگونه باید این یافته متضاد را در مطالعه تحقیقاتی خود گزارش کنم؟ گیج کننده است و من در بخش بحث به دلیل این تضاد در نتایج به دست آمده گیر کرده ام. لطفا راهنمایی و راهنمایی کنید. | اگر رگرسیون خطی و تعامل اصلی آنوای دو طرفه نتایج متفاوتی را برای یک فرضیه به من ارائه میدهد، چگونه گزارش دهم؟ |
72516 | من در حال بررسی این هستم که چگونه پیچک انگلیسی بر وقوع گونه سمندر در زیر اجسام پوششی (مانند کندهها) تأثیر میگذارد. فرض می شود که رطوبت خاک مهمترین عاملی است که بر وقوع آنها تأثیر می گذارد. مسیر فرضی من: وجود/عدم وجود سمندرها در زیر اجسام پوششی یا نتیجه مستقیم تغییرات در محیط زیستی ناشی از پیچک (به عنوان مثال، خاک خشک تر) است یا یک نتیجه غیرمستقیم از تغییرات در جامعه طعمه است که ناشی از عوامل غیرزیست تغییر یافته است. اما عوامل متعددی به غیر از پیچک انگلیسی وجود دارد که بر رطوبت خاک تأثیر می گذارد.  سوالات من این است: 1. فکر می کنم تحلیل مسیر برای آزمایش مکانیسم های علی من مناسب ترین است. اما، با توجه به حجم نمونه کوچک (n = 71)، آیا تحلیل مسیر مناسب است؟ 2. یکی دیگر از مشکلات احتمالی برای تجزیه و تحلیل مسیر این است که اثرات پیچک انگلیسی بر رطوبت خاک به نظر می رسد به عوامل دیگر (به عنوان مثال، تعداد درختان بیش از حد)، همانطور که در زیر نشان داده شده است، بستگی دارد. آیا راهی برای توضیح چنین الگوهایی در تحلیل مسیر وجود دارد؟  3. آیا تحلیل های دیگری برای آزمایش روابط فرضی من وجود دارد؟ رگرسیون های (خطی و لجستیکی)، اما باز هم اندازه نمونه من کوچک است هرچند). | تجزیه و تحلیل مسیر، اندازه نمونه، و تجزیه و تحلیل جایگزین |
109254 | بیایید یک مسابقه فرضی را فرض کنیم. شما می توانید با ارسال یک بلیط به مسابقه بپیوندید، اما چندین بلیط نیز می تواند توسط یک شخص ارسال شود. (برای این سوال، فرض کنید 5000 بلیط وارد شده و 300 متقاضی وجود دارد). بیست متقاضی می توانند برنده شوند، هیچ فردی نمی تواند دو بار انتخاب شود. شانس برنده شدن یک نفر با n بلیط ارسال شده چقدر است؟ | شانس من برای برنده شدن چقدر است؟ |
100236 | من مطمئن هستم که بیشتر مردم با بازیهای شبکه کلمات مانند Boggle و نسخههای دیجیتال جدیدتر Scramble with Friends و Ruzzle آشنا هستند.  برای هر کسی که آشنا نیست، ایده این است که کلمات را با استفاده از کاشی های مجاور پیدا کنید. شما از هر سلولی شروع می کنید و سعی می کنید یک کلمه را با کشیدن به بالا، پایین، چپ، راست یا مورب املا کنید. تابلو بسته نمی شود و نمی توانید از حروفی که قبلاً انتخاب کرده اید دوباره استفاده کنید. من سعی می کنم با توجه به احتمال اینکه می دانم حروف هر کدام چند بار ظاهر می شوند، احتمال ظاهر شدن یک کلمه روی تخته را بفهمم. به عنوان مثال، اگر من بدانم که حرف A در 9.8 درصد مواقع ظاهر می شود، احتمال دیدن کلمه AA چقدر است؟ من می دانم که این نسبتاً ساده است، اما از آمار کالج خیلی طولانی شده است. (من دو مدل هوکی دارم، اما میخواهم از متخصصان بشنوم.) میتوانم شبیهسازی میلیونها تخته را اجرا کنم و به یک پاسخ تجربی برسم - در واقع، کسی دارد - اما ترجیح میدهم بفهمم چرا اینطور است برای سادهتر کردن کارها، میخواهم دو قانون را نادیده بگیرم که به پیچیدگی میافزایند: * میتوانیم محدودیتهای چند بار ظاهر شدن یک حرف روی یک تابلو را نادیده بگیریم. به عنوان مثال، نگران نباشید که آیا E به اندازه کافی برای ایجاد کلمه ELECTEE وجود دارد یا خیر. * ما می توانیم این واقعیت را نادیده بگیریم که حروف باید مجاور باشند. این بدان معنی است که ما مجبور نیستیم احتمال اینکه یک حرف همسایه حرف دیگری باشد که برای کلمه So به آن نیاز داریم را با این گفته و با احتمالات زیر مشخص کنیم * A: 0.098 * E: 0.146 * R: 0.079 * S: 0.102 * T: 0.098 * C: 0.021 احتمال وجود یک تابلوی تصادفی حاوی کلمه SEE چقدر است؟ در مورد SET چطور؟ اشک؟ در مورد ایجاد نادرتر چطور؟ توجه: من قبلاً اینجا را جستجو کردم و فکر میکنم این یک مشکل مشابه اما متفاوت از این سؤال است: احتمال ترسیم یک کلمه معین از یک کیسه حروف در Scrabble | محاسبه احتمالات حروف در یک شبکه کلمه |
30325 | یک سوال رایج وجود دارد به نام بهترین سوال آماری تا کنون. اگر پاسخی برای این سوال به صورت تصادفی انتخاب کنید، چه شانسی دارید که درست باشید؟ الف) 25% ب) 50% ج) 60% د) 25% این کار خیلی سخت نیست، پاسخ صحیح 0% است. اما اگر آن را به این صورت اصلاح کنیم: اگر پاسخی برای این سوال به صورت تصادفی انتخاب کنید، شانس درست بودن شما چقدر است؟ الف) 50% ب) 25% ج) 60% د) 50% پاسخ صحیح چه خواهد بود؟ آیا دو پاسخ صحیح داریم: 25% و 50% یا پاسخ صحیحی وجود ندارد، زیرا با این دو پاسخ صحیح شانس انتخاب پاسخ صحیح در واقع 75% است (اما 75% روی میز نوشته نشده است. )؟ به هر حال. آیا پاسخ 0% پاسخ صحیح، سومین پاسخ صحیح در این مورد باقی می ماند؟ | اگر بهترین سوال آماری تا کنون را اصلاح کنیم، پاسخ صحیح چه خواهد بود؟ |
101182 | من سعی کرده ام نحوه استفاده از توابع gamlss.famliy Zero inflated (به عنوان مثال ZIP) را در داده ها بیابم. یک آمار توصیفی در مورد داده های من به شرح زیر است. حداقل 1 ق. میانگین میانه 3rd Qu. حداکثر 0 3 45 13520 630 469000 یک نتیجه از `descdist` ; حداقل: 0 حداکثر: 469000 میانه: 45 میانگین: 13522.79 تخمینی SD: 66346.55 چولگی تخمینی: 5.996958 کشش تخمینی: 39.37641 میتوانم «fitdist(W14nbinom) را به شرح زیر اجرا کنم.  با این حال، زمانی که «fitdist(W14، ZIP2، start=list(mu=x، sigma=x) را اجرا کردم )`، و من یک پیغام خطای معمول دریافت می کنم. sigma باید بین 0 و 1 باشد. خطا در fitdist (W14، ZIP2، start = list(mu = xx، sigma = xx)): تابع mle نتوانست پارامترها را تخمین بزند، با کد خطا 100 من امتحان کردم مقادیر مختلف mu و sigma اما هیچ کدام تا کنون کار نکرده اند. من واقعاً از هر کمکی در این مورد قدردانی می کنم. | نحوه برازش یک توزیع NB بادشده صفر با مو و سیگما بزرگ توسط توابع fitdist + gamlss |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.