_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
4961 | برخلاف سایر مقالات، مدخل ویکیپدیا برای این موضوع را برای یک فرد غیر ریاضی (مثل من) غیرقابل خواندن یافتم. من ایده اصلی را درک کردم که شما از مدل هایی با قوانین کمتر استفاده می کنید. چیزی که من نمیفهمم این است که چگونه میتوانید از مجموعهای از قوانین به یک «نمره منظمسازی» برسیم که میتوانید از آن برای مرتبسازی مدلها از کمترین به بیشترین حد مناسب استفاده کنید. آیا می توانید یک روش منظم سازی ساده را توضیح دهید؟ من به زمینه تجزیه و تحلیل سیستم های معاملاتی آماری علاقه مند هستم. خیلی خوب است اگر بتوانید توضیح دهید که آیا می توانم منظم سازی را برای تجزیه و تحلیل دو مدل پیش بینی زیر اعمال کنم: مدل 1 - قیمت زمانی که افزایش می یابد: * exp_moving_avg (قیمت، دوره = 50) > exp_moving_avg (قیمت، دوره = 200) مدل 2 - افزایش قیمت زمانی period=200) بالا رفتن اما من بیشتر علاقه مندم که در مورد نحوه منظم کردن شما احساس کنم. بنابراین اگر مدل های بهتری برای توضیح آن می شناسید لطفا انجام دهید. | منظم سازی در انگلیسی ساده چیست؟ |
3268 | من حدود ده گروه (شرکت) دارم. هر گروه با گروه دیگری مرتبط است. داده هایی که من دارم نشان دهنده قدرت اتصال است. تصور کنید تعداد دفعاتی است که فردی از گروه A یک ایمیل به گروه B ارسال کرده است. قدرت یک اتصال می تواند 0 باشد. دو ارتباط بین دو گروه وجود دارد، A-B و B-A. الف) راه خوبی برای تجسم این موضوع چیست؟ مثلاً میتوانم تصور کنم که هر گروه یک دایره است. خطوط دایره ها را به هم متصل می کنند و ضخامت خط نشان دهنده قدرت اتصال است. اینکه بتوانید اندازه گروه ها را مشخص کنید یک امتیاز مثبت است اما الزامی نیست. ب) آیا ابزار نرم افزاری برای تجسم این موضوع می شناسید؟ این ابزار نباید خیلی گران باشد یا باید به عنوان یک نسخه آزمایشی در دسترس باشد زیرا در حال حاضر فقط یک اثبات مفهوم است. لازم نیست که مبتنی بر وب باشد. با تشکر | تجسم ارتباطات بین گروه ها |
14044 | من یک ANOVA یک طرفه را روی 8 گروه انجام داده ام. من میدانم که درجه آزادی برای آن آزمون 7 است، اما نمیدانم چگونه میتوان درجات آزادی را برای آزمونهای تعقیبی تعیین کرد: من یک سری آزمون t را به عنوان مقایسه چندگانه پسهک با استفاده از Holm انجام دادم. روش سیدک کاهش میزان خطای خانوادگی. چگونه می توان فهمید که درجات آزادی برای چنین آزمون هایی چقدر است؟ آیا به سادگی «n1 + n1 - 2» است، همانطور که برای آزمون های t معمولی است؟ اگر چنین است، از آنجایی که اندازه نمونههای من برای آزمون t-hoc مورد نظر به ترتیب 893 و 169 است، آیا اندازه نمونه کمی بالا میرود و باعث میشود نرخ خطای نوع I من افزایش یابد؟ با تشکر | درجات آزادی برای آزمون های پس از آن |
37535 | من یک رگرسیون چندگانه را با استفاده از 10 متغیر مستقل و تک متغیر وابسته (رفتار شکایت مصرف کننده) اجرا کردم. یکی از آن متغیرهای مستقل جنسیت بود. $R^2$ برای خود مدل $0.157 بود (F=20.50، p =.000)$ که در حالی که بالاترین امتیاز R^2$ حداقل معنی دار نبود. پایین در جدول ضرایب جنسیت $(\beta = -.083, p = 0.006)$. همانطور که سرپرست من توضیح داد، نمره قابل توجهی است که جایگزین را می پذیرد و با CCB رابطه منفی دارد. از نظر تفسیری، به این معنی است که مردان بیشتر از زنان شکایت می کنند (مرد = 1 زن = 2). حالا کمی کنجکاو شدم و برای تست تفاوت میانگین ها تست t انجام دادم و همانطور که مشخص شد بین گروه های جنسیتی تفاوت معنی داری وجود ندارد. اینجاست که من کمی گیج می شوم... مطمئن نیستم که چگونه می خواهم این نتایج را تفسیر کنم. فقط به نظر می رسد که شاید آنها با یکدیگر در تضاد هستند؟ | تضاد بین اثر معنی دار در رگرسیون چندگانه، اما آزمون t غیر معنی دار به تنهایی |
57345 | من سعی می کنم تفاوت بین این پارامترها و کاربرد آنها را درک کنم. امیدوار بودم که برخی اصلاحات/توضیحات را در اظهارات من دریافت کنم. من یک مجموعه آموزشی و یک مجموعه اعتبار سنجی متقابل دارم. من از آمار بیزی استفاده می کنم، متوجه شدم که AIC و BIC را نمی توان در این زمینه استفاده کرد. AIC و BIC ارزیابی می کنند که مدل چقدر با مجموعه آموزشی مطابقت دارد. DIC ارزیابی می کند که چگونه مدل با برخی از داده های آینده (یعنی مجموعه اعتبار سنجی متقابل) مطابقت دارد. بنابراین در صورت استفاده از روشهای MLE، آیا باید AIC و BIC را در مجموعه اعتبارسنجی متقاطع محاسبه کرد؟ برعکس، هنگام استفاده از روشهای بیزی، آیا نیازی به محاسبه DIC برای مجموعه اعتبارسنجی متقاطع نیست زیرا طبق تعریف به دادههای آینده مربوط میشود؟ ممنون مارک | AIC، BIC، DIC، معیارهای انتخاب مدل |
14045 | از «?combine» در randomForest: > مؤلفه های confusion، err.rate، mse و rsq (و همچنین > مؤلفه های مربوطه در مؤلفه آزمایشی، در صورت وجود) شی > ترکیبی NULL خواهد بود. چرا اجزای err.rate، mse و rsq برای ترکیب ترکیبی NULL هستند؟ آیا روش کارآمدی برای محاسبه مجدد این معیارها وجود دارد؟ من میپرسم زیرا میخواهم راهی برای استفاده از روش نمونهگیری مجدد «oob» با مدل «parRF» در caret بیابم. | با ترکیب جنگلهای تصادفی در R، چرا مولفههای err.rate، mse و rsq NULL هستند؟ |
58042 | فرض کنید ما یک زنجیره مارکوف با ماتریس احتمال $$ P = \begin{pmatrix} 0.25 & 0.25 & 0.5 & 0 & 0 \\\ 0 & 0.66 & 0 & 0.33 & 0 \\\ 0 & 0.25 & 0.25 & 0.5 داریم. 0.25 \\\ 0.5 و 0 و 0 & 0.25 & 0.25 \\\ 0 & 0 & 0 & 0.2 & 0.8 \end{pmatrix} $$ من گیج شدهام، ممکن است واقعاً ابتدایی به نظر برسد اما نمیخواهم آن را در امتحان به شانس بسپارم. کلاس های ارتباطی چه خواهد بود. من فکر میکردم که تنها یکی وجود خواهد داشت که همه ایالتها با هم ارتباط برقرار میکنند، بنابراین کاهشناپذیر است. اما حالت های 4 و 5 می توانند یک کلاس باشند؟ متاسفم برای سوال اساسی ما یک مدرس ضعیف داشتیم و مجبور بودیم این را بیشتر از کتاب یاد بگیریم. | کلاس های ارتباطی را برای این زنجیره مارکوف تعیین کنید |
106042 | در حال کار بر روی مشکل استخراج حداقل زیرمجموعه معیارها در یک مشکل مکان یابی، به PCA متوسل شدم، من فقط 26 فرد (اندازه گیری) دارم، طبیعتاً فکر کردم عاقلانه است که بپرسم آیا این تعداد کافی است یا خیر. من نتایج را به دست میآورم، موضوع این نیست، فقط میدانم که آیا میتوانم به آنها اعتماد کنم یا نه. بنابراین حدس میزنم، یک سوال تکمیلی این خواهد بود: **_تعداد اقدامات ایدهآل برای اطمینان از تجزیه و تحلیل PCA جامد چقدر است؟_** با تشکر از پاسخهای شما، روز خوبی داشته باشید! | آیا تعداد ایده آلی از اقدامات در PCA وجود دارد؟ |
57349 | من در زمینه مدل سازی با جلوه های ترکیبی کاملاً جدید هستم. برای مبتدی مانند من، حدس میزنم که چندین سطح از پیچیدگی را در تجزیه و تحلیل خود ترکیب کنم: مشاهدات زوجی و متغیرهای پاسخ محدود. امیدوارم در توضیحاتم واضح باشم و حداقل در مورد برخی از چالش هایی که با آن روبرو هستم، نظرات مفیدی دریافت کنم. پیشاپیش ممنون به طور خلاصه، هدف من مقایسه عملکرد انواع مدل های توزیع گونه ها بر اساس چندین شاخص عملکرد، در مجموعه ای از 89 گونه است. **متغیرهای پاسخ:** متریک AUC (محدود شده بین 0 و 1) یا شاخص بویس (محدود شده بین 1- و 1) **اثر ثابت:** نوع_مدل (مدل_اقلیمی،_مدل_استفاده_زمین) **اثر تصادفی:** 89 گونه، 10 تکرار برای هر یک از 89 گونه که حدس میزنم میتوان انجام داد: `fit1<-lme(model_performance_value~model_type, random=~1|species, data=dat)` با استفاده از خلاصه (fit1) دریافت می کنم: اثرات ثابت: model_performance_value ~ model_type Value Std.Error DF t-value p-value (intercept) ) 0.6362836 0.028055699 1690 22.67930 0 technologyunbiased_boyce 0.1680262 0.007156959 1690 23.47732 0 (1) آیا گرفتن مقادیر p 0 (با استفاده از aov(fit1) <0.001 شد) خوب است؟ (2) آیا فکر می کنید DF ها خوب هستند؟ (3) اگر از AUC به عنوان متغیر پاسخ استفاده کنم، به [0,1] و اگر از شاخص Boyce استفاده کنم، به [-1,1] محدود می شود. آیا باید از مدل های دیگری با چنین متغیرهای پاسخی استفاده کنم؟ **در نظر گرفتن مقایسه های جفت شده:** متغیر پاسخ گونه A replicate 1 climatic_model با متغیر پاسخ گونه A replicate 1 land_use_model جفت می شود. تکرارها بین انواع مدل اما در یک گونه معین جفت می شوند. متغیر دیگری به نام paired_id ساختم. این متغیر به صورت species_replicate نوشته شده است و 10 تکرار در 89 گونه = 890 مقدار می گیرد. model_type species replicate paired_id clim A 1 A_1 land A 1 A_1 clim A 2 A_2 land A 2 A_2 clim B 1 B_1 دنبال کردن این لینک (مثال در زمینه بسیار ساده تر) http://www2.compute.dtu.dk/~hmad/ GLM/Slides_2012/week09/lect09.pdf، انجام دادم: fit1<-lme(model_performance_value~model_type, random=~1|species/paired_id, data=subset) مقدار p 0 و DF=890 بدست آوردم. با این حال، من مطمئن نیستم که به هیچ وجه به این روش کار کند. من حدس می زنم پیچیده تر از این است. کسی راهنمایی هایی برای من دارد؟ هر گونه کمک بسیار قدردانی! | مدلسازی اثر مختلط با مشاهدات زوجی و متغیرهای پاسخ محدود |
84030 | من اطلاعاتی از قیمت یک محصول قبل از عرضه نسخه جدیدتر و بعد از عرضه نسخه جدیدتر دارم. من می خواهم شیب محصول را قبل از محصول جدید مدل کنم و محصول جدید را پست کنم.  با نگاهی به داده ها، مشخص است که این نقطه در چه زمانی است و شیب منفی محصول در طول زمان افزایش می یابد. مدل های خطی چندان منطقی نبودند، زیرا رهگیری ها متفاوت هستند و واقع بینانه نیستند؟ PRE: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 668.12155 2.25824 295.86 <2e-16 *** pre -0.23071 0.01968 -11.72 <2e-16 *** POST (بعد از روز 150): ضرایب Estim St. خطای t مقدار Pr(>|t|) (Intercept) 821.00351 10.96838 74.85 <2e-16 *** post -1.13929 0.04899 -23.25 <2e-16 *** هر گونه راهنمایی در مورد نحوه برخورد با این مشکل مفید خواهد بود. | مدل سازی شیب ها در طول زمان |
90800 | (برای این بحث ممکن است مدل تک پارامتری و داده های تک متغیری را فرض کنیم). من میدانم که «اطلاعات مشاهدهشده» ارزیابیشده در MLE انحنا را اندازهگیری میکند و از این رو میزان اطلاعاتی را که دادههای ما به ما میدهند، اندازهگیری میکند. اطلاعات مشاهده شده در اینجا به این اشاره دارد که قبلاً یک نمونه به دست آورده باشید و سپس $-d^2l/d\theta^2$ را محاسبه کنید ($l$ در اینجا log- احتمال است). من همچنین تعریف Fisher Information را میدانم و میدانم که $l$ قبل از ترسیم دادهها تصادفی است. با این حال، از نظر یک توضیح شهودی، ویکیپدیا و منابع مختلف دیگر میگویند که اطلاعات فیشر مقداری از انحنا را نشان میدهد یا همچنان اطلاعات را به همان روشی که برای اطلاعات مشاهدهشده توضیح دادم به ما میگوید. این، من مخالفم وقتی من $I(\theta)$ را با میانگین انحنای روی همه $l$ ممکن ارزیابی می کنم، باید در نظر داشته باشیم که $\theta$ لازم نیست اوج $l$ باشد - برای برخی $l$، اینطور است: اما برای $l$ دیگر، ممکن است بسیار دور از قله باشیم، و انحنای این مناظر در اطلاعات فیشر ممکن است منجر به جلوههای خندهدار شود. چرا ما به انحنای $\theta$ برای این $l$ عجیب اهمیت می دهیم که در آن $\theta$ مشخصاً تخمین خوبی نیست؟ اساسا، من در توضیح شهودی ارائه شده برای اطلاعات فیشر قانع نیستم. آیا توضیح شهودی که معمولاً ارائه می شود، صحیح است؟ | اطلاعات فیشر به عنوان اندازه گیری انحنا و در نتیجه اطلاعات |
57072 | برخی از تردیدهای رگرسیون.. بگویید، من میخواهم تفاوت تأثیر BMI در سن شروع دیابت را برای بیماران پرفشاری خون و غیر پرفشاری خون تعیین کنم. من مدل رگرسیون خطی چندگانه را با سن شروع دیابت به عنوان متغیر پیامد و BMI در حین تشخیص (متغیر پیوسته) و جنسیت (دودویی) به عنوان متغیرهای پیش بینی کننده انجام داده ام. یعنی پیش بینی سن شروع دیابت از روی BMI تنظیم شده برای جنسیت. (age_at_diag ~ bmi + جنسیت) این کار به طور جداگانه برای بیماران دیابتی پرفشاری خون و بیماران دیابتی غیر فشار خون بالا انجام می شود. حالا سوال من این است، 1. به جای اینکه آن را جداگانه انجام دهم و ضرایب را مقایسه کنم، می توانم متغیر فشار خون (باینری) را در معادله بالا اضافه کنم، یعنی «سن_در_دیاگ ~ bmi + جنسیت + فشار خون بالا» 2. تفاوت بین سن_در_دیاگ ~ bmi چیست؟ + جنسیت + فشار خون بالا و «سن_در_دیاگ ~ bmi + جنسیت * فشار خون بالا» (به عنوان مثال فشار خون بالا به عنوان یک اصطلاح تعاملی) 3. چگونه می توانید خروجی های MLR زیر را تفسیر کنید Call: lm(فرمول = aad ~ diab_bmi * hyper + جنسیت * hyper, data = t2d) باقیمانده ها: Min 1Q Median 3Q Max -31.431 -6.605 -0.479 6.51 41.083 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (تقاطع) 57.14978 0.99077 57.682 < 2e-16 *** diab_bmi -0.25695 0.02781 -9.239 < 2e-16 *** hyper1 11.58879 <3.58879 2e-16 *** genderMale -1.99808 0.36447 -5.482 4.35e-08 *** diab_bmi:hyper1 -0.19536 0.03877 -5.039 4.79e-07 *** hyper1:genderMale 5.209 -4001. 0.00374 ** و تماس: lm(فرمول = aad ~ diab_bmi + جنسیت + hyper، داده = t2d) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -30.629 -6.667 -0.480 6.475 39.449 ضرایب: برآورد. خطای t مقدار Pr(>|t|) (برق) 60.84250 0.70204 86.67 <2e-16 *** diab_bmi -0.35801 0.01941 -18.44 <2e-16 *** جنسیتMale -2.7106240 -2.7106240 *** hyper 4.34875 0.25437 17.10 <2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 | رگرسیون خطی چندگانه |
2170 | بگوییم برخی از یافتههای قبلی یک اثر منحنی X بر Y را شناسایی کردهاند، (به ویژه اینکه X تأثیر مثبتی بر Y دارد و X^2 تأثیر منفی دارد). میخواهید ببینید آیا این موضوع برای نمونه کاملاً متفاوت شما صدق میکند (اگرچه همه چیزهای دیگر بین مطالعات، سازهها/اندازهها دقیقاً یکسان هستند). نه مطالعه قبلی و نه مطالعه من تجربی نیستند (بنابراین من X را دستکاری نمی کنم، فقط آن را مشاهده می کنم). هیچ دلیل نظری واضحی وجود ندارد که چرا یک اثر منحنی رخ می دهد. من چند نمونه از نحوه انجام من در حال حاضر ارائه خواهم داد تا ببینم آیا این درست است یا نه، اما می خواهم نظرات و نظرات مردم را در مورد آنچه که آنها معتقدند روشی ارجح است، اگر هر یک از پیشنهادات من نامناسب است، و البته اگر جایگزین های دیگر هستند. مثالها: 1) به سادگی نمودار پراکندگی دو متغیره را بررسی کنید و نوعی از خط هموارسازی را با میانگین Y بر روی سطلهای X (مثلاً LOESS) قرار دهید. اگرچه گیج کننده می تواند یک مسئله باشد، اگر یک اثر منحنی وجود داشته باشد، احتمالاً شاهدی در توزیع آن خواهد بود. 2) نمودار رگرسیون جزئی یا سایر تکنیک های تجسم را برای شناسایی تأثیر X بر Y مستقل از سایر متغیرهای مخدوش کننده بررسی کنید. 3) از برخی از انواع معیارهای انتخاب مدل استفاده کنید (مثلاً BIC)، و تعیین کنید که آیا مدلی شامل X^2 بر مدل بدون X^2 ترجیح داده می شود یا خیر. ضریب رگرسیون معنی دار همانطور که گفتم هر پیشنهاد دیگری نیز پذیرفته می شود. ویرایش: در این زمینه، نگرانی اصلی من این است که تشخیص دهم آیا تأثیر X بر Y به بهترین شکل به روشی مشابه مطالعه قبلی نشان داده می شود. در حالی که آنها می توانند نکات قابل توجه دیگری برای مقایسه بین مطالعات باشند (مانند میزان تأثیر X بر Y)، این نگرانی اصلی من نیست. | روش ترجیحی برای شناسایی اثر منحنی در چارچوب رگرسیون چند متغیره |
106049 | من با تعدادی ورودی و یک خروجی باینری مشکل دارم که سعی کردم چندین طبقه بندی کننده برای حل آن آموزش دهم. متأسفانه هیچ یک از طبقه بندی کننده ها (MLP، SVM، bagging) به سطح مورد نیاز از دقت دست پیدا نکرده اند. من به این فکر می کنم که با تقسیم مجموعه داده ها به دو قسمت، و استفاده از یک طبقه بندی کننده متفاوت در هر نیمه، یا همان طبقه بندی کننده اما با پارامترهای مختلف (یا پارامترهای یکسان، اما مشکل متفاوتی را یاد می گیرد، مشکل را تقسیم کنم). یک رویکرد این است که مشخصه ای را انتخاب کنید که بیشترین همبستگی را با خروجی دارد و داده ها را به گونه ای تقسیم کنید که کمترین مقدار در یک مجموعه و بالاترین مقدار در مجموعه دیگر باشد. من دوست دارم که یک مجموعه دقت بسیار خوبی را ارائه دهد، در حالی که دیگری دقت کمتری نسبت به مجموعه داده های ترکیبی داشت. آیا روش جایگزینی برای تقسیم مشکل وجود دارد که هر کسی بتواند پیشنهاد دهد؟ | چگونه یک مشکل طبقه بندی را تقسیم بندی کنیم |
3261 | فرض کنید شما روشی برای تخمین کوواریانس جمعیت یک متغیر تصادفی با ارزش برداری با توجه به مشاهدات آن متغیر تصادفی دارید، مثلاً $f(Z) \rightarrow C$، که در آن سطرهای $Z$ مشاهدات متغیر تصادفی هستند. آیا می توان از این فرآیند برای اجرای رگرسیون حداقل مربعات $y = x^T\beta + \epsilon$ برای بردار $n$-بعدی $x$ سوء استفاده کرد؟ ایده این است که یک بردار مشاهدات $y$ داشته باشد، آن را $Y$، و یک ماتریس از مشاهدات زوجی $x$، آن را $X$ بنامیم، سپس کوواریانس $Z = [ را محاسبه کنیم. X\; Y]$ (ماتریس کنار بردار را به هم بپیوندید) از طریق $f$، آن را $C$ بنامید، سپس اجازه دهید $\hat{\beta} = C_{1:n,1:n}^{-1} C_{ 1:n،n+1}$. چند سوال: 1. آیا این در شرایط خوش بینانه کار می کند؟ (یک شبیهسازی ساده در Matlab نشان میدهد که دقت زیاد نیست، اما نتایج در حدود 4 سیگ انجیر است، بنابراین حدس میزنم که باشد.) 2. آیا این یک ترفند شناخته شده است؟ اگر چنین است، آیا نامی دارد که بتوانم آن را در گوگل جستجو کنم یا آنقدر پیش پا افتاده است که نیازی به نام ندارد؟ 3. مهمتر از همه، اگر $f$ بتواند با ورودیهایی که برخی از مقادیر گم شدهاند (مثلاً MCAR - کاملاً تصادفی از دست رفته است) برخورد کند، در چه شرایطی این تکنیک برای رگرسیون با مقادیر از دست رفته رفتار منطقی خواهد داشت؟ **ویرایش** من _am_ فرض میکنم که $x$ از یک فرآیند میانگین صفر گرفته شده است و رگرسیون هیچ عبارت رهگیری ندارد. | استفاده از تخمینگر کوواریانس برای انجام رگرسیون خطی؟ |
106041 | من فهرستی از بردارهای عددی دارم، نه لزوماً طول یکسان. من می خواهم نموداری دریافت کنم که در آن هر بردار در لیست به صورت عمودی بالای یک برچسب برای آن بردار در محور x رسم شود. آیا یک راه خودکار برای انجام این کار در R وجود دارد؟ در اینجا یک مجموعه نمونه از داده ها آورده شده است: yl = structure(list(A = c(4.232886، 3.338263، 1.765557، 1.438516)، B = c(3.046518، 4.500074، 1.508675، 3.225، 1.508675، 3.225، 3.2328675 1.519653)، C = c(5.788882، 7.644319)، .Names = c(A، B، C)) در این مورد من برچسب های A، B و C را در محور x می خواهم، و مقادیر داده مربوطه به صورت عمودی موازی با محور y رسم شده است. | رسم یک آرایه پارگی - لیستی از بردارها در R |
37390 | من مجموعه داده های چند هزار زنجیره مارکوف مرتبه اول خود را در حدود 10 خوشه دسته بندی کردم. آیا روش توصیه شده ای وجود دارد که چگونه می توانم این خوشه ها را ارزیابی کنم و بفهمم موارد موجود در خوشه ها چه چیزهایی را به اشتراک می گذارند و چه تفاوتی با سایر خوشه ها دارند؟ بنابراین من می توانم جمله ای مانند فرآیندها در خوشه A پس از رسیدن به آنجا در حالت Y باقی بمانند، که برای فرآیندهای دیگر خوشه ها صادق نیست. ماتریسهای انتقال آن زنجیرههای مارکوف بیش از حد بزرگ هستند که فقط «نگاه کنیم و ببینیم». آنها نسبتاً پراکنده هستند، اگر این می تواند کمک کند. ایده من این بود که همه ماتریس های انتقال را در یک خوشه جمع کنم و آن را به صورت شدت در یک تصویر رسم کنم (در مقیاس 0 تا 255). آیا چیزی حرفه ای تر وجود دارد که باید آن را امتحان کنم؟ | ارزیابی خوشه های زنجیره مارکوف مرتبه اول |
70775 | من می خواهم بپرسم تابع هدف خاصی که طبقه بندی کننده جنگل تصادفی Scikit- Learn در هر گره برای گزینه Entropy بهینه سازی می کند چیست. درک من این است که آنتروپی در اینجا به عنوان معیاری برای تقسیم داده های آموزشی که به یک گره خاص به زیر درخت چپ و راست می رسد استفاده می شود، با اطمینان از اینکه تقسیم به گونه ای انجام می شود که داده های آموزشی در هر تقسیم به همان اندازه خالص باشد. ممکن است. با این حال، چه تابعی برای تقسیم داده ها استفاده می شود؟ جداکننده خطی؟ جداکننده خطی تراز محور؟ مقطع مخروطی؟ | هدفی که طبقهبندیکننده جنگل تصادفی Scikit-learn در هر گره بهینهسازی میکند چیست؟ |
14048 | من از روش **aplpack** بسته faces() در R برای رسم نمودار چرنوف از داده های زیر استفاده کرده ام. من میخواهم یک چهره فقط با چهار متغیر «a»، «b»، «c» و «d» ترسیم کنم تا توضیح دهم چرا برنامه «A» بهتر از برنامه «B» است. با این حال، روش faces() از این متغیرها برای چندین ویژگی دیگر چهره نیز استفاده می کند. آیا می توانید به من کمک کنید تا با این چهار متغیر یک چهره چرنوف با چهار ویژگی ترسیم کنم. به عنوان مثال: طول: a، عرض: d، چشم: b، و بینی: c. فقط من می خواستم نمودار چهره برنامه های A و B را فقط با این چهار ویژگی چهره تشخیص دهم و بقیه ویژگی های چهره باید بین برنامه های A و B نمودار چهره یکسان باشد. prog a b c d A 0.8 7900 70 27 B 0.3 1920 393 43 | ترسیم نمودار چرنوف در R تنها با چهار ویژگی صورت؟ |
49887 | چه روش خوشه ای برای مطالعه ای با 16 متغیر مقوله ای و کمی مناسب است؟ این یک مطالعه مشاهده ای با اندازه گیری های مکرر است. در متنی خواندم که k-means اگر دادهها عمدتاً کمی باشد، بهتر است، اگرچه ممکن است آن را اشتباه تفسیر کرده باشم. همچنین، چه روش هایی برای حذف متغیرهای خاص قبل از انجام تحلیل خوشه ای بهتر است. من مقالات مشابه مطالعه ای را که در حال تجزیه و تحلیل آن هستم خواندم و برخی ترجیح دادند ابتدا یک PCA یا تجزیه و تحلیل عملکرد متمایز را برای تأیید تعداد خوشه های انتخابی انجام دهند. افکار و نظرات؟ | روش خوشه ای مناسب؟ |
3262 | قصد دارم در این ترم به آموزش آمار به دانشجویان پزشکی کمک کنم. من داستان های ترسناک زیادی درباره ترس این دانش آموزان از یادگیری آمار شنیده ام. آیا کسی می تواند پیشنهاد دهد که با این ترس چه باید کرد؟ (یا به افرادی که در این مورد بحث می کنند پیوند دهید، یا پیشنهاداتی را از تجربه خودتان ارائه دهید) | چگونه به دانش آموزانی که از آمار می ترسند آموزش دهیم؟ |
18212 | من در اطراف Google Scholar برای اولین اشارهای به این طبقهبندی خاص جستجو میکنم و شانس زیادی برای یافتن منبع قطعی نداشتم. من دیده ام که برخی منابع در اواخر دهه 1980 و برخی دیگر در اوایل دهه 1930 ذکر کرده اند. آیا کسی می داند که طبقه بندی کننده ساده بیز چه زمانی توسعه یافته و/یا اولین بار به عنوان یک تکنیک طبقه بندی مورد استفاده قرار گرفته است؟ | منشاء طبقه بندی کننده ساده بیز؟ |
37396 | من در حال کار بر روی یک مشکل برای پیشبینی/طبقهبندی احساس کلی حجم زیادی از متن هستم که میتوانم آن را در روز بعد تأیید کنم. هر نقطه داده یک روز است و از چندین مقاله تشکیل شده است. من کلمات را بر حسب فرکانس در آن مقالات جمع می کنم تا یک طبقه بندی کننده بیزی را آموزش دهم. من سعی کردم احساسات را با استفاده از تمام داده های قبلی پیش بینی کنم. بنابراین در روز N از تمام داده های 1:N-1 استفاده می کنم. با این حال دقت پیشبینی بیش از 110 نمونه آزمون تنها 51 درصد بود. متوجه شدم که پیشبینیها در زمان اضافه بدتر میشوند، زیرا 20 نمونه آزمایش اول 70 درصد دقیق بودند. هنگامی که من فقط از نمونه های 1:20 در مجموعه آموزشی خود برای تمام پیش بینی های بعدی استفاده کردم، مدل با نرخ 57٪ دقیق بود. بنابراین سوال من این است که چگونه می توان بهترین ویژگی ها را در آن داده های اولیه 20 روزه تعیین کرد. آیا باید فقط از ویژگی های برتر X استفاده کنم؟ یا این 57 درصد فقط تصادفی بودن من را وسوسه می کند که مسیری بی ثمر را دنبال کنم؟ آیا میتوان مدل بهتری برای طبقهبندی احساسات باینری مقدار زیادی از متن به عنوان مثبت یا منفی (بایزهای چند جملهای، مجموع) استفاده کرد؟ ممنون، ریکی | افزودن نمونه های آموزشی به طبقه بندی کننده بیزی دقت را کاهش می دهد |
71420 | تقاضای هفتگی یک محصول دارای تابع احتمال تقاضا، x احتمال (fx) ------------------------ 0 0,1 1 025 2 0,4 3 0,15 4 0,10 5 یا بیشتر 0 به سختی می توانم مقدار * مورد انتظار، * واریانس و * انحراف استاندارد برای تقاضای هفتگی را پیدا کنم. از کجا باید شروع کنم؟ | تقاضا با اندازه گیری های مختلف |
18219 | من مطالعهای دارم که در آن پروفایلهای فیسبوک شرکتکنندگان توسط گروهی از دانشآموزان رتبهبندی شدند. سپس شرکتکنندگان بهطور تصادفی به یکی از سه گروه تقسیم شدند: **شرایط نامطمئن** (که در آن میتوانستند رتبه پسندیده-بهترین یا کمترین پسندیده را به آنها اختصاص دهند، اما به آنها گفته نمیشود کدام یک)، **پسندیده- بهترین شرایط** (جایی که بالاترین رتبه را به آنها اختصاص داده اند) و **شرایط لایک-کمترین** (جایی که کمترین رتبه را به آنها اختصاص داده اند). هنگامی که رتبهبندیهای خود را دیدند، اندازهگیری خلق و خو را تکمیل کردند و سپس به نوبه خود توانستند نمایههای فیسبوک افرادی که به آنها رتبهبندی میکردند را جذاب ارزیابی کنند. پس از این، آنها معیاری از سبک دلبستگی (ECR-S)، عزت نفس (RSES)، اندازه گیری خلق و خوی را برای بار دوم و معیاری از میزان فکر کردن آنها در مورد گروه رتبه بندی در 15 دقیقه گذشته تکمیل کردند. **متغیرهای وابسته** در این مطالعه **سطح جذابیت** و **افکار گزارش شده** شرکت کنندگان به گروه رتبه بندی دانش آموزان، و همچنین **اندازه گیری کلی خلق و خو** (خلق در هر دو) است. نقاط زمانی جمع و میانگین شده). **لطفاً با من همراه باشید زیرا من در آمار کاملاً مبتدی هستم، اما تجزیه و تحلیل داده ها من را به شدت گیج کرده است. ** **IV** من در مطالعه **شرط** است که می خواهم ببینم آیا تفاوت معنی داری بین گروه ها در متغیرهای وابسته وجود دارد یا خیر. با این حال، معیارهای سبک دلبستگی و عزت نفس را نیز دارم، دادههایی که سرپرست من قصد دارد از آنها در مطالعات آینده استفاده کند، اما همچنین میخواهد من آنها را در دادههای خود لحاظ کنم. مشکل این است که من نمی دانم آنها در کجا قرار می گیرند! در ابتدا فکر میکردم که هرگونه تأثیر عدم قطعیت بر روی DVها ممکن است به واسطه سبک دلبستگی و عزت نفس باشد، اما از آنجایی که اندازهگیریها پس از رتبهبندی انجام شدهاند، دقیقاً IV نیستند، زیرا ممکن است تحت تأثیر قرار گرفته باشند. رتبه بندی داده شده لطفاً هر گونه کمکی در مورد چگونگی تجزیه و تحلیل این موضوع بسیار قدردانی خواهد شد. به من گفته شده است که باید از ANOVA های جداگانه استفاده کنم، اما به دلیل تورم خانوادگی نرخ خطای نوع I، این کار را توجیه نمی کنم. من در فکر استفاده از MANOVA برای تجزیه و تحلیل جاذبه و افکار گزارش شده (همبستگی در r = 0.34، p <.01) بر اساس شرایط، با ANOVA یک طرفه برای خلق و خو بر اساس شرایط بودم. اما مطمئن نیستم که چگونه با سبک دلبستگی و عزت نفس برخورد کنم. لطفا کمک کنید! | برخورد با متغیرهای مزاحم در موقعیت MANOVA |
106047 | من دو ویژگی را در برگهای یک دندروگرام برای یک فاصله درخت معین (2،3،...) به هم مرتبط می کنم. وقتی جفت A-B را در فاصله x پیدا کردم، تکرار B-A را نیز در همان مجموعه برای فاصله x در امتداد شاخه های درخت خواهم داشت. نتیجه این است که به ازای هر دو برگ، برای مثال یک جفت (x=2,y=-3) و (x=-3,y=2) خواهم داشت. اگر من یک پراکندگی انجام دهم این تقارن در امتداد xy خواهد بود. بسیار برجسته باشد آیا این می تواند مقادیر همبستگی من را سوگیری کند؟ آیا باید از شر جفت های اضافی خلاص شوم، اما کدام یک را انتخاب کنم؟ یا مهم نیست؟ آیا ایده ای برای انجام این وظایف با توجه به ساختار درختی دارید؟ | همبستگی پیرسون با جفت های متقارن؟ |
71426 | نمودار پیوست شده را به عنوان هیستوگرام نتیجه ($Y$) در نظر بگیرید که نتیجه یک رگرسیون خطی خواهد بود. واضح است که هیستوگرام نشان می دهد که نتیجه به طور معمول توزیع نشده است. چگونه می توانم تبدیلی به دست بیاورم که داده ها را نرمال کند تا بتوانم یک رگرسیون خطی را جابجا کنم؟ هدف من مقایسه اثر TRT (درمان) در مقابل CTRL (کنترل) است. یکی از رگرسیون های آشکار این است: $Y = \mathrm{TRT} + \text{دیگر متغیرهای کمکی}$ از آنجایی که $Y$ نرمال نیست، به نظر شما آیا می توانم با در نظر گرفتن $Y$ به عنوان ضریب و TRT به عنوان نتیجه، اثر TRT را ارزیابی کنم. و متناسب با یک رگرسیون لجستیک؟  | سوال در رگرسیون برازش |
38715 | این اساساً یک سؤال تحقیقاتی نیست، بلکه درخواست کمک برای ارائه برخی از منابع مفید در مورد تجزیه و تحلیل مسیر به من است. به نظر می رسد این یک تکنیک مد روز است، اما کمی پیچیده به نظر می رسد. آیا کتاب یا PDF کامل قابل دانلودی وجود دارد که بتوانم جزئیات تئوری و کاربرد آن را بیابم؟ من باید تکنیک متغیرهای مختلط را یاد بگیرم. ساده ترین نرم افزار برای انجام تحلیل مسیر کدام است؟ من در مورد AMOS شنیده ام. آیا نمی توانیم آن را در SPSS انجام دهیم؟ همچنین میخواهم منابعی را پیشنهاد کنم که بتوانم نحوه استفاده از نرمافزار ارجاعشده را برای تحلیل مسیر با انواع مختلف متغیرها یاد بگیرم. | مرجع تحلیل مسیر |
83568 | من سعی می کنم یک تابع چگالی احتمال مشترک را در یک فضای ابعادی بسیار بالا (حدود 15 یا حتی بیشتر) تخمین بزنم. من در مورد روش های فرآیند دیریکله برای انجام این نوع کارها شنیده ام. آیا مقاله / پایان نامه دکترا / کتاب خوبی برای یادگیری در این مورد می شناسید؟ از کمک شما متشکرم | تخمین چگالی احتمال با فرآیند دیریکله |
37391 | در توزیع دو جمله ای پواسون، هر آزمایش یا بله (1) یا خیر (0) است. آیا توزیعی وجود دارد که در آن هر آزمایش یا بله (N) یا خیر (0) باشد؟ من می خواهم موقعیتی را مدل کنم که مثلاً 10 کارگر دارم. هر کارگر می تواند در یک روز واحدهای $N$ کالا تولید کند یا با احتمال شناخته شده شکست بخورد و چیزی تولید نکند. $N$ می تواند برای هر کارگر متفاوت باشد. من باید توزیع کالا را بعد از یک روز کاری بدانم. توزیع دو جمله ای پواسون در صورتی که هر کارگر 1 کالا تولید کند به من پاسخ می دهد. | توزیع دو جمله ای پواسون اصلاح شده |
70779 | فرض کنید من چندین جدول دارم که نشان دهنده 10 کشور است و جداول حاوی user_id و user_score هستند. مثال: جدول CountryA جدول CountryB user_id | user_score user_id | امتیاز_کاربر --------------------- --------------------- 001 | 001 1245 | 002 1023 | 002 1563 | 950 : : : 1000 | 850 1000 | 1600 کاری که من سعی می کنم انجام دهم این است که یک جدول صدک بسازم که در آن هر سطر برای کشور و هر ستون 10، 20.. 10، 20 .... 100 امتیاز کشورA، امتیاز .... امتیاز من شروع به انجام دادن کرده ام. این در پایتون، سوال من بیشتر به محاسبه صدک مربوط می شود. در پایان میخواهم بدانم برای رسیدن به صدک معین باید چه امتیازی کسب کنید. بر اساس آنچه در ویکی پدیا (http://en.wikipedia.org/wiki/Percentile) آمده است. با استفاده از `n = P/100 * N + 1/2` رتبه را میگیرم اما امتیاز را نمیگیرم. برگردیم به مشکلم، اگر بخواهم از این استفاده کنم، باید جدول را بر اساس نمره مرتب کنم و سپس از «1000» به عنوان «N» استفاده کنم و سپس با پاسخی که از فرمول به دست میآورم ببینم کدام ردیف است. آیا این روش درستی است؟ اگر روش درست باشد، بهتر است user_id، user_score را در فایل csv بنویسم و آن را در R بارگذاری کنم، و ممکن است R عملکرد خوبی برای مدیریت این موضوع داشته باشد؟ | محاسبه صدک |
34848 | من با یک فیلد تصادفی گاوسی کار می کنم که می توان آن را با pdf مشترک به صورت زیر توصیف کرد: $$X\mid \sim N\left ( \mu, \sigma^{2} \left ( I-C \right )^{- 1}\right )$$ که در آن $C$ یک ماتریس ساخت یافته است، $c_{ij}=0$ اگر $i$ و $j$ همسایه نیستند. من با استنتاج بیزی در چنین زمینه هایی کار می کنم. بنابراین سوال اصلی این است که چگونه از چنین ماتریس ساختاری نمونه برداری کنیم؟ هر قرعه کشی باید همان ساختار قبلی باشد، یعنی صفر برای غیر همسایگان و $I-C$ باید مثبت و قطعی باشد. اگرچه مقالاتی در مورد نحوه تولید ماتریس قطعی مثبت توسط MCMC وجود دارد، اما من هیچ مقاله ای در مورد نحوه ترسیم یک ماتریس ساخت یافته پیدا نکردم. | MCMC برای ماتریس ساخت یافته |
18214 | روش های رایج انتخاب متغیر مبتنی بر داده (به عنوان مثال، جلو، عقب، گام به گام، همه زیر مجموعه ها) تمایل به ارائه مدل هایی با ویژگی های نامطلوب دارند، از جمله: 1. ضرایب بایاس از صفر. 2. خطاهای استاندارد بسیار کوچک و فواصل اطمینان بسیار باریک. 3. تست آمار و مقادیر p که معنای تبلیغ شده را ندارند. 4. برآورد برازش مدل که بیش از حد خوش بینانه است. 5. عباراتی که میتوانند بیمعنا باشند (مثلاً حذف اصطلاحات درجه پایینتر). با این حال، روشهای انتخاب متغیر همچنان ادامه دارد. با توجه به مشکلات انتخاب متغیر، چرا این رویه ها ضروری هستند؟ انگیزه استفاده از آنها چیست؟ چند پیشنهاد برای شروع بحث .... * تمایل به ضرایب رگرسیون قابل تفسیر؟ (در مدلی با تعداد IV های زیاد اشتباه می کنید؟) * واریانس معرفی شده توسط متغیرهای نامربوط را حذف کنید؟ * حذف کوواریانس / افزونگی های غیر ضروری در بین متغیرهای مستقل؟ * تعداد تخمین پارامترها را کاهش دهید (مسائل قدرت، اندازه نمونه) آیا موارد دیگری نیز وجود دارد؟ آیا مسائلی که توسط تکنیکهای انتخاب متغیر مورد توجه قرار میگیرند، بیشتر یا کمتر از مشکلاتی که رویههای انتخاب متغیر معرفی میکنند، اهمیت دارند؟ چه زمانی باید از آنها استفاده کرد؟ چه زمانی نباید از آنها استفاده کرد؟ | چرا انتخاب متغیر ضروری است؟ |
22798 | من سعی می کنم با استفاده از دستور quickicc به دنبال استفاده از xtmixed یک icc انجام دهم. من سعی می کنم تکرارپذیری را در یک نمونه 24 نفری با اندازه گیری QT (معیار دپلاریزاسیون بطنی) بررسی کنم. هر فرد قرائت های مختلفی از QT دارد. برخی 31 دارند در حالی که برخی دیگر 5 در زمان های مختلف توسط یک خواننده اندازه گیری شده اند. سوال من: آیا می توان با استفاده از دستور xtmixed تجزیه و تحلیل انجام داد، زمانی که تعداد obs ها در هنگام تست قابلیت اطمینان تست-آزمون مجدد متفاوت است یا حتی مناسب است؟ علاوه بر این، من نمی دانم که آیا من از دستورات به درستی استفاده می کنم مانند زمانی که از دستور xtmixed qt || study_id:` من یک رشته تکراری دریافت می کنم که بی انتها ادامه می یابد. هر گونه کمکی قدردانی خواهد شد. | استفاده از xtmixed با دستور quickicc |
30540 | من یک رگرسیون مربوط به درآمد فلزات را به یک شاخص فلزی در هر یک از 25 کارخانه مختلف اجرا کرده ام. در 24 مورد از کارخانه ها، $R^2$ بیشتر از 0.75 است. در یک کارخانه R^2$ 0.061 است. چرا R^2$ در یک کارخانه بسیار کم است؟ | چگونه r-squared در همه گروه ها به جز گروهی که در آن بسیار کم است می تواند بسیار زیاد باشد؟ |
34846 | سری زمانی را که باید با OLS تخمین زده شود در نظر بگیرید: $Y_t = a + \bf{X}_t\bf{b} + e_t$ که در آن $Y_t$ منحرف است، $\bf{X}_t$ بردار مقادیر رگرسیون است. در زمان $t$، $\bf{b}$ بردار برآورد ضرایب است. سناریو (1): ماتریس طراحی به گونهای است که چولگی در پاسخ کاملاً توسط ماتریس طراحی در نظر گرفته میشود - یعنی هیچ غیر عادی در باقیماندهها وجود ندارد. آیا برآورد ضرایب ما حداقل واریانس است؟ سناریوی (2): ماتریس طراحی به گونهای است که چولگی در پاسخ به باقیماندهها جریان مییابد (فرض کنید برای این سناریو که وابسته دارای چولگی اصلی و باقیمانده دارای چولگی کوچکتر است، اما همچنان در آزمون فرضیه غیرعادی بودن بیشتر میآید. برآورد باقیمانده ها). آیا برآورد ضرایب ما حداقل واریانس است؟ از چه تخمینگری استفاده کنم (فقط 1 را میدانم: گونهای از بوت استرپ Wild که کج بودن را به حساب میآورد)؟ | چولگی در متغیر وابسته (OLS، گاوس مارکوف، غیر نرمال بودن) |
34843 | من یک مدل لجستیکی دارم که با تابع 'nls' در R ساختهام. میخواهم از میانگینگیری مدل بیزی برای انتخاب متغیر استفاده کنم، اما نمیتوانم بستهای برای آن در R پیدا کنم. آیا بستههای مناسبی وجود دارد؟ اگر نه، آیا می توان یک فیلمنامه نه چندان پیچیده برای آن ساخت؟ مثال داده: y<-sample(c(1,0),100,replace=T) var1<-sample(c(1,0),100,replace=T) var2<-sample(c(1,0) ,100,replace=T) var3<-sample(c(1,0),100,replace=T) مدل: Sw<- تابع(y1, N1,N2,N3) { SA <- nls(y1~exp(c+(a1*N1)+(a2*N2)+(a3*N3))/(1+exp(c+(a1*N1)+(a2*N2)+(a3*n3)) ) ,start=list(a1=-0.2,a2=-0.2,a3=-0.2,c=0.2)) SA } مدل <- Sw(y, var1,var2,var3) چگونه می توانم میانگین مدل بیزی را در این مورد انجام دهم؟ من 190 مشاهدات دارم که حدود 70 عدد 1 و 120 0 هستند. من در کل 13 متغیر دارم. | میانگین مدل بیزی در R |
37392 | فرض کنید من یک جدول $m$ در $n$ $X_{ij} \in \\{0,1\\}$ دارم، که در هر ردیف، ورودیهای $r$ بهطور تصادفی بر روی 1 تنظیم شدهاند (بقیه 0 هستند )، یعنی $\sum_j X_{ij}=r$. من می دانم که به عنوان مثال مجموع ستون $\sum_i X_{i1} $ دارای توزیع دوجمله ای $\mathrm{Bin}(m, r/n) $ است. اما توزیع مشترک همه مجموع ستون ها، یعنی $(\sum_i X_{i1},\; ...,\;\sum_i X_{in})$ چیست؟ | توزیع مشترک مجموع ستون ها زمانی که مجموع ردیف ثابت است |
70772 | من چندین مجموعه داده گسسته با محدوده کوچک (2- تا +2) دارم که میخواهم آنها را در برابر فرضیه صفر توزیع حول محور صفر آزمایش کنم. آزمون رتبه امضا شده Wilcoxon به عنوان یک انتخاب مناسب به من پیشنهاد شد و برخی از پاسخ ها در این سایت از این موضوع پشتیبانی می کنند. مسئله این است که برای برخی از مجموعه داده ها، بخش بزرگی از جفت دلتاها 0 هستند، به این معنی که بیشتر نمونه ها دور ریخته می شوند. نتیجه این است که برخی از مجموعههای داده با اطمینان 95 درصد آزمون را پشت سر میگذارند در حالی که برخی دیگر با توزیع تقریباً یکسان در آن شکست میخورند. یک آزمون جایگزین خوب برای چنین سناریویی چه خواهد بود؟ | جایگزینی برای آزمون رتبهبندی علامتدار Wilcoxon، برای دادههایی که بسیاری از جفتها برابر هستند |
113465 | تلاش برای ایجاد لیستی از متغیرهای مهم برای یک مدل رگرسیونی. من 82 متغیر دارم، بنابراین برای اینکه فقط متغیرهای مهم را شامل شود، لیستی از همبستگی ها ایجاد کردم و آنها را مرتب کردم. من می خواهم متغیرهایی را با همبستگی > 0.5 و <-0.5 وارد کنم. من یک حلقه for ایجاد کردم، اما در دریافت لیست مشکل دارم. کامپوزیت یک قاب داده است sortedcor <- sort(cor(composite)[,1]) regvar = 0 for (i in sortedcor){ if (sortedcor[i] < 0.5){ regvar[] <- i } } دریافت این خطا : خطا در if (sortedcor[i] < 0.5) { : آرگومان با طول صفر است علاوه بر این: پیام های هشدار: 1: در اگر (sortedcor[i] < 0.5) { : شرط طول > 1 دارد و فقط عنصر اول استفاده خواهد شد | اگر مقدار در ترتیب بیشتر از 0.5 باشد، از حلقه for فهرست ایجاد کنید |
30545 | من با آمار کاملاً غریبه هستم (به غیر از دوره های اجباری در کالج)، اما اخیراً با یک سناریوی جالب در دنیای واقعی روبرو شدم. اخیرا شروع به دویدن کردم. برای اندازه گیری زمان و مسافت گوشی جی پی اس را با خودم می برم. مسیری را انتخاب کردم (حدود 4 کیلومتر، اما دقیقاً نمی دانم) و شروع به دویدن کردم. من مشاهده کرده ام که فاصله اندازه گیری شده ثابت نیست، اگرچه مسیر یکسان است. گاهی اوقات فاصله اندازه گیری شده کمی بیشتر از 4 کیلومتر و گاهی کمی کمتر است. من به دقت GPS گوشی خود علاقه مند هستم. اما یک مشکل کوچک وجود دارد: وقتی می رسم، معمولا (اما نه همیشه) گوشی را چک می کنم و اگر مسافت کمتر از 4 کیلومتر باشد، به دویدن ادامه می دهم تا به 4 کیلومتر برسم. بنابراین با وجود اینکه تمام اندازهگیریها را در تاریخچه ذخیره کردهام، نمیتوانم از آنها برای محاسبه مقدار میانگین استفاده کنم، زیرا گاهی اوقات کمی بیشتر میدویم تا به 4 کیلومتر برسم. با این حال، چیزی که من می دانم این است که در طول 20 دویدن من، حداقل مسافت حدود 3.9 کیلومتر و حداکثر 4.05 کیلومتر بود. بنابراین چیزی که به آن علاقه دارم این است که GPS من چقدر دقیق است و طول مسیر چقدر است. من انتظار دارم که پاسخ چیزی در امتداد خطوط باشد با اطمینان X٪، مسیر Y کیلومتر طول دارد و GPS دارای Z٪ تغییر فاصله است. یا اینکه برای محاسبه آن باید میانگین دقیق را بدانم؟ | چگونه دقت GPS گوشی را در اندازه گیری مسافت ارزیابی کنیم؟ |
96264 | فرض کنید من یک نقطه $P_1$ در نمودار پراکندگی دوبعدی دارم. مختصات $P_1$ $(x_1، y_1)$ است. $x_1$ دارای انحراف استاندارد $\pm u_1$ و $y_1$ دارای انحراف استاندارد $\pm v_1$ است. من همچنین یک امتیاز $P_2$ دارم. مختصات $P_2$ $(x_2، y_2)$ است، با انحرافات استاندارد به ترتیب $\pm u_2$ و $\pm v_2$. چگونه می توانم تصمیم بگیرم که آیا $P_1$ و $P_2$ از نظر آماری معنی دار متفاوت هستند؟ | P-value برای دو متغیر |
38711 | به عنوان مثال، هشدار به نقاشیهای معمولی هنگام تشخیص ارقام دستنویس. برخی از افکار سریع: * یک ورودی بد ممکن است برای دادههای آموزشی پرت باشد * یک ورودی بد ممکن است باعث پیوندهای قابل توجه بین برچسبهای مختلف شود. | چگونه می توان ورودی های بد را هنگام طراحی یک طبقه بندی تشخیص داد؟ |
38710 | من این داده ها را در R ایجاد می کنم: set.seed(111) ds=rnorm(1000) وقتی تست Box-Ljung را برای آزمایش استقلال انجام می دهم: Box.test(ds,type='Ljung',lag=log(length(ds ))) به من p-value=0.5957 داد که منطقی است. با این حال، وقتی این کار را انجام دادم: Box.test(ds[180:299],type='Ljung',lag=log(length(ds[180:299])) به من p-value=0.00162045 داد، یعنی خود همبستگی این زیر دنباله به طور قابل توجهی با صفر متفاوت است. این اتفاق برای برخی از دنباله های دیگر نیز می افتد. با این حال، من سری زمانی را با استفاده از تابع '$rnorm$' در R با 1000 نقطه داده تولید کردم. کسی میتونه لطفا در این مورد توضیح بده؟ پیشاپیش خیلی ممنون برای راحتی شما خوانندگانی که از R استفاده نمی کنید، زیر دنباله ds[180:299] را می توانید از اینجا دریافت کنید: http://ykang.hostoi.com/ds120.pdf | تست Box-Ljung در سری های نویز سفید |
104991 | من تجزیه و تحلیل رگرسیون چندگانه (MLR) دادههایم را انجام دادهام و $R^2$ و $r$ را پیدا کردم و سپس برای حذف مشکل چند خطی از PCA استفاده کردم. این تجزیه و تحلیل PC برابر با متغیرهای من ایجاد کرد، من فقط آن عواملی را انتخاب کردم که ارزش ویژه بزرگتر از 1 پس از چرخش (چرخش varimax) داشتند. حالا من گیج شدهام که اگر نمرات فاکتورهای تنها رایانههای شخصی انتخابی را به عنوان متغیرهای مستقل در MLR قرار دهم، $r$ و $R^2$ کمتر از امتیازهای بدست آمده توسط MLR ساده بدست میآورم، اما باید بیشتر باشد. کجا اشتباه می کنم؟ | تجزیه و تحلیل رگرسیون مؤلفه های اصلی با استفاده از SPSS |
106045 | من معیاری از همبستگی را در یک گراف/شبکه تحت دو شرایط آزمایشی مختلف اندازهگیری میکنم تا تعیین کنم که آیا تفاوت معنیداری در اندازهگیری دادهشده توسط تغییر شرط وجود دارد یا خیر. من این محاسبه را برای تعدادی (N=5) گراف/شبکه ناهمگن تکرار می کنم به این معنا که ممکن است تعداد گره ها/پیوندهای متفاوتی داشته باشند. برای اجتناب از وابستگی به این نمودارها/شبکهها، من هر اندازهگیری را با جمع هر دو معیار در هر شرایط عادی میکنم. من اکنون به سادگی از آزمون t بین هر دو مجموعه نسبتها استفاده میکنم، زیرا تعداد نمونهها محدود است، اما با توجه به ماهیت محاسباتم نگرانیهایی دارم. کدام آزمون آماری در این مورد راحت تر است؟ | آزمون آماری بر روی جفت درصد |
38712 | اجازه دهید ${(x_1,x_2,z_1,z_2)}$ بردارهای با ارزش واقعی با طول مساوی با $${\hat{r}_p(x_1,x_2) \approx \hat{r}_p(z_1,z_2) باشد. > 0}$$ $${\hat{r}_p(x_1,z_1) \approx \hat{r}_p(x_2,z_2) > 0}$$ که در آن $\hat{r}_p$ نشاندهنده ضریب همبستگی تخمینی پیرسون است. اکنون دو رگرسیون خطی ساده را انجام دهید $$x_1 = \hat\beta_{0,1}+\hat\beta_{1,1}z_{1}+\hat{e}_1$$ $$x_2 = \hat\beta_ {0,2}+\hat\beta_{1,2}z_{2}+\hat{e}_2$$ (ضرایب دارای دو زیرنویس هستند تا مشخص شود که این دو معادله رگرسیونی ضرایب خود را به اشتراک نگذارید.) هدف از رگرسیون ها استخراج باقیمانده $\hat{e}_i$ به عنوان نسخه هایی از $x_i$ تنظیم شده برای/غیر همبستگی با $z_i$ مربوطه است. سوال من این است که آیا می توان گزاره های کلی را در مورد بزرگی ${\hat{r}_p(\hat{e}_1,\hat{e}_2)}$ در رابطه با مقدار ${\hat{r} بیان کرد. _p(x_1,x_2)}$، یعنی همبستگی تخمینی بین $x_i$ که انتظار می رود با تنظیم برای (حذف همبستگی خطی با) رشد یا کوچک شود. $z_i$؟ | بزرگی همبستگی پیرسون پس از تعدیل با رگرسیون خطی ساده |
37395 | مثال متعارفی که وضعیتی را نشان می دهد که رگرسیون خطی قوی نسبت به رگرسیون خطی حداقل مربع برتری دارد چیست؟ من سعی داشتم شرایطی را شبیه سازی کنم که برخی از خطاها (20٪ از آنها) از توزیع t-student و 80٪ از نرمال ایجاد می شود - هر دو توزیع با واریانس یکسان! در مجموعه دادهها با مشاهده 50، و من نمیتوانم به وضوح ببینم که رگرسیون قوی بهتر است، کد R من برای این آزمایش اینجاست: کتابخانه (MASS) n=50 # اندازه مجموعه داده N=1000 # تعداد رگرسیون wynik=matrix(0, N,2) # ماتریس با ضرایب تخمینی v=5 # پارامتر توزیع t-student Sd=(v/(v-2))^.5 # انحراف معیار توزیع گاوسی a=1 # ضریب برای (i در 1:N){ x=rnorm(n,mean=1,sd=Sd) e_norm< -rnorm(n,sd=Sd) e_t<-rt(10, df=v ) y_norm=a*x+e_norm y_t=a*x+c(e_t,rnorm(40,sd=Sd)) # wariant 2 część تا outliery Zm1=lm(y_t~x)$coef[2] Zm2=rlm(y_t~x)$coef[2 ] wynik[i,1]=Zm1 wynik[i,2]=Zm2 plot(1,1,main=paste(i)) } plot(density(wynik[,1]),main=density of LS estimator(black) and robust estimator (سبز)) خطوط(density(wynik[, 2])، col=green) # مقدار میانگین LS و برآوردگر قوی colMeans(wynik) | مثال متعارفی که مزیت رگرسیون خطی قوی را نسبت به رگرسیون خطی LS نشان می دهد چیست؟ |
113468 | من سعی می کنم بازدیدهای خودکار از یک وب سایت را شناسایی کنم. یک مجموعه داده معمولی برای یک کلاینت خودکار به این شکل است: userid: visit_time1, visit_time2, ... 94562: 5, 10, 15, 25, 30 ^ missed بنابراین دوره زمان بازدید '5' است. گاهی اوقات (همانطور که در بالا مشخص کردم)، مشتری خودکار یک دوره را از دست می دهد، اما زمان بازدید بعدی همچنان مضربی صحیح از دوره خواهد بود. لطفا توجه داشته باشید که داده ها نیز تا حدودی نویز دارند. بنابراین یک مجموعه داده واقعی تر به نظر می رسد: userid: visit_time1، visit_time2، ... 94562: 5, 11, 14, 25, 30 ^ missed در حالی که یک کلاینت غیر خودکار مجموعه داده ای خواهد داشت که بیشتر شبیه به: 13345: 5، 21، 34، 89 بدون الگوی واضح. من سعی کردم یک وکتور با '1' در نمایه های زمان بازدید و '0' در هر جای دیگر بسازم. سپس خود همبستگی را انجام دادم و برای تعیین ذهنی اینکه آیا مشتری در یک بازه زمانی منظم از آن بازدید می کند یا خیر، بسیار خوب کار کرد. این بر اساس این سوال از DSP stackexchange بود. من همچنین به آزمایش واریانس فواصل بین بازدیدها فکر کردم، اما برخی از فواصل مضرب دوره پایه هستند و این میانگین را منحرف می کند. | تشخیص خودکار بودن بازدیدهای وب سایت |
30543 | سلام به کاربران StackExchange، **پیش مقدمه:** به من وظیفه داده شده است که یک تجزیه و تحلیل خوشه ای (یا احتمالاً تجزیه و تحلیل طبقه پنهان، همانطور که در حال فکر کردن هستم) انجام دهم تا گروه های غیرهمپوشانی از افراد مشابه را که دارای ویژگی های روانی-اجتماعی مشابه هستند، بیابم. همانطور که در مجموعه داده اندازه گیری شد. فرضیههای پیشینی در مورد تعداد گروهها و ویژگیهای آنها وجود دارد، اما با این وجود، تحلیل باید اکتشافی باشد تا تأییدی. مجموعه داده شامل چندین هزار موضوع و حدود دوجین متغیر مورد علاقه است. تا اینجای کار خیلی خوبه. با این حال، یک نکته وجود دارد: این بررسی از یک **طراحی طبقه بندی شده چند مرحله ای پیچیده** ناشی می شود، که آشکارا فرض SRS و خطاهای استاندارد سنتی ناشی از آن را نقض می کند. چنین طرح هایی اغلب برای ارائه استنباط معتبر نیاز به بوت استرپ دارند. وزن های رصدی توسط معماران بررسی ارائه شده است. **سوال من:** با توجه به اینکه آمار اکتشافی است و تاییدی نیست، و هیچ گونه استنباط رسمی در این تحلیل بیمار محور (حتی تخمین های دقیق مانند فواصل اطمینان) تولید نمی شود، آیا این بررسی پیچیده می تواند انجام شود. طراحی با حسن نیت نادیده گرفته شود؟ تنها هشدار ممکن است یکی از اعتبارات خارجی باشد. برخی از گروه های جمعیتی بیش از حد نمونه برداری شده اند. اما استفاده از وزنهای مشاهدهای هنگام محاسبه ماتریسهای فاصله/کوواریانس باید این را در نظر بگیرد، نه؟ خیلی ممنون، برندن | آیا می توان نمونه گیری پیچیده را برای آنالیزهای اکتشافی بیمار محور نادیده گرفت؟ |
38719 | این سوال در ابتدا در SO ارسال شده بود و قنان به من پیشنهاد کرد که آن را در اینجا پست کنم :) سوال من: اجازه دهید یک ماتریس همبستگی داشته باشید. شما می خواهید همبستگی هایی که در کنار 1 هستند و -1 به سمت 1 می روند، در حالی که همبستگی های کنار 0 در آنجا باقی می مانند. ساده ترین راه استفاده از مقادیر مطلق است، به عنوان مثال. اگر «Rho» ماتریس همبستگی شما باشد، از «abs(Rho)» استفاده خواهید کرد. آیا راهی وجود دارد که از نظر نظری صحیح تر از روش بالا باشد؟ به عنوان مثال: اگر از Normal p.d.f استفاده کنم چه می شود. به جای قدر مطلق؟ Rho تنظیم شده = N(Rho، mu = 0، سیگما = stdev(Rho)) که در آن N p.d.f عادی است. تابع آیا راه بهتری دارید؟ به روز رسانی: رومن لوشتریک به من پیشنهاد کرد از کد R زیر استفاده کنم: x <- runif(min = -1، max = 1، n = 100) tr <- (x - min(x))/diff(range(x)) نقاط قوت و ضعف هر روش چیست؟ با تشکر | بهترین راه برای نگاشت ماتریس همبستگی از [-1، 1] فضا به [0، 1] |
83561 | من قبلاً از توزیع های نمایی برای تخمین توزیع های احتمال حداکثر آنتروپی استفاده کرده ام. آیا مشابهی برای نمایی وجود دارد که به اعداد صحیح محدود شود؟ اگر چنین است، آیا کسی برای آن توزیع اشارهگرهایی به تخمینگرهای شکل بسته دارد؟ | آیا یک آنالوگ ماکزیمم آنتروپی شکل بسته از توزیع نمایی وجود دارد، اما محدود به اعداد صحیح است؟ |
83565 | با استفاده از مدل بردلی تری لوس 2: ما می خواهیم 41 اسکریپت را با مقایسه زوجی (بسته BTL2) رتبه بندی کنیم. **اما مجموعه داده ما ناقص است**. ما میتوانیم نمرات توانایی ایجاد کنیم، اما امتیازات در پایان رتبهبندی تخمینهای بزرگی دارند (s.e). همچنین وقتی آیتمهای ساختگی میسازیم که همیشه برنده یا همیشه بازنده هستند. بنابراین میخواهیم مقیاس را درست کنیم: بهترین آیتم نمره توانایی 10 را دریافت میکند و بدترین آیتم نمره توانایی -10 (برای آدمکها). آیا این کار با BTL2 امکان پذیر است، اگر چنین است، چگونه می توانیم این کار را انجام دهیم/ برطرف کنیم؟ | استفاده از BTL2: آیا میتوانیم مقیاس امتیازات توانایی را اصلاح کنیم؟ |
85814 | من در حال انجام یک متاآنالیز هستم، اما یک سوال دارم: من در حال ارزیابی سه استراتژی مختلف درمانی (A,B,C) برای هر یک از این استراتژیهای درمانی هستم که حدود 20 مقاله دارم که نتایج را توصیف میکنند. اکنون سؤال من اینجاست: هر یک از آن مقالات میانگین سنی را توصیف میکنند، با این حال، برخی محدوده، برخی انحراف معیار، و برخی فقط میانگین ارائه میدهند. آیا آزمون آماری وجود دارد که چگونه می توانم این میانگین ها را با هم مقایسه کنم؟ اگر چنین است، از چه آزمایشی استفاده کنم. سوال دوم من در مورد مقایسه سه گروه با یکدیگر است. به عنوان مثال، درصد فشار خون بالا در گروه A 65 درصد، در گروه B 70 درصد و در گروه C 75 درصد است. من تعداد کل بیماران را برای این گروه ها دارم (حدود 400 تا 500 برای همه گروه ها). دادهها از مطالعات گذشتهنگر استخراج میشوند، بنابراین بیماران با هم مطابقت ندارند. از چه آزمایشی استفاده کنم؟ از کمک شما بسیار سپاسگزارم! | مقایسه سه وسیله |
85815 | فرض کنید جمعیتی وجود دارد که خودسرانه به مجموعه ای از زیرجمعیت ها تقسیم شده است که به طور کامل جمعیت اصلی را پوشش می دهد. فرض کنید برای برخی از متغیرها، ما فقط _ پنجک_های هر زیرجمعیت (یا مجموعه ثابتی از چندک ها) را می دانیم، اما توزیع آن را نه. با این حال، صدک کل جمعیت (و البته توزیع) ناشناخته است. آیا راهی برای تخمین چندک کل جمعیت وجود دارد؟ این ممکن است وضعیتی عجیب به نظر برسد، اما برای بسیاری از آمارهای اقتصادی منتشر شده که دسترسی به دادههای کامل امکانپذیر نیست، فقط خلاصهای از آنها امکانپذیر است. ویرایش (توضیح): ممکن است _نه_ فرض کنید که هر زیرجمعیت به طور تصادفی ترسیم شده است. در واقع، هر کدام به احتمال زیاد سوگیری خاص خود را دارند. EDIT2: جزئیات اضافی... (1) ممکن است فرض کنید متغیر غیرمنفی است، و علاوه بر این، ما تخمین مناسبی برای حداقل مقدار آن در کل جمعیت داریم. (2) برآوردهای خشن یا تصفیه نشده خوب است. به روز رسانی نهایی: با گسترش پیشنهادات و تکه کدهای @whuber، فکر کردم یک مثال خوب با برخی از داده های دنیای واقعی (اگر کنجکاو هستید دستمزد ساعتی) اضافه کنم که مرزهای بالایی/پایینی جمعیت نهایی را به همراه این مقدار نشان می دهد. کمیت های جمعیت _شناخته_، که اتفاقاً برای این مورد موجود بود. من همچنین برخی از فرضیات محافظه کارانه را در مورد مقادیر حداقل و حداکثر هر زیرجمعیت مطرح کرده ام، که کمک می کند تا فاصله ها را کمی سفت کنید.  | چندک های جمعیت را از چندک های زیرجمعیت ها تخمین بزنید |
47474 | من یک مجموعه داده برای یک ANOVA ترکیبی 2 (بین) x 3 (داخل) x 3 (در داخل) x 3 (در داخل) دارم. من باید حجم نمونه لازم را برای یافتن یک نتیجه قابل توجه برای یکی از تعاملات 3 طرفه از جمله فاکتور بین آزمودنی ها و دو عامل درون آزمودنی ها پیدا کنم. من سعی میکنم سادهترین/بهترین راه را برای شبیهسازی اضافه شدن شرکتکنندگان اضافی بر اساس دادههای فعلی پیدا کنم. من در حال حاضر 24 موضوع در مجموع دارم (12 در هر یک از گروه های بین موضوعات). من همچنین با R، MATLAB و Python آشنا هستم. من سوالات مشابهی را در سایت پیدا کرده ام، اما به نظر می رسد هیچ یک از آنها سعی در مدل سازی شبیه سازی بر اساس داده های موجود ندارند. | تعیین حجم نمونه مورد نیاز در یک آنالیز واریانس ترکیبی 4 طرفه برای رسیدن به اهمیت |
106040 | معیار مناسب (یا مزایای معایب برای هر کدام) برای وزن دادن به نرخ مرگ و میر در سراسر کشورها چیست: کل جمعیت یا تعداد کل مرگ و میرها؟ به عنوان مثال، اگر شما نرخ مرگ و میر بیماری های قلبی عروقی استاندارد شده در سن را برای 5 کشور با اندازه های مختلف اما در غیر این صورت قابل مقایسه دارید و می خواهید میانگین را بیابید، دلایل یا مناسب بودن وزن دهی بر اساس جمعیت یا تعداد مرگ و میرها چیست؟ | وزن دهی مناسب برای میانگین ها |
83563 | من سعی می کنم دیدگاه جدیدی در مورد برخی از داده ها در مورد محرومیت از خواب و اقدامات مقابله ای پیدا کنم و پیشاپیش از همه برای سرمایه گذاری مغز در مشکل من تشکر می کنم. در اینجا شرح مختصری از تحقیق من آمده است، امیدوارم به درک سوال من کمک کند. من بررسی کردم که چگونه تاکتیکهای مختلف مقابله به غلبه بر اثرات منفی محرومیت از خواب در یک موقعیت رقابتی کمک میکنند. بنابراین من شرکتکنندگان را جفت کردم و به آنها اجازه دادم تا یک وظیفه زمان واکنش رقابتی را در برابر یکدیگر انجام دهند. زوجها همیشه شامل یک شرکتکننده محروم از خواب و یک شرکتکننده کاملاً استراحت بودند. این عامل درونی من است و می توانم بگویم از نظر تحلیل چندسطحی سطح یک است. IV دوم من سه تاکتیک متقابل است که شرکتکنندگان محروم از خواب ارائه شدهاند، که منجر به سه نوع دوتایی مختلف میشود که در یک طرح ANOVA (با دوتایی یک متغیر کانونی) بین فاکتورهای من خواهد بود. اما فکر کردن به تحلیل چندسطحی این IV دوم یک متغیر مختلط است، بنابراین همه پیشبینیکنندههای من طبقهبندی و در سطح پایینتر هستند. فقط اثر تصادفی دوتایی (که به من توصیه شد با تجزیه و تحلیل چند سطحی به آن بپردازم) در سطح بالایی است. سؤال(های) من اکنون: چگونه می توانم این کار را در SPSS انجام دهم (من نحوی را که تا کنون تولید کرده ام را در زیر اضافه می کنم) و آیا استدلال چندسطحی من تا اینجا منطقی است (انجام یک تحلیل چندسطحی ایده من نبود و با توجه به طراحی). و دانش محدود من در مورد موضوع من 100٪ مطمئن نیستم که حتی رویکرد درستی است). باز هم: پیشاپیش از اینکه مشکل من را خواندید و فکر کردید متشکرم. * * * زمان مختلط /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0، ABSOLUTE) PCONVERGE0SOLUTE=0،10. SSTYPE(3) /METHOD=REML /PRINT=CPS DSCRIPTIVES G SOLUTION TESTCOV /RANDOM=INTERCEPT | SUBJECT(Dyad) COVTYPE(VC) /REPEATED=Sleep*Counter_Tactic | SUBJECT(Dyad) COVTYPE(CSH). | تجزیه و تحلیل چندسطحی دادههای دوتایی با همه پیشبینیکنندههای طبقهبندی و در سطح ۱ |
83569 | من از این روش برای کاهش تعداد متغیرها برای یک مدل استفاده کرده ام، اما فکر بدی به ذهنم رسیده است. با توجه به ماهیت بوت استرپ، آیا ممکن است با استفاده تصادفی از متغیرها، در واقع متغیرهای همبسته و هم خطی را تبلیغ کنید؟ من 2 متغیر X بسیار غالب دارم که دیگران را به نویز نزدیک می کند. متوجه شدم که بوت استرپ متغیرهای دیگری را ارتقا میدهد و اساساً به من میدهد، آنچه فکر میکردم، مدل بهتری برای بیرون کشیدن این متغیرهای X جزئی است. x1 با x2 مرتبط است، اما x1 پیش بینی بهتری برای y است که هر بار که x1 وجود ندارد، یک بوت استرپ را اجرا کنید x2 اکنون به عنوان یک پیش بینی کننده در بسیاری از مدل های منفرد تبلیغ می شود x2 اکنون سهم قابل توجهی دارد فقط زیرا x1 در موارد کافی وجود ندارد. یک خطای معتبری که مرتکب شده ام؟ | متغیرهای مرتبط و بوت استرپ جنگل مشکل ممکن است؟ |
15791 | من به دنبال آزمونی برای دادههای دایرهای هستم که معادل آنالیز واریانس اندازهگیریهای مکرر خطی است (من آزمایشی با استفاده از شرکتکنندگان انسانی دارم که در آن نمونههای مشابهی از شرکتکنندگان شرایط آزمایشی متعددی را انجام میدهند و متغیر وابسته یک زاویه است). من متوجه 3 تست برای انجام ANOVA بر روی داده های دایره ای شده ام: 1. Watson & Williams (1956)، 2. Harrison & Kanji (1986)، 3. Anderson & Wu (1995) http://fmatoolbox.sourceforge.net/API/ FMAToolbox/General/CircularANOVA.html آیا این آزمایشها به نمونههای مستقل نیاز دارند (همانطور که گمان میکنم در مورد تست Watson-Williams) یا می توان از آنها در داده های اندازه گیری مکرر استفاده کرد؟ اگر اولی بود، آیا آزمایش دیگری وجود دارد که خواسته من را انجام دهد؟ | اندازه گیری های مکرر ANOVA برای داده های دایره ای / زاویه ای / جهت |
38203 | > **تکراری احتمالی:** > میانگین هندسی وزنی در مقابل میانگین وزنی من تفاوت بین WHM و WGM را جستجو کردم. چه زمانی از هر کدام استفاده کنیم؟ وقتی نه؟ | میانگین هارمونیک وزنی در مقابل میانگین هندسی وزنی |
37393 | من سعی میکنم ویژگیهای عددی یک پیام متنی را شناسایی کنم که آن را به عنوان یک هرزنامه یا به طور خاص، یک سوال بد در سایتهایی مانند این یکی میسازد. به عنوان مثال، آیا چیزهایی مانند تراکم حروف بزرگ مهم هستند؟ آیا کسی می تواند بر اساس تجربه پیشنهادی بدهد؟ | چه خصوصیاتی از یک متن آن را به یک سوال هرزنامه/بد تبدیل می کند؟ |
34849 | من به تازگی در رشته مهندسی فارغ التحصیل شدم که در آن زمینه بسیار قوی در ریاضیات محض دارم، اما متاسفانه در دوره ام هیچ آماری مطالعه نکردم. من حساب دیفرانسیل و انتگرال، نظریه احتمال، نظریه اندازه گیری، تجزیه و تحلیل و غیره را می دانم. اما هیچ دوره ای در زمینه رگرسیون و غیره گذرانده ام. قصد دارم در ماه های آینده برای چندین موقعیت تحلیلگر در بانک ها/شرکت های سرمایه گذاری مختلف درخواست دهم. در میان برخی از آنها، آنها به طور خاص از متقاضیان می خواهند که دانش خوبی در آمار داشته باشند. به چه تکنیکها/مفاهیم آماری نیاز دارم و آیا باید یاد بگیرم (خود مطالعه) که یک تحلیلگر مالی به آن نیاز دارد؟ اساساً من به تجزیه و تحلیل و محاسبه داده های آماری و مالی خواهم پرداخت، چه تکنیک هایی را باید یاد بگیرم؟ آیا باید با رگرسیون، سری زمانی و غیره شروع کنم؟ همانطور که از ویکی پدیا گرفته شده است، این کاری است که من احتمالا انجام می دهم: > تحلیلگران مالی از صفحه گسترده و بسته های نرم افزاری آماری برای تجزیه و تحلیل داده های مالی، شناسایی روندها و توسعه پیش بینی ها استفاده می کنند. آنها بر اساس نتایج خود، گزارش می نویسند و ارائه می دهند، معمولاً توصیه هایی برای خرید یا فروش یک سرمایه گذاری یا اوراق بهادار خاص ارائه می کنند. اگر مسئول مدیریت دارایی ها باشند، تحلیلگران ارشد ممکن است در واقع تصمیم به خرید یا فروش برای شرکت یا مشتری بگیرند. سایر تحلیلگران از داده ها برای اندازه گیری ریسک های مالی مرتبط با اتخاذ یک تصمیم سرمایه گذاری خاص استفاده می کنند. بنابراین، برای انجام موارد فوق (در نقل قول) به چه مفاهیم/ابزارها/تکنیک ها/روش های آماری نیاز دارم؟ من به تازگی کتاب جورج اسندکور: روش های آماری را دریافت کردم، اما کدام مفاهیم/تکنیک های اصلی بیشتر توسط تحلیلگران استفاده می شود؟ من می خواهم به سرعت به آن موضوعات اول شروع کنم. | یک تحلیلگر (مالی) به چه ابزارهای آماری نیاز دارد؟ |
6886 | فرض کنید من یک شبکه عصبی دارم، با متغیرهای ورودی $a, b, c, d, f, g$ و متغیرهای خروجی$ m, n, o, p, q$. با توجه به مقادیر ورودی مختلف، شبکه عصبی مربوط به $m، n، o، p، q$ را خروجی خواهد داد. اکنون میخواهم بهترین مقادیر ورودی را پیدا کنم که میتوانند $m، n$ را به حداکثر برسانند، در حالی که $o,p,q$ را با وزنهای مختلف به حداقل برسانند. بنابراین چگونه می توانم بهترین $a، b، c، d، f، g$ را پیدا کنم؟ در حال حاضر من از یک روش ساده استفاده میکنم که $x= w_1 m + w_2n+w_3 \frac{1}{o}+w_4 \frac{1}{p}+w_5 \frac{1}{q}$ را محاسبه میکند، سپس پیدا میکند ورودی برای حداکثر سازی x. با این حال، این روش ساده فرض میکند که $m، n، o، p، q$ مستقل هستند، که اینطور نیست. پس چگونه باید این مشکل را حل کنم؟ با تشکر فراوان. | چگونه بهترین مقدار ورودی را برای این مشکل ساده پیدا کنیم؟ |
85816 | من سعی می کنم مجموعه داده های بسیار بزرگ (25000 ردیف) از پیش بینی های مالی را تجزیه و تحلیل کنم. پیشبینیها معمولاً از الگوریتمها مشتق نمیشوند، بلکه از سوی تعداد زیادی تحلیلگر به دست میآیند که درآمد و هزینههای موجودیت مربوطه خود را پیشبینی میکنند. پیشبینی از 5 فصل قبل شروع میشود و هر سه ماه یکبار بازنگری میشود و یک سری زمانی از 5 پیشبینی به من میدهد. داده ها همچنین شامل مقدار واقعی هستند که به من امکان می دهد درصد خطای پیش بینی را محاسبه کنم. با این حال، داده ها درآمدها و هزینه ها را جمع می کنند و بین ارزها تفاوتی قائل نمی شوند. بنابراین، یک پیشبینی ممکن است از -10^6 در t-2 به 10^7 در t-1 بازنگری شود، و ممکن است واقعی به 10^3 برسد که منجر به PE عظیم میشود. تا کنون، ما توانستهایم تعیین کنیم که یک نوسان کم در پیشبینیها منجر به ارائه یک پیشبینی نهایی بهتر میشود (که به عنوان میانگین/میانگین درصد مطلق خطا اندازهگیری میشود). این از خرد کردن «دستی» دادهها ناشی میشود، اما من گمان میکنم که خوشهبندی یا سایر تکنیکهای ML میتواند الگوهای مفیدتری را نشان دهد. بنابراین، اگر ایدهای سریع در مورد چگونگی * یافتن الگوها در پیشبینیها * یافتن وجوه مشترک پیشبینیهای خوب * حل مسئله یک PE سرسامآور برای مقادیر واقعی کوچک دارید - مشتاق گوش دادن و یادگیری هستم. من در تقسیم دستی داده ها بر اساس چندک های APE، نوسانات، یا بر اساس ترتیب بزرگی واقعی تا حدودی موفق بوده ام، اما من گمان می کنم که این می تواند با خوشه بندی داده ها خودکار شود، اما من نمی دانم چگونه می توانم این کار را با نوع داده ای که در اینجا در اختیار دارم انجام دهم. با تشکر فراوان، هنینگ P.S.: من R، MatLab و Weka را در اختیار دارم (اگرچه تمام محاسبات قبلی در R انجام شده است). | جمع آوری بینش از داده های پیش بینی مالی سه ماهه |
87714 | بگویید من یک کیسه با 10 توپ (یا قرمز یا آبی) دارم و می دانم که 8 توپ قرمز هستند. چگونه می توانم احتمال رسم یک توپ قرمز را محاسبه کنم اگر اولین توپی که بدون جایگزینی انتخاب کردم قرمز باشد $>75\%$؟ امیدوارم این واضح باشد. با تشکر | آیا راهی برای محاسبه احتمال ترسیم X+ > y% زمان با توجه به X- وجود دارد؟ |
109959 | من بر مشکل یادگیری نظارت کرده ام که در آن اهداف زاویه دارند. اگر من رگرسیون ساده را انجام دهم، اعداد 360 و 1 برای مدل من بسیار دور خواهند بود، اما در واقع آنها نزدیک هستند و پیشبینی مختصات x و y درست به نظر نمیرسد، زیرا در اینجا سعی میکنم فقط یک عدد را پیشبینی کنم. راه درست انجام چنین مشکلی چیست؟  | رگرسیون برای داده های زاویه ای / دایره ای |
31867 | آیا کسی میتواند به خوبی تفاوتهای بین رویکرد بیزی و مکرر به احتمال را ارائه دهد؟ از آنچه من درک می کنم: دیدگاه مکررگرایان این است که داده ها یک نمونه تصادفی تکرارپذیر (متغیر تصادفی) با فراوانی/احتمال خاص است (که به عنوان فراوانی نسبی یک رویداد تعریف می شود که تعداد آزمایش ها به بی نهایت نزدیک می شود). پارامترها و احتمالات زیربنایی در طول این فرآیند قابل تکرار ثابت می مانند و این تغییر به دلیل تغییر در X_n$ و _نه_ توزیع احتمال (که برای یک رویداد/فرآیند خاص ثابت است) است. دیدگاه بیزی این است که _data_ ثابت است در حالی که فرکانس/احتمال برای یک رویداد خاص می تواند تغییر کند به این معنی که پارامترهای توزیع تغییر می کند. در واقع، دادههایی که دریافت میکنید، توزیع قبلی یک پارامتر را تغییر میدهد که برای هر مجموعه داده بهروزرسانی میشود. به نظر من رویکرد مکرر گرایی عملی/منطقی تر است زیرا منطقی به نظر می رسد که رویدادها احتمال خاصی دارند و این تنوع در نمونه گیری ما است. علاوه بر این، بیشتر تجزیه و تحلیل دادههای حاصل از مطالعات معمولاً با استفاده از رویکرد مکررگرا (یعنی فواصل اطمینان، آزمون فرضیه با مقادیر p و غیره) انجام میشود، زیرا به راحتی قابل درک است. من فقط به این فکر میکردم که آیا کسی میتواند خلاصهای سریع از تفسیر خود از رویکرد بیزی در مقابل مکررگرا به من ارائه دهد که شامل معادلهای آماری بیزی از مقدار p مکرر و فاصله اطمینان است. علاوه بر این، نمونه های خاصی از مواردی که 1 روش بر دیگری ارجحیت دارد، قدردانی می شود. | تفسیرهای بیزی در مقابل مکرر گرا از احتمال |
87713 | اگر من یک متغیر پاسخی داشته باشم که با ریشه مربع تبدیل شده است، و یک متغیر توضیحی که به صورت log تبدیل شده است، و میخواهم مدل را با استفاده از آمار خلاصه زیر تبدیل کنم، به طوری که Y~ (X)^2، چگونه تفسیر میکنم. معنی رابطه بین X و Y با استفاده از ضریب بتا تخمین زده شده است؟ من فکر کردم که اینگونه تفسیر شده است: اگر 1٪ افزایش در X وجود داشته باشد، تقریباً تغییر sqrt(2.1014))/100 واحد افزایش در Y وجود دارد. باقیمانده ها: Min 1Q Median 3Q Max -37.051 -12.096 -4.908 9.701 68.071 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -3.0147 2.0827 -1.448 0.148 Dose.Back 2.1014 0.1679 12.514 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 16.28 در 1154 درجه آزادی چندگانه R-squared: 0.1195، R-squared تنظیم شده: 0.1-0.1 آمار: 156.6 در 1 و 1154 DF، p-value: < 2.2e-16 | تبدیل پشت |
112732 | هنگام انجام یادگیری عمیق، بهویژه dnn، نشان داده میشود که هر لایه را به روشی بدون نظارت از قبل آموزش دهید، سپس وزنها را با استفاده از دادههای برچسبگذاری شده به روش نظارت شده تنظیم کنید. مشکل من این است که از آنجایی که ما هر لایه را به روشی بدون نظارت از قبل آزمایش می کنیم، پس چگونه می توانم آن پارامترهای فوق را انتخاب کنم، برای مثال، هر لایه یک رمزگذار خودکار پراکنده است، بنابراین پارامترهای فوق شامل تنظیم $\lambda$، پراکندگی هستند. $\rho$، کنترل پرنالیت $\beta$ و تعداد واحدها در هر لایه پنهان $n$، تعداد لایه ها $l$. آیا قرار است این کار را به این صورت انجام دهم: مجموعهای از پارامترهای فوقالعاده $(\lambda، \rho، \beta، n، l)$ را انتخاب کنم، هر لایه را از قبل آموزش دهم (تا زمانی که همگرایی یا بیش از تعداد تکرارها بیشتر شود)، سپس تنظیم دقیق (تا زمان همگرایی)، و در نهایت کار را انجام دهید (به عنوان مثال طبقه بندی) و دقت را بررسی کنید. و سپس مجموعه دیگری از پارامترهای فوق را امتحان کنید؟ این می تواند بسیار وقت گیر باشد، آیا ایده بهتری وجود دارد؟ | فراپارامترها برای پیشآموزش و تنظیم دقیق |
112736 | بنابراین این واقعاً من را آزار می دهد و امیدوارم در صورت امکان توضیحی (ساده!) بدهم. فرض کنید من یک مدل رگرسیون خطی مشخص کردهام: $$ Y = \beta_0 + \beta_1 X + \epsilon $$ و یک جایگزین: $$ Y = \beta_0 + \beta_1 X + \beta_2 X^2 + \epsilon $$ و من سعی می کنم $\beta$s را تخمین بزنم، مثلاً شاید از طریق OLS (روش دقیقی که فکر نمی کنم مرتبط باشد). سوال من این است: تفسیر دقیق $\beta$s که میخواهم تخمین بزنم چیست؟ سردرگمی از این واقعیت ناشی می شود که مقادیر جمعیت $\beta_1$ در هر یک از مشخصات احتمالاً متفاوت است، و این با درک من از ضرایب جمعیت سازگار نیست. من همیشه $\beta$s را به عنوان مشتق جزئی $X$ در $Y$ 'در واقعیت' تفسیر کرده بودم. یعنی، اگر بخواهید X را با ثابت نگه داشتن رگرسیورهای دیگر تغییر در مقدار مورد انتظار Y تغییر دهید. با ارائه یک مدل مشخصتر و بهتر، اطمینان حاصل میشود که تخمین $\beta_1$ دقیقتر میشود (با جدا کردن متغیرهای همبسته). در اصطلاح خطا). این برای درک من مهم بود. $\beta_1$ مشروط به مشخصات مدل من نبود - این یک ویژگی ثابت جمعیت باقی ماند - بلکه برآوردگر ما برای $\beta_1$ (b1) تغییر کرد و بسته به مدل کم و بیش دقیق شد. همه خوب و خوب، اما این تفسیر در مثال بالا کاملاً کار نمی کند. فرض کنید رابطه بین $X$ و $Y$ منحنی است. اگر محدود شده بودید که فقط $X$ را شامل کنید و نه چند جملهای مرتبه بالاتر، احتمالاً $\beta_1$ که تغییر در $E[Y]$ را با تغییر در $X$ به بهترین شکل توصیف میکند، متفاوت از زمانی خواهد بود که شما برای چند جمله ای های مرتبه بالاتر (در مشخصات 2) اجازه داده شد. بنابراین، برای آرگومانها، DGP $$ E[Y] = 1 + 10 X - 2 X^2 $$ بود که در آن $0<X<2$ بود تا اطمینان حاصل شود که چند جملهای خیلی زیاد تأثیر نمیگذارد. در این صورت آیا ارزش واقعی X$ در مشخصات 1 باید 10 باشد؟ یا برای تطبیق آن با DGP زمانی که $X^2$ مشخص نشده است باید ~6 باشد؟ به نظر می رسد اگر این دومی باشد درک من این است که ضرایب جمعیت به مشخصات بستگی ندارد دود می شود! لطفا کمک کنید! | پارامترهای جمعیتی یک رگرسیون |
112738 | من یک مولتی گراف جهت دار دارم که برای نشان دادن یک انجمن گفتگوی آنلاین استفاده می شود، جایی که هر بازیگر می تواند نظرات خود را در یک بحث مشارکت دهد و نظرات خود را توسط بازیگران دیگر بیان کند. کدام معیارهای مرکزیت برای یک مولتی گراف جهت دار مناسب تر هستند؟ آیا می توانم از معیارهای مرکزیت استاندارد استفاده شده برای نمودارهای باینری غیر جهت دار استفاده کنم (مثلاً نزدیکی، بینابینی، بردار ویژه)، یا این باعث ایجاد مشکل می شود؟ | معیارهای مرکزیت برای یک مولتی گراف جهت دار |
77696 | من 3 ناظر دارم که هر کدام چندین رصد انجام می دهند که در آن یک پدیده را می شمارند. من سعی می کنم خطای بین ناظر و درون ناظر را برای این مطالعه کمی سازی کنم. من در این کار تازه کار هستم و گزینه های تجزیه و تحلیل را کاملا گیج کننده می بینم. شخصی استفاده از ICC را توصیه کرد. من برخی از داده های زیر را با تعداد کلمات در یک صفحه به عنوان متغیر شمارش مسخره کرده ام - این ساختار داده من را تقلید می کند. من Shrout and Fleiss (1979) را خواندم، و از آنجایی که میخواهم به جمعیتی از ناظران تعمیم دهم، به نظر میرسد که من مدل اثرات تصادفی دو طرفه، ICC (2،1) را میخواهم. مسائل من عبارتند از: 1. برای خطای درون ناظر (یا توافق)، آیا باید فقط یک ناظر را در هر ICC وارد کنم؟ به عبارت دیگر، ICC را برای مشاهدات مکرر درون ناظران دریافت کنید؟ 2. برای خطای بین ناظر (یا توافق)، باید همه ناظران و مشاهدات مکرر را بگنجانم یا مشاهدات مکرر را طوری جمع کنم که برای هر ناظر فقط یک نفر وجود داشته باشد؟ 3. همچنین نمیدانم ICC را برای یک مشاهده میخواهم یا مشاهدات متوسط [یعنی ICC(2,1) در مقابل ICC(2,k)]. کد: # داده با مشاهدات مکرر dat <- data.frame( pages = c(page1، page2، page3، page4، page5)، Peter1 = c(236, 179, 203, 218 ، 195)، Peter2 = c(232، 181، 198، 212، 197)، Peter3 = c(225، 176، 205، 216، 191)، Paul1 = c(227، 177، 204، 218، 196)، Paul2 = c(236، 179، 209، 222، 199)، Mary1 = c(234، 184، 201، 216 ), Mary2 = c(238, 182, 200، 218، 193)، Mary3 = c(240، 176، 206، 221، 197)) کتابخانه (روان) # قابلیت اطمینان درون ناظر؟ ICC(x = dat[, paste0(پیتر، 1:3)]) ICC(x = dat[, paste0(پل، 1:2)]) ICC(x = dat[, paste0(مریم , 1:3)]) # قابلیت اطمینان بین ناظران؟ ICC (x = dat[, -1]) | خطای درون و بین ناظر و ضریب همبستگی درون کلاسی (ICC) |
40698 | من یک پایگاه داده با تست هایی دارم که یا قبولی هستند یا ناموفق و حدود 25 فیلد توضیحات. هر قسمت توضیحات یا یک بولی است یا بین 3 تا 10 گزینه دارد. من می خواهم با استفاده از R به پایگاه داده Postgres خود قلاب کنم و زیرمجموعه ای از داده ها را استخراج کنم که امیدواریم نماینده کل پایگاه داده باشد. سپس میخواهم بدانم کدام فیلدها با شکستهای تست مرتبط هستند. با تشکر از کمک شما! | آزمون آماری برای یافتن متغیرهای عامل شکست |
40697 | عنوان سوال کمکی نمی کند، اما سعی می کنم آن را توضیح دهم: من داده های تاریخی (نقاط هفتگی) از 2001/01/01 تا دیروز دارم و متغیر من دارای الگوی فصلی قوی 12 ماهه است (داده های آب و هوا). من از تابع stlf() (از بسته R 'پیش بینی') برای پیش بینی های هفتگی استفاده می کنم - و اتفاقاً نتایج بسیار خوبی هم دریافت می کنم. مشکل این است که برای برخی از مدلها دادههای 2 سال آخر را ندارم، بنابراین برای این مدلها اطلاعات من از 2001/01/01 تا 2010/12/31 میرود. چه کاری می توانم انجام دهم تا این پیش بینی ها را به آینده برسانم؟ به عبارت دیگر، من باید این پیش بینی ها را به هفته جاری تعمیم دهم. آنچه من دارم: داده های 2001/01/01 - 2010/12/31 آنچه من نیاز دارم: پیش بینی برای هفته های آینده. برای ایجاد سردرگمی، من نکاتی را از ماه گذشته دارم، اما نمی دانم چگونه از این مزیت استفاده کنم. با تشکر برای هر گونه کمک! | پیش بینی ها را به داده های موجود تعمیم دهید |
6883 | در همین راستا با این سوال، آیا روش خوبی برای نمایش نتایج رگرسیون در متلب از یک رگرسیون یا چند رگرسیون به شکل جدول یا نمودار وجود دارد؟ | نمایش نتایج رگرسیون در متلب |
113466 | هیچ بسته ای در CRAN موجود نیست، بنابراین من امیدوار بودم که شخصی در جامعه تابع/بسته خود را نوشته باشد. من می بینم که در MATLAB انجام شده است، بنابراین ممکن است مجبور باشم با آن شروع کنم و خودم کد را بنویسم... توضیحات الگوریتم - RUSBoost: بهبود عملکرد طبقه بندی هنگام کج بودن داده های آموزشی مثالی از کد MATLAB (که شامل کدهایی برای تقویت است. علاوه بر نمونه برداری کم) | آیا کسی اجرای RUSBoost را در R به طور عمومی به اشتراک گذاشته است؟ |
103132 | من دو متغیر $s_1$ و $s_2$ به طور مشترک توزیع شده دارم. من اکنون به دنبال انتظار شرطی $$ E(s_1|s_1>r_1,\ s_2>r_2) $$ هستم که $r_1$ و $r_2$ ثابت هستند. ایده چگونگی رسیدن به این و منابعی که می توان آن را خواند نیز بسیار قدردانی می شود. | انتظار توزیع نرمال مشروط |
47470 | من سعی کردهام با امتحانهای مقدماتی قدیمی برخی از اصول آمار را به خودم بیاموزم. مشکل اینجاست: فرض کنید $X_1، \ldots، X_n$ یک نمونه تصادفی از یک توزیع نرمال با میانگین $\theta$ و واریانس $\sigma^2$ هستند، که $\sigma^2$ ثابت است و $\theta> 0$ یک پارامتر است. برآوردگر حداکثر احتمال $\sqrt{\theta}$ را پیدا کنید. **کار من تاکنون:** تابع احتمال $$L(\theta|\mathbf{x})=(2\pi \sigma^2)^{-n/2} \text{exp}\ را دارم Big(-\frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\theta) \Big).$$ سپس، متمایز کردن $L(\theta|\mathbf{x})$ با توجه به تتا، و برابر کردن نتیجه با صفر، $$\sum_{i=1}^{n}(x_i-\theta)=0 \به معنای \تتا است. =\frac{1}{n}\sum_{i=1}^{n}x_i \hspace{3mm} (=\bar{x}).$$ دومین مشتق منفی است در اینجا، بنابراین MLE $\theta$ $\hat{\theta}=\bar{X}$ است. بنابراین، با ویژگی تغییر ناپذیری MLEs، MLE $\sqrt{\theta}$ $\sqrt{\hat{\theta}}=\sqrt{\bar{X}} است.$ **سوال:** سوال من در مورد فرض $\theta>0$ است (من کاملاً مطمئن هستم که $\sqrt{\bar{X}}$ اگر هیچ محدودیتی در $\theta$ وجود نداشته باشد خوب خواهد بود). بنابراین، برای $\theta>0$، آیا MLE برای $\theta$ چیزی شبیه $\max\\{\bar{X},0\\}$ خواهد بود؟ من از هرگونه بازخورد، اصلاح و غیره بسیار سپاسگزارم. | حداکثر احتمال عملکرد میانگین در یک فضای پارامتر محدود |
77694 | ما یک نامه جمع آوری کمک مالی ماهانه در غیرانتفاعی من انجام می دهیم. من می دانم چگونه تست هایی را در R تنظیم کنم تا مقایسه کنم که آیا نسبت پاسخ و مبلغ دریافتی بین دو نامه به طور قابل توجهی متفاوت است یا خیر، اما می خواهم همه دوازده را برای سال گذشته مقایسه کنم. فکر می کنم آزمایشی برای انجام آن وجود دارد، اما نمی دانم چه خواهد بود. آیا کسی می تواند راهی برای بررسی همزمان 12 نمونه پیشنهاد دهد؟ | تست فرضیه برای بیش از دو نمونه؟ |
113462 | من تجزیه و تحلیل خوشهبندی سلسله مراتبی را روی مجموعه دادهای از 25 جمعیت ویروسی با استفاده از 3 جزء ویروسی (متغیر) برای ساخت دندروگرام با روش میانگین و محاسبه فاصله همبستگی انجام میدهم. ما ابتدا از روش hclust() برای تولید یک نمودار استفاده کردیم، اما همچنان باید از دندروگرام با تجزیه و تحلیل آماری پشتیبانی کنیم. بنابراین پس از جابجایی داده ها، pvclust() را برای تولید دندروگرام انتخاب می کنیم. با این حال، نمودارهای ساخته شده توسط pvclust و طرح تولید شده توسط hclust کاملاً متفاوت هستند. ما از داده های یکسان و پارامترهای مشابه (روش متوسط و فاصله همبستگی) استفاده کردیم، اما نتایج بسیار متفاوت است. چرا ممکن است این باشد؟ در اینجا مجموعه داده https://github.com/yingfengisu/RSHOP/blob/master/TVA1.csv # hclust >  ######### روش hclust ############# sd.data=scale(tav.data) dd=as.dist(1-cor(t(sd.data))) # نمودار فاصله مبتنی بر همبستگی(hclust(dd, روش = متوسط), main=میانگین پیوند با فاصله مبتنی بر همبستگی,xlab= ، sub=, labels=tav.labs) >  * * * # pvclust >  ######### روش pvclust ############# ### tav.data0 = tav.data[,c(1,2,3)] نام ردیف(tav.data0)<-tav.labs tav.data0 = as.data.frame(t(tav.data0)) sd.data0 = scale(tav.data0) library(pvclust) result=pvclust(sd.data0,method.hclust=average, method.dist=correlation ,nboot=100,r=seq(0.7,1.4,by=.1)) plot(نتیجه) >  | چرا خوشه بندی سلسله مراتبی pvclust در مقابل hclust نتایج متفاوتی به دست آورد؟ |
73377 | من اخیراً خواندن «بانوی مزه چای» را به پایان رساندم، کتابی سرگرمکننده درباره تاریخ آمار. در پایان کتاب، نویسنده، دیوید سالزبورگ، سه مسئله فلسفی باز در آمار را پیشنهاد میکند، که راهحلهایی که او استدلال میکند پیامدهای بزرگتری برای کاربرد نظریه آماری در علم خواهد داشت. من قبلاً در مورد این مشکلات نشنیده بودم، بنابراین به واکنش دیگران نسبت به آنها علاقه مند هستم. من در حال جستوجوی در قلمرویی هستم که در مورد آن اطلاعات کمی دارم، بنابراین فقط میخواهم تصویر سالزبورگ از این مشکلات را توصیف کنم و در زیر دو سؤال کلی درباره این مشکلات مطرح کنم. مشکلات فلسفی سالزبورگ عبارتند از: > 1. آیا می توان از مدل های آماری برای تصمیم گیری استفاده کرد؟ > 2. معنای احتمال در زندگی واقعی چیست؟ > 3. آیا مردم واقعاً احتمال را درک می کنند؟ > **آمار و تصمیم گیری** به عنوان مثالی از مسئله ارائه شده در سوال 1، سالزبورگ پارادوکس زیر را ارائه می کند. فرض کنید ما یک قرعه کشی با 10000 بلیط بدون شماره ترتیب می دهیم. اگر با رد این فرضیه برای بلیط هایی با احتمالات زیر، مثلاً 001، از احتمال برای تصمیم گیری در مورد برنده شدن هر بلیط در قرعه کشی استفاده کنیم، فرضیه بلیط برنده برای همه بلیط های لاتاری را رد خواهیم کرد! سالزبورگ از این مثال استفاده می کند تا استدلال کند که منطق با نظریه احتمال ناسازگار است، زیرا نظریه احتمال در حال حاضر درک شده است، و بنابراین، ما در حال حاضر ابزار خوبی برای ادغام آمار (که در شکل مدرن آن تا حد زیادی بر اساس آن استوار است) نداریم. نظریه احتمال) با ابزار منطقی تصمیم گیری. **معنای احتمال** به عنوان یک انتزاع ریاضی، سالزبورگ استدلال میکند که احتمال به خوبی کار میکند، اما وقتی تلاش میکنیم نتایج را در زندگی واقعی اعمال کنیم، با این مشکل مواجه میشویم که احتمال در زندگی واقعی معنای مشخصی ندارد. به طور دقیق تر، وقتی می گوییم فردا 95 درصد احتمال بارندگی وجود دارد، مشخص نیست که این 95 درصد برای چه نهادهایی اعمال می شود. آیا برای مجموعه آزمایشهای احتمالی که میتوانیم برای کسب دانش درباره باران انجام دهیم، کاربرد دارد؟ آیا برای مجموعه افرادی که ممکن است بیرون بروند و خیس شوند صدق می کند؟ سالزبورگ استدلال می کند که فقدان وسیله ای برای تفسیر احتمالات برای هر مدل آماری مبتنی بر احتمال (یعنی اکثر آنها) مشکل ایجاد می کند. **آیا مردم احتمال را درک می کنند؟** سالزبورگ استدلال می کند که یکی از تلاش ها برای حل مسائل با فقدان ابزار مشخص برای تفسیر احتمال، از طریق مفهوم احتمال شخصی است که توسط جیمی ساواژ و برونو د فینتی پیشنهاد شده است، که احتمال را درک می کند. به عنوان باورهای شخصی در مورد احتمال رویدادهای آینده. با این حال، برای اینکه احتمال شخصی مبنایی منسجم برای احتمال فراهم کند، افراد باید درک مشترکی از احتمال چیست و ابزار مشترکی برای استفاده از شواهد برای نتیجهگیری درباره احتمال داشته باشند. متأسفانه، شواهدی مانند آنچه که توسط کانمن و تورسکی ارائه شده است، نشان میدهد که باورهای شخصی ممکن است مبنای دشواری برای ایجاد یک مبنای منسجم برای احتمالات باشد. سالزبورگ پیشنهاد میکند که روشهای آماری که احتمالات را بهعنوان باورها مدلسازی میکنند (شاید مانند روشهای بیزی؟ من دانشم را در اینجا گسترش میدهم) باید با این مشکل مقابله کنند. **سوالات من** 1. مشکلات سالزبورگ واقعاً تا چه حد برای آمارهای مدرن مشکل دارند؟ 2. آیا پیشرفتی در جهت یافتن راه حلی برای این مشکلات داشته ایم؟ | سه مسئله باز فلسفی در آمار |
15790 | من یک سوال در مورد آزمایش این فرضیه دارم که یک ضریب رگرسیون خاص در یک طرح ساده OLS با همه مفروضات خوب صفر است یا خیر. به ویژه معادله 3.12، در کتاب تبشیرانی و همتایان، _Elements of Statistical Learning_ امتیاز z را به صورت $$z = \beta/\hat\sigma\sqrt{v_j}$$ تعریف می کند سوال من این است که با توجه به ضرایب رگرسیون همه به طور مشترک نرمال هستند، چگونه می توانیم یک ضریب را به این صورت جدا کنیم؟ آیا این یک امتیاز z مشروط با فرض اینکه همه نسخههای بتا ارزش خاصی دارند، است؟ | محاسبه مقادیر ضریب رگرسیون در OLS |
15794 | ترسیم اندازه اثر (r) برای یک همبستگی در قالب یک نمودار پراکندگی آسان است. با این حال، چگونه می توانم واریانس را رسم کنم (r-squared)؟ نظری در مورد بهترین عملکرد دارید؟ | چگونه می توان به صورت گرافیکی یک اندازه اثر مربعی r را نشان داد؟ |
101254 | من در یافتن نقاط پرت با استفاده از خوشه بندی مشکلاتی دارم. data.frame حدود 20000 مشاهده است و هر ردیف دارای انواع مختلفی از متغیرها (عددی، اسمی و باینری) است. کاری که من می خواهم انجام دهم این است که نقاط پرت را با خوشه بندی تشخیص دهم. من ماتریس عدم تشابه را با استفاده از تابع daisy() در R محاسبه کرده ام: diss = daisy(data,metric=gower) و می دانم که می توانم از توابع pam() و hclust() برای انجام خوشه بندی استفاده کنم. اما چگونه می توانم نقاط پرت را بعد از آن پیدا کنم؟ کد R من برای پیدا کردن نقاط پرت از pam(): kmedoid = pam(diss,k=10,diss=T) مراکز = kmedoid$id.med distMat = as.matrix(diss) فاصله = rep(-99, 20000) برای (k در 1:20000) {فاصله[k] = min(distMat[centers,k]) } پرت = ترتیب (فاصلهها، کاهش=T)[1:5] پرت = داده[فرج] پرت من نمیدانم درست است یا نه، زیرا هر بار که مقدار متفاوت k را در pam امتحان کردم، به نظر میرسد که نتیجه بسیار متفاوت است. ). بنابراین سوال اصلی این است: ** وقتی kmedoid و hc را در زیر محاسبه کردم، چگونه می توانم نقاط پرت را پیدا کنم؟** kmedoid = pam(data,k=10,diss=T) hc = hclust(data ) من در گوگل جستجو کردم، اما اطلاعات زیادی در این مورد وجود نداشت. من به برنامه نویسی مسلط نیستم، بنابراین فقط استفاده از بسته و تابع موجود در R کمک زیادی به من می کند:) و **آیا روش بهتری برای یافتن موارد پرت وجود دارد؟** با تشکر! | تشخیص پرت با استفاده از ماتریس خوشه بندی و عدم تشابه در R |
87717 | آیا هنگام انجام یک رگرسیون دو جمله ای چندگانه، آیا می توان رگرسیون را با یک متغیر طبقه ای به عنوان x همزمان با طبقه بندی y انجام داد؟ اکثر متغیرهای x من به جز دو متغیر پیوسته هستند، در حالی که متغیرهای y من همگی دستهبندی هستند. | رگرسیون دو جمله ای با متغیر توضیحی طبقه ای |
103799 | آیا داده های موجود در دو ستون مانند اندازه کفش (متغیر x) و تعداد جفت (فرکانس f) داده های گروه بندی شده یا گروه بندی نشده در نظر گرفته می شوند؟ آیا داده های گروه بندی شده لزوماً به وجود یا طبقه بندی از طریق فواصل کلاس دلالت دارد؟ | داده های گروه بندی شده و گروه بندی نشده - تفاوت چیست؟ |
40692 | در جدول متقاطع، اگر مقدار باقیمانده تنظیم شده برای یک سلول کمتر از -1.96 یا بیشتر از 1.96 باشد، میتوان گفت که این سلول در وابستگی تعیینکننده است (فرض کنید پیرسون 0.03 باشد). با این حال، آیا این علامت واقعا مهم است؟ یعنی اگه 2.5- رو بگیرم میتونم بگم که متغیرها همبستگی منفی دارن؟ من یک جدول متقاطع با دو متغیر ایجاد می کنم: عضویت در خوشه (تولید شده توسط kmeans) و چند ویژگی شرکت. بنابراین، اگر من این -2.5 را در یک سلول (خوشه 3 x شرکت های صنعتی) دریافت کنم، آیا می توانم بگویم که خوشه 3 از شرکت های صنعتی فقیر است؟ متشکرم. | آیا علامت باقیمانده های تنظیم شده در جدول متقاطع اهمیت دارد؟ |
87711 | من به دنبال یک دوره کوتاه (1 هفته یا کمتر) هستم که جنبه های نظری و کاربردی تجزیه و تحلیل مؤلفه های اصلی را به روشی دقیق ریاضی آموزش دهد. من دوره های دانشگاهی را در مورد آمار چند متغیره به طور کلی یا مدل خطی دیده ام، اما نه فقط PCA. سفر مشکلی نیست، بنابراین از دوره های خوب بین المللی استقبال می شود، البته تا زمانی که به زبان انگلیسی باشند. همچنین، من نمی خواهم فقط یاد بگیرم که چگونه یک PCA را با استفاده از بسته نرم افزاری اجرا کنم و نتایج را تفسیر کنم. من می خواهم تئوری زیربنایی دقیق را نیز یاد بگیرم. من نمی توانم در یک دوره ترم طولانی شرکت کنم، و نه می خواهم یک کلاس فقط وب انجام دهم. | توصیه هایی برای یک سمینار یا دوره کوتاه و در عین حال از لحاظ نظری دقیق در مورد تجزیه و تحلیل اجزای اصلی |
72305 | من سعی می کنم از روش بوت استرپینگ استفاده کنم تا اساساً همان کاری را انجام دهم که یک $F$-test انجام می دهد - تعیین اینکه آیا مدل محدود شده یا نامحدود بهتر است. دو مدل من در زیر آمده است: lm3 <- lm (قمار ~ جنسیت + وضعیت + درآمد + کلامی، داده = نوجوان) lm4 <- lm (قمار ~ درآمد، داده = teengamb) من در درک مفهوم پشت آن کمی مشکل دارم این بوت استرپینگ من می توانم 1000 بار نمونه برداری کنم و برای هر مدل 1000 مدل خطی بگیرم (مجموع 2000). با آن ها چه کنم؟ آیا تست های F را برای هر جفت محاسبه کنم؟ با تشکر - کمی گیج شده است، و هر راهنمایی عالی خواهد بود. | R - امکان استفاده از bootstrapping برای آزمایش مدل محدود/نامحدود وجود دارد؟ |
103137 | خواندهام: * انتخاب مدل و اعتبارسنجی متقابل: راه درست * اعتبار متقابل و/یا دادههای آزمایشی. همیشه از هر دو استفاده کنید یا یکی می تواند دیگری را حذف کند؟ اما من هنوز آن را نمی فهمم مشکل من ساختن یک SVM ساده، تنظیم پارامترهای آن و محاسبه خطای تعمیم است. فرض کنید من یک مجموعه داده با e.g. 10 ویژگی و 200 نمونه. من نمی خواهم داده ها را هدر دهم، زیرا نسبتاً کوچک هستند. رویکرد من این خواهد بود: 1. تقسیم مجموعه داده (به عنوان مثال، 70/30) با روش نگهدارنده به آموزش / اعتبار سنجی و مجموعه آزمایشی. 2. یک اعتبارسنجی متقاطع n برابری مکرر روی مجموعه آموزشی انجام دهید. من میزان خطا (نرخ طبقه بندی اشتباه) را پس از انجام تا زدن ها محاسبه می کنم (به سادگی همه نمونه های طبقه بندی اشتباه را شمارش می کنم). سعی میکنم هر بار که n فولد کامل انجام میشود، میزان خطا (یا هر تابع ضرر دیگری؟) را به حداقل برسانم. من نرخ خطا را ذخیره می کنم و پارامترهایی را با کمترین میزان خطا انتخاب می کنم. سپس مدل را روی مجموعه آموزشی کامل با پارامترهای تخمین زده مجدداً آموزش می دهم. 3. محاسبه خطای تعمیم با مجموعه تست. مشکلات: * هر چه مجموعه آزمایشی من بزرگتر باشد، مجموعه قطار کوچکتر می شود، بنابراین اطلاعات بالقوه را دور می ریزم. آیا می توان این را از طریق یک cv n-fold انباشته حل کرد؟ * آیا واقعاً باید یک cv n-fold REPEATED بسازم؟ آیا امکانات دیگری وجود دارد؟ * آیا نرخ خطا یک تابع ضرر است یا باید تابع دیگری را انتخاب کنم (مثلاً تابع خطای تجربی یا mse، اما پس از آن به یک خروجی احتمال نیاز دارم، درست است؟)؟ | انتخاب پارامتر SVM و تست مدل با اعتبارسنجی متقابل |
88473 | من با یک چالش روبرو هستم: نوشتن مدل تعادل عمومی خودم در متلب. من می خواهم برای: 1. دانش اولیه مورد نیاز در ریاضیات 2. دانش اولیه مورد نیاز در برنامه نویسی با منابع در صورت امکان. من دانشجوی کارشناسی ارشد اقتصاد هستم، اما حاضرم برای رسیدن به هدفم تلاش لازم را انجام دهم. پیشاپیش سپاس فراوان | مراحل نوشتن مدل تعادل عمومی خودم در متلب |
115168 | من در یک مشکل آماری گیر کرده ام و نمی دانم که آیا کسی می تواند به خطا در منطق من اشاره کند. تصور کنید برای یک سفر کمپینگ برای 50 نفر برنامه ریزی می کنید. هر فرد به طور متوسط 2.0 پوند غذا در روز مصرف می کند، با انحراف معیار 0.7 پوند. کمترین مقدار غذایی که باید همراه داشته باشید تا 97.5% مطمئن شوید که غذای کافی خواهید داشت چقدر است؟ **خط اول استدلال:** انحراف استاندارد برای میانگین مقدار مصرف شده توسط یک نفر **0.7/sqrt(50)** انحراف استاندارد برای کل مقدار مصرف شده توسط هر 50 نفر **sqrt(50) است. *0.7** بنابراین پاسخ مورد نظر **2.0*50 + 2*sqrt(50)*0.7.** **خط دوم استدلال:** SD(n*x) = n*SD(x). بنابراین، انحراف معیار برای مقدار مصرف شده توسط 50 نفر **50*0.7** راه حل مورد نظر **2.0*50 + 2*50*0.7** است که می دانم خط دوم استدلال اشتباه است. کسی میتونه توضیح بده چرا؟ با تشکر ** ویرایش ** به نظر من خطا این است که انحراف معیار برای مقدار مصرفی 50 نفر 50*0.7 نیست، زیرا افراد مستقل هستند. VAR (مقدار مصرف شده توسط 50 نفر) != VAR(50 * مقدار مصرف شده توسط یک نفر) | نحوه مدل سازی توزیع نمونه از مجموع نمونه |
31630 | من فهرستی از تیمهای لیگ محلی فوتبال دارم که از 1 تا 10 رتبهبندی شدهاند، جایی که تیم برتر (اول) دارای بیشترین برد (و در نتیجه «امتیاز») است. من سعی می کنم یک لیست قدرت ایجاد کنم، به طوری که اگر تیم رتبه دهم در مقابل تیم رده اول پیروز شد، بازی مهمتر از این است که اگر تیم رتبه اول در برابر تیم رده دهم برنده شود. بخشی از این فرمول شامل محاسبه قدرت حریف است. برای این من از این فرمول استفاده می کردم: ضرب کننده قدرت حریف = ([تعداد تیم ها] - [مقام رتبه بندی]) / 100 می خواستم بدانم آیا کسی روش دیگری (بهتر) برای ایجاد ضریب برای مقایسه تیم ها دارد؟ محاسبه نهایی قدرت من چندین فاکتور دیگر دارد، از جمله امتیازهای کسب شده، اهمیت مسابقه و غیره. | مقایسه تفاوت بین دو رتبه |
35827 | > تجزیه و تحلیل رگرسیون به فرد کمک می کند تا بفهمد که چگونه مقدار معمولی متغیر وابسته > تغییر می کند... \-- > http://en.wikipedia.org/wiki/Regression_analysis این به چه معناست؟ در مورد چه ارزش معمولی صحبت می کند؟ به دنبال چه نوع تغییری است؟ مثبت یا منفی یا چی؟ تغییر در چه چیزی؟ درصد؟ من گیج شده ام. درسهای آموخته شده: * پاسخ سبز شده از این جهت خوب است که وضوح مشخصی داشت * اسناد ویکیپدیا تعداد زیادی اطلاعات، که اکثر آنها غیرقابل خواندن و غیرقابل استفاده هستند * اکثر (80%) ppl، در حالی که مطمئناً معنی خوبی دارند، فقط نمیدانم چگونه خوب ارائه کنم. پاسخ ها * و فقط انسان... عیب های زیادی دارد و در نتیجه سوالات خوبی را می بندد | تجزیه و تحلیل رگرسیون چگونه به درک چگونگی تغییر مقدار معمولی متغیر وابسته کمک می کند؟ |
88476 | بنابراین من سعی کرده ام به صورت جبری ثابت کنم که برازش بیش از حد یک مدل منجر به مقادیر واریانس بیشتر برای تخمین پارامترها می شود. من نزدیک شده ام (مشکل را به نشان دادن یک ماتریس خاص کاهش دادم، قطعی مثبت است) اما من واقعاً از رویکردهایی که در پیش گرفته ام خوشم نمی آید و می خواهم ببینم آیا راه ساده تری وجود دارد یا خیر. اگر کسی استراتژی خوبی برای استفاده یا مدرکی از قبل موجود می داند، متشکرم! | بهدنبال اثباتی که نشان دهد برازش بیش از حد یک مدل منجر به تخمینهای واریانس بیشتر میشود (تحت OLS) |
103138 | فرض کنید میخواهم تعداد افرادی را در 10 شهرستان مختلف بشمارم که ویژگی x$ دارند. از آنجایی که هر یک از 10 شهرستان دارای اندازهها و مناطق مختلف جمعیت هستند، میخواهم دادههای شمارش را بر اساس اندازه جمعیت و منطقه مقیاسبندی کنم. آیا این فرمول صحیح برای استفاده است: $$\frac{\text{تعداد افراد در شهرستان با x}}{\text{اندازه جمعیت شهرستان} \cdot \text{منطقه شهرستان}}$$ | مقیاس بندی داده های شمارش بر اساس اندازه جمعیت و مساحت |
77860 | من 100000 دنباله باینری تصادفی دارم مثل این 01011101101001100111001100100001010... 11110111001110000110001100001010101... 00110010100011111000100010101010101... 10001001110101000111000101010011110... 111001001111000101010 و ... من همچنین یک دنباله باینری اصلی مانند این ms = 00110101010100010101110010010010110 دارم. سوال من این است که چگونه می توانم بهترین دنباله تصادفی را برای پیش بینی شماره دنباله اصلی بعدی پیدا کنم؟ | کمک به پیش بینی توالی باینری |
15798 | من یک آرایه numpy با ستون های _m_ و ردیف های _n_ دارم، ستون ها ابعاد و سطرها نقاط داده هستند. اکنون باید مقادیر هسته را برای هر ترکیبی از نقاط داده محاسبه کنم. برای یک هسته خطی $K(\mathbf{x}_i,\mathbf{x}_j) = \langle \mathbf{x}_i,\mathbf{x}_j \rangle$ من به سادگی میتوانم «dot(X,X.T )` چگونه می توانم به طور موثر همه مقادیر را برای هسته گاوسی محاسبه کنم $K(\mathbf{x}_i,\mathbf{x}_j) = \exp{-\frac{\|\mathbf{x}_i-\mathbf{x}_j\|_2^2}{s^2 }}$ با یک _s_ داده شده؟ | چگونه یک هسته گاوسی را به طور موثر در numpy محاسبه کنیم |
103861 | من دو متغیر دارم، یکی با 2 دسته و دیگری با 6 دسته. برای آزمایش اینکه آیا رابطه ای بین این متغیرها وجود دارد یا خیر، تست دقیق فیشر را انجام دادم که نتیجه قابل توجهی داشت. حال میخواهم بدانم که برای کدام یک از دستههای متغیر دوم، موضوعات مربوطه نسبت به موضوعاتی که در این دسته خاص متغیر دوم نیستند، توزیع متفاوتی از متغیر اول (یکی با 2 دسته) دارند. برای این منظور می خواستم کارهای زیر را انجام دهم: برای هر دسته c از متغیر دوم (c در {1,...,6}): همه موضوعات متعلق به دسته c و همه موضوعات غیر متعلق به دسته c را با هم گروه بندی کنید. منجر به یک متغیر باینری جدید متغیر2_c می شود. تست دقیق فیشر را بین متغیر2_c و متغیر اول (متغیر دارای 2 دسته) انجام دهید. به نظر شما این رویه موجه است یا مشکلی در این زمینه می بینید؟ یا راه بهتری برای این کار وجود دارد؟ پیشاپیش از شما متشکرم | تست دسته های خاص پس از آزمون دقیق فیشر در جداول 2 x k |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.