_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
26867 | من یک مهندس نرم افزار هستم و از من خواسته شده است که به برخی از مشکلات عملکردی که در مورد برخی از کارهای دسته ای در سیستمی که روی آن کار می کنم داریم نگاه کنم. کارهای دستهای دادهها را برای دستههای مختلف (A-Z) تولید میکنند، اما ترکیب دستهها بسته به زمان روز متفاوت است. کار روزانه 5 بار اجرا می شود. مقدار کل داده در هر شغل تقریباً 2000 ورودی است، با ترکیبی متفاوت از دستهها (به عنوان مثال، شغل 9 صبح تقریباً 200 دسته B، 1200 دسته A و 600 دسته C دارد). من کل زمان اجرای کار را نیز ثبت کرده ام، با این حال به روشی برای تخمین/تقریبی زمان لازم برای اجرای یک نقطه داده جداگانه برای اجرای هر دسته نیاز دارم. من داده هایی دارم که دسته (A-Z) را برای هر اجرای کار (1-5) در 30 روز گذشته نشان می دهد. از استفاده از جداول محوری، تقریباً مطمئن هستم که یک دسته خاص بر عملکرد کار 9 صبح تأثیر میگذارد (کارهای دیگر هیچ ورودی برای این دسته ندارند و به خوبی اجرا میشوند)، اما من به راهی برای اثبات این موضوع نیاز دارم. من مطمئن نیستم که چگونه باید در این مورد اقدام کنم. همانطور که گفتم، میتوانم از نمودار محوری استفاده کنم تا نشان دهم که ورودیهای دسته B زیادی در کار ساعت 9 صبح وجود دارد، با این حال من یک روش دقیق ریاضی برای حمایت از این فرضیه را ترجیح میدهم. از کمک شما متشکرم ایدوس | مقایسه تاثیر متغیر در یک دسته برای داده های نمونه معین |
28471 | من با آنتروپی همانطور که از نظریه اطلاعات تعریف شده است، آشنا هستم، که به سادگی $ H(X) = \sum_{i=1}^{n} p(x_{i}) \log p(x_{i}) $ است، برای مجموعه ای گسسته از احتمالات از نظر خوشهبندی، آنتروپی میتواند برای اندازهگیری کیفیت راهحل خوشهبندی استفاده شود. به صورت $ E(S_{r}) = - \frac{1}{\log{q}} \sum_{i=1}^{q} \frac{n_{r}^{i}} تعریف میشود {n_{r}} \log \frac{n_{r}^{i}}{n_{r}} $، که $S_{r}$ یک خوشه است، $q$ تعداد کلاسهای موجود در دادهها است. مجموعه، $n_{r}^{i}$ تعداد اسناد کلاس $i$'th است که به $r$'th کلاستر اختصاص داده شده است و $n_{r}$ اندازه خوشه است. این تعریف در مقایسه تجربی و نظری توابع معیار انتخاب شده برای خوشه بندی اسناد دقیقاً یکسان است. من ایده پشت چرایی استفاده از آن را درک می کنم، اگرچه نمی دانم چگونه از اولین تعریف آنتروپی به معادله دوم رسیدیم. | تلاش برای درک رابطه بین دو تعریف آنتروپی |
48495 | من یک روال شبیه سازی دارم که اندازه گیری های یک متغیر پیوسته را تولید می کند و مقدار واقعی را نیز می دانم. روش بهینه برای ترسیم گرافیکی، تحلیل و ارائه خطا یا اندازه گیری چیست؟ هر گونه ارجاع، پیوند، ایده، اشاره به جهت درست بیش از حد مورد استقبال قرار می گیرد. | اندازه گیری را با ارزش واقعی مقایسه کنید: روش ها و تجسم |
46955 | من بهتازگی به یک مقاله ویکی برخوردم: http://en.wikipedia.org/wiki/Endogeneity_(economics)#Omitted_Variable در بخش همزمانی یک مدل توضیح داده شده است که میگوید هر دو متغیر با کد تعیین میشوند، یعنی. هر کدام روی دیگری تأثیر میگذارند، و یک SEM _static_ است. در این زمینه یعنی؟ حدس من این است که اگرچه این یک مدل پویا است، ما در واقع نمی توانیم وابستگی بین $y_i$ و $z_i$ را مشاهده کنیم. برای مشاهده این وابستگی ها حداقل به یک تغییرگر اضافی نیاز است. | ایستا در زمینه SEM به چه معناست؟ |
26862 | من یک مجموعه داده طولی (پانل) برای رشد سرمایه گذاری برای 120 کشور در بازه زمانی 1960-2008 دارم. اساساً به عنوان 120 سری زمانی مشاهده می شود. چیزی که من به آن علاقه دارم این است که کشورها را بر اساس شکل منحنی رشد آنها در طول زمان گروه بندی کنم. بنابراین این که آیا آنها شکل منحنی های خود مشابهی دارند یا خیر، تنها معیاری است که برای گروه بندی آن کشورها نیاز دارم. من بسته KmL را امتحان کردهام (K-means برای دادههای طولی)، اما به نظر میرسد که (لطفاً اگر اشتباه میکنم اصلاح کنید) این روش به این نتیجه میرسد که کشورهای گروهی که دارای میانگین ارزش (یا بزرگی) مشابه (رشد سرمایهگذاری) هستند، نه دقیقاً با توجه به شکل مشابه به عنوان مثال، KmL به گروه بندی کشورهایی با رشد سرمایه گذاری بالا، متوسط رشد سرمایه گذاری متوسط، رشد سرمایه گذاری پایین و غیره تمایل دارد. آنچه من به دنبال آن هستم صرف نظر از ارزش مطلق رشد سرمایه گذاری است. تا زمانی که دو کشور الگوی مشابهی از رشد خود را در طول منحنی زمان نشان دهند، باید با هم در یک گروه گروه بندی شوند. آیا کسی می تواند راهی برای اجرای این خوشه بندی به من بگوید؟ من از پست های قبلی متوجه شده ام که تست همگرایی ممکن است کار کند. هر گونه پیشنهاد تا حد زیادی قدردانی خواهد شد! | چگونه می توان خوشه بندی سری های زمانی (طولی) را کاملاً بر اساس شکل منحنی ها انجام داد؟ |
70408 | بنابراین من یک طرح تودرتو (split-plo، فاکتوریل 2x4) را با ANOVA تجزیه و تحلیل کردم و نشان داد که در سطوح فاکتور b تفاوت وجود دارد. من با آزمون t و مقایسه میانگین ها بسته به عامل b ادامه دادم. اگر مفروضات آزمون t مثبت باشد آیا می توانم فقط 2 گروه را بدون در نظر گرفتن طرح تودرتو با هم مقایسه کنم؟ یا باید ANOVA با فاکتور b که هر بار به 2 گروه محدود می شود انجام دهم؟ هر دو را انجام داد و نتایج متفاوتی گرفت. Thx B. | طراحی تو در تو پس از anova tukey |
8899 | فرض کنید من 2 متغیر $A$ دارم: $P(A) =$ 0.01 $P( \lnot A) =$ 0.99 و $B$ که به $A$ بستگی دارد: $P(B|A) =$ 0.05 $P ( \lnot B|A) =$ 0.95 $P(B| \lnot A) =$ 0.01 $P( \lnot B| \lnot A) = $ 0.99 اعمال: $$P(B)=\sum_{A}^{} P(B|A)P(A)$$ ما دریافت می کنیم $P(B)=(0.01)(0.05)+( 0.99)(0.01)=0.0104$ خوب، سوال من این است: اگر احتمال $P(B)=1$ را تنظیم کنم چگونه مقادیر $P(A)$؟ از آنجایی که $B$ به $A$ بستگی دارد، چگونه همه احتمالات تحت تاثیر قرار می گیرند؟ چگونه $P(A)$ را محاسبه کنیم؟ $P(B|A)$؟ | چند سوال در مورد احتمال شرطی |
20324 | سابقه و هدف: من در حال توسعه یک چارچوب آماری پایتون هستم، نه به این دلیل که موارد موجود در آنجا بد هستند، بلکه به این دلیل که به من کمک می کند پایتون و آمار را یاد بگیرم. من آمار AP را گرفتهام و کتابها و مقالات پراکندهای را خواندهام. من بیشتر از همه حاضرم در مورد هر تکنیک درخشانی که مشکلم را حل می کند مطالعه کنم: مسئله این است که من هنوز نام تکنیک مذکور را نمی دانم. مشکل: با توجه به دو یا چند چیز، که هر کدام یک مقدار X می گیرند و احتمال آن نتیجه را برمی گرداند (در یک محدوده ثابت معین، بنابراین 0.00 تا 01. مقادیر x در آن محدوده و به ترتیب 005.005 و 0.015 را برمی گرداند)، و یک مجموعه داده، از نظر کمی مشخص می کند که کدام تابع با داده ها مطابقت دارد. انجام معکوس (در نظر گرفتن یک احتمال و برگرداندن مقدار X) یک امتیاز خواهد بود. ایده: بتوانید رگرسیون لجستیک، درخت داده و پیشبینیهای سبک «اگر بله در 3 سال گذشته، 0.8 else 0.01» را مقایسه کنید. آیا راه معقولی برای این کار وجود دارد؟ متشکرم. | چگونه می توانم چندین پیش بینی دلخواه را برای یک مجموعه داده معین مقایسه کنم؟ |
62176 | موردی را در نظر بگیرید که من دادهای دارم که ابعاد $n$ دارد و میخواهم این دادهها را به ابعاد $n-1$ تبدیل کنم. برای این مشکل در PCA ما تمام نقاط داده را به یک صفحه بعد $n-1$ با حفظ واریانس پروژه میدهیم. اگر با استفاده از SVM یک ابرصفحه ترسیم کنم (که یک صفحه بعد $n-1$ خواهد بود) و تمام نقاط داده را به آن صفحه نمایش دهم، چه تفاوتی با صفحه PCA خواهد داشت؟ | آیا می توان از SVM برای کاهش ابعاد از n بعد به n-1 استفاده کرد؟ |
20323 | فواصل پیشبینی بالا و پایین برای دورههای پیشبینی توسط تابع ()forecast ارائه میشود. با این حال، به نظر نمیرسد فاصلههای پیشبینی یا اطمینان برای مقادیر برازش شده در محدوده دادههای واقعی وجود داشته باشد. چرا این است؟ | چرا بسته پیشبینی هموارسازی نمایی در R فواصل اطمینان را برای مقادیر برازش ارائه نمیکند؟ |
58585 | چگونه می توانم بفهمم هسته RBF در SVM چه می کند؟ منظورم این است که من ریاضیات را درک می کنم، اما آیا راهی وجود دارد که احساس کنم این هسته مفید خواهد بود؟ آیا نتایج حاصل از kNN به SVM/RBF مربوط می شود زیرا RBF حاوی فواصل برداری است؟ آیا راهی برای دریافت احساس برای هسته چند جمله ای وجود دارد؟ من می دانم که هر چه ابعاد بالاتر باشد، تکان دهنده تر است. اما من میخواهم به جای امتحان کردن همه هستههای ممکن و انتخاب موفقترین هستهها، شهودی دریافت کنم که هستهها چه میکنند. | چگونه اثر RBF SVM را درک کنیم |
79777 | در زیر نمودار دو متغیر X و Y وجود دارد که هر کدام نشان دهنده داده های شمارش هستند. N=348. به مقیاس محورها توجه کنید:  Y تقریباً منطقی است، اما X ندارد تناسب مناسب (شامل پواسون، دوجمله ای منفی، لگ نرمال و گامای تبدیل لاگ). ضریب اسپیرمن بین X و Y نزدیک به 0 است و p-value برای رد عدم همبستگی بسیار بالا است. از نمودار، به نظر می رسد که ترکیبی از مقادیر افراطی هر دو x و y وجود ندارد. وقتی تبدیل X و Y را وارد می کنم، نمودار زیر نتیجه می شود:  واضح است که هر ظاهری از الگو ناپدید شده است. سوالات من این است: * چرا ترکیبی از مقادیر افراطی در مقیاس خطی وجود ندارد، اما در مقیاس ورود به سیستم وجود ندارد؟ * آیا فقدان ترکیب مقادیر افراطی در مقیاس خطی اهمیتی دارد، و آیا به هر حال برای بررسی بیشتر وجود دارد؟ هدف این پژوهش اکتشافی است. | متغیرها فاقد همبستگی هستند، اما دارای الگو هستند |
12362 | آیا کسی میتواند به من توضیحی در سطح مقدماتی بدهد (به مدخل ویکیپدیا فکر کنید) که تشخیص نقطه تغییر متوالی چیست؟ | تشخیص نقطه تغییر متوالی چیست؟ |
79774 | من در حال انجام مجدد تجزیه و تحلیلی هستم که در یک مقاله _Experimental Designs در اندازه گیری اثربخشی تبلیغات_ انجام شده است، جایی که آنها یک مدل ANOVA تودرتو را بر روی یک نمونه طراحی شده متقاطع نصب کرده اند در مقاله آنها دوره و درمان (ABC) را در تکرارها برازش داده اند. مدل «R» شبیه aov است (فروش ~ تکرار + ذخیره + تکرار / درمان + تکرار / دوره) اما زمانی که من باقیمانده ها را در هر درمان ترسیم کردم، نمودار جعبه دقیقاً واریانس یکسانی را در سطوح نشان داد (خیلی خوب است که درست باشد.) توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0AW1W.jpg) من سعی کردم باقیمانده ها را مشاهده کنم، و متوجه جمع باقی مانده شدم در تکرار = 0 در تکرار مجموع باقیمانده برای trt = 0، دوره = 0 و ذخیره 0 است. چه چیزی را از دست داده ام؟ | نصب طرح متقاطع به عنوان مدل ANOVA تو در تو - مشکل باقیمانده |
1590 | اگر مقدار r 0.60 باشد، آیا می توان گفت که افزایش در یک متغیر 60% به احتمال زیاد به معنای افزایش متغیر دیگر است؟ | آیا مقدار r 0.60 به این معنی است که افزایش یک متغیر به احتمال 60 درصد به معنای افزایش متغیر دیگر است؟ |
62179 | من یک مجموعه داده دارم، total_data و یک مدل برای آن اعمال کردم. برای مثال، مدل دارای یک پارامتر $\beta$ است، و من log-likelihood مدل برازش شده را محاسبه کردم (با استفاده از روش حداکثر درستنمایی). در ضمن، من یک متغیر طبقه بندی دارم که می تواند total_data را به دو زیر مجموعه تقسیم کند: high_risk_data و low_risk_data. اکنون، میتوانم مدل مشابهی را برای هر زیر مجموعه اعمال کنم و $\beta_1$ و $\beta_2$ را بدست بیاورم. من می توانم log-likelihood را از هر فیتینگ جمع بندی کنم و نوعی از احتمال log- احتمال کلی را برای total_data تحت مدل 2 بدست بیاورم. مدل 2: پارامترهای $\beta_1$ و $\beta_2$ بر روی هر زیرمجموعه داده نصب میشوند. آیا می توانم آنها را به عنوان مدل های تو در تو در نظر بگیرم، زیرا در مدل 1 یک پارامتر کمتر دارم؟ آیا می توانم برای انتخاب مدل بهتر از آزمون نسبت درستنمایی استفاده کنم؟ من یک راه استانداردتر برای به دست آوردن چیزی شبیه به model2 میدانم: یک گروه-متغیر طبقهبندی دوم را معرفی کنید و مدل ($\beta$,$\beta_{group}$) را در total_data اعمال کنید. آزمون نسبت احتمال برای آزمایش در برابر H0:$\beta_{group}=0$ خواهد بود. آیا این همان روشی است که در بالا توضیح دادم؟ | آیا این یک مدل تودرتو است و آیا می توانم از تست نسبت احتمال استفاده کنم؟ |
58580 | مدل های زیادی برای $Y$ ترتیبی وجود دارد، به عنوان مثال مدل لجستیک ترتیبی شانس متناسب، مدل نسبت ادامه و مدل پروبیت تجمعی. اولین و سومین آنها در کلاسی از مدلها هستند که Prob$(Y \leq j | X) = F(\alpha_{j} + X\beta)$ را مشخص میکنند که در آن $F$ یک تابع بدون کاهش است (به عنوان مثال، لجستیک یا CDF معمولی). این را می توان با داشتن یک خانواده از توابع (به عنوان مثال، یک خانواده 3 پارامتری) و تخمین پارامترهای این خانواده علاوه بر $\alpha، \beta$ تعمیم داد. یا شاید راهی برای انجام این کار به صورت غیر پارامتری در $F$ وجود داشته باشد. آیا کسی روش های توسعه یافته در این مسیر را دیده است؟ در میان چیزهای دیگر، این یک رقیب رگرسیون چندکی خواهد بود. | تعمیم مدل های احتمال تجمعی برای Y ترتیبی |
91402 | آیا مقدار رهگیری یک معادله رگرسیون در مجموعه داده سری زمانی معنی دارد؟ فرض کنید من یک مجموعه داده دارم: رهگیری 27.512 است، اما ما 95 درصد مطمئن هستیم که رهگیری بین -34 و 89.074 است. آیا مقدار رهگیری معنی دارد؟ **آمار با استفاده از SPSS:**   | تفسیر رهگیری یک خط رگرسیون در داده های سری زمانی |
115041 | من دو بردار $v_1$، $v_2$ دارم. هر کدام می توانند مقادیر دلخواه داشته باشند و من همبستگی آنها را اندازه گیری می کنم. $v_1$ و $v_2$ نیز میتوانند از نظر طول متفاوت باشند و من آن را صفر میکنم تا طول بردار طولانیتر را نشان دهم. تغییر ناپذیری همبستگی امکان یافتن کوتاهتر را در بردار طولانی تر می دهد. گاهی اوقات هر کدام میتوانند همه ویژگیها را روی 0 تنظیم کنند. اگر $v_1 = [1,2,3]$ و $v_2 = [0,0,0]$، همبستگی NAN را برمیگرداند. از نظر ریاضی منطقی است، اما نه در زمینه من. $[0,0,0]$ ورودی معتبری است و من همچنان میخواهم شباهت $v_1$ و $v_2$ را تشخیص دهم. وقتی $v_1$ یا $v_2$ 0 است، چگونه می توانم همبستگی یا شباهت را دریافت کنم؟ | شباهت بین [x,y,z] و [0,0,0] |
62175 | تخمینهای حداکثر احتمال جریمهشده فرث، رگرسیون لجستیک دقیق و رگرسیون لجستیک بیزی (به عنوان مثال bayesglm) میتوانند جدایی در رگرسیون لجستیک را توضیح دهند. اما چگونه وزنهای احتمال و طرحهای پیمایش پیچیده را در این روشها (به عنوان مثال در R یا Stata) محاسبه کنیم؟ | جدایی در رگرسیون لجستیک در یک بررسی پیچیده؟ |
68662 | من در زمینه یادگیری عمیق تازه کار هستم و اولین قدم برای من خواندن مقالات جالب از سایت deeplearning.net بود. در مقالاتی در مورد یادگیری عمیق، هینتون و دیگران بیشتر در مورد استفاده از آن در مسائل تصویر صحبت می کنند. آیا کسی می تواند به من پاسخ دهد آیا می توان آن را برای مشکل پیش بینی مقادیر سری زمانی (مالی، ترافیک اینترنتی و ...) اعمال کرد و در صورت امکان روی چه موارد مهمی باید تمرکز کنم؟ | استفاده از یادگیری عمیق برای پیش بینی سری های زمانی |
115043 | سلام به همه، من در حال انجام یک طبقهبندی نظارت شده از دادههای برچسبگذاری شده باینری هستم که در آن ترکیبی از ویژگیهای طبقهبندی و پیوسته دارم. من در مجموع 6 ویژگی و نزدیک به 6500 نمونه دارم. میخواستم بدانم آیا عملکرد مورد انتظاری از یک طبقهبندی بر اساس (بایاس/واریانس) وجود دارد که ممکن است بر تصمیم من برای انتخاب یک طبقهبندیکننده بر دیگری تأثیر بگذارد. من داده های گم شده، برچسب های پر سر و صدا و نقاط پرت در داده هایم دارم. فهرست طبقهبندیکنندههایی که میخواهم از بین آنها انتخاب کنم، رگرسیون لجستیک، kNN، درختهای تصمیمگیری و یادگیرندگان گروه هستند. من weka را امتحان کردم و تا کنون k-nn بهترین AUC را پس از اعتبارسنجی متقاطع 10 برابری و آزمایش روی یک مجموعه داده جدید ارائه کرده است. من سعی می کنم با توجه به نقاط قوت و مشکلات این طبقه بندی کننده ها پیدا کنم که آیا یکی نسبت به دیگری بهتر است و چرا؟ از هر کمکی بسیار سپاسگزاریم. | چه طبقه بندی کننده ای را انتخاب کنیم؟ |
67523 | با توجه به یک ماتریس کوواریانس متقارن، قطعی مثبت، $S$، چگونه می توانم یک ماتریس $C$ را به گونه ای محاسبه کنم که $CSC^T$ ماتریس هویت $I$ باشد؟ | چگونه یک ماتریس کوواریانس را به ماتریس Identity مورب تبدیل کنیم |
48490 | در سوال من در مورد یک مدل پیش بینی بار با استفاده از داده های دما به عنوان متغیرهای کمکی به من توصیه شد که از خطوط رگرسیون استفاده کنم. به نظر می رسد این واقعاً یک راه حل است. اکنون با مشکل زیر روبرو هستم: اگر من مدل خود را بر روی داده های زمستانی کالیبره کنم (به دلایل فنی کالیبراسیون را نمی توان به صورت روزانه انجام داد، بلکه هر دو ماه یکبار) و به آرامی بهار می آید، داده های دمایی خارج از مجموعه کالیبراسیون را خواهم داشت. آیا تکنیکهای خوبی برای قویتر کردن اسپلاین رگرسیون برای مقادیر خارج از محدوده کالیبراسیون وجود دارد؟ تجربه یا مرجعی دارید؟ با تشکر | استفاده از خطوط رگرسیون برای مقادیر خارج از محدوده کالیبراسیون |
111297 | من زمان صرف شده برای حل یک مسئله را با الگوریتم $X$ و با الگوریتم $Y$ اندازه گیری کرده ام. مدت زمان زیادی طول می کشد، بنابراین من فقط 10 داده برای هر الگوریتم دارم: $$ X : ( x_1, x_2, \dots , x_{10}) \\ Y : ( y_1, y_2, \dots , y_{10} ) $$ در مقاله خود من نسبت $$ r = \frac{\sum_{k=1}^{10} x_k را گزارش کردم }{\sum_{k=1}^{10} y_k } $$ و نتایج آزمون رتبه امضا شده Wilcoxon را ارائه کرد. با این حال، داور مقاله من ** واریانس بین 10 نسبت** را می خواهد. توزیع یک **نسبت** به طور شهودی بسیار **نامتقارن در حدود 1.** است (شما فقط بازه $(0; 1)$ برای درک این واقعیت دارید که الگوریتم $X$ سریعتر است، اما کل $( 1 ; \infty)$ برای درک این واقعیت که $Y$ سریعتر است). بنابراین حتی یک انحراف استاندارد به خوبی تخمین زده شده نیز می تواند فایده چندانی نداشته باشد. این سوال ارتباط نزدیکی با سوال قبلی من دارد. پاسخ پذیرفته شده پیشنهاد می کند که **تقارن** داده ها را با استفاده از تابع **لگاریتم** و ایجاد فاصله **اطمینان** برای نسبت. با این حال من نسبت های بسیار زیادی دارم (از آنجایی که روی بسیاری از مشکلات آزمایش کردم) و می ترسم نوشتن فواصل اطمینان برای هر نسبت خوانایی مقاله را کاهش دهد. 1. آیا باید از ارائه واریانس نسبت ها خودداری کنم؟ 2. آیا راه دیگری برای گزارش واریانس غیر از خطای استاندارد وجود دارد؟ 3. اگر رد کنم، آیا ادبیاتی وجود دارد که به این موضوع اشاره می کند که گزارش واریانس نسبت ها ایده بدی است؟ | آیا باید واریانس داده های نامتقارن، مانند نسبت ها را گزارش کنید؟ |
115047 | من از scipy استفاده می کنم و می خواهم مقدار مجذور کای جدول احتمالی درصد را محاسبه کنم. این جدول من است، میزان عود است. میخواهم بدانم آیا مقادیر غیرمنتظرهای وجود دارد، یعنی گروههایی که میزان عود بهویژه بالاست: 18-25 25-34 35-44 ... مردان 37% 36% 64% ... زنان 24% 25% 32% ... داده های اساسی به این صورت است: 18-25 25-34 35-44 ... مردان 667 of 1802 759 of 2108 1073 of 1677 ... آیا باید فقط از مقادیر خام استفاده کنم، بنابراین یک جدول اقتضایی مانند این داشته باشم، و یک آزمایش کای دو روی مقادیر خام اجرا کنم؟ 18-25 25-34 35-44 ... مردان 667 759 1073 ... این کاملاً درست به نظر نمی رسد، زیرا اندازه نسبی اساسی هر گروه را نشان نمی دهد. من گوگل کرده ام، اما نتوانسته ام توضیحی پیدا کنم که بفهمم چه کاری باید انجام دهم. چگونه باید مقادیر غیرمنتظره را در داده هایی مانند این پیدا کنم؟ | محاسبه مقادیر خی دو برای درصد؟ |
67528 | من در مورد نحوه محاسبه پایه تصادفی کمی سردرگم هستم. اگر درست متوجه شده باشم خط مبنا تصادفی با جمع کردن مجذور احتمالات همه کلاس ها محاسبه می شود. بنابراین، طبقهبندیکننده پایه تصادفی، بهجای انتخاب متداولترین کلاس، یک کلاس را بهطور تصادفی انتخاب میکند. من 7 کلاس دارم، هر کدام با # مورد و در مجموع X. چگونه احتمالات را پیدا کنم؟ | چگونه می توانم پایه تصادفی را محاسبه کنم؟ |
66693 | من یک مجموعه داده k x n دارم که در آن k برابر با تعداد متغیرها و n برابر با تعداد مشاهدات در هر متغیر است. من میدانم که این دادهها با هم مرتبط هستند و میخواهم آنها را با تبدیل سفیدکننده معمولی سفید کنم. به طور ناخوشایندی، k بسیار بیشتر از n است، به طوری که هنگام تخمین ماتریس کوواریانس k x k، معکوس نخواهد بود. برای حل این مشکل، ماتریس کوواریانس را با استفاده از انقباض بهینه تخمین زدم، اما ماتریس کوواریانس بهدستآمده دیگر برای سفید کردن مناسب نیست. من برای ایده هایی در مورد نحوه سفید کردن این داده ها سپاسگزار خواهم بود. | سفید کردن مجموعه داده با مشاهدات کمتر نسبت به متغیرها |
79775 | من در مورد نحوه تفسیر نتایج من برای تابع polr() در R- برای رگرسیون لجستیک ترتیبی من کمک می خواهم. تفسیر نتایج به خصوص دشوار است زیرا هیچ مقدار p وجود ندارد. من توابع استاندارد برازش مدل، از جمله پیشبینی، خلاصهسازی را امتحان کردهام و نتایجی را که میدهد را درک نمیکنم. آیا برخی می توانند روش گام به گام تفسیر نتایج را پس از تکمیل مدل «polr()» توضیح دهند؟ من چندین بار پست را خواندهام اما احساس میکنم که نحوه تفسیر نتایج را به وضوح توضیح نمیدهد: چگونه خروجی تابع polr R (رگرسیون لجستیک مرتب شده) را درک کنیم؟ | نحوه تفسیر نتایج تابع polr() در R، رگرسیون لجستیک ترتیبی |
66692 | تا به حال فکر می کردم که سطح معنی داری و فاصله اطمینان مکمل یکدیگر هستند، یعنی وقتی سوالی از من می خواست که یک آزمون فرضیه با سطح معناداری $p %$ انجام دهم، یک $(1-p)$ می سازم. فاصله اطمینان و ببینید که آیا فرضیه صفر را در بر می گیرد یا خیر. با این حال، من در حال ایجاد یک مسئله در خطوط زیر بودم که باعث شد به برخی مفاهیم خود شک کنم: این مسئله به من چند تابع چگالی احتمال متغیر تصادفی و مقداری نمونه داد و از آن خواست تا آزمون فرضیه را برای $H_0 انجام دهم:\theta=1$ و $H_a:\theta\neq1$ در سطح معناداری $5\%$. از آنجایی که فرضیه جایگزین یک فرضیه ترکیبی است، من از آزمون نسبت درستنمایی همراه با حداکثر احتمال برای یافتن رابطه ای به شکل $$\frac{L[H_0]}{max L[H_a]}<k$$ از pdf استفاده کردم. قضیه بسیار غیرعادی بود من از قضیه ویلکس استفاده کردم و آن را به صورت مجانبی با توزیع $\chi^ 2$ با 1 درجه آزادی تقریب زدم، بنابراین می توانم مقدار $k$ داشته باشم. که نشان دهنده سطح اهمیتی است که من می خواستم. تا به حال همه چیز به آرامی پیش می رفت. با این حال، در بخش بعدی مشکل از من میخواهد به طور خلاصه توضیح دهم که چگونه میتوانم فاصله اطمینان 95$\%$ را برای $\theta$ بدست بیاورم. اگر اشتباه می کنم، من را تصحیح کنید، اما این همان چیزی نبود که در مثال آخر ساختم؟ با خیال راحت نه تنها این مشکل خاص را به طور خاص توضیح دهید، بلکه تعریف گسترده تری از فاصله اطمینان و سطح اهمیت را نیز به من بدهید. ببخشید اگر اشتباه احمقانه ای مرتکب شدم من در چند هفته گذشته شروع به مطالعه استنتاج آماری کردم و هنوز هم با ساده ترین تعاریف آن دست و پنجه نرم می کنم. | فاصله اطمینان در مقابل سؤال سطح اهمیت |
111294 | من از رگرسیون لجستیک برای پیشبینی $X \rightarrow Y \in \{0, 1\}$ بر اساس ویژگی $\phi(X)$ استفاده میکنم. تابع هدف آموزشی \begin{equation} \mathcal{L} = \sum\limits_{i=1}^{n}{y_i \log \sigma(\theta^\top \phi(x_i)) + (1 است -y_i) \log (1-\sigma(\theta^\top \phi(x_i))}، \end{equation} که $\sigma$ سیگموید است از آنجایی که هدف به شدت محدب است، راه حل بهینه را می توان از طریق شیب صعود محاسبه کرد. ^{n} (1-\sigma) \phi(x_i) y_i - \sigma \phi(x_i) (1-y_i)$ مجموعه نامتعادل است، به عنوان مثال 90% از $y_i = 1$، سپس بیشتر اوقات گرادیان $\sum(1-\sigma) \phi(x_i)$ است اغلب اوقات $\theta$ بهروزرسانیهای مثبت دریافت میکند، با این حال، اگر برخی از ویژگیهای $\phi_k(x)$ با برچسب همبستگی منفی داشته باشند، آنگاه پارامتر. $\theta_k$ باید منفی باشد چگونه ممکن است این اتفاق بیفتد؟ | آیا تفریق میانگین داده ها در رگرسیون لجستیک بهتر عمل می کند؟ |
67525 | هدف من رسیدن به خطای استاندارد برای هر تخمین نقطه ای از رگرسیون خطی است. من در ابتدا فکر می کردم که خطای استاندارد یک مدل رگرسیون خطی ثابت است. و اینکه به سادگی برابر با جذر انحراف مربع میانگین باقیمانده است. به همین دلیل است که به خطای استاندارد مدل RMSE نیز گفته می شود. اکنون میدانم که وقتی یک فاصله اطمینان حول خط روند تخمینها ایجاد میکنید... در هر تخمین نقطه، خطای استاندارد قابل اجرا با خطای استاندارد کلی مدل یا RMSE که در بالا توضیح داده شد متفاوت است. بخش اول سوال من این است که چگونه این خطای استاندارد خاص را در یک تخمین نقطه مشخص محاسبه می کنید؟ آیا کسی می تواند پیوندی به یک مثال عددی برای تسهیل تفسیر من از فرمول ارائه دهد؟ من درک می کنم که چنین خطاهای استاندارد یک الگوی قابل پیش بینی دارند. آنها بسیار کمتر از خطای استاندارد کلی مدل برای مقادیر تقریباً نزدیک به مقدار میانگین هستند. و با فاصله گرفتن از مقدار میانگین، از خطای استاندارد همان مدل بزرگتر می شوند. در نتیجه، فواصل اطمینان موازی با خط روند رگرسیون نیستند. در عوض، آنها مانند یک ساعت شنی خمیده می شوند. بخش دوم من از این سوال کلی این است: چگونه شکل ساعت شنی حاصل از فاصله اطمینان حاصله به شکلی که نشان داده شده است، فرض رگرسیون خطی را که واریانس باقیماندهها در بین مشاهدات ثابت میماند را نمیشکند؟ | چگونه خطای استاندارد خاص مربوط به یک تخمین نقطه ای خاص را در یک رگرسیون خطی محاسبه کنیم؟ |
67521 | این سوال از دو تلاش به ظاهر معادل برای حل یک سوال دیروز الهام گرفته شده است: در R، اگر a انتخاب b خیلی بزرگ است، چگونه از خروجی combn(a,b) نمونه برداری کنیم؟ اساساً مشکل این است که اعداد صحیح $10$ را انتخاب کنید که مجموع آنها 100$ باشد، که در آن هر عدد باید $\ge 0$ باشد. رویکرد پیشنهاد شده در سوال اصلی این است که از اعداد $9$ در محدوده $1$ تا $109$ نمونه برداری کنید، _بدون جایگزینی_، و آنها را به عنوان نقاط برش در نظر بگیرید که محدوده $0$ تا $110$ را کاهش می دهند. تفاوت بین نقاط برش (شامل $0$ و $110$) 10 عدد را نشان می دهد که هر کدام $\ge $1 است. در نهایت، از هر عدد 1$ کم می کنیم تا اعداد 10$ بدست آوریم که $\ge 0$ هستند و به 100$ می رسند. من فکر کردم یک رویکرد معادل -- و ساده تر -- نمونه برداری از اعداد $9$ در محدوده $0$ تا $100$، _با جایگزینی_ است. تفاوت بین نقاط برش (شامل $0$ و $100$) مستقیماً 10 عدد را نشان می دهد که $\ge 0$ هستند و جمع آنها تا $100$ می رسد. با این حال، پیادهسازی این رویکردها در R نشان میدهد که رویکردها **معادل** نیستند. * «y» اولین رویکرد است، نمونهبرداری از اعداد $9$ از $1\ldots109$ بدون جایگزینی و تنظیم. * «x» رویکرد دوم است که از اعداد $9$ از $0\ldots100$ با جایگزینی نمونه برداری می کند. از هیستوگرام های زیر، آشکار است که $0$ در روش اول در مقایسه با روش دوم بسیار بیشتر نمونه برداری می شود.  با فرض اینکه در رویکرد دوم من به سادگی یک اشکال وجود نداشته باشد، سؤالات من این است: * چرا این تفاوت زمانی که به طور شهودی به نظر می رسد این دو رویکرد باید معادل باشند؟ * کدام رویکرد صحیح است؟ کد R زیر برای مرجع set.seed(99) N=1e5 y <- sapply( 1:N, function(i) {diff(c(0, sort(sample(1:109, 9)), 110) - 1 } ) x <- sapply( 1:N, function(i) {diff(c(0, sort(sample(0:100, 9, جایگزین = صحیح))، 100) } ) p1 <- hist(y، breaks=-0.5:100.5) p2 <- hist(x، breaks=-0.5:100.5) par(mfrow=c(3،1)) نمودار(p1، col=rgb(0,0,1)) نمودار(p2, col=rgb(1,1,0, 0.75)) # http://stackoverflow.com/questions/3541713/how-to-plot-two-histograms-together-in-r plot(p1, col=rgb(0,0,1), main=x سوار بر y ) plot(p2، col=rgb(1،1،0، 0.75)، add=T) | چرا دو رویکرد معادل برای انتخاب اعدادی که مجموع آنها 100 است، نتایج متفاوتی ایجاد می کند؟ |
48497 | من یک مجموعه داده دارم که شامل داده های 307 موضوع و 9 متغیر برای هر موضوع است. من می خواهم یک PCA اجرا کنم. مشکل من این است که مقدار KMO 0.06 را دریافت می کنم. سوال من این است که آیا این به این دلیل است که در هر موضوع متغیرها به 1 می رسند. آیا من با این فرض درست هستم؟ و آیا راه دیگری برای آزمایش اینکه آیا اجرای PCA روی داده های من خوب است یا خیر وجود دارد؟ پیشاپیش متشکرم | مقدار KMO 0.06 |
88516 | من در یک آزمایشگاه شیمی کار می کنم و تلاش می کنم تا عدم قطعیت اندازه گیری (MU) را از آزمایش های مجدد نمونه تخمین بزنم. رویه به خوبی تثبیت شده است. اما چیزی که من با آن سر و کار دارم مجموعه ای از داده ها است که در آن برخی از موارد تکراری کاملاً قانونی هستند و MU اساسی را منعکس می کنند در حالی که برخی دیگر به دلایلی نادرست در اولین آزمایش این جفت نیستند. توزیع مضاعف، همانطور که در آن. من تمایل دارم از روش استفاده از روش 1.5 x IQR برای حذف موارد پرت استفاده کنم. دریافتهام که اغلب دادههای بریدهشده، زمانی که با روش IQR مورد ارزیابی مجدد قرار میگیرند، نقاط پرت بیشتری دارند. سوال این است که در شرایط من، آیا این مناسب است که این را در دور دوم روی دادههای از قبل کوتاه شده اعمال کنیم؟ آیا من به MU اصلی آزمایش نزدیک می شوم یا فقط خودم را گول می زنم؟ (هنگامی که این را تایپ می کنم، تصمیم گرفتم یک مجموعه داده ساختگی از یک توزیع نرمال ترکیبی و یک توزیع اریب ایجاد کنم و ببینم چه اتفاقی می افتد.) | حذف موارد پرت |
59184 | من مجموعه داده های مختلفی دارم که باید در مورد ویژگی های خاک تجزیه و تحلیل کنم، همه به یک شکل، با یک اثر ثابت (که موقعیتی در امتداد یک ترانسکت است، که کاربری های مختلف زمین را نشان می دهد). اکنون سطح اصلی تکرار من در ترانسکتهای مختلف است، که بدیهی است که نوعی واریانس تصادفی مرتبط با آنها خواهد بود، و بنابراین میخواهم این را در تحلیلهای آماری خود توضیح دهم. بنابراین، در `lme4` من یک مدل ترکیبی برای این مدل مشخصات تعیین کردم <- lmer(variable.of.interest ~ transect.position + (1|transect)) اکنون، وقتی مدل فوق را در مقابل مدلی بدون موقعیت ترانسکت تحلیل می کنم. در اصطلاح، دقیقاً نتایجی را که انتظار داشتم دریافت میکنم، و سپس با وصل کردن مدل بالا به «anova()»، مقادیر F را دریافت میکنم، d.f. و غیره که نیاز دارم با این حال، نمیتوانم بفهمم که چگونه برای گزارش کلی خود بگویم که اثر تصادفی ترانسکت هیچ تفاوتی با تحلیلهای کلی ندارد (یعنی نمیتوانم مقدار p، مقدار F، d.f و غیره را دریافت کنم. ). کمک؟ | مدل ترکیبی ساده با 1 اثر ثابت و 1 اثر تصادفی |
67527 | چند مقاله تحقیقاتی در مورد روش های لاشنبرخ - مدل 2 قسمتی خواندم. من یک محقق بالینی هستم و دانش/تجربه زیادی در زمینه آمار ندارم. ما از یک مقیاس (پرسشنامه تنفسی سنت جورج) در یک مطالعه (در جمعیت عمومی روستا در هند) استفاده کردیم، 0 نشان دهنده عدم مشکل و 100 نشان دهنده شدت است. مجموعه داده دارای تعداد زیادی صفر است (نشان دهنده مشکلی نیست) و دارای انحراف مثبت است. برای تعیین عوامل مرتبط باید تحلیل های رگرسیون ساده و چندگانه انجام دهیم. ما از Stata استفاده می کنیم، اما متخصص نیستیم. آیا می توانید روند تجزیه و تحلیل این داده ها را به ما اطلاع دهید؟ آیا می توانید لطفا در مورد دستورات Stata به ما کمک کنید؟ | داده های اریب با صفرهای زیاد: رگرسیون ساده و چندگانه |
94434 | من روی پروژه ای کار می کنم که باید طبقه بندی متن چند برچسبی را انجام دهم. من می خواهم بفهمم که آیا رویکرد من درست است یا چیزی را از دست داده ام. من از R برای انجام آن استفاده می کنم. > 1. متن را پاک کنید > 2. یک مجموعه ایجاد کنید. در حین ایجاد پیکره، عبارت sparse > را با مقدار sparse تنظیم شده روی 0.86 > 3 حذف می کنم. یک DTM از این پیکره ایجاد کنید و برچسب را به آن بچسبانید. > 4. DTM را به مجموعه آموزشی و آزمایشی تقسیم کنید > 5. مدل را با استفاده از مجموعه قطار بسازید > 6. مدل را با استفاده از مجموعه آزمایشی آزمایش کنید. > 7. تجزیه و تحلیل آماری برای اثبات مدل انجام دهید > بنابراین سؤالات من این است > 1. آیا باید در هنگام ایجاد پیکره، عبارت پراکنده را حذف کنیم و اگر چنین است > مقدار پراکنده خیلی زیاد است و آیا محدوده ای از مقدار پراکنده تا > وجود دارد. در طبقه بندی متن تنظیم شود یا به نتیجه ای که می گیریم بستگی دارد. > 2. آیا این یک قانون انگشت شست است که تعداد سطرها باید بیشتر از مربع > تعداد ویژگی ها باشد. و همچنین آیا تعداد ویژگیها به > تعداد کلاسهای منحصربهفردی که دارید بستگی دارد > 3. آیا میتوانیم انتخاب ویژگی را پس از حذف واژههای پراکنده انجام دهیم. > 4. کدام یک باعث کاهش ابعاد یا انتخاب ویژگی می شود. > | برخی از کارهای اساسی که باید هنگام طبقه بندی متن انجام دهیم |
111298 | هنگامی که از مرحله M برای مخلوطی از توزیع های برنولی استفاده می کنیم، یکی از پارامترهای ماکزیمم سازی، پارامتر برنولی $\mu_{k}$ است که $k$ شاخص جزء مخلوط و $$ p است. (x|\mu_k) = \prod_{i=1}^D \mu_{ki}^{x_{i}}(1-\mu_{ki})^{(1-x_{i})}. $$ در بیشینه سازی با توجه به این پارامتر، عبارت زیر را دریافت می کنیم $$ \begin{align} \frac{\partial}{\partial \mu_{ki}}\mathbb{E}_{Z}[\ln p(X, Z | \mu, \pi) &= \sum_{n=1}^N \langle z_{nk} \rangle \left( \frac{x_{ni}}{\mu_{ki}} - \frac{1 - x_{ni}}{1 - \mu_{ki}} \right) \\ &= \frac{\sum_n \langle z_{nk} \rangle x_{ni} - \sum_n \langle z_{ nk} \rangle \mu_{ki} }{\mu_{ki}(1-\mu_{ki})} \end{align} $$ جایی که $$ \langle z_{nk} \rangle = p(z_{nk} | x_n, \mu_k, \pi_k) $$ بدیهی است که با صفر کردن آن و حل کردن $\mu_{ki}$، جواب استاندارد $$ \mu_{ki} = \frac{ \sum_n \langle z_{nk} \rangle x_{ni}}{\sum_n \langle z_{nk} \rangle} $$ با در نظر گرفتن این موضوع، سوال من به شرح زیر است. آیا محدودیتی برای $\mu$ وجود ندارد که $\sum_i \mu_{ki} = 1$ باشد؟ اگر چنین است، پس چرا این در حداکثر سازی گنجانده نشده است. یعنی چرا لاگرانژی را که شامل عبارت $ \lambda \left(\sum_i \mu_{ki} - 1\right) $ است را فرموله نمیکنیم؟ | EM برای مخلوط های برنولی (M-step) |
28292 | من داده دارم و می خواهم بدانم که آیا توزیع بتا یا گاما است. هنگامی که من می دانم توزیع چیست، چگونه می توانم بفهمم که پارامترها چیست؟ btw من یک تازه کار هستم | آیا داده های من از توزیع گاما یا بتا می آید؟ |
48491 | در برخی منابع دیدم که ماتریس اطلاعات مشاهده شده منفی مقدار مورد انتظار ماتریس هسین است. با این حال، در برخی منابع دیگر دیدم که این فقط منفی هسین است. همچنین، در R این با معکوس ماتریس هسین (بدون منفی) محاسبه می شود. من به شدت گیج هستم. میشه لطفا در این مورد توضیح بدید؟ | ماتریس اطلاعات مشاهده شده از طریق Hessian |
23746 | من پیشبینیها و اطلاعات واقعی برای دادههای تابلویی (یعنی دادههای مقطعی سری زمانی) دارم. پیشبینیها قبلاً توسط منبعی خارج از R ایجاد و ارائه شدهاند. من میخواهم کیفیت پیشبینیها را ارزیابی کنم. آیا ابزارهای استانداردی در R وجود دارد که تشخیص های مختلفی را روی باقیمانده ها انجام دهد؟ منظور من از تشخیص، تست هایی مانند: * همبستگی خودکار باقیمانده ها در سطح مقطع * همبستگی خودکار باقیمانده ها در امتداد سری زمانی برای یک عضو معین * تست های اثرات ثابت در مقابل اثرات تصادفی * ناهمسانی و غیره است. بهترین راه برای انجام این تشخیص ها برای ساختن یک مدل پانل با استفاده از پیش بینی به عنوان پیش بینی کننده در مدل پانل؟ | تجزیه و تحلیل باقی مانده از پیش بینی های سری زمانی مقطعی |
59187 | من دنبال کتاب مقدماتی آمار و طراحی آزمایش برای درس روش ها برای دانشجویان روانشناسی بودم. فکر میکنم حداقل 30 کتاب را بررسی کردهام و همه همان حرکتهای قدیمی را طی کردهاند. ابتدا آزمون فرضیه، سپس آزمون t، آنوا، آنوای دو طرفه و رگرسیون حداقل مربعات معمولی. و همگی اصرار دارند که این مدل ها را با محاسبات خسته کننده توضیح دهند. یک آزمون t از شما میخواهد یک آماره t را محاسبه کنید، یک Anova از شما میخواهد مجذورات این و آن را جمع کنید، در عوض رگرسیون انجام میشود تا خطای مربع را به حداقل برسانم. از دیدگاه من، درک این نوع مدلها از منظر احتمال بسیار آسانتر و شهودی است. به عنوان مثال، یک آزمون t مدل $y \sim \text{Normal}(\beta_0 + \beta_1x,\sigma^2)$ است و یک Anova $y \sim \text{Normal} است(\beta_0 + \ beta_1x_1 + \beta_2x_2 + \ldots,\sigma^2)$ که در آن $x، x_1، x_2$ متغیرهای رمزگذاری شده ساختگی هستند. برای تطبیق با چنین مدلی، برای مثال، از حداکثر احتمال استفاده می شود که به نظر من شهودی است و توضیح آن آسان است. این فرمولبندی مهربان، ارتباط بین آزمون t، ANOVA و رگرسیون را برای درک بیاهمیت میسازد. بنابراین آنچه که من به دنبال یک کتاب مقدماتی در طراحی آمار و آزمایش بودم که آمار را از این منظر احتمال آموزش دهد. من برای هر پیشنهادی بسیار سپاسگزار خواهم بود! | آیا کتاب روش شناسی تجربی مبتنی بر احتمال در مقطع کارشناسی برای دانشجویان روانشناسی / علوم اجتماعی وجود دارد؟ |
23744 | من سعی میکنم SVM را پیادهسازی کنم و انتخاب پارامتر (جستجوی شبکه) را روی کل دادهها انجام دادم و از بهترین مقادیر C و گاما از آن جستجو برای آزمایش روی دادههای آزمایشی استفاده کردم. گاهی اوقات، دقت اعتبار متقاطع، من 100٪ است. آیا این روش اشتباه است؟ روش صحیح انجام چیست؟ چگونه باید انتخاب پارامتر خود را انجام دهم؟ آیا باید داده ها (100%) را به 10% برای جستجوی شبکه و 90% باقیمانده را به آموزش و آزمایش تقسیم کنم؟ نیاز به راهنمایی در مورد آن.. با تشکر. | پارامتر جستجو برای SVM در کل داده ها |
72208 | من در شرکتی کار می کنم که نظرسنجی های محیط کار را جمع آوری می کند. وقتی یک نظرسنجی انجام میشود، گزارشهایی را ایجاد میکنیم که در اختیار مدیران شرکت قرار میگیرد تا نشان دهیم که کجا باید تلاش خود را متمرکز کنند. در این گزارش ها ما مقایسه ای از واریانس گروه محاسبه شده در مقایسه با واریانس یک جامعه مرجع را نشان می دهیم. ما این نمره را در مقیاس 0-100 عادی می کنیم. (محاسبه درون کد مقیاس دیگری از -inf تا +inf نشان میدهد، اما برای سادگی میگوییم که 0 50 است، و فقط هر چیزی که بیش از 100 و کمتر از 0 باشد را قطع کنید.) بزرگترین مشکل ما این است که مشتریان ما بسیار آگاه هستند. عدد واقعی حتی اگر ما سعی می کنیم به آنها بگوییم که یک عدد بالا/پایین لزوما بد نیست، فقط نشان می دهد که چگونه واریانس گروه های شما با واریانس جمعیت مرجع مقایسه می شود. ما به این فکر می کنیم که از نمایش عدد در گزارش کاربر نهایی فاصله بگیریم و به جای آن به دنبال نمایش تصویری واریانس بالا، طبیعی، کم باشیم. اما نمی توانم نمایش تصویری خوبی از آن پیدا کنم. باید به نوعی خنثی به نظر برسد، اما همچنان چیزی را نشان دهد... (.. می دانم ..) آیا کسی پیشنهادی در مورد چگونگی رسیدن به این هدف دارد؟ (سلب مسئولیت: من آمارگیر نیستم، من یک توسعه دهنده هستم.). من در تحصیلات عالیم یک کلاس آمار داشتم و آن هم بیش از 5 سال پیش. بنابراین هم اصطلاحاتی که من استفاده می کنم و هم توضیحات من می توانند کاملاً بی معنی باشند.) | تجسم واریانس |
59185 | من پرسشنامهای را برای پاسخدهندگان در مورد پذیرش فناوری توسط مشتریان ارائه کردهام. من میخواهم یک تحلیل عاملی مؤلفههای اصلی اکتشافی در Stata انجام دهم تا ساختارهایی را از چند سؤال (در راستای ادبیات موجود) تشکیل دهم. متغیرهایی که من می خواهم بسازم سودمندی درک شده، سهولت استفاده درک شده، ریسک درک شده با محصول (PRP) و غیره است و من مشتریانی را از دو کشور مقایسه می کنم: هلند (n=63) و بلغارستان (n=101). من آیتم ها را بر اساس ادبیات تحقیق طراحی کردم. بنابراین انتظار داشتم که هیچ مشکلی در تحلیل عاملی وجود نداشته باشد. یعنی همه اقلام دارای بار عاملی بالایی بر روی یک عامل واحد خواهند بود. من آلفای کرونباخ را بدست آورده ام که برای همه فاکتورها 0.7 و برای مشتریان هلندی سودمندی 0.6 است که خوب است. تجزیه و تحلیل عاملی برای اکثر عوامل خوب است و بسیاری از موارد بیشتر بر روی یک عامل واحد بارگذاری می شوند، همانطور که توسط ادبیات پیشنهاد شده است. مشکل این است که برای PRP من 4/5 فاکتور برای بلغاری ها و 6/7 فاکتور برای هلندی دریافت کردم که در واقع ساختارهای متفاوتی در مقایسه با PRP برای بلغاری ها هستند (13 بار عاملی برای PRP). من همچنین مشکل مشابهی با هنجار ذهنی (SN) دارم. سؤالات من: * وقتی اقلام در یک عامل قرار نمی گیرند، آیا می توان فقط وسایل چنین مواردی را در نظر گرفت؟ * * یا کار دیگری هست که باید انجام دهم؟ * آیا می توانید به من نیز یک مرجع ارائه دهید؟ | ساختار عاملی غیرمنتظره در نمونه های مختلف |
59181 | من در تحلیل عاملی تازه کار هستم. من در حال نوشتن چند ارائه در مورد تحلیل عاملی هستم و عمدتاً در مورد تحلیل عاملی اکتشافی مطالعه می کنم. هر دو EFA و CFA دارای نمودار هستند. برای EFA معمولاً بارهای فاکتور روی فلش ها دیده می شود. با این حال، برای CFA معمولا مقداری 1 روی برخی از فلش ها وجود دارد، اما نه همه. از آنجایی که من در این کار مبتدی هستم، هنوز واقعاً معنی آن ها را نمی فهمم. آیا می توانید برخی از سرنخ ها به من بدهید؟ برای مثال، اینجا صفحه 174 را ببینید، یک تصویر وجود دارد: http://psychology.concordia.ca/fac/kline/Library/k13b.pdf | معانی 1 روی فلش های نمودار تحلیل عاملی تاییدی |
28298 | بعدازظهر بخیر من روی مطالعه ای کار می کنم که در آن متغیر وابسته (درصد افراد در یک گروه قومی که اساساً رای می دهند) و یکی از متغیرهای مستقل (٪ از این افراد در جمعیت) سالانه به مدت 10 سال اندازه گیری می شوند. متغیرهای مستقل دیگری نیز وجود دارند که وابسته به زمان نیستند. من میتوانستم یک مدل جداگانه برای هر سال از متغیر وابسته اجرا کنم، که فقط دادههای سالهای قبل را برای متغیر مستقل شامل میشود، اما در تعجب بودم که آیا روش سادهتری وجود دارد. من به R و SAS دسترسی دارم (اگر چیز بدیهی را نادیده گرفته ام، عذرخواهی می کنم، سرما خورده ام و در بهترین حالتم نیستم) پیتر | وقتی هم متغیرهای وابسته و هم برخی از متغیرهای مستقل اندازه گیری های تکراری هستند چه باید کرد؟ |
51789 | در یک تنظیم بیزی برای تخمین پارامتر، فرم پارامتریک توزیع قبلی برای انجام منظمسازی l2 باید چگونه باشد؟ | فرم پارامتریک تنظیم l2 در یک محیط بیزی چگونه باید باشد؟ |
48498 | برای انتخاب یک آزمون مناسب برای پایایی بین ارزیاب به کمک نیاز دارم. من سه ارزیاب (متخصص) دارم که کیفیت تصاویر را تجزیه و تحلیل کرده اند (10 تصویر از مکان های مختلف). داده ها ترتیبی هستند (کیفیت تصویر به صورت عددی از 1 تا 5 ارزیابی می شود). | آزمون مناسب برای پایایی بین ارزیاب ها چیست (سه رتبه بندی، داده های ترتیبی) |
88515 | در کتاب آنلاین رایگان روشهای بیزی برای هکرها، آخرین شکل تخمین مقدار مورد انتظار $\lambda$ را برای هر روز نشان میدهد:  به نظر می رسد نویسنده در حال محاسبه مقدار مورد انتظار پسین برای $\lambda$ برای یک روز معین است. برای انجام این کار، نویسنده از نمونههای MCMC از تخمین کامل $\lambda_1$ و $\lambda_2$ دوباره استفاده میکند. اما **خلفی $\lambda$ برای یک روز معین** چگونه به $\lambda_1$ و $\lambda_2$ مربوط می شود؟ و چرا می توان از نمونه های محاسبه MCMC کامل **استفاده مجدد** کرد؟ در صورت اهمیت، در زیر کد پایتون مورد نظر است که خط قرمز را در نمودار بالا محاسبه می کند. figsize(12.5, 5) # tau_samples، lambda_1_samples، lambda_2_samples حاوی # N نمونه از توزیع پسین مربوطه N = tau_samples.shape[0] expect_texts_per_day = np.zeros(n_count_data) for day in range(count_ix_ta): یک شاخص بوول از همه نمونههای tau مربوط به # نقطه سوئیچ که قبل از مقدار 'day' رخ میدهد ix = روز <tau_samples # هر نمونه خلفی مربوط به مقداری برای tau است. # برای هر روز، آن مقدار tau نشان می دهد که آیا ما قبل # (در رژیم lambda1) یا # بعد (در رژیم lambda2) نقطه سوئیچ هستیم. # با گرفتن نمونه خلفی لامبدا 1/2 بر این اساس، میتوانیم # را از همه نمونهها میانگین بگیریم تا مقدار مورد انتظار لامبدا را در آن روز به دست آوریم. # همانطور که توضیح داده شد، متغیر تصادفی تعداد پیام پواسون توزیع شده است، # و بنابراین لامبدا (پارامتر پواسون) مقدار مورد انتظار # تعداد پیام است. expect_texts_per_day[day] = (lambda_1_samples[ix].sum() + lambda_2_samples[~ix].sum()) / N | فرمول بندی تحلیلی یک مسئله بیز سلسله مراتبی |
105263 | من آمارگیر نیستم، اما یک پروژه شخصی دارم و به کمک نیاز دارم. من پروژه را بسیار ساده می کنم تا واضح تر و قابل درک تر شود. سپس بر اساس پاسخ های شما، می توانم آن را با پروژه واقعی خود تطبیق دهم. فرض کنید من یک گلدان با تعداد زیادی توپ در داخل آن دارم که یک عدد روی توپ ها وجود دارد. به مدت یک هفته، هر نیم ساعت، چند توپ (هر بار تعداد متفاوتی از آنها) انتخاب می کنم و تعداد آنها را روی آنها یادداشت می کنم. سپس همین روش را برای چندین هفته تکرار می کنم. من با مجموعه داده ای مانند این پایان خواهم داد: دوشنبه 00:00 - [15,45,24,57,437,23,89,2,42,.....] دوشنبه 00:30 - [12,345,643,64,23, 4,64,754,......] .... سه شنبه 00:00 - [24,2,57,865,3,6,8,655,86,.....] .... یکشنبه ساعت 23:30 - [14,543,64,32,57,43,768,.....] هر چه بیشتر عدد روی توپ، بهتر است. بنابراین، میخواهم بررسی کنم که آیا تاریخ خاصی در هفته وجود دارد که ممکن است اعداد بالاتری داشته باشد یا این یک روش کاملاً تصادفی است. همانطور که گفتم نسخه ساده شده است. انتخاب یک توپ از یک گلدان مطمئناً تصادفی است. شاید Chi-square انتخاب درستی باشد؟ اما آیا می توانم اطلاعات خود را با این گزینه تطبیق دهم؟ اولین فکر من این بود که یک نمودار (شاید نمودار میله ای) ایجاد کنم که در آن محور x زمان تاریخ هفته و محور y مجموع یا میانگین اعداد باشد. اما این به مشکل دیگری ختم خواهد شد. اگر یک روز فقط اعداد میانی داشته باشد و روزی دیگر دارای اعداد زیاد و پایین باشد، در نهایت همان نوار خواهد بود. بدیهی است که اینطور نیست. می توانم ایده های شما را اینجا داشته باشم؟ | بررسی کنید که آیا یک روش خاص تصادفی است یا خیر |
27055 | سوال من از وظیفه فعلی من برای توسعه یک مدل پیش بینی بالینی با استفاده از رگرسیون لجستیک ترتیبی (با rms) ناشی می شود، اما برای هر نوع تحلیل رگرسیون اعمال می شود. 1. فرض شانس متناسب (مشکل برای ارزیابی...) فقط تقریبا برآورده شده است. (من از رویکرد نسبت ادامه مطلع هستم). 2. نتایج اقدامات تبعیض (موضوع دشوار دیگر) زیاد نیست. 3. اما طرح کالیبراسیون بسیار زیبا است. بنابراین، آیا باید نگران 1 و 2 باشم یا کالیبراسیون بسیار خوب از فرضیات اساسی و تبعیض فراتر می رود؟ | آیا کالیبراسیون خوب تقریباً از مفروضات برآورده شده و تبعیض متوسط فراتر می رود؟ |
23747 | CARET ابزاری مناسب است که ده ها روش مدل سازی را در بر می گیرد. CARET به کاربر اجازه می دهد تا به آمارهای عملکرد مانند RMSE، ماتریس های سردرگمی و غیره به روشی عمومی دسترسی داشته باشد بدون اینکه نیازی به یادآوری استفاده از روش های مختلف مدل سازی باشد. با این حال، برخی از مدل ها نتایج گزارش منحصر به فردی دارند. برای مثال، با یک مدل درختی تقویتشده، میتوان نرخ خطای دروننمونه _در مقابل_ خارج از نمونه را بهعنوان تابعی از تعداد درختهایی که برای بیشبرازش آزمایش میشوند، مقایسه کرد. طبیعتاً این گزارش با روشهای دیگری که از درخت استفاده نمیکنند منطقی نخواهد بود. آیا راهی وجود دارد که بتوانم از CARET برای دسترسی به این گزارش های خاص مدل استفاده کنم (شاید با دسترسی به شی مدل سازی تولید شده مستقیم)؟ | چگونه می توان اطلاعات مربوط به مدل را هنگام استفاده از بسته caret بازیابی کرد؟ |
111299 | آیا روش هایی برای به دست آوردن روند یک پاکت سیگنال وجود دارد؟ نمونه ای از سیگنال در اینجا:  خط سیاه سیگنال است، خطوط قرمز همان چیزی است که چشم من به عنوان پاکت آن می بیند. سیگنال من می خواهم بدانم از چه روشی می توان برای دریافت این پاکت ها و تعیین کمیت ارتباط آنها استفاده کرد. | روش / رگرسیون برای تشخیص پوشش سیگنال |
51780 | من می خواهم یک تجزیه و تحلیل ANCOVA از تراکم داده ها در هر اپی فیت گیاه انجام دهم. در ابتدا می خواهم بدانم که آیا تفاوتی در تراکم بوته بین دو شیب شمالی و جنوبی وجود دارد، اما داده های دیگری مانند ارتفاع، باز بودن تاج پوشش و ارتفاع گیاه میزبان را دارم. من می دانم که متغیر من باید دو شیب (N و S) باشد، من این مدل را ساختم که در R اجرا می شود و اگرچه نمی دانم عملکرد خوبی دارد یا خیر. همچنین می خواهم بدانم که اگر از علامت + یا * استفاده کنم چه تفاوتی وجود دارد. model1 <- aov (تراکم ~ شیب + ارتفاع + سایه بان + ارتفاع) خلاصه (model1) model1 | چگونه یک ANCOVA در R درست کنم |
51784 | من به تحقیقات چند متغیره علاقه مند هستم. من سعی کردهام درباره طراحی چنین آزمایشهایی بیاموزم که در آن یک متغیر وابسته (یک کلاس/گروه) و بسیاری از متغیرهای مستقل وجود داشته باشد که به طور ایدهآل به تمایز بین گروهها کمک میکند. با این حال، مسئله اساسی که من با آن مواجه هستم، مشکل محاسبه اندازه نمونه است. من ادبیات را بررسی کردهام تا ببینم آیا توافقی در مورد نحوه محاسبه حجم نمونه برای یک تحقیق چند متغیره وجود دارد یا خیر. کسی در اینجا روشی برای انجام این کار می شناسد؟ من در درجه اول با برنامه R آشنا هستم اما با SAS و زبان برنامه نویسی پایتون نیز مهارت دارم. آیا کسی با این کار آشنایی دارد؟ | محاسبه اندازه نمونه برای مسائل چند متغیره |
115044 | اگر من یک توزیع احتمال گسسته $p$ با کلاسهای $K$ داشته باشم * شاخص جینی = $\sum_{K}$$p_k$(1-$p_k$) * آنتروپی = -$\sum_{K}$$p_k$ log$p_k$ به ازای «عناصر یادگیری آماری»، «هم شاخص جینی و هم آنتروپی متقابل برای تقسیم دوم پایینتر هستند. به همین دلیل، یا هنگام رشد درخت باید از شاخص جینی یا آنتروپی متقاطع استفاده شود.` من دو کلاس ($K=2$) و مقادیر احتمالی $p_1$=0.1 و $p_2$=0.9 را در نظر گرفتم. من $Gini-index = 0.0081$ و $cross-entropy = 0.146$ دریافت کردم * چه نتیجه ای می توانم از این بگیرم؟ * آیا مدرک رسمی وجود دارد که نشان دهد شاخص جینی تقریب بهتری از خطای طبقه بندی اشتباه است؟ برای اثبات آن از چه رویکردی استفاده می شود؟ | شاخص جینی در مقابل آنتروپی |
59239 | من با دو سوال جداگانه (استاک و واتسون - مقدمه ای بر اقتصاد سنجی فصل 3)، با استفاده از مقادیر مختلف برای خطاهای استاندارد، گیج شده ام. **اولین:** در یک نظرسنجی از 400 رای دهنده، 215 نفر به رای دادن به رئیس جمهور فعلی، 185 به رقیب پاسخ دادند. اجازه دهید p نشاندهنده کسری از همه رایدهندگان احتمالی باشد که در زمان نظرسنجی رئیس فعلی را ترجیح دادهاند و $\hat p$ کسری از پاسخدهندگان نظرسنجی باشد که رئیس فعلی را ترجیح میدهند. _حالا برای واریانس با $\hat p(1-\hat p)/n$ داده می شود و هنگام محاسبه $SE(\hat p)$ باید جذر واریانس را بگیریم تا $0.0249$ به دست آید، و من با این موضوع خوب هستم._ **سوال دوم:** در یک جمعیت معین، 11% از رای دهندگان آفریقایی آمریکایی هستند. یک نظرسنجی با استفاده از یک نمونه تصادفی از 600 شماره تلفن ثابت، 8 درصد آمریکایی های آفریقایی تبار را پیدا کرد. آیا شواهدی وجود دارد که نظرسنجی مغرضانه است؟ _حالا هنگام محاسبه آماره t از فرضیه صفر با $p=0.11$ استفاده می کنیم، اما سپس بیان می کند که $se(\hat p)=\hat p(1-\hat p)/n$._ چرا ما دیگر لازم نیست جذر مقدار بالا را برای یافتن خطای استاندارد بگیرید؟ فکر می کنم باید با دانستن واریانس جمعیت مرتبط باشد؟ | انحراف استاندارد جمعیت برای توزیع دوجمله ای(؟) |
27057 | من یک رشته مهندسی صنایع هستم و به دنبال کتاب(هایی) در مورد احتمال و آمار هستم (ترکیب ترجیح داده می شود اما جداگانه نیز انجام می شود) که: * من به عنوان یک **خودآموز** می توانم کار کنم. با * مختصر است اما موارد زیر را شامل می شود: _روش های آماری برای تجزیه و تحلیل داده ها. نمودارها و آمار توصیفی؛ مطالعات و آزمایشات مشاهده ای؛ تخمین فاصله اطمینان؛ آزمون فرضیه؛ رگرسیون و همبستگی._ در عمق. **من قبلاً یک بار آنها را مطالعه کرده ام، فقط باید آنها را با عمق بیشتری بررسی کنم. ** * به مهندسان و نه آماردانان رسیدگی کنم. من تئوری و کاربرد را به تئوری و سختگیری ترجیح می دهم. * به من در هدف من برای مطالعه مدل های تصادفی / شبیه سازی / مهندسی مالی (دوباره، به تنهایی) کمک خواهد کرد. * دارای نسخه بین المللی. * توصیه می شود / الزامی نیست: مثال هایی را در R ارائه می دهد. من سؤال مشابهی را پشت سر گذاشته ام، اما 2 پاسخ کتابی است که خود نویسنده از آن راضی نیست و پاسخ پذیرفته شده یک وب سایت است. من به شلدون راس، دگروت، روهاتگی و بسیاری دیگر نگاه کرده ام اما هنوز مطمئن نیستم که آیا هیچ کدام از آنها آنچه را که می خواهم به من می دهند یا خیر. | کتاب توصیه های بررسی احتمال و آمار برای رشته مهندسی |
51782 | برای نمونه iid $X_1، \dots، X_n$، آیا توزیع آمار رتبه رایگان است؟ یعنی برای هر $k$ s.t $1 \leq k \leq n$، آیا توزیع رتبه $X_k$ به توزیع $X_i$ بستگی ندارد؟ من فکر می کنم بله. فرض کنید $X_i$ دارای یک cdf $F$ است که یک $F^{-1}$ معکوس را می پذیرد، سپس $F^{-1}(X_1)، \dots، F^{-1}(X_n)$ همچنان ادامه خواهد داشت. iid باشد اما با توزیع یکنواخت بیش از $[0,1]$. از آنجایی که $F$ معکوس است، هر دو $F$ و $F^{-1}$ به شدت در حال افزایش هستند، بنابراین رتبه $X_k$ و رتبه $F^{-1}(X_k)$ یکسان خواهد بود. . بنابراین میتوانیم توزیع X_i$ را توزیع یکنواخت بیش از [0,1]$ فرض کنیم، و بنابراین رتبه X_k$ به توزیع X_i$ بستگی ندارد. اگر $F$ معکوس نباشد، زمانی که از X_1$، \dots، X_n$ به $F^{-1}(X_1)، \dots، F^{-1}(X_n)$ بروید، ممکن است پیوندها تغییر کنند. ما نمی توانیم بگوییم توزیع آمار رتبه به توزیع $X_i$ بستگی ندارد؟ با تشکر و احترام! | آیا یک آمار رتبه ای همیشه توزیع رایگان است؟ |
88510 | من یک گاوسی چند متغیره برای مجموعه ای از داده ها دارم، و می خواهم فاصله اطمینان را برای آن نمونه داده محاسبه کنم. به امید یافتن یک راه حل زیبا، من یک تجزیه ویژه انجام دادم و داده ها را به مبنایی که توسط بردارهای ویژه تعریف شده بود، تبدیل کردم که در آن مقادیر ویژه واریانس آن بعد است. آنچه در مورد این مبنا خوب است این است که کوواریانس 0 وجود دارد و هر محور مستقل است. من CDF هر گاوسی را به طور مستقل محاسبه میکنم و فاصله اطمینان را برای هر بعد تعیین میکنم، اما اکنون به مشکل نحوه ترکیب آنها برخوردم. به نوعی، اگر این ابعاد غیر همبسته مستقل باشند، من باید احتمالات را ضرب کنم، اما برای من منطقی نیست که فواصل اطمینان را ضرب کنم. من در مورد میانگین گیری آنها فکر کردم، اما این نیز منطقی نیست زیرا اگر یک بعد دارای فاصله اطمینان $\sim1$ باشد، پس میانگین گیری ماهیت نمایی این ریاضی را در نظر نمی گیرد. آخرین چیزی که در نظر گرفتم یک هنجار L2 بود، اما به هیچ وجه کار نمی کند. به هر حال، ممنون می شوم که برای فهمیدن این موضوع کمک کنید. به طور خاص، چگونه می توانم CDF گاوسی چند متغیره را از CDFهای ابعاد گاوسی همبسته منفرد تعیین کنم؟ یا فاصله اطمینان به جای CDF - اساساً همان اطلاعاتی است که من به آن علاقه دارم. قبل از اینکه این یکی را کشف کنم این را در انجمن ریاضی پست کردم. امیدوارم که خوب باشد: | محاسبه CDF گاوسی چند متغیره از تجزیه ویژه |
114163 | من با مدل nls ارائه شده در زیر مشکل دارم. من یک ایده تاری دارم که چگونه مقادیر اولیه را در آن تنظیم کنم. آیا از روش سعی و خطا استفاده کنم یا راه دیگری برای سیستماتیک کردن آن وجود دارد؟ > model3<-nls(H2~H1*(A2^b1*(A1^b1*(b3+H1+sqrt((b3+H1)^2+2*H1*exp(b2)/A1^b1))+ exp(b2))/ + A1^b1*(A2^b1*(b3+H1+sqrt((b3+H1)^2+2*H1*exp(b2)/A1^b1))+exp(b2)))، start=c( b1=0.1، b2=2، b3=1)، trace=T) خطای پاسخ در nls (H2 ~ H1 * (A2^b1 * (A1^b1) دریافت می کنم * (b3 + H1 + sqrt((b3 + H1)^2 + : گرادیان واحد یا خطا در nls(H2 ~ H1 * (A2^b1 * (A1^b1 * (b3 + H1 + sqrt((b3 + H1) ^2 + : ضریب مرحله 0.000488281 کمتر از 'minFactor' از 0.000976562 بسته به مقادیر پارامترهایی که استفاده می کنم، فرمول مدل ها به این صورت است:  با احترام. | نحوه تنظیم داده های اولیه در مدل nls |
59230 | من نقاط داده همبسته دارم و آنها با یک خط روند تطبیق داده شده اند. من می خواستم بدانم این نقاط چقدر از یک خط دلخواه 1:1 (خط 45 درجه با داده هایی با قدر مساوی) فاصله دارند. آیا آزمایشی وجود دارد که بفهمد چقدر از این خط 1:1 فاصله دارد؟ متشکرم | آزمایش داده های مرتبط از خط 1:1 |
27054 | من با Fisher Ratio کار می کنم. من این سهمیه را از تابعی محاسبه می کنم که قبلاً در نرم افزاری که روی آن کار می کنم پیاده سازی شده است. اما می خواهم مطمئن باشم که همان کاری را که من فکر می کنم انجام می دهد. Prism روشی را برای محاسبه فواصل اطمینان با استفاده از مقایسه مدل پیشنهاد می کند. این از نسبت F استفاده می کند (صفحه 109). با dfd(=df2-df1)=1 و dfn(=df2)=99، من یک F تقریباً 1.08 با کدم پیدا می کنم. به نظر ممکنه؟ من از یک تابع کتابخانه ای استفاده می کنم که حد بالایی ادغام چگالی f را برای توزیع تابع توزیع تجمعی F محاسبه می کند. ورودی ها سطح اطمینان و درجه آزادی برای صورت و مخرج هستند. آیا این به من نسبت F می دهد؟ با تشکر و احترام | نسبت F و روش مقایسه مدل برای محاسبه مرزهای اطمینان |
59237 | من سعی می کنم دسته ای از توزیع های دووجهی را تخمین بزنم، یعنی دو میانگین و دو انحراف استاندارد، بر اساس تعداد متغیر ورودی. اگر ورودی وجود نداشته باشد، یک مقدار ثابت باید برگردانده شود. با توجه به اطلاعات حکایتی من در مورد چیزی که بیز در مورد آن است، باید دقیقاً همین باشد، نه؟ پیشینی را بر اساس شواهد دریافتی تطبیق دهید. سوال من این است که چگونه می توانم با جزئیات این کار را انجام دهم؟ شاید من فقط یک آموزش خوب را به نوعی از دست داده ام. | اعمال بیز: تخمین توزیع دووجهی |
35004 | پروژه ای که من در حال حاضر روی آن کار می کنم ایجاد حسگر ضربان قلب با استفاده از پلتیسموگرافی انگشتی است. سیگنالی را به ucontoller من برمی گرداند که فقط شامل پیک های مثبت است. به عنوان مثال، سیگنال ایده آلی که به کنترلر من ارسال می کند 1 1 1 5 1 1 1 5 1 1 1 خواهد بود که در آن اعداد نشان دهنده دامنه هستند. در حالت ایده آل هیچ مولفه منفی برای سیگنال وجود نخواهد داشت. هدف من تشخیص این پیک ها و شمارش تعداد میلی ثانیه بین پیک ها و استفاده از آن برای محاسبه دقیق bpm است. من میتوانم از روش تشخیص شیب استفاده کنم، اما احتمالاً فقط برای یک سیگنال ایدهآل بدون نویز دقیق است. برای اجرای واقعی و مورد نه چندان ایده آل، فکر می کردم که می توانم از FFT استفاده کنم. از نظر تئوری بیشترین ضربان در دقیقه قلب انسان تقریباً 4 هرتز است، نرخ نایکیست من 8 هرتز خواهد بود. با FFT 16 نقطه ای، هر سطل دارای بخش های واقعی و خیالی در بخش های 8/16 هرتز است. من می توانم بزرگی را برای هر سطل محاسبه کنم. حدس می زنم سطل با بالاترین قدر فرکانس قله ها باشد؟ روش من درسته؟؟ آیا می توانم فقط با استفاده از FFT 16 نقطه ای تفاوت های 0.5 هرتز را تشخیص دهم؟ در ضمن آیا از FFT در روش شیفت پنجره استفاده کنم یا فقط بعد از 16 نقطه سیگنال FFT را انجام دهم؟؟ | تشخیص پیک در یک کنترلر با استفاده از FFT |
27052 | من مجموعه بزرگی از شبکه های عصبی را برای یک کار بسیار ساده آموزش می دهم. 10 تا از شبکه ها دارای پیکربندی یکسان هستند، اما حجم داده های متفاوتی دارند. هر 10 شبکه دارای یک لایه مخفی هستند که 2 نورون در آن وجود دارد. شبکه اول 1000 نمونه آموزشی، بعدی 2000 و شبکه آخر 10000 نمونه آموزشی دریافت می کند. 1000 مثال آموزشی برای شبکه اول، زیرمجموعه ای از 2000 مثال آموزشی برای شبکه دوم است که باز هم زیرمجموعه ای از 3000 مثال آموزشی برای شبکه سوم و غیره است. من شبکههایم را با استفاده از Build in NN-Toolbox در MATLAB آموزش میدهم، جایی که از الگوریتم Levenberg-Marquardt استفاده میکنم. وقتی شبکهها را آموزش میدهم، همه آنها با یک خطای میانگین مربع حدود 0.007 (که برای مشکل خاص من منصفانه به نظر میرسد) ختم میشوند. تنها موردی که متفاوت است، اولین مورد است که به MSE حدود 0.002 دست می یابد. بعد از اینکه شبکههایم را روی دادهها آموزش دادم، آنها را روی برخی از دادههای آزمایشی که برای آموزش استفاده نکردم آزمایش میکنم. اکنون مشکل این است که شبکه با 1000 نمونه آموزشی به طور جدی از شبکه های دیگر بهتر عمل می کند. از امتیاز MSE، این منصفانه به نظر میرسد، اما من نمیدانم چرا شبکههایی با دادههای موجود بیشتر، و حتی دادههایی که شبکه استفاده میکند، نمیتوانند پارامترها را بهتر یاد بگیرند. آیا چیزی به نام داده بیش از حد وجود دارد؟ | آیا می توانم اطلاعات زیادی داشته باشم؟ |
105267 | من برخی دادههای طبقهبندی دارم که در آن هر مشاهده دارای ویژگیهای متعدد است، و میخواهم یک مدل احتمالی از آن با استفاده از توزیع دیریکله ایجاد کنم. به عنوان مثال، در حالت دو بعدی، من دو ویژگی A، B با مقادیر متمایز n، m به ترتیب دارم، و سپس من یک توزیع دیریکله با پارامترهای nm خواهم داشت. با این حال، من همچنین میخواهم که این مدل بتواند دادههای ناقص را برای یک مشاهده مشخص مدیریت کند. به عنوان مثال، ممکن است بتوانم A را برای یک مشاهده مشخص کنم، اما چیزی در مورد B نگویم. من میخواهم بتوانم مدل خود را بر اساس این دادهها به روز کنم، اما در قلمرو توزیع دیریکله باقی بمانم. برای مثال، من نمیخواهم وارد توزیعهای hyperdirichlet شوم، زیرا تعداد پارامترهایی که باید نگه دارم، منفجر میشوند. | به روز رسانی توزیع دیریکله با داده های جزئی |
59235 | من سعی می کنم یک محاسبه توان با G*Power انجام دهم. دو گزینه کاملاً مهم وجود دارد که معنای آنها برای من روشن نیست: تعداد گروه ها - این چیست؟ من یک طرح فاکتوریل با اندازه های تکراری 2x2 دارم. آیا این به این معنی است که چهار گروه وجود دارد، یا همانطور که بقیه اینترنت نشان می دهد، این کادر برای عوامل بین موضوعی است؟ اگر برای فاکتورهای بین آزمودنی ها باشد، فرض می کنم برای فاکتوریل اندازه گیری های مکرر این عدد 1 است. تعداد اندازه گیری - همچنین کاملاً مشخص نیست. آیا این تعداد نقاط داده ای است که من برای هر شرکت کننده جمع آوری کردم؟ اگر آنها قبل از ورود به ANOVA میانگین گرفته شده باشند چه؟ یا این تعداد شرایط درون موضوعی است؟ بنابراین 4 برای آزمایش من؟ هر گونه راهنمایی در مورد معنای این تنظیمات بسیار قدردانی می شود - تا آنجا که من می توانم بگویم که اینها غیرمستند هستند. | اقدامات مکرر در تنظیمات فاکتورها برای محاسبه توان G*Power |
51781 | من در حال حاضر در حال ارزیابی برخی از نتایجی هستم که از مدلی که بر روی مجموعه ای از داده های متنی که استخراج کرده ام اعمال کرده ام. مشکل من این است که استادم به من گفته است که از روش خاصی استفاده کنم و من واقعاً نمی دانم چگونه به معقول ترین راه به این مشکل حمله کنم. ایده اصلی ارزیابی این است که آیا رابطه ای بین ماه ها و/یا سال ها در متغیر پاسخ من وجود دارد یا خیر. دادههای من ماهیت زیر را دارند: > DV: باینری (رویداد یا غیررویداد) > > IV1: ماهی که رویداد رخ داده است / اتفاق نیفتاده > > IV2: سالی که رویداد رخ داده است / اتفاق نیفتاده من در مجموع 431000 مشاهده دارم همانطور که اکنون وجود دارد من دادههایم را طوری تغییر دادهام که بهجای یک DV باینری، دادههای شمارشی برای هر دوره زمانی داشته باشم. من همچنین یک تبدیل لاجیت در تعریف شده به عنوان ln(DV/(1-IV3)) انجام دادم تا اثر فعالیت را مرتب کنم. > DV (رویداد): رویدادها در یک دوره زمانی داده شده IV1 و IV2 > > IV1 (سال): سال 1995 تا 2012 > > IV2 (ماه): ژانویه تا دسامبر در IV1 > > IV3 (فعالیت): رویدادها + غیر رویدادها در بازه زمانی داده شده IV1 و IV2 > (خنثی شده) من در مجموع 176 مشاهده دارم در حال حاضر مدل من این است به این صورت تعریف میشود: «DV = b1*IV1 + b2*IV2 + خطا» اما من با این درک که آیا این منطقی است یا نه، در حال مبارزه هستم. من به دنبال مدلهای پواسون و مدلهای بادشده صفر بودهام، اما تا به حال به نظر من معقولترین کار این است که تبدیل لاجیت را انجام دهم تا فعالیت و نگاه به سال و ماه را به عنوان عواملی در یک رگرسیون خطی عادی خنثی کنم، اما دوباره من من فکر می کنم که ممکن است از یک رگرسیون لجستیک نیز استفاده کنم. آیا کسی از شما می داند که چگونه با چنین موردی برخورد کند؟ من از R، SPSS و rapidminer استفاده می کنم. | کدام مدل برای شمارش داده ها در طول زمان؟ |
50787 | من سعی می کنم یک بازی کلی را تحلیل کنم. این احتمالاً کاملاً شناخته شده است، در این صورت اشاره به ادبیات مرتبط کافی است (اما توضیح رد نمی شود!). اگر استاندارد نباشد، البته هر گونه کمکی قدردانی خواهد شد، حتی اگر پاسخ کاملی نداشته باشد. فرض کنید من N شیء دارم (مثلاً 100) با پیشینهای غیر پیش پا افتاده $v_1,\ldots,v_N$ که بهترین حدس من را در مورد مقادیر آنها نشان می دهد. من زمان دارم تا آزمایشهای $m$ (مثلاً 1000) را روی هر یک از اشیاء انجام دهم، و آزمایشها میتوانند تطبیقی باشند. من میخواهم اشیاء $k$ (مثلاً 3) را به ترتیب انتخاب کنم. هر آزمایش تخمین من را از ارزش واقعی یکی از اشیا بهبود می بخشد. اما بر خلاف مشکل راهزن چند مسلح، هیچ معاوضه اکتشاف در مقابل بهرهبرداری وجود ندارد: تنها چیزی که اهمیت دارد فهرستی است که در پایان آزمایشهای $m$ وجود دارد. می توانید تابع هزینه را به صورت (مقدار مورد #1 - مقدار مورد انتخاب شده به عنوان #1) + ... + (مقدار مورد #$k$ - ارزش مورد به عنوان #$k$ انتخاب شده) در نظر بگیرید. بستن کافی است پیشین ها نسبتاً دقیق هستند (مطمئناً راهنمای خوبی برای مکان جستجو هستند) اما در معرض خطاهای سیستمی ناشناخته هستند. آزمایشها بیطرفانه هستند اما دارای خطای تصادفی هستند. خوشبختانه، خطاهای تصادفی برای همه آزمایشها، صرف نظر از موضوع، یکسان است، بنابراین حداقل تا حدودی از نظر آماری قابل کنترل به نظر میرسد. من در اینجا بسیار در یک نقطه جمع آوری اطلاعات هستم. آنچه را که برای پاسخ دادن به سؤال باید انجام دهید، فرض کنید و من سعی خواهم کرد آن را مناسب کنم. :) | راهزنان بدون بهره برداری: یافتن بهترین اقلام با اطلاعات ناقص |
50786 | آیا می توان یک جنگل تصادفی را برای پیش بینی مناسب داده های شمارش آموزش داد؟ این چگونه ادامه خواهد داشت؟ من طیف گسترده ای از مقادیر را دارم، بنابراین طبقه بندی واقعاً منطقی نیست. اگر از رگرسیون استفاده کنم، آیا به سادگی نتایج را کوتاه می کنم؟ من اینجا کاملا گم شده ام هر ایده ای؟ | پیشبینی تعداد دادهها با جنگل تصادفی |
51786 | آیا کسی می داند که برای پاک کردن داده ها برای رگرسیون لاجیت (نه رگرسیون لجستیک) باید چه مراحل دقیق پاکسازی داده را انجام داد؟ من فقط متغیرهای زمانی به معنی سال و ماه را به عنوان متغیرهای مستقل خود دارم و از R استفاده می کنم. رگرسیون لاجیت به سادگی یک رگرسیون خطی معمولی است که در آن DV با فرمول زیر تبدیل شده است: > `logit(y) = ln (y/(1-y)` برای مثال: > 3 نفر از 12 نفر با مصرف یک قرص در دوره 3 درمان می شوند -> > `ln(0.25/(1-0.25)` > > > 5 نفر از 25 نفر با مصرف قرص در دوره 5 درمان می شوند -> `ln(0.20/(1-0.20)` اگر نسبت و در بسیاری از مقالات و کتابها ارتباط نزدیکی با رگرسیون لجستیک دارد. | چه پاکسازی داده برای رگرسیون لاجیت فقط با Dummies انجام شود؟ |
23743 | من از بسته kernlab در R برای ساخت یک SVM برای طبقه بندی برخی داده ها استفاده می کنم. SVM به خوبی کار می کند زیرا پیش بینی با دقت مناسبی را ارائه می دهد، با این حال لیست متغیرهای ورودی من بزرگتر از آن است که می خواهم و من از اهمیت نسبی متغیرهای مختلف مطمئن نیستم. من میخواهم یک الگوریتم ژنتیک را برای انتخاب زیرمجموعهای از متغیرهای ورودی پیادهسازی کنم که بهترین آموزشدیده/مناسبترین SVM را تولید میکند. من برای انتخاب بسته R برای استفاده در هنگام اجرای این GA (و احتمالاً یک مثال فرضی مختصر) کمک می خواهم. من بسیاری از بستههای R GA/P را در آنجا جستجو کردهام (RGP، genalg، subselect، GALGO)، اما از نظر مفهومی درگیر این هستم که ببینم چگونه تابع ksvm خود را به عنوان بخشی از تابع تناسب اندام پاس میکنم و ورودی خود را وارد میکنم. آرایه متغیر به عنوان مجموعه جمعیت...؟ هر گونه کمک، فکر، یا تلنگر در جهت درست، با سپاسگزاری دریافت می شود. کد تشکر که این مشکل را حل می کند که در زیر در تابع EDIT # پیش بینی بعدی اضافه شده است تا برای تست بک تست استفاده شود pred1pd = function(t) { print(t) ##add section برای انتخاب بهترین مجموعه متغیر از میان متغیرهای موجود با استفاده از تابع ارزیابی # GA - انتخاب می کند. بهترین شاخصها بر اساس خطای آموزش کاهشیافته mi.evaluate <- function(string=c()) { tmp <- data[(t-lookback):t,-1] x <- string tmp <- tmp[,x==1] tmp <- cbind(data[(t-lookback):t,1],tmp) colnames(tmp)[1] <- targets trainedmodel = ksvm(targets ~ .، داده = tmp، نوع = ktype، هسته = rbfdot، kpar=list(sigma=0.1)، C = C، prob.model = FALSE، cross = crossvalid) نتیجه <- error(trainedmodel) print(result) } ## monitor tge GA process monitor <- function(obj) { minEval = min(obj$evaluations); plot(obj، type=hist); } ## نتایج GA را منتشر کنید. اندازه به تعداد نشانگرهای بالقوه تنظیم شده است gaResults <- rbga.bin(size=39, mutationChance=0.10, zeroToOneRatio=10, evalFunc=mi.evaluate, verbose=TRUE, monitorFunc=monitor, popSize=50, iters=3 الیتیسم=10) ## اکنون باید بهترین کروموزوم را بیرون بکشد و چارچوب داده را بر اساس این نتایج بازسازی کنیم تا بتوانیم مدل bestChro را آموزش دهیم <- gaResults$population[1,] newData <- data[,-1] newData <- newData[,bestChro==1] newData <- cbind( data[,1],newData) colnames(newData)[1] <- targets print(colnames(newData)) # Train مدل با استفاده از مجموعه داده جدید مدل = trainSVM(newData[(t-lookback):t, ], ktype, C, crossvalid) # پیش بینی pred = as.numeric(as.vector(predict(model, newData[t+1, - 1]، type=response))) # چاپ برای بازرسی کاربر چاپ (pred) } | چگونه می توان انتخاب متغیر الگوریتم ژنتیک را در R برای متغیرهای ورودی SVM انجام داد؟ |
50781 | بهترین رویکرد برای انتخاب استراتژی چند کلاسه (MSVM، OVA، ECOC) برای طبقه بندی تعداد زیادی از کلاس ها با نمونه های محدود از هر کلاس چیست؟ دو عامل دیگر که راه حل را تعریف می کنند، در مورد من: * احتمال پیش بینی عامل مهمی است که مراحل بعدی راه حل من را تعیین می کند. * اندازه (یعنی اندازه شی طبقهبندیکننده روی دیسک که بعداً میتواند در حافظه بارگذاری شود و برای پیشبینی استفاده شود)، طبقهبندیکننده نصبشده (از آنجایی که من نیاز دارم راهحل قابل حمل بدون ارائه آن به عنوان سرویس باشد). من نیازی به تجزیه و تحلیل طبقه بندی کننده(های) ندارم جز اینکه دسته بندی را با احتمال معقول بدست آوریم. به روز رسانی: مشکل اساساً مربوط به طبقه بندی متن است. | انتخاب یک استراتژی چند کلاسه |
50783 | من در مورد انگیزه پشت تعریف زیر از ضرر مورد انتظار بودم تعجب کردم: $$E[L] = \sum_{k} \sum_{j} \int_{R_{j}} L_{kj} p(x, C_{k) })dx$$ که در آن $L_{kj}$ ماتریس ضرر است، که در آن $j$ کلاس پیش بینی شده و $k$ کلاس واقعی است، $R_{j}$ منطقه تصمیم مربوط به کلاس $j$ و $x$ یک بردار ورودی است. برای مشخص بودن، فرض کنید فقط دو ناحیه $R_{1}$ و $R_{2}$ داریم و عناصر موجود در $R_{1}$ و $R_{2}$ متعلق به کلاس $C_{ هستند. 1}$ و $C_{2}$، به ترتیب. برای مثال، یک عنصر $x_{i}$ در منطقه $R_{2}$ با عبارت کمک میکند: $$L_{12}p(x_{i}, C_{1}) + L_{22}p( x_{i}، C_{2})$$ اما $L_{22}$ احتمالاً $0$ است زیرا ضرر مربوط به پیشبینی کلاس $C_{2}$ زمانی که کلاس واقعی $C_{2}$ است چیزی است که ما خواستن من میدانم که میخواهیم $E[L]$ را به حداقل برسانیم، بنابراین هر بار که کلاس را به اشتباه پیشبینی میکنیم، $E[L]$ را بر اساس $L_{kj}$ افزایش میدهیم، اما چرا در این مثال ضرب میکنیم، عبارت $p(x_{i}، C_{1})$ یا به طور کلی، $p(x، C_{k})$؟ با ساده کردن، برای هر تخصیص $x$ به کلاس $j$، میخواهیم: $$\sum_{k} L_{kj}p(C_{k}|x)$$ را به حداقل برسانیم، اما این سؤال باقی میماند، چرا p (C_{k}|x)؟ به هر حال، من می توانم ببینم که انتظار نیاز به یک احتمال دارد، اما نمی توانم بفهمم که چرا باید احتمال کلاس واقعی را با توجه به x$ انتخاب کنم. با احترام | به حداقل رساندن ضرر مورد انتظار |
95381 | من در حال یادگیری روش های R و تجزیه و تحلیل داده ها هستم، بنابراین اگر سوالم خیلی ابتدایی است عذرخواهی می کنم. من یک نمونه داده از رکوردهای 4K+ از نظرسنجی جامعه شناختی دارم. چند متغیر جمعیت شناختی و تعداد زیادی سؤالات طبقه بندی شده از نوع بله/خیر وجود دارد. یک متغیر باینری وجود دارد که من سعی می کنم بر اساس سؤالات طبقه بندی شده و/یا جمعیت شناسی پیش بینی کنم. بسیاری از سوالات طبقه بندی شده پاسخی ندارند. میخواهم بدانم تلقی کردن فیلدهای خالی بهعنوان NA یا تنظیم آنها روی مقدار «noResponse» چه پیامدهایی دارد. درک من این است که اگر فیلدها NA باشند، R هنگام ایجاد یک مدل، آنها را از محاسبات نادیده می گیرد. اگر آنها را روی noResponse تنظیم کنم، R از فیلدها در محاسبات استفاده می کند و این نشان دهنده انتخاب پاسخ دهنده برای پاسخ ندادن است. به احتمال زیاد خوب است بدانید که آیا الگوی عدم وجود MCAR، MAR یا MNAR است، اما با توجه به تعداد متغیرها، من راهی برای تعیین آن جدا از حدس زدن نمی بینم. تنها چیزی که می دانم این است که مردم مجبور نبودند به هیچ یک از سؤالات غیر از متغیر وابسته باینری پاسخ دهند. | NA یا noResponse در متغیرهای طبقه بندی شده |
59234 | من کره زمین را به سطل های 100 مایل مربعی تقسیم کردم و سپس تعداد توییت های ارسال شده با موقعیت جغرافیایی در هر سطل را جمع آوری کردم. در ابتدا هر بن را روی نقشه بر اساس مقدار استاندارد شده (tweetInBin)/(maxTweetInAnyBin) رنگ آمیزی کردم. این تنها یک نقطه داغ را ایجاد کرد که تمام نقاط دیگر تقریباً یکنواخت رنگ داشتند.  همانطور که از نمودار صدک می بینید، صدک 100 نسبت به سطل های دیگر از نظر جمعیت آنقدر زیاد است که استانداردسازی با حداکثر val هرگونه نمایش معنی دار را از بین می برد. سوال من از شما بچه ها این است که چگونه داده های خود را رنگ آمیزی کنم تا بتوانم یک نقشه حرارتی معنی دار داشته باشم. من با ایده خطی کردن داده ها با کدگذاری رنگ بر اساس صدک ها به جای بر اساس جمعیت بازی می کردم. اساساً صدک 100 در مقیاس رنگی 100٪ شدت می یابد، در حالی که صدک 50 در مقیاس رنگی شدت 50٪ و غیره را دریافت می کند. تنها مشکل من با این روش این است که تفاوت واقعی در جمعیتها را به حاشیه میاندازد، درست مانند اینکه میانهها را به حاشیه میبرند. چگونه می توانم با اطلاعات پرت رفتار کنم در حالی که هنوز اطلاعات جمعیت را منتقل می کنم؟ | چگونه باید یک نقشه حرارتی را بر اساس داده های زیر رنگ آمیزی کنم؟ |
105260 | من در یک آژانس آنلاین کار میکنم، جایی که ما تستهای AB زیادی را انجام میدهیم تا تفاوتهای نسبت بین دو گروه را آزمایش کنیم (آزمون در مقابل کنترل). روش استاندارد در صنعت برای آزمایش تفاوت نسبت ها یا بر اساس توزیع نرمال یا مجذور کای است. تستهای پایه چی $\lambda$ تمایل زیادی به استفاده از دادههای زیادی دارند، که شما همیشه آن را ندارید، در حالی که تستهای توزیع عادی مشکلساز هستند، زیرا بر خلاف تقریب معمولی نسبتها با $0$ و $1$ محدود میشوند. من به همکارانم ادعا کردم که آزمایشی که از توزیع بتا استفاده می کند همیشه باید هر دو گزینه عادی / چی را بیش از حد انجام دهد، زیرا برای نسبت ها ساخته شده است. این کد R من برای انجام تست است، این تست نشان میدهد که تست بیش از گروه کنترل انجام شده است (95%): کتابخانه (ggplot2) number_of_success_test <- 46 number_of_success_ctroll <- 33 number_of_failures_test <- 2643 number_of_failures_beta (R1 <25) 100000، تعداد_آزمون_موفقیت، تعداد_آزمون_شکست، ncp=0) test2 <- rbeta(100000، تعداد_موفقیت_کنترل، تعداد_کنترل_شکست، ncp=0) تست <- data.frame(test1، test2) quantile(test2، <tagg=0. aes(x=test1)) + geom_density(color=red, bindwidth=0.0000001) + geom_density(aes(x=test2), bindwidth=0.0000001) + geom_vline(xintercept=quantile(test2, 0.95+) =چندک(تست1، 0.5)، color=red) g + xlab(CR) + geom_text(label=95 درصد - گروه کنترل، x=quantile(test2, 0.95)، y=15000) + geom_text(label=50 درصد - گروه آزمایش، x=quantile(test1, 0.5)، y=12000، color=red) درست می گویم؟ آیا واقعا همیشه بهتر است از توزیع بتا بر توزیع chi / نرمال در هنگام برخورد با تفاوت در نسبت ها استفاده شود؟ (همچنین، آیا رویکرد من در کد R درست است؟) | آیا واقعاً توزیع بتا بهتر از توزیع عادی برای آزمایش تفاوت دو نسبت است؟ |
35002 | من با تعریف یک مدل رگرسیون در مورد گنجاندن یک ثابت میانگین شده توسط متغیر وابسته گیر کردم. من یک مجموعه داده M=(id, x1,x2,x3,x4) دارم که در آن: id: شناسه محصول x1 است: یک متغیر پیوسته است که نشان دهنده قیمت است (0 تا 999 USD) x2: یک متغیر طبقه بندی است که نشان دهنده آیا محصول به دسته A تعلق دارد x3: یک متغیر طبقه بندی است که نشان می دهد آیا محصول به دسته B تعلق دارد یا خیر x4: یک متغیر گسسته است که دارای رتبه بندی مشتری با مقادیر است. V=(1،2،3،4،5) از طریق یک تبدیل برای هر محصول «id»، میانگینهای «x4» را بهعنوان «AVG(x4)_{i}» ایجاد میکنم که در آن «i={1،2، 3،4،5}`. اکنون مجموعه داده من تبدیل به M=(id, x1, x2, x3, AVG(x4)_{1}, AVG(x4)_{2}, AVG(x4)_{3}, AVG(x4)_{4} , AVG(x4)_{5}) میخواهم «AVG(x4)_{i}» را روی «x1، x2، x3» پسانداز کنم، اما به دلیل اینکه «x1» از تئوری دارای تعامل مستقیم با متغیر وابسته است، من می خواهم مدل را رگرسیون کنم: AVG(x4)_{i} = b1*x1+b2*x2+b3*x3+b4*(AVG(x4)_{i}*x1 )+C+e برای هر مقدار «i». * آیا این تعریف از مدل درست است؟ * آیا «b4» باید به دلیل همخطی بودن کاهش یابد؟ | رگرسیون با میانگین و هم خطی |
110992 | می خواهم در مورد میزان پاسخگویی بپرسم. من 2500 پست توزیع کرده ام. با این حال، من حدود 30 را دریافت کردم. سپس، 200 پست را به عنوان یادآوری با نامه جذاب ارسال کردم. من فقط یکی دوتا دریافت کردم. کل پرسشنامه های قابل استفاده: 21. بعد از مدتی مشخص کردم که باید از طریق ایمیل ارسال کنم. بنابراین، من بیش از 5000 ایمیل با حدود 6 یادآوری ارسال کردم. بیش از 500 نفر پرسشنامه را باز کرده اند، اما همه آنها پاسخ نداده اند. شاید افرادی که با پاسخ دادن به چند سوال تمایل به پاسخگویی نشان دادند حدود 250 نفر باشند. موارد قابل استفاده حدود 165 هستند. آیا نرخ پاسخگویی مشکلی دارد؟ مطلعین مالک-مدیر بنگاه های تولیدی کوچک و متوسط بودند. علاوه بر این، من همگنی را بین هر دو گروه (پستها و ایمیلها) آزمایش کردهام که میتوانستند ظاهر شوند، به جز اینکه در DV تفاوت معنیداری نشان میدهند؟ 1. آیا می توانم این سوال را مطرح کنم که هر دو گروه حتی نرخ پاسخ به پست ها در وهله اول خیلی پایین است؟ 2. اگر بله (من می توانم ادغام کنم)، چه کاری باید انجام دهم زیرا فقط هر دو گروه در مورد DV تفاوت دارند (نه IV، نه متغیرهای جمعیتی) متشکرم | میزان پاسخگویی در پژوهش |
111433 | من یک داده تجزیه و تحلیل نظرسنجی دارم که در آن پاسخ ها برای سؤالات مختلف مستقل از «ضعیف» تا «عالی» متغیر است. در زیر کارت امتیازی برای این پاسخ ها آمده است: عالی 100 خیلی خوب 90 خوب 75 مناسب 25 ضعیف 0 همچنین در داده های نظرسنجی تعدادی خالی وجود داشت که از من خواسته شد که میانگین کل ستون را جایگزین کنم. به عنوان مثال، اگر من 5 پاسخ برای مثال کیفیت غذا به عنوان 0، 25، 75، **خالی**، 100 داشتم، باید جای خالی را با 50 (میانگین از 4 پاسخ) جایگزین کنم. با این حال، متغیر وابسته من حاوی هیچ جای خالی نیست. سؤالات من به شرح زیر است: 1. آیا هنوز می توانم متغیرهای وابسته را به عنوان ترتیبی 2 در نظر بگیرم. چه نوع رگرسیون برای این نوع داده ها مناسب است، لجستیک خطی یا ترتیبی. طبق درک من، رگرسیون خطی در این مورد شکست خواهد خورد. با تشکر | نوع متغیر در تحلیل نظرسنجی |
92177 | من در حال انجام یک پروژه مرتبط با شناسایی پویایی فروش هستم. پایگاه داده من شامل 26 هفته پس از عرضه محصول است (بنابراین 26 مشاهدات سری زمانی با فاصله زمانی مساوی).   من از دو روش خوشهبندی سری زمانی استفاده کردم. ببینید کدام الگوها در گروههای مختلف غالب هستند (خوشهبندی براساس «واحد_فروش_هفته_هفته»). روش اول مبتنی بر k-medoids و روش دوم با خوشه بندی توسط پارامترهای مدل های رشد است. قدم بعدی من این است که بر اساس این خوشه ها پیش بینی کنم. آیا روش خاصی برای پیش بینی بر اساس خوشه های سری زمانی وجود دارد؟ در پروژه ام باید مبحث خوشه بندی و پیش بینی روی خوشه ها را با هم ترکیب کنم. من تحلیلهایم را در R اجرا میکنم، بنابراین از هرگونه پیشنهادی در مورد رویههای R سپاسگزار خواهم بود. لطفاً توجه داشته باشید که من در تجزیه و تحلیل سری های زمانی نسبتاً جدید هستم، بنابراین هر وضوحی که می توانید ارائه دهید، در R یا هر بسته ای که می توانید توصیه کنید که به انجام کارآمد این کار کمک کند، قابل قدردانی خواهد بود. | روش ویژه برای پیش بینی خوشه های سری زمانی در R? |
35006 | آیا کسی میتواند به من در ارائه ادامه کسری از توزیع نرمال چند متغیره کمک کند؟ چنین نمایشی برای حالت تک متغیره معروف است. برای مثال، > C-I را ببینید. سی لی. در لاپلاس کسری برای انتگرال عادی ادامه داد. _آن. > Inst. آمار. Math._، 44(1):107-120، مارس 1992. آیا چنین نمایش کسری ادامه دار برای حالت چند متغیره نیز وجود دارد؟ (من این پیشنهاد را با ارسال همان سوال در math stackexchange دنبال کردم، اینجا را ببینید) | نمایش کسری ادامه از توزیع نرمال چند متغیره |
74063 | من گروه های مختلفی از دلفین ها دارم، برخی با فرزندان، برخی بدون. من شمارش میکنم که هر گروه چند نوع آواز منتشر کرده است و میخواهم بفهمم که آیا تفاوت آماری بین گروههای دارای فرزند و بدون فرزند وجود دارد یا خیر. مجموعه داده من چیزی شبیه به: Group_number Vocal1 Vocal2 Offspring Gr01 5 3 0 Gr02 7 3 0 Gr03 4 4 0 Gr04 1 6 0 Gr05 7 9 0 Gr06 6 2 1 Gr07 2 4 1 Gr08 7r 2 06 1 من باید این نوع آواز را در یک زمان انجام دهم (من چند ده نوع دارم)؟ یا می توانم همه این کارها را در یک اجرا انجام دهم (مانند رگرسیون خطی چندگانه)؟ یک نفر به من گفت که یک chi-square انجام دهم، اما مطمئن نیستم که چگونه آن را انجام دهم، یا اینکه آیا مناسب است. T-student، ANOVA، MANOVA، GLM، مزایا و معایب هر روش با فرض اینکه داده های من به طور معمول توزیع شده باشد چیست؟ و اگر اینطور نباشد چه؟ ببخشید اگر سوال احمقانه و مبهم به نظر می رسد، اما شاید کسی می تواند به من یک آموزش ساده یا چیزی را راهنمایی کند. پیشاپیش متشکرم | چگونه متداول ترین متغیر را بین گروه ها آزمایش کنیم؟ |
8300 | من در حال بررسی تاثیر یک دارو بر EEG و شناخت بیماران صرعی هستم. ما دو بار، قبل و بعد از درمان پزشکی، EEG و آزمایشهای عصبی روانشناختی (NP) انجام دادهایم. برخی از پارامترها در تست های EEG و NP پس از درمان دارویی به طور قابل توجهی تغییر یافتند (با استفاده از آزمون مجموع رتبه ویلکاکسون انجام شد، زیرا توزیع نرمال نبود). اکنون می خواهم همبستگی بین تغییر در پارامترهای EEG و تغییر در تست های NP را محاسبه کنم. 7 پارامتر در پارامترهای EEG و 27 پارامتر در تست NP وجود دارد. من می خواهم تجزیه و تحلیل همبستگی را روی هر جفت انجام دهم و ببینم آیا هر جفتی به طور قابل توجهی همبستگی دارد یا خیر. سؤالات من این است: 1. آیا باید از همبستگی ناپارامتریک، مثلاً اسپیرمن، برای محاسبه $\rho$ استفاده کنم؟ (از آنجایی که مقادیر پارامترهای EEG و NP طبیعی نیستند) 2. از آنجایی که 7 پارامتر در EEG و 27 پارامتر در تست NP وجود دارد، باید 7*27 تعداد تست وجود داشته باشد که برای مقایسه های متعدد نیاز به اصلاح مقدار p دارد. از کدام روش استفاده کنم؟ من به دنبال روشی نه چندان محافظه کارانه هستم. من از پست دیگری دیدم که می توانم از تست جایگشت برای مقایسه های متعدد استفاده کنم. کسی می تواند توضیح دهد که چگونه می توانم این کار را انجام دهم؟ | تجزیه و تحلیل همبستگی و اصلاح $p$-values برای آزمایش چندگانه |
73634 | من در حال انجام برخی کارها بر روی مدلسازی جنبههای یک فرآیند فروش بودهام، که در آن هر فروش در حال پیشرفت به عنوان یک فرصت شناخته میشود. من در حال تلاش برای ایجاد مدلی برای پیش بینی زمان بسته شدن یک فرصت هستم (مهم نیست که از دست رفته یا برنده شود). یک فرصت داده شده دارای چندین ویژگی توصیفی است، مانند مقدار تخمینی فروش، نماینده فروش، و غیره. علاوه بر این، هر فرصت یک تاریخ پایان مورد انتظار دارد. این تاریخ بسته شدن مورد انتظار (یعنی تعداد روزهای مورد انتظار برای بسته شدن) بدیهی است که یک پیش بینی ارزشمند برای تاریخ بسته شدن واقعی است. در مدل فعلیام، من از این # روز پیشبینیشده اصلی تا پایان به همراه چندین ویژگی توصیفی بهعنوان ورودی الگوریتم جنگل رگرسیون چندک برای بدست آوردن چندک برای زمان واقعی بسته شدن استفاده میکنم. این رویکرد فعلی خوب کار می کند، اما فقط تخمین اولیه را برای زمان بسته شدن (تولید شده توسط نماینده فروش) در نظر می گیرد. در عمل، در طول چرخه عمر فرصت، این تخمین ممکن است چندین بار توسط نماینده فروش که روی فروش کار می کند تغییر کند. امیدوارم کسی راهنمایی داشته باشد که چگونه می توانم کل این فرآیند را مدل کنم، جایی که یک فرصت یک زمان اولیه برای بستن تخمین دارد که به تدریج در طول زمان به روز می شود. بدیهی است که این مدل هر روز به منظور بهروزرسانی پیشبینیها برای فرصتهایی که تاریخ بستهشان بهروز شده است، استفاده میشود. در نهایت، من فقط به دریافت چندک برای زمان واقعی برای بسته شدن اهمیت می دهم. | پیشبینی زمان تا رویداد با توجه به برآورد شخص ثالث که ممکن است در طول زمان تعدیل شود |
74066 | بنابراین، با کمک کسی در اینجا در آمار، میتوانم بیشتر مشکلاتم را حل کنم. حالا من در این قسمت گیر کرده ام: من کد زیر را دارم که اگر این مقادیر ثابت می شد، خیلی خوب کار می کرد. immediate.amput.below.EV watchful.wait.EV اکنون آنچه آنها هستند بردارها هستند. آنها یک بردار با اندازه [n_psa] را نشان می دهند. کاری که باید انجام دهم این است که برای مقادیر n_psa، یعنی برای 100 مقدار، به تکرار نیاز دارم و تفاوت بین هر مقدار immediate.amput.below.EV[1] - watchful.wait.EV[1] و غیره را بیابم، نتایج را ذخیره کنید. فقط به عنوان اعداد مثبت، حتی اگر خروجی یک عدد منفی در یک بردار جدید باشد، و میانگین بردار جدید را پیدا کنید. این کاری است که من انجام می دادم. DELTA_COST <- حداکثر (immediate.amput.below.EV,watchful.wait.EV) - حداقل (immediate.amput.below.EV,watchful.wait.EV) میانگین (DELTA_COST) | تفاوت بین دو بردار و میانگین نتیجه را پیدا کنید |
74068 | من میخواهم نرخ کشف نادرست را با استفاده از تستهای جایگشت تخمین بزنم. تا آنجا که من می دانم، چندین بسته R برای آزمایش های متعدد قابل استفاده هستند. من چندین مجموعه داده مستقل برای متاآنالیز دارم. من یک ضریب همبستگی پیرسون را محاسبه کردم، آن را به نمره Fisher-Z تبدیل کردم و سپس میانگین اندازه اثر هر جفت ژن را از چندین مجموعه داده مستقل محاسبه کردم. در واقع، در هر مجموعه داده، دو زیر گروه مختلف وجود دارد - افراد سالم و بیماران. در این شبکه همابر، من پروفایلهای بیان ژن را فقط در گروه بیمار تجزیه و تحلیل کردم. سوال من اینجاست. > برای تخمین FDR با استفاده از آزمایش جایگشت با ایجاد مقادیر بیان ژن تصادفی > و مستقل برای همه ژن ها در هر > مجموعه داده برای شکستن روابط بین ژنی و در عین حال دست نخورده نگه داشتن میانگین بیان و انحراف استاندارد ژن ها در هر > چه باید کرد. مجموعه داده؟ متأسفانه من هیچ ایده ای برای انجام آن ندارم. من هنوز با آمار و همچنین R. تازه کار هستم. ممنون می شوم اگر بتوانید به این سوال با کد مربوطه پاسخ دهید که می توانم اجرا کنم. | آزمون جایگشت متاآنالیز: ضریب همبستگی |
8309 | اجازه دهید A ماتریس $n \times p$ متغیرهای مستقل و B ماتریس $n \times 1$ مربوط به مقادیر وابسته باشد. در رگرسیون ریج، پارامتر $\lambda$ را تعریف می کنیم به طوری که: $\beta=(A^\mathrm{T}A+\lambda I)^{-1}A^\mathrm{T}B$ . حالا اجازه دهید [u s v]=svd(A) و $d_{i}=i^{th}$ ورودی مورب 's'. درجه آزادی (df)= $\sum_{i=1}^{n} \frac{(d_{i})^2}{(d_{i})^2+\lambda}$ را تعریف میکنیم. رگرسیون ریج ضرایب مولفههای کم واریانس را کوچک میکند و از این رو پارامتر $\lambda$ درجههای آزادی را کنترل میکند. بنابراین برای $\lambda=0$، که مورد رگرسیون نرمال است، df=n، و در نتیجه همه مستقلها متغیرها در نظر گرفته خواهد شد. مشکلی که من با آن روبرو هستم این است که مقدار $\lambda$ را با «df» و ماتریس «s» پیدا کنم. من سعی کردم معادله بالا را دوباره تنظیم کنم اما جوابی به شکل بسته دریافت نکردم. لطفا هر گونه راهنمایی مفید ارائه دهید. | چگونه پارامتر تنظیم را در رگرسیون پشته با درجات آزادی و ماتریس ورودی محاسبه کنیم؟ |
8303 | من یک خانواده دوجملهای glm را در R قرار میدهم، و یک گروه کامل از متغیرهای توضیحی دارم، و باید بهترین را پیدا کنم (R-squared به عنوان معیار خوب است). اگر یک اسکریپت بنویسم تا ترکیبات مختلف تصادفی متغیرهای توضیحی را بچرخانم و سپس ضبط کنم که بهترین عملکرد را دارد، واقعاً نمی دانم چه باید بکنم. و تابع جهش از بسته **جهش** به نظر نمی رسد که رگرسیون لجستیک انجام دهد. هر گونه کمک یا پیشنهاد می شود تا حد زیادی قدردانی Leendert | چگونه می توان زیر مجموعه رگرسیون لجستیک را انتخاب کرد؟ |
35009 | من دادههایی با چند هزار ویژگی دارم و میخواهم انتخاب ویژگیهای بازگشتی (RFE) را انجام دهم تا موارد غیر اطلاعاتی را حذف کنم. من این کار را با caret و RFE انجام می دهم. با این حال، شروع کردم به فکر کردن، اگر بخواهم بهترین تناسب رگرسیون را داشته باشم (مثلاً جنگل تصادفی)، چه زمانی باید تنظیم پارامتر (`mtry` برای RF) را انجام دهم؟ یعنی همانطور که میدانم caret RF را به طور مکرر روی زیرمجموعههای ویژگیهای مختلف با mtry ثابت آموزش میدهد. من فرض میکنم «mtry» بهینه باید بعد از اتمام انتخاب ویژگی پیدا شود، اما آیا مقدار «mtry» که caret از آن استفاده میکند بر زیرمجموعه انتخابشده ویژگیها تأثیر میگذارد؟ البته استفاده از caret با mtry کم بسیار سریعتر است. امیدوارم کسی بتواند این را برای من توضیح دهد. | انتخاب ویژگی و تنظیم پارامتر با مراقبت برای جنگل تصادفی |
78912 | قضیه pi-lamda بیان می کند که اگر $Q$ یک سیستم pi است که در یک سیستم لامبدا $L$ موجود است، آنگاه جبر سیگما ایجاد شده توسط $Q$ نیز در $L$ موجود است. ما می توانیم از این برای نشان دادن اینکه CDF به طور کامل توزیع یک متغیر تصادفی را تعیین می کند استفاده کنیم، اما من ارتباط را نمی فهمم. | چگونه می توان از قضیه پی-لامبدا برای تعیین اینکه یک CDF توزیع یک متغیر تصادفی را کاملاً تعریف می کند استفاده کرد؟ |
78915 | من یک مشکل دارم: y~x1+x2+x3+x4 که در آن متغیر پاسخ y همیشه بیشتر یا مساوی با متغیر توضیحی x1 است (برای مثال x1 نشان دهنده درآمد یک نفر از یک زوج و y درآمد کلی است. زوج). به نظر می رسد که رگرسیون خطی نرمال در این مورد ناکافی است. چه نوع مدل های رگرسیونی را باید بررسی کنم؟ | متغیر پاسخ با متغیر وابسته محدود شده است |
74064 | Subitization عبارت است از شمارش سریع و دقیق نمایشگرهای کم تعداد، که با یک غیر خطی شدید در نمودار زمان پاسخ از شمارش متمایز می شود. در زیر یک طرح نماینده، از Watson، D. G.، Maylor، E. A.، & Bruce، L. A. M. (2007) آمده است. توجه داشته باشید که میانگین زمان شمارش برای نمایشگرهای 1-3 تقریباً به صورت خطی افزایش می یابد، اما میانگین زمان شمارش برای 4 از روند خطی پیروی نمی کند. برخی تحقیقات نشان میدهند که «محدودیت» زیربنیسازی به شرایط کار و حافظه کاری شرکتکننده بستگی دارد.  من به دنبال راهی برای آزمایش محل قرارگیری آرنج هستم، با هدف نهایی شناسایی محدودیت زیربنایی یک شرکت کننده . در حال حاضر، بهترین ایده من انجام کاری مانند تضادهای چند جمله ای مکرر است. اصولاً من یک روند درجه دوم را در اعداد 1-3 و سپس در اعداد 1-4 و غیره آزمایش می کنم. می خواهم بگویم زمانی که روند درجه دوم قابل توجه است (تعدیل آزمایش های مکرر) از حد زیربنی سازی عبور کرده ام. با این حال، این حدود محدودیت های هوش آماری من است، بنابراین نمی توانم این ایده را خیلی خوب ارزیابی کنم. افکار؟ پیشاپیش ممنون | به دنبال آرنج در داده ها |
74065 | من کمی در مورد eigenfaces مطالعه کرده ام. فکر میکنم مفهوم اصلی آن را درک کردهام - مجموعهای از تصاویر چهره را بردارید و سپس ابعاد تصاویر را با استفاده از PCA کاهش دهید. چیزی که من واقعا نمیفهمم، تجسم نمایش ابعاد پایینتر تصاویر است. در تصاویر چهره، تعداد ابعاد، تعداد پیکسل ها است، بنابراین اگر ابعاد یک تصویر را کاهش دهید، تعداد پیکسل ها را کاهش می دهید. اما پس چگونه این تصویر را تجسم می کنید؟ آیا این فقط یک نسخه بسیار کوچکتر از نسخه اصلی تمام بعدی است؟ نمونه هایی که من دیدم به این شکل نیست. یا اینکه هر پیکسل را بزرگتر می کنید تا تصویر کلی به اندازه تصویر اصلی باشد؟ | سوال در مورد Eigenfaces (PCA اعمال شده بر روی تصاویر صورت) |
107921 | من سعی می کنم معاملات (مثلاً تراکنش های کارت اعتباری) را به عنوان خوب یا بد طبقه بندی کنم بدون اینکه به صورت دستی به آن نگاه کنم. (تنها راه برای فهمیدن خوب یا بد بودن یک تراکنش، بازرسی دستی همه جزئیات است.) من قوانین خاصی را برای برچسب گذاری تراکنش هایی که نیازی به بازرسی دستی ندارند، ابداع کرده ام. به عنوان مثال، بگویید من روزانه 100 تراکنش در حال پردازش است و بر اساس قوانین، 60 تراکنش بدون بازرسی دستی انجام می شود. حالا از بین آن 60 تراکنش، چند مورد را باید به صورت دستی بررسی کنم و کدام آزمایش را انجام دهم تا ببینم آیا این قانون کار می کند؟ | حداقل تعداد مشاهداتی که باید به صورت دستی بررسی شوند را تعیین کنید |
92174 | برای کاهش سردرگمی، برنامه خود را از ترافیک به اتاق جلسه تغییر دادم، بنابراین این برنامه در مورد مدل سازی کارایی اتاق جلسه است، مجموعه داده ها با قرار دادن نوعی سنسور حرکت در مرکز اتاق برای تشخیص و شمارش فعالیت های حرکتی ساخته شده است. . بنابراین دادههای من سریهای زمانی برای فعالیتهای حرکتی هستند. مدلی که من میخواهم بسازم به منظور بهینهسازی مدت زمان برای نشان دادن وضعیت اشغال یا عدم اشغال اتاق به افراد است. اگر یک سنسور رویداد حرکتی را در لحظه دریافت کند، به منظور تصمیم گیری برای مدت زمان نمایش وضعیت اشغال شده، برنامه به تاریخچه رویدادهای حرکت نگاه می کند، (مثلاً 5 دقیقه آخر) در صورتی که 20 رویداد متوالی حرکت را در آخرین رویداد بشمارید. 5 دقیقه، سپس به این معنی است که تراکم فعالیتها زیاد بوده است، بنابراین من فرض میکنم اتاق شلوغ بود و در دقیقههای متوالی بعدی شلوغ خواهد شد، سپس وضعیت اشغال را ایجاد کنید. زمان ماندن طولانی تر (5 دقیقه) قبل از تبدیل شدن به وضعیت رایگان اگر در مواردی که در 5 دقیقه گذشته فقط 2 رویداد نظارت شده است، به این معنی است که اتاق ممکن است شلوغ نباشد، این زمان وضعیت اشغال شده را فقط 1 دقیقه بگذارید. . تا اینجا من فقط نگران این هستم که از چه نوع مدل آماری برای پیش بینی مدت زمان اشغال شده بر اساس آخرین تاریخچه حرکت 5 دقیقه استفاده کنم؟ | نحوه مدل سازی برای بهبود بهره وری استفاده از اتاق بر اساس سابقه سنسور حرکت |
111439 | در حین آزمایش میزان خطای نوع I با استفاده از R، متوجه شدم که با ANOVA 2 طرفه بیش از 5٪ موارد مثبت کاذب دریافت می کنم. با این حال، من فکر می کردم یکی از دلایل استفاده از ANOVA (برخلاف چندین آزمایش) کنترل خطای نوع I است. خب، من چه غلطی می کنم؟ کد R اینجاست: generate.dat <- function(N=30) # داده ها را با 2 عامل تولید کنید. # N تعداد آزمودنی ها در هر گروه است. { # id شناسه موضوع است، ما از N*4 استفاده می کنیم زیرا چهار گروه وجود دارد. گروه # نام کامل گروه است، مقدار A1، A2، B1، B2 # نتیجه اندازهگیری شده/مشاهدهشده در آزمایش ما، دوباره N*4 است. # مقدار میانگین برای همه گروه ها 0 است، یعنی هیچ اثری از گروه وجود ندارد. dat <- data.frame(id=factor(1:(N*4)), group=factor(c( rep(c(A1, A2), every=N), rep(c(B1 ، B2)، هر=N)))، value=rnorm(N*4)) # تقسیم گروه به فاکتورهای جداگانه dat$factor1 <- factor(substring(dat$group, 1, 1)) dat$factor2 <- factor(substring(dat$group, 2, 2)) dat } # e.g. # dat <-gene.dat(3) # print(dat) # id group value factor1 factor2 # 1 1 A1 0.42385602 A 1 # 2 2 A1 -0.34829466 A 1 # 3 3 A1 -1.40946883 A 1 # 4 4. 4 4 A2 A 2 # 5 5 A2 -1.26614034 A 2 # 6 6 A2 -1.18024188 A 2 # 7 7 B1 -0.86129559 B 1 # 8 8 B1 -1.30517594 B 1 # 9 9 B1 0.502121020 B1 0.50212184 0.42755864 B 2 # 11 11 B2 -0.03262990 B 2 # 12 12 B2 0.85593000 B 2 do.anova <- تابع(dat) # انجام یک آنووای دو طرفه بین موضوعات بر روی dat. # کمترین مقدار p بدست آمده را برگردانید. # (ما علاقه مندیم که آیا حداقل یک اثر قابل توجه # در این مجموعه داده خاص وجود دارد). {نتایج <- aov(value ~ factor1 * factor2, data=dat) min( summary(نتایج)[[1]]$`Pr(>F)`[1:3] ) } # Peform 1000 تکرار: هر بار # مقداری داده تولید کنید و کمترین مقدار p # را از anova حاصل بدست آورید. out <- replicate(1000, do.anova(generate.dat())) # چند بار از 1000 اثر قابل توجهی داشت؟ sum (out < 0.05) / 1000 # در حدود 14% من شک دارم که واقعاً 14% شانس پیدا کردن یک اثر وجود داشته باشد، پس من چه اشتباهی انجام می دهم؟ با تشکر فراوان. | چرا نرخ خطای نوع I 10-15% برای ANOVA 2 x 2 دریافت می کنم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.