_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
26867
من یک مهندس نرم افزار هستم و از من خواسته شده است که به برخی از مشکلات عملکردی که در مورد برخی از کارهای دسته ای در سیستمی که روی آن کار می کنم داریم نگاه کنم. کارهای دسته‌ای داده‌ها را برای دسته‌های مختلف (A-Z) تولید می‌کنند، اما ترکیب دسته‌ها بسته به زمان روز متفاوت است. کار روزانه 5 بار اجرا می شود. مقدار کل داده در هر شغل تقریباً 2000 ورودی است، با ترکیبی متفاوت از دسته‌ها (به عنوان مثال، شغل 9 صبح تقریباً 200 دسته B، 1200 دسته A و 600 دسته C دارد). من کل زمان اجرای کار را نیز ثبت کرده ام، با این حال به روشی برای تخمین/تقریبی زمان لازم برای اجرای یک نقطه داده جداگانه برای اجرای هر دسته نیاز دارم. من داده هایی دارم که دسته (A-Z) را برای هر اجرای کار (1-5) در 30 روز گذشته نشان می دهد. از استفاده از جداول محوری، تقریباً مطمئن هستم که یک دسته خاص بر عملکرد کار 9 صبح تأثیر می‌گذارد (کارهای دیگر هیچ ورودی برای این دسته ندارند و به خوبی اجرا می‌شوند)، اما من به راهی برای اثبات این موضوع نیاز دارم. من مطمئن نیستم که چگونه باید در این مورد اقدام کنم. همانطور که گفتم، می‌توانم از نمودار محوری استفاده کنم تا نشان دهم که ورودی‌های دسته B زیادی در کار ساعت 9 صبح وجود دارد، با این حال من یک روش دقیق ریاضی برای حمایت از این فرضیه را ترجیح می‌دهم. از کمک شما متشکرم ایدوس
مقایسه تاثیر متغیر در یک دسته برای داده های نمونه معین
28471
من با آنتروپی همانطور که از نظریه اطلاعات تعریف شده است، آشنا هستم، که به سادگی $ H(X) = \sum_{i=1}^{n} p(x_{i}) \log p(x_{i}) $ است، برای مجموعه ای گسسته از احتمالات از نظر خوشه‌بندی، آنتروپی می‌تواند برای اندازه‌گیری کیفیت راه‌حل خوشه‌بندی استفاده شود. به صورت $ E(S_{r}) = - \frac{1}{\log{q}} \sum_{i=1}^{q} \frac{n_{r}^{i}} تعریف می‌شود {n_{r}} \log \frac{n_{r}^{i}}{n_{r}} $، که $S_{r}$ یک خوشه است، $q$ تعداد کلاس‌های موجود در داده‌ها است. مجموعه، $n_{r}^{i}$ تعداد اسناد کلاس $i$'th است که به $r$'th کلاستر اختصاص داده شده است و $n_{r}$ اندازه خوشه است. این تعریف در مقایسه تجربی و نظری توابع معیار انتخاب شده برای خوشه بندی اسناد دقیقاً یکسان است. من ایده پشت چرایی استفاده از آن را درک می کنم، اگرچه نمی دانم چگونه از اولین تعریف آنتروپی به معادله دوم رسیدیم.
تلاش برای درک رابطه بین دو تعریف آنتروپی
48495
من یک روال شبیه سازی دارم که اندازه گیری های یک متغیر پیوسته را تولید می کند و مقدار واقعی را نیز می دانم. روش بهینه برای ترسیم گرافیکی، تحلیل و ارائه خطا یا اندازه گیری چیست؟ هر گونه ارجاع، پیوند، ایده، اشاره به جهت درست بیش از حد مورد استقبال قرار می گیرد.
اندازه گیری را با ارزش واقعی مقایسه کنید: روش ها و تجسم
46955
من به‌تازگی به یک مقاله ویکی برخوردم: http://en.wikipedia.org/wiki/Endogeneity_(economics)#Omitted_Variable در بخش هم‌زمانی یک مدل توضیح داده شده است که می‌گوید هر دو متغیر با کد تعیین می‌شوند، یعنی. هر کدام روی دیگری تأثیر می‌گذارند، و یک SEM _static_ است. در این زمینه یعنی؟ حدس من این است که اگرچه این یک مدل پویا است، ما در واقع نمی توانیم وابستگی بین $y_i$ و $z_i$ را مشاهده کنیم. برای مشاهده این وابستگی ها حداقل به یک تغییرگر اضافی نیاز است.
ایستا در زمینه SEM به چه معناست؟
26862
من یک مجموعه داده طولی (پانل) برای رشد سرمایه گذاری برای 120 کشور در بازه زمانی 1960-2008 دارم. اساساً به عنوان 120 سری زمانی مشاهده می شود. چیزی که من به آن علاقه دارم این است که کشورها را بر اساس شکل منحنی رشد آنها در طول زمان گروه بندی کنم. بنابراین این که آیا آنها شکل منحنی های خود مشابهی دارند یا خیر، تنها معیاری است که برای گروه بندی آن کشورها نیاز دارم. من بسته KmL را امتحان کرده‌ام (K-means برای داده‌های طولی)، اما به نظر می‌رسد که (لطفاً اگر اشتباه می‌کنم اصلاح کنید) این روش به این نتیجه می‌رسد که کشورهای گروهی که دارای میانگین ارزش (یا بزرگی) مشابه (رشد سرمایه‌گذاری) هستند، نه دقیقاً با توجه به شکل مشابه به عنوان مثال، KmL به گروه بندی کشورهایی با رشد سرمایه گذاری بالا، متوسط ​​رشد سرمایه گذاری متوسط، رشد سرمایه گذاری پایین و غیره تمایل دارد. آنچه من به دنبال آن هستم صرف نظر از ارزش مطلق رشد سرمایه گذاری است. تا زمانی که دو کشور الگوی مشابهی از رشد خود را در طول منحنی زمان نشان دهند، باید با هم در یک گروه گروه بندی شوند. آیا کسی می تواند راهی برای اجرای این خوشه بندی به من بگوید؟ من از پست های قبلی متوجه شده ام که تست همگرایی ممکن است کار کند. هر گونه پیشنهاد تا حد زیادی قدردانی خواهد شد!
چگونه می توان خوشه بندی سری های زمانی (طولی) را کاملاً بر اساس شکل منحنی ها انجام داد؟
70408
بنابراین من یک طرح تودرتو (split-plo، فاکتوریل 2x4) را با ANOVA تجزیه و تحلیل کردم و نشان داد که در سطوح فاکتور b تفاوت وجود دارد. من با آزمون t و مقایسه میانگین ها بسته به عامل b ادامه دادم. اگر مفروضات آزمون t مثبت باشد آیا می توانم فقط 2 گروه را بدون در نظر گرفتن طرح تودرتو با هم مقایسه کنم؟ یا باید ANOVA با فاکتور b که هر بار به 2 گروه محدود می شود انجام دهم؟ هر دو را انجام داد و نتایج متفاوتی گرفت. Thx B.
طراحی تو در تو پس از anova tukey
8899
فرض کنید من 2 متغیر $A$ دارم: $P(A) =$ 0.01 $P( \lnot A) =$ 0.99 و $B$ که به $A$ بستگی دارد: $P(B|A) =$ 0.05 $P ( \lnot B|A) =$ 0.95 $P(B| \lnot A) =$ 0.01 $P( \lnot B| \lnot A) = $ 0.99 اعمال: $$P(B)=\sum_{A}^{} P(B|A)P(A)$$ ما دریافت می کنیم $P(B)=(0.01)(0.05)+( 0.99)(0.01)=0.0104$ خوب، سوال من این است: اگر احتمال $P(B)=1$ را تنظیم کنم چگونه مقادیر $P(A)$؟ از آنجایی که $B$ به $A$ بستگی دارد، چگونه همه احتمالات تحت تاثیر قرار می گیرند؟ چگونه $P(A)$ را محاسبه کنیم؟ $P(B|A)$؟
چند سوال در مورد احتمال شرطی
20324
سابقه و هدف: من در حال توسعه یک چارچوب آماری پایتون هستم، نه به این دلیل که موارد موجود در آنجا بد هستند، بلکه به این دلیل که به من کمک می کند پایتون و آمار را یاد بگیرم. من آمار AP را گرفته‌ام و کتاب‌ها و مقالات پراکنده‌ای را خوانده‌ام. من بیشتر از همه حاضرم در مورد هر تکنیک درخشانی که مشکلم را حل می کند مطالعه کنم: مسئله این است که من هنوز نام تکنیک مذکور را نمی دانم. مشکل: با توجه به دو یا چند چیز، که هر کدام یک مقدار X می گیرند و احتمال آن نتیجه را برمی گرداند (در یک محدوده ثابت معین، بنابراین 0.00 تا 01. مقادیر x در آن محدوده و به ترتیب 005.005 و 0.015 را برمی گرداند)، و یک مجموعه داده، از نظر کمی مشخص می کند که کدام تابع با داده ها مطابقت دارد. انجام معکوس (در نظر گرفتن یک احتمال و برگرداندن مقدار X) یک امتیاز خواهد بود. ایده: بتوانید رگرسیون لجستیک، درخت داده و پیش‌بینی‌های سبک «اگر بله در 3 سال گذشته، 0.8 else 0.01» را مقایسه کنید. آیا راه معقولی برای این کار وجود دارد؟ متشکرم.
چگونه می توانم چندین پیش بینی دلخواه را برای یک مجموعه داده معین مقایسه کنم؟
62176
موردی را در نظر بگیرید که من داده‌ای دارم که ابعاد $n$ دارد و می‌خواهم این داده‌ها را به ابعاد $n-1$ تبدیل کنم. برای این مشکل در PCA ما تمام نقاط داده را به یک صفحه بعد $n-1$ با حفظ واریانس پروژه می‌دهیم. اگر با استفاده از SVM یک ابرصفحه ترسیم کنم (که یک صفحه بعد $n-1$ خواهد بود) و تمام نقاط داده را به آن صفحه نمایش دهم، چه تفاوتی با صفحه PCA خواهد داشت؟
آیا می توان از SVM برای کاهش ابعاد از n بعد به n-1 استفاده کرد؟
20323
فواصل پیش‌بینی بالا و پایین برای دوره‌های پیش‌بینی توسط تابع ()forecast ارائه می‌شود. با این حال، به نظر نمی‌رسد فاصله‌های پیش‌بینی یا اطمینان برای مقادیر برازش شده در محدوده داده‌های واقعی وجود داشته باشد. چرا این است؟
چرا بسته پیش‌بینی هموارسازی نمایی در R فواصل اطمینان را برای مقادیر برازش ارائه نمی‌کند؟
58585
چگونه می توانم بفهمم هسته RBF در SVM چه می کند؟ منظورم این است که من ریاضیات را درک می کنم، اما آیا راهی وجود دارد که احساس کنم این هسته مفید خواهد بود؟ آیا نتایج حاصل از kNN به SVM/RBF مربوط می شود زیرا RBF حاوی فواصل برداری است؟ آیا راهی برای دریافت احساس برای هسته چند جمله ای وجود دارد؟ من می دانم که هر چه ابعاد بالاتر باشد، تکان دهنده تر است. اما من می‌خواهم به جای امتحان کردن همه هسته‌های ممکن و انتخاب موفق‌ترین هسته‌ها، شهودی دریافت کنم که هسته‌ها چه می‌کنند.
چگونه اثر RBF SVM را درک کنیم
79777
در زیر نمودار دو متغیر X و Y وجود دارد که هر کدام نشان دهنده داده های شمارش هستند. N=348. به مقیاس محورها توجه کنید: ![http://i.imgur.com/tNGyTX5.jpg](http://i.stack.imgur.com/ih1yU.jpg) Y تقریباً منطقی است، اما X ندارد تناسب مناسب (شامل پواسون، دوجمله ای منفی، لگ نرمال و گامای تبدیل لاگ). ضریب اسپیرمن بین X و Y نزدیک به 0 است و p-value برای رد عدم همبستگی بسیار بالا است. از نمودار، به نظر می رسد که ترکیبی از مقادیر افراطی هر دو x و y وجود ندارد. وقتی تبدیل X و Y را وارد می کنم، نمودار زیر نتیجه می شود: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DVVHU.jpg) واضح است که هر ظاهری از الگو ناپدید شده است. سوالات من این است: * چرا ترکیبی از مقادیر افراطی در مقیاس خطی وجود ندارد، اما در مقیاس ورود به سیستم وجود ندارد؟ * آیا فقدان ترکیب مقادیر افراطی در مقیاس خطی اهمیتی دارد، و آیا به هر حال برای بررسی بیشتر وجود دارد؟ هدف این پژوهش اکتشافی است.
متغیرها فاقد همبستگی هستند، اما دارای الگو هستند
12362
آیا کسی می‌تواند به من توضیحی در سطح مقدماتی بدهد (به مدخل ویکی‌پدیا فکر کنید) که تشخیص نقطه تغییر متوالی چیست؟
تشخیص نقطه تغییر متوالی چیست؟
79774
من در حال انجام مجدد تجزیه و تحلیلی هستم که در یک مقاله _Experimental Designs در اندازه گیری اثربخشی تبلیغات_ انجام شده است، جایی که آنها یک مدل ANOVA تودرتو را بر روی یک نمونه طراحی شده متقاطع نصب کرده اند![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur. com/O372d.png) در مقاله آنها دوره و درمان (ABC) را در تکرارها برازش داده اند. مدل «R» شبیه aov است (فروش ~ تکرار + ذخیره + تکرار / درمان + تکرار / دوره) اما زمانی که من باقیمانده ها را در هر درمان ترسیم کردم، نمودار جعبه دقیقاً واریانس یکسانی را در سطوح نشان داد (خیلی خوب است که درست باشد.) توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0AW1W.jpg) من سعی کردم باقیمانده ها را مشاهده کنم، و متوجه جمع باقی مانده شدم در تکرار = 0 در تکرار مجموع باقیمانده برای trt = 0، دوره = 0 و ذخیره 0 است. چه چیزی را از دست داده ام؟
نصب طرح متقاطع به عنوان مدل ANOVA تو در تو - مشکل باقیمانده
1590
اگر مقدار r 0.60 باشد، آیا می توان گفت که افزایش در یک متغیر 60% به احتمال زیاد به معنای افزایش متغیر دیگر است؟
آیا مقدار r 0.60 به این معنی است که افزایش یک متغیر به احتمال 60 درصد به معنای افزایش متغیر دیگر است؟
62179
من یک مجموعه داده دارم، total_data و یک مدل برای آن اعمال کردم. برای مثال، مدل دارای یک پارامتر $\beta$ است، و من log-likelihood مدل برازش شده را محاسبه کردم (با استفاده از روش حداکثر درستنمایی). در ضمن، من یک متغیر طبقه بندی دارم که می تواند total_data را به دو زیر مجموعه تقسیم کند: high_risk_data و low_risk_data. اکنون، می‌توانم مدل مشابهی را برای هر زیر مجموعه اعمال کنم و $\beta_1$ و $\beta_2$ را بدست بیاورم. من می توانم log-likelihood را از هر فیتینگ جمع بندی کنم و نوعی از احتمال log- احتمال کلی را برای total_data تحت مدل 2 بدست بیاورم. مدل 2: پارامترهای $\beta_1$ و $\beta_2$ بر روی هر زیرمجموعه داده نصب می‌شوند. آیا می توانم آنها را به عنوان مدل های تو در تو در نظر بگیرم، زیرا در مدل 1 یک پارامتر کمتر دارم؟ آیا می توانم برای انتخاب مدل بهتر از آزمون نسبت درستنمایی استفاده کنم؟ من یک راه استانداردتر برای به دست آوردن چیزی شبیه به model2 می‌دانم: یک گروه-متغیر طبقه‌بندی دوم را معرفی کنید و مدل ($\beta$,$\beta_{group}$) را در total_data اعمال کنید. آزمون نسبت احتمال برای آزمایش در برابر H0:$\beta_{group}=0$ خواهد بود. آیا این همان روشی است که در بالا توضیح دادم؟
آیا این یک مدل تودرتو است و آیا می توانم از تست نسبت احتمال استفاده کنم؟
58580
مدل های زیادی برای $Y$ ترتیبی وجود دارد، به عنوان مثال مدل لجستیک ترتیبی شانس متناسب، مدل نسبت ادامه و مدل پروبیت تجمعی. اولین و سومین آنها در کلاسی از مدل‌ها هستند که Prob$(Y \leq j | X) = F(\alpha_{j} + X\beta)$ را مشخص می‌کنند که در آن $F$ یک تابع بدون کاهش است (به عنوان مثال، لجستیک یا CDF معمولی). این را می توان با داشتن یک خانواده از توابع (به عنوان مثال، یک خانواده 3 پارامتری) و تخمین پارامترهای این خانواده علاوه بر $\alpha، \beta$ تعمیم داد. یا شاید راهی برای انجام این کار به صورت غیر پارامتری در $F$ وجود داشته باشد. آیا کسی روش های توسعه یافته در این مسیر را دیده است؟ در میان چیزهای دیگر، این یک رقیب رگرسیون چندکی خواهد بود.
تعمیم مدل های احتمال تجمعی برای Y ترتیبی
91402
آیا مقدار رهگیری یک معادله رگرسیون در مجموعه داده سری زمانی معنی دارد؟ فرض کنید من یک مجموعه داده دارم: رهگیری 27.512 است، اما ما 95 درصد مطمئن هستیم که رهگیری بین -34 و 89.074 است. آیا مقدار رهگیری معنی دارد؟ **آمار با استفاده از SPSS:** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/afEFA.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur. com/IY3QN.jpg)
تفسیر رهگیری یک خط رگرسیون در داده های سری زمانی
115041
من دو بردار $v_1$، $v_2$ دارم. هر کدام می توانند مقادیر دلخواه داشته باشند و من همبستگی آنها را اندازه گیری می کنم. $v_1$ و $v_2$ نیز می‌توانند از نظر طول متفاوت باشند و من آن را صفر می‌کنم تا طول بردار طولانی‌تر را نشان دهم. تغییر ناپذیری همبستگی امکان یافتن کوتاهتر را در بردار طولانی تر می دهد. گاهی اوقات هر کدام می‌توانند همه ویژگی‌ها را روی 0 تنظیم کنند. اگر $v_1 = [1,2,3]$ و $v_2 = [0,0,0]$، همبستگی NAN را برمی‌گرداند. از نظر ریاضی منطقی است، اما نه در زمینه من. $[0,0,0]$ ورودی معتبری است و من همچنان می‌خواهم شباهت $v_1$ و $v_2$ را تشخیص دهم. وقتی $v_1$ یا $v_2$ 0 است، چگونه می توانم همبستگی یا شباهت را دریافت کنم؟
شباهت بین [x,y,z] و [0,0,0]
62175
تخمین‌های حداکثر احتمال جریمه‌شده فرث، رگرسیون لجستیک دقیق و رگرسیون لجستیک بیزی (به عنوان مثال bayesglm) می‌توانند جدایی در رگرسیون لجستیک را توضیح دهند. اما چگونه وزن‌های احتمال و طرح‌های پیمایش پیچیده را در این روش‌ها (به عنوان مثال در R یا Stata) محاسبه کنیم؟
جدایی در رگرسیون لجستیک در یک بررسی پیچیده؟
68662
من در زمینه یادگیری عمیق تازه کار هستم و اولین قدم برای من خواندن مقالات جالب از سایت deeplearning.net بود. در مقالاتی در مورد یادگیری عمیق، هینتون و دیگران بیشتر در مورد استفاده از آن در مسائل تصویر صحبت می کنند. آیا کسی می تواند به من پاسخ دهد آیا می توان آن را برای مشکل پیش بینی مقادیر سری زمانی (مالی، ترافیک اینترنتی و ...) اعمال کرد و در صورت امکان روی چه موارد مهمی باید تمرکز کنم؟
استفاده از یادگیری عمیق برای پیش بینی سری های زمانی
115043
سلام به همه، من در حال انجام یک طبقه‌بندی نظارت شده از داده‌های برچسب‌گذاری شده باینری هستم که در آن ترکیبی از ویژگی‌های طبقه‌بندی و پیوسته دارم. من در مجموع 6 ویژگی و نزدیک به 6500 نمونه دارم. می‌خواستم بدانم آیا عملکرد مورد انتظاری از یک طبقه‌بندی بر اساس (بایاس/واریانس) وجود دارد که ممکن است بر تصمیم من برای انتخاب یک طبقه‌بندی‌کننده بر دیگری تأثیر بگذارد. من داده های گم شده، برچسب های پر سر و صدا و نقاط پرت در داده هایم دارم. فهرست طبقه‌بندی‌کننده‌هایی که می‌خواهم از بین آنها انتخاب کنم، رگرسیون لجستیک، kNN، درخت‌های تصمیم‌گیری و یادگیرندگان گروه هستند. من weka را امتحان کردم و تا کنون k-nn بهترین AUC را پس از اعتبارسنجی متقاطع 10 برابری و آزمایش روی یک مجموعه داده جدید ارائه کرده است. من سعی می کنم با توجه به نقاط قوت و مشکلات این طبقه بندی کننده ها پیدا کنم که آیا یکی نسبت به دیگری بهتر است و چرا؟ از هر کمکی بسیار سپاسگزاریم.
چه طبقه بندی کننده ای را انتخاب کنیم؟
67523
با توجه به یک ماتریس کوواریانس متقارن، قطعی مثبت، $S$، چگونه می توانم یک ماتریس $C$ را به گونه ای محاسبه کنم که $CSC^T$ ماتریس هویت $I$ باشد؟
چگونه یک ماتریس کوواریانس را به ماتریس Identity مورب تبدیل کنیم
48490
در سوال من در مورد یک مدل پیش بینی بار با استفاده از داده های دما به عنوان متغیرهای کمکی به من توصیه شد که از خطوط رگرسیون استفاده کنم. به نظر می رسد این واقعاً یک راه حل است. اکنون با مشکل زیر روبرو هستم: اگر من مدل خود را بر روی داده های زمستانی کالیبره کنم (به دلایل فنی کالیبراسیون را نمی توان به صورت روزانه انجام داد، بلکه هر دو ماه یکبار) و به آرامی بهار می آید، داده های دمایی خارج از مجموعه کالیبراسیون را خواهم داشت. آیا تکنیک‌های خوبی برای قوی‌تر کردن اسپلاین رگرسیون برای مقادیر خارج از محدوده کالیبراسیون وجود دارد؟ تجربه یا مرجعی دارید؟ با تشکر
استفاده از خطوط رگرسیون برای مقادیر خارج از محدوده کالیبراسیون
111297
من زمان صرف شده برای حل یک مسئله را با الگوریتم $X$ و با الگوریتم $Y$ اندازه گیری کرده ام. مدت زمان زیادی طول می کشد، بنابراین من فقط 10 داده برای هر الگوریتم دارم: $$ X : ( x_1, x_2, \dots , x_{10}) \\ Y : ( y_1, y_2, \dots , y_{10} ) $$ در مقاله خود من نسبت $$ r = \frac{\sum_{k=1}^{10} x_k را گزارش کردم }{\sum_{k=1}^{10} y_k } $$ و نتایج آزمون رتبه امضا شده Wilcoxon را ارائه کرد. با این حال، داور مقاله من ** واریانس بین 10 نسبت** را می خواهد. توزیع یک **نسبت** به طور شهودی بسیار **نامتقارن در حدود 1.** است (شما فقط بازه $(0; 1)$ برای درک این واقعیت دارید که الگوریتم $X$ سریعتر است، اما کل $( 1 ; \infty)$ برای درک این واقعیت که $Y$ سریعتر است). بنابراین حتی یک انحراف استاندارد به خوبی تخمین زده شده نیز می تواند فایده چندانی نداشته باشد. این سوال ارتباط نزدیکی با سوال قبلی من دارد. پاسخ پذیرفته شده پیشنهاد می کند که **تقارن** داده ها را با استفاده از تابع **لگاریتم** و ایجاد فاصله **اطمینان** برای نسبت. با این حال من نسبت های بسیار زیادی دارم (از آنجایی که روی بسیاری از مشکلات آزمایش کردم) و می ترسم نوشتن فواصل اطمینان برای هر نسبت خوانایی مقاله را کاهش دهد. 1. آیا باید از ارائه واریانس نسبت ها خودداری کنم؟ 2. آیا راه دیگری برای گزارش واریانس غیر از خطای استاندارد وجود دارد؟ 3. اگر رد کنم، آیا ادبیاتی وجود دارد که به این موضوع اشاره می کند که گزارش واریانس نسبت ها ایده بدی است؟
آیا باید واریانس داده های نامتقارن، مانند نسبت ها را گزارش کنید؟
115047
من از scipy استفاده می کنم و می خواهم مقدار مجذور کای جدول احتمالی درصد را محاسبه کنم. این جدول من است، میزان عود است. می‌خواهم بدانم آیا مقادیر غیرمنتظره‌ای وجود دارد، یعنی گروه‌هایی که میزان عود به‌ویژه بالاست: 18-25 25-34 35-44 ... مردان 37% 36% 64% ... زنان 24% 25% 32% ... داده های اساسی به این صورت است: 18-25 25-34 35-44 ... مردان 667 of 1802 759 of 2108 1073 of 1677 ... آیا باید فقط از مقادیر خام استفاده کنم، بنابراین یک جدول اقتضایی مانند این داشته باشم، و یک آزمایش کای دو روی مقادیر خام اجرا کنم؟ 18-25 25-34 35-44 ... مردان 667 759 1073 ... این کاملاً درست به نظر نمی رسد، زیرا اندازه نسبی اساسی هر گروه را نشان نمی دهد. من گوگل کرده ام، اما نتوانسته ام توضیحی پیدا کنم که بفهمم چه کاری باید انجام دهم. چگونه باید مقادیر غیرمنتظره را در داده هایی مانند این پیدا کنم؟
محاسبه مقادیر خی دو برای درصد؟
67528
من در مورد نحوه محاسبه پایه تصادفی کمی سردرگم هستم. اگر درست متوجه شده باشم خط مبنا تصادفی با جمع کردن مجذور احتمالات همه کلاس ها محاسبه می شود. بنابراین، طبقه‌بندی‌کننده پایه تصادفی، به‌جای انتخاب متداول‌ترین کلاس، یک کلاس را به‌طور تصادفی انتخاب می‌کند. من 7 کلاس دارم، هر کدام با # مورد و در مجموع X. چگونه احتمالات را پیدا کنم؟
چگونه می توانم پایه تصادفی را محاسبه کنم؟
66693
من یک مجموعه داده k x n دارم که در آن k برابر با تعداد متغیرها و n برابر با تعداد مشاهدات در هر متغیر است. من می‌دانم که این داده‌ها با هم مرتبط هستند و می‌خواهم آنها را با تبدیل سفیدکننده معمولی سفید کنم. به طور ناخوشایندی، k بسیار بیشتر از n است، به طوری که هنگام تخمین ماتریس کوواریانس k x k، معکوس نخواهد بود. برای حل این مشکل، ماتریس کوواریانس را با استفاده از انقباض بهینه تخمین زدم، اما ماتریس کوواریانس به‌دست‌آمده دیگر برای سفید کردن مناسب نیست. من برای ایده هایی در مورد نحوه سفید کردن این داده ها سپاسگزار خواهم بود.
سفید کردن مجموعه داده با مشاهدات کمتر نسبت به متغیرها
79775
من در مورد نحوه تفسیر نتایج من برای تابع polr() در R- برای رگرسیون لجستیک ترتیبی من کمک می خواهم. تفسیر نتایج به خصوص دشوار است زیرا هیچ مقدار p وجود ندارد. من توابع استاندارد برازش مدل، از جمله پیش‌بینی، خلاصه‌سازی را امتحان کرده‌ام و نتایجی را که می‌دهد را درک نمی‌کنم. آیا برخی می توانند روش گام به گام تفسیر نتایج را پس از تکمیل مدل «polr()» توضیح دهند؟ من چندین بار پست را خوانده‌ام اما احساس می‌کنم که نحوه تفسیر نتایج را به وضوح توضیح نمی‌دهد: چگونه خروجی تابع polr R (رگرسیون لجستیک مرتب شده) را درک کنیم؟
نحوه تفسیر نتایج تابع polr() در R، رگرسیون لجستیک ترتیبی
66692
تا به حال فکر می کردم که سطح معنی داری و فاصله اطمینان مکمل یکدیگر هستند، یعنی وقتی سوالی از من می خواست که یک آزمون فرضیه با سطح معناداری $p %$ انجام دهم، یک $(1-p)$ می سازم. فاصله اطمینان و ببینید که آیا فرضیه صفر را در بر می گیرد یا خیر. با این حال، من در حال ایجاد یک مسئله در خطوط زیر بودم که باعث شد به برخی مفاهیم خود شک کنم: این مسئله به من چند تابع چگالی احتمال متغیر تصادفی و مقداری نمونه داد و از آن خواست تا آزمون فرضیه را برای $H_0 انجام دهم:\theta=1$ و $H_a:\theta\neq1$ در سطح معناداری $5\%$. از آنجایی که فرضیه جایگزین یک فرضیه ترکیبی است، من از آزمون نسبت درستنمایی همراه با حداکثر احتمال برای یافتن رابطه ای به شکل $$\frac{L[H_0]}{max L[H_a]}<k$$ از pdf استفاده کردم. قضیه بسیار غیرعادی بود من از قضیه ویلکس استفاده کردم و آن را به صورت مجانبی با توزیع $\chi^ 2$ با 1 درجه آزادی تقریب زدم، بنابراین می توانم مقدار $k$ داشته باشم. که نشان دهنده سطح اهمیتی است که من می خواستم. تا به حال همه چیز به آرامی پیش می رفت. با این حال، در بخش بعدی مشکل از من می‌خواهد به طور خلاصه توضیح دهم که چگونه می‌توانم فاصله اطمینان 95$\%$ را برای $\theta$ بدست بیاورم. اگر اشتباه می کنم، من را تصحیح کنید، اما این همان چیزی نبود که در مثال آخر ساختم؟ با خیال راحت نه تنها این مشکل خاص را به طور خاص توضیح دهید، بلکه تعریف گسترده تری از فاصله اطمینان و سطح اهمیت را نیز به من بدهید. ببخشید اگر اشتباه احمقانه ای مرتکب شدم من در چند هفته گذشته شروع به مطالعه استنتاج آماری کردم و هنوز هم با ساده ترین تعاریف آن دست و پنجه نرم می کنم.
فاصله اطمینان در مقابل سؤال سطح اهمیت
111294
من از رگرسیون لجستیک برای پیش‌بینی $X \rightarrow Y \in \{0, 1\}$ بر اساس ویژگی $\phi(X)$ استفاده می‌کنم. تابع هدف آموزشی \begin{equation} \mathcal{L} = \sum\limits_{i=1}^{n}{y_i \log \sigma(\theta^\top \phi(x_i)) + (1 است -y_i) \log (1-\sigma(\theta^\top \phi(x_i))}، \end{equation} که $\sigma$ سیگموید است از آنجایی که هدف به شدت محدب است، راه حل بهینه را می توان از طریق شیب صعود محاسبه کرد. ^{n} (1-\sigma) \phi(x_i) y_i - \sigma \phi(x_i) (1-y_i)$ مجموعه نامتعادل است، به عنوان مثال 90% از $y_i = 1$، سپس بیشتر اوقات گرادیان $\sum(1-\sigma) \phi(x_i)$ است اغلب اوقات $\theta$ به‌روزرسانی‌های مثبت دریافت می‌کند، با این حال، اگر برخی از ویژگی‌های $\phi_k(x)$ با برچسب همبستگی منفی داشته باشند، آنگاه پارامتر. $\theta_k$ باید منفی باشد چگونه ممکن است این اتفاق بیفتد؟
آیا تفریق میانگین داده ها در رگرسیون لجستیک بهتر عمل می کند؟
67525
هدف من رسیدن به خطای استاندارد برای هر تخمین نقطه ای از رگرسیون خطی است. من در ابتدا فکر می کردم که خطای استاندارد یک مدل رگرسیون خطی ثابت است. و اینکه به سادگی برابر با جذر انحراف مربع میانگین باقیمانده است. به همین دلیل است که به خطای استاندارد مدل RMSE نیز گفته می شود. اکنون می‌دانم که وقتی یک فاصله اطمینان حول خط روند تخمین‌ها ایجاد می‌کنید... در هر تخمین نقطه، خطای استاندارد قابل اجرا با خطای استاندارد کلی مدل یا RMSE که در بالا توضیح داده شد متفاوت است. بخش اول سوال من این است که چگونه این خطای استاندارد خاص را در یک تخمین نقطه مشخص محاسبه می کنید؟ آیا کسی می تواند پیوندی به یک مثال عددی برای تسهیل تفسیر من از فرمول ارائه دهد؟ من درک می کنم که چنین خطاهای استاندارد یک الگوی قابل پیش بینی دارند. آنها بسیار کمتر از خطای استاندارد کلی مدل برای مقادیر تقریباً نزدیک به مقدار میانگین هستند. و با فاصله گرفتن از مقدار میانگین، از خطای استاندارد همان مدل بزرگتر می شوند. در نتیجه، فواصل اطمینان موازی با خط روند رگرسیون نیستند. در عوض، آنها مانند یک ساعت شنی خمیده می شوند. بخش دوم من از این سوال کلی این است: چگونه شکل ساعت شنی حاصل از فاصله اطمینان حاصله به شکلی که نشان داده شده است، فرض رگرسیون خطی را که واریانس باقیمانده‌ها در بین مشاهدات ثابت می‌ماند را نمی‌شکند؟
چگونه خطای استاندارد خاص مربوط به یک تخمین نقطه ای خاص را در یک رگرسیون خطی محاسبه کنیم؟
67521
این سوال از دو تلاش به ظاهر معادل برای حل یک سوال دیروز الهام گرفته شده است: در R، اگر a انتخاب b خیلی بزرگ است، چگونه از خروجی combn(a,b) نمونه برداری کنیم؟ اساساً مشکل این است که اعداد صحیح $10$ را انتخاب کنید که مجموع آنها 100$ باشد، که در آن هر عدد باید $\ge 0$ باشد. رویکرد پیشنهاد شده در سوال اصلی این است که از اعداد $9$ در محدوده $1$ تا $109$ نمونه برداری کنید، _بدون جایگزینی_، و آنها را به عنوان نقاط برش در نظر بگیرید که محدوده $0$ تا $110$ را کاهش می دهند. تفاوت بین نقاط برش (شامل $0$ و $110$) 10 عدد را نشان می دهد که هر کدام $\ge $1 است. در نهایت، از هر عدد 1$ کم می کنیم تا اعداد 10$ بدست آوریم که $\ge 0$ هستند و به 100$ می رسند. من فکر کردم یک رویکرد معادل -- و ساده تر -- نمونه برداری از اعداد $9$ در محدوده $0$ تا $100$، _با جایگزینی_ است. تفاوت بین نقاط برش (شامل $0$ و $100$) مستقیماً 10 عدد را نشان می دهد که $\ge 0$ هستند و جمع آنها تا $100$ می رسد. با این حال، پیاده‌سازی این رویکردها در R نشان می‌دهد که رویکردها **معادل** نیستند. * «y» اولین رویکرد است، نمونه‌برداری از اعداد $9$ از $1\ldots109$ بدون جایگزینی و تنظیم. * «x» رویکرد دوم است که از اعداد $9$ از $0\ldots100$ با جایگزینی نمونه برداری می کند. از هیستوگرام های زیر، آشکار است که $0$ در روش اول در مقایسه با روش دوم بسیار بیشتر نمونه برداری می شود. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/PymJJ.png) با فرض اینکه در رویکرد دوم من به سادگی یک اشکال وجود نداشته باشد، سؤالات من این است: * چرا این تفاوت زمانی که به طور شهودی به نظر می رسد این دو رویکرد باید معادل باشند؟ * کدام رویکرد صحیح است؟ کد R زیر برای مرجع set.seed(99) N=1e5 y <- sapply( 1:N, function(i) {diff(c(0, sort(sample(1:109, 9)), 110) - 1 } ) x <- sapply( 1:N, function(i) {diff(c(0, sort(sample(0:100, 9, جایگزین = صحیح))، 100) } ) p1 <- hist(y، breaks=-0.5:100.5) p2 <- hist(x، breaks=-0.5:100.5) par(mfrow=c(3،1)) نمودار(p1، col=rgb(0,0,1)) نمودار(p2, col=rgb(1,1,0, 0.75)) # http://stackoverflow.com/questions/3541713/how-to-plot-two-histograms-together-in-r plot(p1, col=rgb(0,0,1), main=x سوار بر y ) plot(p2، col=rgb(1،1،0، 0.75)، add=T)
چرا دو رویکرد معادل برای انتخاب اعدادی که مجموع آنها 100 است، نتایج متفاوتی ایجاد می کند؟
48497
من یک مجموعه داده دارم که شامل داده های 307 موضوع و 9 متغیر برای هر موضوع است. من می خواهم یک PCA اجرا کنم. مشکل من این است که مقدار KMO 0.06 را دریافت می کنم. سوال من این است که آیا این به این دلیل است که در هر موضوع متغیرها به 1 می رسند. آیا من با این فرض درست هستم؟ و آیا راه دیگری برای آزمایش اینکه آیا اجرای PCA روی داده های من خوب است یا خیر وجود دارد؟ پیشاپیش متشکرم
مقدار KMO 0.06
88516
من در یک آزمایشگاه شیمی کار می کنم و تلاش می کنم تا عدم قطعیت اندازه گیری (MU) را از آزمایش های مجدد نمونه تخمین بزنم. رویه به خوبی تثبیت شده است. اما چیزی که من با آن سر و کار دارم مجموعه ای از داده ها است که در آن برخی از موارد تکراری کاملاً قانونی هستند و MU اساسی را منعکس می کنند در حالی که برخی دیگر به دلایلی نادرست در اولین آزمایش این جفت نیستند. توزیع مضاعف، همانطور که در آن. من تمایل دارم از روش استفاده از روش 1.5 x IQR برای حذف موارد پرت استفاده کنم. دریافته‌ام که اغلب داده‌های بریده‌شده، زمانی که با روش IQR مورد ارزیابی مجدد قرار می‌گیرند، نقاط پرت بیشتری دارند. سوال این است که در شرایط من، آیا این مناسب است که این را در دور دوم روی داده‌های از قبل کوتاه شده اعمال کنیم؟ آیا من به MU اصلی آزمایش نزدیک می شوم یا فقط خودم را گول می زنم؟ (هنگامی که این را تایپ می کنم، تصمیم گرفتم یک مجموعه داده ساختگی از یک توزیع نرمال ترکیبی و یک توزیع اریب ایجاد کنم و ببینم چه اتفاقی می افتد.)
حذف موارد پرت
59184
من مجموعه داده های مختلفی دارم که باید در مورد ویژگی های خاک تجزیه و تحلیل کنم، همه به یک شکل، با یک اثر ثابت (که موقعیتی در امتداد یک ترانسکت است، که کاربری های مختلف زمین را نشان می دهد). اکنون سطح اصلی تکرار من در ترانسکت‌های مختلف است، که بدیهی است که نوعی واریانس تصادفی مرتبط با آنها خواهد بود، و بنابراین می‌خواهم این را در تحلیل‌های آماری خود توضیح دهم. بنابراین، در `lme4` من یک مدل ترکیبی برای این مدل مشخصات تعیین کردم <- lmer(variable.of.interest ~ transect.position + (1|transect)) اکنون، وقتی مدل فوق را در مقابل مدلی بدون موقعیت ترانسکت تحلیل می کنم. در اصطلاح، دقیقاً نتایجی را که انتظار داشتم دریافت می‌کنم، و سپس با وصل کردن مدل بالا به «anova()»، مقادیر F را دریافت می‌کنم، d.f. و غیره که نیاز دارم با این حال، نمی‌توانم بفهمم که چگونه برای گزارش کلی خود بگویم که اثر تصادفی ترانسکت هیچ تفاوتی با تحلیل‌های کلی ندارد (یعنی نمی‌توانم مقدار p، مقدار F، d.f و غیره را دریافت کنم. ). کمک؟
مدل ترکیبی ساده با 1 اثر ثابت و 1 اثر تصادفی
67527
چند مقاله تحقیقاتی در مورد روش های لاشنبرخ - مدل 2 قسمتی خواندم. من یک محقق بالینی هستم و دانش/تجربه زیادی در زمینه آمار ندارم. ما از یک مقیاس (پرسشنامه تنفسی سنت جورج) در یک مطالعه (در جمعیت عمومی روستا در هند) استفاده کردیم، 0 نشان دهنده عدم مشکل و 100 نشان دهنده شدت است. مجموعه داده دارای تعداد زیادی صفر است (نشان دهنده مشکلی نیست) و دارای انحراف مثبت است. برای تعیین عوامل مرتبط باید تحلیل های رگرسیون ساده و چندگانه انجام دهیم. ما از Stata استفاده می کنیم، اما متخصص نیستیم. آیا می توانید روند تجزیه و تحلیل این داده ها را به ما اطلاع دهید؟ آیا می توانید لطفا در مورد دستورات Stata به ما کمک کنید؟
داده های اریب با صفرهای زیاد: رگرسیون ساده و چندگانه
94434
من روی پروژه ای کار می کنم که باید طبقه بندی متن چند برچسبی را انجام دهم. من می خواهم بفهمم که آیا رویکرد من درست است یا چیزی را از دست داده ام. من از R برای انجام آن استفاده می کنم. > 1. متن را پاک کنید > 2. یک مجموعه ایجاد کنید. در حین ایجاد پیکره، عبارت sparse > را با مقدار sparse تنظیم شده روی 0.86 > 3 حذف می کنم. یک DTM از این پیکره ایجاد کنید و برچسب را به آن بچسبانید. > 4. DTM را به مجموعه آموزشی و آزمایشی تقسیم کنید > 5. مدل را با استفاده از مجموعه قطار بسازید > 6. مدل را با استفاده از مجموعه آزمایشی آزمایش کنید. > 7. تجزیه و تحلیل آماری برای اثبات مدل انجام دهید > بنابراین سؤالات من این است > 1. آیا باید در هنگام ایجاد پیکره، عبارت پراکنده را حذف کنیم و اگر چنین است > مقدار پراکنده خیلی زیاد است و آیا محدوده ای از مقدار پراکنده تا > وجود دارد. در طبقه بندی متن تنظیم شود یا به نتیجه ای که می گیریم بستگی دارد. > 2. آیا این یک قانون انگشت شست است که تعداد سطرها باید بیشتر از مربع > تعداد ویژگی ها باشد. و همچنین آیا تعداد ویژگی‌ها به > تعداد کلاس‌های منحصربه‌فردی که دارید بستگی دارد > 3. آیا می‌توانیم انتخاب ویژگی را پس از حذف واژه‌های پراکنده انجام دهیم. > 4. کدام یک باعث کاهش ابعاد یا انتخاب ویژگی می شود. >
برخی از کارهای اساسی که باید هنگام طبقه بندی متن انجام دهیم
111298
هنگامی که از مرحله M برای مخلوطی از توزیع های برنولی استفاده می کنیم، یکی از پارامترهای ماکزیمم سازی، پارامتر برنولی $\mu_{k}$ است که $k$ شاخص جزء مخلوط و $$ p است. (x|\mu_k) = \prod_{i=1}^D \mu_{ki}^{x_{i}}(1-\mu_{ki})^{(1-x_{i})}. $$ در بیشینه سازی با توجه به این پارامتر، عبارت زیر را دریافت می کنیم $$ \begin{align} \frac{\partial}{\partial \mu_{ki}}\mathbb{E}_{Z}[\ln p(X, Z | \mu, \pi) &= \sum_{n=1}^N \langle z_{nk} \rangle \left( \frac{x_{ni}}{\mu_{ki}} - \frac{1 - x_{ni}}{1 - \mu_{ki}} \right) \\ &= \frac{\sum_n \langle z_{nk} \rangle x_{ni} - \sum_n \langle z_{ nk} \rangle \mu_{ki} }{\mu_{ki}(1-\mu_{ki})} \end{align} $$ جایی که $$ \langle z_{nk} \rangle = p(z_{nk} | x_n, \mu_k, \pi_k) $$ بدیهی است که با صفر کردن آن و حل کردن $\mu_{ki}$، جواب استاندارد $$ \mu_{ki} = \frac{ \sum_n \langle z_{nk} \rangle x_{ni}}{\sum_n \langle z_{nk} \rangle} $$ با در نظر گرفتن این موضوع، سوال من به شرح زیر است. آیا محدودیتی برای $\mu$ وجود ندارد که $\sum_i \mu_{ki} = 1$ باشد؟ اگر چنین است، پس چرا این در حداکثر سازی گنجانده نشده است. یعنی چرا لاگرانژی را که شامل عبارت $ \lambda \left(\sum_i \mu_{ki} - 1\right) $ است را فرموله نمی‌کنیم؟
EM برای مخلوط های برنولی (M-step)
28292
من داده دارم و می خواهم بدانم که آیا توزیع بتا یا گاما است. هنگامی که من می دانم توزیع چیست، چگونه می توانم بفهمم که پارامترها چیست؟ btw من یک تازه کار هستم
آیا داده های من از توزیع گاما یا بتا می آید؟
48491
در برخی منابع دیدم که ماتریس اطلاعات مشاهده شده منفی مقدار مورد انتظار ماتریس هسین است. با این حال، در برخی منابع دیگر دیدم که این فقط منفی هسین است. همچنین، در R این با معکوس ماتریس هسین (بدون منفی) محاسبه می شود. من به شدت گیج هستم. میشه لطفا در این مورد توضیح بدید؟
ماتریس اطلاعات مشاهده شده از طریق Hessian
23746
من پیش‌بینی‌ها و اطلاعات واقعی برای داده‌های تابلویی (یعنی داده‌های مقطعی سری زمانی) دارم. پیش‌بینی‌ها قبلاً توسط منبعی خارج از R ایجاد و ارائه شده‌اند. من می‌خواهم کیفیت پیش‌بینی‌ها را ارزیابی کنم. آیا ابزارهای استانداردی در R وجود دارد که تشخیص های مختلفی را روی باقیمانده ها انجام دهد؟ منظور من از تشخیص، تست هایی مانند: * همبستگی خودکار باقیمانده ها در سطح مقطع * همبستگی خودکار باقیمانده ها در امتداد سری زمانی برای یک عضو معین * تست های اثرات ثابت در مقابل اثرات تصادفی * ناهمسانی و غیره است. بهترین راه برای انجام این تشخیص ها برای ساختن یک مدل پانل با استفاده از پیش بینی به عنوان پیش بینی کننده در مدل پانل؟
تجزیه و تحلیل باقی مانده از پیش بینی های سری زمانی مقطعی
59187
من دنبال کتاب مقدماتی آمار و طراحی آزمایش برای درس روش ها برای دانشجویان روانشناسی بودم. فکر می‌کنم حداقل 30 کتاب را بررسی کرده‌ام و همه همان حرکت‌های قدیمی را طی کرده‌اند. ابتدا آزمون فرضیه، سپس آزمون t، آنوا، آنوای دو طرفه و رگرسیون حداقل مربعات معمولی. و همگی اصرار دارند که این مدل ها را با محاسبات خسته کننده توضیح دهند. یک آزمون t از شما می‌خواهد یک آماره t را محاسبه کنید، یک Anova از شما می‌خواهد مجذورات این و آن را جمع کنید، در عوض رگرسیون انجام می‌شود تا خطای مربع را به حداقل برسانم. از دیدگاه من، درک این نوع مدل‌ها از منظر احتمال بسیار آسان‌تر و شهودی است. به عنوان مثال، یک آزمون t مدل $y \sim \text{Normal}(\beta_0 + \beta_1x,\sigma^2)$ است و یک Anova $y \sim \text{Normal} است(\beta_0 + \ beta_1x_1 + \beta_2x_2 + \ldots,\sigma^2)$ که در آن $x، x_1، x_2$ متغیرهای رمزگذاری شده ساختگی هستند. برای تطبیق با چنین مدلی، برای مثال، از حداکثر احتمال استفاده می شود که به نظر من شهودی است و توضیح آن آسان است. این فرمول‌بندی مهربان، ارتباط بین آزمون t، ANOVA و رگرسیون را برای درک بی‌اهمیت می‌سازد. بنابراین آنچه که من به دنبال یک کتاب مقدماتی در طراحی آمار و آزمایش بودم که آمار را از این منظر احتمال آموزش دهد. من برای هر پیشنهادی بسیار سپاسگزار خواهم بود!
آیا کتاب روش شناسی تجربی مبتنی بر احتمال در مقطع کارشناسی برای دانشجویان روانشناسی / علوم اجتماعی وجود دارد؟
23744
من سعی می‌کنم SVM را پیاده‌سازی کنم و انتخاب پارامتر (جستجوی شبکه) را روی کل داده‌ها انجام دادم و از بهترین مقادیر C و گاما از آن جستجو برای آزمایش روی داده‌های آزمایشی استفاده کردم. گاهی اوقات، دقت اعتبار متقاطع، من 100٪ است. آیا این روش اشتباه است؟ روش صحیح انجام چیست؟ چگونه باید انتخاب پارامتر خود را انجام دهم؟ آیا باید داده ها (100%) را به 10% برای جستجوی شبکه و 90% باقیمانده را به آموزش و آزمایش تقسیم کنم؟ نیاز به راهنمایی در مورد آن.. با تشکر.
پارامتر جستجو برای SVM در کل داده ها
72208
من در شرکتی کار می کنم که نظرسنجی های محیط کار را جمع آوری می کند. وقتی یک نظرسنجی انجام می‌شود، گزارش‌هایی را ایجاد می‌کنیم که در اختیار مدیران شرکت قرار می‌گیرد تا نشان دهیم که کجا باید تلاش خود را متمرکز کنند. در این گزارش ها ما مقایسه ای از واریانس گروه محاسبه شده در مقایسه با واریانس یک جامعه مرجع را نشان می دهیم. ما این نمره را در مقیاس 0-100 عادی می کنیم. (محاسبه درون کد مقیاس دیگری از -inf تا +inf نشان می‌دهد، اما برای سادگی می‌گوییم که 0 50 است، و فقط هر چیزی که بیش از 100 و کمتر از 0 باشد را قطع کنید.) بزرگ‌ترین مشکل ما این است که مشتریان ما بسیار آگاه هستند. عدد واقعی حتی اگر ما سعی می کنیم به آنها بگوییم که یک عدد بالا/پایین لزوما بد نیست، فقط نشان می دهد که چگونه واریانس گروه های شما با واریانس جمعیت مرجع مقایسه می شود. ما به این فکر می کنیم که از نمایش عدد در گزارش کاربر نهایی فاصله بگیریم و به جای آن به دنبال نمایش تصویری واریانس بالا، طبیعی، کم باشیم. اما نمی توانم نمایش تصویری خوبی از آن پیدا کنم. باید به نوعی خنثی به نظر برسد، اما همچنان چیزی را نشان دهد... (.. می دانم ..) آیا کسی پیشنهادی در مورد چگونگی رسیدن به این هدف دارد؟ (سلب مسئولیت: من آمارگیر نیستم، من یک توسعه دهنده هستم.). من در تحصیلات عالیم یک کلاس آمار داشتم و آن هم بیش از 5 سال پیش. بنابراین هم اصطلاحاتی که من استفاده می کنم و هم توضیحات من می توانند کاملاً بی معنی باشند.)
تجسم واریانس
59185
من پرسشنامه‌ای را برای پاسخ‌دهندگان در مورد پذیرش فناوری توسط مشتریان ارائه کرده‌ام. من می‌خواهم یک تحلیل عاملی مؤلفه‌های اصلی اکتشافی در Stata انجام دهم تا ساختارهایی را از چند سؤال (در راستای ادبیات موجود) تشکیل دهم. متغیرهایی که من می خواهم بسازم سودمندی درک شده، سهولت استفاده درک شده، ریسک درک شده با محصول (PRP) و غیره است و من مشتریانی را از دو کشور مقایسه می کنم: هلند (n=63) و بلغارستان (n=101). من آیتم ها را بر اساس ادبیات تحقیق طراحی کردم. بنابراین انتظار داشتم که هیچ مشکلی در تحلیل عاملی وجود نداشته باشد. یعنی همه اقلام دارای بار عاملی بالایی بر روی یک عامل واحد خواهند بود. من آلفای کرونباخ را بدست آورده ام که برای همه فاکتورها 0.7 و برای مشتریان هلندی سودمندی 0.6 است که خوب است. تجزیه و تحلیل عاملی برای اکثر عوامل خوب است و بسیاری از موارد بیشتر بر روی یک عامل واحد بارگذاری می شوند، همانطور که توسط ادبیات پیشنهاد شده است. مشکل این است که برای PRP من 4/5 فاکتور برای بلغاری ها و 6/7 فاکتور برای هلندی دریافت کردم که در واقع ساختارهای متفاوتی در مقایسه با PRP برای بلغاری ها هستند (13 بار عاملی برای PRP). من همچنین مشکل مشابهی با هنجار ذهنی (SN) دارم. سؤالات من: * وقتی اقلام در یک عامل قرار نمی گیرند، آیا می توان فقط وسایل چنین مواردی را در نظر گرفت؟ * * یا کار دیگری هست که باید انجام دهم؟ * آیا می توانید به من نیز یک مرجع ارائه دهید؟
ساختار عاملی غیرمنتظره در نمونه های مختلف
59181
من در تحلیل عاملی تازه کار هستم. من در حال نوشتن چند ارائه در مورد تحلیل عاملی هستم و عمدتاً در مورد تحلیل عاملی اکتشافی مطالعه می کنم. هر دو EFA و CFA دارای نمودار هستند. برای EFA معمولاً بارهای فاکتور روی فلش ها دیده می شود. با این حال، برای CFA معمولا مقداری 1 روی برخی از فلش ها وجود دارد، اما نه همه. از آنجایی که من در این کار مبتدی هستم، هنوز واقعاً معنی آن ها را نمی فهمم. آیا می توانید برخی از سرنخ ها به من بدهید؟ برای مثال، اینجا صفحه 174 را ببینید، یک تصویر وجود دارد: http://psychology.concordia.ca/fac/kline/Library/k13b.pdf
معانی 1 روی فلش های نمودار تحلیل عاملی تاییدی
28298
بعدازظهر بخیر من روی مطالعه ای کار می کنم که در آن متغیر وابسته (درصد افراد در یک گروه قومی که اساساً رای می دهند) و یکی از متغیرهای مستقل (٪ از این افراد در جمعیت) سالانه به مدت 10 سال اندازه گیری می شوند. متغیرهای مستقل دیگری نیز وجود دارند که وابسته به زمان نیستند. من می‌توانستم یک مدل جداگانه برای هر سال از متغیر وابسته اجرا کنم، که فقط داده‌های سال‌های قبل را برای متغیر مستقل شامل می‌شود، اما در تعجب بودم که آیا روش ساده‌تری وجود دارد. من به R و SAS دسترسی دارم (اگر چیز بدیهی را نادیده گرفته ام، عذرخواهی می کنم، سرما خورده ام و در بهترین حالتم نیستم) پیتر
وقتی هم متغیرهای وابسته و هم برخی از متغیرهای مستقل اندازه گیری های تکراری هستند چه باید کرد؟
51789
در یک تنظیم بیزی برای تخمین پارامتر، فرم پارامتریک توزیع قبلی برای انجام منظم‌سازی l2 باید چگونه باشد؟
فرم پارامتریک تنظیم l2 در یک محیط بیزی چگونه باید باشد؟
48498
برای انتخاب یک آزمون مناسب برای پایایی بین ارزیاب به کمک نیاز دارم. من سه ارزیاب (متخصص) دارم که کیفیت تصاویر را تجزیه و تحلیل کرده اند (10 تصویر از مکان های مختلف). داده ها ترتیبی هستند (کیفیت تصویر به صورت عددی از 1 تا 5 ارزیابی می شود).
آزمون مناسب برای پایایی بین ارزیاب ها چیست (سه رتبه بندی، داده های ترتیبی)
88515
در کتاب آنلاین رایگان روش‌های بیزی برای هکرها، آخرین شکل تخمین مقدار مورد انتظار $\lambda$ را برای هر روز نشان می‌دهد: ![برای توضیحات تصویر اینجا وارد شوید](http://i.stack.imgur.com /jkoAp.png) به نظر می رسد نویسنده در حال محاسبه مقدار مورد انتظار پسین برای $\lambda$ برای یک روز معین است. برای انجام این کار، نویسنده از نمونه‌های MCMC از تخمین کامل $\lambda_1$ و $\lambda_2$ دوباره استفاده می‌کند. اما **خلفی $\lambda$ برای یک روز معین** چگونه به $\lambda_1$ و $\lambda_2$ مربوط می شود؟ و چرا می توان از نمونه های محاسبه MCMC کامل **استفاده مجدد** کرد؟ در صورت اهمیت، در زیر کد پایتون مورد نظر است که خط قرمز را در نمودار بالا محاسبه می کند. figsize(12.5, 5) # tau_samples، lambda_1_samples، lambda_2_samples حاوی # N نمونه از توزیع پسین مربوطه N = tau_samples.shape[0] expect_texts_per_day = np.zeros(n_count_data) for day in range(count_ix_ta): یک شاخص بوول از همه نمونه‌های tau مربوط به # نقطه سوئیچ که قبل از مقدار 'day' رخ می‌دهد ix = روز <tau_samples # هر نمونه خلفی مربوط به مقداری برای tau است. # برای هر روز، آن مقدار tau نشان می دهد که آیا ما قبل # (در رژیم lambda1) یا # بعد (در رژیم lambda2) نقطه سوئیچ هستیم. # با گرفتن نمونه خلفی لامبدا 1/2 بر این اساس، می‌توانیم # را از همه نمونه‌ها میانگین بگیریم تا مقدار مورد انتظار لامبدا را در آن روز به دست آوریم. # همانطور که توضیح داده شد، متغیر تصادفی تعداد پیام پواسون توزیع شده است، # و بنابراین لامبدا (پارامتر پواسون) مقدار مورد انتظار # تعداد پیام است. expect_texts_per_day[day] = (lambda_1_samples[ix].sum() + lambda_2_samples[~ix].sum()) / N
فرمول بندی تحلیلی یک مسئله بیز سلسله مراتبی
105263
من آمارگیر نیستم، اما یک پروژه شخصی دارم و به کمک نیاز دارم. من پروژه را بسیار ساده می کنم تا واضح تر و قابل درک تر شود. سپس بر اساس پاسخ های شما، می توانم آن را با پروژه واقعی خود تطبیق دهم. فرض کنید من یک گلدان با تعداد زیادی توپ در داخل آن دارم که یک عدد روی توپ ها وجود دارد. به مدت یک هفته، هر نیم ساعت، چند توپ (هر بار تعداد متفاوتی از آنها) انتخاب می کنم و تعداد آنها را روی آنها یادداشت می کنم. سپس همین روش را برای چندین هفته تکرار می کنم. من با مجموعه داده ای مانند این پایان خواهم داد: دوشنبه 00:00 - [15,45,24,57,437,23,89,2,42,.....] دوشنبه 00:30 - [12,345,643,64,23, 4,64,754,......] .... سه شنبه 00:00 - [24,2,57,865,3,6,8,655,86,.....] .... یکشنبه ساعت 23:30 - [14,543,64,32,57,43,768,.....] هر چه بیشتر عدد روی توپ، بهتر است. بنابراین، می‌خواهم بررسی کنم که آیا تاریخ خاصی در هفته وجود دارد که ممکن است اعداد بالاتری داشته باشد یا این یک روش کاملاً تصادفی است. همانطور که گفتم نسخه ساده شده است. انتخاب یک توپ از یک گلدان مطمئناً تصادفی است. شاید Chi-square انتخاب درستی باشد؟ اما آیا می توانم اطلاعات خود را با این گزینه تطبیق دهم؟ اولین فکر من این بود که یک نمودار (شاید نمودار میله ای) ایجاد کنم که در آن محور x زمان تاریخ هفته و محور y مجموع یا میانگین اعداد باشد. اما این به مشکل دیگری ختم خواهد شد. اگر یک روز فقط اعداد میانی داشته باشد و روزی دیگر دارای اعداد زیاد و پایین باشد، در نهایت همان نوار خواهد بود. بدیهی است که اینطور نیست. می توانم ایده های شما را اینجا داشته باشم؟
بررسی کنید که آیا یک روش خاص تصادفی است یا خیر
27055
سوال من از وظیفه فعلی من برای توسعه یک مدل پیش بینی بالینی با استفاده از رگرسیون لجستیک ترتیبی (با rms) ناشی می شود، اما برای هر نوع تحلیل رگرسیون اعمال می شود. 1. فرض شانس متناسب (مشکل برای ارزیابی...) فقط تقریبا برآورده شده است. (من از رویکرد نسبت ادامه مطلع هستم). 2. نتایج اقدامات تبعیض (موضوع دشوار دیگر) زیاد نیست. 3. اما طرح کالیبراسیون بسیار زیبا است. بنابراین، آیا باید نگران 1 و 2 باشم یا کالیبراسیون بسیار خوب از فرضیات اساسی و تبعیض فراتر می رود؟
آیا کالیبراسیون خوب تقریباً از مفروضات برآورده شده و تبعیض متوسط ​​فراتر می رود؟
23747
CARET ابزاری مناسب است که ده ها روش مدل سازی را در بر می گیرد. CARET به کاربر اجازه می دهد تا به آمارهای عملکرد مانند RMSE، ماتریس های سردرگمی و غیره به روشی عمومی دسترسی داشته باشد بدون اینکه نیازی به یادآوری استفاده از روش های مختلف مدل سازی باشد. با این حال، برخی از مدل ها نتایج گزارش منحصر به فردی دارند. برای مثال، با یک مدل درختی تقویت‌شده، می‌توان نرخ خطای درون‌نمونه _در مقابل_ خارج از نمونه را به‌عنوان تابعی از تعداد درخت‌هایی که برای بیش‌برازش آزمایش می‌شوند، مقایسه کرد. طبیعتاً این گزارش با روش‌های دیگری که از درخت استفاده نمی‌کنند منطقی نخواهد بود. آیا راهی وجود دارد که بتوانم از CARET برای دسترسی به این گزارش های خاص مدل استفاده کنم (شاید با دسترسی به شی مدل سازی تولید شده مستقیم)؟
چگونه می توان اطلاعات مربوط به مدل را هنگام استفاده از بسته caret بازیابی کرد؟
111299
آیا روش هایی برای به دست آوردن روند یک پاکت سیگنال وجود دارد؟ نمونه ای از سیگنال در اینجا: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jolMw.png) خط سیاه سیگنال است، خطوط قرمز همان چیزی است که چشم من به عنوان پاکت آن می بیند. سیگنال من می خواهم بدانم از چه روشی می توان برای دریافت این پاکت ها و تعیین کمیت ارتباط آنها استفاده کرد.
روش / رگرسیون برای تشخیص پوشش سیگنال
51780
من می خواهم یک تجزیه و تحلیل ANCOVA از تراکم داده ها در هر اپی فیت گیاه انجام دهم. در ابتدا می خواهم بدانم که آیا تفاوتی در تراکم بوته بین دو شیب شمالی و جنوبی وجود دارد، اما داده های دیگری مانند ارتفاع، باز بودن تاج پوشش و ارتفاع گیاه میزبان را دارم. من می دانم که متغیر من باید دو شیب (N و S) باشد، من این مدل را ساختم که در R اجرا می شود و اگرچه نمی دانم عملکرد خوبی دارد یا خیر. همچنین می خواهم بدانم که اگر از علامت + یا * استفاده کنم چه تفاوتی وجود دارد. model1 <- aov (تراکم ~ شیب + ارتفاع + سایه بان + ارتفاع) خلاصه (model1) model1
چگونه یک ANCOVA در R درست کنم
51784
من به تحقیقات چند متغیره علاقه مند هستم. من سعی کرده‌ام درباره طراحی چنین آزمایش‌هایی بیاموزم که در آن یک متغیر وابسته (یک کلاس/گروه) و بسیاری از متغیرهای مستقل وجود داشته باشد که به طور ایده‌آل به تمایز بین گروه‌ها کمک می‌کند. با این حال، مسئله اساسی که من با آن مواجه هستم، مشکل محاسبه اندازه نمونه است. من ادبیات را بررسی کرده‌ام تا ببینم آیا توافقی در مورد نحوه محاسبه حجم نمونه برای یک تحقیق چند متغیره وجود دارد یا خیر. کسی در اینجا روشی برای انجام این کار می شناسد؟ من در درجه اول با برنامه R آشنا هستم اما با SAS و زبان برنامه نویسی پایتون نیز مهارت دارم. آیا کسی با این کار آشنایی دارد؟
محاسبه اندازه نمونه برای مسائل چند متغیره
115044
اگر من یک توزیع احتمال گسسته $p$ با کلاسهای $K$ داشته باشم * شاخص جینی = $\sum_{K}$$p_k$(1-$p_k$) * آنتروپی = -$\sum_{K}$$p_k$ log$p_k$ به ازای «عناصر یادگیری آماری»، «هم شاخص جینی و هم آنتروپی متقابل برای تقسیم دوم پایین‌تر هستند. به همین دلیل، یا هنگام رشد درخت باید از شاخص جینی یا آنتروپی متقاطع استفاده شود.` من دو کلاس ($K=2$) و مقادیر احتمالی $p_1$=0.1 و $p_2$=0.9 را در نظر گرفتم. من $Gini-index = 0.0081$ و $cross-entropy = 0.146$ دریافت کردم * چه نتیجه ای می توانم از این بگیرم؟ * آیا مدرک رسمی وجود دارد که نشان دهد شاخص جینی تقریب بهتری از خطای طبقه بندی اشتباه است؟ برای اثبات آن از چه رویکردی استفاده می شود؟
شاخص جینی در مقابل آنتروپی
59239
من با دو سوال جداگانه (استاک و واتسون - مقدمه ای بر اقتصاد سنجی فصل 3)، با استفاده از مقادیر مختلف برای خطاهای استاندارد، گیج شده ام. **اولین:** در یک نظرسنجی از 400 رای دهنده، 215 نفر به رای دادن به رئیس جمهور فعلی، 185 به رقیب پاسخ دادند. اجازه دهید p نشان‌دهنده کسری از همه رای‌دهندگان احتمالی باشد که در زمان نظرسنجی رئیس فعلی را ترجیح داده‌اند و $\hat p$ کسری از پاسخ‌دهندگان نظرسنجی باشد که رئیس فعلی را ترجیح می‌دهند. _حالا برای واریانس با $\hat p(1-\hat p)/n$ داده می شود و هنگام محاسبه $SE(\hat p)$ باید جذر واریانس را بگیریم تا $0.0249$ به دست آید، و من با این موضوع خوب هستم._ **سوال دوم:** در یک جمعیت معین، 11% از رای دهندگان آفریقایی آمریکایی هستند. یک نظرسنجی با استفاده از یک نمونه تصادفی از 600 شماره تلفن ثابت، 8 درصد آمریکایی های آفریقایی تبار را پیدا کرد. آیا شواهدی وجود دارد که نظرسنجی مغرضانه است؟ _حالا هنگام محاسبه آماره t از فرضیه صفر با $p=0.11$ استفاده می کنیم، اما سپس بیان می کند که $se(\hat p)=\hat p(1-\hat p)/n$._ چرا ما دیگر لازم نیست جذر مقدار بالا را برای یافتن خطای استاندارد بگیرید؟ فکر می کنم باید با دانستن واریانس جمعیت مرتبط باشد؟
انحراف استاندارد جمعیت برای توزیع دوجمله ای(؟)
27057
من یک رشته مهندسی صنایع هستم و به دنبال کتاب(هایی) در مورد احتمال و آمار هستم (ترکیب ترجیح داده می شود اما جداگانه نیز انجام می شود) که: * من به عنوان یک **خودآموز** می توانم کار کنم. با * مختصر است اما موارد زیر را شامل می شود: _روش های آماری برای تجزیه و تحلیل داده ها. نمودارها و آمار توصیفی؛ مطالعات و آزمایشات مشاهده ای؛ تخمین فاصله اطمینان؛ آزمون فرضیه؛ رگرسیون و همبستگی._ در عمق. **من قبلاً یک بار آنها را مطالعه کرده ام، فقط باید آنها را با عمق بیشتری بررسی کنم. ** * به مهندسان و نه آماردانان رسیدگی کنم. من تئوری و کاربرد را به تئوری و سختگیری ترجیح می دهم. * به من در هدف من برای مطالعه مدل های تصادفی / شبیه سازی / مهندسی مالی (دوباره، به تنهایی) کمک خواهد کرد. * دارای نسخه بین المللی. * توصیه می شود / الزامی نیست: مثال هایی را در R ارائه می دهد. من سؤال مشابهی را پشت سر گذاشته ام، اما 2 پاسخ کتابی است که خود نویسنده از آن راضی نیست و پاسخ پذیرفته شده یک وب سایت است. من به شلدون راس، دگروت، روهاتگی و بسیاری دیگر نگاه کرده ام اما هنوز مطمئن نیستم که آیا هیچ کدام از آنها آنچه را که می خواهم به من می دهند یا خیر.
کتاب توصیه های بررسی احتمال و آمار برای رشته مهندسی
51782
برای نمونه iid $X_1، \dots، X_n$، آیا توزیع آمار رتبه رایگان است؟ یعنی برای هر $k$ s.t $1 \leq k \leq n$، آیا توزیع رتبه $X_k$ به توزیع $X_i$ بستگی ندارد؟ من فکر می کنم بله. فرض کنید $X_i$ دارای یک cdf $F$ است که یک $F^{-1}$ معکوس را می پذیرد، سپس $F^{-1}(X_1)، \dots، F^{-1}(X_n)$ همچنان ادامه خواهد داشت. iid باشد اما با توزیع یکنواخت بیش از $[0,1]$. از آنجایی که $F$ معکوس است، هر دو $F$ و $F^{-1}$ به شدت در حال افزایش هستند، بنابراین رتبه $X_k$ و رتبه $F^{-1}(X_k)$ یکسان خواهد بود. . بنابراین می‌توانیم توزیع X_i$ را توزیع یکنواخت بیش از [0,1]$ فرض کنیم، و بنابراین رتبه X_k$ به توزیع X_i$ بستگی ندارد. اگر $F$ معکوس نباشد، زمانی که از X_1$، \dots، X_n$ به $F^{-1}(X_1)، \dots، F^{-1}(X_n)$ بروید، ممکن است پیوندها تغییر کنند. ما نمی توانیم بگوییم توزیع آمار رتبه به توزیع $X_i$ بستگی ندارد؟ با تشکر و احترام!
آیا یک آمار رتبه ای همیشه توزیع رایگان است؟
88510
من یک گاوسی چند متغیره برای مجموعه ای از داده ها دارم، و می خواهم فاصله اطمینان را برای آن نمونه داده محاسبه کنم. به امید یافتن یک راه حل زیبا، من یک تجزیه ویژه انجام دادم و داده ها را به مبنایی که توسط بردارهای ویژه تعریف شده بود، تبدیل کردم که در آن مقادیر ویژه واریانس آن بعد است. آنچه در مورد این مبنا خوب است این است که کوواریانس 0 وجود دارد و هر محور مستقل است. من CDF هر گاوسی را به طور مستقل محاسبه می‌کنم و فاصله اطمینان را برای هر بعد تعیین می‌کنم، اما اکنون به مشکل نحوه ترکیب آنها برخوردم. به نوعی، اگر این ابعاد غیر همبسته مستقل باشند، من باید احتمالات را ضرب کنم، اما برای من منطقی نیست که فواصل اطمینان را ضرب کنم. من در مورد میانگین گیری آنها فکر کردم، اما این نیز منطقی نیست زیرا اگر یک بعد دارای فاصله اطمینان $\sim1$ باشد، پس میانگین گیری ماهیت نمایی این ریاضی را در نظر نمی گیرد. آخرین چیزی که در نظر گرفتم یک هنجار L2 بود، اما به هیچ وجه کار نمی کند. به هر حال، ممنون می شوم که برای فهمیدن این موضوع کمک کنید. به طور خاص، چگونه می توانم CDF گاوسی چند متغیره را از CDFهای ابعاد گاوسی همبسته منفرد تعیین کنم؟ یا فاصله اطمینان به جای CDF - اساساً همان اطلاعاتی است که من به آن علاقه دارم. قبل از اینکه این یکی را کشف کنم این را در انجمن ریاضی پست کردم. امیدوارم که خوب باشد:
محاسبه CDF گاوسی چند متغیره از تجزیه ویژه
114163
من با مدل nls ارائه شده در زیر مشکل دارم. من یک ایده تاری دارم که چگونه مقادیر اولیه را در آن تنظیم کنم. آیا از روش سعی و خطا استفاده کنم یا راه دیگری برای سیستماتیک کردن آن وجود دارد؟ > model3<-nls(H2~H1*(A2^b1*(A1^b1*(b3+H1+sqrt((b3+H1)^2+2*H1*exp(b2)/A1^b1))+ exp(b2))/ + A1^b1*(A2^b1*(b3+H1+sqrt((b3+H1)^2+2*H1*exp(b2)/A1^b1))+exp(b2)))، start=c( b1=0.1، b2=2، b3=1)، trace=T) خطای پاسخ در nls (H2 ~ H1 * (A2^b1 * (A1^b1) دریافت می کنم * (b3 + H1 + sqrt((b3 + H1)^2 + : گرادیان واحد یا خطا در nls(H2 ~ H1 * (A2^b1 * (A1^b1 * (b3 + H1 + sqrt((b3 + H1) ^2 + : ضریب مرحله 0.000488281 کمتر از 'minFactor' از 0.000976562 بسته به مقادیر پارامترهایی که استفاده می کنم، فرمول مدل ها به این صورت است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/38MUg.jpg) با احترام.
نحوه تنظیم داده های اولیه در مدل nls
59230
من نقاط داده همبسته دارم و آنها با یک خط روند تطبیق داده شده اند. من می خواستم بدانم این نقاط چقدر از یک خط دلخواه 1:1 (خط 45 درجه با داده هایی با قدر مساوی) فاصله دارند. آیا آزمایشی وجود دارد که بفهمد چقدر از این خط 1:1 فاصله دارد؟ متشکرم
آزمایش داده های مرتبط از خط 1:1
27054
من با Fisher Ratio کار می کنم. من این سهمیه را از تابعی محاسبه می کنم که قبلاً در نرم افزاری که روی آن کار می کنم پیاده سازی شده است. اما می خواهم مطمئن باشم که همان کاری را که من فکر می کنم انجام می دهد. Prism روشی را برای محاسبه فواصل اطمینان با استفاده از مقایسه مدل پیشنهاد می کند. این از نسبت F استفاده می کند (صفحه 109). با dfd(=df2-df1)=1 و dfn(=df2)=99، من یک F تقریباً 1.08 با کدم پیدا می کنم. به نظر ممکنه؟ من از یک تابع کتابخانه ای استفاده می کنم که حد بالایی ادغام چگالی f را برای توزیع تابع توزیع تجمعی F محاسبه می کند. ورودی ها سطح اطمینان و درجه آزادی برای صورت و مخرج هستند. آیا این به من نسبت F می دهد؟ با تشکر و احترام
نسبت F و روش مقایسه مدل برای محاسبه مرزهای اطمینان
59237
من سعی می کنم دسته ای از توزیع های دووجهی را تخمین بزنم، یعنی دو میانگین و دو انحراف استاندارد، بر اساس تعداد متغیر ورودی. اگر ورودی وجود نداشته باشد، یک مقدار ثابت باید برگردانده شود. با توجه به اطلاعات حکایتی من در مورد چیزی که بیز در مورد آن است، باید دقیقاً همین باشد، نه؟ پیشینی را بر اساس شواهد دریافتی تطبیق دهید. سوال من این است که چگونه می توانم با جزئیات این کار را انجام دهم؟ شاید من فقط یک آموزش خوب را به نوعی از دست داده ام.
اعمال بیز: تخمین توزیع دووجهی
35004
پروژه ای که من در حال حاضر روی آن کار می کنم ایجاد حسگر ضربان قلب با استفاده از پلتیسموگرافی انگشتی است. سیگنالی را به ucontoller من برمی گرداند که فقط شامل پیک های مثبت است. به عنوان مثال، سیگنال ایده آلی که به کنترلر من ارسال می کند 1 1 1 5 1 1 1 5 1 1 1 خواهد بود که در آن اعداد نشان دهنده دامنه هستند. در حالت ایده آل هیچ مولفه منفی برای سیگنال وجود نخواهد داشت. هدف من تشخیص این پیک ها و شمارش تعداد میلی ثانیه بین پیک ها و استفاده از آن برای محاسبه دقیق bpm است. من می‌توانم از روش تشخیص شیب استفاده کنم، اما احتمالاً فقط برای یک سیگنال ایده‌آل بدون نویز دقیق است. برای اجرای واقعی و مورد نه چندان ایده آل، فکر می کردم که می توانم از FFT استفاده کنم. از نظر تئوری بیشترین ضربان در دقیقه قلب انسان تقریباً 4 هرتز است، نرخ نایکیست من 8 هرتز خواهد بود. با FFT 16 نقطه ای، هر سطل دارای بخش های واقعی و خیالی در بخش های 8/16 هرتز است. من می توانم بزرگی را برای هر سطل محاسبه کنم. حدس می زنم سطل با بالاترین قدر فرکانس قله ها باشد؟ روش من درسته؟؟ آیا می توانم فقط با استفاده از FFT 16 نقطه ای تفاوت های 0.5 هرتز را تشخیص دهم؟ در ضمن آیا از FFT در روش شیفت پنجره استفاده کنم یا فقط بعد از 16 نقطه سیگنال FFT را انجام دهم؟؟
تشخیص پیک در یک کنترلر با استفاده از FFT
27052
من مجموعه بزرگی از شبکه های عصبی را برای یک کار بسیار ساده آموزش می دهم. 10 تا از شبکه ها دارای پیکربندی یکسان هستند، اما حجم داده های متفاوتی دارند. هر 10 شبکه دارای یک لایه مخفی هستند که 2 نورون در آن وجود دارد. شبکه اول 1000 نمونه آموزشی، بعدی 2000 و شبکه آخر 10000 نمونه آموزشی دریافت می کند. 1000 مثال آموزشی برای شبکه اول، زیرمجموعه ای از 2000 مثال آموزشی برای شبکه دوم است که باز هم زیرمجموعه ای از 3000 مثال آموزشی برای شبکه سوم و غیره است. من شبکه‌هایم را با استفاده از Build in NN-Toolbox در MATLAB آموزش می‌دهم، جایی که از الگوریتم Levenberg-Marquardt استفاده می‌کنم. وقتی شبکه‌ها را آموزش می‌دهم، همه آنها با یک خطای میانگین مربع حدود 0.007 (که برای مشکل خاص من منصفانه به نظر می‌رسد) ختم می‌شوند. تنها موردی که متفاوت است، اولین مورد است که به MSE حدود 0.002 دست می یابد. بعد از اینکه شبکه‌هایم را روی داده‌ها آموزش دادم، آنها را روی برخی از داده‌های آزمایشی که برای آموزش استفاده نکردم آزمایش می‌کنم. اکنون مشکل این است که شبکه با 1000 نمونه آموزشی به طور جدی از شبکه های دیگر بهتر عمل می کند. از امتیاز MSE، این منصفانه به نظر می‌رسد، اما من نمی‌دانم چرا شبکه‌هایی با داده‌های موجود بیشتر، و حتی داده‌هایی که شبکه استفاده می‌کند، نمی‌توانند پارامترها را بهتر یاد بگیرند. آیا چیزی به نام داده بیش از حد وجود دارد؟
آیا می توانم اطلاعات زیادی داشته باشم؟
105267
من برخی داده‌های طبقه‌بندی دارم که در آن هر مشاهده دارای ویژگی‌های متعدد است، و می‌خواهم یک مدل احتمالی از آن با استفاده از توزیع دیریکله ایجاد کنم. به عنوان مثال، در حالت دو بعدی، من دو ویژگی A، B با مقادیر متمایز n، m به ترتیب دارم، و سپس من یک توزیع دیریکله با پارامترهای nm خواهم داشت. با این حال، من همچنین می‌خواهم که این مدل بتواند داده‌های ناقص را برای یک مشاهده مشخص مدیریت کند. به عنوان مثال، ممکن است بتوانم A را برای یک مشاهده مشخص کنم، اما چیزی در مورد B نگویم. من می‌خواهم بتوانم مدل خود را بر اساس این داده‌ها به روز کنم، اما در قلمرو توزیع دیریکله باقی بمانم. برای مثال، من نمی‌خواهم وارد توزیع‌های hyperdirichlet شوم، زیرا تعداد پارامترهایی که باید نگه دارم، منفجر می‌شوند.
به روز رسانی توزیع دیریکله با داده های جزئی
59235
من سعی می کنم یک محاسبه توان با G*Power انجام دهم. دو گزینه کاملاً مهم وجود دارد که معنای آنها برای من روشن نیست: تعداد گروه ها - این چیست؟ من یک طرح فاکتوریل با اندازه های تکراری 2x2 دارم. آیا این به این معنی است که چهار گروه وجود دارد، یا همانطور که بقیه اینترنت نشان می دهد، این کادر برای عوامل بین موضوعی است؟ اگر برای فاکتورهای بین آزمودنی ها باشد، فرض می کنم برای فاکتوریل اندازه گیری های مکرر این عدد 1 است. تعداد اندازه گیری - همچنین کاملاً مشخص نیست. آیا این تعداد نقاط داده ای است که من برای هر شرکت کننده جمع آوری کردم؟ اگر آنها قبل از ورود به ANOVA میانگین گرفته شده باشند چه؟ یا این تعداد شرایط درون موضوعی است؟ بنابراین 4 برای آزمایش من؟ هر گونه راهنمایی در مورد معنای این تنظیمات بسیار قدردانی می شود - تا آنجا که من می توانم بگویم که اینها غیرمستند هستند.
اقدامات مکرر در تنظیمات فاکتورها برای محاسبه توان G*Power
51781
من در حال حاضر در حال ارزیابی برخی از نتایجی هستم که از مدلی که بر روی مجموعه ای از داده های متنی که استخراج کرده ام اعمال کرده ام. مشکل من این است که استادم به من گفته است که از روش خاصی استفاده کنم و من واقعاً نمی دانم چگونه به معقول ترین راه به این مشکل حمله کنم. ایده اصلی ارزیابی این است که آیا رابطه ای بین ماه ها و/یا سال ها در متغیر پاسخ من وجود دارد یا خیر. داده‌های من ماهیت زیر را دارند: > DV: باینری (رویداد یا غیررویداد) > > IV1: ماهی که رویداد رخ داده است / اتفاق نیفتاده > > IV2: سالی که رویداد رخ داده است / اتفاق نیفتاده من در مجموع 431000 مشاهده دارم همانطور که اکنون وجود دارد من داده‌هایم را طوری تغییر داده‌ام که به‌جای یک DV باینری، داده‌های شمارشی برای هر دوره زمانی داشته باشم. من همچنین یک تبدیل لاجیت در تعریف شده به عنوان ln(DV/(1-IV3)) انجام دادم تا اثر فعالیت را مرتب کنم. > DV (رویداد): رویدادها در یک دوره زمانی داده شده IV1 و IV2 > > IV1 (سال): سال 1995 تا 2012 > > IV2 (ماه): ژانویه تا دسامبر در IV1 > > IV3 (فعالیت): رویدادها + غیر رویدادها در بازه زمانی داده شده IV1 و IV2 > (خنثی شده) من در مجموع 176 مشاهده دارم در حال حاضر مدل من این است به این صورت تعریف می‌شود: «DV = b1*IV1 + b2*IV2 + خطا» اما من با این درک که آیا این منطقی است یا نه، در حال مبارزه هستم. من به دنبال مدل‌های پواسون و مدل‌های بادشده صفر بوده‌ام، اما تا به حال به نظر من معقول‌ترین کار این است که تبدیل لاجیت را انجام دهم تا فعالیت و نگاه به سال و ماه را به عنوان عواملی در یک رگرسیون خطی عادی خنثی کنم، اما دوباره من من فکر می کنم که ممکن است از یک رگرسیون لجستیک نیز استفاده کنم. آیا کسی از شما می داند که چگونه با چنین موردی برخورد کند؟ من از R، SPSS و rapidminer استفاده می کنم.
کدام مدل برای شمارش داده ها در طول زمان؟
50787
من سعی می کنم یک بازی کلی را تحلیل کنم. این احتمالاً کاملاً شناخته شده است، در این صورت اشاره به ادبیات مرتبط کافی است (اما توضیح رد نمی شود!). اگر استاندارد نباشد، البته هر گونه کمکی قدردانی خواهد شد، حتی اگر پاسخ کاملی نداشته باشد. فرض کنید من N شیء دارم (مثلاً 100) با پیشینهای غیر پیش پا افتاده $v_1,\ldots,v_N$ که بهترین حدس من را در مورد مقادیر آنها نشان می دهد. من زمان دارم تا آزمایش‌های $m$ (مثلاً 1000) را روی هر یک از اشیاء انجام دهم، و آزمایش‌ها می‌توانند تطبیقی ​​باشند. من می‌خواهم اشیاء $k$ (مثلاً 3) را به ترتیب انتخاب کنم. هر آزمایش تخمین من را از ارزش واقعی یکی از اشیا بهبود می بخشد. اما بر خلاف مشکل راهزن چند مسلح، هیچ معاوضه اکتشاف در مقابل بهره‌برداری وجود ندارد: تنها چیزی که اهمیت دارد فهرستی است که در پایان آزمایش‌های $m$ وجود دارد. می توانید تابع هزینه را به صورت (مقدار مورد #1 - مقدار مورد انتخاب شده به عنوان #1) + ... + (مقدار مورد #$k$ - ارزش مورد به عنوان #$k$ انتخاب شده) در نظر بگیرید. بستن کافی است پیشین ها نسبتاً دقیق هستند (مطمئناً راهنمای خوبی برای مکان جستجو هستند) اما در معرض خطاهای سیستمی ناشناخته هستند. آزمایش‌ها بی‌طرفانه هستند اما دارای خطای تصادفی هستند. خوشبختانه، خطاهای تصادفی برای همه آزمایش‌ها، صرف نظر از موضوع، یکسان است، بنابراین حداقل تا حدودی از نظر آماری قابل کنترل به نظر می‌رسد. من در اینجا بسیار در یک نقطه جمع آوری اطلاعات هستم. آنچه را که برای پاسخ دادن به سؤال باید انجام دهید، فرض کنید و من سعی خواهم کرد آن را مناسب کنم. :)
راهزنان بدون بهره برداری: یافتن بهترین اقلام با اطلاعات ناقص
50786
آیا می توان یک جنگل تصادفی را برای پیش بینی مناسب داده های شمارش آموزش داد؟ این چگونه ادامه خواهد داشت؟ من طیف گسترده ای از مقادیر را دارم، بنابراین طبقه بندی واقعاً منطقی نیست. اگر از رگرسیون استفاده کنم، آیا به سادگی نتایج را کوتاه می کنم؟ من اینجا کاملا گم شده ام هر ایده ای؟
پیش‌بینی تعداد داده‌ها با جنگل تصادفی
51786
آیا کسی می داند که برای پاک کردن داده ها برای رگرسیون لاجیت (نه رگرسیون لجستیک) باید چه مراحل دقیق پاکسازی داده را انجام داد؟ من فقط متغیرهای زمانی به معنی سال و ماه را به عنوان متغیرهای مستقل خود دارم و از R استفاده می کنم. رگرسیون لاجیت به سادگی یک رگرسیون خطی معمولی است که در آن DV با فرمول زیر تبدیل شده است: > `logit(y) = ln (y/(1-y)` برای مثال: > 3 نفر از 12 نفر با مصرف یک قرص در دوره 3 درمان می شوند -> > `ln(0.25/(1-0.25)` > > > 5 نفر از 25 نفر با مصرف قرص در دوره 5 درمان می شوند -> `ln(0.20/(1-0.20)` اگر نسبت و در بسیاری از مقالات و کتابها ارتباط نزدیکی با رگرسیون لجستیک دارد.
چه پاکسازی داده برای رگرسیون لاجیت فقط با Dummies انجام شود؟
23743
من از بسته kernlab در R برای ساخت یک SVM برای طبقه بندی برخی داده ها استفاده می کنم. SVM به خوبی کار می کند زیرا پیش بینی با دقت مناسبی را ارائه می دهد، با این حال لیست متغیرهای ورودی من بزرگتر از آن است که می خواهم و من از اهمیت نسبی متغیرهای مختلف مطمئن نیستم. من می‌خواهم یک الگوریتم ژنتیک را برای انتخاب زیرمجموعه‌ای از متغیرهای ورودی پیاده‌سازی کنم که بهترین آموزش‌دیده/مناسب‌ترین SVM را تولید می‌کند. من برای انتخاب بسته R برای استفاده در هنگام اجرای این GA (و احتمالاً یک مثال فرضی مختصر) کمک می خواهم. من بسیاری از بسته‌های R GA/P را در آنجا جستجو کرده‌ام (RGP، genalg، subselect، GALGO)، اما از نظر مفهومی درگیر این هستم که ببینم چگونه تابع ksvm خود را به عنوان بخشی از تابع تناسب اندام پاس می‌کنم و ورودی خود را وارد می‌کنم. آرایه متغیر به عنوان مجموعه جمعیت...؟ هر گونه کمک، فکر، یا تلنگر در جهت درست، با سپاسگزاری دریافت می شود. کد تشکر که این مشکل را حل می کند که در زیر در تابع EDIT # پیش بینی بعدی اضافه شده است تا برای تست بک تست استفاده شود pred1pd = function(t) { print(t) ##add section برای انتخاب بهترین مجموعه متغیر از میان متغیرهای موجود با استفاده از تابع ارزیابی # GA - انتخاب می کند. بهترین شاخص‌ها بر اساس خطای آموزش کاهش‌یافته mi.evaluate <- function(string=c()) { tmp <- data[(t-lookback):t,-1] x <- string tmp <- tmp[,x==1] tmp <- cbind(data[(t-lookback):t,1],tmp) colnames(tmp)[1] <- targets trainedmodel = ksvm(targets ~ .، داده = tmp، نوع = ktype، هسته = rbfdot، kpar=list(sigma=0.1)، C = C، prob.model = FALSE، cross = crossvalid) نتیجه <- error(trainedmodel) print(result) } ## monitor tge GA process monitor <- function(obj) { minEval = min(obj$evaluations); plot(obj، type=hist); } ## نتایج GA را منتشر کنید. اندازه به تعداد نشانگرهای بالقوه تنظیم شده است gaResults <- rbga.bin(size=39, mutationChance=0.10, zeroToOneRatio=10, evalFunc=mi.evaluate, verbose=TRUE, monitorFunc=monitor, popSize=50, iters=3 الیتیسم=10) ## اکنون باید بهترین کروموزوم را بیرون بکشد و چارچوب داده را بر اساس این نتایج بازسازی کنیم تا بتوانیم مدل bestChro را آموزش دهیم <- gaResults$population[1,] newData <- data[,-1] newData <- newData[,bestChro==1] newData <- cbind( data[,1],newData) colnames(newData)[1] <- targets print(colnames(newData)) # Train مدل با استفاده از مجموعه داده جدید مدل = trainSVM(newData[(t-lookback):t, ], ktype, C, crossvalid) # پیش بینی pred = as.numeric(as.vector(predict(model, newData[t+1, - 1]، type=response))) # چاپ برای بازرسی کاربر چاپ (pred) }
چگونه می توان انتخاب متغیر الگوریتم ژنتیک را در R برای متغیرهای ورودی SVM انجام داد؟
50781
بهترین رویکرد برای انتخاب استراتژی چند کلاسه (MSVM، OVA، ECOC) برای طبقه بندی تعداد زیادی از کلاس ها با نمونه های محدود از هر کلاس چیست؟ دو عامل دیگر که راه حل را تعریف می کنند، در مورد من: * احتمال پیش بینی عامل مهمی است که مراحل بعدی راه حل من را تعیین می کند. * اندازه (یعنی اندازه شی طبقه‌بندی‌کننده روی دیسک که بعداً می‌تواند در حافظه بارگذاری شود و برای پیش‌بینی استفاده شود)، طبقه‌بندی‌کننده نصب‌شده (از آنجایی که من نیاز دارم راه‌حل قابل حمل بدون ارائه آن به عنوان سرویس باشد). من نیازی به تجزیه و تحلیل طبقه بندی کننده(های) ندارم جز اینکه دسته بندی را با احتمال معقول بدست آوریم. به روز رسانی: مشکل اساساً مربوط به طبقه بندی متن است.
انتخاب یک استراتژی چند کلاسه
50783
من در مورد انگیزه پشت تعریف زیر از ضرر مورد انتظار بودم تعجب کردم: $$E[L] = \sum_{k} \sum_{j} \int_{R_{j}} L_{kj} p(x, C_{k) })dx$$ که در آن $L_{kj}$ ماتریس ضرر است، که در آن $j$ کلاس پیش بینی شده و $k$ کلاس واقعی است، $R_{j}$ منطقه تصمیم مربوط به کلاس $j$ و $x$ یک بردار ورودی است. برای مشخص بودن، فرض کنید فقط دو ناحیه $R_{1}$ و $R_{2}$ داریم و عناصر موجود در $R_{1}$ و $R_{2}$ متعلق به کلاس $C_{ هستند. 1}$ و $C_{2}$، به ترتیب. برای مثال، یک عنصر $x_{i}$ در منطقه $R_{2}$ با عبارت کمک می‌کند: $$L_{12}p(x_{i}, C_{1}) + L_{22}p( x_{i}، C_{2})$$ اما $L_{22}$ احتمالاً $0$ است زیرا ضرر مربوط به پیش‌بینی کلاس $C_{2}$ زمانی که کلاس واقعی $C_{2}$ است چیزی است که ما خواستن من می‌دانم که می‌خواهیم $E[L]$ را به حداقل برسانیم، بنابراین هر بار که کلاس را به اشتباه پیش‌بینی می‌کنیم، $E[L]$ را بر اساس $L_{kj}$ افزایش می‌دهیم، اما چرا در این مثال ضرب می‌کنیم، عبارت $p(x_{i}، C_{1})$ یا به طور کلی، $p(x، C_{k})$؟ با ساده کردن، برای هر تخصیص $x$ به کلاس $j$، می‌خواهیم: $$\sum_{k} L_{kj}p(C_{k}|x)$$ را به حداقل برسانیم، اما این سؤال باقی می‌ماند، چرا p (C_{k}|x)؟ به هر حال، من می توانم ببینم که انتظار نیاز به یک احتمال دارد، اما نمی توانم بفهمم که چرا باید احتمال کلاس واقعی را با توجه به x$ انتخاب کنم. با احترام
به حداقل رساندن ضرر مورد انتظار
95381
من در حال یادگیری روش های R و تجزیه و تحلیل داده ها هستم، بنابراین اگر سوالم خیلی ابتدایی است عذرخواهی می کنم. من یک نمونه داده از رکوردهای 4K+ از نظرسنجی جامعه شناختی دارم. چند متغیر جمعیت شناختی و تعداد زیادی سؤالات طبقه بندی شده از نوع بله/خیر وجود دارد. یک متغیر باینری وجود دارد که من سعی می کنم بر اساس سؤالات طبقه بندی شده و/یا جمعیت شناسی پیش بینی کنم. بسیاری از سوالات طبقه بندی شده پاسخی ندارند. می‌خواهم بدانم تلقی کردن فیلدهای خالی به‌عنوان NA یا تنظیم آن‌ها روی مقدار «noResponse» چه پیامدهایی دارد. درک من این است که اگر فیلدها NA باشند، R هنگام ایجاد یک مدل، آنها را از محاسبات نادیده می گیرد. اگر آنها را روی noResponse تنظیم کنم، R از فیلدها در محاسبات استفاده می کند و این نشان دهنده انتخاب پاسخ دهنده برای پاسخ ندادن است. به احتمال زیاد خوب است بدانید که آیا الگوی عدم وجود MCAR، MAR یا MNAR است، اما با توجه به تعداد متغیرها، من راهی برای تعیین آن جدا از حدس زدن نمی بینم. تنها چیزی که می دانم این است که مردم مجبور نبودند به هیچ یک از سؤالات غیر از متغیر وابسته باینری پاسخ دهند.
NA یا noResponse در متغیرهای طبقه بندی شده
59234
من کره زمین را به سطل های 100 مایل مربعی تقسیم کردم و سپس تعداد توییت های ارسال شده با موقعیت جغرافیایی در هر سطل را جمع آوری کردم. در ابتدا هر بن را روی نقشه بر اساس مقدار استاندارد شده (tweetInBin)/(maxTweetInAnyBin) رنگ آمیزی کردم. این تنها یک نقطه داغ را ایجاد کرد که تمام نقاط دیگر تقریباً یکنواخت رنگ داشتند. ![http://i.stack.imgur.com/4gJms.png \(متاسفانه من هنوز به اندازه کافی برای جاسازی عکس ندارم\)](http://i.stack.imgur.com/kx5xr .png) همانطور که از نمودار صدک می بینید، صدک 100 نسبت به سطل های دیگر از نظر جمعیت آنقدر زیاد است که استانداردسازی با حداکثر val هرگونه نمایش معنی دار را از بین می برد. سوال من از شما بچه ها این است که چگونه داده های خود را رنگ آمیزی کنم تا بتوانم یک نقشه حرارتی معنی دار داشته باشم. من با ایده خطی کردن داده ها با کدگذاری رنگ بر اساس صدک ها به جای بر اساس جمعیت بازی می کردم. اساساً صدک 100 در مقیاس رنگی 100٪ شدت می یابد، در حالی که صدک 50 در مقیاس رنگی شدت 50٪ و غیره را دریافت می کند. تنها مشکل من با این روش این است که تفاوت واقعی در جمعیت‌ها را به حاشیه می‌اندازد، درست مانند اینکه میانه‌ها را به حاشیه می‌برند. چگونه می توانم با اطلاعات پرت رفتار کنم در حالی که هنوز اطلاعات جمعیت را منتقل می کنم؟
چگونه باید یک نقشه حرارتی را بر اساس داده های زیر رنگ آمیزی کنم؟
105260
من در یک آژانس آنلاین کار می‌کنم، جایی که ما تست‌های AB زیادی را انجام می‌دهیم تا تفاوت‌های نسبت بین دو گروه را آزمایش کنیم (آزمون در مقابل کنترل). روش استاندارد در صنعت برای آزمایش تفاوت نسبت ها یا بر اساس توزیع نرمال یا مجذور کای است. تست‌های پایه چی $\lambda$ تمایل زیادی به استفاده از داده‌های زیادی دارند، که شما همیشه آن را ندارید، در حالی که تست‌های توزیع عادی مشکل‌ساز هستند، زیرا بر خلاف تقریب معمولی نسبت‌ها با $0$ و $1$ محدود می‌شوند. من به همکارانم ادعا کردم که آزمایشی که از توزیع بتا استفاده می کند همیشه باید هر دو گزینه عادی / چی را بیش از حد انجام دهد، زیرا برای نسبت ها ساخته شده است. این کد R من برای انجام تست است، این تست نشان می‌دهد که تست بیش از گروه کنترل انجام شده است (95%): کتابخانه (ggplot2) number_of_success_test <- 46 number_of_success_ctroll <- 33 number_of_failures_test <- 2643 number_of_failures_beta (R1 <25) 100000، تعداد_آزمون_موفقیت، تعداد_آزمون_شکست، ncp=0) test2 <- rbeta(100000، تعداد_موفقیت_کنترل، تعداد_کنترل_شکست، ncp=0) تست <- data.frame(test1، test2) quantile(test2، <tagg=0. aes(x=test1)) + geom_density(color=red, bindwidth=0.0000001) + geom_density(aes(x=test2), bindwidth=0.0000001) + geom_vline(xintercept=quantile(test2, 0.95+) =چندک(تست1، 0.5)، color=red) g + xlab(CR) + geom_text(label=95 درصد - گروه کنترل، x=quantile(test2, 0.95)، y=15000) + geom_text(label=50 درصد - گروه آزمایش، x=quantile(test1, 0.5)، y=12000، color=red) درست می گویم؟ آیا واقعا همیشه بهتر است از توزیع بتا بر توزیع chi / نرمال در هنگام برخورد با تفاوت در نسبت ها استفاده شود؟ (همچنین، آیا رویکرد من در کد R درست است؟)
آیا واقعاً توزیع بتا بهتر از توزیع عادی برای آزمایش تفاوت دو نسبت است؟
35002
من با تعریف یک مدل رگرسیون در مورد گنجاندن یک ثابت میانگین شده توسط متغیر وابسته گیر کردم. من یک مجموعه داده M=(id, x1,x2,x3,x4) دارم که در آن: id: شناسه محصول x1 است: یک متغیر پیوسته است که نشان دهنده قیمت است (0 تا 999 USD) x2: یک متغیر طبقه بندی است که نشان دهنده آیا محصول به دسته A تعلق دارد x3: یک متغیر طبقه بندی است که نشان می دهد آیا محصول به دسته B تعلق دارد یا خیر x4: یک متغیر گسسته است که دارای رتبه بندی مشتری با مقادیر است. V=(1،2،3،4،5) از طریق یک تبدیل برای هر محصول «id»، میانگین‌های «x4» را به‌عنوان «AVG(x4)_{i}» ایجاد می‌کنم که در آن «i={1،2، 3،4،5}`. اکنون مجموعه داده من تبدیل به M=(id, x1, x2, x3, AVG(x4)_{1}, AVG(x4)_{2}, AVG(x4)_{3}, AVG(x4)_{4} , AVG(x4)_{5}) می‌خواهم «AVG(x4)_{i}» را روی «x1، x2، x3» پس‌انداز کنم، اما به دلیل اینکه «x1» از تئوری دارای تعامل مستقیم با متغیر وابسته است، من می خواهم مدل را رگرسیون کنم: AVG(x4)_{i} = b1*x1+b2*x2+b3*x3+b4*(AVG(x4)_{i}*x1 )+C+e برای هر مقدار «i». * آیا این تعریف از مدل درست است؟ * آیا «b4» باید به دلیل همخطی بودن کاهش یابد؟
رگرسیون با میانگین و هم خطی
110992
می خواهم در مورد میزان پاسخگویی بپرسم. من 2500 پست توزیع کرده ام. با این حال، من حدود 30 را دریافت کردم. سپس، 200 پست را به عنوان یادآوری با نامه جذاب ارسال کردم. من فقط یکی دوتا دریافت کردم. کل پرسشنامه های قابل استفاده: 21. بعد از مدتی مشخص کردم که باید از طریق ایمیل ارسال کنم. بنابراین، من بیش از 5000 ایمیل با حدود 6 یادآوری ارسال کردم. بیش از 500 نفر پرسشنامه را باز کرده اند، اما همه آنها پاسخ نداده اند. شاید افرادی که با پاسخ دادن به چند سوال تمایل به پاسخگویی نشان دادند حدود 250 نفر باشند. موارد قابل استفاده حدود 165 هستند. آیا نرخ پاسخگویی مشکلی دارد؟ مطلعین مالک-مدیر بنگاه های تولیدی کوچک و متوسط ​​بودند. علاوه بر این، من همگنی را بین هر دو گروه (پست‌ها و ایمیل‌ها) آزمایش کرده‌ام که می‌توانستند ظاهر شوند، به جز اینکه در DV تفاوت معنی‌داری نشان می‌دهند؟ 1. آیا می توانم این سوال را مطرح کنم که هر دو گروه حتی نرخ پاسخ به پست ها در وهله اول خیلی پایین است؟ 2. اگر بله (من می توانم ادغام کنم)، چه کاری باید انجام دهم زیرا فقط هر دو گروه در مورد DV تفاوت دارند (نه IV، نه متغیرهای جمعیتی) متشکرم
میزان پاسخگویی در پژوهش
111433
من یک داده تجزیه و تحلیل نظرسنجی دارم که در آن پاسخ ها برای سؤالات مختلف مستقل از «ضعیف» تا «عالی» متغیر است. در زیر کارت امتیازی برای این پاسخ ها آمده است: عالی 100 خیلی خوب 90 خوب 75 مناسب 25 ضعیف 0 همچنین در داده های نظرسنجی تعدادی خالی وجود داشت که از من خواسته شد که میانگین کل ستون را جایگزین کنم. به عنوان مثال، اگر من 5 پاسخ برای مثال کیفیت غذا به عنوان 0، 25، 75، **خالی**، 100 داشتم، باید جای خالی را با 50 (میانگین از 4 پاسخ) جایگزین کنم. با این حال، متغیر وابسته من حاوی هیچ جای خالی نیست. سؤالات من به شرح زیر است: 1. آیا هنوز می توانم متغیرهای وابسته را به عنوان ترتیبی 2 در نظر بگیرم. چه نوع رگرسیون برای این نوع داده ها مناسب است، لجستیک خطی یا ترتیبی. طبق درک من، رگرسیون خطی در این مورد شکست خواهد خورد. با تشکر
نوع متغیر در تحلیل نظرسنجی
92177
من در حال انجام یک پروژه مرتبط با شناسایی پویایی فروش هستم. پایگاه داده من شامل 26 هفته پس از عرضه محصول است (بنابراین 26 مشاهدات سری زمانی با فاصله زمانی مساوی). ![http://imageshack.com/a/img18/5628/l5qg.jpg](http://i.stack.imgur.com/Dquwy.jpg) ![http://imageshack.com/a/img34 /8953/yh6i.jpg](http://i.stack.imgur.com/8Dh2C.jpg) من از دو روش خوشه‌بندی سری زمانی استفاده کردم. ببینید کدام الگوها در گروه‌های مختلف غالب هستند (خوشه‌بندی براساس «واحد_فروش_هفته_هفته»). روش اول مبتنی بر k-medoids و روش دوم با خوشه بندی توسط پارامترهای مدل های رشد است. قدم بعدی من این است که بر اساس این خوشه ها پیش بینی کنم. آیا روش خاصی برای پیش بینی بر اساس خوشه های سری زمانی وجود دارد؟ در پروژه ام باید مبحث خوشه بندی و پیش بینی روی خوشه ها را با هم ترکیب کنم. من تحلیل‌هایم را در R اجرا می‌کنم، بنابراین از هرگونه پیشنهادی در مورد رویه‌های R سپاسگزار خواهم بود. لطفاً توجه داشته باشید که من در تجزیه و تحلیل سری های زمانی نسبتاً جدید هستم، بنابراین هر وضوحی که می توانید ارائه دهید، در R یا هر بسته ای که می توانید توصیه کنید که به انجام کارآمد این کار کمک کند، قابل قدردانی خواهد بود.
روش ویژه برای پیش بینی خوشه های سری زمانی در R?
35006
آیا کسی می‌تواند به من در ارائه ادامه کسری از توزیع نرمال چند متغیره کمک کند؟ چنین نمایشی برای حالت تک متغیره معروف است. برای مثال، > C-I را ببینید. سی لی. در لاپلاس کسری برای انتگرال عادی ادامه داد. _آن. > Inst. آمار. Math._، 44(1):107-120، مارس 1992. آیا چنین نمایش کسری ادامه دار برای حالت چند متغیره نیز وجود دارد؟ (من این پیشنهاد را با ارسال همان سوال در math stackexchange دنبال کردم، اینجا را ببینید)
نمایش کسری ادامه از توزیع نرمال چند متغیره
74063
من گروه های مختلفی از دلفین ها دارم، برخی با فرزندان، برخی بدون. من شمارش می‌کنم که هر گروه چند نوع آواز منتشر کرده است و می‌خواهم بفهمم که آیا تفاوت آماری بین گروه‌های دارای فرزند و بدون فرزند وجود دارد یا خیر. مجموعه داده من چیزی شبیه به: Group_number Vocal1 Vocal2 Offspring Gr01 5 3 0 Gr02 7 3 0 Gr03 4 4 0 Gr04 1 6 0 Gr05 7 9 0 Gr06 6 2 1 Gr07 2 4 1 Gr08 7r 2 06 1 من باید این نوع آواز را در یک زمان انجام دهم (من چند ده نوع دارم)؟ یا می توانم همه این کارها را در یک اجرا انجام دهم (مانند رگرسیون خطی چندگانه)؟ یک نفر به من گفت که یک chi-square انجام دهم، اما مطمئن نیستم که چگونه آن را انجام دهم، یا اینکه آیا مناسب است. T-student، ANOVA، MANOVA، GLM، مزایا و معایب هر روش با فرض اینکه داده های من به طور معمول توزیع شده باشد چیست؟ و اگر اینطور نباشد چه؟ ببخشید اگر سوال احمقانه و مبهم به نظر می رسد، اما شاید کسی می تواند به من یک آموزش ساده یا چیزی را راهنمایی کند. پیشاپیش متشکرم
چگونه متداول ترین متغیر را بین گروه ها آزمایش کنیم؟
8300
من در حال بررسی تاثیر یک دارو بر EEG و شناخت بیماران صرعی هستم. ما دو بار، قبل و بعد از درمان پزشکی، EEG و آزمایش‌های عصبی روان‌شناختی (NP) انجام داده‌ایم. برخی از پارامترها در تست های EEG و NP پس از درمان دارویی به طور قابل توجهی تغییر یافتند (با استفاده از آزمون مجموع رتبه ویلکاکسون انجام شد، زیرا توزیع نرمال نبود). اکنون می خواهم همبستگی بین تغییر در پارامترهای EEG و تغییر در تست های NP را محاسبه کنم. 7 پارامتر در پارامترهای EEG و 27 پارامتر در تست NP وجود دارد. من می خواهم تجزیه و تحلیل همبستگی را روی هر جفت انجام دهم و ببینم آیا هر جفتی به طور قابل توجهی همبستگی دارد یا خیر. سؤالات من این است: 1. آیا باید از همبستگی ناپارامتریک، مثلاً اسپیرمن، برای محاسبه $\rho$ استفاده کنم؟ (از آنجایی که مقادیر پارامترهای EEG و NP طبیعی نیستند) 2. از آنجایی که 7 پارامتر در EEG و 27 پارامتر در تست NP وجود دارد، باید 7*27 تعداد تست وجود داشته باشد که برای مقایسه های متعدد نیاز به اصلاح مقدار p دارد. از کدام روش استفاده کنم؟ من به دنبال روشی نه چندان محافظه کارانه هستم. من از پست دیگری دیدم که می توانم از تست جایگشت برای مقایسه های متعدد استفاده کنم. کسی می تواند توضیح دهد که چگونه می توانم این کار را انجام دهم؟
تجزیه و تحلیل همبستگی و اصلاح $p$-values ​​برای آزمایش چندگانه
73634
من در حال انجام برخی کارها بر روی مدل‌سازی جنبه‌های یک فرآیند فروش بوده‌ام، که در آن هر فروش در حال پیشرفت به عنوان یک فرصت شناخته می‌شود. من در حال تلاش برای ایجاد مدلی برای پیش بینی زمان بسته شدن یک فرصت هستم (مهم نیست که از دست رفته یا برنده شود). یک فرصت داده شده دارای چندین ویژگی توصیفی است، مانند مقدار تخمینی فروش، نماینده فروش، و غیره. علاوه بر این، هر فرصت یک تاریخ پایان مورد انتظار دارد. این تاریخ بسته شدن مورد انتظار (یعنی تعداد روزهای مورد انتظار برای بسته شدن) بدیهی است که یک پیش بینی ارزشمند برای تاریخ بسته شدن واقعی است. در مدل فعلی‌ام، من از این # روز پیش‌بینی‌شده اصلی تا پایان به همراه چندین ویژگی توصیفی به‌عنوان ورودی الگوریتم جنگل رگرسیون چندک برای بدست آوردن چندک برای زمان واقعی بسته شدن استفاده می‌کنم. این رویکرد فعلی خوب کار می کند، اما فقط تخمین اولیه را برای زمان بسته شدن (تولید شده توسط نماینده فروش) در نظر می گیرد. در عمل، در طول چرخه عمر فرصت، این تخمین ممکن است چندین بار توسط نماینده فروش که روی فروش کار می کند تغییر کند. امیدوارم کسی راهنمایی داشته باشد که چگونه می توانم کل این فرآیند را مدل کنم، جایی که یک فرصت یک زمان اولیه برای بستن تخمین دارد که به تدریج در طول زمان به روز می شود. بدیهی است که این مدل هر روز به منظور به‌روزرسانی پیش‌بینی‌ها برای فرصت‌هایی که تاریخ بسته‌شان به‌روز شده است، استفاده می‌شود. در نهایت، من فقط به دریافت چندک برای زمان واقعی برای بسته شدن اهمیت می دهم.
پیش‌بینی زمان تا رویداد با توجه به برآورد شخص ثالث که ممکن است در طول زمان تعدیل شود
74066
بنابراین، با کمک کسی در اینجا در آمار، می‌توانم بیشتر مشکلاتم را حل کنم. حالا من در این قسمت گیر کرده ام: من کد زیر را دارم که اگر این مقادیر ثابت می شد، خیلی خوب کار می کرد. immediate.amput.below.EV watchful.wait.EV اکنون آنچه آنها هستند بردارها هستند. آنها یک بردار با اندازه [n_psa] را نشان می دهند. کاری که باید انجام دهم این است که برای مقادیر n_psa، یعنی برای 100 مقدار، به تکرار نیاز دارم و تفاوت بین هر مقدار immediate.amput.below.EV[1] - watchful.wait.EV[1] و غیره را بیابم، نتایج را ذخیره کنید. فقط به عنوان اعداد مثبت، حتی اگر خروجی یک عدد منفی در یک بردار جدید باشد، و میانگین بردار جدید را پیدا کنید. این کاری است که من انجام می دادم. DELTA_COST <- حداکثر (immediate.amput.below.EV,watchful.wait.EV) - حداقل (immediate.amput.below.EV,watchful.wait.EV) میانگین (DELTA_COST)
تفاوت بین دو بردار و میانگین نتیجه را پیدا کنید
74068
من می‌خواهم نرخ کشف نادرست را با استفاده از تست‌های جایگشت تخمین بزنم. تا آنجا که من می دانم، چندین بسته R برای آزمایش های متعدد قابل استفاده هستند. من چندین مجموعه داده مستقل برای متاآنالیز دارم. من یک ضریب همبستگی پیرسون را محاسبه کردم، آن را به نمره Fisher-Z تبدیل کردم و سپس میانگین اندازه اثر هر جفت ژن را از چندین مجموعه داده مستقل محاسبه کردم. در واقع، در هر مجموعه داده، دو زیر گروه مختلف وجود دارد - افراد سالم و بیماران. در این شبکه هم‌ابر، من پروفایل‌های بیان ژن را فقط در گروه بیمار تجزیه و تحلیل کردم. سوال من اینجاست. > برای تخمین FDR با استفاده از آزمایش جایگشت با ایجاد مقادیر بیان ژن تصادفی > و مستقل برای همه ژن ها در هر > مجموعه داده برای شکستن روابط بین ژنی و در عین حال دست نخورده نگه داشتن میانگین بیان و انحراف استاندارد ژن ها در هر > چه باید کرد. مجموعه داده؟ متأسفانه من هیچ ایده ای برای انجام آن ندارم. من هنوز با آمار و همچنین R. تازه کار هستم. ممنون می شوم اگر بتوانید به این سوال با کد مربوطه پاسخ دهید که می توانم اجرا کنم.
آزمون جایگشت متاآنالیز: ضریب همبستگی
8309
اجازه دهید A ماتریس $n \times p$ متغیرهای مستقل و B ماتریس $n \times 1$ مربوط به مقادیر وابسته باشد. در رگرسیون ریج، پارامتر $\lambda$ را تعریف می کنیم به طوری که: $\beta=(A^\mathrm{T}A+\lambda I)^{-1}A^\mathrm{T}B$ . حالا اجازه دهید [u s v]=svd(A) و $d_{i}=i^{th}$ ورودی مورب 's'. درجه آزادی (df)= $\sum_{i=1}^{n} \frac{(d_{i})^2}{(d_{i})^2+\lambda}$ را تعریف می‌کنیم. رگرسیون ریج ضرایب مولفه‌های کم واریانس را کوچک می‌کند و از این رو پارامتر $\lambda$ درجه‌های آزادی را کنترل می‌کند. بنابراین برای $\lambda=0$، که مورد رگرسیون نرمال است، df=n، و در نتیجه همه مستقل‌ها متغیرها در نظر گرفته خواهد شد. مشکلی که من با آن روبرو هستم این است که مقدار $\lambda$ را با «df» و ماتریس «s» پیدا کنم. من سعی کردم معادله بالا را دوباره تنظیم کنم اما جوابی به شکل بسته دریافت نکردم. لطفا هر گونه راهنمایی مفید ارائه دهید.
چگونه پارامتر تنظیم را در رگرسیون پشته با درجات آزادی و ماتریس ورودی محاسبه کنیم؟
8303
من یک خانواده دوجمله‌ای glm را در R قرار می‌دهم، و یک گروه کامل از متغیرهای توضیحی دارم، و باید بهترین را پیدا کنم (R-squared به عنوان معیار خوب است). اگر یک اسکریپت بنویسم تا ترکیبات مختلف تصادفی متغیرهای توضیحی را بچرخانم و سپس ضبط کنم که بهترین عملکرد را دارد، واقعاً نمی دانم چه باید بکنم. و تابع جهش از بسته **جهش** به نظر نمی رسد که رگرسیون لجستیک انجام دهد. هر گونه کمک یا پیشنهاد می شود تا حد زیادی قدردانی Leendert
چگونه می توان زیر مجموعه رگرسیون لجستیک را انتخاب کرد؟
35009
من داده‌هایی با چند هزار ویژگی دارم و می‌خواهم انتخاب ویژگی‌های بازگشتی (RFE) را انجام دهم تا موارد غیر اطلاعاتی را حذف کنم. من این کار را با caret و RFE انجام می دهم. با این حال، شروع کردم به فکر کردن، اگر بخواهم بهترین تناسب رگرسیون را داشته باشم (مثلاً جنگل تصادفی)، چه زمانی باید تنظیم پارامتر (`mtry` برای RF) را انجام دهم؟ یعنی همانطور که می‌دانم caret RF را به طور مکرر روی زیرمجموعه‌های ویژگی‌های مختلف با mtry ثابت آموزش می‌دهد. من فرض می‌کنم «mtry» بهینه باید بعد از اتمام انتخاب ویژگی پیدا شود، اما آیا مقدار «mtry» که caret از آن استفاده می‌کند بر زیرمجموعه انتخاب‌شده ویژگی‌ها تأثیر می‌گذارد؟ البته استفاده از caret با mtry کم بسیار سریعتر است. امیدوارم کسی بتواند این را برای من توضیح دهد.
انتخاب ویژگی و تنظیم پارامتر با مراقبت برای جنگل تصادفی
78912
قضیه pi-lamda بیان می کند که اگر $Q$ یک سیستم pi است که در یک سیستم لامبدا $L$ موجود است، آنگاه جبر سیگما ایجاد شده توسط $Q$ نیز در $L$ موجود است. ما می توانیم از این برای نشان دادن اینکه CDF به طور کامل توزیع یک متغیر تصادفی را تعیین می کند استفاده کنیم، اما من ارتباط را نمی فهمم.
چگونه می توان از قضیه پی-لامبدا برای تعیین اینکه یک CDF توزیع یک متغیر تصادفی را کاملاً تعریف می کند استفاده کرد؟
78915
من یک مشکل دارم: y~x1+x2+x3+x4 که در آن متغیر پاسخ y همیشه بیشتر یا مساوی با متغیر توضیحی x1 است (برای مثال x1 نشان دهنده درآمد یک نفر از یک زوج و y درآمد کلی است. زوج). به نظر می رسد که رگرسیون خطی نرمال در این مورد ناکافی است. چه نوع مدل های رگرسیونی را باید بررسی کنم؟
متغیر پاسخ با متغیر وابسته محدود شده است
74064
Subitization عبارت است از شمارش سریع و دقیق نمایشگرهای کم تعداد، که با یک غیر خطی شدید در نمودار زمان پاسخ از شمارش متمایز می شود. در زیر یک طرح نماینده، از Watson، D. G.، Maylor، E. A.، & Bruce، L. A. M. (2007) آمده است. توجه داشته باشید که میانگین زمان شمارش برای نمایشگرهای 1-3 تقریباً به صورت خطی افزایش می یابد، اما میانگین زمان شمارش برای 4 از روند خطی پیروی نمی کند. برخی تحقیقات نشان می‌دهند که «محدودیت» زیربنی‌سازی به شرایط کار و حافظه کاری شرکت‌کننده بستگی دارد. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/krvVw.gif) من به دنبال راهی برای آزمایش محل قرارگیری آرنج هستم، با هدف نهایی شناسایی محدودیت زیربنایی یک شرکت کننده . در حال حاضر، بهترین ایده من انجام کاری مانند تضادهای چند جمله ای مکرر است. اصولاً من یک روند درجه دوم را در اعداد 1-3 و سپس در اعداد 1-4 و غیره آزمایش می کنم. می خواهم بگویم زمانی که روند درجه دوم قابل توجه است (تعدیل آزمایش های مکرر) از حد زیربنی سازی عبور کرده ام. با این حال، این حدود محدودیت های هوش آماری من است، بنابراین نمی توانم این ایده را خیلی خوب ارزیابی کنم. افکار؟ پیشاپیش ممنون
به دنبال آرنج در داده ها
74065
من کمی در مورد eigenfaces مطالعه کرده ام. فکر می‌کنم مفهوم اصلی آن را درک کرده‌ام - مجموعه‌ای از تصاویر چهره را بردارید و سپس ابعاد تصاویر را با استفاده از PCA کاهش دهید. چیزی که من واقعا نمی‌فهمم، تجسم نمایش ابعاد پایین‌تر تصاویر است. در تصاویر چهره، تعداد ابعاد، تعداد پیکسل ها است، بنابراین اگر ابعاد یک تصویر را کاهش دهید، تعداد پیکسل ها را کاهش می دهید. اما پس چگونه این تصویر را تجسم می کنید؟ آیا این فقط یک نسخه بسیار کوچکتر از نسخه اصلی تمام بعدی است؟ نمونه هایی که من دیدم به این شکل نیست. یا اینکه هر پیکسل را بزرگتر می کنید تا تصویر کلی به اندازه تصویر اصلی باشد؟
سوال در مورد Eigenfaces (PCA اعمال شده بر روی تصاویر صورت)
107921
من سعی می کنم معاملات (مثلاً تراکنش های کارت اعتباری) را به عنوان خوب یا بد طبقه بندی کنم بدون اینکه به صورت دستی به آن نگاه کنم. (تنها راه برای فهمیدن خوب یا بد بودن یک تراکنش، بازرسی دستی همه جزئیات است.) من قوانین خاصی را برای برچسب گذاری تراکنش هایی که نیازی به بازرسی دستی ندارند، ابداع کرده ام. به عنوان مثال، بگویید من روزانه 100 تراکنش در حال پردازش است و بر اساس قوانین، 60 تراکنش بدون بازرسی دستی انجام می شود. حالا از بین آن 60 تراکنش، چند مورد را باید به صورت دستی بررسی کنم و کدام آزمایش را انجام دهم تا ببینم آیا این قانون کار می کند؟
حداقل تعداد مشاهداتی که باید به صورت دستی بررسی شوند را تعیین کنید
92174
برای کاهش سردرگمی، برنامه خود را از ترافیک به اتاق جلسه تغییر دادم، بنابراین این برنامه در مورد مدل سازی کارایی اتاق جلسه است، مجموعه داده ها با قرار دادن نوعی سنسور حرکت در مرکز اتاق برای تشخیص و شمارش فعالیت های حرکتی ساخته شده است. . بنابراین داده‌های من سری‌های زمانی برای فعالیت‌های حرکتی هستند. مدلی که من می‌خواهم بسازم به منظور بهینه‌سازی مدت زمان برای نشان دادن وضعیت اشغال یا عدم اشغال اتاق به افراد است. اگر یک سنسور رویداد حرکتی را در لحظه دریافت کند، به منظور تصمیم گیری برای مدت زمان نمایش وضعیت اشغال شده، برنامه به تاریخچه رویدادهای حرکت نگاه می کند، (مثلاً 5 دقیقه آخر) در صورتی که 20 رویداد متوالی حرکت را در آخرین رویداد بشمارید. 5 دقیقه، سپس به این معنی است که تراکم فعالیت‌ها زیاد بوده است، بنابراین من فرض می‌کنم اتاق شلوغ بود و در دقیقه‌های متوالی بعدی شلوغ خواهد شد، سپس وضعیت اشغال را ایجاد کنید. زمان ماندن طولانی تر (5 دقیقه) قبل از تبدیل شدن به وضعیت رایگان اگر در مواردی که در 5 دقیقه گذشته فقط 2 رویداد نظارت شده است، به این معنی است که اتاق ممکن است شلوغ نباشد، این زمان وضعیت اشغال شده را فقط 1 دقیقه بگذارید. . تا اینجا من فقط نگران این هستم که از چه نوع مدل آماری برای پیش بینی مدت زمان اشغال شده بر اساس آخرین تاریخچه حرکت 5 دقیقه استفاده کنم؟
نحوه مدل سازی برای بهبود بهره وری استفاده از اتاق بر اساس سابقه سنسور حرکت
111439
در حین آزمایش میزان خطای نوع I با استفاده از R، متوجه شدم که با ANOVA 2 طرفه بیش از 5٪ موارد مثبت کاذب دریافت می کنم. با این حال، من فکر می کردم یکی از دلایل استفاده از ANOVA (برخلاف چندین آزمایش) کنترل خطای نوع I است. خب، من چه غلطی می کنم؟ کد R اینجاست: generate.dat <- function(N=30) # داده ها را با 2 عامل تولید کنید. # N تعداد آزمودنی ها در هر گروه است. { # id شناسه موضوع است، ما از N*4 استفاده می کنیم زیرا چهار گروه وجود دارد. گروه # نام کامل گروه است، مقدار A1، A2، B1، B2 # نتیجه اندازه‌گیری شده/مشاهده‌شده در آزمایش ما، دوباره N*4 است. # مقدار میانگین برای همه گروه ها 0 است، یعنی هیچ اثری از گروه وجود ندارد. dat <- data.frame(id=factor(1:(N*4)), group=factor(c( rep(c(A1, A2), every=N), rep(c(B1 ، B2)، هر=N)))، value=rnorm(N*4)) # تقسیم گروه به فاکتورهای جداگانه dat$factor1 <- factor(substring(dat$group, 1, 1)) dat$factor2 <- factor(substring(dat$group, 2, 2)) dat } # e.g. # dat <-gene.dat(3) # print(dat) # id group value factor1 factor2 # 1 1 A1 0.42385602 A 1 # 2 2 A1 -0.34829466 A 1 # 3 3 A1 -1.40946883 A 1 # 4 4. 4 4 A2 A 2 # 5 5 A2 -1.26614034 A 2 # 6 6 A2 -1.18024188 A 2 # 7 7 B1 -0.86129559 B 1 # 8 8 B1 -1.30517594 B 1 # 9 9 B1 0.502121020 B1 0.50212184 0.42755864 B 2 # 11 11 B2 -0.03262990 B 2 # 12 12 B2 0.85593000 B 2 do.anova <- تابع(dat) # انجام یک آنووای دو طرفه بین موضوعات بر روی dat. # کمترین مقدار p بدست آمده را برگردانید. # (ما علاقه مندیم که آیا حداقل یک اثر قابل توجه # در این مجموعه داده خاص وجود دارد). {نتایج <- aov(value ~ factor1 * factor2, data=dat) min( summary(نتایج)[[1]]$`Pr(>F)`[1:3] ) } # Peform 1000 تکرار: هر بار # مقداری داده تولید کنید و کمترین مقدار p # را از anova حاصل بدست آورید. out <- replicate(1000, do.anova(generate.dat())) # چند بار از 1000 اثر قابل توجهی داشت؟ sum (out < 0.05) / 1000 # در حدود 14% من شک دارم که واقعاً 14% شانس پیدا کردن یک اثر وجود داشته باشد، پس من چه اشتباهی انجام می دهم؟ با تشکر فراوان.
چرا نرخ خطای نوع I 10-15% برای ANOVA 2 x 2 دریافت می کنم؟