_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
89280
من در حال تجزیه و تحلیل داده های نظرسنجی هستم که شامل 3 متغیر (سوال) زیر است: * اگر انتخابات امروز بود به چه کسی در لیست زیر رای می دادید؟ (A، B، C، D، یا E)؟ بیایید تصور کنیم که پاسخ دهنده A را در مورد قبلی انتخاب کند. سپس از او می پرسند: * اگر الف در مسابقه شرکت نکند، به چه کسی رای می دهید؟ (B، C، D، یا E)؟ بیایید تصور کنیم که پاسخ دهنده C را در مورد قبلی انتخاب کند. سپس از او می پرسند: * اگر الف و ج در مسابقه شرکت نکنند، به چه کسی رای می دهید؟ (B، D، یا E)؟ من پاسخ سه سوال را دارم و می‌خواهم الگوریتمی ایجاد کنم تا به من کمک کند شانس پیروزی A را در مقابل همه نامزدهای دیگر، شانس B را در برابر بقیه نامزدها و غیره محاسبه کنم. هدف من این است که گزارش دهم خطرناک ترین مخالفان هر نامزد چه کسانی هستند. کسی ایده/پیشنهادی دارد؟
چگونه می توان احتمال پیروزی در انتخابات را محاسبه کرد؟
30083
همه! من سعی می کنم مقادیر یک آزمایش را بر اساس دسته بندی ها (در این مورد، جایگاه های ژنتیکی) ترسیم کنم. بنابراین، محور x شامل نام ژن است. من دارم طرح را به کار می گیرم، اما محور x بسیار شلوغ بود، بنابراین به این فکر می کنم که صفحه را به چند طرح تقسیم کنم، که هر کدام فقط حاوی چند مکان (یعنی چند مقدار x) باشد. وقتی سعی کردم زیرمجموعه ای از داده هایم را با اسکریپت زیر رسم کنم، نموداری دریافت کردم که همچنان حاوی مقادیر بسیار زیادی x در محور x بود. به عبارت دیگر، میله‌هایی که رسم شده بودند، همه در سمت چپ طرح شلوغ بودند و بسیاری از مقادیر x چیزی نداشتند. هیچ ایده ای دارید که من چه اشتباهی انجام می دهم؟ خواندن نام مکان ها در محور x سخت است، بنابراین نمی توانم بگویم که آیا نام مکان های مشابه را تکرار می کند (یعنی ممکن است مشکلی در ارتباط با melt()) باشد یا اینکه تمام مقادیر Loci را ترسیم می کند. داده به جای از split1_data. از طرف دیگر، توصیه‌های متفاوتی برای اینکه چگونه می‌توان یک طرح با صدها میله را آسان کرد؟ خیلی ممنون! library(reshape) library(ggplot2) require(ggplot2) setwd(/Users/markfisher/Desktop) sink(file=/Users/markfisher/Desktop/Pvalue_HWE_output.txt) data=read.csv(Pvalues_of_all.csv ، header=TRUE) ضمیمه (داده) print(data$Loci[1:10]) split1_data<-subset(data,data$Loci %in% data$Loci[1:10]) split1_datam<-melt(split1_data,id=Loci) print(split1_data $Loci) print(split1_data$Loci) sink() pdf('/Users/markfisher/Desktop/pvalue_sensitivity.pdf'، bg = سفید) p <- ggplot(split1_datam، aes(x =مکان، y = مقدار، رنگ = متغیر، عرض=.15)) p + geom_bar(position=dodge) + ylab (P-value)+ geom_hline(yintercept=0.05) dev.off() به روز رسانی: من اضافه کردم تغییر پیشنهادی استفاده از droplevels() را انجام دادم و خطای یک ثابت عددی غیرمنتظره دریافت کردم. این خروجی از کنسول R من است: > library(reshape) > library(ggplot2) > require(ggplot2) > setwd(/Users/markfisher/Desktop) > sink(file=/Users/markfisher/Desktop/Pvalue_HWE_output .txt) > data=read.csv(Pvalues_of_all.csv، header=TRUE) > attach(data) > print(data$Loci[1:10]) > split1_data<-droplevels(subset(data,data$Loci %in% data$Loci[1:10])) > split2_data< -subset(data,data$Loci %in% data$Loci[11:20]) > split3_data<-subset(data,data$Loci %in% data$Loci[21:30]) > split4_data<-subset(data,data$Loci %in% data$Loci[31:40]) > split5_data<-subset (data,data$Loci %in% data$Loci[41:51]) > split6_data<-subset(data,data$Loci %in% data$Loci[52:62]) > > split1_datam<-melt(split1_data,id=Loci) > print(split1_data$Loci) > print(split1_data $Loci) > > > sink() > pdf('/Users/markfisher/Desktop/pvalue_sensitivity.pdf'، bg = سفید) > > p <- ggplot(split1_datam، aes(x =مکان، y = مقدار، رنگ = متغیر، عرض=.15)) 1 خطا: ثابت عددی غیرمنتظره در p <- ggplot(split1_datam, aes(x =مکان، y = مقدار، رنگ = متغیر، عرض=.15))1 > p + geom_bar(position=dodge) + ylab(P-value)+ geom_hline(yintercept=0.05) خطا: شی ' p' not found > dev.off() null device 1 > اگر کسی نیاز دارد فایل خروجی من را ببیند، به نظر می رسد: شی(های) زیر از «داده» پوشانده شده اند. (موقعیت 3)': همه، Loci، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_removed، X7_only، X7_removed، X78_moonly the Objects، X78_removed از «داده‌ها (موقعیت 4)»: همه، مکان‌ها، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_removed، X7_only، X7_removed، X7_removed، X7_removed، X7_ اشیا از داده ها (موقعیت 5) پوشانده می شوند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_removed، X7_removed، X7_فقط، X7_removed، X7_ X8_removed شی(های) زیر از داده (موقعیت 6) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_8_removed، X7_removed،7 X8_only، X8_removed شی(های) زیر از داده ها (موقعیت 7) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_removed، X5_removed، X5 X78_only، X8_only، X8_removed شی(های) زیر از داده (موقعیت 8) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removedly، X4_removed،7 X7_removed، X78_only، X8_only، X8_removed شی(های) زیر از داده ها (موقعیت 9) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_removed، X4_removed، X4_removed، فقط، X4_removed،
زیر مجموعه ای از دسته ها را در محور x در ggplot رسم کنید
30087
آیا هنگام ترسیم داده‌های درون موضوعی برای شرط A در مقابل شرط B (معنی‌داری از طریق آزمون t آزمایش می‌شود)، آیا میله‌های خطا خطای استاندارد میانگین را برای هر شرط به طور مستقل منعکس می‌کنند؟ یا باید SE از اختلاف میانگین بین A و B باشند؟ وقتی شرایط بیشتری برای ANOVA وجود دارد - A در مقابل B برای شرط 1 و A در مقابل B برای شرط 2 - باید نوارهای خطا با SE اختلاف میانگین A-B در 1 و سپس SE تفاوت میانگین در 1 مطابقت داشته باشد. 2 **ویرایش:** این مقاله راهی برای محاسبه SE/CI برای طرح های درون موضوعی ارائه می دهد. اصل موضوع این است که آزمودنی‌ها برای کاهش سهم بین آزمودنی‌ها در نوارهای خطا و انعکاس بهتر نتایج ANOVA اندازه‌گیری‌های مکرر نرمال می‌شوند. Cousineau, D. (2005). فواصل اطمینان در طرح های درون موضوعی: راه حل ساده تر برای روش لوفتوس و ماسون. خودآموز روشهای کمی برای روانشناسی، 1(1)، 42-45. PDF
خطای استاندارد میانگین در مقابل خطای استاندارد تفاوت میانگین
89752
آیا کسی می تواند به من کمک کند تا داده های سالانه را به داده های ماهانه و سه ماهه تبدیل کنم؟
آیا باید یک داده سالانه را به داده های فصلی و ماهانه تبدیل کنم؟
47354
من مجموعه داده ای از 500 نفر دارم و سعی می کنم یک مدل پیش بینی را با استفاده از متغیرهای کمی و دسته بندی برازش دهم. من مجموعه داده را تا حد امکان تنظیم کرده ام، اما هنوز یک متغیر (که در تجزیه و تحلیل مهم است) با 19 مورد گم شده دارم. به نظر شما بهترین رویکرد/برنامه برای جایگزینی مقادیر از دست رفته/به جای حذف کدام است؟ آیا برآوردگر EM از SPSS جایگزین مناسبی را ارائه می دهد؟ با دیدن اینکه پیش‌بینی‌کننده‌های مقوله‌ای مهمی دارم که در تحلیل استفاده خواهند شد، می‌دانم که نمی‌توانم از آنها در آموس استفاده کنم. چه برنامه های دیگری می تواند برای این نوع مدل مناسب باشد؟ متشکرم!
جایگزینی مقادیر از دست رفته؟
31357
این احتمالاً یک سؤال ساده است، اما این احتمالاً یک سؤال ساده است، اما رابطه بین توانایی استفاده از تجزیه افزودنی یک سری به فصلی، روند و باقیمانده و تبدیل باکس کاکس چیست؟ از وبلاگ پروفسور هیندمن: > از آنجا که همه داده ها را نمی توان به صورت افزودنی تجزیه کرد، ابتدا باید > یک تبدیل خودکار Box-​Cox را اعمال کنیم. من متعجب بودم: 1) چه چیزی یک تجزیه افزودنی را نسبت به یک ضربی جذاب می کند (که من می فهمم اساساً گزینه دیگر است). 2) الزامات دکامپ افزودنی چیست و باکس کاکس برای این امکان چه کاری انجام می دهد؟ من به Box Cox برای ANOVA و کاهش هتروسکداستیکی فکر می کنم. آیا با تجزیه سریال ارتباطی وجود دارد؟
تجزیه سری زمانی: جعبه کاکس برای تجزیه افزودنی
31353
من مجموعه ای از داده ها با 6 ویژگی و یک امتیاز پیوست شده برای هر نقطه داده در مجموعه دارم. من یک رگرسیور خطی برای داده های خود ساخته ام. مسئله این است که مقادیر خروجی بسیار زیاد است، تقریباً 10000 و من مقادیری بین 9600 تا 10000 به دست می‌آورم.
چگونه می توان عملکرد یک رگرسیون را اندازه گیری کرد؟
47352
دستور anova عبارت است از روش نمره anova/subject|روش پیش‌بینی روش#پیش‌بینی / پیش‌بینی#موضوع|روش روش infdir#infdir / infdir#subject|روش پیش‌بینی روش#infdir روش#پیش‌بینی#infdir if(agegroup==0 & block==1 )، تکرار می شود (پیش بینی infdir) که در آن «روش» یک عامل بین موضوعات است، و هر سطح از «infdir» در «پیش‌بینی» تودرتو است (در درون موضوعات تکرار می‌شود: سطح 1 و 2 «infdir» برای هر سطح از «پیش‌بینی» در آزمودنی‌ها درخواست می‌شود، جایی که هر یک از آن‌ها بین آزمودنی‌های «روش» است). من خروجی دوست داشتنی ANOVA را که می خواهم در SPSS تکرار کرده ام دریافت می کنم. با این حال، من اصلا نمی توانم از تابع کنتراست استفاده کنم. هر زمان که من سعی می‌کنم جلوه‌های ساده را بررسی کنم، «حاشیه‌ها» و توابع مشابه همگی «(قابل آزمایش نیستند)» برمی‌گردند. کسی میدونه چرا؟ ویرایش: به دلایلی نمی‌توانم به سؤال خود به گونه‌ای پاسخ دهم که به عنوان پاسخ به حساب بیاید تا دیگران بتوانند بعداً به آن مراجعه کنند. درستش میکنم ولی تا اون موقع: فهمیدم. من باید پس از دستور «کنتراست»، سلول‌های خالی (وزن مجدد) را اضافه کنم. سلول های خالی در تعامل بین عوامل، عملکردها را از بین می بردند. من فقط مجبور شدم بیشتر RTFM کنم.
من نمی توانم کنتراست را در ANOVA اندازه گیری های مکرر خود در Stata 12 آزمایش کنم. چرا؟
110742
من می‌خواهم مساحت را برای یک طبقه‌بندی کننده با چندین کلاس محاسبه کنم. آیا توابع (قابل اطمینان) را برای Matlab می شناسید که متدهایی را برای آن پیاده سازی می کنند، مانند مثال در [1]؟ متشکرم! [1] Fawcett, T. (2006). مقدمه ای بر تجزیه و تحلیل ROC. نامه های تشخیص الگو، 27(8)، 861-874.
AUC چند کلاسه در Matlab
15070
س: برای کدام داده ها استفاده از مدل سازی فضای حالت و فیلتر کالمن به جای هموارسازی اسپلاین ها و بالعکس مناسب است؟ آیا رابطه هم ارزی بین این دو وجود دارد؟ من سعی می‌کنم درک سطح بالایی از نحوه تطابق این روش‌ها با هم داشته باشم. من تخمین گاوسی جدید جانستون: مدل‌های توالی و چند وضوح را مرور کردم. جای تعجب است که هیچ اشاره ای به مدل های فضای حالت و فیلتر کالمن نشده است. چرا اون اونجا نیست؟ آیا این استانداردترین ابزار برای این نوع مشکلات نیست؟ در عوض، تمرکز بر صاف کردن خطوط و آستانه موجک بود. الان خیلی گیج شدم
فیلتر کالمن در مقابل اسپلاین های صاف کننده
47350
من یک سوال برای حل مسئله ماتریس زیر دارم: $$E[( (X'X)^{-1}X \epsilon )^T ((X'X)^{-1}X \epsilon )]$$ به حل $$= \Sigma^{2} (X'X)^{-1}.$$ جایی که $\Sigma$ ماتریس کوواریانس $\epsilon$ است. سوال من این است که چگونه می توان این مسئله را با استفاده از ویژگی های جبر ماتریسی حل کرد. این معادله زمانی رخ می دهد که از حداقل مربعات برای حل یک مسئله رگرسیون خطی استفاده می شود. (همانطور که در: http://en.wikipedia.org/wiki/Proofs_involving_ordinary_least_squares، بخش Unbiasedness and Variance of $\hat\beta$ قابل مشاهده است). من یک راه حل برای یک مورد خاص در این لینک دیدم: مقدار مورد انتظار و واریانس تخمین پارامتر شیب β1 در رگرسیون خطی ساده. با این حال، من به راه حل تعمیم یافته توصیف شده در معادله علاقه مند شدم. این چیزی است که من تاکنون به دست آوردم: با استفاده از ویژگی های transpose، ما به دست می آوریم: $$E[( (X'X)^{-1}X \epsilon )^T ((X'X)^{-1}X \ epsilon )] = E[( (\epsilon' X' ((X'X)^{-1})' )((X'X)^{-1}X \epsilon )].$$ $(X'X)^{-1}$ یک ماتریس متقارن است، بنابراین: $$( (X'X)^{-1} )' = (X'X)^{-1}.$$ And I $E[( (X'X)^{-1}X \epsilon )^T ((X'X)^{-1}X \epsilon )] = E[( (\epsilon' X') بدست آورید (X'X)^{-1})^{2} X \epsilon )].$$ من نتوانستم بیشتر از این حل کنم S = QDQ'$، برای برخی از ماتریس های متعامد $Q$ و ماتریس مورب $D$ آیا کسی می تواند به من در این راه حل کمک کند؟
استخراج شیب برای واریانس یک مسئله حداقل مربع از طریق نمادگذاری ماتریس
80481
من مشکل زیر را دارم: بردار = {1،0،0،1...}، فقط از 1 یا 0 تشکیل شده است، و اندازه بردار N است. من نسبت 1 را در چنین برداری محاسبه می کنم. بگویید، من prop_1 = 0.96 دریافت کردم دقیقا، فرضیه صفر من این است: H0: 0.96 تصادفی است HA: 0.96 تصادفی نیست و، من می خواهم H0 را رد کنم تا نشان دهم که 0.96 تصادفی نیست. چه روشی می تواند باشد؟ بوت استرپینگ؟ یا راه های دیگری؟
آزمون آماری در برابر تصادفی
31354
من سوال زیر را در رابطه با پیاده روی تصادفی دارم. من می‌خواهم لحظه‌ای را تعیین کنم که یک پیاده‌روی تصادفی از یک پیاده‌روی تصادفی ساده به شروع به حرکت در زمان مشخصی تغییر می‌کند. این نوع سناریو ممکن است زمانی اتفاق بیفتد که دما شروع به افزایش یا کاهش سطح دریا کند. ایده این است که آن تغییر را در اسرع وقت تشخیص دهیم. واضح است که اگر سیستم برای مدت طولانی رها شود، کاملاً واضح است که از یک سطح اولیه معین تغییر کرده است (که با راه رفتن تصادفی ساده در ابتدا ارائه می شود)، اما می خواهم بدانم آیا امکان تشخیص آن وجود دارد یا خیر. بعد از وقوع خیلی سریع تغییر می کند. چه نوع تحلیلی لازم است؟ هر گونه پیشنهاد تا حد زیادی قدردانی می شود. خیلی ممنون!! مایکل و وبر، من واقعا از نظرات شما قدردانی می کنم. سوال اولیه من در واقع مربوط به کنترل کیفیت بود، زیرا من سعی می کنم یک CUSUM را به عنوان یک پیاده روی تصادفی مدل کنم: وقتی سیستم تحت کنترل است، آن را به عنوان یک راه رفتن تصادفی ساده می بینم، زمانی که شروع به حرکت می کند و در نهایت خاموش می شود. از کنترل، من آن را به عنوان یک راه رفتن تصادفی می بینم. بنابراین سوال من این است که چگونه (و به طور بحرانی، با چه سرعتی) این تغییر را از حالت ثابت به حرکت در مسیرهای تصادفی تشخیص دهیم. من می توانم ببینم که تشخیص دریفت آسان نیست، به خصوص زمانی که رانش به دلیل ماهیت تصادفی سیستم کوچک باشد. اما فکر می کنم ایده ARIMA به من کمک کند، من قبلاً به این نظریه نگاه نکرده بودم و از شما برای این توصیه تشکر می کنم. میلی.
پیاده روی تصادفی ساده و رانش ناگهانی، چگونه تغییر را تشخیص دهیم؟
95572
من الگوریتم حداکثر جمع را برای یک نمودار کلی (یعنی آنهایی که دارای یک چرخه هستند) پیاده سازی می کردم. من پیام ها را همانطور که در http://www.cedar.buffalo.edu/~srihari/CSE574/Chap8/Ch8-GraphicalModelInference/Ch8.3.3-Max- SumAlg.pdf نشان داده شده است، به روز کردم. چیزی که من متوجه شدم این است که، با این حال، در مورد یک نمودار عامل با چرخه، اگر مقدار عامل بین 0 و 1 باشد، پیام ها همچنان با تکرار کاهش می یابند. به این دلیل است که لاگ مقدار عامل منفی است و حلقه در چرخه همچنان مقدار عامل (منفی) را اضافه می کند. این را می توان به راحتی با یک نمودار عامل با دو گره متغیر تصادفی و دو گره عاملی که دو گره متغیر تصادفی را به هم متصل می کند تأیید کرد. به نظر من بعد از هر به روز رسانی پیام باید نوعی نرمال سازی وجود داشته باشد اما اسلایدهایی که به آنها اشاره می کنم اشاره ای به آن ندارند. کسی راه حل این پدیده رو میدونه؟
نرمال سازی در الگوریتم حداکثر جمع (انتشار باور حلقه ای)
113408
من فقط سرگردان بودم اگر با توجه به فرآیند AR \begin{معادله} X_t = \alpha X_{t-1} + \varepsilon_t, \quad \varepsilon_t \overset{iid}{\sim} N(0,1), \ پایان{معادله} مقادیر $X_t$ به دلیل نویز سفید مستقل مستقل هستند؟
آیا فرآیند AR گوسی با نویز سفید مستقل است؟
15072
مشکل من این است که سعی می‌کنم بفهمم چند سرور ممکن است برای رسیدگی به حداکثر بار نظری درخواست‌های داده مورد نیاز باشد. برای انجام این کار باید بدانم حداکثر تعداد درخواست ها در یک ثانیه ممکن است چقدر باشد. من مجموعه نسبتاً محدودی از داده ها دارم که 156000 تراکنش در یک ساعت انجام شده است. این حداکثر تراکنش های ثبت شده برای یک دوره 60 دقیقه ای در 4 ماه است. 4500 دستگاه به سرور دسترسی دارند و هر تراکنش مشتری-سرور به طور متوسط ​​45 ثانیه طول می کشد. من می خواستم پیش بینی کنم که حداکثر تعداد تراکنش های مشتری-سرور در یک ثانیه ممکن است با اطمینان 95٪ باشد. هر سرور می تواند حداکثر 15 تراکنش همزمان را قبل از شروع تجربه تاخیر انجام دهد. خیلی وقت است که هیچ آماری را انجام نداده ام، بنابراین اگر کسی بتواند من را در مسیر درست راهنمایی کند، عالی خواهد بود. فکر کردم شاید لازم باشد حداکثر/دقیقه/میانگین زمان تراکنش را بدانم تا بتوانم به واریانس برسم، اما احتمالاً الان دارم غر می‌زنم. یک میلیون ممنون
پیش‌بینی حداکثر مقدار با داده‌های کم
6549
با توجه به یک نمونه تک متغیره $\vec X = X_1، ...، X_n$ با انحراف استاندارد 1 و یک تبدیل کاملاً یکنواخت $t: R \ به R$ با این ویژگی که انحراف استاندارد $t(\vec X)$ همچنین 1 است (که در آن $t(\vec X)$، $t$ است که برای هر $X_i$ اعمال می شود). اگر کسی بداند که توزیع نرمال را با $\vec X$ و $t(\vec X)$ مطابقت می دهد، این واقعیت زیر را مشاهده می کند: احتمال در MLEهای مربوطه $\vec X$ و $t(\vec X)$ یکسان است. دلیل آن این است که انحراف استاندارد MLE برای پارامتر $\sigma$ توزیع نرمال است، بنابراین فقط میانگین تغییر می کند، که احتمال را تغییر نمی دهد. در برخی از محاسبات با داده های _multivariate_ من همین واقعیت را مشاهده کردم، با استفاده از تبدیل هایی به گونه ای که $\det(cov(t(\vec X)))=1)$. اما من دلیل واضحی برای آن ندیدم! توجه داشته باشید که در حالت چند متغیره، MLEها برای پارامترهای واریانس تغییر می کنند، حتی اگر تعیین کننده بالا همیشه 1 باشد. مطمئن هستم که اولین کسی نیستم که متوجه می شوم، اما ادبیات من (تا حدودی محدود) در مورد توزیع نرمال چند متغیره چنین نیست. به من سرنخی بدهید که چگونه گزاره بالا را اثبات کنم، یعنی اینکه احتمال نرمال چند متغیره فقط به تعیین کننده $cov(t(\vec) بستگی دارد X))$، صرف نظر از انتخاب $t$. یک اثبات به بررسی شرایط شکل $x'\Sigma x$ برای $\det \Sigma = 1$ خلاصه می‌شود. آیا سرنخ بیشتری دارید؟ ممنون، فیلیپ
احتمال در MLE و تحولات، حالت نرمال چند متغیره
87767
من 7 توپ دارم که باید به طور تصادفی در چهار کوزه با اندازه {5،3،2،2} قرار دهم، احتمال اینکه دقیقاً سه کوزه حداقل یک توپ داشته باشد چقدر است؟ (با عبارات متفاوت، دوازده نقطه به یک اندازه احتمالی برای هفت توپ، اما پنج نقطه اول به عنوان کوزه اول، سه بعدی کوزه دوم و غیره در نظر گرفته می شود.) از طریق شبیه سازی پاسخی در حدود 32.4٪ دریافت کردم، اما در تعجب هستم که چگونه آن را حل کنم. مورد کلی؟ (n توپ در قوطی‌هایی با اندازه {m_1,m_2,...,m_k}، احتمال اینکه دقیقاً r قوطی حاوی حداقل یک توپ باشد؟)
توپ در قوطی با اندازه های مختلف
31355
من برای تجزیه و تحلیل داده های خود از SPSS استفاده می کنم. من از رگرسیون چند جمله ای استفاده می کنم. من 14 متغیر پیش بینی دارم که 9 تای آنها طبقه ای و 5 متغیر پیوسته هستند. متغیر پاسخ دارای سه دسته است. سپس پس از فشار دادن دکمه‌های مناسب برای رسیدن به رگرسیون چند جمله‌ای، نتیجه نمایش داده می‌شود، اما پیغام خطایی که من با آن مواجه هستم این است که رگرسیون گام به گام پردازش نمی‌شود. به نظر شما مشکل از کجاست؟ و مسئله عددی چیست و چگونه می توانم آن را حل کنم؟ آیا می توانم با در نظر گرفتن VIF تعداد متغیرها را گام به گام کاهش دهم تا زمانی که به عدد 1 نزدیک شود؟
چگونه می توانم انتخاب گام به گام برای رگرسیون چند جمله ای در SPSS را برای پردازش دریافت کنم؟
88485
من از مدل های ترکیبی خطی تعمیم یافته (با بسته glmmADMB) برای شناسایی عوامل محیطی مرتبط با فراوانی انگل در جوندگان استفاده کردم. من از حذف گام به گام به عقب برای ساده سازی متوالی مدل کامل استفاده کردم تا زمانی که فقط عوامل مهم و شرایط تعامل باقی بمانند (کرولی، 2007). با این حال، وقتی خلاصه مدل نهایی را بررسی کردم، یکی از عوامل دیگر معنی‌دار نیست (087/0=p). اما در تست های ANOVA که به مدل نهایی منتهی شد، این متغیر (دما) معنی دار است: ** خلاصه مدل نهایی:** ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 3.131658 0.213630 15.33 < 2e-16 temperature -0.004019 0.0033143 -1.71 0.08673 . **anova** مدل 1: انگل ها ~ سن + پوشش گیاهی + همزمانی مدل 2: انگل ها ~ دما + سن + پوشش گیاهی + همگام NoPar LogLik Df Deviance Pr(>Chi) 1 7 -550.75 2 8 -546.81 1 7.8098 **4*9. * سوالات من این است که کدام ارزش مهم را باید گزارش کنم؟ یعنی دما مهم نیست؟ من دست نوشته هایی را دیده ام که مقادیر را از خلاصه مدل نهایی گزارش می دهند، اما برخی نیز که مقادیر اهمیت را از مقایسه مدل ها گزارش می دهند، کدام یک درست است؟
متغیر از طریق رگرسیون گام به گام معنادار است اما در خلاصه مدل نهایی نه. کدام را گزارش کنم؟
87762
من سرم را روی این یکی می خارم ... هر کمکی بسیار قدردانی خواهد شد. می خواهم بدانم که آیا میانگین زمان سفر بین پارک گوئل و ساحل بارسلونا با استفاده از اتوبوس یا مترو متفاوت است و کدام یک سریعتر است. از آنجایی که من توزیع زمان سفر را نمی دانم، نمی توانم از آزمون t استفاده کنم. بنابراین، به من پیشنهاد شد که از آزمون تصادفی سازی استفاده کنم (بنابراین هیچ فرضی در مورد داده ها نمی کنم). این داده‌ها هستند: مترو (در دقیقه): 34، 39، 28، 42، 32، 37، 41، 40، 47، 36، 38، 48، 31 اتوبوس (در دقیقه): 40، 44، 49، 50، 48، 45، 47، 46، 39، 55 چگونه می توانم ثابت کنم که وجود دارد یا آیا بین اشکال حمل و نقل (تست تصادفی سازی) تفاوتی وجود ندارد؟
کمک تست تصادفی سازی
88482
آیا $R^2$ (یا برخی آمارهای دیگر) از رگرسیون خطی تک متغیره چیزی در مورد نحوه عملکرد آن در یک مدل لجستیک به من می گوید؟ اگر داده ها را به معنای صفر نرمال کنم چه می شود؟ من در حال انجام رگرسیون لجستیک چندگانه هستم، و به این فکر می کنم که آیا من تعداد زیادی رگرسیون خطی تک متغیره ایجاد کرده ام، آیا می توانم از $R^2$ به عنوان شاخص متغیرهایی استفاده کنم که ارزش امتحان کردن دارند یا خیر. شاید حتی اضافه کردن یک جستجوی brute force از فعل و انفعالات جالب یا اضافه کردن چند جمله ای و غیره.
آیا می توان از رگرسیون خطی تک متغیره برای شناسایی متغیرهای مفید برای رگرسیون لجستیک چندگانه بعدی استفاده کرد؟
96381
به بیان ساده، من دروسی را که دانش‌آموزان گذرانده‌اند و نمره‌هایی در یک امتحان دارم. دانش آموزان از زمینه های دوره های مختلف می آیند. (برخی فقط درس A را گذرانده اند، برخی فقط D برخی A و D برخی A و B برخی B C و D و غیره و غیره) از چه آزمونی می توانم برای توضیح این موضوع استفاده کنم؟
برای مشاهده همبستگی بین گروه های همپوشانی و نمره از چه آزمونی استفاده کنم؟
63684
دو بازیکن در حال پرتاب هر یک می میرند. هر که ارزش بالاتری دارد، تعداد امتیازی معادل اختلاف مقادیر روی هر دو تاس دریافت می کند. چگونه احتمال کسب بیش از 100 امتیاز در 100 پرتاب را برای یک برنده تخمین می زنید؟
مشکل دو تاس
19827
من یک سوال ساده از شما بچه ها دارم اما من دارم برای امتحانات می خوانم و راستش یادم رفته چطور این کار انجام شد. مشکل اینجاست: > یک گلدان شامل 4 تیله سفید، 3 تا قرمز و 2 سبز است. شما تیله های 2 را می کشید بدون اینکه اولی را بعد از دومی برگردانید. > > چه شانسی دارد که بعد از اولی یک تیله قرمز بکشید. یکی بود > > > چه شانسی داره که 2 تیله سفید بکشی؟ من می بینم که باید P (A ∩ B) / P (B) را محاسبه کنم اما چگونه P (A ∩ B) را محاسبه کنم؟ همچنین سوال سوم از مشکل من کاملاً من را بیشتر از بقیه گیج می کند ، من هیچ پاسخی ندارم و به 100 پاسخ مختلف رسیده ام و حتی نمی دانم که آیا هر یک از آنها درست است یا خیر. آنها را با پاسخ های واقعی مقایسه کنید و من اصلاً نمی دانم چگونه آن را محاسبه کنم
محاسبه احتمال سوال از دانش آموز
63688
من الگوریتم های خوشه بندی مانند k-mean، k-medoid و DBSCAN را در مجموعه داده های بیماران خود اعمال کرده ام. برای هر الگوریتم RapidMiner یک مدل خوشه‌بندی شده (جدول مرکزی و نمودارها و غیره) و یک مجموعه خوشه‌بندی شده (نشان می‌دهد که کدام نمونه‌ها بخشی از کدام خوشه هستند) ایجاد کرد. حالا من می‌خواهم راهی را انجام دهم که وقتی یک بیمار جدید می‌آید، می‌خواهم خوشه‌ای را بر اساس مدل آموزش‌دیده قبلی به او اختصاص دهم. من در مورد روش انجام این کار گیج شده ام... آیا این چیزی شبیه به آن است (ممکن است اشتباه کنم)؟ 1. برای هر مقدار ویژگی بیمار جدید - آن مقدار مشخصه از جدول مرکز که همه تفاوت های ویژگی های بیمار را جمع می کند و میانگین را می گیرد. 2. سپس به او خوشه ای اختصاص دهید که میانگین آن نسبت به آن بیمار حداقل باشد. اگر این راه درست است، پس چگونه دوباره خوشه‌بندی می‌کنم، یعنی وقتی یک بیمار جدید می‌آید، الگوریتم ما به او خوشه‌ای اختصاص می‌دهد، این معنی است. centroid حرکت می کند و سپس باید با هر درج رکورد دوباره خوشه بندی کنم. چگونه در سناریوی من با این موضوع رفتار کنم؟
چگونه می توان نمونه جدید را در خوشه بندی پایه مرکزی مجدداً خوشه بندی کرد؟
16673
من جفت‌هایی دارم (x، y) که می‌خواهم آنها را به عقب برگردانم (x مستقل، y وابسته). با ترسیم آنها، نوارهای مجزایی را می بینم که می توانند به متغیر سوم نسبت داده شوند. متأسفانه این متغیر را نمی توان مستقیماً اندازه گیری کرد. آیا راه خوبی وجود دارد که هم داده ها را در یک معادله قرار دهیم و هم مقدار متغیر باینری (برای هر x) را تعیین کنیم؟ معادله ای که من در نظر گرفتم $$y=ax^b(1+cz)$$ است که $z$ متغیر باینری مشاهده نشده است. (البته بسته به اینکه کدام گروه به عنوان 0 و کدام یک به عنوان 1 انتخاب شود، دو راه برای جا دادن داده ها وجود دارد، اما محدود کردن $c>0$ باید اساساً انتخاب را منحصر به فرد کند.) مگر اینکه دلیلی برای ترجیح چیز دیگری وجود داشته باشد که من به دنبال آن هستم. حداقل مربعات مناسب است.
برازش داده ها بر اساس یک متغیر مشاهده نشده
87768
هدف تحقیق من این است که می خواهم آزمایش کنم که آیا برخی از صداها در زبان ها از نظر مدت زمان مشابه یکدیگر هستند یا خیر. در شرایط من 4 زبان با 5 صدا دارم. سه زبان اول هر 5 صدا را دارند اما فقط یک زبان 3 صدا دارد. آیتم های من به 6 مصوت تقسیم می شوند و همه زبان ها همه این 6 مصوت را دارند. سپس من سخنرانان 4 زبان دارم اما 2 زبان توسط همان گروه از گویشوران تولید می شوند - بنابراین در واقع من به جای 4 زبان، 3 گروه گویشوران دارم (هر گروه دارای مرد و زن است). از آنجایی که مدت زمان متغیر پیوسته است، من از مدل ترکیبی خطی (LMM) در R با lme4 استفاده می کنم. جلوه های ثابت من زبان + مصوت + جنس + صدا هستند. جلوه های تصادفی من بلندگو + آیتم است. با این حال، من مطمئن نیستم که مدل مناسب در مورد من چگونه باید باشد. من این فرمول را امتحان کردم: `lmer4 <\- lmer(مدت ~ (1|مورد) + (1+صدا*صدا|گوینده) + مصوت*جنس*صدا*زبان, data=data.frame,REML=FALSE)` اما مدل را نمی توان اجرا کرد زیرا برخی صداها در برخی از زبان ها وجود ندارند. آیا کسی در مورد مدل مناسب برای پرونده من نظری دارد؟ کمک شما دقیقاً سپاسگزار خواهد بود.
مدل مناسب برای داده های من چگونه باید باشد؟
6544
من یک مجموعه داده دارم که می‌خواهم یک مدل خطی ساده را در آن جا بدهم، اما می‌خواهم تاخیر متغیر وابسته را به عنوان یکی از رگرسیون‌ها لحاظ کنم. سپس می‌خواهم با استفاده از پیش‌بینی‌هایی که از قبل برای متغیرهای مستقل دارم، مقادیر آینده این سری زمانی را پیش‌بینی کنم. نکته مهم این است: چگونه می توانم تاخیر را در پیش بینی خود لحاظ کنم؟ در اینجا یک مثال آورده شده است: #یک تابع برای محاسبه تاخیرهای ماتریس <- تابع(x,max.lag){embed(c(rep(NA,max.lag),x),max.lag)} تاخیر <- تابع(x, تاخیر) { out<-lagmatrix(x,lag+1)[,lag] return(out[1:length(out)-1]) } y<-arima.sim(model=list(ar=c(.9)),n=1000) #Create AR(1) متغیر وابسته A<-rnorm(1000) #Create independant variables B<-rnorm(1000) C<-rnorm(1000) خطا<-rnorm(1000) y<-y+.5*A+.2*B-.3*C+.1*خطا #افزودن رابطه به متغیرهای مستقل #مناسب مدل خطی lag1<-lag(y,1) model<-lm(y~A+B +C+lag1) خلاصه (مدل) #پیش‌بینی مدل خطی A<-rnorm(50) #فرض کنید 50 مقدار آینده A، B، C را می‌دانیم B<-rnorm(50) C<-rnorm(50) lag1<- ##################اینجا گیر کردم######### ######### newdata<-as.data.frame(cbind(A,B,C,lag1)) predict.lm(model,newdata=newdata)
پیش بینی از یک مدل خطی ساده با تاخیر در R
88481
من یک ریاضی دان هستم که آمار را به صورت خود مطالعه می کنم و به خصوص با زبان درگیر هستم. در کتابی که من استفاده می کنم، مشکل زیر وجود دارد: یک متغیر تصادفی $X$ به صورت $\text{Pareto}(\alpha,60)$- توزیع شده با $\alpha>0$ داده می شود. (البته برای این سوال می توانید هر توزیعی را بسته به یک پارامتر انتخاب کنید.) سپس نمونه ای از پنج مقدار $14$, $21$, $6$, $32$, $2$ داده می شود. بخش اول: با استفاده از روش حداکثر احتمال، برآورد $\hat{\alpha}$ از $\alpha$ را بر اساس [نمونه] پیدا کنید. این مشکلی نداشت پاسخ $\hat{\alpha}\حدود 4.6931$ است. اما سپس: برای خطای استاندارد $\hat{\alpha}$ تخمین بزنید. منظور از این چیست؟ از آنجایی که $\hat{\alpha}$ فقط یک عدد واقعی ثابت است، نمی‌دانم از چه نظر می‌تواند خطای استاندارد داشته باشد. آیا من باید انحراف معیار $\text{Pareto}(\hat{\alpha},60)$ را تعیین کنم؟ اگر فکر می کنید سوال واضح نیست، این اطلاعات به من نیز کمک خواهد کرد.
منظور از خطای استاندارد تخمین حداکثر درستنمایی چیست؟
47356
فرض کنید در ساحلی هستید که از مخلوطی از ماسه های رنگی مختلف (برای سادگی، سیاه و سفید) تشکیل شده است و می خواهید تخمین بزنید که چه مقدار از هر نوع وجود دارد. شما یک سطل دارید که می توانید از آن برای نمونه برداری از ماسه و تکنیکی برای جداسازی انواع مختلف و وزن کردن آنها استفاده کنید. همچنین بگویید که ساحل خیلی بزرگ نیست، بنابراین مقدار کسری شن و ماسه در نمونه های سطل خود را در مقایسه با کل ماسه ساحل می دانید. بگذارید بخش کسری واقعی ماسه سفید در ساحل $w^*$ نامیده شود و بنابراین (در این حالت دو نوع) مقدار واقعی ماسه سیاه $(1 - w^*)$ باشد. نمونه‌های سطلی ما وزن‌های $\{w_i\} = w_1، w_2، …، w_n$ را نشان می‌دهند. من می خواهم توزیع $w^*$ را با توجه به اندازه گیری هایم $\{w_i\}$ تخمین بزنم. فرض کنید شن و ماسه به صورت تصادفی در سراسر ساحل iid است و نمونه های سطل بدون جایگزینی گرفته شده است. آیا کسی می تواند به من راهنمایی کند که چگونه این مشکل را مدل کنم؟ من در نهایت می خواهم به بیش از دو نوع شن تعمیم دهم، اما مورد دو نوع، حتی با تنها یک نمونه، حداقل باید من را شروع کند. من شروع به تلاش برای در نظر گرفتن نمونه‌گیری به عنوان یک فرآیند برنولی کردم، اما در درک چگونگی برخورد با ماهیت غیرصحیح نمونه‌ها به مشکل برخوردم: یعنی مقادیر اندازه‌گیری جرم‌هایی با ارزش پیوسته هستند، نه نوعی شمارش.
تخمین نسبت جرم از نمونه های کسری
87765
من از دو گروه مختلف از آزمودنی ها خواستم که به پرسشنامه 2 سوال بله/خیر پاسخ دهند. روش صحیح پاسخگویی به پرسشنامه پاسخ مثبت به هر دو سوال بود. من می خواهم ثابت یا رد کنم که گروه 2 بهتر از گروه 1 پاسخ می دهد. ایده من این است که بررسی کنم که آیا در آزمون استقلال Chi-square روی یک جدول احتمالی 2×2 (1 درجه آزادی) که ردیف‌ها گروه 1 و گروه 2 هستند و ستون‌ها تعداد آزمودنی‌هایی هستند که پاسخ مثبت داده‌اند، مقدار p کم دریافت می‌شود یا خیر. بله و تعداد آزمودنی هایی که پاسخ متفاوتی دادند. با این حال، من مطمئن نیستم که این راه درستی برای ادامه دادن باشد. آیا باید از یک جدول احتمالی 4 ستونی (3 درجه آزادی) استفاده کنم که موضوعات را به 4 دسته تقسیم می کند (آنهایی که به دو سؤال بله-بله، نه-بله، نه-نه و بله-نه پاسخ دادند)؟ با تشکر
بهبود در سوالات پرسشنامه را ارزیابی کنید
88488
من با مدل های موضوعی، طبقه بندی، و غیره تازه کار هستم... اکنون مدتی است که پروژه ای را انجام می دهم و مقالات تحقیقاتی زیادی می خوانم. مجموعه داده من از پیام های کوتاهی تشکیل شده است که با برچسب انسانی برچسب گذاری شده اند. این چیزی است که تا به حال به آن رسیده ام: * از آنجایی که داده های من کوتاه است، در مورد تخصیص دیریکله پنهان (و همه انواع آن) مطالعه کردم که برای تشخیص کلمات نهفته در یک سند مفید است. * بر این اساس، من یک پیاده‌سازی جاوا از JGibbLDA پیدا کردم، اما از آنجایی که داده‌های من برچسب‌گذاری شده‌اند، بهبودی در این مورد به نام JGibbLabeledLDA وجود دارد. با این حال، دوباره، مجموعه داده من برچسب گذاری شده است و بنابراین یک پسوند Weka به نام Meka پیدا کردم که پیاده سازی هایی برای داده های چند برچسب دار داشت * با خواندن اطلاعات چند برچسبی، می دانم پرکاربردترین رویکردها مانند طبقه‌بندی‌کننده‌های یک در برابر همه و زنجیره‌ای... حالا دلیل حضور من در اینجا این است که امیدوارم پاسخی برای سؤالات زیر داشته باشم: 1. آیا LDA رویکرد خوبی برای مشکل من است؟ 2. آیا LDA باید همراه با یک طبقه‌بندی کننده (NB، SVM، ارتباط باینری، رگرسیون لجستیک، ...) استفاده شود یا LDA برای عملکرد به عنوان یک طبقه‌بندی/ تخمین‌گر برای داده‌های جدید و دیده نشده کافی است؟ 3. چگونه باید خروجی حاصل از JGibbLDA / JGibbLabeledLDA را تفسیر کنم. چگونه از این فایل‌ها به چیزی برسم که به من می‌گوید چه کلمات/برچسب‌هایی به کل پیام (نه فقط به هر کلمه) اختصاص داده شده است. LDA چیزی نیست که من به دنبالش هستم) امیدوارم کسی یا بیش از یک نفر بتواند به من کمک کند تا بفهمم چگونه باید این کار را انجام دهم. ایده کلی همه اینجا موضوع نیست، فقط نمی دانم چگونه از ادبیات به عمل بروم. بسیاری از مقالات توصیف کافی از نحوه انجام آزمایشات خود را ارائه نمی دهند یا برای پیشینه من در مورد موضوعات بسیار فنی هستند.
سوالات عمومی در مورد طبقه بندی متن
16672
وقتی این کد را اجرا می کنم (R 2.13.2، caret 4.98 در ویندوز 7): library(caret) data(iris) TrainData <- iris[,1:4] TrainClasses <- iris[,5] rfFit <- train(TrainData ، TrainClasses، روش = rf، tuneLength = 3، trControl = trainControl(method = oob)) I خطای زیر را دریافت کنید: برازش: mtry=2 برازش: mtry=3 برازش: mtry=4 جمع‌آوری نتایج انتخاب پارامترهای تنظیم برازش مدل در مجموعه آموزشی کامل خطا در ساختار(لیست(روش = روش، مدلType = مدلType، نتایج = عملکرد، : شیء 'resampledCM' یافت نشد. من چه کار اشتباهی انجام می دهم /ویرایش: من با استفاده از R forge به caret 4.99 به روز کردم و مشکل برطرف شد به نظر می رسد برای caret 4.98 و R 2.13.2 منحصر به فرد بوده است.
خطا با caret، با استفاده از نمونه‌گیری مجدد خارج از کیسه.
6540
فرض کنید من این نوع داده ها را دارم: 1 01/1/1980 2 01/2/1999 3 03/12/2000 -1 03/6/2005 -5 07/07/2007 چگونه می توانم ارزش فعلی (PV) را محاسبه کنم ) به آنها نسبت به تاریخ جاری، مثلاً با نرخ سود 5 درصد، در صفحه گسترده؟ تاریخ فعلی به معنای امروز است. **[به روز رسانی]** احتمالاً من اصطلاحات PV و FV را اشتباه متوجه شده ام. من در حال تلاش برای پیدا کردن یک تابع آماده شبیه به این هستم. از هر روشی که استفاده می کنید باید با داده های بالا کار کند. لطفاً اسپم را متوقف کنید.
چگونه ارزش فعلی را در صفحه گسترده گوگل محاسبه کنیم؟
74832
من سعی می کنم یک _آزمون علیت گرنجر_ را برای داده های پانل اعمال کنم. من ادبیات کافی برای درک آن موضوع پیدا کرده ام. با این حال، من نتوانستم پکیج **R** را برای انجام آن تحلیل پیدا کنم. من می‌پرسم آیا کسی می‌داند که آیا بسته‌ای برای مقابله با آن وجود دارد یا خیر. با تشکر ### _من یک راه حل بالقوه اضافه می کنم، اما سوالات جدیدی مطرح شد._ راه حلی که پیدا کردم استفاده از _آزمون غیر علیت گرنجر_ و استفاده از _روش کلی لحظه ها_ ( _GMM_ ) است. در مقاله Erdil & Yetkiner (2004) می توانید شرحی از _آزمون غیر علیت گرنجر_ را با داده های تابلویی بیابید. برای انجام یک _GMM_ از بسته plm برای **R** استفاده کردم. اگر نگاهی به آموزش آن بیندازید (Croissant & Millo، 2008)، خواهید دید که تابع داخلی «pgmm» (صفحه 17) جلوه فردی را با اولین تفاوت حذف می‌کند و dummies زمانی در آن گنجانده شده است. خلاصه تابع همچنین تست هایی را برای ارزیابی مدل ارائه می دهد. به عنوان مثال، برای بررسی خودهمبستگی سریال در باقیمانده ها، آزمون والد برای ضرایب و برای آدمک های زمانی و آزمون سارگان برای ارزیابی اینکه آیا بین متغیر ابزاری و باقیمانده ها همبستگی وجود دارد یا خیر. سپس یک آزمایش والد (اولین مورد در Erdil & Yetkiner، 2004) با مجموع مجذور باقیمانده های یک مدل نامحدود (_SSRu_) و یک مدل محدود (_SSRr_) انجام دادم. حال سوال من از مخاطب این است: 1) آیا آدمک های زمانی اثر زمان را حذف می کنند؟ من اینطور فکر می کنم. 1.1) اگر آدمک های زمانی مهم نباشند چه؟ 2) بنابراین، اگر من از شر افراد و اثرات زمانی خلاص شوم، آیا تست والد ( _SSRr-SSRu_ ) مانند یک تست والد است که برای یک مدل 'OLS' اعمال می شود؟ من اینطور فکر می کنم. اگر چنین است، من در مورد درجه آزادی مطمئن نیستم. بیایید ابتدا آزمایش پیشنهاد شده توسط Erdil & Yetkiner (2004) را ببینیم: $$W=\frac{(SSRr-SSRu)/Np}{SSRu/[NT-N(1+p)-p]}$$ جایی که _N_ = تعداد افراد، _T_=سال و _p_=تعداد تاخیرها. توجه داشته باشید که آنها از شر افراد و اثرات زمانی خلاص نشدند (حداقل این چیزی است که من فهمیدم). حال، اگر من از شر افراد و اثرات زمان خلاص شوم، تست Wald همانطور که در مدل‌های OLS اعمال می‌شود، این خواهد بود: $$W=\frac{(SSRr-SSRu)/m}{SSRu/ (n-k)}$$ که در آن _m_ = عدد محدودیت ها (تعداد ضرایبی که از مدل نامحدود حذف شدند تا محدود شود)، _k_ = تعداد کل ضرایب در مدل نامحدود و _n_ = تعداد مشاهده سوالات بیشتر: 3) تعداد مشاهده چیست؟ 3.1) آیا تعداد سال است یا تعداد سال*تعداد افراد؟ اگر تعداد سال باشد معقول به نظر می رسد، اما اگر محصول بین سال و فرد باشد اینطور نیست. به عنوان مثال، در مورد من 328 فرد و 13 سال دارم، بنابراین 4264 است. بنابراین، شمارنده در آزمون والد بسیار بسیار کوچک خواهد بود و من همه چیز را رد خواهم کرد. در نهایت، 4) آیا درست همان کاری را که انجام دادم انجام می دهم؟ باز هم، هر کمکی بسیار قدردانی خواهد شد
تست علیت گرنجر با داده های پانل
12700
من یک سوال ساده (شاید احمقانه) دارم. من می خواهم واگرایی Kullback-Leibler را بر روی دو سند محاسبه کنم. این نیاز به توزیع احتمال هر سند دارد. من نمی دانم چگونه برای هر سند احتمال را محاسبه کنم. هر پاسخ ساده ای با مثال غیر معمولی بسیار قدردانی می شود. فرض کنید ما دو سند را دنبال می کنیم: 1 - پاسخ های تایید شده متقاطع خوب هستند 2 - پاسخ های تایید شده ساده خوب هستند (مطالعه اسناد فقط برای مثال زدن است) چگونه احتمالات این اسناد را محاسبه کنیم؟ فرض کنید یک سند دیگر اضافه می کنیم: 3 - به سادگی متقاطع پاسخ خوبی نیست اگر سند دیگری اضافه کنیم، چگونه بر توزیع احتمال تأثیر می گذارد؟ با تشکر
نحوه محاسبه توزیع موضوع یک سند
39106
من مدل $Y_t = a + b*X_t + c*D_t + e_t$ را دارم که $t \in T = \{1,...,3000\}$ و $D_t$ یک متغیر باینری برابر با $0 است. $ بیش از $T \backslash \{20,21,...,30\}$ و برابر با $1$ بیش از $\{20,21,...,30\}$. $c$ در OLS بسیار مهم است. اما اگر رگرسیون چندکی $Q_{Y_t}(\tau | X_t,D_t) = a(\tau) + b(\tau)*X_t + c(\tau)*D_t + e_t$ را اجرا کنم، سپس $c(\tau )$ برای هر $\tau \in [0,0.4]\cup[0.6,1]$ ناچیز است. حالا چیزی که من می خواهم بدانم این است که آیا QR می تواند نتایج دم نادرست را برای یک متغیر ساختگی که برابر با وحدت در قسمت کوچکی از $T$ است ارائه دهد؟ مثل قبل، آیا رابطه جمعیت می‌تواند قوی باشد، اما QR آنقدر قوی نیست که بتواند هر رابطه دنباله‌ای را در زمانی که $D_t = 0$ بیش از تقریباً همه $t \در T$ باشد، قوی نیست؟
رگرسیون چندکی با متغیر ساختگی که برابر با 0 در اکثر $t$ است
47353
من دو سناریو برای داده های سری زمانی دارم. 1) من یک متغیر تک متغیره دارم که در سرتاسر محور زمان قرار دارد، آیا روش یا آماری برای بررسی پایداری این فرآیند وجود دارد؟ 2) من یک متغیر چند متغیره دارم که در سرتاسر محور زمان قرار دارد، آیا روش یا آماری برای بررسی پایدار بودن این متغیر چند متغیره وجود دارد؟
رویکردی برای بررسی اینکه آیا یک فرآیند پایدار است؟
15076
بر اساس پاسخ به سوال طبقه بندی آماری متن، تصمیم گرفتم که از یک جنگل تصادفی برای انجام طبقه بندی های مختلف متن استفاده کنم. به طور خاص، من داده های ویدیوی YouTube را از فیدهای XML آنها دریافت می کنم. این یک مثال است: <entry gd:etag=W/DUQBR347eCp7I2A9WhdXFEQ.> <id>tag:youtube.com,2008:video:ltkMAcv2cas</id> <published>2010-12-23T18:11:28.0 ز</b>منتشر شد <updated>2011-08-28T02:09:16.000Z</updated> <category scheme=http://schemas.google.com/g/2005#kind term=http://gdata.youtube.com /schemas/2007#video/> <دسته scheme=http://gdata.youtube.com/schemas/2007/keywords.cat term=SSF4AE/> <!-- دسته ها/کلمات کلیدی بیشتر در اینجا --> <title>SSF4AE Mago 2D God VS Kazunoko aka Inoue</title> <!-- اطلاعات بیشتر ویدیو در اینجا، توضیحات، و غیره --> </entry> با آن، من داده های بسیار خاصی دارم که معتقدم می توانم به عنوان مبنایی برای آن استفاده کنم متغیرها در یک جنگل تصادفی: مقدار متغیر -------- ----- عنوان SSF4AE Mago 2D God VS Kazunoko با نام مستعار Inoue Category SSF4AE با نگاهی به ویدیو و بر اساس عنوان/دسته ها، می دانم که این یک ویدیوی بازی Super Street Fighter 4: Arcade Edition (SSF4AE). با نگاهی به جنگل تصمیم‌گیری alglib، اصول کلی روش‌های تجزیه و تحلیل داده‌ها را نیز خواندم، که در مورد رمزگذاری به‌طور خاص برای الگوریتم‌های روی alglib صحبت می‌کند. در حالی که من به طور خاص از آن استفاده نمی کنم، معتقدم که درک من را از نحوه نمایش داده ها برای یک جنگل تصادفی گسترش داد. اساساً، با استفاده از داده های بالا، باید هر نقطه داده را به تعدادی از انواع مختلف تبدیل کنم. برای مثال، می‌توانم این را به متغیرهای زیر تبدیل کنم: مقدار متغیر -------- ----- دارای SSF4AE در عنوان 1 برابر با SSF4AE است. و من می دانم که SSF4AE مخفف رایجی است که برای شناسایی بازی استفاده می شود، با استفاده از متغیرهای بالا به عنوان متغیرهایی برای یک جنگل تصادفی برای آموزش کار می کند و طبقه بندی؟ البته، این مجموعه کوچکی است و مجموعه‌ای از متغیرها بسیار خشن است. درک من این است که یک جنگل تصادفی اساساً گره هایی را ایجاد می کند که در آن یک آستانه برای متغیر وجود دارد، مقادیر بیش از این سقوط در یک طرف درخت، مقادیر زیر در طرف دیگر. در مثال بالا، تنها دو گزینه وجود دارد، درست یا نادرست. با این حال، تصور می‌کنم می‌توانم کاری انجام دهم مانند دریافت فرکانس سند term-frequency/inverse و استفاده از آن (با استفاده از Lucene.NET یا elasticsearch)، مانند آن (اعداد دقیق نیستند) مقدار متغیر --------- --- پرس و جو اصطلاح برای SSF4AE در عنوان 0.36 پرس و جو اصطلاح برای SSF4AE در رده 1.00 و سپس جنگل تصادفی را در آن آموزش دهید. من فرض می‌کنم که اگر متغیرها مانند بالا انجام می‌شدند، می‌توانستم چیزهایی مانند boost را نیز روی متغیرها قرار دهم (در محاسبه tf/idf) جایی که می‌بینم برجسته‌تر هستند یا احساس می‌کنم می‌خواهم وزن بیشتری داشته باشند. و در نهایت، من می توانم متغیرهای بیشتری اضافه کنم، اما آنها باید بسیار خاص باشند. به عنوان مثال، من می دانم که اگر یک شخصیت یون وجود دارد که فقط در SSF4AE ظاهر می شود، (نه نسخه های قبلی Street Fighter 4)، و همچنین در Street Fighter III. برای این منظور، می‌توانم دو متغیر دیگر اضافه کنم: مقدار متغیر -------- ----- پرس و جوی مدت برای SSF4AE در عنوان 0.36 عبارت پرس و جو برای SSF4AE در رده 1.00 یک کاراکتر عبارت Yun 1 است. پرس و جو برای 3S در عنوان 0.00 پرس و جو برای 3SO در عنوان 0.00 (3SO و 3S مخفف رایج Street Fighter III: Third Strike) با این حال، برای ویدیوی دیگری که می‌دانم برای 3S است، متغیرها ممکن است به این شکل باشند: مقدار متغیر -------- ----- عبارت جستجوی SSF4AE در عنوان 0.00 عبارت SSF4AE در رده 0.00 یک نویسه عبارت Yun 1 عبارت است برای 3S در عنوان 0.54 عبارت جستجوی 3SO در عنوان 0.00 که در آن مجموعه آموزشی نشان می دهد که ویدیو برای 3S است. با این اوصاف، آیا این روش‌ها برای تعیین متغیرهای یک جنگل تصادفی امکان‌پذیر است؟ همچنین، اگر به درستی متوجه شده باشم، جنگل تصادفی نیز نشان می‌دهد که کدام متغیرها بیشترین سهم را در طبقه‌بندی داشته‌اند، بنابراین می‌توانم بعداً (اگر بخواهم) آنها را در طول طبقه‌بندی کنار بگذارم یا موارد مختلفی را اضافه کنم تا طبقه‌بندی‌های بهتری از داده‌های آموزشی خود داشته باشم.
تعیین متغیرها هنگام آموزش a/طبقه بندی با جنگل تصادفی
74838
قبلاً در MSE ارسال شده است. پاسخی نداشتم، در اینجا پست خواهم کرد. فرض کنید تعداد تماس‌هایی که در هر ساعت به یک سرویس پاسخگویی می‌رسد از فرآیند پواسون با $\lambda = 4 $ پیروی می‌کند. سوال: اگر می دانید که تماس های 8 دلاری در دو ساعت اول آمده است. احتمال اینکه دقیقاً 5 در ساعت اول رسید چقدر است؟ تلاش: آیا این فقط یک سوال ترکیبی نیست؟ بنابراین پاسخ ${8 \choose 5}/2^8$ است
فرآیند پواسون - تماس‌ها وارد می‌شوند
12704
من چندین آزمایش انجام داده ام، نمودارهای نتیجه در زیر آمده است، باید بفهمم تابع توزیع متغیرهای تصادفی زیر چیست... با تجزیه و تحلیل آماری آزمایشم از کجا شروع کنم؟ چگونه این تحلیل ها را با spss انجام دهیم؟ ![Sequence 1](http://i.stack.imgur.com/arAJ4.png) ![Sequence 2](http://i.stack.imgur.com/CYwAD.png) **ویرایش** توضیحات : من کارایی الگوریتم را برای 2 الگوریتم آزمایش می کنم، نمودارها توزیع کارایی را توصیف می کنند. 1. من 500000 تست برای 2 الگوریتم انجام دادم که 2 مجموعه از 500000 مقدار ممیز شناور تولید کرد. 2. من مقدار MIN و MAX مجموعه را محاسبه کرده ام (هرچه مقادیر کوچکتر نتیجه بهتر است، مقادیر بزرگتر نتیجه بدتر است) 3. می خواستم توزیع مقادیر را بر اساس 500 گروه ببینم، بنابراین من مرحله = (MAX-MIN) / 500 را محاسبه کرده ام 4. مقدار مقادیری را که در هر یک از 500 بخش قرار می گیرند محاسبه کرده ام [MIN + 0 * Step..MIN + 1 * Step], [MIN + 1 * Step, MIN + 2 * Step], ... [MIN + 498 * Step..MIN + 499 * Step] نموداری که در زیر مشاهده می کنید نشان دهنده x- است. محور یک شاخص از بخش، در محور y مقادیر کاهش یافته به بخش تقسیم بر تعداد کل مقادیر، و همچنین تقسیم بر گام = (حداکثر - حداقل) / 500. در نتیجه این باید تابع توزیع کارایی الگوریتم من باشد... **ویرایش** در اینجا DOC حاوی SPSS > تجزیه و تحلیل > آمار توصیفی > خروجی کاوش است. آیا کسی می تواند در خواندن آن کمک کند؟
کدام تابع توزیع ممکن است آزمایش های آماری زیر را توصیف کند؟
12703
من در حال انجام برخی تحلیل‌ها در مورد درک ویژگی‌های مختلف یک جمعیت خاص هستم. برای محدود کردن انتخابم (از آنجایی که آنها را به صورت دستی مرور خواهم کرد)، از آستانه های متفاوتی در مورد ویژگی های قابل اندازه گیری خاصی استفاده می کنم (که به من می گوید یک فرد چقدر مرتبط است) تا نمودار فرکانس زیر را ترسیم کنم. به عنوان مثال، خطی با علامت آستانه 1 به من می گوید که وقتی آستانه خود را روی t1 ثابت کنم، تقریباً 360 نفر با حداقل 1 دوست، 290 نفر با حداقل 2 دوست و غیره وجود دارند. من می دانم که من خواهم بود. برای توضیح دادن کاری که انجام می دهم مشکل دارم اما تمام تلاشم را می کنم. من سعی می کنم دو آستانه را برطرف کنم: یکی که برای به دست آوردن خط استفاده می شود و دیگری که برای فیلتر کردن نویز استفاده می کنم. 0 روی نمودار آستانه ها را مشخص می کند. در این مورد خاص، من از «آستانه 3» استفاده می‌کنم و جمعیت خود را فیلتر می‌کنم تا فقط افرادی را داشته باشد که «>= 2 دوست» دارند. در حالی که این برای من به خوبی کار می کند، من سعی می کنم تعیین کنم که آیا روش سیستماتیک برای توضیح اینکه چرا این آستانه ها بهتر از بقیه هستند وجود دارد یا خیر. به عنوان مثال، «آستانه 2» فیلتر خوبی نیست زیرا مانند «آستانه 1» رفتار می کند. استفاده از آستانه 4 چندان مفید نیست زیرا بازدهی در رفتن از آستانه 2 به آستانه 3 بسیار بیشتر از بازگشت از آستانه 3 به آستانه 4 است. پیشنهادی در مورد اینکه از کجا باید شروع کنم؟ اساسا، من می‌خواهم کاری شبیه به تحلیل هزینه و فایده انجام دهم (این نزدیک‌ترین کاری است که می‌توانم به آن فکر کنم). ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ehzXe.png)
روش سیستماتیک انتخاب آستانه؟
92238
من سعی دارم برخی **حلقه های همبستگی** را در چارچوب **تحلیل متعارف همبستگی** تفسیر کنم. به من گفته شده است که فقط نقاط موجود در هاله را می توان با آن **قوانین زیر** تفسیر کرد: 1. اگر زاویه آنها نزدیک به $0 باشد، همبستگی مثبت دارند. 2. اگر زاویه آنها نزدیک به $\pi$ باشد، آنها همبستگی منفی دارند. 3. اگر زاویه آنها نزدیک به $\frac{\pi}{2}$ باشد مستقل هستند. 4. اگر آنها به لبه بیرونی دایره نزدیک باشند، با مبنایی که انتخاب می‌کنید همبستگی بالایی دارند. اما آیا می توان در مورد **نقاط نزدیک به مرکز**، در دایره کوچک چیزی گفت یا خیر؟ من فقط می دانم که آنها با اساس ارتباط ندارند، بنابراین می توانید بعد را برای انتخاب تغییر دهید. اما آیا راه های دیگری برای تفسیر آنها وجود دارد یا قوانین دیگری وجود دارد؟ در اینجا نمونه ای از آنچه من دارم آمده است: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/qKIDG.jpg) از کمک شما متشکریم.
حلقه های همبستگی: تفسیر
39105
من یک کار طبقه بندی باینری برای صفحات وب آلمانی دارم که فقط نمونه های مثبتی برای آن دارم. به همین دلیل است که من از یادگیری از مثال‌های مثبت و بدون برچسب همانطور که در این صفحه توضیح داده شده است استفاده می‌کنم، همچنین به عنوان یادگیری جزئی نظارت شده نیز شناخته می‌شود. در حال حاضر، من فقط ویژگی‌های بسیار نادری را که فقط یک بار رخ می‌دهند و ویژگی‌های بسیار مکرر، یعنی توقف کلمات را حذف می‌کنم. و مواردی که در بیش از 50 درصد از نمونه های مثبت رخ می دهند. در مورد طبقه‌بندی‌کننده‌ها، من می‌خواهم Naive Bayes را آزمایش کنم (صفحات وب مثال مثبت بسیار کوتاه هستند، بنابراین من نسخه چند متغیره با ویژگی‌های بولی را ترجیح می‌دهم) و ماشین‌های بردار پشتیبانی (SVM). من خوانده ام که انتخاب ویژگی برای SVM چندان مهم نیست زیرا بر نتایج طبقه بندی تأثیر زیادی نمی گذارد. آیا این درست است؟ از آنجایی که من با الگوریتم‌های انتخاب ویژگی آشنا نیستم، آیا می‌توانید الگوریتمی را توصیه کنید که به‌ویژه با ویژگی‌های نمونه‌های مثبت به خوبی کار کند و به طور کلی نتایج بهتری نسبت به قطع کردن ویژگی‌های بسیار نادر و بسیار مکرر داشته باشد؟ اگر نمی توان به این سوال پاسخ کلی داد و اگر بستگی زیادی به مجموعه داده های من دارد، لطفاً همین را نیز بگویید. خیلی ممنون
چگونه انتخاب ویژگی را برای یادگیری از مثال های مثبت و بدون برچسب انجام دهیم؟
12980
من با یک سری زمانی از داده های هواشناسی کار می کنم و می خواهم فقط ماه های تابستان را استخراج کنم. چارچوب داده به این صورت است: FECHA;H_SOLAR;DIR_M;DIR_S;VEL_M;VEL_S;VEL_X;U;V;TEMP_M;HR;BAT;PRECIP;RAD;UVA;UVB;FOG;GRID; 00/01/01;23:50:00;203.5;6.6;2.0;0.5;-99.9;-99.9;-99.9;6.0;-99.9;9.0;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/02;23:50:00;235.5;7.5;1.8;0.5;-99.9;-99.9;-99.9;6.1;-99.9;8.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/03;23:50:00;217.4;6.1;1.4;0.5;-99.9;-99.9;-99.9;7.0;-99.9;8.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/04;23:50:00;202.5;8.6;1.8;0.5;-99.9;-99.9;-99.9;6.4;-99.9;8.8;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/05;23:50:00;198.5;7.1;1.8;0.5;-99.9;-99.9;-99.9;5.4;-99.9;8.8;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 من نمونه هایی از زیرتنظیم زمان را در R اما پیدا کرده ام فقط بین تاریخ شروع و پایان آنچه من می خواهم این است که تمام داده ها را از یک ماه برای تمام سال ها استخراج کنم تا یک چارچوب داده جدید برای کار با آن ایجاد کنم. من می توانم یک سری زمانی باغ وحش را از داده ها ایجاد کنم، اما چگونه زیر مجموعه کنم؟ مجموعه باغ وحش؟ پیشاپیش از کمک شما سپاسگزارم
زیر مجموعه داده ها بر اساس ماه در R
74839
من دو جدول تعامل دارم. یک نشان دهنده تعداد دفعاتی است که یک دلقک ماهی از یک گونه خاص در یک شقایق از یک گونه خاص پیدا می شود. یکی نشان دهنده تعداد دفعاتی است که دلقک ماهی از یک گونه خاص در شقایق مشابه نسبت به دلقک ماهی گونه دیگر یافت می شود. Table_anemone_fish Fish_a Fish_b Fish_c An_A 23 56 12 An_B 12 5 5 An_C 23 10 68 توجه: جمع کردن این جدول تعداد کل شقایق های نمونه من را نشان می دهد. Table_fish_fish Fish_a Fish_b Fish_c Fish_a NA 7 3 Fish_b 7 NA 1 Fish_c 3 1 NA توجه: اغلب ماهی ها بدون گونه های دیگر زندگی می کنند و بنابراین در این جدول نشان داده نمی شوند. فراوانی هر گونه ماهی را می توان با «ماهی_شقایق_رومیزی» به دست آورد. سؤالاتی که می خواهم به آنها پاسخ دهم این است: * آیا ترجیح متفاوتی برای گونه های ماهی در انتخاب شقایق هایشان وجود دارد؟ * آیا ترجیح گونه های ماهی در انتخاب با کدام گونه دیگر وجود دارد؟ برای پاسخ به این پست می توان به سادگی نوع آزمون مورد استفاده و فلسفه آنها را بیان کرد یا حتی بهتر است، مثالی از نحوه تجزیه و تحلیل این داده ها با R ارائه داد.
تجزیه و تحلیل جداول تعامل
74837
من در حال پیگیری تجزیه و تحلیل MANOVA هستم و می‌پرسیدم چگونه در R مقادیر ویژه برای مدل DFA بدست می‌آورید؟ یک ویژگی '$svd' در مقدار بازگشتی تابع 'lda' وجود دارد، اما اطلاعات متناقضی در مورد اینکه آیا آنها واقعاً مقادیر ویژه هستند یا نه وجود دارد. من در حال خواندن _کشف آمار با R_ توسط فیلد و همکاران هستم. و نوشته شده است که _نسبت ردیابی مقادیر ویژه ای هستند که به صورت نسبت بیان می شوند_. من نگاه کردم که چگونه نسبت ردیابی محاسبه می شود و این بخشی در MASS:::print.lda است که در آن محاسبه می شود اگر (طول(svd) > 1L) { cat(\nنسبت ردیابی:\n ) print(round(svd^2/sum(svd^2), 4L), ...) } از این نظر به نظر من مقادیر ویژه به صورت محاسبه می شوند `svd^2`. با این حال، من چندین مثال را به صورت آنلاین پیدا کردم (به عنوان مثال، مثال 1 و مثال 2) که در آن افراد از مقادیر «svd» به عنوان مقادیر ویژه استفاده می کنند. صفحه راهنما برای تابع lda می گوید که ویژگی svd فهرستی از مقادیر مفرد است که نسبت انحرافات استاندارد بین و درون گروهی را بر روی متغیرهای متمایز خطی نشان می دهد. مربع آنها > آماره F متعارف است. با این حال، من مطمئن نیستم که چه چیزی درست است، و می‌خواهم آن‌هایی را که در برخی از تحلیل‌هایی که انجام می‌دهم گزارش کنم و نمی‌خواهم مقادیر اشتباهی قرار دهم.
مقادیر ویژه R DFA
71472
من مجموعه ای از 20 شاخص شیمیایی دارم که در نمونه های خاک جمع آوری شده از یک مکان (همان) در مدتی اندازه گیری شده است. آنچه من می خواهم بدانم این است: - برای یافتن اینکه کدام شاخص ها به نحوی با سایرین همبستگی دارند. من نمی خواهم متغیرهای وابسته / مستقل را فرض کنم، فقط برای اینکه ببینم آیا برخی از پارامترها به نوعی با هم مرتبط هستند یا خیر. از چه روش هایی استفاده کنم؟ من به تجزیه و تحلیل خوشه ای فکر کردم - آیا این انتخاب درست است؟ چه گزینه های دیگری دارم
برای چنین مواردی از چه روش های آماری استفاده کنم؟
74833
انتظار $|x|^k$ چیست، که در آن $x\sim\mathcal{N}(0,1)$، $k>0$ و $k$ یک عدد صحیح نیست؟
$E(x^k)$ تحت گاوسی
64708
دو متغیر تصادفی $X$ و $Y$ را با توزیع مشترک $F_{X,Y}$ و تابع چگالی کاملا مثبت $f_{X,Y}$ در نظر بگیرید. علاوه بر این، اجازه دهید $x^*$ مقدار $x$ باشد که حل می‌کند: $$ \Pr[Y<y\mid X=x^*]=1-k $$ برای مقداری ثابت $k \in [0، 1] دلار می‌خواهم حداقل شرایطی را که باید برای $F$ اعمال کنم بدانم تا مطمئن شوم که $$\frac{\partial x^*}{\partial k}>0$$ کاملاً شهودی به نظر می‌رسد که $COV[X، Y]> 0$ این کار را انجام می دهد، اما اینطور نیست. من در ادبیات دریافتم که Affiliation* یا Decreasing Inverse Hazard Rate** کافی است، اما می‌خواهم بدانم آیا شرایط ضعیف‌تری وجود دارد یا خیر. *اگر $x \leq x$ و $y \leq y'$ دلالت بر $f(x, y')f(x',y)\leq f(x', y')f داشته باشد pdf $f$ وابسته است (x,y)$ ** $Y$ نرخ خطر معکوس کاهش می یابد در $X$ اگر $\frac{F(y|x)}{f(y|x)}$ غیر افزایشی در $x$ برای همه $y$ (که $f(y|x)$ نشان دهنده پی دی اف $Y$ مشروط به $X=x$ است). توجه: این سوال در سایت Stackexchange Mathematics نیز درج شده است (این لینک است)
شرایط وابستگی مثبت
88151
آیا می توان از یک فرآیند گاوسی برای ارتباط چندین متغیر ورودی مستقل (X1، X2، X3) به یک متغیر خروجی (Y) استفاده کرد؟ به طور خاص، من می‌خواهم یک نمودار رگرسیونی مانند مثال زیر تولید کنم که در آن فاصله اطمینان در اطراف خوشه‌های داده کاهش می‌یابد (یعنی واریانس در x = 1 در جایی که داده‌ای وجود ندارد زیاد است، اما x = 0.3 رگرسیون به دلیل وجود کم است. خوشه بندی متغیرهای ورودی) و به جای داشتن یک متغیر ورودی در محور x، چند ورودی وجود دارد. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/4YEAb.png) به عنوان مثال، آیا امکان ایجاد یک رابطه رگرسیونی وجود دارد که به قیمت خانه ها مربوط می شود (HPrice = [125000, 63000, 500000) ]) به مساحت طبقه (FArea = [856,497,1300]) و تعداد اتاق‌های خواب (BedR = [2،2،4])؟ در حالت ایده‌آل، من می‌خواهم این کار را در R انجام دهم، و نمی‌دانم که آیا توصیه‌ها/مثالی وجود دارد؟ با تشکر
رگرسیون گاوسی با ورودی های متعدد؟
88153
من یک برنامه جالب دارم که می خواهم در مورد آن راهنمایی بنویسم. یک کار رایج هنگام کار با سیستم های تصادفی در زمینه مهندسی، آزمایش رگرسیون و بهبود عملکرد است. اول، مهم است که اطمینان داشته باشید که اطلاعات کافی برای ارزیابی دقیق توزیع عملکرد جمع آوری می شود. و دوم، داشتن یک استراتژی خوب برای مقایسه آن توزیع‌ها برای شناسایی هرگونه تغییر عملکرد قابل تشخیص مهم است. با این حال، من مطمئن نیستم که راه حلی به طور گسترده پذیرفته شده برای چگونگی مقابله با این چالش ها وجود داشته باشد. یا اگر وجود دارد، من هنوز در مورد آن اطلاعی ندارم. مشکلی که با آن روبرو هستم را با جزئیات بیشتری شرح خواهم داد. من فرآیندی دارم که هدف آن رسیدن به هدف خاصی در کمترین زمان ممکن است. فرآیند تصادفی است، بنابراین زمان اجرا دارای تغییرات تصادفی است. در واقع، واریانس زمان اجرا می تواند نسبتاً زیاد باشد. هر روز یک «نمونه» با اجرای فرآیند تا تکمیل برای N تکرار و ثبت زمان سپری شده در هر تکرار جمع‌آوری می‌کنم، بنابراین N نقطه داده در هر نمونه جمع‌آوری می‌کنم. دقت ضبط من 0.1 ثانیه است. پس از جمع‌آوری نمونه، می‌خواهم آن را با نمونه دیروز مقایسه کنم تا بررسی کنم که آیا تغییری در عملکرد وجود دارد یا خیر. وقتی می گویم تغییر در عملکرد ​​یعنی چه؟ من به تغییرات قابل توجه در میانگین زمان اجرا (میانگین) و تغییرات در زمان اجرا (واریانس) علاقه مند هستم. بخشی از مسئله این است که من کاملاً مطمئن نیستم که چگونه «اهمیت» را در این زمینه تعریف کنم. تعریف من در حال حاضر هر تغییری در میانگین بیشتر از چهار برابر دقت ضبط و هر تغییری در واریانس بیشتر از چند درصد است. یک پیچیدگی اضافی وجود دارد: من می خواهم روشی پیدا کنم که در آن نیازی به فرضیات در مورد ویژگی های خاص توزیع، مانند مقیاس یا شکل خاص نباشد. دلیل این امر این است که من فرآیندی را که در بالا توضیح دادم برای چندین فرآیند تصادفی انجام می دهم که هر کدام ویژگی های مجزایی دارند. برای مثال، یک توزیع دووجهی تولید می کند. دیگری توزیع یک دم را تولید می کند. من سعی کرده بودم آستانه‌های مربوط به مسئله را برای میانگین و واریانس تنظیم کنم، اما تنظیم آنها بسیار دشوار بود، به خصوص که هر کدام واریانس بالایی دارند. با توجه به مشکلی که به تازگی توضیح دادم، دو سوال دارم: **1) از کجا بدانم که نقاط داده کافی در هر نمونه جمع آوری کرده ام تا بتوانم مقایسه دقیقی بین دو توزیع نمونه داشته باشم؟** دوست دارم میلیون ها عدد جمع آوری کنم؟ از نقاط داده در هر نمونه، اما چندین ساعت طول می کشد تا 1000 نقطه داده جمع آوری شود، بنابراین من با یک مبادله کلاسیک روبرو هستم. **2) چند روش سنتی برای مقایسه دو نمونه به منظور تشخیص هرگونه تغییر قابل توجه در میانگین و واریانس فرآیند تصادفی کدامند؟ توزیع دو نمونه من کارهایی را که تاکنون انجام داده‌ام برای مقابله با این مشکل درج می‌کنم، اما نمی‌خواهم این پست بیشتر از این باشد. دانش من از آمار نسبتاً ابتدایی است، به همین دلیل است که از افراد خوب در تأیید متقاطع برای مشاوره یا اشاره به مطالب مرتبط درخواست می کنم. من چند پست مرتبط پیدا کردم اما چیزی که دقیقاً مشکل من را توصیف نکرده باشد. از خواندن شما متشکرم و از هر چیزی که می توانید به من بدهید سپاسگزارم.
تست عملکرد: تشخیص تغییرات در توزیع ها در طول زمان
12709
من یک مجموعه داده بزرگ دارم و یک رگرسیون چندسطحی در Stata انجام داده ام، مدل به شرح زیر است: `xtmixed dependent independen1dependent2dependent3dependent4 || independendt5:` بنابراین یک عامل گروه بندی وجود دارد: `independent5` در R من کارهای زیر را انجام دادم: lmer(وابسته به مستقل1 + مستقل2 + مستقل3 + مستقل4 + 1 | مستقل5، REML=TRUE) چند سوال: آیا این یکسان است؟ خروجی Stata تعداد گروه ها را به من می دهد، 100، در حالی که R تعداد گروه ها را 99 می دهد. علاوه بر این، واریانس ها و انحرافات استاندارد یکسان نیستند. همچنین می خواهم بدانم چگونه مقادیر و ضرایب p را از خروجی R بدست آوریم. من fixef(model) و ranef(model) را انجام داده ام اما وقتی coef(model) را انجام می دهم می گوید: خطا در coef(model): قادر به تراز کردن جلوه های تصادفی و ثابت نیست همچنین Stata فقط به من می دهد 1 ضریب برای هر پیش بینی در حالی که R `fixef(model)` یک ضریب برای هر گروه می دهد. بنابراین کسی که با Stata و R آشنایی دارد می تواند در این مورد به من کمک کند.
رگرسیون چند سطحی با استفاده از تابع lmer در R و Stata
100709
من اصلا به آمار و ارقام مسلط نیستم. من در حال حاضر روی یک الگوریتم بهینه سازی کار می کنم و در این قسمت کمی مشکل دارم. من آرایه‌ای از عناصر $n$ دارم. علاوه بر این، من آرایه‌ای از احتمالات را دارم که با $P = \left\{p_{i}\right\}$ با $p_{i}\in[0,1]$ داده شده است. (همچنین $\sum_{i} p_{i} = 1$ البته) اگر مهم باشد، توزیع احتمال مثلثی است که $i=1$ دارای بیشترین احتمال و $i=n$ دارای کمترین احتمال است. اکنون می خواهم $q < n$ عناصر متمایز را از $A$ با استفاده از احتمالات انتخاب از $P$ انتخاب کنم. من در حال حاضر در حال کدنویسی الگوریتم در متلب هستم، اما مطمئن نیستم که چگونه عناصر $q$ را انتخاب کنم.
انتخاب عناصر یک آرایه بر اساس احتمالات داده شده برای هر عنصر
64703
من یک بررسی ادبیات انجام داده ام. متغیر «treat» فقط مقادیر TRUE و FALSE را می گیرد. می گوید که آیا آنها یک درمان معین را در یک مقاله خاص اعمال کرده اند یا خیر. من می خواهم بدانم که آیا احتمال اعمال درمان بسته به ژورنال و نوع مقاله تغییر می کند یا خیر. ضمناً باید بگویم که همه مجلات فراوانی نوع مقاله یکسانی ندارند. در اینجا یک داده برای استفاده به عنوان مثال وجود دارد: df = data.frame ( treat=c(T,F,T,T,F,T,T,T,F,T,T,T,T,F,T, T,F,T,F,T,T,T,F,F), journal=rep(c('a','b','c'),8), article.type=c('a','b','c','a','b','a','a','b','c','a','a', ب، ج، الف، ج، الف، الف، الف ') ) **سوال اول:** چه تست آماری باید انجام دهم استفاده کنید؟ من به استفاده از GLM (مدل خطی تعمیم یافته) با توزیع خطای دو جمله ای فکر کردم. به نظرت خوبه؟ **سوال دوم: قبلاً پاسخ داده شده** خلاصه (glm(treat~journal*article.type, data=df, family='binomial')) ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 1.957e+01 4.390e+03 0.004 0.996 journalb -1.997e+01 4.390e+03 -0.005 0.996 ژورنالc 8.490+007-8.429e 1.000 article.typeb -3.913e+01 1.162e+04 -0.003 0.997 article.typec 4.134e-08 1.162e+04 0.000 1.000 journalb:article.typeb 3.8104+3.8101. 0.997 journalc:article.typeb 3.913e+01 1.756e+04 0.002 0.998 journalb:article.typec NA NA NA NA journalc:article.typec -1.916e+01 1.3880+1.388e -1.916e+01 1.3880+ p- مقادیر در هر متغیر. برای مثال یک مقدار p برای article.typeb و یکی برای article.typec. یعنی چی؟
متغیرهای مستقل طبقه بندی و متغیر وابسته باینری؟ GLM؟
88486
من با استفاده از boot در R برای تخمین فاصله اطمینان برای VaR آشنا هستم. به عنوان مثال، من مجموعه ای از بازده ماهانه برای یک دارایی دارم و می خواهم محدوده ای روی 95% VaR داشته باشم. با این حال، اکنون یک PDF تجربی به من داده شده است، و می خواهم CI را برای VaR تخمین بزنم. من هیچ اطلاعاتی در مورد توزیع به جز این PDF ندارم. این تخمینی از تلفات ناشی از طوفان است - معمولاً دارای انحراف مثبت، $\ln$ یا بتا است، اما مطمئناً تحلیلی نیست. یک ایده brute-force این است که تعداد زیادی اعداد تصادفی را در [0,1] تولید کنیم، از CDF تجربی معکوس کنیم، و 95% مقادیر معکوس را بدست آوریم. سپس 1000 بار تکرار کنید تا توزیع 95% مقدار ile را بدست آورید. به نظر نمی رسد «بوت» در اینجا اعمال شود. آیا راه حل ظریف تری وجود دارد؟ با تشکر
فاصله اطمینان متریک از توزیع تجربی
16677
فرض کنید من مجموعه ای از مشاهدات تک متغیره مستقل و توزیع شده یکسان $x$ و دو فرضیه در مورد نحوه ایجاد $x$ دارم: $H_0$: $x$ از یک توزیع گاوسی منفرد با میانگین و واریانس مجهول گرفته شده است. $H_A$: $x$ از مخلوطی از دو گاوسی با میانگین، واریانس و ضریب اختلاط مجهول گرفته شده است. اگر درست متوجه شده باشم، اینها مدل‌های تودرتو هستند، زیرا مدلی که $H_0$ نشان می‌دهد را می‌توان بر حسب $H_A$ توصیف کرد، اگر پارامترهای دو گاوسی را محدود کنید که یکسان باشند یا ضریب اختلاط را برای یکی از صفرها محدود کنید. دو گاوسی بنابراین، به نظر می رسد که شما باید بتوانید از الگوریتم E-M برای تخمین پارامترهای $H_A$ استفاده کنید و سپس از قضیه Wilks برای تعیین اینکه آیا احتمال داده های زیر $H_A$ به طور قابل توجهی بیشتر از H_0$ است استفاده کنید. باور کوچکی در این فرض وجود دارد که الگوریتم E-M به حداکثر احتمال در اینجا همگرا می شود، اما این یکی از مواردی است که من مایل به انجام آن هستم. من این را در یک شبیه‌سازی مونت کارلو امتحان کردم، با این فرض که $H_A$ 3 درجه آزادی بیشتر از $H_0$ (میانگین و واریانس برای دومین گوسی و پارامتر اختلاط) دارد. وقتی داده‌ها را از $H_0$ شبیه‌سازی کردم، یک توزیع P-value دریافت کردم که اساساً غیریکنواخت بود و برای مقادیر P کوچک غنی‌شده بود. (اگر E-M به حداکثر احتمال واقعی همگرا نمی شد، دقیقاً برعکس آن انتظار می رفت.) چه اشکالی دارد که من از قضیه ویلکس استفاده کنم که این سوگیری را ایجاد می کند؟
با قضیه ویلکس تعداد گوسی ها را در یک مخلوط متناهی پیدا کنید؟
21103
من باید یک C.I 95% پیدا کنم. بر روی میانه و سایر صدک ها. من نمی دانم چگونه به این موضوع نزدیک شوم. من عمدتا از R به عنوان یک ابزار برنامه نویسی استفاده می کنم.
فاصله اطمینان برای میانه
12706
من 5 مدل رگرسیون تک عاملی دارم. هر کدام دارای ضرایب بصری (مثبت) هستند که خوب است. اگر رگرسیون لجستیک چندگانه را اجرا کنم یکی از ضرایب منفی می شود. اگر انتخاب گام به گام را اجرا کنم، ضریب منفی باقی می ماند.. زائد نیست.. چگونه باید با این موضوع برخورد کنم؟ آیا راهی برای اعمال ضرایب مثبت وجود دارد؟ با تشکر
نحوه برخورد با ضرایب منفی در رگرسیون لجستیک
12702
سناریویی را در نظر بگیرید که در آن ماتریس KnownLabel و ماتریس PredictedLabel به شما ارائه می شود. من می‌خواهم خوبی ماتریس PredictedLabel را در مقابل ماتریس KnownLabel اندازه‌گیری کنم. اما چالش اینجاست که KnownLabel Matrix دارای چند ردیف است و فقط یک ردیف دارد و چند ردیف دیگر دارای تعداد 1 هستند (این نمونه ها دارای چند برچسب هستند). نمونه ای از ماتریس KnownLabel در زیر آورده شده است. A =[1 0 0 0 0 1 0 0 0 1 1 0 0 0 1 1 0 1 1 1] در ماتریس فوق، داده های نمونه 1 و 2 داده های برچسبی هستند، نمونه داده 3 و 4 دو داده و داده برچسب هستند. نمونه 5 داده های سه برچسبی است. اکنون ماتریس PredictedLabel نمونه داده را با استفاده از یک الگوریتم دارم. من می خواهم معیارهای مختلفی را بدانم که می توان از آنها برای اندازه گیری خوبی ماتریس PredictedLabel در برابر ماتریس KnownLabel استفاده کرد. من می توانم به تفاوت هنجار فروبینوس بین آنها به عنوان یکی از معیارها فکر کنم. اما من به دنبال معیاری مانند $accuracy (= \frac{Correctly\_predicted\_instance}{total\_instance})$ در اینجا چگونه می‌توانیم $Correctly\_predicted$ را برای نمونه داده‌های چندگانه تعریف کنیم؟
معیار دقت داده های چند برچسبی چیست؟
81658
من می خواهم فرآیند میانگین متحرک 1 را از قضیه تجزیه ولد استخراج کنم. من نمی دانم چگونه ضریب MA(1) را تعریف کنم، اگرچه به نظر می رسد که باید آسان باشد.
نحوه استخراج MA(1) از تجزیه Wold
64709
در سم شناسی از روش های یادگیری ماشینی برای تخمین احتمال سمیت ترکیب استفاده می شود. متأسفانه بیشتر مجموعه داده های سم شناسی حدود 100 ترکیب دارند و گاهی اوقات دارای متغیرهای بسیار بیشتری نسبت به ترکیبات هستند. هنگام سازماندهی ایجاد داده‌های جدید، می‌توان پرسید چگونه می‌توانیم از یک مدل تولیدی برای تعیین اینکه کدام مواد شیمیایی برای آزمایش بعدی ارزشمند هستند و کدام آزمایش‌ها روی آن مواد شیمیایی انجام دهیم، استفاده کنیم. هدف از چنین جمع آوری داده ها بهبود مدل اساسی در سریع ترین زمان ممکن خواهد بود. پس از انجام کمی جستجو، هیچ مقاله ای در مورد این سوال پیدا نکردم. آیا کسی از روش های مورد استفاده برای سازماندهی جمع آوری داده ها برای بهبود پیش بینی مدل یادگیری ماشینی در سریع ترین زمان ممکن آگاه است؟
اولویت بندی جمع آوری داده ها
88158
اصطلاح تکرار شده در زمینه ANOVA به چه معناست؟ من کاملاً تمایز بین آزمون درون موضوعی و آزمون بین موضوعی را درک می کنم، اما با عبارت «تکرار شده» در زمینه زیر آشنا نیستم: «ANOVA: اندازه گیری های مکرر - بین عوامل» و «ANOVA: اندازه گیری های مکرر - درون فاکتورها». (در G-Power 3).
اصطلاحات ANOVA: اقدامات مکرر در مقابل. در/بین موضوعات
46482
**خلاصه:** هنگام استفاده از روش اعتبارسنجی متقاطع 10 برابری که در آن هر مجموعه آموزشی برای تولید N نمونه بوت استرپ برای پردازش با NN ها استفاده می شود. چگونه می توانم توالی صحیح و عناصر سری متغیرهای پاسخ خود را به NN ارائه دهم تا با طول سری زمانی ورودی من مطابقت داشته باشد تا از روش اعتبارسنجی متقاطع مناسب با استفاده از بوت استرپ پیروی کنم و عملکردی مشابه (امیدوارم بهتر) نسبت به استفاده از CV غیر CV ایجاد کنم. ANN. هدف از استفاده از روش بوت استرپ اعتبار سنجی متقابل ارائه تخمینی از سوگیری و واریانس است تا بتوانم فواصل اطمینانی برای پیش بینی خود ایجاد کنم. من کاملاً مطمئن هستم که اشتباه من مبتنی بر نظریه است. زمانی که الف) متغیر پاسخ خود را بر اساس پارتیشن بندی سری ورودی خود با استفاده از CV تقسیم می کنم و ب) هنگام تولید ورودی و سری هدف خود برای ورودی به NN مطمئن نیستم که آیا متغیر پاسخ را به درستی مدیریت می کنم. مشکل ادامه یافت... من روی پروژه ای با داده های سری زمانی کار می کنم تا یک سری زمانی هیدرولوژیکی را با استفاده از شبکه های عصبی برازش دهم. من سعی می کنم یک متغیر توضیحی خود (X) را با یک متغیر پاسخ (T) تطبیق دهم، هر دو سری از اندازه 429x1 هستند. من یک NN ساده را با استفاده از یک اسکریپت تولید شده توسط nftool اجرا کردم و به نتایج بسیار خوبی رسیدم، با مقادیر MSE و R پایین بالای 0.9 برای مجموعه های آموزشی، اعتبار سنجی و آزمایش. من در استفاده از شبکه‌های عصبی مصنوعی تازه کار هستم، بنابراین تنها تغییری که در معماری مدل انجام می‌دهم، تغییر وقفه‌ها در سری‌های زمانی ورودی و همچنین مقدار لایه‌های پنهان است، برای هر دوی من بین 1 تا 9، بنابراین 81 معماری مدل متفاوت است. من بهترین معماری ANN را بر اساس ترکیبی از ضریب تعیین، mse، mae و شاخص pers انتخاب کردم. اکنون می‌خواهم بهترین معماری ANN را با استفاده از یک روش اعتبارسنجی متقاطع 10 برابری (CV) همراه با رویکرد راه‌اندازی اجرا کنم. اکنون هنگام اجرای مجموعه های اعتبارسنجی متقاطع بوت استرپ خود از طریق شبکه عصبی با مشکلات عملکرد ضعیفی مواجه می شوم، در تمام مجموعه های آموزشی، اعتبار سنجی و آزمایش نتایج بسیار ضعیفی دریافت می کنم. بدترین مجموعه ها اعتبارسنجی و آزمایش هستند که مقادیر R را در حدود -0.1 ارائه می دهند و مجموعه های آموزشی مقادیر R را در حدود 0.2 ارائه می دهند. برای من واضح است که من یک مشکل دارم زیرا یک مجموعه بوت استرپ اعتباری متقابل NN باید تقریباً همیشه به خوبی عملکرد NN با همان معماری داشته باشد، یا حداقل، یکسان باشد. یکی از اتفاقات رایجی که در بین پاسخ های خروجی ام از مجموعه NN متوجه شده ام این است که واریانس بسیار کمی در خروجی ها در مقایسه با ورودی ها وجود دارد و بایاس خروجی تقریبی در هر نقطه از سری زمانی حول مقدار میانه سری زمانی ورودی من شناور است. . من همچنین با گرفتن هیستوگرام از مجموعه های آموزشی CV خود در مقابل خروجی های ارائه شده توسط NN این را تأیید کرده ام. من مقدار زیادی کد خود را مرور کرده ام تا بفهمم چه چیزی می تواند مسئول چنین عملکرد ضعیفی باشد و مطمئن نیستم که آیا مجموعه ام ANN متغیر پاسخ صحیح را برای هر مورد مجموعه آموزشی/آزمایی تغذیه می کنم. رویکرد اصلی من این است که 10 مجموعه آموزشی/آزمون ورودی مختلف خود را با استفاده از cvpartition fcn تولید کنم. هنگام استفاده از این تابع، یک حلقه ساده برای قرار دادن هر یک از 10 مجموعه مختلف قطار/آزمایش در یک آرایه سلولی ایجاد می‌کنم. برای هر مجموعه قطار/آزمایش منحصربه‌فرد سری ورودی‌ام، از شاخص‌های آن‌ها با توجه به سری‌های زمانی اصلی استفاده می‌کنم و مجموعه‌های قطار/آزمایش منحصربه‌فردی از سری‌های زمانی پاسخ خود را برای بازتاب سری‌های زمانی ورودی ایجاد می‌کنم. آیا این اقدام نادرست است؟ آیا باید همیشه از یک سری پاسخ در هنگام آزمایش هر قطار/مجموعه تست مجزا از سری ورودی ارائه شده توسط cvpartition استفاده کنم؟ من این را به این دلیل می‌پرسم که در روش 10 برابری راه‌اندازی CV، هر یک از مجموعه‌های آموزشی منحصربه‌فرد خود را N بار دوباره نمونه‌برداری می‌کنم تا نمونه‌های بوت استرپ خود را ایجاد کنم. سپس تفاوت مجموعه عناصر را بین هر مجموعه آزمایشی منحصربه‌فرد و هر یک از نمونه‌های بوت استرپ ایجاد شده از آن پیدا می‌کنم و N مجموعه‌ای از عناصر را برای اعتبارسنجی در شبکه‌های عصبی ایجاد می‌کنم. بنابراین همانطور که می‌توانید تصور کنید مجموعه‌های اعتبارسنجی من با اندازه‌های همیشه متفاوت هستند، در حالی که مجموعه‌های آموزشی من همیشه اندازه ثابتی خواهند داشت، زیرا آنها در طول مجموعه‌های آموزشی نمونه‌برداری می‌شوند. سپس هر تست منحصربه‌فرد را با مجموعه‌های آموزشی بوت استرپ، و مجموعه‌های اعتبارسنجی ایجاد شده توسط تفاوت مجموعه آنها جفت می‌کنم و از آن به‌عنوان سری ورودی به NN استفاده می‌کنم. برای متغیرهای پاسخ خود، داده‌های هدف را برای NN با ترکیب مجموعه‌های قطار منحصربه‌فرد ایجاد می‌کنم (دوباره مطمئن نیستم که آیا این روش مناسب است)، با مجموعه آزمایشی منحصربه‌فرد، و سپس ایندکس کردن سری زمانی پاسخ من با اختلاف مجموعه بین نمونه‌های راه‌انداز و مجموعه‌های قطار منحصربه‌فرد سری ورودی برای تعیین عناصر سری زمانی پاسخ برای گنجاندن در مجموعه اعتبارسنجی برای داده‌های هدف. سپس هر دو سری را در NN وارد می‌کنم تا بتواند با داده‌های من مطابقت داشته باشد. من کاملاً مطمئن هستم که اشتباه من مبتنی بر نظریه است. زمانی که الف) متغیر پاسخ خود را بر اساس پارتیشن بندی سری ورودی خود با استفاده از CV تقسیم می کنم و ب) هنگام تولید ورودی و سری هدف خود برای ورودی به NN مطمئن نیستم که آیا متغیر پاسخ را به درستی مدیریت می کنم. دارد
اعتبار سنجی متقابل با شبکه های عصبی نتایج بدتری نسبت به یک شبکه عصبی استاندارد دارد
100706
من می دانم که چگونه با استفاده از OLS ادغام شده، هتروسکداستیکی را آزمایش کنم؟ اما چگونه می توانم پس از اجرای یک مدل اثرات تصادفی این کار را انجام دهم؟ اگر من هتروسکداستیکیتی را در OLهای ادغام یافته پیدا کنم به این معنی است که در مدل RE نیز وجود دارد؟
چگونه می توان ناهمگنی را در مدل اثرات تصادفی آزمایش کرد؟
63739
من فرآیندی دارم که با احتمال $p$ موفقیت آمیز یا شکست می خورد. من می‌توانم شبیه‌سازی‌های متمایز را برای تخمین $p$ انجام دهم: 1. شبیه‌سازی‌های $N$ از یک فرآیند واحد را اجرا کنید، نمونه‌های $N$ از یک $\text{Bernoulli}(p)$ را ضبط کنید، GLM را با خانواده دو جمله‌ای برای تخمین $\ انجام دهید. log(p/(1-p))$. 2. شبیه‌سازی‌های $N$ را اجرا کنید که در آن‌ها به اجرای فرآیند تا موفقیت ادامه می‌دهم، نمونه‌های $N$ از یک $\text{Geometric}(p)$ را ضبط می‌کنم، GLM را با خانواده گاما برای تخمین $p$ انجام می‌دهم. تفاوت نظری چیست؟ کدام راه بهتر است؟ ~~ من فکر کردم (1) زیباتر است، اما نمی توانم $p$، فقط $\text{logit}(p)$ را دریافت کنم، درست است؟~~ (پاسخ زیر را ببینید). به‌روزرسانی: من رگرسیون را انجام می‌دهم زیرا یک پارامتر شبیه‌سازی «t» وجود دارد و می‌خواهم تعیین کنم که آیا «p» به «t» و چگونه بستگی دارد یا خیر. همچنین، «N»های بالا یکسان نیستند، زیرا هر شبیه‌سازی در طرح هندسی تقریباً معادل شبیه‌سازی «1/p» در طرح برنولی است. اما این بخشی از سؤال است - آیا بهتر است هر آزمایشی به تنهایی انجام شود (برنولی) یا دنباله ای از آزمایش ها؟ چگونه این طرح بر توان/معنی‌داری/سایر معیارهای آماری تخمین «p» و تخمین پارامترهای رگرسیون تأثیر می‌گذارد؟
طراحی آزمایش: داده های هندسی یا برنولی
64701
من سعی می کنم مشتق معینی از ** برآوردگر حداقل میانگین مربعات خطای خطی** را همانطور که در [1] نشان می دهد تأیید کنم (همچنین تخمین پسینی _خطی نامیده می شود، زیرا برآورد بر اساس اندازه گیری است). تخمین‌گر خطی $\hat{\mathbf{x}}(\mathbf{z}) = \mathbf{Az} + \mathbf{b}$ فرض می‌شود، جایی که $\mathbf{A} \in \mathbb{R}^ {n\times p}،\ \mathbf{b} \in \mathbb{R}^{n}$ ثابت هستند و $\mathbf{z} \in \mathbb{R}^{p}$ اندازه‌گیری $\mathbf{x} \in \mathbb{R}^n$ است (هر دو $\mathbf{x}$ و $\mathbf {z}$ متغیرهای تصادفی هستند). هدف یافتن چنین $\mathbf{A},\,\mathbf{b}$ است که $J = \overline{(\mathbf{x} - \hat{\mathbf{x}})^T(\ را به حداقل برساند. mathbf{x} - \hat{\mathbf{x}})}$. (Overbar نشان دهنده انتظار است.) مشکلی که من با آن روبرو هستم در ساده کردن این عبارت به شکل ارائه شده در کتاب است. اشتقاق در [1] به شرح زیر است: $$ J = \overline{(\mathbf{x} - \hat{\mathbf{x}})^T(\mathbf{x} - \hat{\mathbf{x }})} = \mathrm{Tr}\ \overline{(\mathbf{x} - \hat{\mathbf{x}})^T(\mathbf{x} - \hat{\mathbf{x}})} = \mathrm{Tr}\ \overline{(\mathbf{x} - \mathbf{ Az} - \mathbf{b})(\mathbf{x} - \mathbf{Az} - \mathbf{b})^T} = \mathrm{Tr}\ \overline{\left[(\mathbf{x} - \bar{\mathbf{x}}) - (\mathbf{Az} + \mathbf{b} - \bar{\mathbf{x }})\راست]\چپ[(\mathbf{x} - \bar{\mathbf{x}}) - (\mathbf{Az} + \mathbf{b} - \bar{\mathbf{x}})\right]^T} $$ من آخرین برابری صفر هوشمند $ -\bar{\mathbf{x}} + \bar{ \mathbf{x}}$ اضافه شد. در اینجا من هنوز می توانم دنبال کنم. سپس نویسندگان می نویسند (و مشکل اینجاست) پس از چند کار ساده به $$ J = \mathrm{Tr}\ \left[\mathbf{P}_x + \mathbf{A}(\mathbf می‌شویم {P}_z + \overline{\mathbf{zz^T}})\mathbf{A}^T + (\mathbf{b} - \bar{\mathbf{x}})(\mathbf{b} - \bar{\mathbf{x}})^T + 2\mathbf{A}\bar{\mathbf{z }}(\mathbf{b} - \bar{\mathbf{x}})^T - 2\mathbf{AP}_{zx} \right] $$ $$\mathbf{P}_x = \overline{(\mathbf{x} - \bar{\mathbf{x}})(\mathbf{x} - \bar{\mathbf{x}})^T}، \ \mathbf{P}_{zx} = \overline{(\mathbf{z} - \bar{\mathbf{z}})(\mathbf{x} - \bar{\mathbf{x}})^T} $$ (به طور مشابه برای $\mathbf{P}_z$ و $\mathbf{P}_{xz} = \mathbf{P}^T_{zx}$ ) ماتریس های کوواریانس هستند. * * * **کار من تاکنون** اگر عبارت درونی زیر نوار را در $$\mathrm{Tr}\ \overline{\left[(\mathbf{x} - \bar{\mathbf{x} ضرب کنم }) - (\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))\راست]\چپ[(\mathbf{x} - \bar{\mathbf{x}}) - (\mathbf{Az} + (\mathbf{b} - \ bar{\mathbf{x}}))\right]^T} $$ من $$ \mathrm{Tr}\ \left[\overline{(\mathbf{x} می‌گیرم - \mathbf{\bar{x}})(\mathbf{x} - \mathbf{\bar{x}})^T} - 2\overline{(\mathbf{x} - \mathbf{\bar{x }})(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))^T} + \overline{(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x} }))^T}\right] $$ کار کردن شرایط فردی: 1. اولین عبارت: $\overline{(\mathbf{x} - \bar{\mathbf{x}})(\mathbf{x} - \bar{\mathbf{x}})^T} = \mathbf{P}_x$ 2. عبارت دوم: (با استفاده از ''smart zero '' $-\mathbf{A}\bar{\mathbf{z}} + \mathbf{A}\bar{\mathbf{z}}$ و این واقعیت که $\overline{(\mathbf{x} - \bar{\mathbf{x}})\bar{\mathbf{z}}\mathbf{A}^T} = 0، \ \overline{(\mathbf{x } - \bar{\mathbf{x}})(\mathbf{b} - \bar{\mathbf{x}})^T} = 0$) $-2\overline{(\mathbf{x} - \mathbf{\bar{x}})(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))^T } = -2\overline{(\mathbf{x} - \mathbf{\bar{x}})(\mathbf{A}(\mathbf{z}-\bar{\mathbf{z}}) + \mathbf{A}\mathbf{\bar{z}} + ( \mathbf{b} - \bar{\mathbf{x}}))^T} = -2\mathbf{AP}_{zx}$ 3. ترم سوم: (''smart zero'' $-\mathbf{A}\bar{\mathbf{z}} + \mathbf{A}\bar{\mathbf{z}}دوباره $! <-- هنگام نوشتن این پست به من ضربه زد، * آه*، فووو) $\overline{(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))(\mathbf{ Az} + (\mathbf{b} - \bar{\mathbf{x}}))^T} = \mathbf{A}\bar{\mathbf{z}}\bar{\mathbf{z}}^T\mathbf{A}^T + \mathbf{A}\mathbf{P}_z\mathbf{A}^ T + 2\mathbf{A}\bar{\mathbf{z}}(\mathbf{b}-\bar{\mathbf{x}})^T + (\mathbf{b} - \bar{\mathbf{x} })(\mathbf{b} - \bar{\mathbf{x}})^T$ به این ترتیب می‌توانم تمام عبارات تابع هدف $J$ و از البته همه چیز حل شد اگرچه، من هنوز یک سوال دارم: نویسندگان در [1] $\mathbf{A}(\mathbf{P}_z + \overline{\mathbf{zz}}^T)\mathbf{A}^T$ دارند در حالی که چه من به دست آوردم $\mathbf{A}(\mathbf{P}_z + \mathbf{\bar{z}}\mathbf{\bar{z}}^T)\mathbf{A}^T$. اما من فکر می کنم که $\overline{\mathbf{zz}}^T \neq \mathbf{\bar{z}}\mathbf{\bar{z}}^T$ و بنابراین، مگر اینکه نویسندگان [1] از مقداری استفاده کنند روش شیطانی دیگر، یک اشتباه تایپی در کتاب وجود دارد. نظر شما چیست؟ * * * [1]: F.L. لوئیس، L. Xie، D. Popa، برآورد بهینه و قوی: با مقدمه ای بر نظریه کنترل تصادفی، 2008
استخراج برآوردگر خطی MMSE
64705
خوانده‌ام که وقتی صحبت از افراد غیررتبه‌بندی می‌شود، باید از کندال W اجتناب کرد، به‌ویژه برای مقیاس‌های رتبه‌بندی که گرایش به پیوندهای زیادی دارند. با این حال به نظر می رسد پست های اینجا آن را برای رتبه بندی پیشنهاد می کنند. همانطور که در این پست گفته شد، من یک مطالعه کوچک روی 21 پاسخ دهنده دارم، که به برخی از موارد از 0-5 امتیاز داده اند، که 0 بی اهمیت و 5 بسیار مهم است و من به دنبال معیارهایی برای توافق برای پاسخ دهندگان خاص هستم. من به دنبال توافق مطلق نیستم. در حالی که ICC به عنوان یک راه حل ممکن پیشنهاد شد، با توجه به تعداد کمی از پاسخ دهندگان، مشکلی در استفاده از آزمون F در این مورد وجود دارد. نظر شما در مورد کندال دبلیو در این مورد چیست؟
ضریب تطابق کندال (W) برای رتبه‌بندی‌هایی با تعداد کراوات
109818
اگر مقداری انسداد روی صورت (مانند عینک آفتابی، ماسک، روسری) وجود داشته باشد، میزان تشخیص به شدت کاهش می یابد؟ چگونه باید به این پرونده رسیدگی کرد؟ من یک بررسی انجام داده ام، روش بازسازی PCA توسط برخی ادبیات ذکر شده است. نمی دانم این روش آخرین روش است یا نه. آیا روش دیگری برای رفع مشکل انسداد وجود دارد؟
چگونه انسداد را برای تشخیص چهره مدیریت کنیم؟
63733
من با R خیلی تازه کار نیستم زیرا از آن برای نیازهای روزانه تجزیه و تحلیل داده هایم استفاده می کنم. من به دنبال یک بسته R هستم که بتواند تست همگنی نرمال استاندارد، تست محدوده Buishand، تست نسبت Von Neumann و تست Pettitt را برای سری های بارش روزانه محاسبه کند. هدف این است که در سال هایی که ناهمگنی وجود دارد، گسست ها را ثبت کنیم. آیا راهی وجود دارد که بتوان این 4 روش را در R احتمالاً در یک بسته R انجام داد؟ XLSTAT این کار را انجام می دهد اما گران و زمان بر است.
نحوه محاسبه آزمون همگنی نرمال استاندارد، آزمون محدوده بوئیشن، آزمون نسبت فون نیومن و آزمون پتیت
46488
من در تلاش برای درک ابر صفحه الگوریتم SVM هستم. مشکل من این است که منابع مختلف معادلات متفاوتی را بیان می کنند. کدام معادله صحیح است و اگر هر دو درست است چرا؟ * ویکی‌پدیا: $w\cdot x-b = 0.$ * یادداشت‌های تجزیه و تحلیل هوشمند داده‌ها و استنتاج احتمالی: $ w\cdot x+b = 0.$ علاوه بر این، من فکر کردم شکل عادی یک هواپیما به این شکل است: $$ w\ cdot x + w\cdot a = 0.$$
معادله ابر صفحه SVM
69554
من سعی می کنم به این سوال پاسخ دهم: به چه مقدار داده (دودویی) نیاز دارم تا زبان آموزم هر متغیر از مجموعه داده را حداقل یک بار ببیند؟ در تنظیم خود من بردارهای باینری الگوریتم خود را تغذیه می کنم (یعنی با همه عناصر برابر با 1 یا 0)، این بردارها دارای یک دانسیته شناخته شده (متوسط ​​مقدار یکها) هستند که - برای پاسخ به این سوال - ثابت یکنواخت (ok) یا از توزیع دم بلند پیروی کنید (بهتر). من سعی کردم از منظر ترکیبی به آن نگاه کنم اما این سخت تر از حد انتظار بود. من فکر می کنم این سوال باید قبلا پرسیده شده باشد، اما من تاکنون نتوانسته ام هیچ مرجعی را پیدا کنم. در نظریه ای از آموختنی ها توسط Valiant، خواندم که: > L(h,S) کوچکترین عدد صحیح باشد به طوری که در $L(h,S)$ مستقل > برنولی هر کدام را با احتمال حداقل $h^ آزمایش کند. {-1}$ موفقیت، > احتمال موفقیت کمتر از $S$ کمتر از $h^{-1}$ است. [...] > پیشنهاد: برای همه اعداد صحیح $S > 1$ و همه واقعی $h > 1$. $$L(h,S) \leq 2 > h (S + \ln (h))$$ این را می توان به کران بالایی برای سوال من ترجمه کرد با توجه به اینکه فرض می شود هر ویژگی از یک آزمایش مستقل برنولی گرفته شده است. اما نه یک کران پایین آیا کسی کار مرتبط دیگری را می شناسد که بتواند مرا به سمت یک کران پایین راهنمایی کند؟
تئوری یادگیری PAC و کران پایین در مقدار نمونه های ورودی
88893
برای پایان نامه کارشناسی ارشد من است، باید بیشتر به عمق برسم. هر گونه پیشنهادی در مورد کارهای اخیر واقعاً استقبال می شود.
مقاله مرجع و/یا کتابهایی درباره تجزیه و تحلیل داده های مکانی، احتمالاً بیزی
6580
**سوال** آیا چنین مفهومی در اقتصادسنجی/آمار به عنوان مشتق از پارامتر $\hat{b_{p}}$ در یک مدل خطی با توجه به برخی از مشاهدات $X_{ij}$ وجود دارد؟ منظور من از مشتق $\frac{\partial \hat{b_{p}}}{\partial X_{ij}}$ - اگر $X_{ij را تغییر دهیم چگونه پارامتر $\hat{b_{p}}$ تغییر می‌کند }$؟ **انگیزه** داشتم به موقعیتی فکر می کردم که در داده ها (مثلاً نتایج یک نظرسنجی) مقداری عدم اطمینان داریم و پول کافی برای به دست آوردن نتایج دقیق فقط در یک مشاهده داریم، کدام مشاهده را انتخاب کنیم؟ شهود من می گوید که ما باید مشاهده ای را انتخاب کنیم که ممکن است پارامترها را بیشتر تغییر دهد، که معادل بالاترین مقدار مشتق است. اگر مفاهیم دیگری وجود دارد، در مورد آنها بنویسید.
مشتق از مدل خطی
81335
من سوال اصلی خود را اینجا ارسال کردم، اما به من گفته شد که باید در Cross Validated پست می‌کردم، در زیر لینک سوال اصلی وجود دارد: http://stackoverflow.com/questions/20943584/predict-binary-outcome- with-r? noredirect=1#comment31453858_20943584 با تشکر!
پیش بینی نتیجه باینری با R
111087
ما از گروهی از آزمودنی ها خواستیم که ترجیحات خود را برای یک روش معین به ما بگویند که از بین آنها 4 انتخاب وجود داشت. سپس مطالب آموزشی را در اختیار آنها قرار دادیم و مجدداً از آنها خواستیم که ترجیح دهند. من می خواهم این دو گروه را با هم مقایسه کنم و ببینم آیا تفاوت آماری معنی داری بین این دو گروه وجود دارد یا خیر. تا آنجا که من می دانم، من این فرض را دارم که توزیع انتخاب ها غیر پارامتریک است، زیرا فرض می کنم که این موضوعات برای شروع یک پنس داشتند. علاوه بر این، من در حال نظرسنجی از همان گروه هستم، بنابراین آزمونی که باید استفاده کنم باید یک آزمون زوجی باشد. از کدام تست استفاده کنم؟
از کدام آزمون برای داده های جفت، ناپارامتریک و دسته بندی استفاده کنیم؟
100702
به نظر می رسد یک سری خاص (std) رفتاری شبیه روند را نشان می دهد. طبق تست ADF برای این سری: Dickey-Fuller = -2.8618، ترتیب تاخیر = 6، p-value = 0.2131 بنابراین، من اولین تفاوت std را با این کد می‌گیرم stddif1<- diff(std) در اینجا مشکل است. بخش، acf و pacf نشان می دهد که این یک فرآیند ARMA خواهد بود (2،1)، با d=1. اما کد تخمین‌های مختلف و مقادیر مختلف AIC را نشان می‌دهد، زمانی که (من فکر می‌کنم) این _نباید_ باشد: برای std بدون تفاوت: > arima(std, order=c(2,1,1)) فراخوانی: arima (x = std، مرتبه = c(2، 1، 1)) ضرایب: ar1 ar2 ma1 0.5206 0.2697 -0.7638 s.e. 0.1218 0.0552 0.1153 sigma^2 تخمین زده شده به عنوان 0.06355: احتمال ورود = 13.3 -، aic = 34.6 و برای std متمایز (stddif): > arima(stddif, order=c(2,0,1) (x : = stddif، سفارش = c(2، 0، 1)) ضرایب: ar1 ar2 ma1 intercept 0.5188 0.2695 -0.7620 -0.0003 s.e. 0.1223 0.0554 0.1159 0.0157 sigma^2 به صورت 0.06355 تخمین زده شده است: احتمال ورود = 13.3-، aic = 36.6 مقادیر AR1، AR2، MA1 و همچنین AIC متفاوت است. چرا این است؟ همه اینها در R انجام شد، بسته مربوطه «سری» است.
پارامترهای تخمینی مختلف در مدل های مشابه در R
69088
برای کسانی از شما که با تحلیل عاملی اکتشافی (EFA) و جنگل تصادفی (RF) آشنا هستند، اخیراً ایده ترکیب این دو روش برای کاهش تعداد متغیرهای پیش‌بینی‌کننده بالقوه برای استفاده در یک مدل رگرسیون لجستیک باینری صرفاً به ذهنم رسیده است. برای اهداف این پست، _n_ بزرگ (200k یا بیشتر) و 1000 متغیر پیش بینی بالقوه را در نظر بگیرید. برای به کارگیری این ایده، اولین قدم انجام یک EFA با همه متغیرهای پیش‌بینی‌کننده بالقوه با استفاده از «proc varclus» است. به‌علاوه، از «randomForest» برای رتبه‌بندی همه متغیرهای پیش‌بینی‌کننده بالقوه بر اساس «IncNodePurity» (شاخص جینی) استفاده می‌شود. پس از اینکه این دو روش به طور مستقل مورد استفاده قرار گرفتند، پیشنهاد می‌کنم متغیری را با بزرگترین «IncNodePurity» (از RF) در هر عامل (از EFA) حفظ کنیم. آیا کسی در مورد این متدولوژی (یا فقدان آن) برای انتخاب ویژگی نظر یا نگرانی دارد؟ من می دانم که این انتخاب و انتخاب روش ها ممکن است زباله کامل باشد، اما من این فکر تصادفی را داشتم و می خواستم به اشتراک بگذارم. با تشکر
ترکیب تحلیل عاملی اکتشافی با جنگل تصادفی برای انتخاب ویژگی رگرسیون لجستیک باینری
94992
من سعی می کنم دسته ای از فایل های اجرایی را دسته بندی کنم و می خواهم از NCD (فاصله فشرده سازی عادی) به عنوان متریک فاصله استفاده کنم. آیا بسته نرم افزاری وجود دارد که به من این امکان را می دهد؟ به‌روزرسانی: من از یک اسکریپت پایتون استفاده می‌کنم که برای مثال برای 4 نمونه، یک ماتریس فاصله تولید می‌کند: [[1.0004239875837764، 1.0004587405627736، 1.00124688780825028، 60825028، 1.000124688780825028، 65749، 1.000.000. [1.0001477300117407، 1.0003889794346572، 1.0007857384580077]، [1.0005753695194108، 1.0009174721125] [1.0008124881847325]، []] با تشکر
خوشه بندی سلسله مراتبی با NCD به عنوان متریک فاصله
43500
شرکت من انواع سری ها را برای بازدید از صفحه، بازدیدکنندگان منحصر به فرد و بسیاری از داده های کاربر دیگر (جمع آوری شده توسط سرورهای وب ما) جمع آوری می کند. همانطور که من می بینم، این مجموعه از سری ها گسسته هستند زیرا همه آنها توسط سیستم های کامپیوتری و نرم افزار جمع آوری می شوند و هیچ مقدار واسطه بین اعداد جمع آوری شده وجود ندارد. همچنین به همین دلیل من راهی برای اندازه گیری خطای تخمین آن ندارم. این سری ها به صورت ماهانه مقایسه می شوند و شرکت من با توجه به درصد افزایش/کاهش مقادیر به جلو حرکت می کند. اما مدیران من هرگز انحراف معیار یا خطای احتمالی آن را در نظر نمی گیرند. تنها تحلیل آماری که آنها انجام می دهند درصد تغییرات بین سری ها است. روش صحیح تر و صحیح تر برای تجزیه و تحلیل تغییرات ماهانه بین هر سری چیست؟ هدف من این است که تنوع واقعی در تعداد بازدیدکنندگان، بازدید از صفحه و غیره را استخراج کنم.
چگونه واریانس ماهانه سری های گسسته را تجزیه و تحلیل کنم؟
46483
به نظر می رسد که باید یک تحلیل آماری بسیار ساده باشد، اما من در تلاش برای یافتن راه حل هستم. من یک مجموعه داده متشکل از مقادیر داده های پیوسته قبل و بعد از آزمون دارم که از چندین گروه گرفته شده است، به عنوان مثال: گروه 1 (پیش آزمون، پس آزمون) گروه 2 (پیش آزمون، پس آزمون) گروه 3 (پیش آزمون) آزمون، پس آزمون) و غیره. می خواهم ببینم در کدام گروه ها تفاوت معنی داری بین معیارهای پیش و پس آزمون وجود دارد. ساده ترین تجزیه و تحلیل می تواند یک آزمون t زوجی باشد، با این حال من گروه های زیادی دارم و نگران این هستم که چند آزمون t زوجی نتایج من را در برابر خطاهای خانوادگی آسیب پذیر کند. یک جایگزین ممکن است استفاده از یک اندازه گیری مکرر GLM باشد. من چنین تحلیلی را در SPSS انجام دادم و مطمئناً به یک تعامل بین (گروه) * درون (تست-اثر) رسیدم. اکنون درگیر این هستم که چگونه می توانم مقایسه درون موضوعی در کدام گروه ها مهم باشد. من فقط می‌توانم به تقسیم گروه‌ها و اجرای مقایسه‌های متعدد در میانگین‌های حاشیه‌ای تخمینی، با اصلاح بونفرونی فکر کنم. فقط تصحیح بونفرونی تنها با یک مقایسه درون موضوعی کار نمی کند. آیا هر نوع تصحیح خطای خانوادگی وجود دارد که بتوانم برای ادامه مقایسه های درون موضوعی زمانی که فقط یک سطح مقایسه وجود دارد انجام دهم؟ با تشکر
مقایسه چندگانه پیش آزمون، پس آزمون
111081
من در حال تجزیه و تحلیل داده های یک طرح مداخله کلاسیک هستم. آزمودنی ها به گروه هایی تقسیم شدند و مداخلات مختلفی را انجام دادند. هر آزمودنی با استفاده از آزمون های مشابه قبل و بعد از مداخله اندازه گیری شد. مثل همیشه، دلیل اصلی داشتن گروه‌های متعدد این است که می‌خواهیم اثر(های) مورد علاقه را جدا کنیم. به عنوان مثال، ما یک مطالعه سه گروهی داریم که در آن می‌خواهیم اثرات درمان و دارونما را تخمین بزنیم: 1. گروه آزمایش مجدد: «افزایش اندازه‌گیری شده = آزمون مجدد» (بدون مداخله، فقط قبل و بعد از آزمون). 2. گروه دارونما: «افزایش اندازه‌گیری‌شده = آزمون مجدد + دارونما» 3. گروه درمان: «افزایش اندازه‌گیری‌شده = آزمایش مجدد + دارونما + درمان» # مدل پایه این به راحتی در «R» با استفاده از مثال تجزیه و تحلیل می‌شود. lme4::lmer با مدل اثرات مختلط `y ~ 1 + آزمون مجدد + دارونما + واقعی + (1|id)` که در آن سه اثر ثابت دودویی (0/1) هستند که نشانگر تأثیرات این موضوع و بخش تصادفی است. واریانس موضوعی خاص را ثبت می کند. یا به عنوان یک معادله: $y_i =\beta_{pretest} + \beta_{retest}x_{retest_i} + \beta_{placebo}x_{placebo_i} + \beta_{treat}x_{treat_i} + u_i + \epsilon_i$. ... با $i$ نشان دهنده یک موضوع خاص و $u_i$ به عنوان افست موضوع خاص (اثر تصادفی). توجه داشته باشید که برای پیش‌آزمون، تمام $x=0$ برای پیش‌آزمون، که سپس به‌عنوان وقفه $y_i = \beta_{pretest} + \epsilon_i$ مدل‌سازی می‌شود. # افزودن متغیرهای کمکی اکنون، این اثرات ممکن است توسط متغیرهایی مانند سن ($x_{age_i}$)، جنسیت ($x_{gender_i}$) و غیره تعدیل شوند. من حدس می‌زنم که این امکان وجود دارد که اثرات به روش‌های مختلف توسط این متغیرهای کمکی تعدیل شوند. یعنی اثر دارونما ممکن است با افزایش سن افزایش یابد در حالی که اثر درمان با افزایش سن کاهش می یابد. افزودن متغیرهای کمکی به این شکل خواهد بود: $y_i =\beta_{pretest} + (\beta_{retest} + \beta_{age_{retest}}x_{age_i} + \beta_{gender_{retest}}x_{gender_i}) x_{retest_i} + ... + u_i + \epsilon_i$ بنابراین $x_{effect}$s کلیدهای روشن/خاموش برای همه چیز هستند مربوط به یک اثر (افکار در مورد راه های جایگزین برای انجام آن استقبال می شود). # سوال: چه فرمول lmer این کار را انجام می دهد؟ معادل lmer چه خواهد بود؟ آیا «y~ (آزمایش مجدد + دارونما + درمان)*(1 + سن + جنسیت) + (1|id)» کارساز است؟ من می ترسم که بتاهای اثر با متغیرهای کمکی ضرب شوند نه اینکه با استفاده از این فرمول R به آنها اضافه شوند.
متغیرهای کمکی متعدد برای هر اثر ثابت
43509
برای یک پروژه باستان شناسی، من دو مجموعه از آیتم ها دارم که هر کدام به روش های مختلف (جرم، مساحت، ضخامت و غیره) اندازه گیری می شوند. من می خواهم آزمایش کنم که آیا تفاوت بین مجموعه ها قابل توجه است یا خیر. من کاملاً مطمئن هستم که باید از T-Test استفاده کنم، اما مطمئن نیستم که چگونه آن را اعمال کنم، با در نظر گرفتن همه ویژگی های مختلف هر مورد. آیا تست T را برای هر ویژگی انجام می دهم؟
انجام T-Test با عناصر با ویژگی های متعدد
63732
من یک سوال آماری ساده دارم (اگر از اصطلاحات آماری به روش اشتباه استفاده می کنم ببخشید) فرض کنید من یک بردار تصادفی با دو جزء، $(x_1، x_2)$ دارم، که در آن $x_1$ می تواند مقادیری از $1$ تا $n داشته باشد. $ و $x_2$ می توانند مقادیری از $1$ تا $m$ بگیرند و من یک توزیع دو بعدی $P$ به صورت $n \times m$ دارم. ماتریس $(i, j)$-امین عنصر $P$ احتمال مشاهده دنباله $(i, j)$ است. اکنون، من مشاهدات $x^{(k)}_1، x^{(k)}_2$ دارم و می‌توانم $\widehat{P}$ را از روی مشاهدات (به عنوان فراوانی‌های آماری) تخمین بزنم. حالا یه قسمت جالب من یک بردار (ثابت) $v$ دارم و باید تخمین بزنم **محصول ماتریس به بردار** $\widehat{P}$ توسط $v$ چقدر خوب تخمین زده می‌شود: $$ E || (P - \widehat{P})v ||^2 = ?$$
توزیع دو بعدی و محاسبه واریانس مربوطه
81334
به دلایلی سرپرست من از من می‌خواهد که فقط متغیرهای مستقلی را که در عبارات تعامل استفاده می‌شوند، متمرکز کنم. من هرگز چنین عملی را نشنیده ام. آیا منطقی است که بخشی از ماتریس داده را در مرکز X$ قرار دهیم، یعنی فقط برخی از ستون های ماتریس داده X$ را در مرکز قرار دهیم، نه همه آنها؟ متشکرم.
آیا مقیاس بخشیدن به ماتریس داده X در رگرسیون منطقی است؟
46480
من ISOMAP را پیاده سازی کردم و قصد دارم از آن به عنوان یک تکنیک استخراج ویژگی برای یک کار طبقه بندی استفاده کنم. مشکل من این است که اگرچه می توانم داده های آموزشی را در فضایی با ابعاد کمتر ترسیم کنم، چگونه می توانم از همان نقشه برداری برای یک مجموعه داده آزمایشی جداگانه استفاده کنم؟
ISOMAP برای طبقه بندی
63730
من یک پیامد سلامتی دارم (اندازه‌گیری شده به عنوان میزان موارد به ازای هر 10000 نفر در یک منطقه اداری) که می‌خواهم آن را با 15 متغیر مستقل (اقدامات اجتماعی، اقتصادی و زیست‌محیطی همان مناطق اداری) از طریق نوعی مدل مرتبط کنم. (من به پواسون GLM یا دوجمله ای منفی فکر می کنم اگر پراکندگی بیش از حد وجود داشته باشد). از بررسی پراکندگی می‌دانم که بین متغیرهایی که باید بررسی و رسیدگی کنم، چند خطی وجود دارد. من مخالف حذف متغیرها نیستم و در هر ترکیب مشکل‌ساز می‌توان انتخاب یک متغیر را بر دیگری به دلایل علاقه یا هزینه/سهولت جمع‌آوری توجیه کرد. در گذشته من از ماتریس همبستگی برای تشخیص چند خطی بودن استفاده می‌کردم، اما در حال مطالعه در این سایت بودم و VIF و شاخص/عدد شرط را کشف کردم، که به نظر می‌رسد به طور کلی به عنوان گزینه‌های بهتر پذیرفته شده‌اند. سوال من این است که چگونه هر یک از این معیارها با همبستگی های غیر خطی کار می کنند، چیزی که من بین تقریباً همه متغیرهایم (به صورت گرافیکی تعیین شده) دارم. گزینه های من برای ارزیابی چند خطی بودن علاوه بر همبستگی های اسپیرمن چیست؟ به کنار: متوجه شدم که این احتمالاً یک سؤال جداگانه است، اما اگر به اینجا مربوط باشد، من همبستگی های غیر یکنواخت زیادی بین متغیرهایم دارم که نمی دانم با آنها چه کار کنم... ممنون می شوم راهنمایی کنید!
نحوه تست چند خطی در بین متغیرهای مستقل غیرخطی
69086
من از بسته «glmnet» در R برای یک مجموعه داده نسبتاً بزرگ استفاده می‌کنم (حدود 50 هزار مشاهده، 1000 پیش‌بینی‌کننده). من رفتار زمان‌بندی عجیبی را برای مقادیر مختلف پارامتر «n_lambda» مشاهده می‌کنم. با استفاده از «cv.glmnet» (CV 5 برابری که به صورت موازی انجام می‌شود)، مقادیر کوچکتر «n_lambda» با زمان‌های اجرایی بزرگ‌تر مطابقت دارد، همانطور که با «سپری شده» در «system.time()» اندازه‌گیری می‌شود. این برای من غیر شهودی است زیرا به نظر می‌رسد که مقادیر کمتری برای پارامتر انقباض امتحان شده باید با زمان‌های کوتاه‌تر اجرا مطابقت داشته باشد. آیا من اینجا چیزی را از دست داده ام؟ این فراخوانی تابع است: system.time(cv.fit <- cv.glmnet(x=X, y=Y, type.measure=class,nfolds=5, parallel=TRUE,standardize=FALSE, nlambda=nlambda, family=multinomial)) این خروجی است: [1] Fitting the model... [1] Number of lambda مقادیر: 10 سیستم کاربر سپری شده 68544.863 2.764 31072.312 [1] Fitting the model... [1] تعداد مقادیر لامبدا: 100 سیستم کاربر سپری شده 7061.27 4.360 242140.0 1] تعداد مقادیر lambda: 500 اینچ سیستم کاربر سپری شده 19164.12 26.773 8712.563
رفتار زمان‌بندی عجیب با glmnet و n_lambda
76120
1) اجازه دهید $\{a_i\}_{i = 1, ...,n}$ یک دنباله واقعی باشد که توسط یک مولد اعداد شبه تصادفی تولید می شود. چگونه می توانم تصادفی بودن چنین اعداد واقعی را با استفاده از تست Runs بررسی کنم؟ 2) سه دنباله مستقل از اعداد حقیقی $\{a_i\}_{i = 1, ...,n}$, $\{b_i\}_{i = 1, ...,n}$ و $ را فرض کنید \{c_i\}_{i = 1, ...,n}$ توسط همان PRNG با استفاده از کلیدهای seed مختلف تولید می‌شوند. چگونه می توانم تصادفی بودن دنباله ای از _m_ -tuples را استنتاج کنم، به عنوان مثال 3-tuples $\{(a_i,b_i,c_i)\}_{i = 1, ...,n}$؟ 3) چگونه می توانم تصادفی بودن هر مختصات را به تصادفی 3 تایی تبدیل کنم؟
چگونه تصادفی بودن دنباله ای از m-tuples واقعی را آزمایش کنیم؟
41900
من سعی کردم این مشکل را در چند ماه گذشته حل کنم اما موفق نشدم. این قرار بود بخش بسیار کوچکی از پایان نامه دکتری من در ناوبری باشد، اما حدس می‌زنم مشکل را دست کم گرفتم. در ابتدا بی اهمیت به نظر می رسید، اما اکنون چندان مطمئن نیستم. فرض کنید دو کشتی داریم که هر کدام موقعیت اسمی خود را در مختصات دوبعدی (میانگین) دارند. با توجه به اشتباهات در سیستم های موقعیت یابی، ما فقط می توانیم مطمئن باشیم که کشتی ها در فاصله 1 مایلی از میانگین با احتمال 95٪ (توزیع نرمال) هستند. با توجه به این 2 موقعیت و این توزیع احتمال، احتمال اینکه کشتی ها در فاصله 5 مایلی از یکدیگر باشند چقدر است؟ همچنین، اگر موقعیت احتمالی کشتی یک بیضی باشد، نه دایره، همان سؤال است. من از برخی افراد پرسیدم و آنها به من گفتند که هیچ راه حل تحلیلی وجود ندارد. اگر واقعا اینطور است، لطفا نحوه حل عددی آن را توضیح دهید. همانطور که قبلاً می توانید بگویید، من از پس زمینه مهندسی آمده ام، بنابراین ریاضیات من کمی زنگ زده است. اگر سوال برای این انجمن خیلی مبهم یا بی اهمیت است پیشاپیش عذرخواهی می کنم. در صورت نیاز خوشحال خواهم شد که با جزئیات بیشتر توضیح دهم. من این را پیدا کردم، اما فقط برای حالت تک متغیره است، و علاوه بر این، نمی دانم چگونه آن را در مورد خودم پیاده کنم، جایی که باید احتمال اینکه فاصله بین دو کشتی کمتر از 5 مایل باشد را پیدا کنم. من این مشکل را صفحه ای با دو تپه که همدیگر را قطع می کنند تصور می کنم و راه حل آن حجم زیر دایره ای به قطر 5 مایل است که جایی بین دو قله تپه (میانگین) قرار دارد. آیا من در مسیر درست هستم؟ با تشکر
احتمال برخورد (دو توزیع نرمال دو متغیره)
100704
من در درک اینکه چه نوع تست آماری برای سوالاتم نیاز دارم با مشکل مواجه هستم. اندازه گیری های من شامل موارد زیر است: ارگانیسم 1 مکان 1 5 اندازه گیری های مکرر ارگانیسم 1 مکان 2 5 اندازه گیری های مکرر ارگانیسم 1 مکان 3 5 اندازه گیری های مکرر . . . . ارگانیسم 10 مکان 1 5 اندازه گیری های مکرر ارگانیسم 10 مکان 2 5 اندازه گیری های مکرر ارگانیسم 10 مکان 3 5 اندازه گیری های مکرر سوالاتی که می خواهم بپرسم عبارتند از: 1. تغییرات مورد انتظار از یک مکان منفرد چیست 2. تغییرات مورد انتظار از یک مکان منفرد چقدر است ارگانیسم 3. تنوع مورد انتظار بین موجودات چیست؟ 5. آیا تغییرات موجود در یک ارگانیسم به طور قابل توجهی با تغییرات بین موجوداتی که من در آزمایش‌های $p$ و $t$ خوانده‌ام متفاوت است، اما نمی‌توانم متوجه شوم که آیا اینها آزمایش‌هایی هستند که باید از آنها استفاده کنم یا خیر. همچنین مطمئن نیستم که آیا باید میانگین میانگین را برای دو سوال اول و صرفاً میانگین تمام 150 اندازه گیری را برای سوال سوم محاسبه کنم.
ارزیابی تفاوت بین اندازه گیری های مکرر از یک گروه به گروه دیگر
43504
من سعی می کنم از مدل sobol2007 در پکیج حساسیت R استفاده کنم. من روی مدلی با 26 پارامتر اجرا می‌کنم و از 2 مجموعه 500 نمونه مونت کارلو برای دانه‌بندی آنالیز استفاده می‌کنم و nboot=500. این منجر به 14k اجرا می شود وقتی نتایج حساسیت را ایجاد می کنم، انتظار اعداد 0..1 را دارم، اما هر دو * اعداد منفی * اعداد بسیار بالا را دریافت می کنم (مثلاً 10) وقتی مدل را رسم می کنم، می توانم اطمینان حاصل کنم که فواصل زمانی بسیار زیاد است: ![خروجی مدل حساسیت Sobol](http://i.stack.imgur.com/YfOd5.png) به نظر می رسد برای تخمین این تعداد پارامتر، 14 هزار اجرا باید معقول باشد، اما شاید من بیش از حد خوشبین هستم. آیا کسی می تواند پاسخ دهد: * آیا من کاملاً غیر واقعی هستم، و/یا از چه تعداد اجرا باید استفاده کنم؟ * آیا می توانم چیزی از این خروجی ها بخوانم یا اساساً آنقدر پر سر و صدا هستند که بی ارزش هستند؟ * چگونه باید nboot را انتخاب کنم - هیچ راهنمایی در اسناد وجود ندارد؟
تفسیر نتایج حاصل از تجزیه و تحلیل حساسیت Sobol در R
76126
در Stata، من داده های تابلویی برای سال های 2008-2012، در 7 شرکت دارم. من یک مقدار مربوط به id را برای همه شرکت ها اختصاص می دهم. ('id' 1,3 شرکت های تخصصی هستند که مورد توجه است) من دو متغیر ساختگی دارم. یکی نشانگر بحران مالی جهانی 2008 و برای سال 2008 1 است. دیگری نشان دادن شرکت های تخصصی است و من فقط به id 1،3 عدد 1 و به دیگران صفر می دهم. اما زمانی که از «xtgls» (پانل gls) استفاده می کنم، مشکل متغیر ساختگی حذف شده رخ می دهد. من واقعاً به آن دو آدمک نیاز دارم، پس چگونه می توانم این را حل کنم؟ تعداد کل مشاهدات 8000 است، هر شرکت حدود 1100 مشاهده در هر سال دارد.
متغیر ساختگی حذف شده در پانل gls؟
69083
من یک آنووا با اندازه گیری مکرر 2x3x4 دارم. من یک تعامل سه طرفه قابل توجهی دارم و می‌خواهم مطمئن شوم که از مقایسه‌های پس‌هک درست استفاده می‌کنم و هیچ نظریه آمار کلیدی را نقض نمی‌کنم. من آمار را در SPSS اجرا کرده‌ام و با استفاده از SIDAK برای مقایسه‌های چندگانه تنظیم کرده‌ام، اما می‌خواهم مطمئن شوم که چقدر تنظیمات انجام شده است و آیا مقادیر p به درستی اصلاح می‌شوند. آزمون‌های تعقیبی من موارد زیر را تجزیه و تحلیل کرده‌اند: AxB در هر سطح از C AxC در هر سطح B BXC در هر سطح از A من فقط سعی می‌کنم تعیین کنم که چه فاکتور اصلاحی مناسب است. به عنوان مثال b x c در هر سطح A 2 معنی را 12 برابر مقایسه می کند. در اینجا من تنظیم نمی کنم زیرا 2 میانگین است، یا مقدار آلفا را بر 12 تقسیم می کنم زیرا 12 مقایسه وجود دارد. به طور مشابه برای یک x c در هر سطح از B، من 3 میانگین را (به عنوان b دارای 3 سطح) در هر ترکیب از x c (8 ترکیب) مقایسه می‌کنم. در اینجا مقدار آلفا را بر 3 یا با ترکیبات x میانگین های مختلف از این رو 24 تقسیم می کنم. به طور مشابه، برای axb در هر سطح از c، 4 میانگین (مجموع 5 مقایسه) را در هر ترکیب یک x b (6 مجموع) مقایسه می‌کنم. در اینجا مقدار آلفا را بر 5 یا بر ترکیبات x تقسیم می‌کنم که میانگین‌های مختلف از این رو 30 است. آیا مقدار آلفا را بر مجموع تمام ترکیب های بالا تقسیم می کنم؟ با تشکر
تصحیح برای مقایسه های متعدد
43503
من به دنبال مرجعی برای درمان ابتدایی (یا حداقل نسبتاً ساده) توزیع Weibull هستم. من یک دانش آموز دبیرستانی باهوش دارم که پروژه ای را روی آسیاب های بادی انجام می دهد و معلوم شد که سرعت باد از توزیع Weibull پیروی می کند. در حالت ایده آل، من به دنبال اشتقاقی از میانگین و انحراف معیار یک آسیاب بادی هستم. مرجعی که گواه این واقعیت است، اینکه توزیع در واقع یک توزیع است نیز دیدن آن خوب است.
درمان ابتدایی توزیع Weibull
94996
من با تست AB تازه کار هستم و می خواهم این کار را با R (نرم افزار رایگان و یادگیری آسان) انجام دهم. آیا کسی می تواند در مورد کد نمونه در R برای تست AB کمک کند؟ ممنون آریل
تست AB با R
43501
من از هموارسازی نمایی (روش براون) برای پیش بینی استفاده می کنم. پیش بینی را می توان برای یک یا چند مرحله (بازه زمانی) محاسبه کرد. آیا راهی برای محاسبه فواصل اطمینان برای چنین پیش آگهی (قبلی) وجود دارد؟
فواصل اطمینان برای هموارسازی نمایی
11949
در مرحله 1 ما بسیاری از SNP ها را آزمایش می کنیم، در مرحله 2 سعی می کنیم این SNP ها را تأیید کنیم. معمولاً با نمونه کمتر شروع می کنیم، اما پس از آن تشخیص سیگنال دشوار است. مثلاً اگر ما توان خرید 3000 نمونه را داریم، چگونه این 3000 نفر را در دو مرحله تخصیص دهیم؟
چگونه می توان اندازه نمونه را برای کسب بیشترین قدرت در تجزیه و تحلیل دو مرحله ای تخصیص داد؟
45684
پیشاپیش بابت استفاده نادرست از اصطلاحات عذرخواهی می کنم - من سابقه زیادی در آمار ندارم. فرض کنید من رفتار زیر را برای بازده سهام روزانه دارم: وقتی $r_{i+1} > r_i$، سپس $r_{i+2} < r_{i+1}$ با احتمال $>50$%. برعکس، وقتی $r_{i+1} < r_i$، سپس $r_{i+2} > r_{i+1}$ با احتمال $>50$%. آنچه در حال وقوع است را توصیف کنید/این پدیده را تعریف کنید و توضیح دهید که چگونه می توان از دانستن این اطلاعات سود برد. دانش / شهود من در برخورد با سریال های زمانی محدود است، بنابراین هر کمکی بسیار قدردانی می شود!
رفتار سری زمانی بر اساس داده های قبلی