_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
89280
|
من در حال تجزیه و تحلیل داده های نظرسنجی هستم که شامل 3 متغیر (سوال) زیر است: * اگر انتخابات امروز بود به چه کسی در لیست زیر رای می دادید؟ (A، B، C، D، یا E)؟ بیایید تصور کنیم که پاسخ دهنده A را در مورد قبلی انتخاب کند. سپس از او می پرسند: * اگر الف در مسابقه شرکت نکند، به چه کسی رای می دهید؟ (B، C، D، یا E)؟ بیایید تصور کنیم که پاسخ دهنده C را در مورد قبلی انتخاب کند. سپس از او می پرسند: * اگر الف و ج در مسابقه شرکت نکنند، به چه کسی رای می دهید؟ (B، D، یا E)؟ من پاسخ سه سوال را دارم و میخواهم الگوریتمی ایجاد کنم تا به من کمک کند شانس پیروزی A را در مقابل همه نامزدهای دیگر، شانس B را در برابر بقیه نامزدها و غیره محاسبه کنم. هدف من این است که گزارش دهم خطرناک ترین مخالفان هر نامزد چه کسانی هستند. کسی ایده/پیشنهادی دارد؟
|
چگونه می توان احتمال پیروزی در انتخابات را محاسبه کرد؟
|
30083
|
همه! من سعی می کنم مقادیر یک آزمایش را بر اساس دسته بندی ها (در این مورد، جایگاه های ژنتیکی) ترسیم کنم. بنابراین، محور x شامل نام ژن است. من دارم طرح را به کار می گیرم، اما محور x بسیار شلوغ بود، بنابراین به این فکر می کنم که صفحه را به چند طرح تقسیم کنم، که هر کدام فقط حاوی چند مکان (یعنی چند مقدار x) باشد. وقتی سعی کردم زیرمجموعه ای از داده هایم را با اسکریپت زیر رسم کنم، نموداری دریافت کردم که همچنان حاوی مقادیر بسیار زیادی x در محور x بود. به عبارت دیگر، میلههایی که رسم شده بودند، همه در سمت چپ طرح شلوغ بودند و بسیاری از مقادیر x چیزی نداشتند. هیچ ایده ای دارید که من چه اشتباهی انجام می دهم؟ خواندن نام مکان ها در محور x سخت است، بنابراین نمی توانم بگویم که آیا نام مکان های مشابه را تکرار می کند (یعنی ممکن است مشکلی در ارتباط با melt()) باشد یا اینکه تمام مقادیر Loci را ترسیم می کند. داده به جای از split1_data. از طرف دیگر، توصیههای متفاوتی برای اینکه چگونه میتوان یک طرح با صدها میله را آسان کرد؟ خیلی ممنون! library(reshape) library(ggplot2) require(ggplot2) setwd(/Users/markfisher/Desktop) sink(file=/Users/markfisher/Desktop/Pvalue_HWE_output.txt) data=read.csv(Pvalues_of_all.csv ، header=TRUE) ضمیمه (داده) print(data$Loci[1:10]) split1_data<-subset(data,data$Loci %in% data$Loci[1:10]) split1_datam<-melt(split1_data,id=Loci) print(split1_data $Loci) print(split1_data$Loci) sink() pdf('/Users/markfisher/Desktop/pvalue_sensitivity.pdf'، bg = سفید) p <- ggplot(split1_datam، aes(x =مکان، y = مقدار، رنگ = متغیر، عرض=.15)) p + geom_bar(position=dodge) + ylab (P-value)+ geom_hline(yintercept=0.05) dev.off() به روز رسانی: من اضافه کردم تغییر پیشنهادی استفاده از droplevels() را انجام دادم و خطای یک ثابت عددی غیرمنتظره دریافت کردم. این خروجی از کنسول R من است: > library(reshape) > library(ggplot2) > require(ggplot2) > setwd(/Users/markfisher/Desktop) > sink(file=/Users/markfisher/Desktop/Pvalue_HWE_output .txt) > data=read.csv(Pvalues_of_all.csv، header=TRUE) > attach(data) > print(data$Loci[1:10]) > split1_data<-droplevels(subset(data,data$Loci %in% data$Loci[1:10])) > split2_data< -subset(data,data$Loci %in% data$Loci[11:20]) > split3_data<-subset(data,data$Loci %in% data$Loci[21:30]) > split4_data<-subset(data,data$Loci %in% data$Loci[31:40]) > split5_data<-subset (data,data$Loci %in% data$Loci[41:51]) > split6_data<-subset(data,data$Loci %in% data$Loci[52:62]) > > split1_datam<-melt(split1_data,id=Loci) > print(split1_data$Loci) > print(split1_data $Loci) > > > sink() > pdf('/Users/markfisher/Desktop/pvalue_sensitivity.pdf'، bg = سفید) > > p <- ggplot(split1_datam، aes(x =مکان، y = مقدار، رنگ = متغیر، عرض=.15)) 1 خطا: ثابت عددی غیرمنتظره در p <- ggplot(split1_datam, aes(x =مکان، y = مقدار، رنگ = متغیر، عرض=.15))1 > p + geom_bar(position=dodge) + ylab(P-value)+ geom_hline(yintercept=0.05) خطا: شی ' p' not found > dev.off() null device 1 > اگر کسی نیاز دارد فایل خروجی من را ببیند، به نظر می رسد: شی(های) زیر از «داده» پوشانده شده اند. (موقعیت 3)': همه، Loci، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_removed، X7_only، X7_removed، X78_moonly the Objects، X78_removed از «دادهها (موقعیت 4)»: همه، مکانها، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_removed، X7_only، X7_removed، X7_removed، X7_removed، X7_ اشیا از داده ها (موقعیت 5) پوشانده می شوند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_removed، X7_removed، X7_فقط، X7_removed، X7_ X8_removed شی(های) زیر از داده (موقعیت 6) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_only، X5_8_removed، X7_removed،7 X8_only، X8_removed شی(های) زیر از داده ها (موقعیت 7) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removed، X5_removed، X5_removed، X5 X78_only، X8_only، X8_removed شی(های) زیر از داده (موقعیت 8) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_only، X4_removedly، X4_removed،7 X7_removed، X78_only، X8_only، X8_removed شی(های) زیر از داده ها (موقعیت 9) پوشانده شده اند: همه، مکان، X1_only، X1_removed، X2_only، X2_removed، X3_only، X3_removed، X4_removed، X4_removed، X4_removed، فقط، X4_removed،
|
زیر مجموعه ای از دسته ها را در محور x در ggplot رسم کنید
|
30087
|
آیا هنگام ترسیم دادههای درون موضوعی برای شرط A در مقابل شرط B (معنیداری از طریق آزمون t آزمایش میشود)، آیا میلههای خطا خطای استاندارد میانگین را برای هر شرط به طور مستقل منعکس میکنند؟ یا باید SE از اختلاف میانگین بین A و B باشند؟ وقتی شرایط بیشتری برای ANOVA وجود دارد - A در مقابل B برای شرط 1 و A در مقابل B برای شرط 2 - باید نوارهای خطا با SE اختلاف میانگین A-B در 1 و سپس SE تفاوت میانگین در 1 مطابقت داشته باشد. 2 **ویرایش:** این مقاله راهی برای محاسبه SE/CI برای طرح های درون موضوعی ارائه می دهد. اصل موضوع این است که آزمودنیها برای کاهش سهم بین آزمودنیها در نوارهای خطا و انعکاس بهتر نتایج ANOVA اندازهگیریهای مکرر نرمال میشوند. Cousineau, D. (2005). فواصل اطمینان در طرح های درون موضوعی: راه حل ساده تر برای روش لوفتوس و ماسون. خودآموز روشهای کمی برای روانشناسی، 1(1)، 42-45. PDF
|
خطای استاندارد میانگین در مقابل خطای استاندارد تفاوت میانگین
|
89752
|
آیا کسی می تواند به من کمک کند تا داده های سالانه را به داده های ماهانه و سه ماهه تبدیل کنم؟
|
آیا باید یک داده سالانه را به داده های فصلی و ماهانه تبدیل کنم؟
|
47354
|
من مجموعه داده ای از 500 نفر دارم و سعی می کنم یک مدل پیش بینی را با استفاده از متغیرهای کمی و دسته بندی برازش دهم. من مجموعه داده را تا حد امکان تنظیم کرده ام، اما هنوز یک متغیر (که در تجزیه و تحلیل مهم است) با 19 مورد گم شده دارم. به نظر شما بهترین رویکرد/برنامه برای جایگزینی مقادیر از دست رفته/به جای حذف کدام است؟ آیا برآوردگر EM از SPSS جایگزین مناسبی را ارائه می دهد؟ با دیدن اینکه پیشبینیکنندههای مقولهای مهمی دارم که در تحلیل استفاده خواهند شد، میدانم که نمیتوانم از آنها در آموس استفاده کنم. چه برنامه های دیگری می تواند برای این نوع مدل مناسب باشد؟ متشکرم!
|
جایگزینی مقادیر از دست رفته؟
|
31357
|
این احتمالاً یک سؤال ساده است، اما این احتمالاً یک سؤال ساده است، اما رابطه بین توانایی استفاده از تجزیه افزودنی یک سری به فصلی، روند و باقیمانده و تبدیل باکس کاکس چیست؟ از وبلاگ پروفسور هیندمن: > از آنجا که همه داده ها را نمی توان به صورت افزودنی تجزیه کرد، ابتدا باید > یک تبدیل خودکار Box-Cox را اعمال کنیم. من متعجب بودم: 1) چه چیزی یک تجزیه افزودنی را نسبت به یک ضربی جذاب می کند (که من می فهمم اساساً گزینه دیگر است). 2) الزامات دکامپ افزودنی چیست و باکس کاکس برای این امکان چه کاری انجام می دهد؟ من به Box Cox برای ANOVA و کاهش هتروسکداستیکی فکر می کنم. آیا با تجزیه سریال ارتباطی وجود دارد؟
|
تجزیه سری زمانی: جعبه کاکس برای تجزیه افزودنی
|
31353
|
من مجموعه ای از داده ها با 6 ویژگی و یک امتیاز پیوست شده برای هر نقطه داده در مجموعه دارم. من یک رگرسیور خطی برای داده های خود ساخته ام. مسئله این است که مقادیر خروجی بسیار زیاد است، تقریباً 10000 و من مقادیری بین 9600 تا 10000 به دست میآورم.
|
چگونه می توان عملکرد یک رگرسیون را اندازه گیری کرد؟
|
47352
|
دستور anova عبارت است از روش نمره anova/subject|روش پیشبینی روش#پیشبینی / پیشبینی#موضوع|روش روش infdir#infdir / infdir#subject|روش پیشبینی روش#infdir روش#پیشبینی#infdir if(agegroup==0 & block==1 )، تکرار می شود (پیش بینی infdir) که در آن «روش» یک عامل بین موضوعات است، و هر سطح از «infdir» در «پیشبینی» تودرتو است (در درون موضوعات تکرار میشود: سطح 1 و 2 «infdir» برای هر سطح از «پیشبینی» در آزمودنیها درخواست میشود، جایی که هر یک از آنها بین آزمودنیهای «روش» است). من خروجی دوست داشتنی ANOVA را که می خواهم در SPSS تکرار کرده ام دریافت می کنم. با این حال، من اصلا نمی توانم از تابع کنتراست استفاده کنم. هر زمان که من سعی میکنم جلوههای ساده را بررسی کنم، «حاشیهها» و توابع مشابه همگی «(قابل آزمایش نیستند)» برمیگردند. کسی میدونه چرا؟ ویرایش: به دلایلی نمیتوانم به سؤال خود به گونهای پاسخ دهم که به عنوان پاسخ به حساب بیاید تا دیگران بتوانند بعداً به آن مراجعه کنند. درستش میکنم ولی تا اون موقع: فهمیدم. من باید پس از دستور «کنتراست»، سلولهای خالی (وزن مجدد) را اضافه کنم. سلول های خالی در تعامل بین عوامل، عملکردها را از بین می بردند. من فقط مجبور شدم بیشتر RTFM کنم.
|
من نمی توانم کنتراست را در ANOVA اندازه گیری های مکرر خود در Stata 12 آزمایش کنم. چرا؟
|
110742
|
من میخواهم مساحت را برای یک طبقهبندی کننده با چندین کلاس محاسبه کنم. آیا توابع (قابل اطمینان) را برای Matlab می شناسید که متدهایی را برای آن پیاده سازی می کنند، مانند مثال در [1]؟ متشکرم! [1] Fawcett, T. (2006). مقدمه ای بر تجزیه و تحلیل ROC. نامه های تشخیص الگو، 27(8)، 861-874.
|
AUC چند کلاسه در Matlab
|
15070
|
س: برای کدام داده ها استفاده از مدل سازی فضای حالت و فیلتر کالمن به جای هموارسازی اسپلاین ها و بالعکس مناسب است؟ آیا رابطه هم ارزی بین این دو وجود دارد؟ من سعی میکنم درک سطح بالایی از نحوه تطابق این روشها با هم داشته باشم. من تخمین گاوسی جدید جانستون: مدلهای توالی و چند وضوح را مرور کردم. جای تعجب است که هیچ اشاره ای به مدل های فضای حالت و فیلتر کالمن نشده است. چرا اون اونجا نیست؟ آیا این استانداردترین ابزار برای این نوع مشکلات نیست؟ در عوض، تمرکز بر صاف کردن خطوط و آستانه موجک بود. الان خیلی گیج شدم
|
فیلتر کالمن در مقابل اسپلاین های صاف کننده
|
47350
|
من یک سوال برای حل مسئله ماتریس زیر دارم: $$E[( (X'X)^{-1}X \epsilon )^T ((X'X)^{-1}X \epsilon )]$$ به حل $$= \Sigma^{2} (X'X)^{-1}.$$ جایی که $\Sigma$ ماتریس کوواریانس $\epsilon$ است. سوال من این است که چگونه می توان این مسئله را با استفاده از ویژگی های جبر ماتریسی حل کرد. این معادله زمانی رخ می دهد که از حداقل مربعات برای حل یک مسئله رگرسیون خطی استفاده می شود. (همانطور که در: http://en.wikipedia.org/wiki/Proofs_involving_ordinary_least_squares، بخش Unbiasedness and Variance of $\hat\beta$ قابل مشاهده است). من یک راه حل برای یک مورد خاص در این لینک دیدم: مقدار مورد انتظار و واریانس تخمین پارامتر شیب β1 در رگرسیون خطی ساده. با این حال، من به راه حل تعمیم یافته توصیف شده در معادله علاقه مند شدم. این چیزی است که من تاکنون به دست آوردم: با استفاده از ویژگی های transpose، ما به دست می آوریم: $$E[( (X'X)^{-1}X \epsilon )^T ((X'X)^{-1}X \ epsilon )] = E[( (\epsilon' X' ((X'X)^{-1})' )((X'X)^{-1}X \epsilon )].$$ $(X'X)^{-1}$ یک ماتریس متقارن است، بنابراین: $$( (X'X)^{-1} )' = (X'X)^{-1}.$$ And I $E[( (X'X)^{-1}X \epsilon )^T ((X'X)^{-1}X \epsilon )] = E[( (\epsilon' X') بدست آورید (X'X)^{-1})^{2} X \epsilon )].$$ من نتوانستم بیشتر از این حل کنم S = QDQ'$، برای برخی از ماتریس های متعامد $Q$ و ماتریس مورب $D$ آیا کسی می تواند به من در این راه حل کمک کند؟
|
استخراج شیب برای واریانس یک مسئله حداقل مربع از طریق نمادگذاری ماتریس
|
80481
|
من مشکل زیر را دارم: بردار = {1،0،0،1...}، فقط از 1 یا 0 تشکیل شده است، و اندازه بردار N است. من نسبت 1 را در چنین برداری محاسبه می کنم. بگویید، من prop_1 = 0.96 دریافت کردم دقیقا، فرضیه صفر من این است: H0: 0.96 تصادفی است HA: 0.96 تصادفی نیست و، من می خواهم H0 را رد کنم تا نشان دهم که 0.96 تصادفی نیست. چه روشی می تواند باشد؟ بوت استرپینگ؟ یا راه های دیگری؟
|
آزمون آماری در برابر تصادفی
|
31354
|
من سوال زیر را در رابطه با پیاده روی تصادفی دارم. من میخواهم لحظهای را تعیین کنم که یک پیادهروی تصادفی از یک پیادهروی تصادفی ساده به شروع به حرکت در زمان مشخصی تغییر میکند. این نوع سناریو ممکن است زمانی اتفاق بیفتد که دما شروع به افزایش یا کاهش سطح دریا کند. ایده این است که آن تغییر را در اسرع وقت تشخیص دهیم. واضح است که اگر سیستم برای مدت طولانی رها شود، کاملاً واضح است که از یک سطح اولیه معین تغییر کرده است (که با راه رفتن تصادفی ساده در ابتدا ارائه می شود)، اما می خواهم بدانم آیا امکان تشخیص آن وجود دارد یا خیر. بعد از وقوع خیلی سریع تغییر می کند. چه نوع تحلیلی لازم است؟ هر گونه پیشنهاد تا حد زیادی قدردانی می شود. خیلی ممنون!! مایکل و وبر، من واقعا از نظرات شما قدردانی می کنم. سوال اولیه من در واقع مربوط به کنترل کیفیت بود، زیرا من سعی می کنم یک CUSUM را به عنوان یک پیاده روی تصادفی مدل کنم: وقتی سیستم تحت کنترل است، آن را به عنوان یک راه رفتن تصادفی ساده می بینم، زمانی که شروع به حرکت می کند و در نهایت خاموش می شود. از کنترل، من آن را به عنوان یک راه رفتن تصادفی می بینم. بنابراین سوال من این است که چگونه (و به طور بحرانی، با چه سرعتی) این تغییر را از حالت ثابت به حرکت در مسیرهای تصادفی تشخیص دهیم. من می توانم ببینم که تشخیص دریفت آسان نیست، به خصوص زمانی که رانش به دلیل ماهیت تصادفی سیستم کوچک باشد. اما فکر می کنم ایده ARIMA به من کمک کند، من قبلاً به این نظریه نگاه نکرده بودم و از شما برای این توصیه تشکر می کنم. میلی.
|
پیاده روی تصادفی ساده و رانش ناگهانی، چگونه تغییر را تشخیص دهیم؟
|
95572
|
من الگوریتم حداکثر جمع را برای یک نمودار کلی (یعنی آنهایی که دارای یک چرخه هستند) پیاده سازی می کردم. من پیام ها را همانطور که در http://www.cedar.buffalo.edu/~srihari/CSE574/Chap8/Ch8-GraphicalModelInference/Ch8.3.3-Max- SumAlg.pdf نشان داده شده است، به روز کردم. چیزی که من متوجه شدم این است که، با این حال، در مورد یک نمودار عامل با چرخه، اگر مقدار عامل بین 0 و 1 باشد، پیام ها همچنان با تکرار کاهش می یابند. به این دلیل است که لاگ مقدار عامل منفی است و حلقه در چرخه همچنان مقدار عامل (منفی) را اضافه می کند. این را می توان به راحتی با یک نمودار عامل با دو گره متغیر تصادفی و دو گره عاملی که دو گره متغیر تصادفی را به هم متصل می کند تأیید کرد. به نظر من بعد از هر به روز رسانی پیام باید نوعی نرمال سازی وجود داشته باشد اما اسلایدهایی که به آنها اشاره می کنم اشاره ای به آن ندارند. کسی راه حل این پدیده رو میدونه؟
|
نرمال سازی در الگوریتم حداکثر جمع (انتشار باور حلقه ای)
|
113408
|
من فقط سرگردان بودم اگر با توجه به فرآیند AR \begin{معادله} X_t = \alpha X_{t-1} + \varepsilon_t, \quad \varepsilon_t \overset{iid}{\sim} N(0,1), \ پایان{معادله} مقادیر $X_t$ به دلیل نویز سفید مستقل مستقل هستند؟
|
آیا فرآیند AR گوسی با نویز سفید مستقل است؟
|
15072
|
مشکل من این است که سعی میکنم بفهمم چند سرور ممکن است برای رسیدگی به حداکثر بار نظری درخواستهای داده مورد نیاز باشد. برای انجام این کار باید بدانم حداکثر تعداد درخواست ها در یک ثانیه ممکن است چقدر باشد. من مجموعه نسبتاً محدودی از داده ها دارم که 156000 تراکنش در یک ساعت انجام شده است. این حداکثر تراکنش های ثبت شده برای یک دوره 60 دقیقه ای در 4 ماه است. 4500 دستگاه به سرور دسترسی دارند و هر تراکنش مشتری-سرور به طور متوسط 45 ثانیه طول می کشد. من می خواستم پیش بینی کنم که حداکثر تعداد تراکنش های مشتری-سرور در یک ثانیه ممکن است با اطمینان 95٪ باشد. هر سرور می تواند حداکثر 15 تراکنش همزمان را قبل از شروع تجربه تاخیر انجام دهد. خیلی وقت است که هیچ آماری را انجام نداده ام، بنابراین اگر کسی بتواند من را در مسیر درست راهنمایی کند، عالی خواهد بود. فکر کردم شاید لازم باشد حداکثر/دقیقه/میانگین زمان تراکنش را بدانم تا بتوانم به واریانس برسم، اما احتمالاً الان دارم غر میزنم. یک میلیون ممنون
|
پیشبینی حداکثر مقدار با دادههای کم
|
6549
|
با توجه به یک نمونه تک متغیره $\vec X = X_1، ...، X_n$ با انحراف استاندارد 1 و یک تبدیل کاملاً یکنواخت $t: R \ به R$ با این ویژگی که انحراف استاندارد $t(\vec X)$ همچنین 1 است (که در آن $t(\vec X)$، $t$ است که برای هر $X_i$ اعمال می شود). اگر کسی بداند که توزیع نرمال را با $\vec X$ و $t(\vec X)$ مطابقت می دهد، این واقعیت زیر را مشاهده می کند: احتمال در MLEهای مربوطه $\vec X$ و $t(\vec X)$ یکسان است. دلیل آن این است که انحراف استاندارد MLE برای پارامتر $\sigma$ توزیع نرمال است، بنابراین فقط میانگین تغییر می کند، که احتمال را تغییر نمی دهد. در برخی از محاسبات با داده های _multivariate_ من همین واقعیت را مشاهده کردم، با استفاده از تبدیل هایی به گونه ای که $\det(cov(t(\vec X)))=1)$. اما من دلیل واضحی برای آن ندیدم! توجه داشته باشید که در حالت چند متغیره، MLEها برای پارامترهای واریانس تغییر می کنند، حتی اگر تعیین کننده بالا همیشه 1 باشد. مطمئن هستم که اولین کسی نیستم که متوجه می شوم، اما ادبیات من (تا حدودی محدود) در مورد توزیع نرمال چند متغیره چنین نیست. به من سرنخی بدهید که چگونه گزاره بالا را اثبات کنم، یعنی اینکه احتمال نرمال چند متغیره فقط به تعیین کننده $cov(t(\vec) بستگی دارد X))$، صرف نظر از انتخاب $t$. یک اثبات به بررسی شرایط شکل $x'\Sigma x$ برای $\det \Sigma = 1$ خلاصه میشود. آیا سرنخ بیشتری دارید؟ ممنون، فیلیپ
|
احتمال در MLE و تحولات، حالت نرمال چند متغیره
|
87767
|
من 7 توپ دارم که باید به طور تصادفی در چهار کوزه با اندازه {5،3،2،2} قرار دهم، احتمال اینکه دقیقاً سه کوزه حداقل یک توپ داشته باشد چقدر است؟ (با عبارات متفاوت، دوازده نقطه به یک اندازه احتمالی برای هفت توپ، اما پنج نقطه اول به عنوان کوزه اول، سه بعدی کوزه دوم و غیره در نظر گرفته می شود.) از طریق شبیه سازی پاسخی در حدود 32.4٪ دریافت کردم، اما در تعجب هستم که چگونه آن را حل کنم. مورد کلی؟ (n توپ در قوطیهایی با اندازه {m_1,m_2,...,m_k}، احتمال اینکه دقیقاً r قوطی حاوی حداقل یک توپ باشد؟)
|
توپ در قوطی با اندازه های مختلف
|
31355
|
من برای تجزیه و تحلیل داده های خود از SPSS استفاده می کنم. من از رگرسیون چند جمله ای استفاده می کنم. من 14 متغیر پیش بینی دارم که 9 تای آنها طبقه ای و 5 متغیر پیوسته هستند. متغیر پاسخ دارای سه دسته است. سپس پس از فشار دادن دکمههای مناسب برای رسیدن به رگرسیون چند جملهای، نتیجه نمایش داده میشود، اما پیغام خطایی که من با آن مواجه هستم این است که رگرسیون گام به گام پردازش نمیشود. به نظر شما مشکل از کجاست؟ و مسئله عددی چیست و چگونه می توانم آن را حل کنم؟ آیا می توانم با در نظر گرفتن VIF تعداد متغیرها را گام به گام کاهش دهم تا زمانی که به عدد 1 نزدیک شود؟
|
چگونه می توانم انتخاب گام به گام برای رگرسیون چند جمله ای در SPSS را برای پردازش دریافت کنم؟
|
88485
|
من از مدل های ترکیبی خطی تعمیم یافته (با بسته glmmADMB) برای شناسایی عوامل محیطی مرتبط با فراوانی انگل در جوندگان استفاده کردم. من از حذف گام به گام به عقب برای ساده سازی متوالی مدل کامل استفاده کردم تا زمانی که فقط عوامل مهم و شرایط تعامل باقی بمانند (کرولی، 2007). با این حال، وقتی خلاصه مدل نهایی را بررسی کردم، یکی از عوامل دیگر معنیدار نیست (087/0=p). اما در تست های ANOVA که به مدل نهایی منتهی شد، این متغیر (دما) معنی دار است: ** خلاصه مدل نهایی:** ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 3.131658 0.213630 15.33 < 2e-16 temperature -0.004019 0.0033143 -1.71 0.08673 . **anova** مدل 1: انگل ها ~ سن + پوشش گیاهی + همزمانی مدل 2: انگل ها ~ دما + سن + پوشش گیاهی + همگام NoPar LogLik Df Deviance Pr(>Chi) 1 7 -550.75 2 8 -546.81 1 7.8098 **4*9. * سوالات من این است که کدام ارزش مهم را باید گزارش کنم؟ یعنی دما مهم نیست؟ من دست نوشته هایی را دیده ام که مقادیر را از خلاصه مدل نهایی گزارش می دهند، اما برخی نیز که مقادیر اهمیت را از مقایسه مدل ها گزارش می دهند، کدام یک درست است؟
|
متغیر از طریق رگرسیون گام به گام معنادار است اما در خلاصه مدل نهایی نه. کدام را گزارش کنم؟
|
87762
|
من سرم را روی این یکی می خارم ... هر کمکی بسیار قدردانی خواهد شد. می خواهم بدانم که آیا میانگین زمان سفر بین پارک گوئل و ساحل بارسلونا با استفاده از اتوبوس یا مترو متفاوت است و کدام یک سریعتر است. از آنجایی که من توزیع زمان سفر را نمی دانم، نمی توانم از آزمون t استفاده کنم. بنابراین، به من پیشنهاد شد که از آزمون تصادفی سازی استفاده کنم (بنابراین هیچ فرضی در مورد داده ها نمی کنم). این دادهها هستند: مترو (در دقیقه): 34، 39، 28، 42، 32، 37، 41، 40، 47، 36، 38، 48، 31 اتوبوس (در دقیقه): 40، 44، 49، 50، 48، 45، 47، 46، 39، 55 چگونه می توانم ثابت کنم که وجود دارد یا آیا بین اشکال حمل و نقل (تست تصادفی سازی) تفاوتی وجود ندارد؟
|
کمک تست تصادفی سازی
|
88482
|
آیا $R^2$ (یا برخی آمارهای دیگر) از رگرسیون خطی تک متغیره چیزی در مورد نحوه عملکرد آن در یک مدل لجستیک به من می گوید؟ اگر داده ها را به معنای صفر نرمال کنم چه می شود؟ من در حال انجام رگرسیون لجستیک چندگانه هستم، و به این فکر می کنم که آیا من تعداد زیادی رگرسیون خطی تک متغیره ایجاد کرده ام، آیا می توانم از $R^2$ به عنوان شاخص متغیرهایی استفاده کنم که ارزش امتحان کردن دارند یا خیر. شاید حتی اضافه کردن یک جستجوی brute force از فعل و انفعالات جالب یا اضافه کردن چند جمله ای و غیره.
|
آیا می توان از رگرسیون خطی تک متغیره برای شناسایی متغیرهای مفید برای رگرسیون لجستیک چندگانه بعدی استفاده کرد؟
|
96381
|
به بیان ساده، من دروسی را که دانشآموزان گذراندهاند و نمرههایی در یک امتحان دارم. دانش آموزان از زمینه های دوره های مختلف می آیند. (برخی فقط درس A را گذرانده اند، برخی فقط D برخی A و D برخی A و B برخی B C و D و غیره و غیره) از چه آزمونی می توانم برای توضیح این موضوع استفاده کنم؟
|
برای مشاهده همبستگی بین گروه های همپوشانی و نمره از چه آزمونی استفاده کنم؟
|
63684
|
دو بازیکن در حال پرتاب هر یک می میرند. هر که ارزش بالاتری دارد، تعداد امتیازی معادل اختلاف مقادیر روی هر دو تاس دریافت می کند. چگونه احتمال کسب بیش از 100 امتیاز در 100 پرتاب را برای یک برنده تخمین می زنید؟
|
مشکل دو تاس
|
19827
|
من یک سوال ساده از شما بچه ها دارم اما من دارم برای امتحانات می خوانم و راستش یادم رفته چطور این کار انجام شد. مشکل اینجاست: > یک گلدان شامل 4 تیله سفید، 3 تا قرمز و 2 سبز است. شما تیله های 2 را می کشید بدون اینکه اولی را بعد از دومی برگردانید. > > چه شانسی دارد که بعد از اولی یک تیله قرمز بکشید. یکی بود > > > چه شانسی داره که 2 تیله سفید بکشی؟ من می بینم که باید P (A ∩ B) / P (B) را محاسبه کنم اما چگونه P (A ∩ B) را محاسبه کنم؟ همچنین سوال سوم از مشکل من کاملاً من را بیشتر از بقیه گیج می کند ، من هیچ پاسخی ندارم و به 100 پاسخ مختلف رسیده ام و حتی نمی دانم که آیا هر یک از آنها درست است یا خیر. آنها را با پاسخ های واقعی مقایسه کنید و من اصلاً نمی دانم چگونه آن را محاسبه کنم
|
محاسبه احتمال سوال از دانش آموز
|
63688
|
من الگوریتم های خوشه بندی مانند k-mean، k-medoid و DBSCAN را در مجموعه داده های بیماران خود اعمال کرده ام. برای هر الگوریتم RapidMiner یک مدل خوشهبندی شده (جدول مرکزی و نمودارها و غیره) و یک مجموعه خوشهبندی شده (نشان میدهد که کدام نمونهها بخشی از کدام خوشه هستند) ایجاد کرد. حالا من میخواهم راهی را انجام دهم که وقتی یک بیمار جدید میآید، میخواهم خوشهای را بر اساس مدل آموزشدیده قبلی به او اختصاص دهم. من در مورد روش انجام این کار گیج شده ام... آیا این چیزی شبیه به آن است (ممکن است اشتباه کنم)؟ 1. برای هر مقدار ویژگی بیمار جدید - آن مقدار مشخصه از جدول مرکز که همه تفاوت های ویژگی های بیمار را جمع می کند و میانگین را می گیرد. 2. سپس به او خوشه ای اختصاص دهید که میانگین آن نسبت به آن بیمار حداقل باشد. اگر این راه درست است، پس چگونه دوباره خوشهبندی میکنم، یعنی وقتی یک بیمار جدید میآید، الگوریتم ما به او خوشهای اختصاص میدهد، این معنی است. centroid حرکت می کند و سپس باید با هر درج رکورد دوباره خوشه بندی کنم. چگونه در سناریوی من با این موضوع رفتار کنم؟
|
چگونه می توان نمونه جدید را در خوشه بندی پایه مرکزی مجدداً خوشه بندی کرد؟
|
16673
|
من جفتهایی دارم (x، y) که میخواهم آنها را به عقب برگردانم (x مستقل، y وابسته). با ترسیم آنها، نوارهای مجزایی را می بینم که می توانند به متغیر سوم نسبت داده شوند. متأسفانه این متغیر را نمی توان مستقیماً اندازه گیری کرد. آیا راه خوبی وجود دارد که هم داده ها را در یک معادله قرار دهیم و هم مقدار متغیر باینری (برای هر x) را تعیین کنیم؟ معادله ای که من در نظر گرفتم $$y=ax^b(1+cz)$$ است که $z$ متغیر باینری مشاهده نشده است. (البته بسته به اینکه کدام گروه به عنوان 0 و کدام یک به عنوان 1 انتخاب شود، دو راه برای جا دادن داده ها وجود دارد، اما محدود کردن $c>0$ باید اساساً انتخاب را منحصر به فرد کند.) مگر اینکه دلیلی برای ترجیح چیز دیگری وجود داشته باشد که من به دنبال آن هستم. حداقل مربعات مناسب است.
|
برازش داده ها بر اساس یک متغیر مشاهده نشده
|
87768
|
هدف تحقیق من این است که می خواهم آزمایش کنم که آیا برخی از صداها در زبان ها از نظر مدت زمان مشابه یکدیگر هستند یا خیر. در شرایط من 4 زبان با 5 صدا دارم. سه زبان اول هر 5 صدا را دارند اما فقط یک زبان 3 صدا دارد. آیتم های من به 6 مصوت تقسیم می شوند و همه زبان ها همه این 6 مصوت را دارند. سپس من سخنرانان 4 زبان دارم اما 2 زبان توسط همان گروه از گویشوران تولید می شوند - بنابراین در واقع من به جای 4 زبان، 3 گروه گویشوران دارم (هر گروه دارای مرد و زن است). از آنجایی که مدت زمان متغیر پیوسته است، من از مدل ترکیبی خطی (LMM) در R با lme4 استفاده می کنم. جلوه های ثابت من زبان + مصوت + جنس + صدا هستند. جلوه های تصادفی من بلندگو + آیتم است. با این حال، من مطمئن نیستم که مدل مناسب در مورد من چگونه باید باشد. من این فرمول را امتحان کردم: `lmer4 <\- lmer(مدت ~ (1|مورد) + (1+صدا*صدا|گوینده) + مصوت*جنس*صدا*زبان, data=data.frame,REML=FALSE)` اما مدل را نمی توان اجرا کرد زیرا برخی صداها در برخی از زبان ها وجود ندارند. آیا کسی در مورد مدل مناسب برای پرونده من نظری دارد؟ کمک شما دقیقاً سپاسگزار خواهد بود.
|
مدل مناسب برای داده های من چگونه باید باشد؟
|
6544
|
من یک مجموعه داده دارم که میخواهم یک مدل خطی ساده را در آن جا بدهم، اما میخواهم تاخیر متغیر وابسته را به عنوان یکی از رگرسیونها لحاظ کنم. سپس میخواهم با استفاده از پیشبینیهایی که از قبل برای متغیرهای مستقل دارم، مقادیر آینده این سری زمانی را پیشبینی کنم. نکته مهم این است: چگونه می توانم تاخیر را در پیش بینی خود لحاظ کنم؟ در اینجا یک مثال آورده شده است: #یک تابع برای محاسبه تاخیرهای ماتریس <- تابع(x,max.lag){embed(c(rep(NA,max.lag),x),max.lag)} تاخیر <- تابع(x, تاخیر) { out<-lagmatrix(x,lag+1)[,lag] return(out[1:length(out)-1]) } y<-arima.sim(model=list(ar=c(.9)),n=1000) #Create AR(1) متغیر وابسته A<-rnorm(1000) #Create independant variables B<-rnorm(1000) C<-rnorm(1000) خطا<-rnorm(1000) y<-y+.5*A+.2*B-.3*C+.1*خطا #افزودن رابطه به متغیرهای مستقل #مناسب مدل خطی lag1<-lag(y,1) model<-lm(y~A+B +C+lag1) خلاصه (مدل) #پیشبینی مدل خطی A<-rnorm(50) #فرض کنید 50 مقدار آینده A، B، C را میدانیم B<-rnorm(50) C<-rnorm(50) lag1<- ##################اینجا گیر کردم######### ######### newdata<-as.data.frame(cbind(A,B,C,lag1)) predict.lm(model,newdata=newdata)
|
پیش بینی از یک مدل خطی ساده با تاخیر در R
|
88481
|
من یک ریاضی دان هستم که آمار را به صورت خود مطالعه می کنم و به خصوص با زبان درگیر هستم. در کتابی که من استفاده می کنم، مشکل زیر وجود دارد: یک متغیر تصادفی $X$ به صورت $\text{Pareto}(\alpha,60)$- توزیع شده با $\alpha>0$ داده می شود. (البته برای این سوال می توانید هر توزیعی را بسته به یک پارامتر انتخاب کنید.) سپس نمونه ای از پنج مقدار $14$, $21$, $6$, $32$, $2$ داده می شود. بخش اول: با استفاده از روش حداکثر احتمال، برآورد $\hat{\alpha}$ از $\alpha$ را بر اساس [نمونه] پیدا کنید. این مشکلی نداشت پاسخ $\hat{\alpha}\حدود 4.6931$ است. اما سپس: برای خطای استاندارد $\hat{\alpha}$ تخمین بزنید. منظور از این چیست؟ از آنجایی که $\hat{\alpha}$ فقط یک عدد واقعی ثابت است، نمیدانم از چه نظر میتواند خطای استاندارد داشته باشد. آیا من باید انحراف معیار $\text{Pareto}(\hat{\alpha},60)$ را تعیین کنم؟ اگر فکر می کنید سوال واضح نیست، این اطلاعات به من نیز کمک خواهد کرد.
|
منظور از خطای استاندارد تخمین حداکثر درستنمایی چیست؟
|
47356
|
فرض کنید در ساحلی هستید که از مخلوطی از ماسه های رنگی مختلف (برای سادگی، سیاه و سفید) تشکیل شده است و می خواهید تخمین بزنید که چه مقدار از هر نوع وجود دارد. شما یک سطل دارید که می توانید از آن برای نمونه برداری از ماسه و تکنیکی برای جداسازی انواع مختلف و وزن کردن آنها استفاده کنید. همچنین بگویید که ساحل خیلی بزرگ نیست، بنابراین مقدار کسری شن و ماسه در نمونه های سطل خود را در مقایسه با کل ماسه ساحل می دانید. بگذارید بخش کسری واقعی ماسه سفید در ساحل $w^*$ نامیده شود و بنابراین (در این حالت دو نوع) مقدار واقعی ماسه سیاه $(1 - w^*)$ باشد. نمونههای سطلی ما وزنهای $\{w_i\} = w_1، w_2، …، w_n$ را نشان میدهند. من می خواهم توزیع $w^*$ را با توجه به اندازه گیری هایم $\{w_i\}$ تخمین بزنم. فرض کنید شن و ماسه به صورت تصادفی در سراسر ساحل iid است و نمونه های سطل بدون جایگزینی گرفته شده است. آیا کسی می تواند به من راهنمایی کند که چگونه این مشکل را مدل کنم؟ من در نهایت می خواهم به بیش از دو نوع شن تعمیم دهم، اما مورد دو نوع، حتی با تنها یک نمونه، حداقل باید من را شروع کند. من شروع به تلاش برای در نظر گرفتن نمونهگیری به عنوان یک فرآیند برنولی کردم، اما در درک چگونگی برخورد با ماهیت غیرصحیح نمونهها به مشکل برخوردم: یعنی مقادیر اندازهگیری جرمهایی با ارزش پیوسته هستند، نه نوعی شمارش.
|
تخمین نسبت جرم از نمونه های کسری
|
87765
|
من از دو گروه مختلف از آزمودنی ها خواستم که به پرسشنامه 2 سوال بله/خیر پاسخ دهند. روش صحیح پاسخگویی به پرسشنامه پاسخ مثبت به هر دو سوال بود. من می خواهم ثابت یا رد کنم که گروه 2 بهتر از گروه 1 پاسخ می دهد. ایده من این است که بررسی کنم که آیا در آزمون استقلال Chi-square روی یک جدول احتمالی 2×2 (1 درجه آزادی) که ردیفها گروه 1 و گروه 2 هستند و ستونها تعداد آزمودنیهایی هستند که پاسخ مثبت دادهاند، مقدار p کم دریافت میشود یا خیر. بله و تعداد آزمودنی هایی که پاسخ متفاوتی دادند. با این حال، من مطمئن نیستم که این راه درستی برای ادامه دادن باشد. آیا باید از یک جدول احتمالی 4 ستونی (3 درجه آزادی) استفاده کنم که موضوعات را به 4 دسته تقسیم می کند (آنهایی که به دو سؤال بله-بله، نه-بله، نه-نه و بله-نه پاسخ دادند)؟ با تشکر
|
بهبود در سوالات پرسشنامه را ارزیابی کنید
|
88488
|
من با مدل های موضوعی، طبقه بندی، و غیره تازه کار هستم... اکنون مدتی است که پروژه ای را انجام می دهم و مقالات تحقیقاتی زیادی می خوانم. مجموعه داده من از پیام های کوتاهی تشکیل شده است که با برچسب انسانی برچسب گذاری شده اند. این چیزی است که تا به حال به آن رسیده ام: * از آنجایی که داده های من کوتاه است، در مورد تخصیص دیریکله پنهان (و همه انواع آن) مطالعه کردم که برای تشخیص کلمات نهفته در یک سند مفید است. * بر این اساس، من یک پیادهسازی جاوا از JGibbLDA پیدا کردم، اما از آنجایی که دادههای من برچسبگذاری شدهاند، بهبودی در این مورد به نام JGibbLabeledLDA وجود دارد. با این حال، دوباره، مجموعه داده من برچسب گذاری شده است و بنابراین یک پسوند Weka به نام Meka پیدا کردم که پیاده سازی هایی برای داده های چند برچسب دار داشت * با خواندن اطلاعات چند برچسبی، می دانم پرکاربردترین رویکردها مانند طبقهبندیکنندههای یک در برابر همه و زنجیرهای... حالا دلیل حضور من در اینجا این است که امیدوارم پاسخی برای سؤالات زیر داشته باشم: 1. آیا LDA رویکرد خوبی برای مشکل من است؟ 2. آیا LDA باید همراه با یک طبقهبندی کننده (NB، SVM، ارتباط باینری، رگرسیون لجستیک، ...) استفاده شود یا LDA برای عملکرد به عنوان یک طبقهبندی/ تخمینگر برای دادههای جدید و دیده نشده کافی است؟ 3. چگونه باید خروجی حاصل از JGibbLDA / JGibbLabeledLDA را تفسیر کنم. چگونه از این فایلها به چیزی برسم که به من میگوید چه کلمات/برچسبهایی به کل پیام (نه فقط به هر کلمه) اختصاص داده شده است. LDA چیزی نیست که من به دنبالش هستم) امیدوارم کسی یا بیش از یک نفر بتواند به من کمک کند تا بفهمم چگونه باید این کار را انجام دهم. ایده کلی همه اینجا موضوع نیست، فقط نمی دانم چگونه از ادبیات به عمل بروم. بسیاری از مقالات توصیف کافی از نحوه انجام آزمایشات خود را ارائه نمی دهند یا برای پیشینه من در مورد موضوعات بسیار فنی هستند.
|
سوالات عمومی در مورد طبقه بندی متن
|
16672
|
وقتی این کد را اجرا می کنم (R 2.13.2، caret 4.98 در ویندوز 7): library(caret) data(iris) TrainData <- iris[,1:4] TrainClasses <- iris[,5] rfFit <- train(TrainData ، TrainClasses، روش = rf، tuneLength = 3، trControl = trainControl(method = oob)) I خطای زیر را دریافت کنید: برازش: mtry=2 برازش: mtry=3 برازش: mtry=4 جمعآوری نتایج انتخاب پارامترهای تنظیم برازش مدل در مجموعه آموزشی کامل خطا در ساختار(لیست(روش = روش، مدلType = مدلType، نتایج = عملکرد، : شیء 'resampledCM' یافت نشد. من چه کار اشتباهی انجام می دهم /ویرایش: من با استفاده از R forge به caret 4.99 به روز کردم و مشکل برطرف شد به نظر می رسد برای caret 4.98 و R 2.13.2 منحصر به فرد بوده است.
|
خطا با caret، با استفاده از نمونهگیری مجدد خارج از کیسه.
|
6540
|
فرض کنید من این نوع داده ها را دارم: 1 01/1/1980 2 01/2/1999 3 03/12/2000 -1 03/6/2005 -5 07/07/2007 چگونه می توانم ارزش فعلی (PV) را محاسبه کنم ) به آنها نسبت به تاریخ جاری، مثلاً با نرخ سود 5 درصد، در صفحه گسترده؟ تاریخ فعلی به معنای امروز است. **[به روز رسانی]** احتمالاً من اصطلاحات PV و FV را اشتباه متوجه شده ام. من در حال تلاش برای پیدا کردن یک تابع آماده شبیه به این هستم. از هر روشی که استفاده می کنید باید با داده های بالا کار کند. لطفاً اسپم را متوقف کنید.
|
چگونه ارزش فعلی را در صفحه گسترده گوگل محاسبه کنیم؟
|
74832
|
من سعی می کنم یک _آزمون علیت گرنجر_ را برای داده های پانل اعمال کنم. من ادبیات کافی برای درک آن موضوع پیدا کرده ام. با این حال، من نتوانستم پکیج **R** را برای انجام آن تحلیل پیدا کنم. من میپرسم آیا کسی میداند که آیا بستهای برای مقابله با آن وجود دارد یا خیر. با تشکر ### _من یک راه حل بالقوه اضافه می کنم، اما سوالات جدیدی مطرح شد._ راه حلی که پیدا کردم استفاده از _آزمون غیر علیت گرنجر_ و استفاده از _روش کلی لحظه ها_ ( _GMM_ ) است. در مقاله Erdil & Yetkiner (2004) می توانید شرحی از _آزمون غیر علیت گرنجر_ را با داده های تابلویی بیابید. برای انجام یک _GMM_ از بسته plm برای **R** استفاده کردم. اگر نگاهی به آموزش آن بیندازید (Croissant & Millo، 2008)، خواهید دید که تابع داخلی «pgmm» (صفحه 17) جلوه فردی را با اولین تفاوت حذف میکند و dummies زمانی در آن گنجانده شده است. خلاصه تابع همچنین تست هایی را برای ارزیابی مدل ارائه می دهد. به عنوان مثال، برای بررسی خودهمبستگی سریال در باقیمانده ها، آزمون والد برای ضرایب و برای آدمک های زمانی و آزمون سارگان برای ارزیابی اینکه آیا بین متغیر ابزاری و باقیمانده ها همبستگی وجود دارد یا خیر. سپس یک آزمایش والد (اولین مورد در Erdil & Yetkiner، 2004) با مجموع مجذور باقیمانده های یک مدل نامحدود (_SSRu_) و یک مدل محدود (_SSRr_) انجام دادم. حال سوال من از مخاطب این است: 1) آیا آدمک های زمانی اثر زمان را حذف می کنند؟ من اینطور فکر می کنم. 1.1) اگر آدمک های زمانی مهم نباشند چه؟ 2) بنابراین، اگر من از شر افراد و اثرات زمانی خلاص شوم، آیا تست والد ( _SSRr-SSRu_ ) مانند یک تست والد است که برای یک مدل 'OLS' اعمال می شود؟ من اینطور فکر می کنم. اگر چنین است، من در مورد درجه آزادی مطمئن نیستم. بیایید ابتدا آزمایش پیشنهاد شده توسط Erdil & Yetkiner (2004) را ببینیم: $$W=\frac{(SSRr-SSRu)/Np}{SSRu/[NT-N(1+p)-p]}$$ جایی که _N_ = تعداد افراد، _T_=سال و _p_=تعداد تاخیرها. توجه داشته باشید که آنها از شر افراد و اثرات زمانی خلاص نشدند (حداقل این چیزی است که من فهمیدم). حال، اگر من از شر افراد و اثرات زمان خلاص شوم، تست Wald همانطور که در مدلهای OLS اعمال میشود، این خواهد بود: $$W=\frac{(SSRr-SSRu)/m}{SSRu/ (n-k)}$$ که در آن _m_ = عدد محدودیت ها (تعداد ضرایبی که از مدل نامحدود حذف شدند تا محدود شود)، _k_ = تعداد کل ضرایب در مدل نامحدود و _n_ = تعداد مشاهده سوالات بیشتر: 3) تعداد مشاهده چیست؟ 3.1) آیا تعداد سال است یا تعداد سال*تعداد افراد؟ اگر تعداد سال باشد معقول به نظر می رسد، اما اگر محصول بین سال و فرد باشد اینطور نیست. به عنوان مثال، در مورد من 328 فرد و 13 سال دارم، بنابراین 4264 است. بنابراین، شمارنده در آزمون والد بسیار بسیار کوچک خواهد بود و من همه چیز را رد خواهم کرد. در نهایت، 4) آیا درست همان کاری را که انجام دادم انجام می دهم؟ باز هم، هر کمکی بسیار قدردانی خواهد شد
|
تست علیت گرنجر با داده های پانل
|
12700
|
من یک سوال ساده (شاید احمقانه) دارم. من می خواهم واگرایی Kullback-Leibler را بر روی دو سند محاسبه کنم. این نیاز به توزیع احتمال هر سند دارد. من نمی دانم چگونه برای هر سند احتمال را محاسبه کنم. هر پاسخ ساده ای با مثال غیر معمولی بسیار قدردانی می شود. فرض کنید ما دو سند را دنبال می کنیم: 1 - پاسخ های تایید شده متقاطع خوب هستند 2 - پاسخ های تایید شده ساده خوب هستند (مطالعه اسناد فقط برای مثال زدن است) چگونه احتمالات این اسناد را محاسبه کنیم؟ فرض کنید یک سند دیگر اضافه می کنیم: 3 - به سادگی متقاطع پاسخ خوبی نیست اگر سند دیگری اضافه کنیم، چگونه بر توزیع احتمال تأثیر می گذارد؟ با تشکر
|
نحوه محاسبه توزیع موضوع یک سند
|
39106
|
من مدل $Y_t = a + b*X_t + c*D_t + e_t$ را دارم که $t \in T = \{1,...,3000\}$ و $D_t$ یک متغیر باینری برابر با $0 است. $ بیش از $T \backslash \{20,21,...,30\}$ و برابر با $1$ بیش از $\{20,21,...,30\}$. $c$ در OLS بسیار مهم است. اما اگر رگرسیون چندکی $Q_{Y_t}(\tau | X_t,D_t) = a(\tau) + b(\tau)*X_t + c(\tau)*D_t + e_t$ را اجرا کنم، سپس $c(\tau )$ برای هر $\tau \in [0,0.4]\cup[0.6,1]$ ناچیز است. حالا چیزی که من می خواهم بدانم این است که آیا QR می تواند نتایج دم نادرست را برای یک متغیر ساختگی که برابر با وحدت در قسمت کوچکی از $T$ است ارائه دهد؟ مثل قبل، آیا رابطه جمعیت میتواند قوی باشد، اما QR آنقدر قوی نیست که بتواند هر رابطه دنبالهای را در زمانی که $D_t = 0$ بیش از تقریباً همه $t \در T$ باشد، قوی نیست؟
|
رگرسیون چندکی با متغیر ساختگی که برابر با 0 در اکثر $t$ است
|
47353
|
من دو سناریو برای داده های سری زمانی دارم. 1) من یک متغیر تک متغیره دارم که در سرتاسر محور زمان قرار دارد، آیا روش یا آماری برای بررسی پایداری این فرآیند وجود دارد؟ 2) من یک متغیر چند متغیره دارم که در سرتاسر محور زمان قرار دارد، آیا روش یا آماری برای بررسی پایدار بودن این متغیر چند متغیره وجود دارد؟
|
رویکردی برای بررسی اینکه آیا یک فرآیند پایدار است؟
|
15076
|
بر اساس پاسخ به سوال طبقه بندی آماری متن، تصمیم گرفتم که از یک جنگل تصادفی برای انجام طبقه بندی های مختلف متن استفاده کنم. به طور خاص، من داده های ویدیوی YouTube را از فیدهای XML آنها دریافت می کنم. این یک مثال است: <entry gd:etag=W/DUQBR347eCp7I2A9WhdXFEQ.> <id>tag:youtube.com,2008:video:ltkMAcv2cas</id> <published>2010-12-23T18:11:28.0 ز</b>منتشر شد <updated>2011-08-28T02:09:16.000Z</updated> <category scheme=http://schemas.google.com/g/2005#kind term=http://gdata.youtube.com /schemas/2007#video/> <دسته scheme=http://gdata.youtube.com/schemas/2007/keywords.cat term=SSF4AE/> <!-- دسته ها/کلمات کلیدی بیشتر در اینجا --> <title>SSF4AE Mago 2D God VS Kazunoko aka Inoue</title> <!-- اطلاعات بیشتر ویدیو در اینجا، توضیحات، و غیره --> </entry> با آن، من داده های بسیار خاصی دارم که معتقدم می توانم به عنوان مبنایی برای آن استفاده کنم متغیرها در یک جنگل تصادفی: مقدار متغیر -------- ----- عنوان SSF4AE Mago 2D God VS Kazunoko با نام مستعار Inoue Category SSF4AE با نگاهی به ویدیو و بر اساس عنوان/دسته ها، می دانم که این یک ویدیوی بازی Super Street Fighter 4: Arcade Edition (SSF4AE). با نگاهی به جنگل تصمیمگیری alglib، اصول کلی روشهای تجزیه و تحلیل دادهها را نیز خواندم، که در مورد رمزگذاری بهطور خاص برای الگوریتمهای روی alglib صحبت میکند. در حالی که من به طور خاص از آن استفاده نمی کنم، معتقدم که درک من را از نحوه نمایش داده ها برای یک جنگل تصادفی گسترش داد. اساساً، با استفاده از داده های بالا، باید هر نقطه داده را به تعدادی از انواع مختلف تبدیل کنم. برای مثال، میتوانم این را به متغیرهای زیر تبدیل کنم: مقدار متغیر -------- ----- دارای SSF4AE در عنوان 1 برابر با SSF4AE است. و من می دانم که SSF4AE مخفف رایجی است که برای شناسایی بازی استفاده می شود، با استفاده از متغیرهای بالا به عنوان متغیرهایی برای یک جنگل تصادفی برای آموزش کار می کند و طبقه بندی؟ البته، این مجموعه کوچکی است و مجموعهای از متغیرها بسیار خشن است. درک من این است که یک جنگل تصادفی اساساً گره هایی را ایجاد می کند که در آن یک آستانه برای متغیر وجود دارد، مقادیر بیش از این سقوط در یک طرف درخت، مقادیر زیر در طرف دیگر. در مثال بالا، تنها دو گزینه وجود دارد، درست یا نادرست. با این حال، تصور میکنم میتوانم کاری انجام دهم مانند دریافت فرکانس سند term-frequency/inverse و استفاده از آن (با استفاده از Lucene.NET یا elasticsearch)، مانند آن (اعداد دقیق نیستند) مقدار متغیر --------- --- پرس و جو اصطلاح برای SSF4AE در عنوان 0.36 پرس و جو اصطلاح برای SSF4AE در رده 1.00 و سپس جنگل تصادفی را در آن آموزش دهید. من فرض میکنم که اگر متغیرها مانند بالا انجام میشدند، میتوانستم چیزهایی مانند boost را نیز روی متغیرها قرار دهم (در محاسبه tf/idf) جایی که میبینم برجستهتر هستند یا احساس میکنم میخواهم وزن بیشتری داشته باشند. و در نهایت، من می توانم متغیرهای بیشتری اضافه کنم، اما آنها باید بسیار خاص باشند. به عنوان مثال، من می دانم که اگر یک شخصیت یون وجود دارد که فقط در SSF4AE ظاهر می شود، (نه نسخه های قبلی Street Fighter 4)، و همچنین در Street Fighter III. برای این منظور، میتوانم دو متغیر دیگر اضافه کنم: مقدار متغیر -------- ----- پرس و جوی مدت برای SSF4AE در عنوان 0.36 عبارت پرس و جو برای SSF4AE در رده 1.00 یک کاراکتر عبارت Yun 1 است. پرس و جو برای 3S در عنوان 0.00 پرس و جو برای 3SO در عنوان 0.00 (3SO و 3S مخفف رایج Street Fighter III: Third Strike) با این حال، برای ویدیوی دیگری که میدانم برای 3S است، متغیرها ممکن است به این شکل باشند: مقدار متغیر -------- ----- عبارت جستجوی SSF4AE در عنوان 0.00 عبارت SSF4AE در رده 0.00 یک نویسه عبارت Yun 1 عبارت است برای 3S در عنوان 0.54 عبارت جستجوی 3SO در عنوان 0.00 که در آن مجموعه آموزشی نشان می دهد که ویدیو برای 3S است. با این اوصاف، آیا این روشها برای تعیین متغیرهای یک جنگل تصادفی امکانپذیر است؟ همچنین، اگر به درستی متوجه شده باشم، جنگل تصادفی نیز نشان میدهد که کدام متغیرها بیشترین سهم را در طبقهبندی داشتهاند، بنابراین میتوانم بعداً (اگر بخواهم) آنها را در طول طبقهبندی کنار بگذارم یا موارد مختلفی را اضافه کنم تا طبقهبندیهای بهتری از دادههای آموزشی خود داشته باشم.
|
تعیین متغیرها هنگام آموزش a/طبقه بندی با جنگل تصادفی
|
74838
|
قبلاً در MSE ارسال شده است. پاسخی نداشتم، در اینجا پست خواهم کرد. فرض کنید تعداد تماسهایی که در هر ساعت به یک سرویس پاسخگویی میرسد از فرآیند پواسون با $\lambda = 4 $ پیروی میکند. سوال: اگر می دانید که تماس های 8 دلاری در دو ساعت اول آمده است. احتمال اینکه دقیقاً 5 در ساعت اول رسید چقدر است؟ تلاش: آیا این فقط یک سوال ترکیبی نیست؟ بنابراین پاسخ ${8 \choose 5}/2^8$ است
|
فرآیند پواسون - تماسها وارد میشوند
|
12704
|
من چندین آزمایش انجام داده ام، نمودارهای نتیجه در زیر آمده است، باید بفهمم تابع توزیع متغیرهای تصادفی زیر چیست... با تجزیه و تحلیل آماری آزمایشم از کجا شروع کنم؟ چگونه این تحلیل ها را با spss انجام دهیم؟   **ویرایش** توضیحات : من کارایی الگوریتم را برای 2 الگوریتم آزمایش می کنم، نمودارها توزیع کارایی را توصیف می کنند. 1. من 500000 تست برای 2 الگوریتم انجام دادم که 2 مجموعه از 500000 مقدار ممیز شناور تولید کرد. 2. من مقدار MIN و MAX مجموعه را محاسبه کرده ام (هرچه مقادیر کوچکتر نتیجه بهتر است، مقادیر بزرگتر نتیجه بدتر است) 3. می خواستم توزیع مقادیر را بر اساس 500 گروه ببینم، بنابراین من مرحله = (MAX-MIN) / 500 را محاسبه کرده ام 4. مقدار مقادیری را که در هر یک از 500 بخش قرار می گیرند محاسبه کرده ام [MIN + 0 * Step..MIN + 1 * Step], [MIN + 1 * Step, MIN + 2 * Step], ... [MIN + 498 * Step..MIN + 499 * Step] نموداری که در زیر مشاهده می کنید نشان دهنده x- است. محور یک شاخص از بخش، در محور y مقادیر کاهش یافته به بخش تقسیم بر تعداد کل مقادیر، و همچنین تقسیم بر گام = (حداکثر - حداقل) / 500. در نتیجه این باید تابع توزیع کارایی الگوریتم من باشد... **ویرایش** در اینجا DOC حاوی SPSS > تجزیه و تحلیل > آمار توصیفی > خروجی کاوش است. آیا کسی می تواند در خواندن آن کمک کند؟
|
کدام تابع توزیع ممکن است آزمایش های آماری زیر را توصیف کند؟
|
12703
|
من در حال انجام برخی تحلیلها در مورد درک ویژگیهای مختلف یک جمعیت خاص هستم. برای محدود کردن انتخابم (از آنجایی که آنها را به صورت دستی مرور خواهم کرد)، از آستانه های متفاوتی در مورد ویژگی های قابل اندازه گیری خاصی استفاده می کنم (که به من می گوید یک فرد چقدر مرتبط است) تا نمودار فرکانس زیر را ترسیم کنم. به عنوان مثال، خطی با علامت آستانه 1 به من می گوید که وقتی آستانه خود را روی t1 ثابت کنم، تقریباً 360 نفر با حداقل 1 دوست، 290 نفر با حداقل 2 دوست و غیره وجود دارند. من می دانم که من خواهم بود. برای توضیح دادن کاری که انجام می دهم مشکل دارم اما تمام تلاشم را می کنم. من سعی می کنم دو آستانه را برطرف کنم: یکی که برای به دست آوردن خط استفاده می شود و دیگری که برای فیلتر کردن نویز استفاده می کنم. 0 روی نمودار آستانه ها را مشخص می کند. در این مورد خاص، من از «آستانه 3» استفاده میکنم و جمعیت خود را فیلتر میکنم تا فقط افرادی را داشته باشد که «>= 2 دوست» دارند. در حالی که این برای من به خوبی کار می کند، من سعی می کنم تعیین کنم که آیا روش سیستماتیک برای توضیح اینکه چرا این آستانه ها بهتر از بقیه هستند وجود دارد یا خیر. به عنوان مثال، «آستانه 2» فیلتر خوبی نیست زیرا مانند «آستانه 1» رفتار می کند. استفاده از آستانه 4 چندان مفید نیست زیرا بازدهی در رفتن از آستانه 2 به آستانه 3 بسیار بیشتر از بازگشت از آستانه 3 به آستانه 4 است. پیشنهادی در مورد اینکه از کجا باید شروع کنم؟ اساسا، من میخواهم کاری شبیه به تحلیل هزینه و فایده انجام دهم (این نزدیکترین کاری است که میتوانم به آن فکر کنم). 
|
روش سیستماتیک انتخاب آستانه؟
|
92238
|
من سعی دارم برخی **حلقه های همبستگی** را در چارچوب **تحلیل متعارف همبستگی** تفسیر کنم. به من گفته شده است که فقط نقاط موجود در هاله را می توان با آن **قوانین زیر** تفسیر کرد: 1. اگر زاویه آنها نزدیک به $0 باشد، همبستگی مثبت دارند. 2. اگر زاویه آنها نزدیک به $\pi$ باشد، آنها همبستگی منفی دارند. 3. اگر زاویه آنها نزدیک به $\frac{\pi}{2}$ باشد مستقل هستند. 4. اگر آنها به لبه بیرونی دایره نزدیک باشند، با مبنایی که انتخاب میکنید همبستگی بالایی دارند. اما آیا می توان در مورد **نقاط نزدیک به مرکز**، در دایره کوچک چیزی گفت یا خیر؟ من فقط می دانم که آنها با اساس ارتباط ندارند، بنابراین می توانید بعد را برای انتخاب تغییر دهید. اما آیا راه های دیگری برای تفسیر آنها وجود دارد یا قوانین دیگری وجود دارد؟ در اینجا نمونه ای از آنچه من دارم آمده است:  از کمک شما متشکریم.
|
حلقه های همبستگی: تفسیر
|
39105
|
من یک کار طبقه بندی باینری برای صفحات وب آلمانی دارم که فقط نمونه های مثبتی برای آن دارم. به همین دلیل است که من از یادگیری از مثالهای مثبت و بدون برچسب همانطور که در این صفحه توضیح داده شده است استفاده میکنم، همچنین به عنوان یادگیری جزئی نظارت شده نیز شناخته میشود. در حال حاضر، من فقط ویژگیهای بسیار نادری را که فقط یک بار رخ میدهند و ویژگیهای بسیار مکرر، یعنی توقف کلمات را حذف میکنم. و مواردی که در بیش از 50 درصد از نمونه های مثبت رخ می دهند. در مورد طبقهبندیکنندهها، من میخواهم Naive Bayes را آزمایش کنم (صفحات وب مثال مثبت بسیار کوتاه هستند، بنابراین من نسخه چند متغیره با ویژگیهای بولی را ترجیح میدهم) و ماشینهای بردار پشتیبانی (SVM). من خوانده ام که انتخاب ویژگی برای SVM چندان مهم نیست زیرا بر نتایج طبقه بندی تأثیر زیادی نمی گذارد. آیا این درست است؟ از آنجایی که من با الگوریتمهای انتخاب ویژگی آشنا نیستم، آیا میتوانید الگوریتمی را توصیه کنید که بهویژه با ویژگیهای نمونههای مثبت به خوبی کار کند و به طور کلی نتایج بهتری نسبت به قطع کردن ویژگیهای بسیار نادر و بسیار مکرر داشته باشد؟ اگر نمی توان به این سوال پاسخ کلی داد و اگر بستگی زیادی به مجموعه داده های من دارد، لطفاً همین را نیز بگویید. خیلی ممنون
|
چگونه انتخاب ویژگی را برای یادگیری از مثال های مثبت و بدون برچسب انجام دهیم؟
|
12980
|
من با یک سری زمانی از داده های هواشناسی کار می کنم و می خواهم فقط ماه های تابستان را استخراج کنم. چارچوب داده به این صورت است: FECHA;H_SOLAR;DIR_M;DIR_S;VEL_M;VEL_S;VEL_X;U;V;TEMP_M;HR;BAT;PRECIP;RAD;UVA;UVB;FOG;GRID; 00/01/01;23:50:00;203.5;6.6;2.0;0.5;-99.9;-99.9;-99.9;6.0;-99.9;9.0;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/02;23:50:00;235.5;7.5;1.8;0.5;-99.9;-99.9;-99.9;6.1;-99.9;8.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/03;23:50:00;217.4;6.1;1.4;0.5;-99.9;-99.9;-99.9;7.0;-99.9;8.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/04;23:50:00;202.5;8.6;1.8;0.5;-99.9;-99.9;-99.9;6.4;-99.9;8.8;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 00/01/05;23:50:00;198.5;7.1;1.8;0.5;-99.9;-99.9;-99.9;5.4;-99.9;8.8;-99.9;-99.9;-99.9;-99.9;-99.9;-99.9;-99. ;-99.9 من نمونه هایی از زیرتنظیم زمان را در R اما پیدا کرده ام فقط بین تاریخ شروع و پایان آنچه من می خواهم این است که تمام داده ها را از یک ماه برای تمام سال ها استخراج کنم تا یک چارچوب داده جدید برای کار با آن ایجاد کنم. من می توانم یک سری زمانی باغ وحش را از داده ها ایجاد کنم، اما چگونه زیر مجموعه کنم؟ مجموعه باغ وحش؟ پیشاپیش از کمک شما سپاسگزارم
|
زیر مجموعه داده ها بر اساس ماه در R
|
74839
|
من دو جدول تعامل دارم. یک نشان دهنده تعداد دفعاتی است که یک دلقک ماهی از یک گونه خاص در یک شقایق از یک گونه خاص پیدا می شود. یکی نشان دهنده تعداد دفعاتی است که دلقک ماهی از یک گونه خاص در شقایق مشابه نسبت به دلقک ماهی گونه دیگر یافت می شود. Table_anemone_fish Fish_a Fish_b Fish_c An_A 23 56 12 An_B 12 5 5 An_C 23 10 68 توجه: جمع کردن این جدول تعداد کل شقایق های نمونه من را نشان می دهد. Table_fish_fish Fish_a Fish_b Fish_c Fish_a NA 7 3 Fish_b 7 NA 1 Fish_c 3 1 NA توجه: اغلب ماهی ها بدون گونه های دیگر زندگی می کنند و بنابراین در این جدول نشان داده نمی شوند. فراوانی هر گونه ماهی را می توان با «ماهی_شقایق_رومیزی» به دست آورد. سؤالاتی که می خواهم به آنها پاسخ دهم این است: * آیا ترجیح متفاوتی برای گونه های ماهی در انتخاب شقایق هایشان وجود دارد؟ * آیا ترجیح گونه های ماهی در انتخاب با کدام گونه دیگر وجود دارد؟ برای پاسخ به این پست می توان به سادگی نوع آزمون مورد استفاده و فلسفه آنها را بیان کرد یا حتی بهتر است، مثالی از نحوه تجزیه و تحلیل این داده ها با R ارائه داد.
|
تجزیه و تحلیل جداول تعامل
|
74837
|
من در حال پیگیری تجزیه و تحلیل MANOVA هستم و میپرسیدم چگونه در R مقادیر ویژه برای مدل DFA بدست میآورید؟ یک ویژگی '$svd' در مقدار بازگشتی تابع 'lda' وجود دارد، اما اطلاعات متناقضی در مورد اینکه آیا آنها واقعاً مقادیر ویژه هستند یا نه وجود دارد. من در حال خواندن _کشف آمار با R_ توسط فیلد و همکاران هستم. و نوشته شده است که _نسبت ردیابی مقادیر ویژه ای هستند که به صورت نسبت بیان می شوند_. من نگاه کردم که چگونه نسبت ردیابی محاسبه می شود و این بخشی در MASS:::print.lda است که در آن محاسبه می شود اگر (طول(svd) > 1L) { cat(\nنسبت ردیابی:\n ) print(round(svd^2/sum(svd^2), 4L), ...) } از این نظر به نظر من مقادیر ویژه به صورت محاسبه می شوند `svd^2`. با این حال، من چندین مثال را به صورت آنلاین پیدا کردم (به عنوان مثال، مثال 1 و مثال 2) که در آن افراد از مقادیر «svd» به عنوان مقادیر ویژه استفاده می کنند. صفحه راهنما برای تابع lda می گوید که ویژگی svd فهرستی از مقادیر مفرد است که نسبت انحرافات استاندارد بین و درون گروهی را بر روی متغیرهای متمایز خطی نشان می دهد. مربع آنها > آماره F متعارف است. با این حال، من مطمئن نیستم که چه چیزی درست است، و میخواهم آنهایی را که در برخی از تحلیلهایی که انجام میدهم گزارش کنم و نمیخواهم مقادیر اشتباهی قرار دهم.
|
مقادیر ویژه R DFA
|
71472
|
من مجموعه ای از 20 شاخص شیمیایی دارم که در نمونه های خاک جمع آوری شده از یک مکان (همان) در مدتی اندازه گیری شده است. آنچه من می خواهم بدانم این است: - برای یافتن اینکه کدام شاخص ها به نحوی با سایرین همبستگی دارند. من نمی خواهم متغیرهای وابسته / مستقل را فرض کنم، فقط برای اینکه ببینم آیا برخی از پارامترها به نوعی با هم مرتبط هستند یا خیر. از چه روش هایی استفاده کنم؟ من به تجزیه و تحلیل خوشه ای فکر کردم - آیا این انتخاب درست است؟ چه گزینه های دیگری دارم
|
برای چنین مواردی از چه روش های آماری استفاده کنم؟
|
74833
|
انتظار $|x|^k$ چیست، که در آن $x\sim\mathcal{N}(0,1)$، $k>0$ و $k$ یک عدد صحیح نیست؟
|
$E(x^k)$ تحت گاوسی
|
64708
|
دو متغیر تصادفی $X$ و $Y$ را با توزیع مشترک $F_{X,Y}$ و تابع چگالی کاملا مثبت $f_{X,Y}$ در نظر بگیرید. علاوه بر این، اجازه دهید $x^*$ مقدار $x$ باشد که حل میکند: $$ \Pr[Y<y\mid X=x^*]=1-k $$ برای مقداری ثابت $k \in [0، 1] دلار میخواهم حداقل شرایطی را که باید برای $F$ اعمال کنم بدانم تا مطمئن شوم که $$\frac{\partial x^*}{\partial k}>0$$ کاملاً شهودی به نظر میرسد که $COV[X، Y]> 0$ این کار را انجام می دهد، اما اینطور نیست. من در ادبیات دریافتم که Affiliation* یا Decreasing Inverse Hazard Rate** کافی است، اما میخواهم بدانم آیا شرایط ضعیفتری وجود دارد یا خیر. *اگر $x \leq x$ و $y \leq y'$ دلالت بر $f(x, y')f(x',y)\leq f(x', y')f داشته باشد pdf $f$ وابسته است (x,y)$ ** $Y$ نرخ خطر معکوس کاهش می یابد در $X$ اگر $\frac{F(y|x)}{f(y|x)}$ غیر افزایشی در $x$ برای همه $y$ (که $f(y|x)$ نشان دهنده پی دی اف $Y$ مشروط به $X=x$ است). توجه: این سوال در سایت Stackexchange Mathematics نیز درج شده است (این لینک است)
|
شرایط وابستگی مثبت
|
88151
|
آیا می توان از یک فرآیند گاوسی برای ارتباط چندین متغیر ورودی مستقل (X1، X2، X3) به یک متغیر خروجی (Y) استفاده کرد؟ به طور خاص، من میخواهم یک نمودار رگرسیونی مانند مثال زیر تولید کنم که در آن فاصله اطمینان در اطراف خوشههای داده کاهش مییابد (یعنی واریانس در x = 1 در جایی که دادهای وجود ندارد زیاد است، اما x = 0.3 رگرسیون به دلیل وجود کم است. خوشه بندی متغیرهای ورودی) و به جای داشتن یک متغیر ورودی در محور x، چند ورودی وجود دارد.  به عنوان مثال، آیا امکان ایجاد یک رابطه رگرسیونی وجود دارد که به قیمت خانه ها مربوط می شود (HPrice = [125000, 63000, 500000) ]) به مساحت طبقه (FArea = [856,497,1300]) و تعداد اتاقهای خواب (BedR = [2،2،4])؟ در حالت ایدهآل، من میخواهم این کار را در R انجام دهم، و نمیدانم که آیا توصیهها/مثالی وجود دارد؟ با تشکر
|
رگرسیون گاوسی با ورودی های متعدد؟
|
88153
|
من یک برنامه جالب دارم که می خواهم در مورد آن راهنمایی بنویسم. یک کار رایج هنگام کار با سیستم های تصادفی در زمینه مهندسی، آزمایش رگرسیون و بهبود عملکرد است. اول، مهم است که اطمینان داشته باشید که اطلاعات کافی برای ارزیابی دقیق توزیع عملکرد جمع آوری می شود. و دوم، داشتن یک استراتژی خوب برای مقایسه آن توزیعها برای شناسایی هرگونه تغییر عملکرد قابل تشخیص مهم است. با این حال، من مطمئن نیستم که راه حلی به طور گسترده پذیرفته شده برای چگونگی مقابله با این چالش ها وجود داشته باشد. یا اگر وجود دارد، من هنوز در مورد آن اطلاعی ندارم. مشکلی که با آن روبرو هستم را با جزئیات بیشتری شرح خواهم داد. من فرآیندی دارم که هدف آن رسیدن به هدف خاصی در کمترین زمان ممکن است. فرآیند تصادفی است، بنابراین زمان اجرا دارای تغییرات تصادفی است. در واقع، واریانس زمان اجرا می تواند نسبتاً زیاد باشد. هر روز یک «نمونه» با اجرای فرآیند تا تکمیل برای N تکرار و ثبت زمان سپری شده در هر تکرار جمعآوری میکنم، بنابراین N نقطه داده در هر نمونه جمعآوری میکنم. دقت ضبط من 0.1 ثانیه است. پس از جمعآوری نمونه، میخواهم آن را با نمونه دیروز مقایسه کنم تا بررسی کنم که آیا تغییری در عملکرد وجود دارد یا خیر. وقتی می گویم تغییر در عملکرد یعنی چه؟ من به تغییرات قابل توجه در میانگین زمان اجرا (میانگین) و تغییرات در زمان اجرا (واریانس) علاقه مند هستم. بخشی از مسئله این است که من کاملاً مطمئن نیستم که چگونه «اهمیت» را در این زمینه تعریف کنم. تعریف من در حال حاضر هر تغییری در میانگین بیشتر از چهار برابر دقت ضبط و هر تغییری در واریانس بیشتر از چند درصد است. یک پیچیدگی اضافی وجود دارد: من می خواهم روشی پیدا کنم که در آن نیازی به فرضیات در مورد ویژگی های خاص توزیع، مانند مقیاس یا شکل خاص نباشد. دلیل این امر این است که من فرآیندی را که در بالا توضیح دادم برای چندین فرآیند تصادفی انجام می دهم که هر کدام ویژگی های مجزایی دارند. برای مثال، یک توزیع دووجهی تولید می کند. دیگری توزیع یک دم را تولید می کند. من سعی کرده بودم آستانههای مربوط به مسئله را برای میانگین و واریانس تنظیم کنم، اما تنظیم آنها بسیار دشوار بود، به خصوص که هر کدام واریانس بالایی دارند. با توجه به مشکلی که به تازگی توضیح دادم، دو سوال دارم: **1) از کجا بدانم که نقاط داده کافی در هر نمونه جمع آوری کرده ام تا بتوانم مقایسه دقیقی بین دو توزیع نمونه داشته باشم؟** دوست دارم میلیون ها عدد جمع آوری کنم؟ از نقاط داده در هر نمونه، اما چندین ساعت طول می کشد تا 1000 نقطه داده جمع آوری شود، بنابراین من با یک مبادله کلاسیک روبرو هستم. **2) چند روش سنتی برای مقایسه دو نمونه به منظور تشخیص هرگونه تغییر قابل توجه در میانگین و واریانس فرآیند تصادفی کدامند؟ توزیع دو نمونه من کارهایی را که تاکنون انجام دادهام برای مقابله با این مشکل درج میکنم، اما نمیخواهم این پست بیشتر از این باشد. دانش من از آمار نسبتاً ابتدایی است، به همین دلیل است که از افراد خوب در تأیید متقاطع برای مشاوره یا اشاره به مطالب مرتبط درخواست می کنم. من چند پست مرتبط پیدا کردم اما چیزی که دقیقاً مشکل من را توصیف نکرده باشد. از خواندن شما متشکرم و از هر چیزی که می توانید به من بدهید سپاسگزارم.
|
تست عملکرد: تشخیص تغییرات در توزیع ها در طول زمان
|
12709
|
من یک مجموعه داده بزرگ دارم و یک رگرسیون چندسطحی در Stata انجام داده ام، مدل به شرح زیر است: `xtmixed dependent independen1dependent2dependent3dependent4 || independendt5:` بنابراین یک عامل گروه بندی وجود دارد: `independent5` در R من کارهای زیر را انجام دادم: lmer(وابسته به مستقل1 + مستقل2 + مستقل3 + مستقل4 + 1 | مستقل5، REML=TRUE) چند سوال: آیا این یکسان است؟ خروجی Stata تعداد گروه ها را به من می دهد، 100، در حالی که R تعداد گروه ها را 99 می دهد. علاوه بر این، واریانس ها و انحرافات استاندارد یکسان نیستند. همچنین می خواهم بدانم چگونه مقادیر و ضرایب p را از خروجی R بدست آوریم. من fixef(model) و ranef(model) را انجام داده ام اما وقتی coef(model) را انجام می دهم می گوید: خطا در coef(model): قادر به تراز کردن جلوه های تصادفی و ثابت نیست همچنین Stata فقط به من می دهد 1 ضریب برای هر پیش بینی در حالی که R `fixef(model)` یک ضریب برای هر گروه می دهد. بنابراین کسی که با Stata و R آشنایی دارد می تواند در این مورد به من کمک کند.
|
رگرسیون چند سطحی با استفاده از تابع lmer در R و Stata
|
100709
|
من اصلا به آمار و ارقام مسلط نیستم. من در حال حاضر روی یک الگوریتم بهینه سازی کار می کنم و در این قسمت کمی مشکل دارم. من آرایهای از عناصر $n$ دارم. علاوه بر این، من آرایهای از احتمالات را دارم که با $P = \left\{p_{i}\right\}$ با $p_{i}\in[0,1]$ داده شده است. (همچنین $\sum_{i} p_{i} = 1$ البته) اگر مهم باشد، توزیع احتمال مثلثی است که $i=1$ دارای بیشترین احتمال و $i=n$ دارای کمترین احتمال است. اکنون می خواهم $q < n$ عناصر متمایز را از $A$ با استفاده از احتمالات انتخاب از $P$ انتخاب کنم. من در حال حاضر در حال کدنویسی الگوریتم در متلب هستم، اما مطمئن نیستم که چگونه عناصر $q$ را انتخاب کنم.
|
انتخاب عناصر یک آرایه بر اساس احتمالات داده شده برای هر عنصر
|
64703
|
من یک بررسی ادبیات انجام داده ام. متغیر «treat» فقط مقادیر TRUE و FALSE را می گیرد. می گوید که آیا آنها یک درمان معین را در یک مقاله خاص اعمال کرده اند یا خیر. من می خواهم بدانم که آیا احتمال اعمال درمان بسته به ژورنال و نوع مقاله تغییر می کند یا خیر. ضمناً باید بگویم که همه مجلات فراوانی نوع مقاله یکسانی ندارند. در اینجا یک داده برای استفاده به عنوان مثال وجود دارد: df = data.frame ( treat=c(T,F,T,T,F,T,T,T,F,T,T,T,T,F,T, T,F,T,F,T,T,T,F,F), journal=rep(c('a','b','c'),8), article.type=c('a','b','c','a','b','a','a','b','c','a','a', ب، ج، الف، ج، الف، الف، الف ') ) **سوال اول:** چه تست آماری باید انجام دهم استفاده کنید؟ من به استفاده از GLM (مدل خطی تعمیم یافته) با توزیع خطای دو جمله ای فکر کردم. به نظرت خوبه؟ **سوال دوم: قبلاً پاسخ داده شده** خلاصه (glm(treat~journal*article.type, data=df, family='binomial')) ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 1.957e+01 4.390e+03 0.004 0.996 journalb -1.997e+01 4.390e+03 -0.005 0.996 ژورنالc 8.490+007-8.429e 1.000 article.typeb -3.913e+01 1.162e+04 -0.003 0.997 article.typec 4.134e-08 1.162e+04 0.000 1.000 journalb:article.typeb 3.8104+3.8101. 0.997 journalc:article.typeb 3.913e+01 1.756e+04 0.002 0.998 journalb:article.typec NA NA NA NA journalc:article.typec -1.916e+01 1.3880+1.388e -1.916e+01 1.3880+ p- مقادیر در هر متغیر. برای مثال یک مقدار p برای article.typeb و یکی برای article.typec. یعنی چی؟
|
متغیرهای مستقل طبقه بندی و متغیر وابسته باینری؟ GLM؟
|
88486
|
من با استفاده از boot در R برای تخمین فاصله اطمینان برای VaR آشنا هستم. به عنوان مثال، من مجموعه ای از بازده ماهانه برای یک دارایی دارم و می خواهم محدوده ای روی 95% VaR داشته باشم. با این حال، اکنون یک PDF تجربی به من داده شده است، و می خواهم CI را برای VaR تخمین بزنم. من هیچ اطلاعاتی در مورد توزیع به جز این PDF ندارم. این تخمینی از تلفات ناشی از طوفان است - معمولاً دارای انحراف مثبت، $\ln$ یا بتا است، اما مطمئناً تحلیلی نیست. یک ایده brute-force این است که تعداد زیادی اعداد تصادفی را در [0,1] تولید کنیم، از CDF تجربی معکوس کنیم، و 95% مقادیر معکوس را بدست آوریم. سپس 1000 بار تکرار کنید تا توزیع 95% مقدار ile را بدست آورید. به نظر نمی رسد «بوت» در اینجا اعمال شود. آیا راه حل ظریف تری وجود دارد؟ با تشکر
|
فاصله اطمینان متریک از توزیع تجربی
|
16677
|
فرض کنید من مجموعه ای از مشاهدات تک متغیره مستقل و توزیع شده یکسان $x$ و دو فرضیه در مورد نحوه ایجاد $x$ دارم: $H_0$: $x$ از یک توزیع گاوسی منفرد با میانگین و واریانس مجهول گرفته شده است. $H_A$: $x$ از مخلوطی از دو گاوسی با میانگین، واریانس و ضریب اختلاط مجهول گرفته شده است. اگر درست متوجه شده باشم، اینها مدلهای تودرتو هستند، زیرا مدلی که $H_0$ نشان میدهد را میتوان بر حسب $H_A$ توصیف کرد، اگر پارامترهای دو گاوسی را محدود کنید که یکسان باشند یا ضریب اختلاط را برای یکی از صفرها محدود کنید. دو گاوسی بنابراین، به نظر می رسد که شما باید بتوانید از الگوریتم E-M برای تخمین پارامترهای $H_A$ استفاده کنید و سپس از قضیه Wilks برای تعیین اینکه آیا احتمال داده های زیر $H_A$ به طور قابل توجهی بیشتر از H_0$ است استفاده کنید. باور کوچکی در این فرض وجود دارد که الگوریتم E-M به حداکثر احتمال در اینجا همگرا می شود، اما این یکی از مواردی است که من مایل به انجام آن هستم. من این را در یک شبیهسازی مونت کارلو امتحان کردم، با این فرض که $H_A$ 3 درجه آزادی بیشتر از $H_0$ (میانگین و واریانس برای دومین گوسی و پارامتر اختلاط) دارد. وقتی دادهها را از $H_0$ شبیهسازی کردم، یک توزیع P-value دریافت کردم که اساساً غیریکنواخت بود و برای مقادیر P کوچک غنیشده بود. (اگر E-M به حداکثر احتمال واقعی همگرا نمی شد، دقیقاً برعکس آن انتظار می رفت.) چه اشکالی دارد که من از قضیه ویلکس استفاده کنم که این سوگیری را ایجاد می کند؟
|
با قضیه ویلکس تعداد گوسی ها را در یک مخلوط متناهی پیدا کنید؟
|
21103
|
من باید یک C.I 95% پیدا کنم. بر روی میانه و سایر صدک ها. من نمی دانم چگونه به این موضوع نزدیک شوم. من عمدتا از R به عنوان یک ابزار برنامه نویسی استفاده می کنم.
|
فاصله اطمینان برای میانه
|
12706
|
من 5 مدل رگرسیون تک عاملی دارم. هر کدام دارای ضرایب بصری (مثبت) هستند که خوب است. اگر رگرسیون لجستیک چندگانه را اجرا کنم یکی از ضرایب منفی می شود. اگر انتخاب گام به گام را اجرا کنم، ضریب منفی باقی می ماند.. زائد نیست.. چگونه باید با این موضوع برخورد کنم؟ آیا راهی برای اعمال ضرایب مثبت وجود دارد؟ با تشکر
|
نحوه برخورد با ضرایب منفی در رگرسیون لجستیک
|
12702
|
سناریویی را در نظر بگیرید که در آن ماتریس KnownLabel و ماتریس PredictedLabel به شما ارائه می شود. من میخواهم خوبی ماتریس PredictedLabel را در مقابل ماتریس KnownLabel اندازهگیری کنم. اما چالش اینجاست که KnownLabel Matrix دارای چند ردیف است و فقط یک ردیف دارد و چند ردیف دیگر دارای تعداد 1 هستند (این نمونه ها دارای چند برچسب هستند). نمونه ای از ماتریس KnownLabel در زیر آورده شده است. A =[1 0 0 0 0 1 0 0 0 1 1 0 0 0 1 1 0 1 1 1] در ماتریس فوق، داده های نمونه 1 و 2 داده های برچسبی هستند، نمونه داده 3 و 4 دو داده و داده برچسب هستند. نمونه 5 داده های سه برچسبی است. اکنون ماتریس PredictedLabel نمونه داده را با استفاده از یک الگوریتم دارم. من می خواهم معیارهای مختلفی را بدانم که می توان از آنها برای اندازه گیری خوبی ماتریس PredictedLabel در برابر ماتریس KnownLabel استفاده کرد. من می توانم به تفاوت هنجار فروبینوس بین آنها به عنوان یکی از معیارها فکر کنم. اما من به دنبال معیاری مانند $accuracy (= \frac{Correctly\_predicted\_instance}{total\_instance})$ در اینجا چگونه میتوانیم $Correctly\_predicted$ را برای نمونه دادههای چندگانه تعریف کنیم؟
|
معیار دقت داده های چند برچسبی چیست؟
|
81658
|
من می خواهم فرآیند میانگین متحرک 1 را از قضیه تجزیه ولد استخراج کنم. من نمی دانم چگونه ضریب MA(1) را تعریف کنم، اگرچه به نظر می رسد که باید آسان باشد.
|
نحوه استخراج MA(1) از تجزیه Wold
|
64709
|
در سم شناسی از روش های یادگیری ماشینی برای تخمین احتمال سمیت ترکیب استفاده می شود. متأسفانه بیشتر مجموعه داده های سم شناسی حدود 100 ترکیب دارند و گاهی اوقات دارای متغیرهای بسیار بیشتری نسبت به ترکیبات هستند. هنگام سازماندهی ایجاد دادههای جدید، میتوان پرسید چگونه میتوانیم از یک مدل تولیدی برای تعیین اینکه کدام مواد شیمیایی برای آزمایش بعدی ارزشمند هستند و کدام آزمایشها روی آن مواد شیمیایی انجام دهیم، استفاده کنیم. هدف از چنین جمع آوری داده ها بهبود مدل اساسی در سریع ترین زمان ممکن خواهد بود. پس از انجام کمی جستجو، هیچ مقاله ای در مورد این سوال پیدا نکردم. آیا کسی از روش های مورد استفاده برای سازماندهی جمع آوری داده ها برای بهبود پیش بینی مدل یادگیری ماشینی در سریع ترین زمان ممکن آگاه است؟
|
اولویت بندی جمع آوری داده ها
|
88158
|
اصطلاح تکرار شده در زمینه ANOVA به چه معناست؟ من کاملاً تمایز بین آزمون درون موضوعی و آزمون بین موضوعی را درک می کنم، اما با عبارت «تکرار شده» در زمینه زیر آشنا نیستم: «ANOVA: اندازه گیری های مکرر - بین عوامل» و «ANOVA: اندازه گیری های مکرر - درون فاکتورها». (در G-Power 3).
|
اصطلاحات ANOVA: اقدامات مکرر در مقابل. در/بین موضوعات
|
46482
|
**خلاصه:** هنگام استفاده از روش اعتبارسنجی متقاطع 10 برابری که در آن هر مجموعه آموزشی برای تولید N نمونه بوت استرپ برای پردازش با NN ها استفاده می شود. چگونه می توانم توالی صحیح و عناصر سری متغیرهای پاسخ خود را به NN ارائه دهم تا با طول سری زمانی ورودی من مطابقت داشته باشد تا از روش اعتبارسنجی متقاطع مناسب با استفاده از بوت استرپ پیروی کنم و عملکردی مشابه (امیدوارم بهتر) نسبت به استفاده از CV غیر CV ایجاد کنم. ANN. هدف از استفاده از روش بوت استرپ اعتبار سنجی متقابل ارائه تخمینی از سوگیری و واریانس است تا بتوانم فواصل اطمینانی برای پیش بینی خود ایجاد کنم. من کاملاً مطمئن هستم که اشتباه من مبتنی بر نظریه است. زمانی که الف) متغیر پاسخ خود را بر اساس پارتیشن بندی سری ورودی خود با استفاده از CV تقسیم می کنم و ب) هنگام تولید ورودی و سری هدف خود برای ورودی به NN مطمئن نیستم که آیا متغیر پاسخ را به درستی مدیریت می کنم. مشکل ادامه یافت... من روی پروژه ای با داده های سری زمانی کار می کنم تا یک سری زمانی هیدرولوژیکی را با استفاده از شبکه های عصبی برازش دهم. من سعی می کنم یک متغیر توضیحی خود (X) را با یک متغیر پاسخ (T) تطبیق دهم، هر دو سری از اندازه 429x1 هستند. من یک NN ساده را با استفاده از یک اسکریپت تولید شده توسط nftool اجرا کردم و به نتایج بسیار خوبی رسیدم، با مقادیر MSE و R پایین بالای 0.9 برای مجموعه های آموزشی، اعتبار سنجی و آزمایش. من در استفاده از شبکههای عصبی مصنوعی تازه کار هستم، بنابراین تنها تغییری که در معماری مدل انجام میدهم، تغییر وقفهها در سریهای زمانی ورودی و همچنین مقدار لایههای پنهان است، برای هر دوی من بین 1 تا 9، بنابراین 81 معماری مدل متفاوت است. من بهترین معماری ANN را بر اساس ترکیبی از ضریب تعیین، mse، mae و شاخص pers انتخاب کردم. اکنون میخواهم بهترین معماری ANN را با استفاده از یک روش اعتبارسنجی متقاطع 10 برابری (CV) همراه با رویکرد راهاندازی اجرا کنم. اکنون هنگام اجرای مجموعه های اعتبارسنجی متقاطع بوت استرپ خود از طریق شبکه عصبی با مشکلات عملکرد ضعیفی مواجه می شوم، در تمام مجموعه های آموزشی، اعتبار سنجی و آزمایش نتایج بسیار ضعیفی دریافت می کنم. بدترین مجموعه ها اعتبارسنجی و آزمایش هستند که مقادیر R را در حدود -0.1 ارائه می دهند و مجموعه های آموزشی مقادیر R را در حدود 0.2 ارائه می دهند. برای من واضح است که من یک مشکل دارم زیرا یک مجموعه بوت استرپ اعتباری متقابل NN باید تقریباً همیشه به خوبی عملکرد NN با همان معماری داشته باشد، یا حداقل، یکسان باشد. یکی از اتفاقات رایجی که در بین پاسخ های خروجی ام از مجموعه NN متوجه شده ام این است که واریانس بسیار کمی در خروجی ها در مقایسه با ورودی ها وجود دارد و بایاس خروجی تقریبی در هر نقطه از سری زمانی حول مقدار میانه سری زمانی ورودی من شناور است. . من همچنین با گرفتن هیستوگرام از مجموعه های آموزشی CV خود در مقابل خروجی های ارائه شده توسط NN این را تأیید کرده ام. من مقدار زیادی کد خود را مرور کرده ام تا بفهمم چه چیزی می تواند مسئول چنین عملکرد ضعیفی باشد و مطمئن نیستم که آیا مجموعه ام ANN متغیر پاسخ صحیح را برای هر مورد مجموعه آموزشی/آزمایی تغذیه می کنم. رویکرد اصلی من این است که 10 مجموعه آموزشی/آزمون ورودی مختلف خود را با استفاده از cvpartition fcn تولید کنم. هنگام استفاده از این تابع، یک حلقه ساده برای قرار دادن هر یک از 10 مجموعه مختلف قطار/آزمایش در یک آرایه سلولی ایجاد میکنم. برای هر مجموعه قطار/آزمایش منحصربهفرد سری ورودیام، از شاخصهای آنها با توجه به سریهای زمانی اصلی استفاده میکنم و مجموعههای قطار/آزمایش منحصربهفردی از سریهای زمانی پاسخ خود را برای بازتاب سریهای زمانی ورودی ایجاد میکنم. آیا این اقدام نادرست است؟ آیا باید همیشه از یک سری پاسخ در هنگام آزمایش هر قطار/مجموعه تست مجزا از سری ورودی ارائه شده توسط cvpartition استفاده کنم؟ من این را به این دلیل میپرسم که در روش 10 برابری راهاندازی CV، هر یک از مجموعههای آموزشی منحصربهفرد خود را N بار دوباره نمونهبرداری میکنم تا نمونههای بوت استرپ خود را ایجاد کنم. سپس تفاوت مجموعه عناصر را بین هر مجموعه آزمایشی منحصربهفرد و هر یک از نمونههای بوت استرپ ایجاد شده از آن پیدا میکنم و N مجموعهای از عناصر را برای اعتبارسنجی در شبکههای عصبی ایجاد میکنم. بنابراین همانطور که میتوانید تصور کنید مجموعههای اعتبارسنجی من با اندازههای همیشه متفاوت هستند، در حالی که مجموعههای آموزشی من همیشه اندازه ثابتی خواهند داشت، زیرا آنها در طول مجموعههای آموزشی نمونهبرداری میشوند. سپس هر تست منحصربهفرد را با مجموعههای آموزشی بوت استرپ، و مجموعههای اعتبارسنجی ایجاد شده توسط تفاوت مجموعه آنها جفت میکنم و از آن بهعنوان سری ورودی به NN استفاده میکنم. برای متغیرهای پاسخ خود، دادههای هدف را برای NN با ترکیب مجموعههای قطار منحصربهفرد ایجاد میکنم (دوباره مطمئن نیستم که آیا این روش مناسب است)، با مجموعه آزمایشی منحصربهفرد، و سپس ایندکس کردن سری زمانی پاسخ من با اختلاف مجموعه بین نمونههای راهانداز و مجموعههای قطار منحصربهفرد سری ورودی برای تعیین عناصر سری زمانی پاسخ برای گنجاندن در مجموعه اعتبارسنجی برای دادههای هدف. سپس هر دو سری را در NN وارد میکنم تا بتواند با دادههای من مطابقت داشته باشد. من کاملاً مطمئن هستم که اشتباه من مبتنی بر نظریه است. زمانی که الف) متغیر پاسخ خود را بر اساس پارتیشن بندی سری ورودی خود با استفاده از CV تقسیم می کنم و ب) هنگام تولید ورودی و سری هدف خود برای ورودی به NN مطمئن نیستم که آیا متغیر پاسخ را به درستی مدیریت می کنم. دارد
|
اعتبار سنجی متقابل با شبکه های عصبی نتایج بدتری نسبت به یک شبکه عصبی استاندارد دارد
|
100706
|
من می دانم که چگونه با استفاده از OLS ادغام شده، هتروسکداستیکی را آزمایش کنم؟ اما چگونه می توانم پس از اجرای یک مدل اثرات تصادفی این کار را انجام دهم؟ اگر من هتروسکداستیکیتی را در OLهای ادغام یافته پیدا کنم به این معنی است که در مدل RE نیز وجود دارد؟
|
چگونه می توان ناهمگنی را در مدل اثرات تصادفی آزمایش کرد؟
|
63739
|
من فرآیندی دارم که با احتمال $p$ موفقیت آمیز یا شکست می خورد. من میتوانم شبیهسازیهای متمایز را برای تخمین $p$ انجام دهم: 1. شبیهسازیهای $N$ از یک فرآیند واحد را اجرا کنید، نمونههای $N$ از یک $\text{Bernoulli}(p)$ را ضبط کنید، GLM را با خانواده دو جملهای برای تخمین $\ انجام دهید. log(p/(1-p))$. 2. شبیهسازیهای $N$ را اجرا کنید که در آنها به اجرای فرآیند تا موفقیت ادامه میدهم، نمونههای $N$ از یک $\text{Geometric}(p)$ را ضبط میکنم، GLM را با خانواده گاما برای تخمین $p$ انجام میدهم. تفاوت نظری چیست؟ کدام راه بهتر است؟ ~~ من فکر کردم (1) زیباتر است، اما نمی توانم $p$، فقط $\text{logit}(p)$ را دریافت کنم، درست است؟~~ (پاسخ زیر را ببینید). بهروزرسانی: من رگرسیون را انجام میدهم زیرا یک پارامتر شبیهسازی «t» وجود دارد و میخواهم تعیین کنم که آیا «p» به «t» و چگونه بستگی دارد یا خیر. همچنین، «N»های بالا یکسان نیستند، زیرا هر شبیهسازی در طرح هندسی تقریباً معادل شبیهسازی «1/p» در طرح برنولی است. اما این بخشی از سؤال است - آیا بهتر است هر آزمایشی به تنهایی انجام شود (برنولی) یا دنباله ای از آزمایش ها؟ چگونه این طرح بر توان/معنیداری/سایر معیارهای آماری تخمین «p» و تخمین پارامترهای رگرسیون تأثیر میگذارد؟
|
طراحی آزمایش: داده های هندسی یا برنولی
|
64701
|
من سعی می کنم مشتق معینی از ** برآوردگر حداقل میانگین مربعات خطای خطی** را همانطور که در [1] نشان می دهد تأیید کنم (همچنین تخمین پسینی _خطی نامیده می شود، زیرا برآورد بر اساس اندازه گیری است). تخمینگر خطی $\hat{\mathbf{x}}(\mathbf{z}) = \mathbf{Az} + \mathbf{b}$ فرض میشود، جایی که $\mathbf{A} \in \mathbb{R}^ {n\times p}،\ \mathbf{b} \in \mathbb{R}^{n}$ ثابت هستند و $\mathbf{z} \in \mathbb{R}^{p}$ اندازهگیری $\mathbf{x} \in \mathbb{R}^n$ است (هر دو $\mathbf{x}$ و $\mathbf {z}$ متغیرهای تصادفی هستند). هدف یافتن چنین $\mathbf{A},\,\mathbf{b}$ است که $J = \overline{(\mathbf{x} - \hat{\mathbf{x}})^T(\ را به حداقل برساند. mathbf{x} - \hat{\mathbf{x}})}$. (Overbar نشان دهنده انتظار است.) مشکلی که من با آن روبرو هستم در ساده کردن این عبارت به شکل ارائه شده در کتاب است. اشتقاق در [1] به شرح زیر است: $$ J = \overline{(\mathbf{x} - \hat{\mathbf{x}})^T(\mathbf{x} - \hat{\mathbf{x }})} = \mathrm{Tr}\ \overline{(\mathbf{x} - \hat{\mathbf{x}})^T(\mathbf{x} - \hat{\mathbf{x}})} = \mathrm{Tr}\ \overline{(\mathbf{x} - \mathbf{ Az} - \mathbf{b})(\mathbf{x} - \mathbf{Az} - \mathbf{b})^T} = \mathrm{Tr}\ \overline{\left[(\mathbf{x} - \bar{\mathbf{x}}) - (\mathbf{Az} + \mathbf{b} - \bar{\mathbf{x }})\راست]\چپ[(\mathbf{x} - \bar{\mathbf{x}}) - (\mathbf{Az} + \mathbf{b} - \bar{\mathbf{x}})\right]^T} $$ من آخرین برابری صفر هوشمند $ -\bar{\mathbf{x}} + \bar{ \mathbf{x}}$ اضافه شد. در اینجا من هنوز می توانم دنبال کنم. سپس نویسندگان می نویسند (و مشکل اینجاست) پس از چند کار ساده به $$ J = \mathrm{Tr}\ \left[\mathbf{P}_x + \mathbf{A}(\mathbf میشویم {P}_z + \overline{\mathbf{zz^T}})\mathbf{A}^T + (\mathbf{b} - \bar{\mathbf{x}})(\mathbf{b} - \bar{\mathbf{x}})^T + 2\mathbf{A}\bar{\mathbf{z }}(\mathbf{b} - \bar{\mathbf{x}})^T - 2\mathbf{AP}_{zx} \right] $$ $$\mathbf{P}_x = \overline{(\mathbf{x} - \bar{\mathbf{x}})(\mathbf{x} - \bar{\mathbf{x}})^T}، \ \mathbf{P}_{zx} = \overline{(\mathbf{z} - \bar{\mathbf{z}})(\mathbf{x} - \bar{\mathbf{x}})^T} $$ (به طور مشابه برای $\mathbf{P}_z$ و $\mathbf{P}_{xz} = \mathbf{P}^T_{zx}$ ) ماتریس های کوواریانس هستند. * * * **کار من تاکنون** اگر عبارت درونی زیر نوار را در $$\mathrm{Tr}\ \overline{\left[(\mathbf{x} - \bar{\mathbf{x} ضرب کنم }) - (\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))\راست]\چپ[(\mathbf{x} - \bar{\mathbf{x}}) - (\mathbf{Az} + (\mathbf{b} - \ bar{\mathbf{x}}))\right]^T} $$ من $$ \mathrm{Tr}\ \left[\overline{(\mathbf{x} میگیرم - \mathbf{\bar{x}})(\mathbf{x} - \mathbf{\bar{x}})^T} - 2\overline{(\mathbf{x} - \mathbf{\bar{x }})(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))^T} + \overline{(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x} }))^T}\right] $$ کار کردن شرایط فردی: 1. اولین عبارت: $\overline{(\mathbf{x} - \bar{\mathbf{x}})(\mathbf{x} - \bar{\mathbf{x}})^T} = \mathbf{P}_x$ 2. عبارت دوم: (با استفاده از ''smart zero '' $-\mathbf{A}\bar{\mathbf{z}} + \mathbf{A}\bar{\mathbf{z}}$ و این واقعیت که $\overline{(\mathbf{x} - \bar{\mathbf{x}})\bar{\mathbf{z}}\mathbf{A}^T} = 0، \ \overline{(\mathbf{x } - \bar{\mathbf{x}})(\mathbf{b} - \bar{\mathbf{x}})^T} = 0$) $-2\overline{(\mathbf{x} - \mathbf{\bar{x}})(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))^T } = -2\overline{(\mathbf{x} - \mathbf{\bar{x}})(\mathbf{A}(\mathbf{z}-\bar{\mathbf{z}}) + \mathbf{A}\mathbf{\bar{z}} + ( \mathbf{b} - \bar{\mathbf{x}}))^T} = -2\mathbf{AP}_{zx}$ 3. ترم سوم: (''smart zero'' $-\mathbf{A}\bar{\mathbf{z}} + \mathbf{A}\bar{\mathbf{z}}دوباره $! <-- هنگام نوشتن این پست به من ضربه زد، * آه*، فووو) $\overline{(\mathbf{Az} + (\mathbf{b} - \bar{\mathbf{x}}))(\mathbf{ Az} + (\mathbf{b} - \bar{\mathbf{x}}))^T} = \mathbf{A}\bar{\mathbf{z}}\bar{\mathbf{z}}^T\mathbf{A}^T + \mathbf{A}\mathbf{P}_z\mathbf{A}^ T + 2\mathbf{A}\bar{\mathbf{z}}(\mathbf{b}-\bar{\mathbf{x}})^T + (\mathbf{b} - \bar{\mathbf{x} })(\mathbf{b} - \bar{\mathbf{x}})^T$ به این ترتیب میتوانم تمام عبارات تابع هدف $J$ و از البته همه چیز حل شد اگرچه، من هنوز یک سوال دارم: نویسندگان در [1] $\mathbf{A}(\mathbf{P}_z + \overline{\mathbf{zz}}^T)\mathbf{A}^T$ دارند در حالی که چه من به دست آوردم $\mathbf{A}(\mathbf{P}_z + \mathbf{\bar{z}}\mathbf{\bar{z}}^T)\mathbf{A}^T$. اما من فکر می کنم که $\overline{\mathbf{zz}}^T \neq \mathbf{\bar{z}}\mathbf{\bar{z}}^T$ و بنابراین، مگر اینکه نویسندگان [1] از مقداری استفاده کنند روش شیطانی دیگر، یک اشتباه تایپی در کتاب وجود دارد. نظر شما چیست؟ * * * [1]: F.L. لوئیس، L. Xie، D. Popa، برآورد بهینه و قوی: با مقدمه ای بر نظریه کنترل تصادفی، 2008
|
استخراج برآوردگر خطی MMSE
|
64705
|
خواندهام که وقتی صحبت از افراد غیررتبهبندی میشود، باید از کندال W اجتناب کرد، بهویژه برای مقیاسهای رتبهبندی که گرایش به پیوندهای زیادی دارند. با این حال به نظر می رسد پست های اینجا آن را برای رتبه بندی پیشنهاد می کنند. همانطور که در این پست گفته شد، من یک مطالعه کوچک روی 21 پاسخ دهنده دارم، که به برخی از موارد از 0-5 امتیاز داده اند، که 0 بی اهمیت و 5 بسیار مهم است و من به دنبال معیارهایی برای توافق برای پاسخ دهندگان خاص هستم. من به دنبال توافق مطلق نیستم. در حالی که ICC به عنوان یک راه حل ممکن پیشنهاد شد، با توجه به تعداد کمی از پاسخ دهندگان، مشکلی در استفاده از آزمون F در این مورد وجود دارد. نظر شما در مورد کندال دبلیو در این مورد چیست؟
|
ضریب تطابق کندال (W) برای رتبهبندیهایی با تعداد کراوات
|
109818
|
اگر مقداری انسداد روی صورت (مانند عینک آفتابی، ماسک، روسری) وجود داشته باشد، میزان تشخیص به شدت کاهش می یابد؟ چگونه باید به این پرونده رسیدگی کرد؟ من یک بررسی انجام داده ام، روش بازسازی PCA توسط برخی ادبیات ذکر شده است. نمی دانم این روش آخرین روش است یا نه. آیا روش دیگری برای رفع مشکل انسداد وجود دارد؟
|
چگونه انسداد را برای تشخیص چهره مدیریت کنیم؟
|
63733
|
من با R خیلی تازه کار نیستم زیرا از آن برای نیازهای روزانه تجزیه و تحلیل داده هایم استفاده می کنم. من به دنبال یک بسته R هستم که بتواند تست همگنی نرمال استاندارد، تست محدوده Buishand، تست نسبت Von Neumann و تست Pettitt را برای سری های بارش روزانه محاسبه کند. هدف این است که در سال هایی که ناهمگنی وجود دارد، گسست ها را ثبت کنیم. آیا راهی وجود دارد که بتوان این 4 روش را در R احتمالاً در یک بسته R انجام داد؟ XLSTAT این کار را انجام می دهد اما گران و زمان بر است.
|
نحوه محاسبه آزمون همگنی نرمال استاندارد، آزمون محدوده بوئیشن، آزمون نسبت فون نیومن و آزمون پتیت
|
46488
|
من در تلاش برای درک ابر صفحه الگوریتم SVM هستم. مشکل من این است که منابع مختلف معادلات متفاوتی را بیان می کنند. کدام معادله صحیح است و اگر هر دو درست است چرا؟ * ویکیپدیا: $w\cdot x-b = 0.$ * یادداشتهای تجزیه و تحلیل هوشمند دادهها و استنتاج احتمالی: $ w\cdot x+b = 0.$ علاوه بر این، من فکر کردم شکل عادی یک هواپیما به این شکل است: $$ w\ cdot x + w\cdot a = 0.$$
|
معادله ابر صفحه SVM
|
69554
|
من سعی می کنم به این سوال پاسخ دهم: به چه مقدار داده (دودویی) نیاز دارم تا زبان آموزم هر متغیر از مجموعه داده را حداقل یک بار ببیند؟ در تنظیم خود من بردارهای باینری الگوریتم خود را تغذیه می کنم (یعنی با همه عناصر برابر با 1 یا 0)، این بردارها دارای یک دانسیته شناخته شده (متوسط مقدار یکها) هستند که - برای پاسخ به این سوال - ثابت یکنواخت (ok) یا از توزیع دم بلند پیروی کنید (بهتر). من سعی کردم از منظر ترکیبی به آن نگاه کنم اما این سخت تر از حد انتظار بود. من فکر می کنم این سوال باید قبلا پرسیده شده باشد، اما من تاکنون نتوانسته ام هیچ مرجعی را پیدا کنم. در نظریه ای از آموختنی ها توسط Valiant، خواندم که: > L(h,S) کوچکترین عدد صحیح باشد به طوری که در $L(h,S)$ مستقل > برنولی هر کدام را با احتمال حداقل $h^ آزمایش کند. {-1}$ موفقیت، > احتمال موفقیت کمتر از $S$ کمتر از $h^{-1}$ است. [...] > پیشنهاد: برای همه اعداد صحیح $S > 1$ و همه واقعی $h > 1$. $$L(h,S) \leq 2 > h (S + \ln (h))$$ این را می توان به کران بالایی برای سوال من ترجمه کرد با توجه به اینکه فرض می شود هر ویژگی از یک آزمایش مستقل برنولی گرفته شده است. اما نه یک کران پایین آیا کسی کار مرتبط دیگری را می شناسد که بتواند مرا به سمت یک کران پایین راهنمایی کند؟
|
تئوری یادگیری PAC و کران پایین در مقدار نمونه های ورودی
|
88893
|
برای پایان نامه کارشناسی ارشد من است، باید بیشتر به عمق برسم. هر گونه پیشنهادی در مورد کارهای اخیر واقعاً استقبال می شود.
|
مقاله مرجع و/یا کتابهایی درباره تجزیه و تحلیل داده های مکانی، احتمالاً بیزی
|
6580
|
**سوال** آیا چنین مفهومی در اقتصادسنجی/آمار به عنوان مشتق از پارامتر $\hat{b_{p}}$ در یک مدل خطی با توجه به برخی از مشاهدات $X_{ij}$ وجود دارد؟ منظور من از مشتق $\frac{\partial \hat{b_{p}}}{\partial X_{ij}}$ - اگر $X_{ij را تغییر دهیم چگونه پارامتر $\hat{b_{p}}$ تغییر میکند }$؟ **انگیزه** داشتم به موقعیتی فکر می کردم که در داده ها (مثلاً نتایج یک نظرسنجی) مقداری عدم اطمینان داریم و پول کافی برای به دست آوردن نتایج دقیق فقط در یک مشاهده داریم، کدام مشاهده را انتخاب کنیم؟ شهود من می گوید که ما باید مشاهده ای را انتخاب کنیم که ممکن است پارامترها را بیشتر تغییر دهد، که معادل بالاترین مقدار مشتق است. اگر مفاهیم دیگری وجود دارد، در مورد آنها بنویسید.
|
مشتق از مدل خطی
|
81335
|
من سوال اصلی خود را اینجا ارسال کردم، اما به من گفته شد که باید در Cross Validated پست میکردم، در زیر لینک سوال اصلی وجود دارد: http://stackoverflow.com/questions/20943584/predict-binary-outcome- with-r? noredirect=1#comment31453858_20943584 با تشکر!
|
پیش بینی نتیجه باینری با R
|
111087
|
ما از گروهی از آزمودنی ها خواستیم که ترجیحات خود را برای یک روش معین به ما بگویند که از بین آنها 4 انتخاب وجود داشت. سپس مطالب آموزشی را در اختیار آنها قرار دادیم و مجدداً از آنها خواستیم که ترجیح دهند. من می خواهم این دو گروه را با هم مقایسه کنم و ببینم آیا تفاوت آماری معنی داری بین این دو گروه وجود دارد یا خیر. تا آنجا که من می دانم، من این فرض را دارم که توزیع انتخاب ها غیر پارامتریک است، زیرا فرض می کنم که این موضوعات برای شروع یک پنس داشتند. علاوه بر این، من در حال نظرسنجی از همان گروه هستم، بنابراین آزمونی که باید استفاده کنم باید یک آزمون زوجی باشد. از کدام تست استفاده کنم؟
|
از کدام آزمون برای داده های جفت، ناپارامتریک و دسته بندی استفاده کنیم؟
|
100702
|
به نظر می رسد یک سری خاص (std) رفتاری شبیه روند را نشان می دهد. طبق تست ADF برای این سری: Dickey-Fuller = -2.8618، ترتیب تاخیر = 6، p-value = 0.2131 بنابراین، من اولین تفاوت std را با این کد میگیرم stddif1<- diff(std) در اینجا مشکل است. بخش، acf و pacf نشان می دهد که این یک فرآیند ARMA خواهد بود (2،1)، با d=1. اما کد تخمینهای مختلف و مقادیر مختلف AIC را نشان میدهد، زمانی که (من فکر میکنم) این _نباید_ باشد: برای std بدون تفاوت: > arima(std, order=c(2,1,1)) فراخوانی: arima (x = std، مرتبه = c(2، 1، 1)) ضرایب: ar1 ar2 ma1 0.5206 0.2697 -0.7638 s.e. 0.1218 0.0552 0.1153 sigma^2 تخمین زده شده به عنوان 0.06355: احتمال ورود = 13.3 -، aic = 34.6 و برای std متمایز (stddif): > arima(stddif, order=c(2,0,1) (x : = stddif، سفارش = c(2، 0، 1)) ضرایب: ar1 ar2 ma1 intercept 0.5188 0.2695 -0.7620 -0.0003 s.e. 0.1223 0.0554 0.1159 0.0157 sigma^2 به صورت 0.06355 تخمین زده شده است: احتمال ورود = 13.3-، aic = 36.6 مقادیر AR1، AR2، MA1 و همچنین AIC متفاوت است. چرا این است؟ همه اینها در R انجام شد، بسته مربوطه «سری» است.
|
پارامترهای تخمینی مختلف در مدل های مشابه در R
|
69088
|
برای کسانی از شما که با تحلیل عاملی اکتشافی (EFA) و جنگل تصادفی (RF) آشنا هستند، اخیراً ایده ترکیب این دو روش برای کاهش تعداد متغیرهای پیشبینیکننده بالقوه برای استفاده در یک مدل رگرسیون لجستیک باینری صرفاً به ذهنم رسیده است. برای اهداف این پست، _n_ بزرگ (200k یا بیشتر) و 1000 متغیر پیش بینی بالقوه را در نظر بگیرید. برای به کارگیری این ایده، اولین قدم انجام یک EFA با همه متغیرهای پیشبینیکننده بالقوه با استفاده از «proc varclus» است. بهعلاوه، از «randomForest» برای رتبهبندی همه متغیرهای پیشبینیکننده بالقوه بر اساس «IncNodePurity» (شاخص جینی) استفاده میشود. پس از اینکه این دو روش به طور مستقل مورد استفاده قرار گرفتند، پیشنهاد میکنم متغیری را با بزرگترین «IncNodePurity» (از RF) در هر عامل (از EFA) حفظ کنیم. آیا کسی در مورد این متدولوژی (یا فقدان آن) برای انتخاب ویژگی نظر یا نگرانی دارد؟ من می دانم که این انتخاب و انتخاب روش ها ممکن است زباله کامل باشد، اما من این فکر تصادفی را داشتم و می خواستم به اشتراک بگذارم. با تشکر
|
ترکیب تحلیل عاملی اکتشافی با جنگل تصادفی برای انتخاب ویژگی رگرسیون لجستیک باینری
|
94992
|
من سعی می کنم دسته ای از فایل های اجرایی را دسته بندی کنم و می خواهم از NCD (فاصله فشرده سازی عادی) به عنوان متریک فاصله استفاده کنم. آیا بسته نرم افزاری وجود دارد که به من این امکان را می دهد؟ بهروزرسانی: من از یک اسکریپت پایتون استفاده میکنم که برای مثال برای 4 نمونه، یک ماتریس فاصله تولید میکند: [[1.0004239875837764، 1.0004587405627736، 1.00124688780825028، 60825028، 1.000124688780825028، 65749، 1.000.000. [1.0001477300117407، 1.0003889794346572، 1.0007857384580077]، [1.0005753695194108، 1.0009174721125] [1.0008124881847325]، []] با تشکر
|
خوشه بندی سلسله مراتبی با NCD به عنوان متریک فاصله
|
43500
|
شرکت من انواع سری ها را برای بازدید از صفحه، بازدیدکنندگان منحصر به فرد و بسیاری از داده های کاربر دیگر (جمع آوری شده توسط سرورهای وب ما) جمع آوری می کند. همانطور که من می بینم، این مجموعه از سری ها گسسته هستند زیرا همه آنها توسط سیستم های کامپیوتری و نرم افزار جمع آوری می شوند و هیچ مقدار واسطه بین اعداد جمع آوری شده وجود ندارد. همچنین به همین دلیل من راهی برای اندازه گیری خطای تخمین آن ندارم. این سری ها به صورت ماهانه مقایسه می شوند و شرکت من با توجه به درصد افزایش/کاهش مقادیر به جلو حرکت می کند. اما مدیران من هرگز انحراف معیار یا خطای احتمالی آن را در نظر نمی گیرند. تنها تحلیل آماری که آنها انجام می دهند درصد تغییرات بین سری ها است. روش صحیح تر و صحیح تر برای تجزیه و تحلیل تغییرات ماهانه بین هر سری چیست؟ هدف من این است که تنوع واقعی در تعداد بازدیدکنندگان، بازدید از صفحه و غیره را استخراج کنم.
|
چگونه واریانس ماهانه سری های گسسته را تجزیه و تحلیل کنم؟
|
46483
|
به نظر می رسد که باید یک تحلیل آماری بسیار ساده باشد، اما من در تلاش برای یافتن راه حل هستم. من یک مجموعه داده متشکل از مقادیر داده های پیوسته قبل و بعد از آزمون دارم که از چندین گروه گرفته شده است، به عنوان مثال: گروه 1 (پیش آزمون، پس آزمون) گروه 2 (پیش آزمون، پس آزمون) گروه 3 (پیش آزمون) آزمون، پس آزمون) و غیره. می خواهم ببینم در کدام گروه ها تفاوت معنی داری بین معیارهای پیش و پس آزمون وجود دارد. ساده ترین تجزیه و تحلیل می تواند یک آزمون t زوجی باشد، با این حال من گروه های زیادی دارم و نگران این هستم که چند آزمون t زوجی نتایج من را در برابر خطاهای خانوادگی آسیب پذیر کند. یک جایگزین ممکن است استفاده از یک اندازه گیری مکرر GLM باشد. من چنین تحلیلی را در SPSS انجام دادم و مطمئناً به یک تعامل بین (گروه) * درون (تست-اثر) رسیدم. اکنون درگیر این هستم که چگونه می توانم مقایسه درون موضوعی در کدام گروه ها مهم باشد. من فقط میتوانم به تقسیم گروهها و اجرای مقایسههای متعدد در میانگینهای حاشیهای تخمینی، با اصلاح بونفرونی فکر کنم. فقط تصحیح بونفرونی تنها با یک مقایسه درون موضوعی کار نمی کند. آیا هر نوع تصحیح خطای خانوادگی وجود دارد که بتوانم برای ادامه مقایسه های درون موضوعی زمانی که فقط یک سطح مقایسه وجود دارد انجام دهم؟ با تشکر
|
مقایسه چندگانه پیش آزمون، پس آزمون
|
111081
|
من در حال تجزیه و تحلیل داده های یک طرح مداخله کلاسیک هستم. آزمودنی ها به گروه هایی تقسیم شدند و مداخلات مختلفی را انجام دادند. هر آزمودنی با استفاده از آزمون های مشابه قبل و بعد از مداخله اندازه گیری شد. مثل همیشه، دلیل اصلی داشتن گروههای متعدد این است که میخواهیم اثر(های) مورد علاقه را جدا کنیم. به عنوان مثال، ما یک مطالعه سه گروهی داریم که در آن میخواهیم اثرات درمان و دارونما را تخمین بزنیم: 1. گروه آزمایش مجدد: «افزایش اندازهگیری شده = آزمون مجدد» (بدون مداخله، فقط قبل و بعد از آزمون). 2. گروه دارونما: «افزایش اندازهگیریشده = آزمون مجدد + دارونما» 3. گروه درمان: «افزایش اندازهگیریشده = آزمایش مجدد + دارونما + درمان» # مدل پایه این به راحتی در «R» با استفاده از مثال تجزیه و تحلیل میشود. lme4::lmer با مدل اثرات مختلط `y ~ 1 + آزمون مجدد + دارونما + واقعی + (1|id)` که در آن سه اثر ثابت دودویی (0/1) هستند که نشانگر تأثیرات این موضوع و بخش تصادفی است. واریانس موضوعی خاص را ثبت می کند. یا به عنوان یک معادله: $y_i =\beta_{pretest} + \beta_{retest}x_{retest_i} + \beta_{placebo}x_{placebo_i} + \beta_{treat}x_{treat_i} + u_i + \epsilon_i$. ... با $i$ نشان دهنده یک موضوع خاص و $u_i$ به عنوان افست موضوع خاص (اثر تصادفی). توجه داشته باشید که برای پیشآزمون، تمام $x=0$ برای پیشآزمون، که سپس بهعنوان وقفه $y_i = \beta_{pretest} + \epsilon_i$ مدلسازی میشود. # افزودن متغیرهای کمکی اکنون، این اثرات ممکن است توسط متغیرهایی مانند سن ($x_{age_i}$)، جنسیت ($x_{gender_i}$) و غیره تعدیل شوند. من حدس میزنم که این امکان وجود دارد که اثرات به روشهای مختلف توسط این متغیرهای کمکی تعدیل شوند. یعنی اثر دارونما ممکن است با افزایش سن افزایش یابد در حالی که اثر درمان با افزایش سن کاهش می یابد. افزودن متغیرهای کمکی به این شکل خواهد بود: $y_i =\beta_{pretest} + (\beta_{retest} + \beta_{age_{retest}}x_{age_i} + \beta_{gender_{retest}}x_{gender_i}) x_{retest_i} + ... + u_i + \epsilon_i$ بنابراین $x_{effect}$s کلیدهای روشن/خاموش برای همه چیز هستند مربوط به یک اثر (افکار در مورد راه های جایگزین برای انجام آن استقبال می شود). # سوال: چه فرمول lmer این کار را انجام می دهد؟ معادل lmer چه خواهد بود؟ آیا «y~ (آزمایش مجدد + دارونما + درمان)*(1 + سن + جنسیت) + (1|id)» کارساز است؟ من می ترسم که بتاهای اثر با متغیرهای کمکی ضرب شوند نه اینکه با استفاده از این فرمول R به آنها اضافه شوند.
|
متغیرهای کمکی متعدد برای هر اثر ثابت
|
43509
|
برای یک پروژه باستان شناسی، من دو مجموعه از آیتم ها دارم که هر کدام به روش های مختلف (جرم، مساحت، ضخامت و غیره) اندازه گیری می شوند. من می خواهم آزمایش کنم که آیا تفاوت بین مجموعه ها قابل توجه است یا خیر. من کاملاً مطمئن هستم که باید از T-Test استفاده کنم، اما مطمئن نیستم که چگونه آن را اعمال کنم، با در نظر گرفتن همه ویژگی های مختلف هر مورد. آیا تست T را برای هر ویژگی انجام می دهم؟
|
انجام T-Test با عناصر با ویژگی های متعدد
|
63732
|
من یک سوال آماری ساده دارم (اگر از اصطلاحات آماری به روش اشتباه استفاده می کنم ببخشید) فرض کنید من یک بردار تصادفی با دو جزء، $(x_1، x_2)$ دارم، که در آن $x_1$ می تواند مقادیری از $1$ تا $n داشته باشد. $ و $x_2$ می توانند مقادیری از $1$ تا $m$ بگیرند و من یک توزیع دو بعدی $P$ به صورت $n \times m$ دارم. ماتریس $(i, j)$-امین عنصر $P$ احتمال مشاهده دنباله $(i, j)$ است. اکنون، من مشاهدات $x^{(k)}_1، x^{(k)}_2$ دارم و میتوانم $\widehat{P}$ را از روی مشاهدات (به عنوان فراوانیهای آماری) تخمین بزنم. حالا یه قسمت جالب من یک بردار (ثابت) $v$ دارم و باید تخمین بزنم **محصول ماتریس به بردار** $\widehat{P}$ توسط $v$ چقدر خوب تخمین زده میشود: $$ E || (P - \widehat{P})v ||^2 = ?$$
|
توزیع دو بعدی و محاسبه واریانس مربوطه
|
81334
|
به دلایلی سرپرست من از من میخواهد که فقط متغیرهای مستقلی را که در عبارات تعامل استفاده میشوند، متمرکز کنم. من هرگز چنین عملی را نشنیده ام. آیا منطقی است که بخشی از ماتریس داده را در مرکز X$ قرار دهیم، یعنی فقط برخی از ستون های ماتریس داده X$ را در مرکز قرار دهیم، نه همه آنها؟ متشکرم.
|
آیا مقیاس بخشیدن به ماتریس داده X در رگرسیون منطقی است؟
|
46480
|
من ISOMAP را پیاده سازی کردم و قصد دارم از آن به عنوان یک تکنیک استخراج ویژگی برای یک کار طبقه بندی استفاده کنم. مشکل من این است که اگرچه می توانم داده های آموزشی را در فضایی با ابعاد کمتر ترسیم کنم، چگونه می توانم از همان نقشه برداری برای یک مجموعه داده آزمایشی جداگانه استفاده کنم؟
|
ISOMAP برای طبقه بندی
|
63730
|
من یک پیامد سلامتی دارم (اندازهگیری شده به عنوان میزان موارد به ازای هر 10000 نفر در یک منطقه اداری) که میخواهم آن را با 15 متغیر مستقل (اقدامات اجتماعی، اقتصادی و زیستمحیطی همان مناطق اداری) از طریق نوعی مدل مرتبط کنم. (من به پواسون GLM یا دوجمله ای منفی فکر می کنم اگر پراکندگی بیش از حد وجود داشته باشد). از بررسی پراکندگی میدانم که بین متغیرهایی که باید بررسی و رسیدگی کنم، چند خطی وجود دارد. من مخالف حذف متغیرها نیستم و در هر ترکیب مشکلساز میتوان انتخاب یک متغیر را بر دیگری به دلایل علاقه یا هزینه/سهولت جمعآوری توجیه کرد. در گذشته من از ماتریس همبستگی برای تشخیص چند خطی بودن استفاده میکردم، اما در حال مطالعه در این سایت بودم و VIF و شاخص/عدد شرط را کشف کردم، که به نظر میرسد به طور کلی به عنوان گزینههای بهتر پذیرفته شدهاند. سوال من این است که چگونه هر یک از این معیارها با همبستگی های غیر خطی کار می کنند، چیزی که من بین تقریباً همه متغیرهایم (به صورت گرافیکی تعیین شده) دارم. گزینه های من برای ارزیابی چند خطی بودن علاوه بر همبستگی های اسپیرمن چیست؟ به کنار: متوجه شدم که این احتمالاً یک سؤال جداگانه است، اما اگر به اینجا مربوط باشد، من همبستگی های غیر یکنواخت زیادی بین متغیرهایم دارم که نمی دانم با آنها چه کار کنم... ممنون می شوم راهنمایی کنید!
|
نحوه تست چند خطی در بین متغیرهای مستقل غیرخطی
|
69086
|
من از بسته «glmnet» در R برای یک مجموعه داده نسبتاً بزرگ استفاده میکنم (حدود 50 هزار مشاهده، 1000 پیشبینیکننده). من رفتار زمانبندی عجیبی را برای مقادیر مختلف پارامتر «n_lambda» مشاهده میکنم. با استفاده از «cv.glmnet» (CV 5 برابری که به صورت موازی انجام میشود)، مقادیر کوچکتر «n_lambda» با زمانهای اجرایی بزرگتر مطابقت دارد، همانطور که با «سپری شده» در «system.time()» اندازهگیری میشود. این برای من غیر شهودی است زیرا به نظر میرسد که مقادیر کمتری برای پارامتر انقباض امتحان شده باید با زمانهای کوتاهتر اجرا مطابقت داشته باشد. آیا من اینجا چیزی را از دست داده ام؟ این فراخوانی تابع است: system.time(cv.fit <- cv.glmnet(x=X, y=Y, type.measure=class,nfolds=5, parallel=TRUE,standardize=FALSE, nlambda=nlambda, family=multinomial)) این خروجی است: [1] Fitting the model... [1] Number of lambda مقادیر: 10 سیستم کاربر سپری شده 68544.863 2.764 31072.312 [1] Fitting the model... [1] تعداد مقادیر لامبدا: 100 سیستم کاربر سپری شده 7061.27 4.360 242140.0 1] تعداد مقادیر lambda: 500 اینچ سیستم کاربر سپری شده 19164.12 26.773 8712.563
|
رفتار زمانبندی عجیب با glmnet و n_lambda
|
76120
|
1) اجازه دهید $\{a_i\}_{i = 1, ...,n}$ یک دنباله واقعی باشد که توسط یک مولد اعداد شبه تصادفی تولید می شود. چگونه می توانم تصادفی بودن چنین اعداد واقعی را با استفاده از تست Runs بررسی کنم؟ 2) سه دنباله مستقل از اعداد حقیقی $\{a_i\}_{i = 1, ...,n}$, $\{b_i\}_{i = 1, ...,n}$ و $ را فرض کنید \{c_i\}_{i = 1, ...,n}$ توسط همان PRNG با استفاده از کلیدهای seed مختلف تولید میشوند. چگونه می توانم تصادفی بودن دنباله ای از _m_ -tuples را استنتاج کنم، به عنوان مثال 3-tuples $\{(a_i,b_i,c_i)\}_{i = 1, ...,n}$؟ 3) چگونه می توانم تصادفی بودن هر مختصات را به تصادفی 3 تایی تبدیل کنم؟
|
چگونه تصادفی بودن دنباله ای از m-tuples واقعی را آزمایش کنیم؟
|
41900
|
من سعی کردم این مشکل را در چند ماه گذشته حل کنم اما موفق نشدم. این قرار بود بخش بسیار کوچکی از پایان نامه دکتری من در ناوبری باشد، اما حدس میزنم مشکل را دست کم گرفتم. در ابتدا بی اهمیت به نظر می رسید، اما اکنون چندان مطمئن نیستم. فرض کنید دو کشتی داریم که هر کدام موقعیت اسمی خود را در مختصات دوبعدی (میانگین) دارند. با توجه به اشتباهات در سیستم های موقعیت یابی، ما فقط می توانیم مطمئن باشیم که کشتی ها در فاصله 1 مایلی از میانگین با احتمال 95٪ (توزیع نرمال) هستند. با توجه به این 2 موقعیت و این توزیع احتمال، احتمال اینکه کشتی ها در فاصله 5 مایلی از یکدیگر باشند چقدر است؟ همچنین، اگر موقعیت احتمالی کشتی یک بیضی باشد، نه دایره، همان سؤال است. من از برخی افراد پرسیدم و آنها به من گفتند که هیچ راه حل تحلیلی وجود ندارد. اگر واقعا اینطور است، لطفا نحوه حل عددی آن را توضیح دهید. همانطور که قبلاً می توانید بگویید، من از پس زمینه مهندسی آمده ام، بنابراین ریاضیات من کمی زنگ زده است. اگر سوال برای این انجمن خیلی مبهم یا بی اهمیت است پیشاپیش عذرخواهی می کنم. در صورت نیاز خوشحال خواهم شد که با جزئیات بیشتر توضیح دهم. من این را پیدا کردم، اما فقط برای حالت تک متغیره است، و علاوه بر این، نمی دانم چگونه آن را در مورد خودم پیاده کنم، جایی که باید احتمال اینکه فاصله بین دو کشتی کمتر از 5 مایل باشد را پیدا کنم. من این مشکل را صفحه ای با دو تپه که همدیگر را قطع می کنند تصور می کنم و راه حل آن حجم زیر دایره ای به قطر 5 مایل است که جایی بین دو قله تپه (میانگین) قرار دارد. آیا من در مسیر درست هستم؟ با تشکر
|
احتمال برخورد (دو توزیع نرمال دو متغیره)
|
100704
|
من در درک اینکه چه نوع تست آماری برای سوالاتم نیاز دارم با مشکل مواجه هستم. اندازه گیری های من شامل موارد زیر است: ارگانیسم 1 مکان 1 5 اندازه گیری های مکرر ارگانیسم 1 مکان 2 5 اندازه گیری های مکرر ارگانیسم 1 مکان 3 5 اندازه گیری های مکرر . . . . ارگانیسم 10 مکان 1 5 اندازه گیری های مکرر ارگانیسم 10 مکان 2 5 اندازه گیری های مکرر ارگانیسم 10 مکان 3 5 اندازه گیری های مکرر سوالاتی که می خواهم بپرسم عبارتند از: 1. تغییرات مورد انتظار از یک مکان منفرد چیست 2. تغییرات مورد انتظار از یک مکان منفرد چقدر است ارگانیسم 3. تنوع مورد انتظار بین موجودات چیست؟ 5. آیا تغییرات موجود در یک ارگانیسم به طور قابل توجهی با تغییرات بین موجوداتی که من در آزمایشهای $p$ و $t$ خواندهام متفاوت است، اما نمیتوانم متوجه شوم که آیا اینها آزمایشهایی هستند که باید از آنها استفاده کنم یا خیر. همچنین مطمئن نیستم که آیا باید میانگین میانگین را برای دو سوال اول و صرفاً میانگین تمام 150 اندازه گیری را برای سوال سوم محاسبه کنم.
|
ارزیابی تفاوت بین اندازه گیری های مکرر از یک گروه به گروه دیگر
|
43504
|
من سعی می کنم از مدل sobol2007 در پکیج حساسیت R استفاده کنم. من روی مدلی با 26 پارامتر اجرا میکنم و از 2 مجموعه 500 نمونه مونت کارلو برای دانهبندی آنالیز استفاده میکنم و nboot=500. این منجر به 14k اجرا می شود وقتی نتایج حساسیت را ایجاد می کنم، انتظار اعداد 0..1 را دارم، اما هر دو * اعداد منفی * اعداد بسیار بالا را دریافت می کنم (مثلاً 10) وقتی مدل را رسم می کنم، می توانم اطمینان حاصل کنم که فواصل زمانی بسیار زیاد است:  به نظر می رسد برای تخمین این تعداد پارامتر، 14 هزار اجرا باید معقول باشد، اما شاید من بیش از حد خوشبین هستم. آیا کسی می تواند پاسخ دهد: * آیا من کاملاً غیر واقعی هستم، و/یا از چه تعداد اجرا باید استفاده کنم؟ * آیا می توانم چیزی از این خروجی ها بخوانم یا اساساً آنقدر پر سر و صدا هستند که بی ارزش هستند؟ * چگونه باید nboot را انتخاب کنم - هیچ راهنمایی در اسناد وجود ندارد؟
|
تفسیر نتایج حاصل از تجزیه و تحلیل حساسیت Sobol در R
|
76126
|
در Stata، من داده های تابلویی برای سال های 2008-2012، در 7 شرکت دارم. من یک مقدار مربوط به id را برای همه شرکت ها اختصاص می دهم. ('id' 1,3 شرکت های تخصصی هستند که مورد توجه است) من دو متغیر ساختگی دارم. یکی نشانگر بحران مالی جهانی 2008 و برای سال 2008 1 است. دیگری نشان دادن شرکت های تخصصی است و من فقط به id 1،3 عدد 1 و به دیگران صفر می دهم. اما زمانی که از «xtgls» (پانل gls) استفاده می کنم، مشکل متغیر ساختگی حذف شده رخ می دهد. من واقعاً به آن دو آدمک نیاز دارم، پس چگونه می توانم این را حل کنم؟ تعداد کل مشاهدات 8000 است، هر شرکت حدود 1100 مشاهده در هر سال دارد.
|
متغیر ساختگی حذف شده در پانل gls؟
|
69083
|
من یک آنووا با اندازه گیری مکرر 2x3x4 دارم. من یک تعامل سه طرفه قابل توجهی دارم و میخواهم مطمئن شوم که از مقایسههای پسهک درست استفاده میکنم و هیچ نظریه آمار کلیدی را نقض نمیکنم. من آمار را در SPSS اجرا کردهام و با استفاده از SIDAK برای مقایسههای چندگانه تنظیم کردهام، اما میخواهم مطمئن شوم که چقدر تنظیمات انجام شده است و آیا مقادیر p به درستی اصلاح میشوند. آزمونهای تعقیبی من موارد زیر را تجزیه و تحلیل کردهاند: AxB در هر سطح از C AxC در هر سطح B BXC در هر سطح از A من فقط سعی میکنم تعیین کنم که چه فاکتور اصلاحی مناسب است. به عنوان مثال b x c در هر سطح A 2 معنی را 12 برابر مقایسه می کند. در اینجا من تنظیم نمی کنم زیرا 2 میانگین است، یا مقدار آلفا را بر 12 تقسیم می کنم زیرا 12 مقایسه وجود دارد. به طور مشابه برای یک x c در هر سطح از B، من 3 میانگین را (به عنوان b دارای 3 سطح) در هر ترکیب از x c (8 ترکیب) مقایسه میکنم. در اینجا مقدار آلفا را بر 3 یا با ترکیبات x میانگین های مختلف از این رو 24 تقسیم می کنم. به طور مشابه، برای axb در هر سطح از c، 4 میانگین (مجموع 5 مقایسه) را در هر ترکیب یک x b (6 مجموع) مقایسه میکنم. در اینجا مقدار آلفا را بر 5 یا بر ترکیبات x تقسیم میکنم که میانگینهای مختلف از این رو 30 است. آیا مقدار آلفا را بر مجموع تمام ترکیب های بالا تقسیم می کنم؟ با تشکر
|
تصحیح برای مقایسه های متعدد
|
43503
|
من به دنبال مرجعی برای درمان ابتدایی (یا حداقل نسبتاً ساده) توزیع Weibull هستم. من یک دانش آموز دبیرستانی باهوش دارم که پروژه ای را روی آسیاب های بادی انجام می دهد و معلوم شد که سرعت باد از توزیع Weibull پیروی می کند. در حالت ایده آل، من به دنبال اشتقاقی از میانگین و انحراف معیار یک آسیاب بادی هستم. مرجعی که گواه این واقعیت است، اینکه توزیع در واقع یک توزیع است نیز دیدن آن خوب است.
|
درمان ابتدایی توزیع Weibull
|
94996
|
من با تست AB تازه کار هستم و می خواهم این کار را با R (نرم افزار رایگان و یادگیری آسان) انجام دهم. آیا کسی می تواند در مورد کد نمونه در R برای تست AB کمک کند؟ ممنون آریل
|
تست AB با R
|
43501
|
من از هموارسازی نمایی (روش براون) برای پیش بینی استفاده می کنم. پیش بینی را می توان برای یک یا چند مرحله (بازه زمانی) محاسبه کرد. آیا راهی برای محاسبه فواصل اطمینان برای چنین پیش آگهی (قبلی) وجود دارد؟
|
فواصل اطمینان برای هموارسازی نمایی
|
11949
|
در مرحله 1 ما بسیاری از SNP ها را آزمایش می کنیم، در مرحله 2 سعی می کنیم این SNP ها را تأیید کنیم. معمولاً با نمونه کمتر شروع می کنیم، اما پس از آن تشخیص سیگنال دشوار است. مثلاً اگر ما توان خرید 3000 نمونه را داریم، چگونه این 3000 نفر را در دو مرحله تخصیص دهیم؟
|
چگونه می توان اندازه نمونه را برای کسب بیشترین قدرت در تجزیه و تحلیل دو مرحله ای تخصیص داد؟
|
45684
|
پیشاپیش بابت استفاده نادرست از اصطلاحات عذرخواهی می کنم - من سابقه زیادی در آمار ندارم. فرض کنید من رفتار زیر را برای بازده سهام روزانه دارم: وقتی $r_{i+1} > r_i$، سپس $r_{i+2} < r_{i+1}$ با احتمال $>50$%. برعکس، وقتی $r_{i+1} < r_i$، سپس $r_{i+2} > r_{i+1}$ با احتمال $>50$%. آنچه در حال وقوع است را توصیف کنید/این پدیده را تعریف کنید و توضیح دهید که چگونه می توان از دانستن این اطلاعات سود برد. دانش / شهود من در برخورد با سریال های زمانی محدود است، بنابراین هر کمکی بسیار قدردانی می شود!
|
رفتار سری زمانی بر اساس داده های قبلی
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.