_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
88400
فرض کنید من یک مدل ARIMA را در یک سری زمانی به‌روز t قرار داده‌ام. من می خواهم 10 مقدار بعدی را بدون جاسازی مجدد مدل، بلکه با استفاده از آخرین داده های موجود برای هر تاریخ، پیش بینی کنم. بنابراین پیش‌بینی برای (t+1) از مدل برازش شده از 1 تا t و سری زمانی از 1 تا پیش‌بینی t برای (t+2) از مدل برازش شده از 1 تا t و سری زمانی از 1 تا t+1 پیش‌بینی استفاده می‌کند. برای (t+3) از مدل برازش شده از 1 تا t و سری زمانی از 1 تا t+2 استفاده می‌کند... این مانند استفاده از «پیش‌بینی» با افق 5 نیست. می خواهید تمام نقاط داده را قبل از نقطه پیش بینی شده در نظر بگیرید. (به عنوان مثال، یک شوک در t+2، بر پیش‌بینی t+3 تأثیر می‌گذارد، حتی اگر کل مدل را دوباره جاسازی نکنیم) یک راه این است که مدل را با استفاده از داده‌های 1 تا t برازش دهیم و سپس این مدل را اعمال کنیم. به تمام داده ها و مقادیر برازش شده را به عنوان پیش بینی در نظر بگیرید. با این حال این کار نمی کند. حتی برای یک افق 1، این دو روش نتایج متفاوتی تولید می کنند. داده های کتابخانه (پیش بینی)<-c(1,4,3,5,7,8,1,2,6,7,2,3,4,4); mymodel<-Arima(data[1:10], order=c(1,1,1)) # برازش مدل با استفاده از داده‌های 1 تا 10 پیش‌بینی (mymodel, h=1)$mean[1] # پیش‌بینی نقطه 11 [1] 5.263669 fitted(Arima(data[1:11], model = mymodel))[11] # اعمال مدل تخمین زده شده از 1 تا 10 تا داده های 1 تا 11 و با گرفتن مقادیر برازش [1] 5.125379
چرا مقادیر برازش با پیش‌بینی‌های یک گام جلوتر متفاوت است؟
34125
من یک ANOVA اندازه گیری های مکرر را با 2 عامل انجام داده ام: * یک عامل بین فاکتور (کنترل_برابر: مداخله ورزش در مقابل کنترل) * یک عامل درون فاکتور (زمان: قبل / بعد از مداخله). ### سؤالات * آیا ابتدا باید به جدول با عنوان «اثر درون موضوعی» و به طور خاص به کادر با عنوان «زمان*کنترل قبلی» مراجعه کنم؟ * آیا این جدول نشان می دهد که آیا در نتیجه مداخله تغییر معنی داری بین گروه یا درون گروه وجود داشته است یا خیر؟
چگونه یک اثر متقابل را در خروجی SPSS برای یک آنوا اندازه گیری مکرر با عوامل بین گروهی و درون گروهی تفسیر کنیم؟
88407
اگر سری زمانی برای Unit Root تست شود (توسط ADF، PP، KPSS،...) مشکل با برخی از تست ها شناسایی می شود و توسط برخی دیگر پیدا نمی شود. کدام یک ترجیح داده می شود؟ به عنوان مثال اگر ADF به ما بگوید که Unit root وجود دارد و PP بگوید مشکلی نیست، کدام یک از آنها ترجیح داده می شود؟
اگر سری زمانی برای Unit Root توسط ADF، PP، KPSS و... تست شود، کدام یک ترجیح داده می شود؟
77874
با توجه به چگالی مشترک $f_{12}(x_1,x_2)$ دو متغیر تصادفی (وابسته) $X_1$ و $X_2$، که هر کدام در $\mathbb{R}$ تعریف شده‌اند. فرض کنید $f_{12}$ در همه جا در $\mathbb{R}^2$ قابل تمایز است. اکنون رویداد $Y=\{(x_1,x_2) را تعریف کنید: x_2 - x_1 \leq d\}$ برای مقداری $d$ واقعی. > چگالی _شرطی_$f_{12}(x_1,x_2|Y )$ چیست؟ به عبارت دیگر، زمانی که نقاط رویداد به زیرفضای $Y$ از $\mathbb{R}^2$ محدود می‌شوند، به چگالی مشترک نیاز دارم. به طور کلی تر، با توجه به $Y \subsetneq \mathbb{R}^2$، تعریف شده توسط یک یا چند قید جبری (مانند آنچه در بالا داده شد)، آیا الگوریتمی برای محاسبه چگالی مشترک شرطی وجود دارد؟ من نمی دانم تراکم مفصل شرطی اصطلاح درستی است یا خیر. من همچنین قدردان هر مرجعی در این مورد هستم.
محاسبه چگالی مشترک شرطی
77871
من متغیری دارم که ضریب رگرسیون آن 5 با استفاده از OLS است، اما وقتی از رگرسیون چندک استفاده می کنم (با بررسی هر صدک 5، 5، 10، 15، و غیره)، ضریبی پیدا می کنم که از 1/100 تا 1/5 اندازه ضریب OLS. هرگز واقعاً به ضریب OLS نزدیک نمی شود. چه چیزی باعث آن می شود؟ آیا این نشان دهنده مشکلات مربوط به رگرسیون چندکی یا رویکرد OLS است؟ علاوه بر این، من متغیر دیگری دارم که ضریب OLS به طور قابل توجهی مثبت است، اما تقریباً در هر صدک (دوباره، در 5)، ضریب منفی است. چه چیزی می تواند باعث این امر شود؟
تفاوت زیاد بین OLS و ضریب رگرسیون چندکی؟
110611
توجه داشته باشید که این یک مثال ساده است: من چند سری زمانی دارم که با دو بار تفاضل ثابت کردم. سپس «arima» را روی آن اجرا کردم و d = 0 را برای جلوگیری از تفاوت‌های اضافی تنظیم کردم (من می‌دانم که «auto.arima» می‌تواند ترتیب ادغام را تشخیص دهد، اما من خودم به دلایل دیگر این را سخت کدنویسی می‌کنم). اکنون می‌خواهم از داده‌های «برازش» از شی «arima» خود استفاده کنم تا تعیین کنم تناسب _غیر ثابت_ چگونه به نظر می‌رسد. برای مثال: library('forecast') # simulate ARIMA(1,2,0) سری زمانی: rawData <- arima.sim(n = 20, list(order = c(1,2,0), ar = 0.7) ) # از تابع diff برای ثابت کردن سری استفاده کنید: stationaryData <- diff(diff(rawData)) # متناسب با ARIMA روی آنها rawDataFit <- arima(rawData, c(1,2,0)) # include.mean = FALSE به طور پیش‌فرض stationaryDataFit <- arima(stationaryData, c(1,0,0), include.mean = FALSE) # stationaryData قبلاً دو برابر شده است # توجه داشته باشید که واریانس بسیار کمی بین ضرایب AR(1) وجود دارد: coef(rawDataFit) coef(stationaryDataFit) در این خاص به عنوان مثال، ضرایب AR(1) من 0.5511049 و 0.5511048 هستند. من همچنین ARIMA خود را مجبور کردم که یک رهگیری را حذف کند، بنابراین این اشیاء ARIMA مشابه هستند. # نمودار rawData و مقادیر برازش خطوط plot(rawData, type = l) (fitted(rawDataFit), col = slategrey) در اینجا نمونه ای از شکل ظاهری آن نمودار آمده است: ![در اینجا یک مثال از آنچه که نمودار می تواند شبیه](http://i.stack.imgur.com/5R0cM.png) من می خواهم نمودار بالا را دوباره ایجاد کنم، _بدون_ با استفاده از شی rawDataFit # با استفاده از تابع diffinv، من به راحتی می توانم rawData را تکرار کنم: recoveredRawData <- diffinv(stationaryData, differents = 2, xi = rawData[1:2]) # اکنون همچنین می خواهم داده های غیر ثابت را بازیابی کنم شیء AR(1) نصب شده: recoveredFit <- diffinv(fitted(stationaryDataFit) ، تفاوت ها = 2, xi = c(0,0)) # نمودار rawData و مقادیر برازش خطوط نمودار (recoveredRawData, type = l) (recoveredFit, col = slategrey) در اینجا تلاش برای بازآفرینی نمودار بالا با استفاده از نتایج از my stationaryDataFit: ![در اینجا تلاش برای بازآفرینی طرح بالا، با استفاده از نتایج من است. stationaryDataFit](http://i.stack.imgur.com/xZuKH.png) شکل درست به نظر می رسد، اما مقادیر به وضوح خاموش هستند. من انتظار ندارم که دقیقاً نتایج یکسانی را از هر دو روش برازش بدست بیاورم، اما همچنان انتظار دارم که آنها به طور منطقی نزدیک باشند. من به شدت مشکوک هستم که مشکل در انتخاب من از xi در تابع 'diffinv' باشد، زیرا این واقعاً تنها جایی است که من هر گونه فرضی را مطرح می کنم. اما من در حل این موضوع مشکل دارم. برای ادغام داده ها، 'diffinv' به اولین مشاهدات داده های یکپارچه نیاز دارد. بدین ترتیب می توانم stationaryData را با ارسال دو مقدار اول rawData به آرگومان xi 'diffinv' به rawData تبدیل کنم. اما من مطمئن نیستم که از چه چیزی به عنوان مقادیر شروع برای ادغام «fitted(stationaryDataFit)» استفاده کنم. دو مقدار اول rawData (یکپارچه) 0 هستند، بنابراین این چیزی است که من در حال حاضر سعی می کنم ... ایده ای دارید؟ **ویرایش:** آیا این یک راه حل قانونی است؟ پسماندها را از شی stationaryDataFit من بگیرید و فقط آنها را از rawData من کم کنید؟ به عنوان مثال: # پیشوند 2 صفر است، بنابراین طول بردارها یکسان است (به دلیل تفاوت ثانیه): recoveredFit <- rawData - c(rep(0, 2), stationaryDataFit$residuals) نگرانی من این است که آیا نیاز به تبدیل باقیمانده من از stationaryDataFit به نحوی؟ در واقع، پسماندهای هر دو تناسب بسیار نزدیک هستند (در چند اعشار). متشکرم
بازیابی داده های نصب شده یکپارچه از داده های نصب شده ثابت
77879
من می‌خواهم (در R) یک تخمین‌گر متغیر ابزاری (IV) را پیاده‌سازی کنم که عمومی‌ترین شکل را دارد (در اینجا نه 2SLS یا GMM!): $$ \beta_{IV} = (Z'X)^{-1} Z'Y $$ من می توانستم این را به روشی ساده کدنویسی کنم، $Z'X$ را معکوس کنم، و بقیه را محاسبه کنم، اما به یاد دارم که این از نظر محاسبه بسیار ناکارآمد است، و در مورد مشابه OLS $(X'X)^{-1}X'Y$، باید به جای معکوس کردن X'X$ از تجزیه QR استفاده کرد. با این حال، در مورد برآوردگر IV من، حدس می‌زنم QR استاندارد اعمال نخواهد شد، بنابراین مطمئن نیستم که آیا تکنیک/تجزیه مشابهی وجود دارد که بتوان در این مورد استفاده کرد؟ آیا ایده ای در مورد یک تکنیک کارآمد برای محاسبه $(Z'X)^{-1}Z'Y$ بدون معکوس کردن $(Z'X)^{-1}$ دارید؟ با تشکر
برآوردگر چهارم: اجرای کارآمد؟
31602
من در حال کدنویسی یک پرسشنامه در STATA هستم و یک سوال در مورد آموزش پدر با گزینه نمی دانم در پایان وجود دارد. من مطمئن نیستم که چگونه آن را کدنویسی کنم، زیرا نمی خواهم آن را به عنوان متغیر گمشده حساب کنم، زیرا دانش آموزانی که به پرسشنامه پاسخ می دهند ممکن است توسط مادران مجرد و غیره بزرگ شده باشند، و نمی دانم معتبر است. پاسخ دهید نمی‌خواهم آن را نزدیک به بدون آموزش به صورت زیر کدنویسی کنم: recode father_educ2 (3=0 بدون تحصیل)(11=1 نمی‌دانم)(4=2 ابتدایی) /// (5=3 مدرسه_راهنمایی)(6=4 دبیرستان ناتمام)(7=5 فارغ التحصیل_دبیرستان) /// (8=6 بعضی کالج)(9=7 لیسانس)(10=8 مدرک تحصیلات تکمیلی) /// (1 2 12 13=. داده های گمشده)، gen(father_educ) یا باید بعد از فارغ التحصیلی شامل آن می شود؟ هر فکری؟ با تشکر از هر کسی!
کدگذاری نمی دانم در Stata
39182
من نمی دانم آیا کسی می تواند توضیح دهد که تفاوت اصلی بین قابلیت اطمینان امگا و آلفا چیست؟ من می‌دانم که قابلیت اطمینان امگا بر اساس مدل فاکتور سلسله مراتبی است که در تصویر زیر نشان داده شده است، و آلفا از همبستگی‌های متوسط ​​بین آیتم‌ها استفاده می‌کند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QH4Mf.png) چیزی که من متوجه نمی شوم این است که در چه شرایطی ضریب قابلیت اطمینان امگا از ضریب آلفا بیشتر خواهد بود و بالعکس؟ آیا می توانم فرض کنم اگر همبستگی بین عوامل فرعی و متغیرها بیشتر باشد، ضریب امگا نیز بیشتر خواهد بود (همانطور که در تصویر بالا نشان داده شده است)؟ هر توصیه ای قدردانی می شود!
قابلیت اطمینان امگا در مقابل آلفا
87988
من دکتری خود را در ژئومکانیک می گذرانم. من فکر کردم که از توزیع پواسون-ویبول (برای تغییرپذیری یک پارامتر در سنگ) استفاده می کنیم، اما خواندن بیشتر در مورد موضوع فکر می کنم شاید یک فرآیند پواسون-ویبول باشد و من تفاوت را نمی دانم (با عرض پوزش من فقط می گویم. یک مهندس احمق). برای کامل کردن مسئله، من در مورد زبان ریاضیات زیاد آگاه نیستم، بنابراین اگر می توانید یک مثال برای من بیاورید عالی است!
تفاوت بین توزیع و فرآیند (پواسون) کدام است؟
103783
من اطلاعات فروش ماهانه 500 رستوران را برای یک سال دارم. برای همین رستوران ها هم نرخ فرار یا نارضایتی مشتری دارم. من می خواهم یک امتیاز ترکیبی ایجاد کنم که بتواند رستوران ها را بر اساس عملکرد آنها در فروش و رضایت مشتری رتبه بندی کند. چیزی شبیه ارزش طول عمر مشتری است، اما از آنجایی که واحد من مشتری است و سری زمانی آن فقط 12 ماه است، نمی‌پرسم آیا تکنیک مناسبی برای استخراج امتیاز ترکیبی برای رتبه‌بندی رستوران‌ها وجود دارد یا خیر.
ایجاد یک رتبه ترکیبی از رستوران‌ها با برخی از داده‌های از دست رفته
34126
من یک مقاله مروری معروف در مورد هوش دیدم و نویسندگان روشی را برای تنظیم ضریب رگرسیون برای خطای پیش بینی معرفی کردند. همانطور که بسیاری از شما ممکن است بدانید، اگر پیش‌بینی‌کننده خطای اندازه‌گیری داشته باشد یا قابلیت اطمینان آن کمتر از 1 باشد، تخمین ضریب رگرسیون (OLS) به سمت 0. (کمتر از ضریب رگرسیون واقعی) سوگیری می‌کند. اما من در میان مقالاتی که اخیراً منتشر شده اند، چنین روشی را ندیده ام. بنابراین، نمی‌دانم که آیا هنوز روش معتبری برای تنظیم ضریب رگرسیون بایاس از خطای اندازه‌گیری (که از تخمین‌های واریانس عبارت خطا استفاده می‌کند) معتبر است. اگر نه، چرا نیست؟
تنظیم ضریب رگرسیون برای خطای پیش بینی کننده
95468
من باید نیمه عمر یک تبلیغ را با استفاده از فیلتر کالمن در R محاسبه کنم. مقاله تخمین نیمه عمر تبلیغات (Naik, 1999[1]) پایه را ارائه می دهد اما نمی توانم بفهمم که برآورد دقیقا چگونه انجام می شود و از آنجایی که بسیاری از پارامترهایی که به عنوان ورودی فیلترهای کالمن وارد می شوند ناشناخته هستند، من نمی توانم پروژه خود را به جلو برسانم. هر گونه پیشنهادی در مورد اینکه چگونه به جلو برویم؟ [1]: نایک، پ.ا. (1999)، تخمین نیمه عمر تبلیغات، مارکتینگ نامه ها 10:3، 351-362
نحوه محاسبه فرسودگی کپی تبلیغاتی با استفاده از فیلتر کالمن در R
103781
با الهام از این پست در مورد تفاوت بین توضیح و پیش بینی. می‌خواهم بپرسم * آیا از مدل ترکیبی _در ابتدا_ برای دریافت توضیح بهتر استفاده می‌شود (مانند، اما نه محدود به، گرفتن ضرایب بهتر و خطاهای استاندارد، یا توانایی تجزیه‌وتحلیل)، یا اینکه _اولاً برای پیش‌بینی بهتر استفاده می‌شود؟ تصور می‌کنم که پاسخ اولی (توضیح) باشد، و اگر چنین است، * آیا ارزشی به پیش‌بینی اضافه می‌کند؟ (از هر نوع بحثی قدردانی می کنم، اما از دیدن منابع منتشر شده در مورد این موضوع نیز خوشحال می شوم)
مدل مختلط: آیا اساساً برای پیش بینی یا توضیح استفاده می شود یا هر دو؟
41794
من یک آیتم دارم که به آرامی ارزش های رتبه بندی را در یک وب سایت جمع آوری می کنم. این یک آیتم فیلم در یک وب‌سایت است و در ابتدا هیچ رتبه‌بندی ندارد، اما من به آن یک گاوسی قبل از $N(\mu_0, \sigma_0^2)$ اختصاص می‌دهم. شخصی به وب سایت می آید و به آن 4 از 5 می دهد (توجه داشته باشید که من فقط رتبه بندی های مجزا 1، 2، 3، 4 و 5 ستاره دارم) سوال من این است که چگونه می توانم پیشین خود را اکنون به روز کنم و توزیع پسینی برای میانگین دریافت کنم. از ستاره ها سوال دوم من این است که فرض کنید میانه امتیازات را به عنوان امتیاز نهایی در نظر بگیرم که می خواهم برای آن فیلم به مردم نشان دهم چگونه می توانم به روز رسانی خود را انجام دهم؟ تصور می کنم باید یک پیشین گسسته نیز تشکیل دهم. و آخرین سوال من این است که اگر بخواهم به هر رتبه یک وزن اختصاص دهم و میانگین وزنی و میانه را پیدا کنم چگونه می توانم این کار را انجام دهم؟ اینها ممکن است سوالات آسانی باشند اما من در مورد آنها بسیار سردرگم هستم. اگر کتاب یا مقاله‌ای می‌شناسید که ممکن است مشکل مشابهی را مورد بحث قرار داده باشد، ممنون می‌شم اگر بتوانید من را نیز به آن معرفی کنید.
به روز رسانی بیزی برای یک ارزش رتبه بندی گسسته
72314
آیا می توان لطفا مرا به الگوریتم های فرمالیسم و ​​بهینه سازی SVM ارجاع دهد که نه تنها 0/1 بلکه بردار 0/1 را خروجی می دهد، یعنی من می خواهم چندین طبقه بندی کننده را به طور همزمان برای ورودی یکسان آموزش دهم. با تشکر
وکتور SVM با ارزش
31605
من یک مدل با متغیرها (نسبت های مالی) دارم که برخی از آنها به صورت درصدی، برخی در روز و برخی فقط نسبت (منفی و مثبت) هستند. من ANOVA را اجرا کردم و نتایج آنقدرها خوب نبود. وقتی آزمون شاپیرو را اعمال کردم، 24 متغیر از 26 متغیر به طور معمول توزیع نشده بودند. بنابراین من همه متغیرها را تغییر شکل دادم و نتایج دقیقاً همانطور که می‌خواستم پیش رفتند. اما اولاً من نمی دانم که آیا این از نظر ریاضی درست است یا خیر و دوم اینکه چگونه می توانم این تغییر را توجیه کنم.
آیا ثبت متغیرهای تبدیل قبل از اجرای ANOVA از نظر ریاضی قابل توجیه است؟
103786
من مدلی دارم که زمان متغیر پاسخ است. من می خواهم فواصل اطمینان را برای برآوردها ایجاد کنم. من ثابت کرده‌ام که خطا در تخمین تقریباً به طور معمول توزیع شده است (ممکن است کمی بیشتر باشد). میانگین و میانه بسیار متفاوت هستند و میانه با دقت بیشتری وسط داده ها را نشان می دهد. آیا من مجاز به استفاده از میانه برای رابط اطمینان خود هستم و اگر چنین است آیا روش دیگری برای انجام این کار وجود دارد؟ من این سوال را بررسی کرده ام: فاصله اطمینان برای میانه اما مشخص نیست که آیا آنها سعی دارند همان چیزی را که من انجام می دهم انجام دهند. EDIT مدل برای تخمین مقدار زمانی است که یک فرآیند طول می کشد تا تکمیل شود. من یک رگرسیون خطی انجام دادم و مشخص کردم که مدل برازش نسبتا خوبی دارد. سپس به طور مکرر (2000 بار) نمونه‌ای تصادفی از 75 درصد نمونه اصلی گرفتم و مدل را بازسازی کردم. سپس زمان 25% باقی مانده را پیش بینی کردم و خطا را در هر مورد ذخیره کردم. این منجر به حدود 90000 نتیجه شد که تقریباً از یک توزیع نرمال (یا احتمالاً کوچی) پیروی می کند. برای یک فرآیند خاص، زمان واقعی صرف شده 46 ثانیه و زمان پیش بینی شده 1 دقیقه بود. می‌خواهم بتوانم با اطمینان 95 درصد بگویم که تخمین من در 15+- ثانیه دقیق است (مثلا).
فاصله اطمینان با استفاده از میانه
87981
من مجموعه داده ای از مشاهدات مکرر دارم و سعی می کنم تعیین کنم که آیا هر یک از مشاهدات پرت هستند یا خیر. تحقیقاتی که من انجام داده‌ام فقط روش‌هایی را نشان می‌دهد که تعیین می‌کنند آیا یک مقدار (حداکثر، حداقل یا یک مقدار سؤالی) پرت است یا اینکه بالاترین و پایین‌ترین مقدار هر دو پرت هستند. چیزی که می‌خواهم بتوانم نشان دهم این است که آیا چندین مقدار در سراسر مجموعه داده‌ها، همانطور که من گمان می‌کنم، پرت هستند، بدون اینکه دقیقاً بدانم چند عدد پرت وجود دارد. هر کمک یا راهنمایی که بتوانید به من بدهید بسیار قدردانی خواهد شد.
تعیین بیش از یک عدد پرت از یک مجموعه داده
35835
من به داده های جریانی (یعنی مدل آنلاین) نگاه می کنم و به دنبال یک رویداد گسسته خاص هستم. می‌خواهم به‌طور تصادفی زمان را تا زمانی که این اتفاق بیفتد، مدل‌سازی کنم، یا اگر آسان‌تر است، مثلاً، احتمال وقوع آن در 30 ثانیه آینده را مدل‌سازی کنم. یک راه ساده و عملی برای مقابله با این مشکل چیست؟ از چه نوع تکنیکی می توانم استفاده کنم و چگونه می توانم مدل را آموزش دهم و آن را بک تست کنم؟ توجه داشته باشید که آموزش به صورت آفلاین روی داده‌های تاریخی انجام می‌شود، و سپس مدل به صورت آنلاین، روی داده‌های جریانی زنده اعمال می‌شود.
چگونه می توانم زمان یک رویداد را با داده های آنلاین مدل کنم؟
100472
** من lm() را برای یک مجموعه داده اعمال کرده ام. متغیرهای مستقل مقوله ای هستند. ابتدا از lm() با intercept استفاده کردم و نتایج بعدی را دریافت کردم:** > model <- lm(y ~ factor(x)) > summary(model) Call: lm(formula = y ~ factor(x)) Residuals : حداقل 1Q Median 3Q Max -5.3085 -1.8132 -0.4136 1.4323 11.2480 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 9.3085 0.4064 22.907 <2e-16 *** factor(x)0.75 0.1435 0.6896 0.208 0.836 ضریب(x)1.5 0.90251 0.60251 0.6062 factor(x)3 0.9040 0.6989 1.293 0.198 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 2.786 در 126 درجه آزادی چندگانه R-squared: 0.0238، R-squared تنظیم شده: 0.00-0.00 آمار: 1.024 در 3 و 126 DF، p-value: 0.3844 ** در مدل دوم من از intercept استفاده نمی کنم:** > model.1 <- lm(y ~ factor(x) - 1) > summary(model.1) call: lm (فرمول = y ~ ضریب(x) - 1) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -5.3085 -1.8132 -0.4136 1.4323 11.2480 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) factor(x)0.25 9.3085 0.4064 22.91 <2e-16 *** factor(x)0.75 9.4520 0.5572 16.96 <2e-16 *** factor(x)1.5 10.2 10.4 1.5 7 10.1 <2e-16 *** factor(x)3 10.2125 0.5687 17.96 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 2.786 در 126 درجه آزادی چندگانه R-squared: 0.9267، R-squared تنظیم شده: 0.92-0 آمار: 398 در 4 و 126 DF، p-value: < 2.2e-16 اگر من تفاوت بین مقدار R-squared آنها را درک نکنم؟ آیا می توانم دومی را به عنوان مدل مناسب قبول کنم؟ آیا کسی به من کمک می کند تا این مشکل را درک کنم؟
تفسیر تفاوت بین Rlm() با وقفه و بدون آن؟
35839
اگر شاخص های تورم در سه ماهه سوم به 100 بازنشانی می شد، شاخص تورم سه ماهه چهارم برای مواد غذایی چقدر خواهد بود. من هیچ ایده ای برای انجام این کار ندارم. در زیر نمودار آمده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/geO3v.png)
سوال ساده شاخص قیمت
39188
توجه داشته باشید که برخی از توزیع‌ها وجود دارند که می‌توانند از بقیه (پیوسته و همچنین گسسته) مشتق شوند. به عنوان مثال توزیع دانش آموز و کای دو از توزیع نرمال و توزیع دوجمله ای را می توان از توزیع برنولی به دست آورد. البته واژه مشتق شده را به دو صورت می توان فهمید - مشتق مستقیم (مثلاً عادی - دانش آموز) یا با استفاده از حدی (دو جمله ای - سم). آیا نموداری وجود دارد که این نوع روابط را نشان دهد؟ اگر نه، آیا می توان آن را با حداقل شناخته شده ترین توزیع های گسسته و پیوسته ترسیم کرد؟ من گراف با گره‌ها را به‌عنوان توزیع و یال‌های جهت‌دار ترجیح می‌دهم که به این معنی است که یک توزیع را می‌توان از دیگری مشتق کرد (موردهای محدود نیز باید به تصویر کشیده شوند).
روابط بین توزیع ها
39187
هدف من پیاده سازی یک مدل موضوعی برای تعداد زیادی سند (20M یا 30M) است. اجازه دهید فرض کنیم که تعداد موضوعات در 50 ثابت است. من فکر می کنم پیاده سازی یک LDA برای مشکل فوق دشوار نخواهد بود. با این حال، من هنوز پاسخی برای مدل NMF پیدا نکرده ام. من خوانده ام که اجرای یک مدل NMF برای تعداد زیادی اسناد آسان نیست. آیا واقعا نمی توان یک مدل NMF برای مشکل من پیاده سازی کرد؟
مدل سازی موضوع، LDA و NMF
88403
سلب مسئولیت: می‌دانم که این سؤال مربوط به انواع داده‌ها، هدف نهایی و غیره است، اما من فقط می‌خواستم نکاتی سریع در مورد محاسبه عدم شباهت بین انواع مختلف داده‌ها دریافت کنم. این/خوشه‌بندی احتمالاً ناحیه‌ای از ML است که من در آن کمترین راحتی را دارم. فرض کنید من یک مجموعه داده با 3 ویژگی دارم: سن (عدد صحیح)، مکان (لات، طولانی) و #پست (عدد صحیح). یک راه ساده که بتوانم «فاصله» بین دو عضو این مجموعه داده را در کنار ساده‌ترین پیاده‌سازی فاصله اقلیدسی محاسبه کنم (تمام چیزی که در حال حاضر به طور معناداری به آن فکر می‌کنم) چیست؟
محاسبه (عدم) شباهت بین انواع مختلف ویژگی ها
103870
من به تازگی با عبارتی در Good, P. I.: Resampling methods مواجه شدم. Springer، 2001 و فکر کردم که آیا کسی می تواند آن را برای من توضیح دهد. اگر می‌خواهید یک بازه اطمینان 95% برای آن بسازید، فرض کنید میانگین یک توزیع نرمال، آنگاه کران‌ها $\bar{X}\pm 1.96s/\sqrt{n}$ هستند که $\hat X$ برابر است. میانگین نمونه و $s$ انحراف استاندارد نمونه است. بنابراین بدیهی است که اگر می خواهید اندازه فاصله اطمینان خود را نصف کنید، باید حجم نمونه را در 4 ضرب کنید (یعنی به جای 100، 400 نمونه بگیرید). بنابراین عرض CI با $n^{-\frac{1}{2}}$ متناسب است. CI با این ویژگی دقیقاً مرتبه اول نامیده می شود (حدس می زنم اکثر شما این را می دانید، من فقط آن را تکرار می کنم زیرا من این کار را نکردم) حالا چیزی که Good می گوید این است که بازه های $BC_\alpha$ دقیقا مرتبه دوم هستند، این همان آنهاست. عرض برای نمونه های بزرگ با $n^{-1}$ متناسب است. چرا اینطور است؟
چرا فواصل اطمینان بوت استرپ BCa مرتبه دوم دقیق هستند؟
88406
من در تفسیر معیارهای اهمیت متغیر _RandomForest_ R در هنگام استفاده از چندین متغیر ساختگی چندتایی مشکل دارم. مثال زیر را در نظر بگیرید: من داده های کشور را جفت کرده ام، به عنوان مثال. نماینده دو طرف مختلف در درگیری (مهاجم و مدافع)، که هر یک از طرفین نماینده یکی از 100+ (* _n_**) کشور است. با توجه به محدودیت 32 سطح _RandomForest_ در متغیرهای طبقه بندی شده، گزینه دیگری جز تبدیل فیلدهای مربوطه به **_n-1_** متغیرهای ساختگی ندارم. اهمیت متغیر بر این اساس بر اساس سطح تقسیم می شود - مهاجم بودن کشور X ممکن است مهمتر از مدافع بودن کشور Y باشد، به دنبال آن مهاجم کشور Z و غیره باشد. برای زمینه‌های موردی و دیگر ویژگی‌های چندتومی مورد علاقه، dummies اضافه کنید، و ترکیبی شاد از سطوح متغیر با اهمیت متفاوت را دریافت خواهید کرد. با این حال، من می خواهم اهمیت متغیر را در سطح متغیر اصلی ارزیابی کنم، به عنوان مثال، می خواهم بدانم که آیا (به عنوان مثال) کشور مبدا مهاجم - به طور کلی - کم و بیش برای نتیجه مهم است (برنده شدن). /باخت، تعداد برد/باخت، و غیره) نسبت به دلایل مورد. هر گونه پیشنهادی در مورد اینکه چگونه بهتر است در مورد آن اقدام کنم؟ آیا می‌توان «IncNodePurity» (برای پاسخ‌های مداوم) و «MeanDecreaseGini» (برای طبقه‌بندی‌ها) را به‌طور معنی‌داری خلاصه کرد، به عنوان مثال. با محاسبه ابزار آنها؟ همانطور که من این توضیح را می نویسم، مایلم شرط ببندم که آنها می توانند، اگرچه هنوز در مورد تأثیر فقط ارزیابی **_n-1_** ساختگی ها تردید دارم... هر نشریه دانشگاهی که گزینه های ترجیحی را برای انجام کاری که من دنبال آن هستم پیشنهاد می کند. ? با تشکر فراوان
تفسیر اهمیت متغیر RandomForest در مورد متغیرهای ساختگی چندتایی
100478
**سوال اصلاح شده برای توضیح بهتر زمینه مشکلم:** در حال مطالعه ستاره های جوان هستم. وقتی ستاره ای متولد می شود، دور آن را قرصی از غبار به نام دیسک پیش سیاره ای احاطه کرده است. سیارات در این دیسک ها شکل می گیرند، بنابراین درک چگونگی تکامل آنها اطلاعاتی در مورد شکل گیری سیاره می دهد. نظریه ها و مشاهدات کنونی نشان می دهد که هر ستاره ای با یکی از این قرص ها متولد می شود. با این حال، فرآیندهای مختلف باعث می شود این دیسک ها در حدود 10 میلیون سال از بین بروند. روش معمول برای مطالعه این موضوع مطالعه کسری از ستارگان با قرص های پیش سیاره ای در سنین مختلف است تا نحوه پراکندگی آن را ببینید. مطالعات گذشته «اشاره‌هایی» از ستارگان پرجرم پیدا کرده‌اند که دیسک‌های خود را زودتر از ستارگان کم‌جرم از دست می‌دهند، و بنابراین ممکن است منظومه‌های سیاره‌ای متفاوتی تشکیل دهند. هدف من تعیین صحت این وابستگی با جرم ستاره ای است. برای مطالعه این دیسک ها، به شار اندازه گیری شده در طول موج های فروسرخ نگاه می کنیم. وقتی نوع ستاره را می دانید (مثلاً دمای آن را می دانید)، می توانید یک مدل ستاره ای اعمال کنید. اگر شاری که اندازه گیری می کنید به میزان قابل توجهی بالاتر از مدل ستاره ای (ستاره ای برهنه) است (به نوعی تعریف شده است)، این می تواند به این معنی باشد که شما شار مادون قرمز اضافی منتشر شده توسط دیسک پیش سیاره ای دارید. همچنین، اگر می‌خواهید جرم‌های مختلف را با هم مقایسه کنید، به تخمین سنی برای ستاره و تخمین دیگری برای جرم ستاره‌ای نیاز دارید. بنابراین، چندین منبع عدم قطعیت وجود دارد: * خطاهای اندازه گیری مادون قرمز * خطاهای ناشی از دمای تخمینی ستاره * خطاهای ناشی از تخمین سن * خطاهای ناشی از تخمین جرم. منشا و رفتار این عدم قطعیت ها بسیار پیچیده است و معمولاً در محاسبات لحاظ نمی شود. من نمونه بزرگی از ستارگان جوان ساخته‌ام و می‌خواهم ببینم چه شواهدی دال بر تأثیر جرم ستاره‌ای بر تکامل/پراکندگی دیسک‌های پیش سیاره‌ای وجود دارد. برای انجام این کار، من نمونه را در دو سطل جرم و سن تقسیم کردم (برش ها دارای معنای فیزیکی هستند). در نتیجه من چهار سطل دارم: جوان کم توده، جوان بالا توده، پیر جوان توده، پیر کم توده. محاسبه درصد دیسک‌های پیش سیاره‌ای برای هر یک از این سطل‌ها ساده است، اما این کافی نیست که تأثیر جرم را ثابت یا کنار بگذارد. از سوی دیگر، تخصیص خطاها به آن % با انتشار خطا بسیار پیچیده است. معمولاً خطاهای پواسون ساده را فرض می کنیم، اما این درست نیست زیرا این عدم قطعیت ها را در نظر نمی گیرد. به همین دلیل است که فکر کردم می توانم از بوت استرپینگ استفاده کنم و این مقادیر را در بازه های معقول در طول تکرارها تغییر دهم تا آنها را در نظر بگیرم. در نتیجه این فرآیند، فهرستی از مقادیر % برای هر سطل را به دست می‌آورم و بنابراین می‌توانم مقادیر آماری را از آنها دریافت کنم (میانگین، انحراف استاندارد، ...). آنها همچنین پی دی اف های متناظر را ارائه و برآورد می کنند. _می‌خواهم بدانم چگونه شواهد آماری این سطل‌ها را که دارای بخش‌های مختلف قرص پیش سیاره‌ای هستند، کمّی کنم، که به شواهدی مبنی بر تأثیر جرم ستاره‌ای بر تکامل آنها تبدیل می‌شود. این نمونه‌ای از نتیجه است. نمونه 1 ستاره های جوان و کم جرم است. نمونه 2 ستاره های جوان و پر جرم است. و میانگین و انحراف معیار آنها عبارتند از: sample1: 61 +- 2 sample2: 47 +- 5 همچنین، اینها پی دی اف های به دست آمده هستند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mMnIx.png)
نحوه بدست آوردن شواهد آماری از تکامل مشابه/متفاوت از PDF
103873
من داده های سالانه ای دارم که به نظر می رسد تابع چگالی دو وجهی است. توضیح من این است که بین سالهای مرطوب و خشک تفاوت وجود دارد. برای کارم می‌خواهم از یک مدل ar(1) برای این کار استفاده کنم. وقتی من از یک مدل ar(1) برازش شده با نوآوری‌های توزیع شده معمولی شبیه‌سازی می‌کنم، البته داده‌های توزیع شده عادی را دریافت می‌کنم. از آنجایی که نتایج شبیه‌سازی متفاوت از داده‌های تاریخی به نظر می‌رسد، این رضایت‌بخش نیست. هنگامی که من نوآوری های خود را فقط با نمونه برداری از باقیمانده ها ایجاد می کنم که تابع چگالی دووجهی را نیز نشان می دهند، نتایج بهتری در مورد تابع چگالی دریافت می کنم. با انجام این کار، نوآوری های من هنوز هم نویز سفید است. اما دیگر نویز سفید گاوسی نیست. این رویکرد «نمونه‌گیری مجدد مبتنی بر مدل» نامیده می‌شود و (من حدس می‌زنم) توسط فریدمن (1984) معرفی شد. این رویکرد دارای معایبی است، اما برای من به نظر می رسد که یک بهبود است. اما مطمئن نیستم که هنوز بتوانم از MLE (استاندارد) برای تخمین پارامتر(های) ar در رویکرد نمونه گیری مجدد مبتنی بر مدل استفاده کنم. یا اگر ممکن است به جای آن از حداقل مربعات استفاده کنم. من تصور می کنم که حداقل مربعات بهتر است زیرا هیچ فرض گاوسی وجود ندارد. من واقعاً به دنبال انتشاراتی برای این کار بودم، اما چند موردی که پیدا کردم بسیار دشوار است. من در مورد برازش توزیع‌ها و مدل‌سازی معادلات ساختاری چیزهای زیادی پیدا کردم و می‌گفتم که انحرافات کوچک از نرمال تا زمانی که نقاط پرت شدید وجود نداشته باشد برای MLE مشکلی ایجاد نمی‌کند. اما حدس می‌زنم سری‌های زمانی ممکن است یکسان نباشند. می توانید به من کمک کنید؟
ویژگی‌های روش‌های MLE و حداقل مربعات برای تخمین پارامترهای مدل‌های ar(ma).
10657
در رابطه با استخراج استفاده از وب از یک فایل گزارش، آیا می‌توانید داده‌ها را بدون انجام شناسایی کاربر و/یا Session خوشه‌بندی کنید؟ منظورم این است که فرض کنیم این ورودی‌ها را دارم: > 123.234.324.122 [timestamp] GET /cars/sport/porsche.jpg 200 23432 > http://topgear.com/cars Mozilladsfsd > > 120.23.324 [مهر زمان] GET /bikes/sport/r1.jpg 200 23432 > http://topgear.com/cars Mozilladsfsd > > 13.234.324.122 [timestamp] GET /cars/utility/micra.jpg 200 > 23432http ://topgear.com/cars Mozilladsfsd بنابراین، در این در این سناریو، من فقط باید دسته بندی کنم که کدام خودروها بیشتر دیده شده اند و غیره. آیا پس از آن به شناسایی کاربر و شناسایی جلسه نیاز دارم؟ یا می توانم فقط URL ها را در نظر بگیرم و روی آنها دسته بندی کنم؟ زیرا تا آنجا که روش سنتی کاوی استفاده از وب پیش می رود و تمام مقالاتی که من مرور کرده ام نشان می دهد، شما پیش پردازش را انجام می دهید، سپس کشف الگو از راه می رسد. سوال من این است که چرا بلافاصله به سراغ کشف الگو نمی رویم؟ ??
آیا می توان بدون انجام شناسایی کاربر یا جلسه، داده های ثبت وب را خوشه بندی کرد؟
103782
با توجه به طبقه‌بندی‌کننده (SVM) که در 2 «کلاس» (+1 یا -1) برای اهداف پیش‌بینی طبقه‌بندی می‌شود. دارای امتیاز AUC 0.28 است، به این معنی که میزان موفقیت آن کمتر از پیش‌بینی‌های تصادفی است. اگر من فقط برعکس عمل کنم (یعنی طبقه‌بندی‌کننده می‌گوید 1- می‌شود، بنابراین به جای آن 1+ را فرض می‌کنم)، آیا این بدان معناست که میزان موفقیت من در پیش‌بینی حدود 72٪ خواهد بود (1-0.28) ? این به نظر من خیلی منطقی نیست. لطفاً برای من توضیح دهید که چگونه باید این را به جای آن تفسیر کنم و چرا نمی‌توانم برخلاف پیش‌بینی‌های طبقه‌بندی‌کننده عمل کنم تا میزان موفقیت بالاتری داشته باشم.
تفسیر معکوس AUC
110617
به من دو مجموعه داده نمونه تصادفی با حجم نمونه n=20 داده شده است که مجموعه داده اول وزن پسران تصادفی را نشان می دهد و گروه دوم وزن دختران تصادفی را نشان می دهد. من باید سطح معناداری را پیدا کنم که بگویم پسرها به طور متوسط ​​وزن بیشتری نسبت به دختران دارند. برای حل این مشکل فرض می‌کنم که فرضیه صفر که بگوییم وزن پسران با دختران یکسان است (بدون تفاوت) درست است و توزیع نمونه‌ای از **تفاوت** وزن بین پسران و دختران با اختلاف میانگین 0 (از آنجایی که من فرض می کنم که به طور کلی تفاوتی وجود ندارد). من انحراف معیار را برای این توزیع نمونه‌گیری محاسبه کرده‌ام و **تفاوت** میانگین وزن دو مجموعه داده **نمونه** را می‌دانم (که ظاهراً بخشی از این توزیع نمونه‌گیری است). حال اگر اختلاف میانگین های نمونه را بر انحراف معیار این توزیع نمونه گیری تقسیم کنم چه مقداری به دست می آید؟ آیا این یک مقدار t است؟ چگونه سطح اهمیت را از آن بیابم؟
سطح معناداری فرضیه را بیابید
53045
G. Monette و J. Fox در این اسلایدها چارچوبی را برای آزمون‌های نوع دوم تحلیل واریانس/انحراف بر حسب فرضیه شرطی ارائه می‌کنند. سؤالات من این است: * در این رویکرد مکرر گرا، فرضیه شرطی $L_1\beta=0 \mid L_2\beta=0$ فقط نمادین است (اینطور نیست؟). آیا مشابه بیزی برای این رویکرد مانند استنتاج $L_1 \beta$ تحت توزیع پسین $\beta$ به صورت مشروط به $L_2 \beta =0$ وجود دارد؟ * Monette & Fox به طور دقیق فرضیه شرطی را به عنوان یک فرضیه کلاسیک $L_{1\mid 2}\beta =0$ برای یک ماتریس خاص $L_{1\mid 2}$ تعریف می کنند، اما این ماتریس به ماتریس کوواریانس مجانبی تخمینی بستگی دارد. پارامترهای $\beta$. عجیب به نظر می رسد. آیا واقعاً به ماتریس کوواریانس مجانبی واقعی بستگی دارد و سپس $L_{1\mid 2}$ فقط تخمینی از یک ماتریس نظری است؟ حتی برای کوواریانس مجانبی واقعی که عجیب به نظر می رسد زیرا هنوز به انتخاب روش تخمین بستگی دارد. در واقع من قبلاً مفهوم فرضیه شرطی را ندیده بودم، آیا در برخی از کتاب های درسی ارائه شده است؟ ## به‌روزرسانی1 امروز هنوز بیمار هستم، اما در اینجا چند فکر وجود دارد. یک مدل خطی کلاسیک $y = X\beta+\sigma\epsilon$ و جفریزهای قبلی را در نظر بگیرید. سپس توزیع پسین $(\beta \mid \sigma)$ ${\cal N}(\hat\beta, V)$ است که $V$ ماتریس کوواریانس مجانبی برآوردگر حداقل مربعات $\hat\ است. beta$، یا (یادم نیست)، $V$ این ماتریس تا ضریب نزدیک به $1 است. سپس به راحتی می توان دریافت که $(L_1 \beta \mid L_2\beta=0)$ دارای توزیع $L_{1 \mid 2} \beta$ تحت توزیع شرطی پسین $(\beta \mid \sigma) است. $، که $L_{1 \mid 2}$ یک مکمل متعامد $V$ است که در اسلایدهای Monette & Fox تعریف شده است. و آمار Wald $Z_{1|2}$ باید به هنجار $L_{1 \mid 2} \beta$ مربوط باشد. برای مدل‌های کلی‌تر، رویکرد باید به طور مجانبی با رویکرد بیزی منطبق باشد، زمانی که $\hat\beta$ به عنوان برآورد حداکثر احتمال در نظر گرفته می‌شود. خیلی مریض برای ادامه دادن... ## به روز رسانی2 من واقعا نمی دانم که آیا این یک رویکرد قدیمی است یا اخیر. همانطور که در پاسخ من به خودم در اینجا نشان داده شده است، این روشی نیست که توسط SAS استفاده می شود. اما تابع قدیمی `anova()` R از این رویکرد استفاده می کند. در واقع، برای یک مدل حداقل مربعات تعمیم یافته مانند glsfit <- gls(value ~ group*variable, data=ldat, correlation=corSymm(form=~ 1 | id)، weights=varIdent(form =~1 | متغیر)) فرضیه نوع دوم آمار آزمون والد اف فاکتور متغیر توسط: > anova(glsfit) Denom ارائه می شود. DF: 45 numDF F-value p-value (Intercept) 1 1401.9971 <.0001 گروه 4 2.3793 0.0658 متغییر 2 79.5687 <.0001 گروه:متغیر 8 1.4759 0.192 (و ضریب مبادله یک به 0.192 عوامل: glsfit.reverse <- به روز رسانی(glsfit، مدل = مقدار ~ متغیر*گروه) anova(glsfit.reverse) ) یا این یک توجیه نظری جدید از یک رویکرد قدیمی است؟..
فرضیه های شرطی مونت و فاکس
100476
من می خواهم از VIF برای بررسی چند خطی بودن بین برخی از متغیرهای ترتیبی و متغیرهای پیوسته استفاده کنم. وقتی یک متغیر را وابسته و دیگری را مستقل قرار می دهم، رگرسیون یک مقدار VIF می دهد و وقتی این دو را مبادله می کنم، آنگاه VIF متفاوت است. و یک بار مقدار VIF بیشتر از 3 و بار دیگر کمتر از 3 است. سپس چگونه تصمیم بگیرم که متغیر را حفظ کنم یا نه و کدام را باید نگه دارم؟ در نهایت من قصد دارم از این متغیرها در یک رگرسیون لجستیک استفاده کنم، چقدر مهم است که چند خطی بودن در رگرسیون لجستیک را ببینیم؟ ممنون آرونا
محاسبه VIF در رگرسیون
103879
من می خواهم اهمیت یک متغیر خاص را در میان بسیاری از عوامل مخدوش کننده تعیین کنم. اگر مدلی را در مجموعه آموزشی قرار دادم و مقدار p کوچکی را مشاهده کردم، آیا باید مدل را کنار بگذارم زیرا در مجموعه آزمایشی برون یابی ضعیفی دارد (مقدار R^2$ منفی)، یا باید آن را نگه دارم زیرا علاقه ای به آن نداشتم. به هر حال در پیش بینی ها؟
آیا اگر رگرسیون عملکرد ضعیفی داشته باشد، معنی دار است؟
87986
اجازه دهید $x[n]$ یک سری زمانی در 1D یا $x[m,n]$ در 2D، به طول $N$ (مثلا $N^2$) باشد. حداقل به معنای ضعیف. من می توانم بررسی کنم که آیا _stdev_ ثابت می ماند یا خیر، اما این فقط یک شرط ضروری است.
بررسی اینکه آیا یک نمونه مشخص ثابت است یا خیر
7475
من سعی می کنم یک رگرسیون لجستیک چندگانه برای 2 گروه مشابه انجام دهم. چند سوال دارم: 1. آیا در انجام تحلیل تک متغیره، قبل از اینکه به تحلیل چند متغیره بپردازم، هر متغیر مستقل را یکی یکی، ابتدا وارد رگرسیون باینری می کنم؟ یا مقادیر معناداری از مجذور کای یا t-test برای ادامه کار کافی است؟ 2. من یک گروه آزمایش و یک گروه کنترل دارم و می خواهم تأثیر متغیرهای مستقل (مانند وضعیت HIV، وزن مادر و غیره) را بر روی یک متغیر وابسته خاص (وزن کم هنگام تولد) تعیین کنم. آیا باید رگرسیون را روی یک مجموعه داده با هر دو حالت تست و کنترل انجام دهم یا باید فایل را تقسیم کنم؟ در این مورد، من می‌خواهم تأثیر HIV را بر وزن هنگام تولد ببینم و به سختی می‌توانم بدانم چگونه ادامه دهم.
وارد کردن متغیرها در رگرسیون لجستیک چند متغیره و اجرای رگرسیون در دو گروه
100788
من یک مشکل طبقه بندی با دو کلاس دارم که روی داده های اسمی کار می کنند. من می خواهم از SMOTE-N برای مقابله با داده های نامتعادل استفاده کنم. با این حال، برای من روشن نیست که چگونه از SMOTE-N برای تولید N داده مصنوعی برای هر بردار ویژگی در کلاس اقلیت استفاده کنم. SMOTE-N از یک نسخه اصلاح شده از متریک تفاوت مقدار (VDM) برای یافتن k-نزدیک ترین همسایگان برای هر بردار ویژگی در کلاس اقلیت استفاده می کند و سپس بردار ویژگی کلاس اقلیت جدید با ایجاد مقادیر ویژگی مجموعه جدید با گرفتن اکثریت تولید می شود. رای بردار ویژگی در نظر گرفته شده و k نزدیکترین همسایه آن (k-nn). اما، چگونه این فرآیند برای تولید چندین بردار ویژگی مصنوعی برای هر بردار ویژگی در کلاس اقلیت تکرار می شود؟ نحوه بیان الگوریتم، به نظر می رسد که یک بردار ویژگی از کلاس اقلیت می تواند تنها یک بردار ویژگی مصنوعی (با استفاده از K-nn خود) ایجاد کند؟
چگونه داده های نامتعادل را با استفاده از SMOTE-N (داده های اسمی) برای تولید چندین داده مصنوعی مدیریت کنیم؟
19664
در یک مدل رگرسیون خطی پیش بینی، آیا ترکیب داده های دودویی و پیوسته در یک مقیاس منطقی است؟ آیا تبدیل داده های باینری به نمره z منطقی است؟ من نمی دانم که آیا می توانم مقیاسی را با استفاده از ترکیبی از موارد دودویی و پیوسته ایجاد کنم که بتوانم آن را به نمره Z تبدیل کنم.
ترکیب اقلام ساختگی و پیوسته در یک مقیاس
100784
در زمینه تخمین REML نتیجه (با نادیده گرفتن برخی از ثابت ها) این است که (علاقه من به جبر ماتریس است بنابراین برخی از نمادها سرکوب می شود): $l(\mathbf V_0)=\log |\mathbf V_0| + \text{tr}(\mathbf V_0^{-1}\mathbf S) \tag{1}$ جایی که $\mathbf V_0$ و $\mathbf S$ متقارن و معکوس هستند. به من گفته شده است که عبارت زیر را می توان از (1) با تمایز با پارامتر $\sigma_i$ از $\mathbf V_0$ بدست آورد: $\text{tr}\left[\mathbf V_0 \frac{\partial \ mathbf V_0^{-1}}{\partial \sigma_i}\right]-\text{tr}\left[\frac{\partial \mathbf V_0^{-1}}{\partial \sigma_i}(\mathbf V_0 - \mathbf S)\right] \tag{2}$ من سعی می‌کنم ببینم چه مراحلی به این نتیجه رسیده است، اما گیر کردم. اکنون مشخصاً دستگاهی برای مقابله با این چیزها کم دارم، اما نمی دانم کجا باید جستجو کنم. مسئله این است که مثلاً هر دو عبارت در (1) اسکالر هستند، و ما w.r.t یک اسکالر را متمایز می‌کنیم، بنابراین به نظر می‌رسد که پاسخ باید اسکالر باشد. اما کار من در نهایت ارزش ماتریسی دارد. به عنوان مثال $ \ frac \ partial \ log | \ mathbf v_0 |} {\ partial \ sigma_i} = \ mathbf v_0^{-1} \ frac {\ partial \ mathbf {\ partial \ partial \ sigma_i} $ trace درگیر می شود. همه را در یک اسکالر جمع می کنم، اما نمی دانم چگونه و چرا!
تخمین REML - ماتریس جبر داخلی
87985
برای رگرسیون خطی تک متغیره می‌توانم پارامترها (و بیشتر هر چیز دیگری) را از مجموع مربع‌های ساده محاسبه کنم. آیا روش مناسبی برای رگرسیون لجستیک وجود دارد؟ هر اشاره‌ای به کد (به هر زبانی) مفید خواهد بود. (بله حل کننده های زیادی وجود دارد، اما من می خواهم به عنوان یک الگوریتم Map-Reduce ساده پیاده سازی کنم، همانطور که برای رگرسیون خطی تک متغیره دارم)
اجرای رگرسیون لجستیک تک متغیره
86057
در اینجا پیوندی به یک سوال خوب در مورد کتاب های درسی در مورد آمار بیزی مربوط به چند وقت پیش آمده است. مردم کتاب «انجام تجزیه و تحلیل داده های بیزی: مقدمه آموزشی با R و BUGS» جان کروشکه را به عنوان یکی از بهترین گزینه ها برای آشنایی با آمار بیزی پیشنهاد کردند. در همین حال، یک کتاب بالقوه جالب به نام «روش‌های رگرسیون بیزی و مکرر» توسط Jon Wakefield منتشر شد که کد R و BUGS را نیز ارائه می‌کند. بنابراین، به نظر می رسد که اساساً هر دو موضوعات یکسانی را پوشش می دهند. سوال 1: اگر کتاب را خوانده اید، آیا آن را به یک فارغ التحصیل کارشناسی ارشد اقتصاد متداول به عنوان مقدمه ای بر آمار بیزی و کتاب مرجع برای هر دو رویکرد متداول و بیزی توصیه می کنید؟ سوال 2: اگر هم کتاب ویکفیلد و هم کتاب کروشکه را خوانده باشید، کدام را بهتر پیشنهاد می کنید؟
روش های رگرسیون بیزی و مکرر نوشته جان ویکفیلد، کتاب درسی مقدماتی بیزی خوبی برای فارغ التحصیلان اقتصاد مکررگرا؟
86056
من داده های یک متغیر تصادفی پیوسته را در محدوده [-1،1] دارم، که گاهی در حول و حوش 0 متمرکز می شود، در حالی که زمان های دیگر به سمت 1- و 1 متمرکز می شود، در حالی که صفر نسبتاً کم جمعیت است. از چه معیاری می توانم برای هر دو مورد استفاده کنم تا واگرایی از توزیع یکنواخت را اندازه گیری کنم؟ به عبارت دیگر: من به دنبال معیاری هستم که نشان دهد داده ها چقدر به طور یکنواخت در محدوده قرار دارند، اما به نظر نمی رسد معیارهای پراکندگی استاندارد (مانند واریانس) کارساز باشند، زیرا آنها به دنبال توزیع هایی هستند که در آنها دنباله ها بالاتر از ' هستند. اوج، به عنوان مثال، زمانی که منطقه اطراف صفر نسبتا کم جمعیت است.
واگرایی از توزیع یکنواخت (مستمر): اندازه گیری پراکندگی؟
100783
من سعی می کنم یک الگوریتم ساده ساده بیز یا SVM (libSVM) را روی یک مجموعه داده بزرگ، که به عنوان یک فایل .arff ساخته ام، اعمال کنم. تعداد ویژگی های مجموعه من ~180k است و ~6k نمونه وجود دارد. همچنین 8 کلاس طبقه بندی وجود دارد. حجم داده ها ~ 3.2 گیگابایت است. من با API جاوا و Eclipse از Weka کار می کنم، حافظه JVM را به حداکثر افزایش می دهم، اما همیشه یک خطای heap space دریافت می کنم. من در مک بوک پرو، 2.3 گیگاهرتز اینتل Core i5، 4 گیگابایت 1333 مگاهرتز DDR3 هستم. آیا باید دستگاه دیگری را برای کار با آن پیدا کنم یا ممکن است به صورت برنامه‌ریزی نشت حافظه داشته باشم؟
مصرف حافظه در وظایف NLP
4138
با توجه به توزیع نرمال چند متغیره $n$-بعدی $X=(x_i) \sim \mathcal{N}(\mu, \Sigma)$ با میانگین $\mu$ و ماتریس کوواریانس $\Sigma$، احتمال چقدر است که $\forall j\in {1,\ldots,n}:x_1 \geq x_j$؟
احتمال اینکه متغیر تصادفی $x_1$ حداکثر بردار تصادفی $X=(x_i)$ از یک توزیع نرمال چند متغیره باشد چقدر است؟
87982
طبق کتابچه راهنمای WinBUGS، توزیع گاما به صورت زیر تعریف می شود: «dgamma(r,mu)» با این حال، «r» چیست؟ آیا این پارامتر شکل، مقیاس یا نرخ است؟ من با آمار کاملاً تازه کار هستم و گوگل واقعاً کمکی نکرد. بالاتر از آن در اکثر توضیحاتی که من دریافتم «r» معمولاً ذکر نشده است. این یا k، «تتا»، «بتا» یا «آلفا» است.
پارامترهای توزیع گاما WinBUGS/OpenBUGS
95466
من در حال کار روی یک سوال خودآموز هستم که در آن > یک مطالعه نشان می دهد که یک زن معمولی آمریکایی سالانه 340 دلار > برای محصولات مراقبت شخصی هزینه می کند. توزیع مقدار از توزیع راست-> اریب با انحراف استاندارد 80 دلار در سال پیروی می کند. اگر یک نمونه > تصادفی متشکل از 100 زن انتخاب شود، احتمال اینکه میانگین > نمونه این نمونه بین 320 تا 350 دلار باشد چقدر است؟ من دو تلاش برای پاسخ به این سوال کردم: یکی با استفاده از توزیع نرمال و دیگری با استفاده از CLT. با این حال، هیچ یک از این رویکردها به من در رسیدن به پاسخ هدف 0.8882 کمک نکرده است. **_My Normal Distribution Approach_** > ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/umt1i.jpg) **_My CLT Approach_** > ![شرح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/Ap99x.jpg) لطفاً از برخی راهنمایی ها و توصیه ها قدردانی کنید
سوال CLT توزیع عادی
86058
من یک مجموعه $\{Y_t\}$ از مشاهدات دارم که از دو زیر مجموعه $\{Y_{t,1}\}$ و $\{Y_{t,2}\} \subset \{Y_t\}$ تشکیل شده است. با $\{Y_{t,1}\} \sim \mathcal{N}(\mu_1,\sigma^2)$ و $\{Y_{t,2}\} \sim \mathcal{N}(\mu_2,\sigma^2)$ یعنی _معنای متفاوت اما واریانس یکسان_ (ناشی از یک مدل تغییر رژیم). من ابزار را می‌دانم و می‌خواهم یک نمونه از $\sigma^2$ را در مرحله‌ای از تخمین MCMC ترسیم کنم. در مورد $\mu_1 = \mu_2$ من از مزدوج قبل از توزیع گامای معکوس استفاده می کردم (به [1]، نرمال با میانگین شناخته شده مراجعه کنید). آیا می توانم از مزدوج قبل در مورد $\mu_1 \neq \mu_2$ نیز استفاده کنم؟ به عنوان مثال با تنظیم $\beta = \beta_0 + \frac{1}{2}\sum_{i=0}^n(Y_i - \mu_{I_i})^2 $ ($I_i$ شاخص های صحیح مطابق با مشاهدات)؟ یا باید از Metropolis-Hastings برای دریافت نمونه $\sigma^2$ استفاده کنم؟ بهترین، مت [1] http://en.wikipedia.org/wiki/Conjugate_prior#Continuous_distributions
آیا می توانم از یک مزدوج قبل برای نمونه هایی از دو توزیع نرمال با واریانس یکسان اما میانگین متفاوت استفاده کنم؟
87984
من سعی می کنم داده ها را خوشه بندی کنم. هر نقطه در این مجموعه داده به چند نقطه دیگر متصل است. من می خواهم خوشه ها را بسته به میزان اتصال نقاط به یکدیگر تعریف کنم. پس از کمی تحقیق، در مورد خوشه‌بندی k-core مطالعه کردم (و دیدم که برای مثال در شبکه‌های اجتماعی کاربرد دارد). فکر می‌کنم این الگوریتمی است که می‌خواهم اعمال کنم، اما، طبق آنچه پیدا کردم، فقط می‌توان از آن برای «تجسم» یک شبکه استفاده کرد. آیا با این روش امکان خوشه بندی داده ها وجود ندارد؟
الگوریتم خوشه بندی k-core
86059
من یک طبقه‌بندی کننده با 13 ویژگی (بدون ویژگی‌های باینری) ساختم و با استفاده از ابزار scikit (Normalizer(). وقتی من پیش‌بینی می‌کنم، همه مجموعه‌های آموزشی را مثبت و همه مجموعه‌های تست را منفی پیش‌بینی می‌کند (بدون توجه به مثبت یا منفی بودن) روی چه ناهنجاری‌هایی باید در طبقه‌بندی، ویژگی یا داده‌هایم تمرکز کنم؟ نکات: 1) مجموعه های تست و تمرین (به صورت جداگانه برای هر نمونه) را به طور جداگانه نرمال می کنم. 2) من اعتبارسنجی متقاطع را امتحان کردم اما عملکرد یکسان است 3) من از هر دو هسته خطی SVM و RBF استفاده کردم. 4) بدون عادی سازی نیز امتحان کردم. اما همان نتایج ضعیف 5) تعداد یکسانی مجموعه داده های مثبت و منفی (هر کدام 400) و 34 نمونه از مجموعه تست های مثبت و 1000+ نمونه از مجموعه های تست منفی دارم.
مشکل با نتایج پیش‌بینی طبقه‌بندی‌کننده
19661
من یک شغل دانشجویی در بخش مدیریت یک فروشگاه زنجیره ای متشکل از 50 فروشگاه مواد غذایی پیدا کرده ام. این کار شامل جمع آوری آمار روزانه از اقتصاد فروشگاه ها است. هر روز **آمار درآمد هر فروشگاه** تهیه می شود و درآمد را با روز مشابه سال گذشته (یکشنبه/یکشنبه، دوشنبه/دوشنبه) و یک آمار انباشته برای ماه مقایسه می کند. همچنین **آمار درصد حاشیه ناخالص در هر فروشگاه** تهیه شده است. اکنون اینها معیارهای ساده ای هستند و من احساس می کنم که می توان چیزهای بیشتری از داده ها به دست آورد، داده ها به سطح (قیمت تمام شده) / (قیمت فروش) / (تعداد فروش) - در هر نوع مورد علاوه بر این، هیچ گرافیکی ساخته نشده یا بسیار کم است و از داده های سال های گذشته استفاده نمی شود. آیا کسی از شما مشکل مشابهی دیده اید؟ آیا ایده ای در مورد نحوه ادامه کار دارید؟ آیا می‌خواهید در مورد این نوع داده‌ها به اشتراک بگذارید؟
ایده هایی برای تجسم و تجزیه و تحلیل داده های فروشگاه های مواد غذایی
7915
من یک طبقه‌بندی باینری را با استفاده از طبقه‌بندی کننده SVM، libsvm انجام می‌دهم، جایی که تقریباً 95٪ متعلق به یک کلاس است. پارامترهای C و گاما باید قبل از انجام تمرین واقعی تنظیم شوند. من آموزش رو دنبال کردم ولی هنوز نتونستم نتیجه خوبی بگیرم. یک اسکریپت همراه با کتابخانه وجود دارد که قرار است به انتخاب مقادیر مناسب برای پارامترها کمک کند، اما کاری که این اسکریپت انجام می دهد اساساً به حداکثر رساندن متریک دقت (TP+TN)/ALL است، بنابراین در مورد من، پارامترها را انتخاب می کند. همه داده ها را با برچسب کلاس غالب برچسب گذاری کنید. من می خواهم پارامترهایی را با معیارهای فراخوان و دقیق انتخاب کنم. چگونه می توانم به این مشکل نزدیک شوم. دقت یک معیار بی معنی برای کاری است که من انجام می دهم. همچنین من مشتاق هستم کتابخانه libsvm را به هر کتابخانه دیگری تغییر دهم که می تواند به من در حل این مشکل کمک کند تا زمانی که داده ها را با همان فرمت می گیرد. 1 1:0.3 2:0.4 ... -1 1.0.4 2:0.23 و غیره آیا کسی می تواند کمک کند؟ به روز رسانی: بله، من هم grid.py و هم easy.py را امتحان کردم، اما با وجود اینکه جستجوی شبکه از مقیاس لگاریتمی استفاده می کند، بسیار کند است. منظورم این است که حتی اگر آن را روی تکه کوچکی از داده هایم اجرا کنم، ده ها ساعت طول می کشد تا تمام شود. آیا این کارآمدترین راه برای استفاده از SVM است؟ svmlight را هم امتحان کرده‌ام اما دقیقاً همین کار را می‌کند و همه داده‌ها را با یک برچسب برچسب‌گذاری می‌کند. به روز رسانی 2: من سوالم را اصلاح کردم تا نشان دهنده نوع مسائلی باشد که با آن روبرو هستم
روشی کارآمد برای طبقه بندی با SVM
93539
من دو تابع خودهمبستگی دارم که از یک فرآیند ثابت اندازه‌گیری شده‌اند، اما این دو اندازه‌گیری با ابزارهای متفاوتی که زمان‌های تاخیر متفاوت را اندازه‌گیری می‌کنند، انجام شد. من می خواهم این دو تابع همبستگی را با هم در یک منحنی واحد ترکیب کنم که کل زمان تاخیر هر دو ابزار را در بر می گیرد. به نظر می‌رسد که اینها را می‌توان در حوزه فرکانس با قضیه وینر-خینچین ترکیب کرد، اما من هیچ چیز معقولی از این موضوع به دست نیاوردم. با تشکر ![دو تابع همبستگی خودکار](http://i.stack.imgur.com/soTIx.jpg) داده‌های همبستگی خودکار: زمان‌های تاخیر کوتاه: {{0.0166638، 1.2427}، {0.0333277، 1.16926}، {0.0499915، {0.0499915، {0.0666553، 1.17344}، {0.0833192، 1.21829}، {0.099983، 1.19867}، {0.116647، 1.14627}، {0.133311، 1.26، 1.17 1.19614}، {0.199966، 1.19341}، {0.233294، 1.18352}، {0.266621، 1.18402}، {0.333277، 1.18672}، 1.18672}، 1.18672}، {0.391. {0.466587، 1.15333}، {0.533243، 1.17556}، {0.666553، 1.17179}، {0.799864، 1.17035}، {0.933175، 1.4906، 1.184. 1.16379}، {1.33311، 1.14078}، {1.59973، 1.13816}، {1.86635، 1.13299}، {2.13297، 1.13205}، {2.66621، {2.66621، 4.4. 1.09374}، {3.7327، 1.07922}، {4.26594، 1.06006}، {5.33243، 1.04623}، {6.39891، 1.03004}، {7.4654، 1.4653، 1.0653، 1.04653، 1.0653، 1.07922}، 1.01798}، {10.6649، 1.0145}، {12.7978، 1.00935}، {14.9308، 1.00495}، {17.0638، 1.00267}، {21.3297، {21.3297، 4.7} 1.00451}، {29.8616، 1.00155}، {34.1275، 1.00223}، {42.6594، 0.99827}، {51.1913، 1.00015}، 1.00015}، {59.7239} Lon بار: 59.7239، 4. {{1.483، 1.2196}، {2.966، 1.1595}، {4.4489، 1.1353}، {5.9319، 1.1261}، {7.4149، 1.1126}، {8.8979، 8.8979، 1.09، 8.8979، 1.09. {11.864، 1.0697}، {14.83، 1.0471}، {17.796، 1.0397}، {20.762، 1.0229}، {23.728، 1.0199}، {29.66، 1.047}، 1.039، 1.67، 1.039. {41.524، 1.0048}، {47.455، 1.004}، {59.319، 1.0023}، {71.183، 1.0008}، {83.047، 1.0011}، {94.911، 0.98، 94.911، 0.9 1.0013}، {142.37، 1.001}، {166.09، 0.99821}، {189.82، 0.99895}، {237.28، 1.0015}، {284.73، 1.0006.1، 1.0006}، 1.0006}، 0.99821}، 0.99821}
ترکیب دو تابع خودهمبستگی اندازه گیری شده در یک فرآیند ثابت
112692
من امیدوار بودم کسی بتواند استدلالی ارائه دهد که توضیح دهد چرا متغیرهای تصادفی $Y_1=X_2-X_1$ و $Y_2=X_1+X_2$، $X_i$ دارای توزیع نرمال استاندارد، از نظر آماری مستقل هستند. اثبات این واقعیت به راحتی از تکنیک MGF ناشی می شود، اما به نظر من آن را بسیار غیر شهودی می دانم. بنابراین، اگر وجود داشته باشد، از شهود اینجا قدردانی می کنم. پیشاپیش از شما متشکرم. **ویرایش**: زیرنویس ها آمار سفارش را نشان نمی دهند، اما مشاهدات IID از توزیع عادی استاندارد را نشان می دهند.
شهود پشت استقلال $X_2-X_1$ و $X_1+X_2$, $X_i \sim N(0,1)$ چیست؟
19667
من صبح ها ویتامین مصرف می کنم اما یکی از آنها را فقط نصف قرص می خورم. بنابراین، من یک ظرف اولیه با 100 قرص کامل دارم و هر روز صبح یک قرص تصادفی برمی دارم. اگر یک قرص کامل باشد، آن را از وسط می‌شکنم، نصفش را عقب می‌اندازم و نصفش را می‌گیرم. اگه نصف قرص باشه فقط میخورمش. با توجه به این موضوع، چند روز باید این کار را انجام دهم تا شانس دریافت نیم تبلت $> 50\%$ داشته باشم؟ (یا، چند درصد احتمال دارد که بعد از روز X$ یک نصف تبلت دریافت کنم؟) **نکته**: این تکلیف نیست. درست زمانی که داشتم روال صبحگاهی خود را انجام می دادم به ذهنم خطور کرد و واقعاً نمی دانم از کجا شروع کنم برای حل این مشکل. اشاره گر خوش آمدید. شبیه چیزی با یک سری بی نهایت است، اما مطمئن نیستم.
خارج کردن اقلام تصادفی از ظرف با جایگزینی
50388
من باید برای پیاده سازی رگرسیون با استفاده از جنگل های تصادفی کد بنویسم (به طور پیش فرض Weka جنگل های تصادفی را برای طبقه بندی ارائه می دهد). آیا این امکان وجود دارد؟
آیا می توان الگوریتم رگرسیون را با استفاده از جنگل های تصادفی پیاده سازی کرد؟
72043
من یک ANCOVA فاکتوریل مختلط 2x2x5 با یک متغیر درون گروهی و دو متغیر بین گروهی اجرا می کنم. من می خواهم نقض همگنی شیب های رگرسیون را بررسی کنم. covatiate من با متغیرهای من بین گروه ها تعامل ندارد. با این حال با متغیر درون گروهی من تعامل دارد. آیا این همچنان نقض فرض است؟
ANCOVA با اقدامات مکرر IV، نقض شیب ها
4131
**زمینه:** من رابطه بین زمان (1 تا 30) و یک DV را برای مجموعه ای متشکل از 60 شرکت کننده مدل می کنم. هر شرکت کننده سری زمانی خاص خود را دارد. برای هر شرکت‌کننده، من تناسب 5 تابع مختلف از لحاظ نظری قابل قبول را در چارچوب رگرسیون غیرخطی بررسی می‌کنم. یک تابع یک پارامتر دارد. سه تابع دارای سه پارامتر هستند. و یک تابع دارای پنج پارامتر است. من می‌خواهم از یک قانون تصمیم‌گیری برای تعیین اینکه کدام تابع «از لحاظ نظری معنادارترین» تناسب را ارائه می‌کند استفاده کنم. با این حال، من نمی خواهم به بیش از حد مناسب پاداش. به نظر می رسد بیش از حد برازش در دو نوع وجود دارد. یک شکل، مفهوم استاندارد است که به موجب آن یک پارامتر اضافی، کمی بیشتر از واریانس تصادفی توضیح داده شود. حس دوم جایی است که یک اثر دورافتاده یا یک اثر سیستماتیک جزئی دیگر وجود دارد که از نظر نظری کمترین علاقه را دارد. توابع با پارامترهای بیشتر گاهی اوقات به نظر می رسد قادر به ثبت این ناهنجاری ها هستند و پاداش دریافت می کنند. من در ابتدا از AIC استفاده کردم. و من همچنین با افزایش جریمه برای پارامترها آزمایش کرده ام. علاوه بر استفاده از $2k$: [$\mathit{AIC}=2k + n[\ln(2\pi \mathit{RSS}/n) + 1]$]; من همچنین 6 هزار دلار را امتحان کرده ام (چیزی که من آن را AICPenalised می نامم). من قطعات پراکندگی را با خطوط مناسب اعمال شده و توصیه های مربوطه بر اساس AIC و AICpenalised بررسی کرده ام. هر دو AIC و AICpenalised توصیه های معقولی ارائه می دهند. حدود 80 درصد مواقع موافق هستند. با این حال، در جایی که آنها مخالف هستند، به نظر می رسد AICPenalised توصیه هایی ارائه می دهد که از لحاظ نظری معنادارتر هستند. **سوال:** با توجه به مجموعه ای از تابع رگرسیون غیرخطی متناسب است: * معیار خوبی برای تصمیم گیری در مورد بهترین برازش تابع در رگرسیون غیرخطی چیست؟ * روش اصولی تعدیل جریمه برای تعداد پارامترها چیست؟
مقایسه مدل با مجموعه ای از مدل های رگرسیون غیرخطی مطابقت دارد
86051
من به دنبال یک تابع چگالی احتمال (معمولاً مورد استفاده) هستم که شبیه یک توزیع معمولی وارونه به نظر می رسد. شبیه توزیع یکنواخت با فرورفتگی در وسط است. فقط برای واضح بودن، من با یک متغیر تصادفی پیوسته در محدوده ای سر و کار دارم، مثلا «[-1،1]». گاهی اوقات داده‌هایی دارم که در حول و حوش صفر متمرکز شده‌اند، اما زمان‌های دیگر داده‌هایی دارم که به سمت 1 و -1 متمرکز شده‌اند، در حالی که منطقه اطراف صفر نسبتاً کم جمعیت است. آیا نوعی pdf وجود دارد که (بسته به پارامتری) بتواند این دو مورد را نشان دهد؟
توزیع با پرتگاه به جای قله چیست؟
83616
با در نظر گرفتن (مثلا) نرخ قتل که سالانه برای هر کشور گزارش می شود، به ذهنم خطور می کند که ایالات متحده از نظر جمعیت بیشتر است، بنابراین انتظار می رود نرخی نزدیک به میانگین جهانی داشته باشد. با این حال، من نمی دانم چگونه آن ایده را از نظر کمی ارزیابی کنم. چه نوع داده‌های اضافی (در صورت وجود) و محاسبات برای پشتیبانی از این ایده مورد نیاز است (مطمئن نیستم آن را فرضیه بنامم، زیرا به مدل مربوط می‌شود تا به جهان). روش دیگر در مورد این موضوع: با توجه به آماری که در هر کشور گزارش شده است ، آیا ایالات متحده مانند گروهی از کشورهای کوچکتر به نظر می رسد؟
تنوع داده ها از کشورهای کوچک در مقابل کشورهای بزرگ
46404
فرض کنید مجموعه داده ای X$ داریم. این مجموعه داده از داده های ترتیبی (4 سطح) تشکیل شده است. برای بدست آوردن تخمین ضرایب آستانه و شیب پروبیت (به ترتیب $\beta_1، \dots، \beta_3$ و $\beta_4$)، آیا اکثر بسته‌های محاسباتی از تخمین حداکثر احتمال استفاده می‌کنند؟ یعنی با توجه به داده ها، MLE پارامترهایی را انتخاب می کند که احتمال مشاهده داده ها را به حداکثر می رساند؟
MLE و رگرسیون پروبیت ترتیبی
81912
سوال از یک مثال معمولی برای الگوریتم E-M است. فرض کنید $(y_1, y_2, y_3)$ $\sim$ $\text{چند جمله ای}(n;p_1,p_2,p_3)$، جایی که $p_1+p_2+p_3=1$. چگونه می توانیم توزیع شرطی $y_2$ را با توجه به $y_2+y_3=n$ استخراج کنیم؟ پاسخ $y_2|y_2+y_3 \sim \text{دوجمله‌ای}(n, p_2/(p_2+p_3)$) است. آیا ایده ای در مورد چگونگی استخراج دقیق این موضوع دارید؟
نحوه استخراج توزیع متغیر x مشروط بر x+y
13430
در تحقیق خود من واریانس یک روش را مقایسه می کنم و می خواهم واریانس کلی بین افراد و واریانس تکرارهای این افراد را شرح دهم. به نظر می رسد مواردی مانند مقایسه واریانس درون فردی و واریانس بین فردی مردم را گیج می کند. من می‌خواهم یک اطلاعیه کوتاه در مورد این موضوع بدون نیاز به رفتن به جزئیات بیشتر در مورد آزمایش انجام دهم. چه راهی برای توصیف این تنظیمات واضح تر، اما در صورت امکان در یک جمله وجود دارد؟ برای روشن شدن: من 10000 اندازه گیری برای 60 نفر دارم. برای هر اندازه گیری می توانم برای مثال انحراف معیار را به عنوان یک روش واریانس محاسبه کنم. من همچنین 5 اندازه گیری تکراری برای هر فرد دارم. من می توانم انحراف معیار را برای هر یک از 10000 اندازه گیری در تکرارها محاسبه کنم. بنابراین اکنون من واریانس اندازه‌گیری را هنگام نگاه کردن به یک جمعیت دارم و واریانس آن را هنگام نگاه کردن به تکرارها دارم. وقتی اکنون باید این 2 نوع واریانس را در یک جمله توصیف کنید، چگونه این کار را بدون پرداختن به جزئیات زیاد انجام می دهید؟
تشریح تفاوت بین 2 نوع واریانس
45178
هنگام تجزیه و تحلیل داده ها، با استفاده از روش های MLE یا بیزی، باید توزیعی برای داده ها در نظر گرفت. برای داده های پیوسته، تعدادی توزیع هستند که اغلب در نظر گرفته می شوند، به عنوان مثال، توزیع نرمال، توزیع t، log-normal، و غیره. ** هنگام تجزیه و تحلیل توزیع SD های تعدادی از گروه ها (یا شرکت کنندگان) ) چه توزیع هایی می تواند مناسب باشد؟** البته این به داده ها بستگی دارد و از موردی به مورد دیگر متفاوت است، اما چه توزیع های معقولی می تواند امتحان شود؟
توزیع های مناسب برای SD های تعدادی از گروه ها (یا شرکت کنندگان)؟
81914
من نمی دانم چرا آزمایش همگنی واریانس اینقدر مهم است. نمونه هایی که نیاز به همگنی واریانس دارند کدامند؟
چرا همگنی واریانس بسیار مهم است؟
13435
فرض کنید $X$ و $Y$ دو نمونه تصادفی هستند (الزاماً iid نیست، اما می توان این فرض را داشت) و آن $Z=X+Y$. اگر آمار سفارش $X$ و $Y$ را محاسبه کنیم، در مورد آمار سفارش نسبی $Z$ چه می توان گفت؟ برای روشن‌تر شدن، اجازه دهید $\tilde{X}_{0.99}$ و $\tilde{Y}_{0.99}$ به ترتیب 0.99مین چندک‌های $X$ و $Y$ باشند، آیا رابطه‌ای وجود دارد $f(\cdot)$ با $\tilde{Z}_{0.99}$ (یعنی چندک 0.99 $Z$) به طوری که $\tilde{Z}_{0.99}=f(\tilde{X}_{0.99}،\tilde{Y}_{0.99})$؟ با عرض پوزش برای سوال احتمالی بد مطرح شده... من آمارگیر نیستم.
اگر $Z=X+Y$ ($X$ و $Y$ نمونه های تصادفی هستند)، چه رابطه ای بین آمار سفارش مربوطه وجود دارد؟
20636
در آزمون فرضیه، باید بین دو توزیع احتمال $P_1(x)$ و $P_2(x)$ در یک مجموعه محدود $X$، پس از مشاهده $n$ i.d تصمیم گرفت. نمونه‌های $x_1،...،x_n$ از توزیع ناشناخته گرفته شده‌اند. اجازه دهید $A_n\subseteq X^n$ منطقه پذیرش انتخاب شده را برای $P_1$ نشان دهد. احتمالات خطای نوع I و II را می توان به این ترتیب بیان کرد $$ \alpha_n = P^n_1(A^c_n)$$ $$ \beta_n = P^n_2(A_n)$$ (Cover & Thomas, Ch. 11 is an مرجع عالی برای تعاریف و حقایق ذکر شده در این پست). فرض کنید مناطق پذیرش $A_n$ ($n\geq 1$) را انتخاب کرده‌ایم، به طوری که هر دو احتمال خطا با افزایش تعداد مشاهدات به صفر نزدیک می‌شوند: $\alpha_n\rightarrow 0$ و $\beta_n\rightarrow 0$ به عنوان $n\rightarrow \infty$. لمای استاین به ما می گوید که حداکثر نرخ کاهش هر دو احتمال خطا، به مرتبه اول توان، توسط فاصله KL بین توزیع های داده شده تعیین می شود. دقیق تر $$ -\frac 1 n \log \alpha_n \rightarrow D(P_2||P_1)\tag{1}$$ $$ -\frac 1 n \log \beta_n \rightarrow D(P_1||P_2)\ برچسب{2}$$ اکنون، نسخه بیزی مسئله آزمون فرضیه را در نظر بگیرید. در این حالت، $P_1$ و $P_2$ به ترتیب احتمالات قبلی $\pi_1$ و $\pi_2$ داده می شوند، و احتمال خطا با وزن دادن $\alpha_n$ و $\beta_n$ به دست می آید: $$ e_n = \ pi_1\alpha_n + \pi_2\beta_n.\tag{3}$$ در این مورد، توان بهینه برای $e_n$ است فاصله بین توزیع های داده شده توسط Chernoff داده شده است: $$ -\frac 1 n \log e_n \rightarrow C(P_1,P_2).$$ **سوال**: در استدلال زیر چه اشکالی وجود دارد؟ (سلب مسئولیت: من _نه_ سعی می کنم در اینجا کاملا رسمی/جزئیات باشم). با (3)، نرخ کاهش $e_n$ حداقل نرخ کاهش $\alpha_n$ و $\beta_n$ است: $$ \lim -\frac 1 n \log e_n = \min\{\lim -\frac 1 n \log \alpha_n, \lim -\frac 1 n \log \beta_n\}$$. از آنجایی که $e_n\rightarrow 0$، باید $\alpha_n\rightarrow 0$ و $\beta_n\rightarrow 0$ را به عنوان $n\rightarrow \infty$ داشته باشید. بنابراین، با توجه به ملاحظات قبلی در مورد لمای استاین، و (1) و (2)، می توان $$ \lim -\frac 1 n \log e_n = \min\{D(P_1||P_2), \,\ دریافت کرد. ,D(P_2||P_1)\}$$ که کاملاً با $C(P_1,P_2)$ متفاوت است. **ویرایش**: متوجه شدم که اکنون که (1) و (2) نمی توانند به طور همزمان برای مناطق یکسان $A_n$'s نگه داشته شوند، بنابراین باید این اشکال در استدلال باشد. چیزی که می‌توان از طریق استدلال مشابه استنباط کرد فقط، من فکر می‌کنم، $$C(P_1,P_2)\leq \min\{D(P_1||P_2)، \,\,D(P_2||P_1)\} است. $$
توان خطا در آزمون فرضیه
13438
من به کمک نیاز دارم تا بدانم کدام آزمایش را با این تجزیه و تحلیل انجام دهم. من دو گروه دارم (مثلاً گروه A و B). مطالعه‌ای با میزان اولیه نارسایی‌های قلبی در گروه A و B انجام شد (یعنی نرخ‌های پایه) اندازه‌گیری شد. پس از 6 ماه پیگیری، میزان نارسایی قلبی در گروه A و B (یعنی میزان مجدد اندازه‌گیری) دوباره اندازه‌گیری شد. با ریاضیات ساده ، من می دانم که میزان بهبود در گروه A نسبت به گروه B بهتر است. * چگونه می توانم آزمایش کنم که آیا تفاوت در نرخ بین گروه ها از نظر آماری معنی دار است؟ من از t-test برای این کار استفاده می کنم اما مطمئن نیستم که چگونه آن را انجام دهم.
آزمون معنی داری برای تفاوت در نرخ پایه و اندازه گیری مجدد بین دو گروه
17549
من در حال حاضر در حال محاسبه تخمین های قابلیت اطمینان برای داده های آزمون-آزمون مجدد هستم. سوال من در مورد تفاوت بین خطای استاندارد اندازه‌گیری (SEM) در مقابل حداقل تغییر قابل تشخیص (MDC) در هنگام بررسی وجود تفاوت واقعی بین دو اندازه‌گیری است. تا اینجای کار فکر من این است: هر اندازه گیری دارای یک باند خطا در مورد آن است. برای دو اندازه گیری، اگر باندهای خطا با هم همپوشانی داشته باشند، هیچ تفاوت واقعی بین اندازه گیری ها وجود ندارد. 1. برای مثال، با اطمینان 95٪، هر اندازه گیری دارای باند خطای $\pm 1.96 \times SEM $ است. بنابراین، دو اندازه گیری باید بیش از 2 دلار \ برابر 1.96 \ بار SEM = 3.92 \ بار SEM $ از هم فاصله داشته باشند تا از همپوشانی فاصله اطمینان هر اندازه گیری جلوگیری شود و تفاوت واقعی بین دو اندازه گیری باشد. 2. روش دیگر برای تعیین اینکه آیا دو اندازه گیری «متفاوت» هستند، استفاده از MDC است که در آن $$MDC = 1.96 \times \sqrt{2} \times SEM =2.77 \times SEM$$ [ویرایش: برای فرمول دوم به عنوان مثال مراجعه کنید. ص 238 از Weir, J. P. (2005). کمی کردن پایایی آزمون مجدد با استفاده از ضریب همبستگی درون کلاسی و SEM. مجله تحقیقات قدرت و تهویه / انجمن ملی قدرت و تهویه، 19 (1)، 231-240. doi:10.1519/15184.1] اگر تفاوت بین دو اندازه گیری بیشتر از MDC باشد، تفاوت واقعی بین اندازه گیری ها وجود دارد. بدیهی است که این دو فرمول متفاوت هستند و نتایج متفاوتی ایجاد می کنند. پس کدام فرمول صحیح است؟
خطای استاندارد اندازه گیری در مقابل حداقل تغییر قابل تشخیص
114812
من یک مدل خودرگرسیون بردار پانل ساختاری را در پانل 13 کشور در دوره 1970-2012 اجرا می کنم. من در اجرای مدل مشکل دارم. آیا کسی برنامه های تخمینی (از Matlab، Eviews، RATS یا هر ابزار بسته سری زمانی) دارد تا بتوانم از آنها برای تخمین مدل خود استفاده کنم؟ پیشاپیش ممنون
تخمین VAR پانل سازه ای
105337
این یک برخورد کلی تر از موضوع مطرح شده توسط این سؤال است. پس از استخراج توزیع مجانبی واریانس نمونه، می‌توانیم از روش دلتا برای رسیدن به توزیع مربوطه برای انحراف معیار استفاده کنیم. اجازه دهید یک نمونه با اندازه $n$ از i.i.d. **غیر عادی** متغیرهای تصادفی $\{X_i\},\;\; i=1،...،n$، با میانگین $\mu$ و واریانس $\sigma^2$. میانگین نمونه و واریانس نمونه را به صورت $$\bar x = \frac 1n \sum_{i=1}^nX_i,\;\;\; s^2 = \frac 1{n-1} \sum_{i=1}^n(X_i-\bar x)^2$$ ما می دانیم که $$E(s^2) = \sigma^2، \ ;\;\; \operatorname {Var}(s^2) = \frac{1}{n} \left(\mu_4 - \frac{n-3}{n-1}\sigma^4\right)$$ جایی که $\mu_4 = E(X_i -\mu)^4$، و توجه خود را به توزیع‌هایی محدود می‌کنیم که برای آن‌چه لحظه‌ها باید وجود داشته باشند و متناهی باشند، وجود دارند و متناهی هستند. آیا این $$\sqrt n(s^2 - \sigma^2) \rightarrow_d N\left(0,\mu_4 - \sigma^4\right)\;\; ?$$
توزیع مجانبی واریانس نمونه نمونه غیر نرمال
101431
در حال یادگیری در مورد تقویت هستم. فکر می‌کنم می‌دانم تقویت تطبیقی ​​چگونه برای طبقه‌بندی کار می‌کند. من سعی می کنم شهودی برای تقویت رگرسیون به دست بیاورم. در هر تکرار، تقویت تطبیقی، یادگیرنده ضعیف بعدی را وادار می‌کند تا بیشتر روی نقاط طبقه‌بندی نادرست تمرکز کند. به طور شهودی، می توانم بفهمم که چرا باید به یک طبقه بندی خوب منجر شود. من می توانم اشتباه کنم ، اما به نظر نمی رسد که تقویت L2 چنین کاری انجام دهد. در تقویت L2 ، در هر تکرار ، شما یک یادگیرنده ضعیف را برای باقیمانده های تکرار قبلی متناسب می کنید. در یک درخت رگرسیون ، هنگامی که شما یک گره را تقسیم می کنید ، آیا شما باقیمانده های آن گره و والدین آن گره را متناسب نمی کنید؟ در هر دو مورد ، شما باقیمانده های بدون وزنی متناسب هستید ، بنابراین من نمی فهمم که چرا آنها متفاوت هستند. شاید مزیت اصلی تقویت L2 نسبت به یک درخت این باشد که اولی گزینه‌های تنظیم/راه‌اندازی بسیار بیشتری دارد (مثلاً انتخاب تصادفی زیرمجموعه‌های ویژگی‌ها، نرخ یادگیری، تعداد درخت‌ها، عمق درختان جداگانه و غیره). ?
چگونه تقویت L2 با یک درخت رگرسیون بزرگ متفاوت است؟
81918
من یک نتیجه باینری دارم (موفقیت / شکست). من 20 آزمودنی دارم، نیمی از آنها 2 نمونه دادند، بقیه فقط یک نمونه، بنابراین من 30 نقطه داده دارم. همه نقاط داده بدون هیچ استثنایی موفقیت آمیز بودند (1). بنابراین تخمین نقطه ای من از میزان موفقیت به وضوح 100٪ است. حالا میخوام یه CI برای میزان موفقیت حساب کنم، عمدتاً ببینم حد پایین چقدره، میخوام بتونم بگم با اطمینان 95% درصد موفقیت بالاتر از ....(80%, 85%) هر چه پیش بیاید). مشکل این است که همانطور که می بینید، خوشه بندی است، من نمی توانم از n = 30 استفاده کنم، زیرا پس از آن همبستگی را نادیده می گیرم، احساس می کنم استفاده از n = 20 بی فایده است. آیا راهی برای محاسبه واریانس a وجود دارد نسبت نمونه واحد با در نظر گرفتن خوشه ? با تشکر
داده های باینری خوشه ای
7471
آیا می توان انحراف معیار را برای میانگین هارمونیک محاسبه کرد؟ من می دانم که انحراف معیار را می توان برای میانگین حسابی محاسبه کرد، اما اگر میانگین هارمونیک دارید، چگونه انحراف معیار یا CV را محاسبه می کنید؟
آیا می توان انحراف معیار را برای میانگین هارمونیک محاسبه کرد؟
112694
از نظر مفهومی، دلیل اینکه همبستگی بین نرخ رشد A و B با همبستگی بین A و B واقعی متفاوت است چیست؟ در چه شرایطی همبستگی نرخ رشد بیشتر خواهد بود؟ پایین تر چطور؟ برابر چطور؟ با تشکر
نرخ رشد در مقابل همبستگی های مطلق
99282
من می‌خواهم داده‌ها را از مدل زیر شبیه‌سازی کنم: $\textbf{z}_k=\textbf{H}\textbf{x}_k+\textbf{v}_k$ $\textbf{v}_k \sim N(\textbf{ 0},\textbf{R})$ $\textbf{H}$ در طول زمان تغییر نمی‌کند $\textbf{x}$ یک بردار است از بارگذاری‌ها $\textbf{R}$ قطری از ثابت‌ها است $\textbf{x}_k=\textbf{F}\textbf{x}_{k-1}+(\textbf{I}-\textbf{F }){\mu} + \textbf{w}_k $ $\textbf{w}_k \sim N(\textbf{0}،\textbf{Q})$ $\textbf{I}$ ماتریس هویت است $\mu$ بردار مقادیر میانگین $\textbf{x}$ $\textbf{F} است. $ با پارامترهای AR(1) مورب است که در طول زمان تغییر نمی‌کند $\textbf{Q}$ مورب با فرآیندهای نوآوری است. $\textbf{x}$ من کد زیر را در Matlab دارم nDates=20000; %تعداد خرما تشک =[1 2 3 4 5 6 7 8 9 10 12 15 20 25 30]'; %maturities nY=length(mats); %#number of yields z=zeros(nY,nDates); %اعلان بردار برای بازده x=0(3,nDates); % اعلام بردار برای عوامل R=0.00001; % انحراف استاندارد I=eye(3); %3*3 ماتریس هویت v=normrnd(0,R,nY,nDates); %تولید باقیمانده F=[0.9963 0 0; 0 0.9478 0; 0 0 0.774]; %AR(1) ماتریس mu=[0.0501; -0.0251;-.0116]; %میانگین X lambda=0.5536; q = [0.0026^0.5 0 0;0 0.0027^0.5 0; 0 0 0.0035^0.5]; Q=q*q'; rng ('پیش فرض'); % برای تکرارپذیری r = randn(nDates,3); w= (r*Q)'; B= [ones(nY,1)،((1-exp(-lambda*mats))./(lambda*mats))، ((1-exp(-lambda*mats))./(lambda*mats) )-exp(-lambda*mats)]; x (: ، 1) = mu ؛ برای t=2:nتاریخ x(:,t)=F*(x(:,t-1))+(I-F)*mu+w(:,t); z (: ، t) = b*x (: ، t)+v (: ، t) ؛ پایان z (: ، 1) = [] ؛ همه چیز به اندازه کافی ساده به نظر می رسد، اما چه آزمایشی می توانم انجام دهم تا مطمئن شوم که به درستی اجرا شده است؟ مواردی که من به آنها فکر کرده‌ام: بررسی همبستگی عوامل x در وقفه‌های دوره 1 آن‌ها با مقادیر داده‌شده در ماتریس F مطابقت دارند بررسی کنید که واریانس‌های v و w صحیح هستند بررسی کنید که میانگین متغیرهای شبیه‌سازی شده درست هستند. می‌خواهم بررسی کنم. که واریانس تجربی پارامترها با معادل نظری آنها مطابقت دارد، اما نمی دانم معادل نظری باید چقدر باشد؟ لطفاً آزمایش‌های بیشتری را پیشنهاد دهید که به من امکان می‌دهد مطمئن شوم که آیا پیاده‌سازی درست است یا خیر.
بررسی کنید که مدل فضای حالت به درستی اجرا شده است
20638
در صنایع شیمیایی، نمونه ها اغلب چندین بار آنالیز می شوند، به عنوان مثال. 5 نمونه و هر کدام 2 بار با 10 نقطه داده مورد تجزیه و تحلیل قرار گرفت. فاصله اطمینان برای میانگین برآورد شده از این داده ها چقدر خواهد بود؟ درجات آزادی بسته به همبستگی بین تکرارها از 4 تا 10 است.
چگونه می توانم یک فاصله اطمینان را برای میانگین بر اساس داده های غیر مستقل محاسبه کنم؟
101430
من سعی می کنم نمودارهای تشخیصی یک شی spline را تجزیه و تحلیل کنم، من از بسته **Fields** از **R** استفاده می کنم. من با نمودار تابع GCV گم شده‌ام، زیرا نمی‌توانم هیچ دستورالعملی برای مقایسه مدل‌های مختلف پیدا کنم. علاوه بر مقدار/درجات آزادی حداقل تابع GCV برای هر مدل، آیا می‌توان منحنی GCV را بین مدل‌ها نیز مقایسه کرد؟ این نمونه‌ای از مدل‌های مختلف و نمودارهای تشخیصی متناظر آنهاست: (1) **_________________________** (2) **___________________________** (3) **_____________________** ![شرح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/M8v7L.png) خلاصه هر تناسب: (1) تعداد مشاهدات: 745 تعداد نقاط منحصر به فرد: 745 تعداد پارامترها در فضای تهی 21 پارامتر برای دریفت فضایی ثابت 21 درجه آزادی موثر: 116.4 درجه آزادی باقیمانده: 628.6 MLE سیگما 0.4153 GCV sigma 0.4269 MLE 0.420mb lamoth rho 8 6.193 جزئیات در مورد پارامتر هموارسازی: روش استفاده شده: هزینه GCV: 1 lambda trA GCV GCV.one GCV.model shat 6.1932 116.4326 0.2160 0.2160 NA 0.2160 NA 0.426 امتیاز (تعداد مشاهده: 0.4269 منحصر به فرد) 734 تعداد پارامترها در فضای تهی 21 پارامتر برای دریفت فضایی ثابت 21 درجه آزادی موثر: 134.4 درجه آزادی باقیمانده: 599.6 MLE سیگما 0.2788 GCV سیگما 0.2912 MLE rho 0.02916 MLE rho 0.0216 ON PARAMETER هموارسازی: روش استفاده شده: GCV هزینه: 1 lambda trA GCV GCV.one GCV.model shat 3.5890 134.3993 0.1038 0.1038 NA 0.2912 (3) تعداد 71 امتیاز در 7 مشاهده: 1 عدد فضای خالی 21 پارامتر برای رانش فضایی ثابت 21 درجه آزادی موثر: 680.2 درجات آزادی باقیمانده: 35.8 MLE سیگما 0.04486 GCV سیگما 0.0766 MLE rho 11.6 پارامتر هموارسازی لامبدا001TH3040. پارامتر: روش استفاده شده: GCV هزینه: 1 lambda trA GCV GCV.one GCV.model shat 1.734e-04 6.802e+02 1.173e-01 1.173e-01 NA 7.660e-02 سطح صاف تر 3) و تعداد درجات آزادی است بالاتر (3). اگرچه من از داده ها می دانم که مقادیر مشاهده شده برای مدل (3) کمی متفاوت است، در حالی که برای (1) و (2) من تنوع بیشتری از مقادیر مشاهده شده دارم.
نحوه مقایسه نمودارهای تشخیصی GCV یک شی spline
80062
من UMVUE $$\tilde\theta = \frac{(n-1)(U-n)}{(U-1)(U-2)}$$ برای $P(Y=2)=\theta(1- دارم \theta)$ جایی که $U=\sum_{i=1}^n Y_i$ $Y_i \sim \text{geometric} (\theta)$ من از روش دلتا برای یافتن واریانس $\tilde\theta$ تاکنون، من تعریف کرده‌ام: $$g(y)=\frac{(n-1)(y-n)}{(y-1)(y-2)}$$ $$g' (y) = \frac{(n-1)[n(2y-3)-y^2+2]}{(y-2)^2(y-1)}$$ جایگزینی $y$ با $\ تتا دلار برای $g'(\theta)$ از آنجایی که $\tilde \theta$ برآوردگر بی طرفانه است، $E[\tilde \theta] = \theta$ $Var(\sum Y_i)=n^2(1-\theta)/\ theta^2 $ [ این مرحله ای است که من گیج می شوم، آیا باید واریانس یکی از $Y_i$ یا مجموع $Y_i'$s را انتخاب کنم، بنابراین، $Var(\tilde \theta) = [g'(\theta)]^2Var (\sum Y_i)$ آیا این روش صحیح است؟ هر اشاره ای مفید خواهد بود.
آیا روش دلتا را به درستی اعمال کرده ام؟
20639
من داده‌هایی دارم که در حال مطالعه آن‌ها هستم، جایی که تحلیل داده‌های عملکردی رویکردی امیدوارکننده به نظر می‌رسد. اما از آنجایی که قبلاً هرگز با FDA مقابله نکرده بودم، در پیچیدن سرم به دور آن مشکل دارم. برای پیشینه، من رمزی و سیلورمن تجزیه و تحلیل داده های عملکردی و رمزی، هوکر و گریوز تحلیل داده های عملکردی با R و Matlab را دارم اما اخیرا آنها را دریافت کردم، و هنوز هم بسیار مبتدی با FDA هستم. من از R با بسته fda به عنوان نرم افزار تجزیه و تحلیل استفاده می کنم. داده‌های من نمونه‌ای از صدها آزمودنی جوان است که هر کدام از آنها سالانه با انجام یک کار با یک نتیجه باینری در طول چند کارآزمایی اندازه‌گیری می‌شوند. نتیجه مورد علاقه، میزان موفقیت در کار است. من نمونه کوتاهی از داده ها را در پایان سؤال خود خواهم گنجاند. پارامترهای متعددی از جمله قد، وزن، سطح تحصیلات، میزان آموزش قبلی در مورد تکلیف و نتایج یک پیش آزمون استعداد برای هر آزمودنی جمع آوری شد. تغییر سال به سال در میزان موفقیت در طول زمان منحنی است که من می خواهم با FDA مدل کنم. تفاوت قابل توجهی بین موضوعات در عملکرد کلی وجود دارد، اما من بیشتر به این علاقه دارم که میزان موفقیت یک سوژه در طول زمان چگونه تغییر می کند تا عملکرد واقعی یک سوژه. آزمودنی‌ها عموماً از الگوی شروع با میزان موفقیت کم پیروی می‌کنند، سالانه تا رسیدن به حداکثر شخصی بهبود می‌یابند، سپس با افزایش سن کاهش می‌یابند. آزمودنی معمولی در سن 20 سالگی با میزان موفقیت کم وارد مطالعه می شود، تا 25 سالگی بهبود می یابد، سپس تا 30 سالگی کاهش می یابد، در این مرحله اطلاعات بیشتری جمع آوری نمی شود. یکی از اهداف تعیین منحنی توسعه متعارف برای جمعیت است. به نظر می رسد FDA برای این جنبه از مشکل مناسب است. برخی از چالش‌های من عبارتند از: * ممکن است سوژه‌ها در سنین مختلف به حداکثر میزان موفقیت خود برسند و ممکن است سریع‌تر از سایرین بهبود یا کاهش پیدا کنند، بنابراین تغییرات فاز و دامنه به طور بالقوه وجود دارند. بنابراین به نظر می رسد که ثبت منحنی بخش مهمی از تجزیه و تحلیل خواهد بود. * تعداد آزمایش‌ها در آزمون هر سال نسبتاً کم است، بنابراین داده‌های نتیجه پر سر و صدا هستند و ثبت داده‌ها به درستی دلهره‌آور به نظر می‌رسد، زیرا نویز در یک موضوع می‌تواند نقاط عطف در داده‌ها را مبهم کند. * همچنین علاقه مندم که آیا سایر متغیرها ویژگی های ثبت منحنی موضوع را پیش بینی می کنند یا خیر. به عنوان مثال، آیا آزمودنی‌های تحصیل‌کرده دانشگاهی در سنین پایین‌تری نسبت به سایرین (مرحله) به حداکثر عملکرد خود می‌رسند یا سوژه‌های قد بلند، اوج عملکرد خود را طولانی‌تر از سوژه‌های کوتاه (دامنه) حفظ می‌کنند؟ * مایلیم بتوانیم یک منحنی سفارشی برای یک موضوع تولید کنیم. به عنوان مثال اگر آزمایش‌ها را تا سن 23 سالگی مشاهده کنیم، می‌توانیم پیش‌بینی کنیم که چقدر پیشرفت باید انتظار داشت، در چه سنی حداکثر عملکرد به دست می‌آید و مرحله کاهش تا 30 سالگی چقدر شدید خواهد بود. سؤالات من عبارتند از: 1. آیا FDA روش مناسبی برای این مشکل است؟ 2. آیا در FDA تکنیک هایی برای پیش بینی تغییرات فاز و دامنه سوژه با استفاده از متغیرهای دیگر وجود دارد؟ به نظر می رسد آنچه من تاکنون خوانده ام ثبت را به عنوان اصلاحی برای نویز تلقی می کند نه به عنوان ویژگی هایی که به تنهایی ارزش بررسی دارند. 3. چند راه خوب برای رسیدگی به ثبت نام در جایی که منحنی های فردی نویز زیادی دارند چیست؟ 4. آیا باید بتوانم منحنی‌های پیش‌بینی فردی تولید کنم که شامل تغییرات فاز/دامنه پیش‌بینی‌شده خاص موضوع باشد؟ چه مشکلاتی را باید پیش بینی کنم؟ برای هر پیشنهاد و پیشنهادی از شما متشکرم داده‌های نمونه موضوعی آموزش Ht Wt استعداد آموزشی A کالج 72 200 0 متوسطه B دبیرستان 77 250 100 دبیرستان C دبیرستان 68 160 50 آزمایش‌های سنی کم موضوع موفقیت % A 20 15 3 20% A 21 18 5 22 23% 23% A 23 28 8 29% A 24 32 13 41% A 25 8 2 25% A 26 20 8 40% A 27 40 11 28% A 28 33 10 30% A 29 18 5 28% A 30 10 24 220 % B 21 27 5 19% B 22 30 8 27% B 23 33 2 6% B 24 41 8 20% B 25 39 5 13% B 26 39 5 13% C 24 13 4 31% C 25 19% C 25 19 6 6 28% C 27 23 6 26% C 28 16 6 38% C 29 9 3 33%
پیش بینی پارامترهای ثبت منحنی در تجزیه و تحلیل داده های عملکردی با داده های نویزدار
45177
من در Stata تازه کار هستم و تاکنون پاسخی در راهنما، مرور منوها یا آنلاین پیدا نکرده ام. من فقط می خواهم بدانم چگونه به تابع کمیت یک توزیع دسترسی پیدا کنم. برای مثال در R، اگر بخواهم نقطه 0.95 توزیع $\chi^2(1)$ را بدانم، این کار را انجام می دهم: > qchisq(0.95,1) [1] 3.841459 آیا دستوری معادل در Stata وجود دارد؟
تابع Quantile در Stata
80068
من یک مدل با استفاده از تابع «ctree» در R تولید کرده‌ام و می‌خواهم بدانم که آیا این درخت واقعاً داده‌های من را به خوبی توضیح می‌دهد. من سعی دارم وجود یا عدم وجود اختلالات منظر را با استفاده از عوامل محیطی توضیح دهم. «rpart» یک مقدار $R^2$ می‌دهد، اما از آنجایی که داده‌های من به خوبی متعادل نیستند (PRESENCE حاوی تعداد نسبتاً کمی از 1 است)، من معتقدم مدل «ctree» بهتر کار خواهد کرد. یک نسخه (ساده شده) مدل من این است: مناسب <- ctree (PRESENCE ~ A + B + C + D + E + F, data=dat); که در آن PRESENCE یک عامل حاوی مقادیر (0،1) است، پنج تا از متغیرهای مستقل (که با حروف A-F مشخص می‌شوند) مقادیر عددی (داده‌های محیطی) هستند، و متغیر باقی‌مانده مقوله‌ای است. من معتقدم راهی برای ایجاد یک مقدار $R^2$ با استفاده از تابع پیش بینی وجود دارد (مانند دریافت مقدار مربع R از ctree)، اما من نسبتاً با R جدید هستم و در تلاش برای کدنویسی موفقیتی نداشته ام. این هر گونه کمکی بسیار قدردانی خواهد شد.
تجزیه و تحلیل درخت طبقه بندی - ارزیابی قدرت توضیحی درخت (R-square؟) با استفاده از بسته حزب در R
6042
(این سوال را برای یک دوست، صادقانه می پرسم...) > آیا راه آسانی برای تبدیل فایل SPSS به فایل SAS وجود دارد که > فرمت ها و برچسب ها را حفظ کند؟ ذخیره به عنوان یک فایل POR ، برچسب ها را به من می دهد (فکر می کنم) اما نه پرونده POR. من سعی کردم در یک پرونده SAS7DAT ذخیره کنم اما این کار نکرد. با تشکر
تبدیل فایل SPSS به فایل SAS؟
6046
من حیواناتی دارم که می توانند باکره یا جفت شده باشند (وضعیت تولید مثل فاکتور ثابت است) که به طور متوالی با 4 دوز مختلف از یک بو تحریک کرده ام (دوزها اندازه گیری های مکرر هستند، همان حیوان با 4 دوز افزایشی از بو دمیده شد. همان خوشبو کننده). سپس، من پاسخ عصبی (متغیر: تعداد سنبله ها) هر حیوان را به هر دوز ماده خوشبو اندازه می‌گیرم. این ممکن است یک مورد معمولی یا اقدامات مکرر باشد، با این حال من مقداری از دوزها را گم کرده ام، من تمام دوزها را برای برخی از حیوانات تکمیل نکرده ام. به عنوان مثال، برای حیوان 1، من ضبط 1 از 4 دوز را از دست دادم. چه کاری می توانم انجام دهم؟ من دو بسته آماری دارم: SPSS 16 یا Statistical. با تشکر از کمک شما
چگونه یک مورد اقدامات تکراری نامتعادل را حل کنیم؟
91114
مشکل زیر اخیراً هنگام تجزیه و تحلیل داده ها رخ داد. اگر متغیر تصادفی X از توزیع نرمال پیروی کند و Y از توزیع $\chi^2_n$ (با n dof) پیروی کند، $Z = X^2 + Y^2$ چگونه توزیع می شود؟ تا به حال به پی دی اف $Y^2$ رسیدم: \begin{eqnarray} \psi^2_n(x) &=& \frac{\partial F(\sqrt{x})}{\partial x} \\ &=& \left( \int_0^{\sqrt{x}} \frac{t^{n/2-1}\cdot e^{-t/2}}{2^{n/2}\Gamma(n/2)} \mathrm{d}t \right)^\prime_x \\ &=& \frac{1}{2^ {n/2}\Gamma(n/2)} \cdot \left( \sqrt{x} \right)^{n/2-1} \cdot e^{-\sqrt{x}/2} \cdot \left( \sqrt{x} \right)^\prime_x \\ &=& \frac{1}{2^{n/2-1}\Gamma(n/2)} \cdot x^{n /4-1} \cdot e^{-\sqrt{x}/2} \end{eqnarray} و همچنین برخی ساده‌سازی‌ها برای انتگرال کانولوشن ($X^2$ دارای pdf $\chi^2_m$ با m dof): \begin{eqnarray} K_{mn}(t) &:=& ( \chi^2_m \ast \psi^2_n )(t) \\ &=& \int_0 ^t \chi^2_m(x) \cdot \psi^2_n(t-x) \mathrm{d}x \\ &=& \left( 2^{\frac{(n+m)}{2}+1} \Gamma(\frac{m}{2}) \Gamma(\frac{n}{2}) \راست)^{-1} \cdot \int_0^t (t-x)^{\frac{n}{4}-1} \cdot x^{\frac{m}{2}-1} \cdot \exp(-(\sqrt{t-x}+x)/2) \mathrm{d}x \end{eqnarray} آیا کسی روش خوبی برای محاسبه این انتگرال برای هر t واقعی می‌بیند یا باید به صورت عددی محاسبه شود؟ یا راه حل بسیار ساده تری را از دست داده ام؟ با تشکر
توزیع پیچیدگی دو متغیر عادی و مجذور کای؟
100354
من یک رگرسیون پواسون دارم که در آن یک متغیر شمارش (به نام $H(x)$) روی یک متغیر کمکی (به نام $x$) و یک متغیر عامل (مقوله ای) (به نام $s$) رگرسیون می کنم، که می تواند یکی از سه مقدار را داشته باشد. به اعداد صحیح 1 تا 3 مجدداً کدگذاری شده است. من یک متغیر افست به نام $P(x)$ و یک رهگیری به نام $B_0$ دارم. من سعی می کنم معادله رگرسیون را بنویسم. من معتقدم که عبارت‌های وابسته، افست، رهگیری و $B_1$ را به درستی بیان کرده‌ام، اما در مورد نحوه بیان متغیر طبقه‌بندی ($s$) مطمئن نیستم. از آنجایی که این یک متغیر طبقه‌ای است که یک مقدار صحیح در محدوده 1 تا 3 می‌گیرد، می‌خواهم بدانم آیا می‌توانم آن را به این شکل بنویسم (با حروف پررنگ در زیر): $$\log H(x) = \log P(x) + B0 + B1 \cdot x + B2\cdot s$$ یا اگر به جای آن باید هر مقدار ممکن را در معادله بیان کنم (زیرا نتایج رگرسیون یک تخمین پارامتر بتا برای هر یک از سه مورد ارائه می دهد. مقادیر) مانند این: $$\log H(x) = \log P(x) + B0 + B1 \cdot x + B2 \cdot 1 + B3 \cdot 2 + B4 \cdot 3$$ مقدار این عامل طبقه‌بندی با کد 3 متغیر مرجع است و بنابراین تخمین پارامتر با روش رگرسیون در SPSS به 0 تنظیم می شود.
نحوه بیان رگرسیون پواسون به صورت معادله
45174
بیایید بگوییم، ما یک سوال ساده بله/خیر داریم که می‌خواهیم پاسخ آن را بدانیم. و N نفر برای پاسخ صحیح رای می دهند وجود دارد. هر رأی‌دهنده‌ای سابقه‌ای دارد - فهرستی از 1 و 0 که نشان می‌دهد در گذشته درباره این نوع سؤالات درست یا غلط گفته‌اند. اگر تاریخ را به عنوان یک توزیع دوجمله ای فرض کنیم، می توانیم میانگین عملکرد رأی دهندگان را در چنین سؤالاتی، تنوع آنها، CI و هر نوع معیار اطمینان دیگری پیدا کنیم. اساساً سؤال من این است: چگونه می توان **اطلاعات اطمینان** را در **سیستم رای گیری** گنجاند؟ برای مثال، اگر فقط میانگین عملکرد هر رأی‌دهنده را در نظر بگیریم، می‌توانیم سیستم رأی‌گیری وزنی ساده بسازیم: $$result = sign(\sum_{v \in voters}\mu_v \times (-1)^{1-vote} )$$ یعنی، ما فقط می‌توانیم وزن رای‌دهندگان را ضرب در $+1$ (برای بله) یا در $-1$ (برای نه) ضرب کنیم. منطقی است: اگر رای دهنده 1 دارای میانگین پاسخ های صحیح برابر با $.9 $ باشد، و رای دهنده 2 فقط $.8 $ داشته باشد، احتمالاً رای شخص اول باید مهمتر در نظر گرفته شود. از سوی دیگر، اگر نفر اول فقط به 10 سوال از این نوع پاسخ داده باشد و نفر دوم به 1000 سوال از این دست پاسخ داده باشد، ما در مورد سطح مهارت نفر دوم بسیار بیشتر از سطح مهارت های نفر اول هستیم - فقط ممکن است که نفر اول خوش شانس بوده باشد. و پس از 10 پاسخ نسبتا موفق با نتایج بسیار بدتری ادامه خواهد داد. بنابراین، سؤال دقیق‌تر ممکن است به این صورت به نظر برسد: آیا معیار آماری وجود دارد که هر دو - **قدرت** و **اطمینان** را در مورد برخی پارامترها در بر بگیرد؟
سیستم رای گیری که از اعتماد برای هر رای دهنده استفاده می کند
6044
همانطور که عنوان می گوید، من می خواهم درصد اختلاف را برای دو مجموعه امتیاز محاسبه کنم. برای مثال، فرض کنید من $S_{1}=\{(1,x_{1}),(2,x_{2}),(3,x_{3})\}$ و $S_{2}= دارم \{(1,y_{1}),(2,y_{2}),(3,y_{3})\}$. چگونه می توانم تفاوت درصد بین هر دو مجموعه داده را بدانم. راه صحیح انجام آن چیست؟ آیا این نوع ارزیابی برای تعیین درجه دقت مجموعه ای از داده ها بر دیگری معنادار است؟ در مورد خاص من، $S_{1}$ صرفاً مجموعه‌ای از نتایج عددی است که توسط DSMC و $S_{2}$ توسط یک نتیجه نظری به‌دست آمده است. من می خواهم مقدار تفاوت بین یکدیگر را تعیین کنم تا مشخص کنم چه زمانی استفاده از یکی یا دیگری راحت است. منظور من از تفاوت در درصد درصد اختلاف است. امیدوارم کمی این سوال روشن شود. **به روز رسانی:** راه دیگری برای فرمول بندی سوال من این است: چگونه می توانم به نتایجی مانند نتایج آزمایش A نسبت به آزمایش B 10٪ نادرست است برسم، وقتی آزمایش A و B مجموعه ای از ارزش ها
تفاوت درصد را برای دو مجموعه امتیاز محاسبه کنید
10013
پست‌های زیر برایم جالب بود و نمی‌دانستم که آیا هیچ یک از شما مقالات آکادمیک خوبی را می‌شناسد که روش‌ها/روابط متغیرهای برون‌زا را در مدل‌های VECM توصیف می‌کند. اگر ممکن است لطفاً آنها را به من گوشزد کنید زیرا من بسیار علاقه مند به یادگیری هستم. متشکرم. یافتن ضرایب برای VECM + متغیرهای برون زا متغیرهای برون زا با تاخیر در VECM با R
متغیرهای برون زا در VECM
7351
من در حال تلاش برای رسیدن به سرعت در آمار بیزی هستم. من کمی پیش زمینه آمار دارم (STAT 101) اما نه خیلی زیاد - فکر می کنم می توانم قبل، پسین و احتمال را بفهمم:D. من هنوز نمی خواهم کتاب درسی بیزی بخوانم. ترجیح می‌دهم از منبعی بخوانم (وب‌سایت ترجیحی) که به سرعت مرا افزایش دهد. چیزی شبیه به این، اما جزئیات بیشتری دارد. هر توصیه ای؟
آموزش آمار بیزی
80066
با توجه به عدم پاسخ به سؤال قبلی شبکه من، شاید اینجا کاملاً جای پرسیدن این سؤال نباشد، اما من آن را امتحان می کنم. من در حال برنامه ریزی یک سری مطالعات هستم که شامل گروه های کوچکی از مردم می شود. در یک مطالعه معمولی، شرکت‌کنندگان در گروه‌های 4 نفره ملاقات می‌کنند تا درباره یک موضوع خاص بحث کنند. به عنوان یک گروه، شرکت کنندگان (دانشجو) در مورد موضوع (به عنوان مثال، حمایت یا مخالفت با تغییر پیشنهادی در سیاست دانشگاه) تصمیم خواهند گرفت. بحث ضبط خواهد شد و ما از رونوشت بحث برای به دست آوردن اطلاعات در مورد اینکه چه کسی در مورد چه موضوعاتی با چه کسی صحبت می کند استفاده خواهیم کرد. علاوه بر این، شرکت‌کنندگان رتبه‌بندی‌های خود و یکدیگر را تکمیل می‌کنند (به عنوان مثال، نظر شما در مورد تغییر پیشنهادی چیست؟ فکر می‌کنید نظر این شخص در مورد تغییر پیشنهادی چیست؟). من همچنین اطلاعات مختلفی در مورد ویژگی های فردی همه شرکت کنندگان خواهم داشت. بنابراین، هر گروه از هر مطالعه به من یک شبکه 4 گرهی با لبه های جهت دار، با ارزش و انواع ویژگی ها در مورد هر گره می دهد. در یک مطالعه معمولی، ممکن است 20 تا 30 مورد از این گروه های کوچک (یعنی شبکه های کوچک 4 گره) داشته باشم. در تمام مطالعات، من به نتایج در سطح گروه، سطح رابطه و سطح فردی علاقه مند خواهم بود. در زیر نمونه‌ای از انواع سوالاتی را که می‌خواهم از این داده‌ها بپرسم ارائه کرده‌ام: 1. کدام گروه در بحث‌های خود بیشترین توافق را دارند؟ کدام گروه ها بیشترین اختلاف نظر را دارند؟ آیا ترکیب گروه با توافق / عدم توافق و نتیجه تصمیم نهایی مرتبط است؟ 2. کدام جفت افراد در طول بحث یکدیگر را دوست دارند؟ کدام جفت افراد از یکدیگر متنفرند؟ الگوهای دوتایی دوست داشتن چگونه با نتیجه تصمیم نهایی مرتبط هستند؟ 3. چه کسی بیشترین تأثیر را در روند بحث دارد؟ چه کسی بر تصمیم نهایی هر گروه تأثیر دارد؟ آیا هیچ ویژگی تفاوت فردی وجود دارد که به تأثیر بر بحث و / یا تصمیم نهایی مربوط باشد؟ و غیره. آنچه من به دنبال آن هستم مدل آماری مناسبی است که برای بررسی نمونه‌های شبکه‌ها به جای شبکه‌های فردی استفاده می‌شود. من کمی در مورد روش‌های تک شبکه‌ای خوانده‌ام (مانند مدل‌های نمودار تصادفی نمایی، که یک بسته R خوب برای آن‌ها موجود است)، اما این روش‌ها مناسب به نظر نمی‌رسند، زیرا من با مجموعه‌ای از شبکه‌های مستقل سر و کار دارم. شبکه واحد علاوه بر این، یک مدل مختلط خطی ساده مناسب به نظر نمی رسد زیرا من به طور صریح داده های رابطه ای را جمع آوری می کنم. در نهایت، اگرچه روشی مانند مدل روابط اجتماعی در ابتدا برای این وضعیت مناسب به نظر می‌رسد، به نظر می‌رسد مدل روابط اجتماعی تنها واریانس رتبه‌بندی‌های دوره‌ای را به ادراک‌کننده، هدف و منابع رابطه تقسیم می‌کند تا اینکه مثلاً به من اجازه دهد. ، الگوهای درون مجموعه ای از شبکه ها را به نتایج کلی شبکه مرتبط کنید. آیا کسی می تواند در مورد اینکه کدام مدل آماری ممکن است برای وضعیت من مناسب باشد، راهنمایی کند؟ هر گونه پیشنهاد خواندن و / یا توصیه نرم افزاری بسیار قدردانی می شود. (اطلاعات بیشتر، من یک کاربر ماهر R هستم، بنابراین توصیه های بسته R به ویژه مورد قدردانی قرار خواهند گرفت). * * * **ویرایش:** بنا به درخواست الکس ویلیامز، من برخی از داده های نمونه را در قالب csv در اینجا پست کرده ام تا به همه یک مثال ملموس از نوع داده ای که با آنها کار می کنم ارائه دهم. در داده‌های نمونه، شرکت‌کنندگان که با «شناسه_شرکت‌کننده» مشخص شده‌اند، هر کدام در گروه‌های 4 نفره هستند که با «شناسه_گروهی» مشخص می‌شوند. شرکت کنندگان در مورد یک پیشنهاد بحث می کنند و به عنوان یک گروه تصمیم می گیرند که آیا از پیشنهاد حمایت می کنند یا مخالف. «تصمیم_گروهی» نتیجه بحث گروهی است. شرکت‌کنندگان همچنین نگرش خود را نسبت به پیشنهاد (pers_att)، ادراکات خود از نگرش‌های سایر اعضای گروه (p1_att تا p4_att؛ person_id مسیرهایی را که p1 تا p4 در هر کدام قرار دارند، ارزیابی می‌کنند. گروه)، و لذت بردن خودشان از بحث. در داده‌های نمونه، ممکن است به انواع سؤالات زیر علاقه مند باشم: 1. آیا نگرش‌های شخصی با تصمیمات در سطح گروه مرتبط است؟ 2. آیا نگرش های شخصی با لذت شخصی از بحث گروهی مرتبط است؟ 3. آیا مردم در رتبه بندی خود از نگرش دیگران دقیق بودند؟ 4. آیا رتبه بندی دیگران با لذت دیگران از بحث مرتبط بود؟ 5. آیا اختلاف نظر در یک گروه (مثلاً با تفاوت بین حداقل و حداکثر رتبه‌بندی نگرش تعیین می‌شود) به تصمیمات در سطح گروه مربوط می‌شود؟ 6. آیا اختلاف نظر در یک گروه باعث می شود افراد کمتر از بحث لذت ببرند؟ 7. آیا افرادی که از بحث لذت بیشتری می بردند تأثیر بیشتری بر نتیجه داشتند؟
یک مدل آماری برای نمونه ای از شبکه های مستقل
80064
آیا پراکندگی داده ها می تواند به دلیل حجم نمونه بالا یا ابعاد زیاد ظاهر شود؟ شرایط در این دو مورد چقدر متفاوت است؟ با تشکر
علل پراکندگی داده ها
15922
من دو جدول (ماتریس) با ابعاد یکسان دارم، یکی حاوی ضرایب همبستگی و دیگری با مقادیر p. من می خواهم آنها را در یک جدول ترکیب کنم. به عنوان مثال فرض کنید من ضریب همبستگی بین متغیر A1 و A2 برابر با 0.75 در جدول 1 و مقدار p برابر با 0.045 در جدول 2 دارم. اکنون در جدول ترکیبی 3، می خواهم از: شرط 1 برای جدول 1 استفاده کنم: اگر مقدار ضریب در یک سلول جدول 1 کوچکتر از 0.4 است، سپس +، 0.4 <= ضریب <0.7 سپس ++، در غیر این صورت ++، شرط 2 برای جدول 2: اگر مقدار p در سلولی از جدول 2 کمتر از 0.01 باشد، +++، 0.01 <= pvalue < 0.05 سپس ++ و غیره +. بنابراین مقدار سلول متناظر برای A1 و A2 در جدول 3 باید به این صورت باشد: +++/++ که در آن «+++» با جدول 1 با مقدار 0.75 و ++ مطابق با جدول 2، مقدار p 0.045 و «/» مطابقت دارد. فقط یک جداکننده من می خواهم این کار را انجام دهم یا SAS یا R. پیشاپیش متشکرم.
تعریف مجدد و ادغام دو جدول در R یا SAS
15920
خوب، امیدوارم بار سوم جذابیت داشته باشد. من اساساً سعی می کنم یک مدل پیش بینی با R و gbm بسازم. به دلایل مختلف نمی توانم به صراحت بگویم که دقیقاً چه کاری انجام می دهم. اساساً من یک متغیر پاسخ دارم که میانگین آن در حدود صفر است. دارای نوسانات بالا، راست انحراف است و دارای کشیدگی بسیار بالایی است. من یک دسته پیش بینی دارم که فکر می کنم حاوی اطلاعاتی در مورد پاسخ است. برخی از آنها عددی و برخی دیگر فاکتور هستند. من داده های موجود را به سه مجموعه 1، 2، 3 تقسیم کرده ام. کاری که من انجام داده ام آموزش gbm در مجموعه 1 با پارامترهای زیر است: عمق تعامل 10، کوچک شدن 0.001، اعتبار سنجی متقاطع 3 برابر، حدود 200000 تکرار (شاید بیش از حد)، تخمین خارج از کیف 50% و % تمرین در 80%. سپس آزمایش کردم که مدل چقدر پاسخ‌ها را در مجموعه 2 پیش‌بینی می‌کند و به طور قابل توجهی بهتر از شانس است. پیش‌بینی‌کننده‌ها به طور مشابه با پاسخ توزیع می‌شوند (میانگین‌های مشابه)، اما پاسخ‌ها دارای stdev و کشیدگی بالاتری هستند. سپس با آموزش در مجموعه 1 + مجموعه 2 با همان پارامترها، مدل را به روز می کنم. سپس در مجموعه 3 تست می‌کنم. اکنون پیش‌بینی‌کننده‌ها با پاسخ‌های واقعی بسیار متفاوت هستند (میانگین 25 برای پیش‌بینی‌کننده در مقابل نزدیک به 0 برای پاسخ‌ها). من مطمئن نیستم که چه چیزی باعث این می شود. من چیزی را تغییر نداده‌ام، بنابراین فکر اولیه من داده‌های مجموعه 2 بود، جایی که محدوده متغیر پاسخ بزرگتر از مجموعه 1 است. ## من متوجه هستم که این تا حدودی باز است، بنابراین لطفاً به من اطلاع دهید که چه اطلاعات دیگری برای پاسخ به این سؤال مفید است. من مطمئن نیستم که دقیقا چه چیزی ممکن است برای شما مفید باشد. پاسخ به نظرات داده ها یک سری زمانی هستند، بنابراین فقط سه دوره زمانی حدود 2 سال، 1 سال و 3 ماه طول کشید.
مشکل با مدل GBM
29873
من می دانم که ویجت X دارای جمعیت N_x است. با این حال، ویجت Y دارای یک جمعیت ناشناخته است که من می خواهم آن را تخمین بزنم. هر دو ویجت با یک فرکانس دیفرانسیل در طول زمان به عنوان نمونه از آنها ظاهر می شوند. زمان ... X شمارش می کند .... Y می شمارد 1 .......... 120 ............... 2 2 ......... 212 ............... 3 3 .......... 321 ............... 5 4 ... ....... 149 ............... 0 5 .......... 321 .............. 1 جمعیت کل Y چقدر است؟ با چه اطمینانی؟ من به ویژه به ملاحظات خاصی علاقه مند هستم که بسیاری باید انجام دهم، وقتی که ویجت Y بسیار نادرتر از ویجت X مرجع است. Best, Paul
تخمین اندازه جمعیت از ظواهر نسبی
100582
من اینجا تازه کار هستم و در مورد ANOVA در R سوالی دارم. من یک جدول ANOVA مانند این دارم که از اجرای anova(model) در R، که در آن model یک مدل رگرسیون خطی چندگانه است که با دستور lm ساخته شده است: تجزیه و تحلیل جدول واریانس پاسخ: log(قیمت) Df مجموع مربع میانگین مربع F مقدار Pr(>F) مسافت پیموده شده. باقیمانده 1 10.79 10.79 733.329 < 2.2e-16 *** مدل 5 138.31 27.66 1880.427 < 2.2e-16 *** body_type 4 108.87 27.22 1850.269 27.22 1850.269 < 6 5 6 4 8 *** 6 44463.584 < 2.2e-16 *** انتقال 1 3.87 3.87 263.416 < 2.2e-16 *** four_wd 1 0.86 0.86 58.718 2.353e-14 *** ناو 1 1 1.1-14 *** سوخت 2 2.35 1.17 79.809 < 2.2e-16 *** سن: انتقال 1 0.79 0.79 53.827 2.719e-13 *** باقیمانده ها 3429 50.44 0.01 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 از خواندن این سه سوال دارم: 1. مدل MS (مدل) در هنگام محاسبه متفاوت چگونه انتخاب می شود مقادیر F برای متغیرهای مستقل؟ آیا این مدل فقط با آن متغیر است؟ این منجر به سوال دوم می شود. 2. آیا مقادیر F مختلف قابل مقایسه هستند؟ آیا منطقی است که نتیجه بگیریم که «سن» تا حد زیادی قوی‌ترین پیش‌بینی‌کننده در میان متغیرهای کمکی در نظر گرفته شده است و «مدل» و «نوع_بدن» تقریباً قدرت یکسانی دارند؟ 3. اگر من یک مدل جدید آموزش دهم، اما با داده های متفاوت (در این مورد نشان دهنده یک مدل ماشین متفاوت است)، آیا منطقی است که میانگین مربع (باقیمانده ها) را به عنوان معیاری در مدل های مختلف R برای اینکه مدل چقدر خوب توصیف می کند، مقایسه کنم. مدل های مختلف ماشین یعنی اگر این مدل R ابتدا با داده های خودروی مدل A آموزش داده شود و دارای MSE 0.01 (مانند جدول) باشد و همان مدل R با داده های خودرو مدل B آموزش داده شود و سپس دارای MSE 0.1 باشد، آیا می توانم نتیجه بگیرم که مدل R برای مدل A بسیار مناسب تر از B است؟ همه اینها چیزهای معقولی به نظر می رسد، اما من فقط می خواهم مطمئن شوم که به هیچ نتیجه غیرقابل توجیهی عجله نکنم. برای کامل بودن، خلاصه‌ای از مدل در زیر نشان داده شده است: تماس: lm (فرمول = ثبت (قیمت) ~ مسافت پیموده شده. باقیمانده + مدل + نوع_بدنه + سن * گیربکس + four_wd + nav + سوخت، داده = نمونه. داده) باقیمانده: حداقل 1Q Median 3Q Max -0.74556 -0.07250 0.00126 0.07135 0.46688 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 12.5718774 0.0104270 1205.710 < 2e-16 *** مسافت پیموده شده. باقیمانده -0.0318929 0.0006863 -46.471 < 2e-26. 0.0063347 13.071 < 2e-16 *** model325 0.2139785 0.0088962 24.053 < 2e-16 *** model328 0.2689928 0.0137284 0.0137284 19.594 19.594 <2e-16 0.2956210 0.0105510 28.018 < 2e-16 *** model335 0.4724337 0.0114792 41.156 < 2e-16 *** body_typecab 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.32544419 0.3254419 0.01 0.01 0.01 body_typecoupe 0.1200356 0.0087123 13.778 < 2e-16 *** body_typehatchback 0.1082495 0.0096499 11.218 < 2e-16 *** body_typestation_wagon 16505010. 3.050 0.00231 ** سن -0.1588759 0.0013296 -119.491 < 2e-16 *** گیربکس اتوماتیک 0.1061707 0.0076932 13.801 < 2e-16 TR 8 409.49 4_w 0.0067139 7.127 1.25e-12 *** navTRUE 0.0567863 0.0061501 9.233 < 2e-16 *** سوخت دیزل 0.0910481 0.0067196 0.0067196 13.567863 0.0061501 9.233 0.0471583 0.656 0.51190 سن: transmissionautomatic -0.0113273 0.0015439 -7.337 2.72e-13 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1213 در 3429 درجه آزادی چندگانه R-squared: 0.9481، تنظیم شده R-squad: 0-9. آمار: 3684 در 17 و 3429 DF، p-value: < 2.2e-16 بسیار متشکرم!
مقایسه مقادیر F متغیرهای کمکی در R
100353
من در این مقاله (صفحه 3) مقایسه pca با تحلیل عاملی خواندم که هر دو روش به تعدادی مشاهدات در حدود 5 برابر تعداد متغیرها نیاز دارند. چرا؟ و اگر فقط مشاهدات کمی داشته باشید، چگونه تعداد متغیرها را کاهش می دهید؟
تعداد مشاهدات مورد نیاز برای انجام pca
10010
من در حال حاضر سعی می کنم کارهای زیر را در R انجام دهم: هزاران **طیف اندازه گیری شده** دارم (x,y؛ زیر را ببینید). هر طیف یک یا دو قله دارد. همچنین من مجموعه هایی از **طیف های تمرینی** دارم که در شرایط کنترل شده تری به دست آمده اند و می خواهم بدانم کدام یک از طیف های تمرینی من نزدیک ترین تطابق را با طیف های اندازه گیری شده دارد!؟ فکر می‌کردم نوعی تشخیص الگو مفید خواهد بود، اما برای انتخاب آگاهانه اطلاعات کمی دارم، زیرا این کمی خارج از محدوده کاری معمول من است * امیدوارکننده‌ترین راه/عملکرد در R برای انجام این نوع کارها چیست؟ تشخیص الگو می خواهم؟ * در صورتی که تشخیص الگو (مانند PCA) امیدوارکننده ترین راه نباشد، چه گزینه های دیگری وجود دارد؟ من به دنبال بیت های نمونه کد یا ادبیاتی هستم که با این نوع تجزیه و تحلیل داده ها سروکار دارد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5mpqU.png) **ویرایش** موقعیت اوج به احتمال زیاد همیشه یکسان خواهد بود، اما لیزر مورد استفاده برای ثبت طیف دما است تغییرات کنترل شده و جزئی امکان پذیر است. شدت بسته به شرایط آزمایشی تغییر خواهد کرد. این دو قله به عنوان قله های مستقل در نظر گرفته می شوند.
طبقه بندی طیف ها
29876
با فرض اینکه من یک مجموعه داده با ابعاد $d$ دارم (به عنوان مثال $d=20$) به طوری که هر بعد i.i.d باشد. $X_i \sim U[0;1]$ (به طور متناوب، هر بعد $X_i \sim \mathcal N[0;1]$) و مستقل از یکدیگر. اکنون یک شی تصادفی از این مجموعه داده می‌کشم و نزدیک‌ترین همسایه‌های $k=3\cdot d$ را می‌گیرم و PCA را روی این مجموعه محاسبه می‌کنم. برخلاف آنچه که انتظار می رود، مقادیر ویژه همه یکسان نیستند. در یکنواخت 20 بعد، یک نتیجه معمولی به این صورت است: 0.11952316626613427، 0.1151758808663646، 0.11170020254046743، 0.101939098858519 0.0924502502204256, 0.08716272453538032, 0.0782945015348525, 0.06965903935713605, 0.063461569593 0.054527131148532824, 0.05346303562884964, 0.04348400728546128, 0.042304834600062985, 0.032212961 0.031532033468325706, 0.0266801529298156, 0.020332085835946957, 0.01825531821510237, 0.014837966 0.0068195084468626625 برای داده های توزیع شده معمولی، نتایج به نظر می رسد بسیار مشابه هستند، حداقل زمانی که آنها را به مجموع 1$ تغییر می دهیم (توزیع $\mathcal N[0;1]^d$ به وضوح واریانس بالاتری در وهله اول دارد. ). نمی دانم آیا نتیجه ای وجود دارد که این رفتار را پیش بینی کند؟ من به دنبال آزمایشی هستم که آیا سری مقادیر ویژه تا حدودی منظم است و چه تعداد از مقادیر ویژه مطابق انتظار هستند و کدام یک به طور قابل توجهی با مقادیر مورد انتظار تفاوت دارند. برای حجم نمونه (کوچک) $k$، آیا نتیجه ای وجود دارد که ضریب همبستگی برای دو متغیر معنی دار باشد؟ حتی i.i.d. متغیرها گاهی اوقات برای $k$ پایین یک نتیجه غیر 0 خواهند داشت.
توزیع تخمینی مقادیر ویژه برای i.i.d. داده (یکنواخت یا عادی).
29875
از گروهی از آزمودنی‌ها خواستم تا مجموعه‌ای از 12 انتخاب باینری را در مورد اولویت‌ها انجام دهند. اجازه دهید به خاطر استدلال ها بگوییم، این ها بین چهره های زشت (`ug`)، جذاب (`att`) و خنثی (`neut) بودند. بنابراین، ما 4 گزینه ug در مقابل att، 4 ug در مقابل neut و 4 att در مقابل neut داریم. برای هر موضوع تعداد دفعاتی که هر چهره انتخاب شد را جمع کردم. از این رو، من یک جدول 3 ستونی دارم که شامل امتیاز (حداکثر 8) برای «Att»، «Ug» و «Neut» برای هر موضوع است. مجموع هر ردیف به 12 می رسد، بنابراین متغیرها همبستگی منفی دارند. سؤالات من: * آیا چهره های جذاب به زشت ترجیح داده می شوند و اگر چنین است: * آیا این امر ناشی از جذب «آت» است یا بیزاری از «وگ» یا هر دو؟ - به همین دلیل است که ما با چهره های خنثی انتخاب هایی داریم. من در ابتدا فکر کردم یک ANOVA اندازه گیری های مکرر و سپس تست های _post hoc_ انجام دهم تا به دنبال تفاوت در رتبه بندی ها بگردم، اما نمی دانم که آیا این واقعیت که مجموع DV ها با یک ثابت است مشکل ساز است زیرا در اصل متغیر سوم - مثلاً $neut = 12 است. -(ug+att)$. اگر چنین است، آیا MANOVA راه حلی است یا chi-square چطور؟
متغیرهایی که مجموع یک ثابت هستند - ANOVA، MANOVA یا هیچ کدام از اینها؟