_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
40778
من سعی می کنم یک مثال کامل از نحوه ترسیم منحنی های یادگیری پیدا کنم. من کلاس ML Andrew Ng را در Coursera تماشا کردم و او به استفاده از منحنی های یادگیری برای تشخیص مسائل واریانس سوگیری اشاره کرد. یادداشت‌های من خط بالایی را به‌عنوان مجموعه تست یا خطای cv نشان می‌دهند که با افزایش تعداد نمونه‌های آموزشی به سمت پایین حرکت می‌کند. این برای من منطقی است. مشکل من در خط پایین طرح است که خطای آموزشی است. من مطمئن نیستم که این به چه معناست و چرا این خطا با مثال های آموزشی بیشتر افزایش می یابد. آیا خطای آموزش باید در -1 ضرب شود؟ یا کار دیگری هست که باید انجام دهم؟ از هر نمونه کاری قدردانی می شود، همانطور که بسته R که به این امر کمک می کند.
منحنی های یادگیری مثال
83462
وقتی تخمین‌گر بین داده‌های پانل خود را مدل می‌کنید، میانگین متغیرهای توضیحی آزمودنی‌ها را در مقابل میانگین متغیرهای نتیجه آزمودنی‌ها پس می‌گیرید. اما در این مدل رگرسیون، آیا باید یک رهگیری را نیز لحاظ کنید؟ خارج از کتاب درسی ما: > تخمین‌گر بین از بعد مقطعی (تفاوت‌ها > بین واحدها) داده‌ها با رگرسیون میانگین‌های فردی y روی میانگین‌های فردی x و یک ثابت با استفاده از OLS که من با مثال بازی کردم، استفاده می‌کند. داده های کتاب گجراتی: مبانی اقتصاد سنجی، فصل 16. داده ها را می توانید در اینجا بیابید: http://shazam.econ.ubc.ca/student/gujarati/table15.4 این طرحی است که من ساختم (رنگ ها نشان دهنده 3 شرکت مختلف هستند): در نمودار می توانید داده های رگرسیون OLS جمع شده و اثرات ثابت را مشاهده کنید ( داده های رگرسیونی مستعار در برآوردگر. تخمین بین بین چگونه به نظر می رسد؟ یک رهگیری دارد یا سه؟ و اگر تمام نقاط داده شرکت ها دقیقاً بالای یکدیگر قرار گیرند، بنابراین آنها میانگین x را داشته باشند، چه؟ ![اثرات ثابت به همراه OLS ترکیبی](http://i.stack.imgur.com/gFxyN.jpg)
برآوردگر بین در داده های پانل
47209
من روی یک مشکل طبقه بندی کار می کنم. با این حال، مجموعه داده آموزشی من بسیار کوچک است (فقط 800 مورد در مجموعه داده آموزشی) و هر آیتم داده حاوی تعداد کمی ویژگی است (فقط 5 ویژگی). در ابتدا، من از رگرسیون لجستیک برای ایجاد یک مدل برای این مجموعه داده استفاده کردم. متأسفانه، دقت پیش‌بینی مدل من بسیار بد بود. بعد، از مدل شبکه عصبی استفاده کردم، اما هیچ پیشرفتی را مشاهده نکردم. من گمان می کنم، تعداد آیتم های داده های آموزشی و تعداد ویژگی ها در هر آیتم برای آموزش رگرسیون لجستیک و شبکه عصبی کافی نیست. بنابراین سوال من این است که تکنیک های خوب برای مدل سازی مجموعه داده های کوچک چیست؟
تکنیک های خوبی برای مدل سازی مجموعه داده های کوچک چیست؟
112053
من آرایه ای از شناور دارم که میانگین و انحراف معیار را محاسبه می کنم. کاربر می تواند تعدادی از کلاس ها را بین 2 تا 8 مشخص کند. مقادیر حداقل و حداکثر هر کلاس با تعدادی انحراف استاندارد بالاتر و پایین تر از میانگین محاسبه می شود. مثال: nbr_classes = 4; میانگین = 10; min_value = 1 max_value = 10 std_deviation = 2 class_1_min = min_value class_1_max = mean - 2*std_deviation class_2_min = class_1_max class_2_max = mean - std_deviation class_3_d = class_2_max class_1_min = class_2_max class_viation class_3_max class_4_max = max_value من می خواهم تابعی ایجاد کنم که این کار را به صورت برنامه ای انجام دهد، با دانستن اینکه تعداد کلاس ها می تواند فرد باشد.
نحوه تعیین انحراف معیار بالا و پایین کلاس های میانگین به صورت برنامه ای
112056
در رگرسیون کمند یا رج، باید یک پارامتر انقباض را مشخص کرد که اغلب توسط $\lambda$ یا $\alpha$ نامیده می شود. این مقدار اغلب از طریق اعتبارسنجی متقاطع با بررسی مجموعه ای از مقادیر مختلف در داده های آموزشی و دیدن اینکه کدام بهترین را به دست می دهد، انتخاب می شود. $R^2$ در داده های آزمایشی. محدوده مقادیری که باید بررسی کنیم چقدر است؟ آیا دلار (0،1) دلار است؟
محدوده معمولی مقادیر ممکن برای پارامتر انقباض در رگرسیون جریمه شده چقدر است؟
77964
تصور کنید که داده های ساختار داده زیر را دارید | | env1 env2 env3 env4 env5 | | | | | replicates 1,2,3 4,5,6 7,8 9 10 در هر تکرار، درمان اسمی A و B خود را اعمال می‌کنید و پاسخ خود را برای هر تکرار در درمان‌های متوالی A و B اندازه‌گیری می‌کنید. بنابراین هر تکرار یک نقطه داده برای تیمارهای A و B دارد. با استفاده از «lme4» یک GLMM از این داده ها ممکن است به این صورت باشد: glmer(پاسخ ~ درمان + (1|env/replicate)، خانواده=poisson، داده=داده) من می خواهم بدانم چه اثراتی دارد (پیامدهای مدل من) داشتن تنها یک تکرار در هر محیط در برخی موارد؟
glmm عوامل تصادفی تو در تو نامتعادل
86572
فرض کنید که در حال انجام برخی استنتاج های بیزی آنلاین بر روی مشاهدات هستید. شما می خواهید $\mu، \sigma$ را برای $X$، با مدل $X \sim \mathcal{N}(\mu, \sigma)$ استنباط کنید. اکنون هر بار که یک $X_i$ مشاهده می کنید، قبلی خود را با نسخه جدید خود به روز می کنید و یک تخمین جدید $\mu_i، \sigma_i$ دریافت می کنید. این مقدمه برای مشاهدات بعدی شما و غیره می شود. اکنون پس از $n$ مشاهدات، تخمین شما $\mu_n، \sigma_n$ ناشی از اعمال بازگشت بر روی های قبلی شما $\mu_0، \sigma_0$، جایی که : $$ است. P(\mu_n، \sigma_n) \propto P(\mu_{n-1}، \sigma_{n-1}) \times P(X_n \sim \mathcal{N}(\mu_{n-1},\sigma_{n-1}) | \mu_{n-1},\sigma_{n-1})$$ اکنون است آیا ممکن است مدل بیزی خود را بدون نیاز به محاسبه مجدد کل زنجیره، نکات قدیمی را فراموش کند؟ به عبارت دیگر، اگر می‌خواهید این مدل را برای یک جریان داده اعمال کنید (چون امتیازات زیادی دارید)، آیا می‌توانید آن را فراموش کنید که نقاط قدیمی را فراموش کند؟ امیدوارم سوالم را به اندازه کافی روشن کرده باشم، در صورت نیاز، نظرات را ویرایش خواهم کرد. خیلی ممنون
آیا ممکن است یک مدل بیزی نکاتی را «فراموش» کند؟
40777
می‌خواهم یک خوشه‌بندی فضایی از داده‌های پراکنده انجام دهم که مکان‌های جغرافیایی افراد در یک منطقه شهری را نشان می‌دهد. به نظر می رسد خوشه بندی سلسله مراتبی به خوبی کار می کند، و من این کار را برای 100000 نقطه داده در مجموعه با موفقیت انجام داده ام. با این حال، به عنوان یک محدودیت/هدف اضافی، ما آرزو می کنیم که تعداد خوشه ها برابر باشد. یعنی مرکز شهر از نظر فضایی یک منطقه کوچک و مناطق حومه شهر بزرگ خواهد بود. آیا راه حل آماده ای برای این مشکل وجود دارد؟
خوشه بندی فضایی با این محدودیت که همه خوشه ها دارای تعداد مساوی باشند
38188
من یک کاربر جدید از مدل های ترکیبی هستم و از طریق مطالبی که خوانده ام همیشه مقادیر احتمال (p>t) یا (p>z) وجود دارد که اهمیت سطح یک عامل را در مدل تخمین می زند. با این حال، هنگام استفاده از تابع `lmer()` در R، که ظاهراً آن احتمالات را به شما می دهد، من آنها را پیدا نمی کنم. در اینجا خروجی است: مدل خطی ترکیبی متناسب با REML فرمول: دما ~ عمق + (1 | محل) داده: qminmatrix AIC BIC logLik انحراف REMLdev 561.3 581.3 -273.7 551.5 547.3 اثرات تصادفی: گروه ها نام.D. locality (Intercept) 4.7998 2.1909 Residual 4.0433 2.0108 تعداد obs: 128، گروه: locality، 4 Fixed effect: Estimate Std. مقدار خطای t (Intercept) 22.0103 1.1500 19.140 depth1 1.9564 0.6832 2.864 depth10 2.6624 0.5756 4.625 depth5 3.0209 depth5 3.0209 0.425 - 0.413 0.5444 -4.149 همبستگی جلوه های ثابت: (Intr) depth1 dpth10 depth5 depth1 -0.157 depth10 -0.175 0.189 depth5 -0.213 0.313 0.458 0.458 0.458 0.458 عمق 10.139 WS - 0.441
نمی توان مقادیر p را در خروجی lmer() در بسته lm4 در R پیدا کرد
103380
من سعی می کنم با استفاده از یک مدل اثرات ثابت تفاوت ها را در هزینه مراقبت های بهداشتی بین شهرستان ها در یک دوره چند ساله مطالعه کنم. من از یک معیار هزینه به عنوان متغیر وابسته استفاده می کنم و برخی از عوامل جمعیتی، جغرافیایی، اجتماعی و مرتبط با اندازه را به عنوان متغیرهای توضیحی دارم. به نظر شما برخی از عوامل می تواند در اثر مشاهده نشده، $a_i$ وجود داشته باشد؟
عوامل موجود در اثر مشاهده نشده؟
40776
در رگرسیون OLS من همه مفروضات کاملاً برآورده نمی شوند، اما خواندم که به دلیل حجم نمونه بزرگ، استحکام خاصی در مفروضات وجود دارد (نمونه من 2500 نفر است). به عنوان مثال DV کاملاً نرمال توزیع نشده است، با چولگی و کشیدگی قابل توجه، اما کوچک (اگر آن را آزمایش کنید، به عنوان مثال از بسته 'gvlma' در R استفاده کنید). من اکنون به دنبال ادبیاتی برای استناد به هنگام صحبت در مورد پسرفت خود هستم، به عنوان مثال. بازرسی مقادیر برازش شده در مقابل نمودارهای میانگین حداقل انحراف را از همسویی نشان داد، اما در محدوده استحکام رگرسیون (xxx، 1990).
ادبیات در مورد استحکام مفروضات رگرسیون
44455
من به دنبال اطلاعاتی در مورد نوع خاصی از تکنیک نمودارسازی هستم. اساساً، شما فهرستی از عناصر و داده‌هایی دارید که نشان می‌دهد عناصر چقدر با یکدیگر مرتبط هستند. در طرح، عناصری که نزدیک به هم هستند، نزدیک به هم ترسیم می شوند و عناصری که کمتر مرتبط هستند، دورتر کشیده می شوند. من در تلاشم تا بدانم این نوع نمودار چه نام دارد و آیا الگوریتم های خوب مرتبطی برای آن وجود دارد یا خیر. ببخشید اگر این سوال بدی است، اما این من را دیوانه کرده است و جستجوی آن غیرممکن است. * * * به روز رسانی: پس این یک _گراف شبکه_ بود که من به دنبال آن بودم. من این ابزار رایگان رایگان به نام Gehpi را پیدا کردم که تقریباً نیازهای من را برآورده می کند. با تشکر از کمک!
به دنبال نوع خاصی از طرح/گراف هستید
108562
من دو سری زمانی دارم یکی یک متغیر محیطی است (_n_ = 108) که بر اساس سال و ماه سازماندهی شده است. دیگری یک متغیر بیولوژیکی است که بر اساس سال و ماه نیز سازماندهی شده است، اما من برای چند ماه هیچ داده ای ندارم (_n_ = 97). من یک همبستگی متقاطع در R بین این سری های 2 بار انجام دادم و از تابع 'na.exclude' برای متغیر بیولوژیکی برای محاسبه مقادیر از دست رفته استفاده کردم. سپس من یک رگرسیون تاخیری را برازش می‌کنم و دوباره مقادیر گمشده را محاسبه می‌کنم. با این حال، می‌خواهم بدانم: 1. آیا می‌توانم با حذف این مقادیر گمشده (بدون ماه‌های داده) برای متغیر بیولوژیکی یک همبستگی متقاطع انجام دهم، که طول‌های نابرابر برای من باقی می‌گذارد؟ R همچنان یک همبستگی متقابل انجام می دهد، اما مطمئن نیستم که آیا نتایج معتبر هستند یا خیر. 2. آیا می توانم ماه های مربوطه را در env حذف کنم. متغیر دارای سری های زمانی مساوی باشد، یا اینکه حسابداری مقادیر از دست رفته رویکرد صحیحی است؟ با تشکر
همبستگی متقابل در R - برخورد با مقادیر از دست رفته
40775
فرض کنید می‌خواهم یک طبقه‌بندی لجستیک برای یک فیلم M ایجاد کنم. ویژگی‌های من چیزی شبیه سن فرد، جنسیت، شغل، موقعیت مکانی است. بنابراین مجموعه آموزشی چیزی شبیه به این خواهد بود: * سن جنسیت موقعیت شغلی مانند(1)/نپسندیدن(0) * 23 M نرم افزار US 1 * 24 F Doctor UK 0 و غیره... حالا سوال من این است که چگونه باید مقیاس و نشان دهنده ویژگی های من است یک راه فکر کردم: سن را به عنوان گروه های سنی تقسیم کنید، بنابراین 18-25، 25-35، 35-بالاتر، جنسیت به عنوان M، F، مکان به عنوان ایالات متحده، انگلستان، و دیگران. اکنون یک ویژگی باینری برای همه این مقادیر ایجاد کنید، بنابراین سن دارای 3 ویژگی باینری خواهد بود که هر کدام مربوط به یک گروه سنی و غیره است. بنابراین، یک مرد 28 ساله از ایالات متحده به عنوان 010 10 100 نشان داده می شود (010-> گروه سنی 25-35، 10 -> مرد، 100 -> ایالات متحده) بهترین راه برای نشان دادن ویژگی ها در اینجا چیست؟ همچنین، در برخی از موارد به عنوان مثال متوجه شدم. از sklearn که تمام ویژگی ها به نوعی مقیاس بندی/نرمال شده اند، به عنوان مثال. جنسیت با دو مقدار 0.0045 و -.0.0045 برای مرد و زن نشان داده می شود. من هیچ سرنخی در مورد چگونگی انجام پوسته‌بندی/مورمالیزه کردن به این شکل ندارم؟
ساخت ویژگی و عادی سازی در یادگیری ماشین
108586
من در تلاش برای پیدا کردن یک الگوریتم خوشه بندی هستم، اما در حال کار با موارد طبقه بندی شده قبلی هستم. اساساً اقلام متعلق به یک یا چند دسته هستند که قبلاً شناخته شده اند. مقوله ها مطلقاً به یکدیگر مرتبط نیستند. من باید خوشه هایی ایجاد کنم که تعداد دسته های متمایز در بین همه موارد حداقل باشد. همان دسته را می توان به چندین خوشه تقسیم کرد. تعداد خوشه و اندازه خوشه در ابتدا مشخص است. **نمونه:** | مورد | دسته بندی | | ------ | -------- | | مورد 1 | C1، C2 | | مورد 2 | C1 | تعداد خوشه = 2 | مورد 3 | C2 | اندازه خوشه = 3 | مورد 4 | C2 | | مورد 5 | C3 | | مورد 6 | C1 | نتیجه: - خوشه 1: [مورد 1، مورد 3، مورد 4] // 2 دسته (C1، C2) - خوشه 2: [مورد 2، مورد 5، مورد 6] // 2 دسته (C1، C3) من دارم قبلاً پیاده‌سازی سفارشی k-means را امتحان کرده‌ایم، اما به نظر می‌رسد نتایجی بسیار دور از بهینه ایجاد می‌کند. آیا من چیزی را از دست داده ام؟ آیا یک الگوریتم شناخته شده با این نوع مشکل مطابقت دارد؟ * * * **ویرایش** _بیایید کمی بیشتر توضیح دهیم_ من باید اقلام را بر اساس تنها مشخصه ای که می دانم طبقه بندی کنم: تعلق به دسته آنها. من از یک تابع فاصله سفارشی استفاده کرده ام که می تواند به صورت زیر بیان شود: d(I1, I2) = تعداد دسته ای که I1 و I2 مشترک ندارند، فقط سعی کردم از نقطه شروع تصادفی استفاده کنم و نتایج متفاوتی به من می دهد. اما دور از حد مطلوب
خوشه بندی اقلام بر اساس تعلق دسته آنها
103389
در یک مدل رگرسیون ساده با استفاده از OLS، چرا حداقل به طور کلی، نمی توان $x_i$ را به سمت چپ مدل و $y_i$ را به سمت راست منتقل کرد. آیا می خواهید متغیر توضیحی و پاسخ را تغییر دهید؟ از نظر شهودی، کاملاً واضح به نظر می رسد که اگر ${\hat \beta ^{OLS}}\left( {Y,X} \right) = \mathop {\arg \min }\limits_{\beta \in \mathbb{R }} \sum\limits_{i = 1}^n {{{\left( {{y_i} - x_i^T\beta } \right)}^2}} $ و ${\hat \gamma ^{OLS}}\left( {X,Y} \right) = \mathop {\arg \min }\limits_{\gamma \in \mathbb{R}} \sum\limits_{i = 1}^n {{{\left( {{x_i} - y_i^T\gamma } \right)}^2}} $، تغییر ساده از طرف‌ها» کار نمی‌کند زیرا من دو مبلغ مختلف را به حداقل می‌رسانم. اما آیا توضیح رسمی تری وجود دارد که چرا نمی توان آن را انجام داد؟
حداقل مربعات معمولی - پاسخ تغییر و متغیر توضیحی
113326
از آنجایی که من یک مجموعه داده بسیار نامتعادل دارم (9٪ نتایج مثبت)، تصمیم گرفتم منحنی فراخوانی دقیق مناسب‌تر از منحنی ROC باشد. من اندازه گیری خلاصه مشابه مساحت زیر منحنی P-R را به دست آوردم (.49، اگر علاقه دارید) اما مطمئن نیستم که چگونه آن را تفسیر کنم. من شنیده ام که 8.8 یا بالاتر همان چیزی است که یک AUC خوب برای ROC است، اما آیا قطع عمومی برای AUC برای منحنی فراخوان دقیق یکسان است؟
یک AUC خوب برای منحنی فراخوانی دقیق چیست؟
27817
مدخل _حاشیه خطای ویکی‌پدیا می‌گوید که > یک نمونه تصادفی با اندازه 400، حاشیه خطا، در سطح اطمینان 95 درصد، 0.98/20 یا 0.049 را به دست می‌دهد - فقط کمتر از 5 درصد با توجه به اندازه جمعیت نامحدود. این بدان معناست که اگر من از 400 شهروند آمریکایی (به طور تصادفی انتخاب شده) نظرسنجی کنم و از آنها بپرسم اوباما یا رامنی؟، نسبت به دست آمده با سطح اطمینان 95 درصد دقیق خواهد بود، تا حاشیه خطای کمتر از 5 درصد. با این حال، آیا می‌توانم از همین محاسبه برای آزمایش اینکه یک برنامه نرم‌افزاری می‌تواند تقریباً با همه ورودی‌ها مقابله کند، استفاده کنم؟ به عنوان مثال: من تعداد نامحدودی از کاربران دارم، باید مطمئن باشم (95٪ اطمینان، 5٪ خطا) که نرم افزار من می تواند برای همه آنها بر اساس نام آنها و یک الگوریتم ساده یک نام مستعار ایجاد کند. . اگر به طور تصادفی 400 کاربر را انتخاب کنم و الگوریتم نام مستعار برای همه 400 کاربر کاملاً کار کند، آیا می توانم (با اطمینان 95٪، با توجه به 5٪ خطا) فرض کنم که الگوریتم من برای کل جمعیت وجود دارد؟ آیا این روش برای محاسبه حاشیه خطا برای این نوع مشکلات نادرست است؟
چگونه می توان حاشیه خطا را برای یک آزمایش کنترل کیفیت دو جمله ای که در آن فقط موفقیت ها مشاهده می شود (از جمله FPC) محاسبه کرد؟
113329
من یک سوال در مورد یافته های یک مقاله دارم که به طور کامل درک نمی کنم. نویسندگان روابط بین متغیرهای اندازه گیری شده در مقاطع زمانی مختلف را بررسی کردند. آنها دریافتند که یک متغیر V1 به طور مثبت یک متغیر V2 را پیش بینی می کند. V2 به طور مثبت V3 را پیش بینی کرد. با این حال V1 به صورت منفی V3 را پیش بینی کرد. آیا این امکان وجود دارد که اگرچه V1 به طور مثبت V2 را پیش بینی می کند، اما V3 را منفی پیش بینی می کند؟ V1 و V2 معیارهای قبل / بعد از یک رویداد بودند که از طریق همان مقیاس جمع‌آوری شدند. V1 متغیر زمان 1، V2 و V3، زمان 2 است. هر گونه بینش بسیار مورد توجه قرار می گیرد!
رگرسیون نتایج متناقض؟
109988
با عرض پوزش این کمی طولانی است، اما توضیح درباره کاری که من می خواهم انجام دهم باید واضح باشد تا از مسائلی مانند این نقل قول جلوگیری شود ... غیر ممکن است به گونه ای صحبت کنید که نتوانید سوء تفاهم کنید. کارل پوپر. من مدل های رگرسیون خطی را اجرا می کنم، اما نتایج مورد انتظار را دریافت می کنم. نمی‌دانم چه چیز دیگری می‌توانم تلاش کنم تا مقدار تخمینی پارامترهای پژواک موقعیت خفاش را بر اساس اندازه‌گیری‌های ساعد بدست بیاورم. مشخص است که اندازه خفاش با فرکانس مشخصه (Fc) تماس های پژواک آنها (دهه ها کار میدانی من) رابطه منفی دارد. بنابراین به طور کلی افراد بزرگتر تماس های فرکانس پایین تری دارند و افراد کوچکتر تماس های فرکانس بالاتری دارند. من رگرسیون ها را بر اساس FA (اندازه گیری های معتبر ساعد) و محدوده های شناخته شده و معتبر Fc برای 12 گونه یا بیشتر و با استفاده از مدل های lm برای پیش بینی مقادیر Fc برای چند گونه که دارای مقادیر FA هستند اما هنوز انجام نداده اند، اجرا کرده ام. ثبت شده است. از این رو هیچ پارامتر فراخوانی echolocation معتبری وجود ندارد. کد R مورد استفاده در زیر بحث است. من محدوده های معتبری برای گونه های شناخته شده FA (اندازه گیری ساعد) و Fc (حداقل) و Fc (حداکثر) دارم. بنابراین من دو اجرا جداگانه با داده ها با استفاده از مدل lm انجام می دهم، یکی با FA~Fcmin و دیگری FA~Fcmax. هدف ارائه مقادیر پیش‌بینی‌شده (تخمینی) برای گونه‌ها با مقادیر FA شناخته شده اما بدون محدوده ارزش Fc تأیید شده است. نگرانی من این است که مقادیر پیش بینی شده بازگردانده شده بسیار کمتر از مقادیر واقعی برای گونه های تأیید شده است. بنابراین من مطمئن نیستم که مقادیر پیش‌بینی‌شده برای آن محدوده‌های Fc ​​تأیید شده بدون استفاده از آن مفید باشد. یک فرد بسیار مفید به مجموعه داده های ساده ای که من فرستادم نگاه کرد و نشان داد که تفاوت های آماری بین مقادیر واقعی و پیش بینی شده معنی دار نیست. با این حال، توصیه کربس به دانش‌آموزان سال‌ها پیش «معنی‌داری آماری را با اهمیت زیست‌محیطی اشتباه نگیرید» در اینجا صادق است. مقادیر محدوده‌های پیش‌بینی‌شده بسیار کمتر از واقعیت است، بنابراین تعداد کمی از گونه‌هایی که مقادیر Fc ثبت شده در میدان ندارند مشکوک هستند. این تفاوت‌ها در مقادیر پیش‌بینی‌شده از یک محدوده واقعی، برای شناسایی بالقوه تماس‌های ناشناخته تفاوت ایجاد می‌کند. تفاوت Fc 10 کیلوهرتز به طور کلی نشان دهنده گونه های متفاوتی است، اگرچه برخی از آنها بسیار نزدیکتر هستند و ممکن است فقط 5 کیلوهرتز اختلاف داشته باشند. من به مجموعه داده‌های صوتی از تماس‌های آمریکای جنوبی نگاه می‌کنم و گونه‌های صوتی زیادی وجود دارد. اینها به وضوح گونه های جداگانه ای بر اساس پارامترهای فراخوانی پژواک هستند که هنوز چهره ها و صداها مطابقت داشته اند. ما می دانیم که پارامترهای فراخوانی برای خانواده ها و جنس ها تشخیصی هستند حتی زمانی که گونه ناشناخته باشد. سپس این مقادیر Fc هستند که به شناسایی گونه ها در مجموعه ای از تماس ها از همان جنس کمک می کنند. نمونه کد R استفاده شده: Bats <\- dget('C:/=داده های خفاش کار می کند/پارامترهای صوتی/_کار/=Vespertilionidae/Bats.robj') model.lm <\- lm(formula=Fc ~ as.factor( FA),data=Bats,na.action=na.omit) > Anova(model.lm,type='II') خطا در solve.default(L % _% V %_ % t(L)) : > سیستم از نظر محاسباتی مفرد است: شماره شرط متقابل = 0 > خلاصه (model.lm) فراخوانی: lm(فرمول = Fc ~ as.factor(FA )، داده = خفاش، na.action = na.omit) باقیمانده ها: همه 5 باقیمانده 0 هستند: درجه آزادی باقیمانده وجود ندارد! ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 53.3 NA NA NA به عنوان عامل(FA)34.4 -4.6 NA NA NA به عنوان عامل(FA)35.4 2.3 NA NA NA به عنوان عامل(FA) 35.5 9.0 NA NA NA as.factor(FA)40.5 -7.3 NA NA NA استاندارد باقیمانده خطا: NaN روی 0 درجه آزادی (2 مشاهده به دلیل عدم وجود حذف شد) R-squared چندگانه: 1، R-squared تعدیل شده: NaN F-آمار: NaN در 4 و 0 DF، p-value: NA > tmp<-predict (model.lm) خفاش ها[نام ها(tmp)،پیش بینی شده]<-tmp rm('tmp') > rm('model.lm') > > model.lm <\- lm(formula= Fc~ FA,data=Bats,na.action=na.omit) > > Anova(model.lm,type='II') > > خلاصه (model.lm) > > tmp<-predict(model.lm,bats) > > Bats[names(tmp),Predicted.Fc]<-tmp > > rm('tmp') rm('model.lm') با نتایج می توان دید که مقادیر Fc پیش بینی شده در سمت راست نزدیک به مقادیر Fc واقعی در سمت چپ و سپس من را در پذیرش 2 با مقادیر پیش بینی شده NA مردد می کند. گونه های FYI ساده 6 حرفی برای جنس و گونه کد گذاری شده اند. گونه FA Fcmin Fcmax FcMinpredic FcMaxpredic Myoalb 35.3 45.7 48.7 51.73 55.26 Myoata 37 NA NA 49.52 52.59 Myokea 33.7 57.8 33.7 57.8 61.75 61.75 51.6 55.7 52.77 56.52 Myooxy 40.5 45.7 47.6 44.98 47.09 Myorip 36 53.3 57.5 50.82 54.16 Myosim 38 NA NA NA 5 linear to 48.03 استفاده کنید؟ با تشکر از هر گونه پیشنهاد اضافی. بروس
سوال در مورد نتایج رگرسیون غیرمنتظره
2269
چگونه می توانم به جداول ایجاد شده در SAS Enterprise Guide Client به SAS Enterprise Miner Client دسترسی داشته باشم؟
به جداول ایجاد شده در SAS Enterprise Guide Client به SAS Enterprise Miner Client دسترسی پیدا کنید؟
103387
$$\Pr(A | B) = \frac{\Pr(B | A) \Pr(A)}{\Pr(B)}$$ بنابراین $\Pr(A)$ من احتمال این است که یک سکه دو سر برای استدلال، فرض کنید 1 در 10000 سکه دو سر است. $\Pr(B)$ من احتمال برگرداندن 10 سر است که 1 در $2^{10}$ است. خیلی ساده لوحانه فکر کردم $\Pr(B|A)$ خوب با توجه به اینکه من یک سکه دو سر دارم، احتمال اینکه 10 سر را برگردانم 1 است؟ این باعث می شود که من یک سکه دو سر در $\frac{10^{-4}}{2^{-10}}$ داشته باشم. با این حال، این به این معنی است که احتمال > 1 برای تلنگرهای بزرگتر خواهد بود. مرحله ای که در آن اشتباه کرده ام، ارزیابی $\Pr(B|A)$ است. کسی میتونه کمک کنه؟
قانون بیز با توجه به اینکه من 10 سر را پشت سر هم ورق زدم، احتمال اینکه یک سکه دو سر داشته باشم چقدر است؟
103385
من با تکنیک جنگل تصادفی نسبتاً تازه کار هستم. من درخت تصمیم را با موفقیت به داده‌ای اعمال کردم که نتیجه 1/0 را پیش‌بینی می‌کند. پیش بینی کننده ها مخلوطی از پیوسته و مقوله ای هستند. من مشابه روش درختی را امتحان می کردم: train_tree <\- randomForest(Response_variable ~ predictor1 + predictor2+...predictor10 ,trainData,ntree=50) اما خطای پرتاب من بود. میشه لطفا کمکم کنید؟
استفاده از جنگل تصادفی به جای روش درخت تصمیم در R
77965
چگونه می توانم حجم نمونه را برای تخمین اختلاف نسبت بین 3 گروه محاسبه کنم؟ اکثر ماشین‌حساب‌های اندازه نمونه رایگان فقط برای ۲ گروه گزینه‌هایی دارند.
محاسبه اندازه نمونه برای مقایسه 3 نسبت
38187
من یک داده سری زمانی را با استفاده از ARIMA مدل می کنم. اکنون سعی می کنم با استفاده از آزمون دوربین واتسون، همبستگی سریال مدل SARIMA (1،1،1) را آزمایش کنم. مشکل من این است که نمی دانم چه مدل خطی را روی فرمول تابع «dwtest» در R قرار دهم. ، two.sided، کمتر)، تکرار = 15، دقیق = NULL، tol = 1e-10، داده = لیست()) کد زیر من است، داده: http://iitstat.weebly.com/uploads/7/3/4/0/7340846/chickenprod.rdata برای دانلود داده ها کافیست روی لینک کلیک راست کرده و روی ذخیره پیوند به عنوان... library(forecast) library( lmtest) ChickenProd <- ts(ChickenProd، شروع = 1980، فرکانس = 4) SARIMA111 <- Arima(ChickenProd، seasonal = list(order = c(1,1,1), period = 4)) باقیمانده های مدل SARIMA111 من توسط SARIMA111 بدست می آید[[residuals]] حال، من می خواهم همبستگی سریال را آزمایش کنم. از آن با استفاده از آزمون دوربین واتسون استفاده می‌کند، اما نمی‌دانم از چه مدل خطی در آرگومان «فرمول» تابع «dwtest» استفاده کنم. R. آیا این مدل SARIMA(1,1,1) است؟ اگر چنین است، چگونه ضرایب مدل SARIMA(1،1،1) را استخراج می کنم و یک فرمول مدل خطی در R ایجاد می کنم؟ پیشاپیش از شما متشکرم
آزمون دوربین واتسون برای باقیمانده های SARIMA (1،1،1) در R
111580
من سعی می کنم قدرت پیش بینی چهار الگوریتم مختلف را مقایسه کنم: * ماشین های بردار پشتیبان * k-NN * درخت های تصمیم * شبکه های عصبی من چند سوال در مورد تنظیم پارامتر دارم: 1. برخی مقالات مانند [1] بیان می کنند که k-نزدیکترین همسایه نیازی به تنظیم پارامتر ندارد، آیا لازم نیست تصمیم بگیرید که k چیست؟ 2. اگر می‌خواهید پارامترهای SVM (جستجوی شبکه‌ای) و NN (نرون‌های مخفی مختلف) را تنظیم کنید، اگر قصد استفاده از اعتبارسنجی متقاطع ده برابری را دارید، روی چه مجموعه داده‌ای این کار را انجام می‌دهید؟ اگر از مجموعه داده های خود با ده برابر استفاده می کنید، آیا داده ای برای اعتبارسنجی پارامترهای خود باقی نمانده است؟ [1] Xiao, W., Qian, Z., & Fei, Q. (2006). بررسی تطبیقی ​​روش های داده کاوی در مدیریت امتیازدهی اعتبار وام های مصرفی. مجله علوم سیستم ها و مهندسی سیستم ها، 419-435.
تنظیم پارامترهای SVM، DT، k-NN، NN
78121
من 500 نمونه از مجموعه داده دانشجویی و 10 ویژگی دارم. اگر برای آموزش 170 تقسیم کنم برای تست 330. این سهمیه برای اعتبار متقاطع درست است؟
اعتبار سنجی متقاطع در آموزش و آزمایش
72244
من باید اینجا کار خیلی اشتباهی انجام می‌دهم، چون auto.arima در R کاملاً در حال مرگ است، اما نمی‌توانم ببینم چیست. من آخرین نسخه Forecast و R را دارم و فکر می کنم این اتفاق در ویندوز و یونیکس می افتد. برای برخی/اکثر سری‌های زمانی که من امتحان کردم کار می‌کند (Equity) اما برای برخی دیگر شکست می‌خورد. به‌نظر می‌رسد زمانی که مقدار زیاد/پایین را با بسته‌های روز قبل متفاوت می‌کنم، بیشتر با شکست مواجه می‌شود، نه اینکه فقط بسته‌ها را به شکل زیر متفاوت می‌کنم. آیا این یک باگ است یا من به نوعی داده های بدی به arima می دهم؟ (و باعث مرگ آن با یک پیام خطای وحشتناک) من سعی کردم این خطا را جستجو کنم اما به چیز زیادی نرسیدم. خیلی ممنون library(tseries) library(forecast) dwa <- get.hist.quote(instrument=DWA, start=2010-01-01, end=2013-10-31) logreturns <- diff(log( dwa$Close))*100 مناسب <- auto.arima(logreturns, trace=TRUE) خروجی: این آدرس URL آزمایشی 4.8 پیش بینی شده است 'http://chart.yahoo.com/table.csv?s=DWA&a=0&b=01&c=2010&d=9&e=31&f=2013&g=d&q=q&y=0&z=DWA&x=.csv' نوع محتوا طول text/csv URL باز ناشناخته .......... .......... .......... .......... .... دانلود شده 44 کیلوبایت سری زمانی شروع می شود سری زمانی 2010-01-04 پایان می یابد 2013-10-07 ARIMA(2,1,2) با دریفت : 1e+20 * ARIMA(0,1,0) با دریفت: 1e+20 * ARIMA(1,1,0 ) با رانش: 1e+20 * ARIMA(0،1،1) با دریفت: 1e+20 * ARIMA(1,1,2) با دریفت: 1e+20 * ARIMA(3,1,2) با دریفت: 1e+20 * ARIMA(2,1,1) با دریفت: 1e+20 * ARIMA(2,1 ,3) با دریفت: 1e+20 * ARIMA(1,1,1) با دریفت: 1e+20 * ARIMA(3,1,3) با drift : 1e+20 * ARIMA(2,1,2) : 1e+20 *خطا در if (تفاوت == 1 & ثابت) { : آرگومان با طول صفر است فراخوانی: خودکار. arima -> myarima علاوه بر این: پیام‌های هشدار: 1: در if (is.constant(x)) { : شرط دارای طول > 1 است و تنها عنصر اول خواهد بود استفاده شده 2: در if (is.constant(x)) return(d) : شرط دارای طول > 1 است و فقط عنصر اول استفاده می شود 3: در if (is.constant(dx)) { : شرط دارای طول است > 1 و تنها عنصر اول استفاده خواهد شد. اجرا متوقف شد
آیا این یک اشکال در auto arima است یا من کار اشتباهی انجام می دهم؟
83465
من می خواهم اهمیت بهینه سازی عملکرد صحیح ضرر را درک کنم. بگویید که من در حال ساخت یک مدل رگرسیون خطی $p$ برای پیش‌بینی برخی مقادیر $y_1,\ldots,y_n$ هستم. من مدل خطی خود را طوری انتخاب می کنم که میانگین مربعات خطا را به حداقل برساند. اکنون مدل خود را به یک مسابقه پیش بینی آماری می فرستم، جایی که آنها به جای استفاده از MSE به عنوان معیار خطا از میانگین خطای مطلق استفاده می کنند (بنابراین بدون مربع). این چگونه بر قدرت پیش‌بینی مدل‌های من تأثیر می‌گذارد؟ به طور کلی، در مورد اهمیت بهینه سازی تابع زیان صحیح چه می توان گفت؟ **ویرایش:** اگر بخواهیم سوال را در زمینه خاص تری مطرح کنیم، آن زمینه مسابقات مدل سازی پیش بینی کننده مانند مواردی است که در Kaggle.com نشان داده شده است. من می‌خواهم اهمیت انتخاب مدل‌ها و توابع ضرر را که با معیار ارزیابی رقابت مطابقت دارند، درک کنم. یکی از دلایل این موضوع این اظهار نظر برنده یک مسابقه Kaggle است.
اهمیت بهینه سازی عملکرد صحیح ضرر
44454
اطلاعات متقابل نقطه‌ای با این فرمول محاسبه می‌شود. بد من می دانم که اگر مقدار کم باشد، بد است، اما چه زمانی می توان فرض کرد که بین x و y ارتباط مناسبی وجود دارد؟ یا اینکه باید خودم (به صورت تجربی) این آستانه را تعیین کنم؟
چه زمانی مقدار PMI خوب یا بد است؟
47205
من می خواهم در مورد روش های نقطه داخلی یاد بگیرم. من با ویکی http://en.wikipedia.org/wiki/Interior_point_method شروع کردم. با این حال، من در درک ایده پشت آن مشکل دارم. آیا کسی می‌تواند لینک‌های خوب، آموزش‌های ویدیویی یا اشاره‌هایی را به من ارائه دهد که به درک آن کمک کند؟
شروع با روش های نقطه داخلی
15299
من در حال پردازش برخی از داده‌ها هستم که قبل از اینکه الگوریتم رگرسیون را طی کند نیاز به binning دارد. این اسکریپت در پایتون است و از تابع «هیستوگرام» Numpy استفاده می‌کند، اما کد باید خود توضیحی باشد. برای مرجع، «هیستوگرام» یا آرایه‌ای حاوی تعداد صحیح نقاط در هر bin را خروجی می‌دهد، یا می‌توانید با ارزش نقاط موجود در bin وزن کنید (مثلاً مجموع). خطاهای y توسعه دهندگان استاندارد هستند. بنابراین داده‌ها به صورت زیر در می‌آیند: #تعداد آیتم‌ها در هر bin (binned، dump) = np.histogram(x,bins) #داده‌های Binned، وزن‌دهی به مقدار هر نقطه (xbinned، dump) = np.histogram (x، bins, weight=x) #etc برای خطای y و y ... خطاهای مقادیر y (این فرض می کند هیچ خطای x وجود ندارد) با واریانس وزن می شود بنابراین خطاها به صورت مربع اضافه می شوند: (varbinned, dump) = np.histogram(x,bins,weight=error**2) برای پایان دادن به تابع یک آرایه میانگین از نقاط را برمی گرداند، به عنوان مثال. xbinned = xbinned/binned چیزی که من در مورد آن مطمئن نیستم نحوه رسیدگی به خطاها است. نتیجه باید ریشه مربع باشد (برای تبدیل از واریانس های جمع شده)، اما چگونه تعداد bin ها در پاسخ فاکتور می شود؟ آیا این کار به همان سادگی انجام می شود: errorbinned = np.sqrt(varbinned/binned) با تشکر!
ترکیب خطاها در یک هیستوگرام (داده های binned)
88559
من سعی می کنم یک عبارت را در مدل AR(2) اضافه کنم: $$Y_t=\left( a_0+a_1 \frac{\exp(\beta_t)}{1+\exp(\beta_t)}\right)Y_{ t-1}+bY_{t-2}+\delta\epsilon_t$$ لطفاً کسی می‌تواند به من در این مورد کمک کند؟ به نظر نمی رسد که بتوانم این را در کد R قرار دهم. data=read.table(water.txt,header=T) n=ncol(data) koef=matrix(0,n-1,4) rownames(koef)=names(data)[-1] colnames(koef )=c(a1،a2،var.a1،var.a2) for(i in 2:n) { ser=log(data[,i]) ar2=arima(ser,order=c(2,0,0),xreg=data$year) koef[i-1,1]=ar2$coef[1] koef[i-1,2]=ar2$coef [2] koef[i-1,3]=ar2$var.coef[1,1] koef[i-1,4]=ar2$var.coef[2,2] } داده: سال آب 1986 0.01 1987 -0.63 1988 -0.14 1989 2.52 1990 1.96 1991 0.6 1992 1.82 1993 1.82 1994 0.89 192195 1995 - 0.89 1995 1991. 0.75 1998 0.02 1999 0.69 2000 1.65 2001 -1 2002 0.66 2003 0.09 2004 -0.08 2005 0.4 2006 -0.81 2001 -0.81 2007 2007 -0.81 0.07 2010 -2.57
کمک در مورد نحوه گنجاندن عبارت $\exp(β_t)/(1+\exp(β_t))$ در مدل AR(2)
108563
من در حال مطالعه خودم برای یک امتحان هستم و می خواهم بدانم چگونه از قضیه Dynkin Lehmann Scheffe برای یک سوال کاربردی استفاده کنم. من از آمار ریاضی بیکل و داکسوم (ویرایش 2007) استفاده می کنم و فقط یک جمله این فرآیند را توصیف می کند: اجازه دهید P = {$P_{\theta}$ : $\theta$ $\in$ $\Theta$} جایی که $P_{\theta}$ گسسته متمرکز بر X = {$x_1$,$x_2$,....} است. اجازه دهید $p(x,\theta)$ $\equiv$ $P_{\theta}$$[X = x]$ $\equiv$ $L_x(\theta)$ > 0 در X. می‌توان نشان داد که $ \frac{L_x(.)}{L_x(\theta_0)}$ حداقل کافی است. من یک سوال با راه حل پیدا کردم، اما می خواهم ببینم روند چگونه کار می کند. سوال اینجاست: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zc9Ys.jpg) راه حل اینجاست: ![شرح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/24AKX.jpg) از اینکه هیچ اثری نشان ندادم عذرخواهی می کنم، اما اطلاعات کمی در مورد این قضیه موجود است، بنابراین من فقط می خواستم ببینم روند این نوع مشکل چگونه کار می کند.
سوال در مورد قضیه Dynkin Lehmann Scheffe
72242
ما آزمایش تقسیم یک ویژگی محصول جدید را انجام داده‌ایم و می‌خواهیم اندازه‌گیری کنیم که آیا افزایش درآمد قابل توجه است یا خیر. مشاهدات ما قطعاً به طور معمول توزیع نمی‌شوند (بیشتر کاربران ما خرج نمی‌کنند، و در بین کسانی که انجام می‌دهند، به شدت به سمت خرج‌کنندگان کوچک و معدود خرج‌کنندگان بسیار بزرگ متمایل است). ما تصمیم گرفته‌ایم از bootstrapping برای مقایسه ابزارها استفاده کنیم تا مشکل توزیع نشدن داده‌ها به طور معمول را برطرف کنیم (سوال جانبی: آیا این استفاده مشروع از bootstrapping است؟) مجموعه داده ها (مثلاً معدود مصرف کنندگان بسیار بزرگ) قبل از اجرای بوت استرپینگ، یا این مهم نیست؟
بوت استرپینگ - آیا باید ابتدا موارد پرت را حذف کنم؟
31755
من دو نمونه دارم ($n \حدود 70$ در هر دو مورد). میانگین حدود دو برابر std ادغام شده متفاوت است. توسعه دهنده مقدار $T$ حاصل تقریباً 10 است. در حالی که بسیار خوب است که بدانیم به طور قطع نشان داده‌ام که میانگین‌ها یکسان نیستند، به نظر من این امر توسط n بزرگ هدایت می‌شود. با نگاه کردن به هیستوگرام داده‌ها، مطمئناً احساس نمی‌کنم که مانند p-value کوچک واقعاً نماینده داده‌ها است و صادقانه بگویم، واقعاً احساس راحتی نمی‌کنم که آن را نقل قول کنم. احتمالا سوالم اشتباه است چیزی که من فکر می کنم این است: خوب، ابزارها متفاوت هستند، اما آیا این واقعا اهمیت دارد زیرا توزیع ها همپوشانی قابل توجهی دارند؟ آیا تست بیزی در اینجا مفید است؟ اگر چنین است، کجا مکان خوبی برای شروع است، کمی جستجو در گوگل نتیجه مفیدی نداشته است، اما ممکن است با پرسیدن سوال درست نتوانم. اگر این کار اشتباه است کسی پیشنهادی دارد؟ یا اینکه این صرفاً نقطه‌ای برای بحث است در مقابل تحلیل کمی؟
وقتی میانگین دو نمونه به طور قابل توجهی متفاوت است اما تفاوت آنقدر کوچک به نظر می رسد که اهمیتی نداشته باشد چه باید کرد
108587
من سعی می کنم تخمین حداکثر احتمال را انجام دهم و سعی می کنم ببینم آیا می توان مشکل را با استفاده از یک مدل اثر تصادفی فرموله کرد. شرح مشکل اینجاست: > $100$ جفت $(N_i, D_i)$ وجود دارد که هر $N_i$ تعداد آزمایشات است > و $D_i$ تعداد موفقیت‌های $i$-th آزمایش دوجمله‌ای است (با > آزمایشی 100 دلاری). احتمال $p$ دو جمله ای به NormCDF > از طریق پارامتر $\rho$ (که باید با استفاده از MLE تخمین زده شود) بستگی دارد. > احتمال $p$ واقعاً یک احتمال مشروط است، مشروط به $y$ = > مقداری ثابت، که در آن $y$ می تواند بیش از $(0,1)$ باشد. بنابراین، من یک احتمال > تابع $L$ دارم که روی متغیر $y$، $0 < y < 1$ ادغام شده است. > یعنی $L$ = int بیش از $(0,1)$ از Binomial(n,d,p)dy یا معادل آن $L$ = int بیش از $(0,1)$ از $\\{ k1 * p^d * (1-p)^ (n-d) dy \\},0<y<1$ که در آن $p$ تابعی از $y$ است و $k1$,$n$,$d$ هستند ثابت ها، $k1 = {n \انتخاب d}$. همچنین `p(y) = NORMCDF( (گاما - {sqrt(rho)*INVNORMCDF(y)} ) / sqrt(1-rho) )`، که در آن گاما یک ثابت است (در تمام 100 آزمایش). من سعی می کنم $L$ را به حداکثر برسانم تا تخمینی برای $\rho$ بدست آوریم. می‌خواهم بدانم که آیا می‌توانم $y$ را به‌عنوان یک جلوه تصادفی در نظر بگیرم، و همچنین، اگر مشخص کردن $y$ به‌عنوان یک جلوه تصادفی در «SAS proc nlmixed» به این معنی است که احتمال $L$ به‌طور خودکار روی $y یکپارچه می‌شود. $. در حال حاضر من سعی می‌کنم احتمال را در «SAS/IML» به حداکثر برسانم و مشکل این است که بهینه‌سازی برای $\rho$ کار نمی‌کند («IML» فقط به کار خود ادامه می‌دهد، و فکر می‌کنم به این دلیل است که تابع احتمال به اندازه کافی مسطح است که همگرایی خیلی طول می کشد). من سعی می‌کنم بفهمم که یک متغیر $y$ یک اثر تصادفی به چه معناست: آیا به این معنی است که احتمال روی همه مقادیر ممکن $y$ یکپارچه شده است؟ اگر درست باشد، آیا می توانم $\rho$ را با استفاده از PROC NLmixed به صورت زیر تخمین بزنم: `گاما = 0.5; PROC NLMIXED DATA=bindata MAXITER=200000 QPOINTS=10 GCONV=1e-15; PARMS rho = 0.5; * احتمال را تعریف کنید. w1 = INVNORMCDF(y); p = NORMCDF( (گاما - sqrt(rho)*w1) / sqrt(1-rho)); L = (n CHOOSE d)*((1-p)**(n-d)) + log(p**d); MODEL d ~ GENERAL(L); تصادفی y~ NORMAL(0,1) SUBJECT=ID; اجرا؛ به این ترتیب، من نیازی به ادغام چگالی دوجمله ای بیش از $y$ در $(0,1)$ در `IML` با استفاده از یک تابع 'QUAD' ندارم، همانطور که اکنون انجام می دهم.
مدل‌های جلوه‌های تصادفی / ادغام روی جلوه‌های تصادفی
81624
تا آنجا که من درک می کنم، اصطلاح تعامل در یک ANOVA 2x2 سنتی برای تشخیص یک تعامل نامتعارف عالی است، زیرا آزمون فرض می کند که تعامل به شکل (-2، -2، 2، 2) است (Buckless and Ravenscroft، 1990). ). در مواردی که انتظار تعامل ترتیبی را دارم، می‌خواهم از کدگذاری کنتراست برای قدرت مناسب استفاده کنم. با این حال، سوال من این است که وقتی یک سطح اضافه شده از یک عامل وجود دارد، این چگونه تغییر می کند. اصطلاح تعامل در یک ANOVA 3x2 چه کد کنتراست را فرض می کند؟
کدگذاری کنتراست پیش‌فرض برای تست تعامل در ANOVA 3x2 چیست؟
27813
چرا حتی پیشین های غیر اطلاعاتی داشته باشید؟ آنها اطلاعاتی درباره $\theta$ ارائه نمی دهند. پس چرا از آنها استفاده کنیم؟ چرا فقط از پیشین های آموزنده استفاده نمی کنید؟ برای مثال، فرض کنید $ \theta \در [0,1]$. سپس $\theta \sim \mathcal{U}(0,1)$ یک قبلی غیر آموزنده برای $\theta$ است.
مقصود از مقدمات غیر اطلاعاتی چیست؟
81626
من یک سوال در مورد راه رفتن تصادفی دو پادشاه در یک صفحه شطرنج 3×3 دارم. هر پادشاه به طور تصادفی با احتمال مساوی در این صفحه شطرنج حرکت می کند - عمودی، افقی و مورب. این دو پادشاه به طور مستقل از یکدیگر در یک صفحه شطرنج حرکت می کنند. هر دوی آنها از یک مربع شروع می کنند و سپس به طور مستقل حرکت می کنند. چگونه می‌توانیم احتمال را در زمان $n$ پیدا کنیم که هر دو آنها در یک مربع هستند، زیرا $n$ به بی‌نهایت می‌رود؟
پیاده روی تصادفی: پادشاهان روی صفحه شطرنج
78122
من از scikit-learn در پایتون استفاده می کنم و آنها کمیتی به نام _score_ را تعریف می کنند. در وسط صفحه مستندات تعریف شده است. در اینجا بازتولید می شود: > ضریب تعیین R^2 پیش بینی را برمی گرداند. ضریب > R^2 به صورت (1 - u/v) تعریف می شود، جایی که u مجموع رگرسیون > مربع ها ((y_true - y_pred) ** 2).sum() و v مجموع باقیمانده مربع ها > ( (y_true - y_true.mean()) ** 2).sum(). بهترین امتیاز ممکن 1.0 است، مقادیر کمتر > بدتر هستند. چند سوال در این رابطه: 1. شهود پشت این معیار چیست؟ 2. نمره خوب چه چیزی محسوب می شود؟ چه چیزی بد محسوب می شود؟
متریک امتیاز یادگیری scikit
103384
> یک خانه دارای 2 اتاق با اندازه های مشابه با تهویه مطبوع یکسان > مجهز به ترموستات است که در صورت نیاز روشن و خاموش می شود تا دمای > در هر اتاق تا سطح مطلوب 22 درجه حفظ شود. فرض کنید که ترموستات > برای مدت زمان نمایی با میانگین های > $1/\mu$ و $1/\lambda$، به ترتیب، مستقل از سایر ترموستات ها، روشن یا خاموش می ماند. > فرآیند مارکوف $\\{X(t), t \ge 0\\}$ را در نظر بگیرید که فضای حالت آن تعداد > تهویه مطبوع فعال است. ماتریس انتقال > نرخ ها را بنویسید. من مطمئن نیستم که دقیقاً چگونه به این نوع سؤال برخورد کنم. کار من به شرح زیر است اما اگر کسی بتواند ابهام من را روشن کند خوب است. کارکردن: بنابراین به وضوح 3 حالت وجود دارد، 0 برای هیچ کولر گازی روشن نیست، 1 برای یک کولر گازی روشن است (فعال)، و 2 برای دو تهویه مطبوع روشن است (فعال). اکنون برای محاسبه $q_{01}$، یعنی نرخ انتقال از حالت 0 به 1، فرض کنید در حال حاضر هیچ کولری روشن نیست. دو فرآیند پواسون مستقل هر دو را با پارامتر $\lambda$ در نظر بگیرید، که در آن زمان interarrival مدت زمان خاموش است، سپس ادغام این دو فرآیند یک فرآیند پواسون با پارامتر $2\lambda$ به دست می‌دهد، بنابراین نرخ انتقال از حالت 0 به حالت 1 $2\lambda$ است. حالا در مورد نرخ انتقال از حالت 0 به 2 چطور؟ به من گفته شده که 0 است، اما چرا؟ آیا امکان ندارد هر دو کولر گازی از حالت خاموش به روشن بروند؟ استدلال $q_{02} = 0$ چیست؟
نرخ های انتقال در زنجیره مارکوف زمان پیوسته
31752
برای تحقیقاتم، من روی یک سیستم فیلتر/تطبیق رویداد کار می‌کنم که هر رویداد را مجموعه‌ای از جفت‌های کلید-مقدار در نظر می‌گیرد (مانند action=logon، user=john.doe). من می‌خواهم اعتبار آن را ارزیابی کنم، اما نتوانستم یک مجموعه داده عمومی با نیازهایم پیدا کنم: * باید یک سری زمانی از نمونه‌ها با ساختار داخلی ثابت باشد. * باید بزرگ باشد - حداقل چندین میلیون رکورد/رویداد. * باید به تعدادی از دسته‌ها/موارد استفاده از قبل طبقه‌بندی شود. یک طبقه بندی صرف به عنوان مثال نرمال/غیر طبیعی کافی نیست. از طرف دیگر، می‌توانم از مجموعه‌ای با ابزار مخصوص دامنه استفاده کنم که بتواند این طبقه‌بندی را به دقت انجام دهد. چندین مجموعه داده (مانند گزارش‌های وب سرور) در اطراف وجود دارد، اما من هنوز یکی را پیدا نکرده‌ام که این نیاز را برآورده کند. من باید بتوانم هم سیستم خود را آموزش دهم و هم عملکرد آن را با استفاده از _یک استاندارد طلایی دقیق_ ارزیابی کنم. * من دوست دارم مقوله ها برابر مفهومی باشند، به عنوان مثال. انواع تراکنش های بانکی من در حال حاضر از مجموعه داده KDD99 استفاده می کنم، اما این مجموعه بیش از حد بر روی تشخیص ناهنجاری متمرکز شده است. در حالی که دارای کلاس های ناهنجاری جداگانه است، همه رویدادهای عادی در یک دسته قرار می گیرند... آیا مجموعه داده ای در جایی وجود دارد که بتوانم از آن استفاده کنم؟ ترجیحاً چیزی که قبلاً تا حدی مورد بررسی قرار گرفته باشد؟ به عنوان جایگزین، آیا ابزار استاندارد یا راه دیگری برای _تولید_ چنین مجموعه داده ای وجود دارد؟ من به راه اندازی به عنوان مثال فکر کرده ام. یک برنامه وب و چکش کاری آن با یک آزمایشگر بار، یا حتی با استفاده از یک ابزار شبیه سازی عمومی، اما من معتقدم که هیچ یک از این رویکردها واقعاً در برابر بررسی همتایان قرار نمی گیرند، که خود ارزیابی را به خطر می اندازد.
مجموعه داده‌های گزارش رویداد برای ارزیابی یک سیستم فیلترینگ؟
78127
من داده‌های زیادی را برای جمعیت‌های مختلف جمع‌آوری کرده‌ام و باید آنها را به اندازه‌گیری فاصله زوجی تبدیل کنم. فواصل متعددی مانند فاصله بری کورتیس و منهتن وجود دارد. سوال من این است که چگونه فاصله را انتخاب کنیم؟ آیا کتاب یا مقاله ای وجود دارد که معیارهای روشنی در مورد نحوه انتخاب داشته باشد؟ با تشکر
ویژگی های خاص جمعیت برای فواصل زوجی: چگونه فاصله را انتخاب کنیم؟
109673
من یک مدل cox در R با استفاده از تابع coxph در بسته بقا ساخته‌ام و اکنون برای امتیازدهی باید مدل را در SQL تکرار کنم. از درک من، مدل دارای فرمی است که در پایین صفحه 2 این سند، http://cran.r-project.org/doc/contrib/Fox-Companion/appendix-cox-regression.pdf توضیح داده شده است، که انعطاف پذیری نیمه پارامتریک از آنجایی که یک عبارت آلفای نامشخص وجود دارد، نمی‌توانم فقط ضرایب را بگیرم و از مدل مانند یک مدل خطی معمولی یا مدل خطی تعمیم‌یافته استفاده کنم (و توان آن را نشان دهم). راه‌هایی برای تخمین این عبارت آلفا وجود دارد و من معتقدم این عبارت اضافه شده به خطر برای مشخص کردن مدل کامل لازم است. اگر اینطور است، چگونه می توانم به این عبارت آلفا دست پیدا کنم؟
چگونه R را به SQL برای مدل خطرات متناسب کاکس ترجمه کنیم؟
47202
من می‌خواهم از مدل خودرگرسیون برای ایجاد یک پیش‌بینی‌کننده برای مجموعه‌ای از داده‌های مکانی-زمانی استفاده کنم. به عنوان مثال، من داده های ترافیکی تاریخی دارم (سرعت در بخش های مختلف آزادراه). به طور مشابه، من داده های آب و هوای تاریخی شهرهای مختلف را دارم. نیازی به ذکر نیست که همبستگی فضایی معناداری بین سایت های مجاور وجود دارد. من می توانم به 2 راه برای خود رگرسیون فکر کنم (فرض کنید که ترتیب خودرگرسیون کوچک است (مثلاً <= 3)): الف. استفاده از مدل خودرگرسیون برداری (VAR): که در آن هر سایت به مقادیر موجود در سایر سایت‌ها در لحظه‌های زمانی قبلی بستگی دارد. ب از مدل Space-Time AR (STAR) استفاده کنید: جایی که هر سایت به مقادیر مکان‌های شناخته شده نزدیک در لحظات قبلی بستگی دارد. کدام یک از این دو مدل مناسب تر است؟ کتابخانه statsmodels پایتون یک پیاده سازی برای VAR دارد، اما برای STAR نه. از آنجایی که من از پایتون برای کارم استفاده می کنم، وسوسه می شوم از VAR استفاده کنم. آیا کسی می تواند مزایای یکی را بر دیگری توضیح دهد؟ من شاید کمی بهتر از یک کدنویس معمولی هستم. اگر بخواهم مدل STAR را در پایتون پیاده سازی کنم، چقدر دشوار است؟ آیا متنی وجود دارد که به من در اجرای آن کمک کند؟
VAR در مقابل STAR برای خودرگرسیون فضا-زمان در پایتون
78120
من کمی در مورد ثابت بودن ضعیف در ارتباط با مدل های ARCH/GARCH عصبانی هستم. من پاسخ را نمی دانم و در مورد آن مطمئن نیستم: سوال اساسی این است: > آیا قبل از اعمال مدل ARMA-GARCH باید ثابت بودن ضعیف را آزمایش کنیم؟ در ادامه می توان گفت: > ADF و دیگران معادله میانگین را آزمایش می کنند، اما این برای معادله > نوسانات نیست، بنابراین از چه آزمونی برای خودکوواریانس- > ایستایی باید استفاده کنیم؟ افکار من: مدل‌های استاندارد ARMA میانگین و واریانس بدون قید و شرط را ثابت فرض می‌کنند. برای مدل‌های ARMA-GARCH این مورد نیز صادق است: میانگین غیرشرطی و واریانس غیرشرطی باید ثابت باشد، در حالی که در مورد مدل‌های ARMA-GARCH واریانس شرطی نیازی به ثابت بودن ندارد. درست است که برای معادله میانگین ممکن است مجبور باشیم به استفاده از یک مدل روند-ایستا یا تفاوت-ایستا فکر کنیم. اما این فقط مربوط به معادله میانگین است، بله. واریانس شرطی را می توان با آزمایش اثرات ARCH (Box-Ljung، Lagrange Multiplier) آزمایش کرد. بنابراین برای مدل‌های ARMA-GARCH ما همچنان به ایستایی ضعیف نیاز داریم، زیرا میانگین و واریانس بدون قید و شرط باید ثابت باشند. بنابراین مطمئن نیستم، اما باید قبل از استفاده از مدل ARMA-GARCH، ثابت بودن ضعیف را آزمایش کنیم؟ و به خصوص با بازده مالی، آیا ما نیز باید آن را آزمایش کنیم؟ و از کدام تست استفاده می کنیم (و کدام دستور در R پیاده سازی شده است، پس چه دستوری را می توانید پیشنهاد دهید؟) من می دانم که اگر واریانس بدون شرط غیر ثابت باشد (محدود نیست و سپس ثابت نیست) یک GARCH یکپارچه ممکن است مناسب باشد. اما فقط به دلیل اینکه ثابت نیست نمی توانم بگویم از یک مدل GARCH یکپارچه استفاده می کنم؟ من همچنین می دانم که برای فرآیندهای ARMA-GARCH همه ریشه های مشخصه خارج از دایره واحد قرار دارند. بنابراین در صورت وجود ARMA-GARCH(1,1) $\alpha_1+\beta_1<1$ ضروری است. اما من این را فقط بعد از تخمین می بینم؟ این یک آزمون برای ثابت بودن کوواریانس نیست؟ **ویرایش**: اساساً به (نظرات را ببینید): چگونه می توانم ثابت بودن واریانس بدون قید و شرط را آزمایش کنم؟ منظورم این است که برای اعمال یک مدل GARCH باید مطمئن شوم که میانگین غیرشرطی ثابتی دارم (تست ADF و غیره) و باید واریانس بدون قید و شرط ثابت را آزمایش کنم (چگونه؟). من می دانم که باید بیشتر مطمئن شوم که واریانس شرطی غیر ثابت برای فرآیندهای GARCH دارم، در غیر این صورت داشتن واریانس شرطی ثابت ARMA کافی است (تست برای اثرات ARCH). ویرایش 2: یک تست طیف موجک در بسته locits وجود دارد، در مورد این تست چطور؟
ایستایی ضعیف و مدل های ARMA-ARCH/GARCH؟
19181
با توجه به نقاط داده $x_1, \ldots, x_n \in \mathbb{R}^d$ و برچسب‌های $y_1, \ldots, y_n \in \left \\{-1, 1 \راست\\}$، سخت مشکل اصلی حاشیه SVM $$ \text{minimize}_{w, w_0} \quad \frac{1}{2} w^T w $$ $$ است \text{s.t.} \quad \forall i: y_i (w^T x_i + w_0) \ge 1$$ که یک برنامه درجه دوم با متغیرهای $d+1$ برای بهینه سازی و محدودیت $i$ است. دوگانه $$ \text{maximize}_{\alpha} \quad \sum_{i=1}^{n}{\alpha_i} - \frac{1}{2}\sum_{i=1}^{n }{\sum_{j=1}^{n}{y_i y_j \alpha_i \alpha_j x_i^T x_j}}$$ $$ \text{s.t.} \quad \forall i: \alpha_i \ge 0 \land \sum_{i=1}^{n}{y_i \alpha_i} = 0$$ یک برنامه درجه دوم با متغیرهای $n + 1$ برای بهینه سازی و $n$ است نابرابری و محدودیت های برابری $n$. هنگام پیاده‌سازی SVM حاشیه سخت، **چرا باید مسئله دوگانه را به جای مسئله اولیه حل کنم؟** مشکل اولیه برای من شهودی به نظر می‌رسد، و نیازی نیست خودم را با شکاف دوگانگی درگیر کنم، شرط کوهن تاکر و غیره. اگر $d \gg n$ بود مشکل دوگانه را حل کنم، اما من گمان می‌کنم دلایل بهتری وجود داشته باشد. آیا این مورد است؟
چرا هنگام نصب SVM مشکل دوگانه را به خود مشغول کنید؟
72245
با توجه به نمایش گرافیکی Naive Bayes در زیر، من می خواهم $P(X|Y_1,Y_2)$ را محاسبه کنم. آیا محاسبات زیر صحیح است؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xWOqG.png) توزیع مشترک فاکتور در مورد سیستم عبارت است از: $$P(X,Y_1,Y_2)=P(X) \cdot P(Y_1|X) \cdot P(Y_2|X)$$ $$\frac{P(X,Y_1,Y_2)}{P(X)}=P(Y_1|X) \cdot P(Y_2|X)$$$$P(Y_1,Y_2|X)= P( Y_1|X) \cdot P(Y_2|X)$$ استفاده از قانون بیز برای برگرداندن سمت چپ: $$\frac{P(X|Y_1,Y_2) \cdot P(Y_1,Y_2)}{P(X)}= P(Y_1|X) \cdot P(Y_2|X)$$ $$P(X|Y_1,Y_2) = \frac{P(Y_1| X) \cdot P(Y_2|X) \cdot P(X)}{P(Y_1,Y_2)}$$ $$P(X|Y_1,Y_2) = \frac{P(Y_1|X) \cdot P(Y_2|X) \cdot P(X)}{P(Y_1) \cdot P(Y_2)}$$
نمایش احتمالی گرافیکی بیز ساده لوح
31751
وقتی من لامبدا را از طریق اعتبارسنجی متقاطع تعیین می کنم، همه ضرایب صفر می شوند. اما من نکاتی از ادبیات دارم مبنی بر اینکه برخی از پیش بینی ها باید قطعاً بر نتیجه تأثیر بگذارند. آیا انتخاب خودسرانه لامبدا به گونه ای که به اندازه دلخواه فرد پراکنده باشد، احمقانه است؟ من می‌خواهم 10 پیش‌بینی‌کننده برتر را از بین 135 مدل کاکس انتخاب کنم و اندازه‌های افکت متأسفانه کوچک هستند.
انتخاب $\lambda$ در یک مدل LASSO تا چه حد قابل دفاع است تا تعداد پیش‌بینی‌کننده‌های غیر صفر مورد نظر را به دست آورد؟
47204
هر ماه، یک سازمان برخی از مشتریان خود را بررسی می کند (تعداد کل مشتریان نیز مشخص است). مشتریان نمونه به یک نظرسنجی با ده ها سوال پاسخ می دهند. گاهی اوقات مشتریان به هر سوالی پاسخ نمی دهند. یک میانگین ساده از _نسبت_ پاسخگویی به مشتریانی که دسته برتر را در سوال 1 داده اند و _نسبت_ که بیشترین پاسخ را به سوال 2 داده اند محاسبه می شود. (برترین دسته برای برخی سوالات عالی است، برای سوالات دیگر همیشه است.) این میانگین نمره ای را ایجاد می کند که در پایان هر ماه گزارش می شود. چه دستور(هایی) در SPSS می تواند احتمال/میزان بهبود آن امتیاز را در یک پنجره تاریخی معین محاسبه کند؟ همچنین آیا می توان این امتیاز را هموار کرد؟ نمرات آینده را پیش بینی کنید؟ من قبلاً یک ARIMA را بررسی کرده‌ام، اما نتوانستم بفهمم که چگونه مرزهای متغیر وابسته (0،1) را در دستور قرار دهم.
چگونه یک سری زمانی نسبت‌ها را رگرسیون کنیم؟
38184
به نظر نمی‌رسد که نمی‌توانم به این موضوع فکر کنم: یک قرعه‌کشی تصادفی برگزار می‌شود که برای آن 900 بلیت فروخته شده است، که برای آن یک بلیط برنده خواهد شد. اگر 25 بلیط خریداری کرده اید، احتمال برنده شدن شما چقدر است. من تقریباً مطمئن هستم که این یک توزیع دوجمله‌ای را دنبال می‌کند، اما نمی‌دانم چگونه مدل‌ها را برای حل مشکل اتخاذ کنم. هر گونه کمک / راهنمایی قدردانی می شود. من بیشتر به دنبال درک دامنه مشکل هستم تا دریافت پاسخ. پیشاپیش ممنونم
احتمال برنده شدن در قرعه کشی/لاتاری
72247
من به تازگی همین نظرسنجی را در وب سایت های کشورهای مختلف انجام داده ام و می خواهم بتوانم بگویم که آیا تفاوت های قابل توجهی بین کشورها وجود دارد یا خیر. برای مثال اگر 20 درصد آلمانی ها، 30 درصد بریتانیایی ها و 40 درصد هلندی ها به خیریه کمک می کنند، آیا می توانید با اطمینان بگویید که هلندی ها دو برابر آلمانی ها به امور خیریه کمک می کنند. ببخشید اگر سوال احمقانه ای است، من آمار را مطالعه نکرده ام و سعی کرده ام در مورد تست t و تست آنووا بخوانم اما همه اینها بسیار گیج کننده بود:( با تشکر.
آزمایش اهمیت آماری در نتایج نظرسنجی برای کشورهای مختلف
88554
من روی برخی از داده ها کار می کنم، به طور خاص، برخی از پیش بینی های برخی از نتایج. پیش‌بینی‌ها در مقیاس پیوسته، بین 3- تا 3 دلار متفاوت است. به عنوان مثال، آنها می توانند: $x_1=-2.4، x_2=-2.1، x_3=1.4، x_4=0.4، \cdots، x_n=-1.2$ اکنون، برای هر پیش بینی، نتایج مربوطه را نیز دارم، $y_1، y_2 , \cdots , y_n$ که پیوسته نیز هستند. چگونه می توانم بررسی کنم که آیا پیش بینی های من خوب است یا نه؟ من هیچ دانشی در مورد نحوه انجام پیش بینی ها ندارم، بنابراین نمی توانم هیچ فاصله اطمینانی در مورد پیش بینی ها ایجاد کنم.
نحوه مقایسه نتایج مشاهده شده و مورد انتظار برای داده های پیوسته
88557
فرض کنید $\begin{bmatrix} K_{11} K_{12}\\\K_{12}^T K_{22} \end{bmatrix}\sim\mathcal{IW}\left(\eta,\begin{bmatrix } \Sigma_{11} \Sigma_{12}\\\\\Sigma_{12}^T \Sigma_{22} \end{bmatrix}\right)$. 1. توزیع مشروط $K_{11}|K_{22}$ و $K_{12}|K_{22}$ 2 چقدر است. انتظار $K_{12}^TK_{22}^{ چیست -1}$
توزیع شرطی Wishart معکوس
35927
من در مورد مفهوم فاصله اطمینان سردرگم هستم. به طور خاص، فرض کنید یک متغیر گاوسی $X \sim N(\mu, \sigma)$ با $\sigma$ شناخته شده وجود دارد و من به کران پایین $\mu_L$ از میانگین با اطمینان $95\%$ علاقه مند هستم. سطح من آزمایش را برای 5 دلار بار انجام می‌دهم و X_1$، X_2$، X_3$، X_4$، X_5$ را مشاهده می‌کنم. **گزینه 1:** من هر نمونه را جداگانه بررسی می کنم و می توانم $\mu_L = X_i - \sigma z$ را برای هر $X_i$ محاسبه کنم. و سپس حدس می‌زنم راهی (نمی‌دانم چگونه) برای محاسبه کران پایین واقعی از این 5 $\mu_L$ وجود دارد. **گزینه 2:** از طرف دیگر، اگر $T = (X_1+X_2+X_3+X_4+X_5)/5$ را بگیرم، می‌توانم $\mu_L = T - \sigma/\sqrt{5} را محاسبه کنم. z$. (با فرض اینکه $T$ نرمال باشد، می توانیم از t-stat نیز استفاده کنیم.) سوال من این است که آیا روش دیگری غیر از گزینه 2 برای محاسبه کران پایین بر اساس نمونه های $5$ وجود دارد؟ و برای گزینه 1 آیا راهی برای محاسبه کران پایین بر اساس 5 کران پایین محاسبه شده وجود دارد؟
گیج شدن در مورد فاصله اطمینان
103968
فرض کنید من یک دیتافریم متشکل از شش سری زمانی دارم. در این چارچوب داده، برخی از مشاهدات وجود ندارد، به این معنی که در برخی از مقاطع زمانی، تمام سری های زمانی حاوی یک مقدار NA هستند. در R، یکی از بسته‌های انباشته ممکن که می‌توان برای تلقین داده‌های سری زمانی استفاده کرد، Amelia است. با این حال، این بسته برای مشاهداتی که کاملاً گم شده اند کار نمی کند. آیا راه های دیگری برای محاسبه داده های من وجود دارد؟ با توجه به ارزش آن، میزان مشاهدات از دست رفته کمتر از 20 درصد کل مشاهدات است.
منتسب کردن مشاهدات گمشده در سری های زمانی چند متغیره
103969
این دنباله سازه انگاری این سوال است. اگر نمی‌توانیم یک متغیر تصادفی یکنواخت گسسته داشته باشیم که همه منطق‌ها را در بازه $[0,1]$ پشتیبانی کند، بهترین چیز بعدی این است: یک متغیر تصادفی $Q$ بسازیم که این پشتیبانی را داشته باشد، $Q\ در \mathbb{Q}\cap[0,1]$، و از توزیع _some_ پیروی می کند. و صنعتگر در من مستلزم این است که این متغیر تصادفی از توزیع های موجود _ساخته شده_ باشد، نه اینکه با تعریف انتزاعی آنچه می خواهیم به دست آوریم ایجاد شود. بنابراین من به موارد زیر رسیدم: اجازه دهید $X$ یک متغیر تصادفی گسسته باشد که از Geometric Distribution-Variant II با پارامتر $0<p<1$، یعنی $$ X \in \\{0,1,2,.. پیروی می کند. .\\}،\;\;\;\; P(X=k) = (1-p)^kp,\;\;\; F_X(X) = 1-(1-p)^{k+1}$$ همچنین اجازه دهید $Y$ یک متغیر تصادفی گسسته به دنبال Geometric Distribution-Variant I با پارامتر یکسان $p$، یعنی $$ Y \in باشد. \\{1,2,...\\},\;\;\;\; P(Y=k) = (1-p)^{k-1}p,\;\;\; F_Y(Y) = 1-(1-p)^k$$ $X$ و $Y$ مستقل هستند. اکنون متغیر تصادفی $$Q = \frac {X}{Y}$$ را تعریف کنید و توزیع _شرطی_$$P(Q\leq q \mid \\{X\leq Y\\})$$ را با کلمات ساده در نظر بگیرید $Q$ شرطی نسبت $X$ به $Y$ است مشروط به اینکه $X$ کوچکتر یا مساوی $Y$ باشد. پشتیبانی از این توزیع شرطی $\\{0,1,1/2,1/3,...,1/k,1/(k+1),...,2/3,2/4 است. ,...\\} = \mathbb{Q}\cap[0,1]$. ** سوال این است: آیا کسی می تواند تابع جرم احتمال شرطی مرتبط را ارائه دهد؟** نظری پرسیده است آیا باید به صورت بسته باشد؟ از آنجایی که امروزه شکل بسته آنقدر واضح نیست، اجازه دهید آن را به این صورت بیان کنم: ما در جستجوی یک فرم تابعی هستیم که بتوانیم یک عدد گویا از $[0,1]$ را وارد کنیم و احتمال (( البته برای مقداری مشخص از پارامتر $p$)، که منجر به یک _graph_ نشان دهنده pmf می شود. و سپس $p$ را تغییر دهید تا ببینید نمودار چگونه تغییر می کند. اگر کمک کند، می‌توانیم یک یا هر دو مرز پشتیبانی را باز کنیم، اگرچه این گونه‌ها ما را از توانایی نمودار کردن مقادیر بالا و/یا پایین **pmf** محروم می‌کنند. همچنین، اگر کران بالایی را باز کنیم، باید رویداد شرطی $\\{X<Y\\}$ را در نظر بگیریم. از طرف دیگر، **من از سایر r.v.هایی که این پشتیبانی(ها) را دارند، استقبال می کنم، تا زمانی که آنها با pmf خود همراه شوند_**. من از توزیع هندسی استفاده کردم زیرا دو نوع آن به آسانی در دسترس است که یکی از آنها صفر را در پشتیبانی درج نمی کند (به طوری که از تقسیم بر صفر اجتناب شود). بدیهی است که می توان از سایر r.v های گسسته با استفاده از مقداری برش استفاده کرد. من مطمئناً برای این سؤال جایزه خواهم داد، اما سیستم فوراً این اجازه را نمی دهد.
ساخت یک r.v گسسته به عنوان پشتیبان همه دلایل منطقی در $[0,1]$
62338
من می خواهم بدانم چگونه می توانیم حداکثر مقدار انحراف معیار، $\sigma$ را تعیین کنیم. با توجه به یک محدوده برای یک جامعه یا نمونه، $[a, b]$ که در آن $b$ حداکثر مقدار و $a$ حداقل مقدار است، تصور می‌کنم محدوده $\sigma$ نیز وجود داشته باشد که من آن را به عنوان $ نشان می‌دهم. [0, m]$، یعنی $0 \leq \sigma \leq S$. من فکر می کنم حداقل $\sigma$ باید 0 باشد زیرا اگر همه نمونه ها یک مقدار باشند، هیچ انحرافی از میانگین وجود ندارد. اما حداکثر $\sigma$ از میانگین چطور؟ اساساً می‌خواهم بدانم چگونه می‌توان کران‌های پایین و بالایی را برای $\sigma$، با توجه به محدوده جامعه یا نمونه محاسبه کرد. خیلی خوب می شود اگر بتوانم به یک مقاله یا کتاب برای تایید پاسخ هایی که می گیرم ارجاع بدهم.
حداکثر انحراف معیار، $\sigma$
93486
فرض کنید $\mu$ میانگین و $\sigma$ انحراف استاندارد توزیع احتمال تعریف شده در بازه محدود $[a,b]$ باشد (یعنی احتمال قرار گرفتن متغیر تصادفی خارج از $[a,b) دلار صفر است). آیا نابرابری زیر به طور کلی برای چنین توزیع احتمالی صادق است؟ $$\sigma^2 \le (\mu-a)(b-\mu)$$ **انگیزه:** این نابرابری برای توزیع بتا صادق است (همانطور که از فرمول های اینجا مشخص است).
$\sigma^2 \le (\mu-a)(b-\mu)$ برای همه توزیع‌های احتمال محدود شده در $[a,b]$؟
103966
من در حال ساخت یک تست مربع کای بر روی داده هایی هستم که اطلاعاتی در مورد دانش آموزان دارد. می‌خواهم بدانم آیا بین میزان موفقیت دانش‌آموزان در یک آزمون خاص و میزان ترک تحصیل رابطه وجود دارد یا خیر. من یک ماتریس 2×2 با متغیرهای Level in test دارم که مقادیر level 1 و level 2 را می گیرد و متغیر dropout که دارای مقادیر not active و active است. من یک آزمون مربع کای برای استقلال روی کل دانشکده انجام داده ام (_n_ = 1688) و مقدار p = 0.0042، که نشان می دهد بین دانش آموزان در سطح 1 و 2 در رابطه با ترک تحصیل آنها تفاوت وجود دارد. اما وقتی همان تحلیل را روی هر یک از 5 آموزش در دانشکده انجام می‌دهم، مقادیر p را دریافت می‌کنم (0.5275، 0.6499، 0.1190، 0.3298، 0.2660). این نتایج فردی این است که هیچ تفاوتی در دانش‌آموزان «سطح 1» و «سطح 2» در رابطه با «ترک تحصیل» وجود ندارد. آیا این نتایج متناقض است؟ به چی اعتماد کنم؟ (به داده های پیوست مراجعه کنید.) از قبل برای کمک تشکر می کنم! > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5uG1b.png)
تفسیر و درک نتایج از آزمون مربع کای برای استقلال
109679
من سعی می کنم انتظار $$E[e^{cX}]$$ را برای $c<0$ دلخواه محاسبه کنم (برای $c>0$ انتظار بی نهایت است) اگر $X$ به طور منطقی توزیع شده باشد، یعنی $\log (X) \sim N(\mu، \sigma)$. ایده من این بود که انتظارات را به عنوان یک انتگرال بنویسم، اما نمی‌دانستم چگونه ادامه دهم: $$E[e^{cX}] = \frac{1}{\sqrt{2\sigma\pi}}\int_0^ \infty \frac{1}{x}\exp\left(cx - \frac{(\log x - \mu)^2}{2\sigma^2}\right)dx$$ من هم امتحان کردم فرمول Itô (وظیفه واقعی یافتن $E[e^{cX_T} \mid X_t = x]$ است که در آن $X$ یک حرکت هندسی براونی است، اما به مشکل بالا کاهش می‌یابد زیرا ما به یک فرآیند مارکوف نگاه می‌کنیم) ، اما این نیز چندان امیدوارکننده به نظر نمی رسید. کسی میتونه کمکم کنه؟
$E[e^{cX}]$ که در آن $c < 0$ و $X$ به طور منطقی توزیع شده است
78128
مطمئن نیستم که آیا این مکان برای این کار است، لطفا به من اطلاع دهید اگر نه! من سعی می کنم تکالیفی را تکمیل کنم و یکی از سوالات این است: با توجه به این درخت که با استفاده از الگوریتم ID3 مشتق شده است: جنسیت = مرد تلویزیون = بله درآمد = 40 - 50 سن = 30 - 40 -> پذیرش = بله سن = 40 - 50 -> گرفتن = بدون درآمد = 30 - 40 -> گرفتن = بله درآمد = 50 - 60 -> گرفتن بالا = بله درآمد = 20 - 30 -> برداشت = بله تلویزیون = خیر -> برداشت = نه و این مورد داده نادیده : جنسیت -> تبلیغات تلویزیونی مرد -> بله تبلیغات DVD -> بدون درآمد -> 40 - 50 سن - > 20 - 30 تا -> ? ارزش پذیرش این مورد چقدر باید باشد. من احساس می‌کنم که بله، زیرا در گروه سنی 30 تا 40 قرار می‌گیرد، اما سعی می‌کنم بفهمم که آیا واقعاً راهی برای حل آن وجود دارد یا خیر، اما مطمئن نیستم که دنبال چه چیزی هستم. به نظر می رسد که من 10 صفحه اول گوگل عجیب داده های دیده نشده در درخت تصمیم ID3 را جستجو کرده ام، اما هیچ چیز مفیدی از راه دور دریافت نمی کنم. پیوندهای مرتبط قدردانی می شود! با تشکر
داده های طبقه بندی نشده درخت تصمیم
15296
من مجموعه ای از نقاط داده دارم. برای هر مجموعه من رگرسیون خطی انجام داده ام تا بهترین خطوط را برای داده ها پیدا کنم. من فرض می کنم که گرادیان همه خطوط با بهترین تناسب باید صفر باشد. من میانگین و انحراف استاندارد همه گرادیان ها را گرفتم و اینها مقادیری هستند که محاسبه کردم: میانگین = 5.72 $ \times 10^{-5}$، انحراف استاندارد = 5.02 $ \times 10^{-4} $ برای من، یک فرد غیر معمول ، می توانم بگویم که این نشان می دهد که با توجه به مقدار میانگین بسیار کوچک و توزیع استاندارد فشرده، گرادیان ها باید صفر باشند. با این حال به من گفته شده است که باید کمی سخت‌گیرتر باشم - ظاهراً باید برای اثبات فرضیه‌ام آزمایش کای دو انجام دهم. لطفاً کسی می‌تواند مجموعه‌ای از مراحل را به من بدهد که در آن توضیح دهد که چگونه این کار را انجام دهم؟ با تشکر
تست Chi-square برای بررسی اینکه آیا مقادیر نزدیک به صفر هستند؟
4286
من تنظیمات زیر را دارم. من _n_ ماتریس های نیمه معین مثبت هرمیتین (HPSD) و یک متریک القا شده توسط یک هنجار ماتریس دارم. من در درجه اول به هنجار Frobenius و هنجار اپراتور علاقه مند هستم. من می خواهم مولفه اصلی اصلی را برای این مجموعه مشاهدات استخراج کنم، یعنی یک زیرفضای 1 بعدی در HPSD به طوری که مجموع مربعات حداقل فاصله بین ماتریس ها با این زیرفضا به حداقل برسد. من به مؤلفه های دوم، سوم و غیره علاقه ای ندارم، زیرا آنها حتی در این فضا به خوبی تعریف نشده اند، زیرا من یک محصول اسکالر را برای سادگی تعریف نکرده ام. در مورد هنجار Frobenius، با استفاده از نسخه های پشته ای ماتریس های ورودی به عنوان بردارهای ورودی، مشکل را می توان به PCA سنتی کاهش داد. اما در مورد هنجارهای اپراتور، من نمی توانم استراتژی برای حمله به مشکل پیدا کنم. سؤالات: 1. آیا کسی قبلاً این مشکل خاص را دیده است؟ توصیه ها و مراجع بسیار قدردانی می شود. 2. آیا کسی با محاسبه PCA در مورد فواصل غیر اقلیدسی سروکار داشته است؟
تجزیه و تحلیل مؤلفه های اصلی در بین ماتریس ها
88558
من می خواهم با استفاده از بسته statsmodel برای پایتون **نقاط bean** را ترسیم کنم. در مثال ارائه شده در مستندات، یک **علامت قرمز قرمز** را در هر پلات می بینم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7RsJ2.png) نشان دهنده چیست ?
beanplots: علامت بعلاوه؟
88550
من می‌خواهم عملکرد دو الگوریتم خوشه‌بندی را با هم مقایسه کنم که تعداد خوشه‌های متفاوتی به من می‌دهند. اخیراً از آمار شکاف مطلع شدم. با این حال، از آنچه من یاد گرفتم، از این آمار برای یافتن تعداد بهینه خوشه برای یک الگوریتم استفاده می شود (مثلاً در آن صفحه برای یافتن بهترین تعداد خوشه برای k-means استفاده می شود). آیا می توان از آن برای مقایسه اینکه کدام خوشه الگوریتم بهترین عملکرد را دارد استفاده کرد؟ (خوشه بندی را پیدا می کند که فاصله را در خوشه ها به حداقل می رساند و فاصله بین آنها را به حداکثر می رساند)
استفاده از آمار شکاف برای مقایسه الگوریتم ها
69408
من در تلاش برای یافتن وزن های بهینه برای یک ترکیب خطی هستم. من قبلاً علائم وزنه ها (+/-) را می شناسم. به طور خاص من داده های بیان ژنی دارم که در آن 100 ژن به یک مسیر خاص تعلق دارند. من می دانم که کدام ژن تنظیم کننده (علائم) آن 100 ژن هستند یا نه. من سعی می کنم برای هر نمونه با استفاده از وزن های مناسب امتیاز مسیر را محاسبه کنم. آیا روشی از نوع بیزی (برای اینکه بتوانم از اطلاعات قبلی +/- استفاده کنم) وجود دارد که بتوان از آن برای بدست آوردن وزن استفاده کرد؟
وزن های بهینه برای ترکیب خطی
72243
با کد زیر، پیش‌بینی‌های خطی Holt و Holt-Winters را با استفاده از Excel / Solver اجرا کرده‌ام. من می‌خواستم این را با استفاده از R تکرار کنم (اکسل می‌تواند دردناک باشد) اما خطای زیر را با «hw()» دریافت می‌کنم. این اولین بار است که این را با R اجرا می کنم، بنابراین سعی می کنم از طریق اسناد پیش بروم. من فرض می کنم اجرای تابع مقدار اولیه را انتخاب می کند و همچنین پارامترها را بهینه می کند؟ یا من خیلی دور هستم؟ در هر صورت، فکر می‌کردم «hw()» کار می‌کند، اما واضح است که من در اینجا کار اشتباهی انجام می‌دهم. x<-c(12638.8,11583.3,13024.1,12594.2,13068.1,12765.4,13125.6,13316.3,1 3054.7,13879.3,14436.6,17861,13923.8,12418.4,13854.4,13558.8,14335,1363 9.9,14132.2,14457.2,14045.4,14941.2,15556,18984.2,14825.5,13138.3,14473 .6,14507.6,15055.9,14384.2,15199.7,15169.7,15223.5,16412.9,16662.9,2063 8.9,16154.8,14696,15793.8,15804.2,15895,15868.6,16435.6,15945.9,16381.4 ,17084.2,17261,21652.6,16330.6,14840.5,16419.8,16104.2,16326.2,16453.4, 16750.3,16678,16816.4,17431.7,17920.6,22491.3,17016.6,15534.8,17339.2,1 7065.6,17313.3,17448.2,17617.5,17814.2,17747.6,18592.4,19223.3,23636.1) x.ts <- ts(x، start=2001، فرکانس=12) نمودار(x.ts) ####هولت خطی(x، h=12، damped=FALSE، level=c(80،95)، fan = FALSE، اولیه = c (بهینه)، نمایی = FALSE، آلفا = NULL، بتا = NULL) #Holt-Winters hw(x، h=2*فرکانس(x)، seasonal=multiplicative، damped=FALSE، level=c(80,95)، fan=FALSE، initial=c(بهینه)، نمایی=TRUE، آلفا =NULL، بتا=NULL، گاما=NULL) # hw خطای زیر را می دهد #Error در ets(x، AAA، آلفا = آلفا، بتا = بتا، گاما = گاما، میرایی = میرا، : داده های غیر فصلی
هولتز خطی و هولت-وینترز در R
69401
من می‌خواهم امتیاز z را برای توزیعی که نسبت شانس و مقدار p را می‌دانم محاسبه کنم. من همچنین محدودیت های اطمینان 95 درصدی بالا و پایین را برای نسبت شانس می دانم. یک مثال با نقاط دو داده در اینجا نشان داده شده است. OR_95 OR_95U p-value 0.997804 0.970573 1.025798 0.876215 1.039562 1.010116 1.069866 0.00815
امتیاز z را از نسبت شانس محاسبه کنید
81622
من آشکارا اعتراف می کنم که آمار و برنامه ریزی آماری واقعاً در چرخ من نیست. گفته می شود، شغل من این را می طلبد. من سعی می‌کنم داده‌های جمع‌آوری‌شده از یک نظرسنجی قبل و بعد از آزمون را تجزیه و تحلیل کنم که در آن پاسخ‌ها با مقیاس لیکرت 1 تا 5 اندازه‌گیری شدند. 1- کاملا موافقم و 5 کاملا مخالفم. اساساً ما می‌خواهیم ثابت کنیم که مداخله ما نگرش‌ها را تغییر می‌دهد تا کاملاً موافق اکثریت باشد. من می خواهم بتوانم درصد رشد را برای هر یک از 14 سوال خود از قبل تا پس آزمون نشان دهم. اساساً باید بدانم تغییر چیست؟ دوباره از SPSS استفاده می کنم و در راه بالای سرم.
تجزیه و تحلیل پیش و پس آزمون با استفاده از مقیاس لیکرت و SPSS
109674
من فکر می کنم که این یک موضوع جالب برای همه کسانی است که می خواهند نه تنها یک تابع پیش بینی را تنظیم کنند، بلکه می خواهند باندهای پیش بینی را برای ارزیابی خطای گرافیکی یا جدولی به دست آورند، من سعی می کنم گام به گام روش دلتا را روی داده های خود اعمال کنم. با این حال، همانطور که می خواهم پیشرفت های خود را برای رسیدن به فینال با شما به اشتراک بگذارم. با خلاصه کردن و مرور روش استاندارد با استفاده از نرم افزارهای تجاری بیش از همه، متوجه می شویم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/h23aM.jpg) جایی که ریشه دوم سمت راست معکوس را شامل می شود. ماتریس Hessian فکر می کنم، اگرچه به آن می گویند ماتریس طراحی. و همچنین تابع ماتریس گرادیان. بنابراین من کدم را در اینجا به اشتراک می‌گذارم تا سعی کنم یک تابع غیرخطی سفارشی را متناسب کنم و فواصل پیش‌بینی آن (اطمینان و پیش‌بینی، یا زبان Mathematica، میانگین و فواصل پیش‌بینی ساده) را ارزیابی کنم. کد با داده‌های مثال من: (*داده‌های مثال*) در[1]:= داده = {31، 46، 70، 87، 87، 93، 114، 128، 133، 134، 143، 155، 161، 161، ، 177، 181، 207، 207، 226، 302، 315، 319، 347، 347، 362، 375، 377، 413، 440، 447، 461، 464، 511، 524، 556، 800، 800، 8 12000}; In[2]:=dist = ProbabilityDistribution[{CDF, Exp[-a Exp[-x b] - c Exp[-x d]]}, {x, 0, Infinity}, Assumptions -> {{0 < a < 10}، {0 <b <1}، {0 <c <10}، {0 <d <1}}]; در[3]:= res = FindDistributionParameters[data, dist, {{a, 3.8}, {b, 0.006}, {c, 0.08}, {d, 0.0002}}]; (* ACOV است:*) در[4]:= acov[data_, dist_, paramlist_, mleRule_] := Block[{len, infmat, cov}, len = Length[data]; infmat = -D[LogLikelihood[dist, data], {paramlist, 2}]/len /. mleRule; cov = معکوس[infmat]]; In[5]:= akov[data، dist، {a، b، c، d}، res]; (* تابع گرادیان G' *) در[6]:=D[Exp[-a Exp[-x b] - c Exp[-x d]], {{a, b, c, d}}]; در[7]:=پارتیشن [%4]; In[8]:= Transpose[%7]; (* برای ضرب Transpose-Gradient در acov در Gradient*) در[9]:=%7 %5 %8 (*مقدار بحرانی T-student به آلفا 0.05 و 42 داده*) Quantile[StudentTDistribution[41]، 0.95] مشکل اکنون اعتبارسنجی این کد و انجام آن با استفاده از یک مثال عددی برای بدست آوردن y پیش بینی شده و اطمینان آنها است. و فواصل پیش بینی یعنی ماتریس نهایی باید یک عدد ساده بدهد و سپس باید MSE و همچنین quaantile t-student را محاسبه کنیم. پست های مرجع: http : //mathematica.stackexchange.com/questions/6498/standard - errors - for - maximum - likelihood - تخمین ها - در - finddistributionparameters; http : //stats.stackexchange.com/questions/15423/نحوه - محاسبه - پیش بینی - باند - برای - رگرسیون - غیر خطی؟answertab = فعال #tab - top http : //stats.stackexchange.com/questions /68080/سوال - پایه - در مورد - اطلاعات - ماتریس - و - رابطه - با - هسین - و - فیشر منتظر کمک شما هستم، متشکرم.
استفاده از روش دلتا برای تولید باندهای پیش بینی برای توزیع های سفارشی گام به گام
43459
من یک سوال جالب در مورد داده های طولی دارم و به دنبال یک معیار خلاصه مناسب هستم که به من امکان دهد بدون دانستن/استفاده از چیزی در مورد داده های همبسته به سؤال مورد علاقه خود پاسخ دهم. فرض کنید ما دو نمونه متفاوت داریم - یک درمان و یک کنترل. در هر آزمایش، آزمودنی‌ها باید یک پازل را حل کنند و تعداد تلاش‌ها برای حل پازل را می‌شماریم. تعداد تلاش ها می تواند 1، 2، 3 باشد، یا اگر معما پس از 3 بار حل نشد، موضوع در این آزمایش شکست خورده است. آزمایش را 10 بار تکرار می کنیم تا هر موضوع 10 پازل را حل کند. بدیهی است که ما داده های همبستگی داریم زیرا 10 اندازه گیری در مورد هر موضوع داریم. فرضیه مورد علاقه من این است که آیا اثر یادگیری وجود دارد یا خیر. آیا به اندازه گیری خلاصه ای در مورد هر موضوع فکر می کنید (هر موضوع دارای 10 اندازه گیری است) که اندازه گیری های مربوط به آن موضوع را در یک اندازه گیری خلاصه می کند تا بتوانیم از دریافت داده های مرتبط اجتناب کنیم (یا حداقل تلاش کنیم از آن اجتناب کنیم؟) ممنون
یک معیار خلاصه خوب برای تجزیه و تحلیل اندازه گیری های مکرر داده های طولی؟
86230
من با چند مشکل از SAS به R مهاجرت می‌کنم، بدون اینکه به شکاف‌های بزرگ در دانش آماری اشاره کنیم. من در یک مطالعه طولی به بررسی تأثیر قومیت بر فشار خون می پردازم. برای همه گروه های قومی، مشهود است که فشار خون آنها در 3-4 سال اول کاهش می یابد و پس از آن به طور پیوسته افزایش می یابد (روند دیگری مشاهده نشد). من 100000 مشاهده دارم، از 10000 فرد منحصر به فرد. داده ها به شدت نامتعادل هستند. برخی از افراد 1 مشاهده دارند در حالی که برخی دیگر 20 مشاهده دارند. مشاهدات در مقاطع زمانی مختلف جمع آوری می شوند. متغیرهای کمکی ثابت: سن، جنس، درمان، BMI، قومیت. متغیرهای کمکی تصادفی: قومیت واحد اندازه گیری مکرر: فردی (ID). چگونه این را مدل می کنید؟ من به تفاوت های قومی علاقه مند هستم و بنابراین باید قومیت را به عنوان یک متغیر ثابت داشته باشم. اما قومیت را می‌توان به‌عنوان یک سطح از نظر مدل‌های چند سطحی ارزیابی کرد، و بنابراین در مدل‌های ترکیبی به‌عنوان تصادفی مدل‌سازی شد. اگر اشتباه نکنم، سوژه های من در میان گروه های قومی تودرتو هستند. من دفترچه های راهنمای بسته nlme و بسته lme4 را خوانده ام. با وجود روند غیرخطی فشار خون، تصمیم گرفتم با lme4 همراه شوم، اما سعی کردم با گرفتن دومین چند جمله‌ای مدت زمان (زمان*زمان) آن را تنظیم کنم. چگونه این را مدل می کنید؟ به عنوان مثال: lmer(hba1c_up ~ سن + جنس + (1| قومیتx/ID)) ? lmer(hba1c_up ~ سن + جنس + (1|ID) + (1|Ethnicityx)) پیشنهادی دارید؟ کمک بسیار قدردانی خواهد شد! /آدام
مشاوره برای مدل ترکیبی با جلوه های چند سطحی در R
108565
برای دیریکله استاندارد، انتظار $X_i$ $\alpha_i/\alpha_0$ است، که در آن $\alpha_0 = \sum_i \alpha_i$ (http://en.wikipedia.org/wiki/Dirichlet_distribution) است. من تعمیم زیر را در نظر دارم. فرض کنید در حال انجام یک بازی پوکر ساده به شرح زیر هستیم. ما بازیکن 1 هستیم و بازی های بازیکن 2 را مشاهده می کنیم. بازیکن 2 را می توان با یکی از دو دست با احتمال 1/2 (یا به طور کلی احتمال $p$) - K یا Q (بازیکن 2 این را می بیند و بازیکن 1 نمی بیند). سپس بازیکن 2 یکی از اقدامات $i$ را انتخاب می کند. اجازه دهید $X_i$ نشان دهنده rv برای بازیکن احتمالی 2 باشد، عمل $i$ را با یک K انجام می دهد، و اجازه دهید $Y_i$ نشان دهنده rv برای Q باشد. $ و $Y_i$ مستقل هستند (استراتژی او برای K مستقل از استراتژی او برای Q است). بازیکن 1 فقط اکشن $i$ از P2 را مشاهده می کند و نه کارت خود را. من سعی می کنم یک فرم بسته برای $E[X_i]$ و $E[Y_i]$ پیدا کنم. این تعمیم با توزیع عمومی دیریکله متفاوت است، که یک راه حل بسته نسبتا ساده برای انتظارات دارد (http://en.wikipedia.org/wiki/Generalized_Dirichlet_distribution). من فکر می‌کنم pdf این توزیع به صورت زیر است، که $p$ نشان‌دهنده احتمال اینکه P2 یک K داده می‌شود، $\alpha_i$ تعداد دفعاتی است که تا به حال اقدام کرده است $i$، و $N(\alpha) )$ مقداری ثابت عادی سازی است که من مطمئن نیستم چگونه محاسبه کنم: $$f(x,y;\alpha) = N(\alpha) * \prod_i [p x_i + (1-p)y_i]^{\alpha_i}$$ که در آن $x_i، y_i \geq 0، \sum_i x_i = 1، \sum_i y_i = 1.$ می‌توان قضیه دوجمله‌ای را در اینجا اعمال کرد، اما مطمئن نیستم چگونه برای ادامه و اگر این حتی کمک خواهد کرد. به نحوی تابع گاما/بتا برای بازی باید وارد شود. خیلی ممنون
انتظار تعمیم توزیع دیریکله
69405
من در حال نصب مدلی با استفاده از تابع auto.arima در بسته پیش بینی هستم. من مدلی دریافت می کنم که برای مثال AR(1) است. سپس باقی مانده ها را از این مدل استخراج می کنم. این چگونه همان تعداد باقیمانده بردار اصلی را ایجاد می کند؟ اگر این یک مدل AR(1) است، تعداد باقیمانده ها باید 1 کمتر از ابعاد سری زمانی اصلی باشد. چه چیزی را از دست داده ام؟ مثال: require(forecast) arprocess = as.numeric(arima.sim(model = list(ar=.5), n=100)) #auto.arima(arprocess, d=0, D=0, ic=bic , stationary=T) # سری: arprocess # ARIMA(1,0,0) با میانگین صفر # ضرایب: # ar1 # 0.5198 # s.e. 0.0867 # sigma^2 به‌عنوان 1.403 تخمین زده شد: log likelihood=-158.99 # AIC=321.97 AICc=322.1 BIC=327.18 r = resid(auto.arima(arprocess, d=0, D=0, ic=bic, stationary= T)) > length(r) [1] 100 به روز رسانی: با جستجوی کد auto.arima، می بینم که از Arima استفاده می کند که به نوبه خود از 'stats:::arima' استفاده می کند. بنابراین سوال واقعا این است که stats:::arima باقیمانده ها را برای اولین مشاهده چگونه محاسبه می کند؟
باقیمانده ها در R با استفاده از auto.arima و بسته پیش بینی
103963
CrossPost: https://stackoverflow.com/questions/24301743/which-machine- learning-algorithm-is-the-slowest-but- surest?noredirect=1#comment37556042_24301743 شاید درک من از زمان توسط این ماشین های سریعتر تقویت شود روزها، اما من فکر می کردم که آیا نوعی از یادگیری ماشین وجود دارد یا خیر که بیشتر طول می کشد اما نتایج بسیار بهتری را در مجموعه داده های بزرگ با نویز زیاد به همراه خواهد داشت. من در اینجا فرض می کنم که همگرایی سریعتر به نحوی با احتمال گیر افتادن در یک افراط محلی ارتباط دارد. من متوجه نوسانات کمی بعد از 100-500 دوره می شوم که در آن مرحله من فقط باید دوباره راه اندازی کنم. من در حال حاضر از یک شبکه عصبی پیش‌خور برای رگرسیون و طبقه‌بندی استفاده می‌کنم. گمان می‌کنم الگوریتم‌های ژنتیک به نظر می‌رسد که زمان‌برترین انواع یادگیری ماشینی «نیروی بی‌رحم» باشند. من همچنین به این فکر می‌کردم که انواع دیگر شبکه‌های عصبی را می‌توان تغییر داد (مانند تکانه یا نرخ یادگیری آنها برای افزایش دامنه آن بر روی تابع). بدیهی است که من سعی کردم هر دوی اینها را تنظیم کنم اما این مشکل من را حل نکرد.
کدام الگوریتم یادگیری ماشینی کندترین اما مطمئن ترین است؟
77759
در اجرای MCMC از مدل‌های سلسله مراتبی، با اثرات تصادفی معمولی و یک Wishart برای ماتریس کوواریانس آنها، نمونه‌گیری گیبس معمولاً استفاده می‌شود. با این حال، اگر توزیع اثرات تصادفی را تغییر دهیم (به عنوان مثال، به Student's-t یا یکی دیگر)، مزدوج از بین می رود. در این مورد، توزیع پیشنهادی مناسب (یعنی به راحتی قابل تنظیم) برای ماتریس کوواریانس اثرات تصادفی در الگوریتم متروپلیس-هیستینگ چیست، و نرخ پذیرش هدف، دوباره 0.234 چقدر باید باشد؟ پیشاپیش برای هر نکته ای متشکرم
توزیع‌های پیشنهادی برای ماتریس‌های کوواریانس در اجرای MCMC مدل‌های سلسله مراتبی
47849
من با یک مشکل عجیب با تغییر اندازه مجموعه تست مواجه هستم. توضیح این موضوع کمی گیج کننده است، اما من تمام تلاشم را خواهم کرد. من از اکتاو برای آموزش یک SVM بر روی داده های سری زمانی استفاده می کنم و به طور کلی نتایج خوبی به همراه دارد. با این حال، گاهی اوقات وقتی ویژگی‌های «بد» را معرفی می‌کنیم، SVM تقریباً بلافاصله در طول آموزش «تسلیم می‌شود» و مدلی تولید می‌کند که به طور موثر پیش‌بینی‌ها را روی یک ویژگی واحد سنجاق می‌کند. در این موارد، قطار در 1 ثانیه در مقابل 4-5 دقیقه معمولی کامل می شود. من هرگز واقعاً نمی دانستم که چه چیزی باعث آن می شود، اما فقط تصور می کردم که نمی تواند یک مدل مفید پیدا کند، که منطقی به نظر می رسید. مشکلی که اکنون با آن روبرو هستم این است که به نظر می رسد چیزی به سادگی عادی سازی می تواند تفاوت بین یک مدل بسیار مؤثر و یک نتیجه فوری تسلیم شدن باشد. مورد خاص این است: من مجموعه داده ای از مثلاً 5000 نمونه آموزشی دارم. آنها برای قطار/آزمایش به یک تقسیم 90/10 تقسیم می شوند و به خوبی کار می کنند. به طور مشابه، اگر مجموعه داده ها را 95/5 تقسیم کنم، این نیز خوب کار می کند (در واقع برای عملکرد تست، صرفاً به این دلیل که کوچکتر است). با این حال، به طرز عجیبی، اگر من مجموعه داده را 90/5/5 تقسیم کنم و 5٪ آخر را بیرون بیاورم، دستگاه از آموزش امتناع می کند. بنابراین تمام کاری که من انجام می‌دهم حذف بخشی از مجموعه تست است که باعث می‌شود کل فرآیند با شکست مواجه شود. برای گیج‌کننده‌تر کردن همه چیز، متوجه شدم که عادی‌سازی دلیل آن است: اگر نرمال‌سازی کنم (متوسط ​​صفر + مقیاس‌بندی) و سپس برش بزنم، همه چیز خوب کار می‌کند، اما اگر برش بزنم، _then_ normalize، دستگاه از کار می‌افتد. اساساً، نتیجه‌گیری من این است که حذف نمونه‌های آموزشی خاص در مجموعه آزمایشی باعث می‌شود که نرمال‌سازی (به طور طبیعی) با مقادیر متفاوتی مقیاس‌بندی شده باشد که به دلایلی مشکل‌ساز هستند. من حداقل/حداکثر/میانگین مقادیر مقیاس‌شده را در نظر گرفته‌ام و هیچ‌کدام از آنها بیش از چند درصد تغییر نمی‌کنند، بنابراین تا حدودی در مورد بعدی که باید دنبال کنم دچار مشکل هستم. هر گونه راهنمایی در مورد چگونگی تشخیص این یا آنچه ممکن است اتفاق بیفتد بسیار قدردانی خواهد شد. به سلامتی **به روز رسانی:** بعد از مدتی کار بیشتر روی این موضوع، متوجه شدم که اگر یک ویژگی با صفر بودن همه مقادیر وجود داشته باشد، دستگاه فوراً تسلیم می شود (این ممکن است در زیر مجموعه های خاصی از داده های آموزشی اتفاق بیفتد یا فقط بدشانسی باشد. ). اگرچه من می پذیرم که ویژگی همه صفرها ارزش کمی دارد، آیا دلیل خاصی وجود دارد که چرا این امر باعث می شود الگوریتم همانطور که توضیح داده شد رفتار کند؟ اتفاقاً اگر تفاوتی ایجاد کند، از هسته گاوسی استفاده می کنیم.
SVM به طور کامل با زمانی که مجموعه تست متغیر است شکست می خورد
69409
من مقداری داده متلب دارم. ستون اول مقداری طول پیام است و ستون دوم تعداد دفعات تکرار آن طول است. چیزی شبیه به این: 15 1 40 12 200 5 215 2 اولین غریزه من برای تجسم این داده ها این بود که آن را در یک نمودار میله ای قرار دهم، به این ترتیب: ![گراف نواری](http://i.stack.imgur.com/Rcqak .png) اما مشکل نمودارهای میله ای این است که یک فاصله مساوی ضمنی وجود دارد. در مورد تصویر بالا، یک فاصله 10 واحدی (در این مورد احتمالاً سال) از نوار به میله وجود دارد. همانطور که در مثال بالا نشان داده شده است، داده های من در همه جا فاصله یکسانی ندارند. و دامنه طول پیام زیاد است. یک تکه از داده هایی که من به تازگی پردازش کردم دارای محدوده ای از 44 تا 7756 با فاصله بسیار نامنظم است (در فاصله بین 10 تا 1000). من فکر نمی‌کنم هیستوگرام در اینجا انتخاب درستی باشد، زیرا داده‌هایی که من به آنها نگاه می‌کنم آنقدر نامنظم هستند که انتخاب خوبی برای اندازه سطل وجود ندارد. چگونه باید در مورد تجسم این داده ها اقدام کنم؟
وقتی فاصله بین میله‌ها برابر نیست، چه روشی برای ارائه داده‌ها در نمودار میله‌ای وجود دارد؟
50538
من یک آماردان نیستم، اما در حال اثبات کران بالای عبارتی هستم که حاوی واریانس متغیری است که مقادیر خود را از یک بازه بسته به دست می‌آورد [0,1]. من در چندین مکان (عمدتا در انجمن ها و صفحات وب) نتیجه را دیده ام که $\text{Var}(X)\le \frac{(b-a)^2}{4}$ برای $a\le X\le b$ . من می‌خواهم از این نتیجه استفاده کنم و به آن اشاره کنم، اما برای یافتن یک مرجع قوی به طور غیرعادی مشکل دارم. کسی اینجا میتونه یکی رو به من معرفی کنه؟
مرجع $\text{Var}(X)\le (b-a)^2/4$
86238
من یک سردرگمی بسیار اساسی در مورد اعتبارسنجی متقابل دارم. بگذارید بگوییم من در حال ساخت یک طبقه‌بندی‌کننده باینری خطی هستم و می‌خواهم از اعتبارسنجی متقاطع برای تخمین دقت طبقه‌بندی استفاده کنم. اکنون تصور کنید که اندازه نمونه من $N$ کوچک است، اما تعداد $k$ ویژگی ها بزرگ است. حتی زمانی که ویژگی‌ها و کلاس‌ها به‌طور تصادفی تولید می‌شوند (یعنی دقت طبقه‌بندی واقعی باید 50٪ باشد، ممکن است این اتفاق بیفتد که یکی از ویژگی‌ها به طور کامل کلاس باینری را پیش‌بینی کند. اگر $N$ کوچک و $k >> N$ باشد، چنین وضعیتی بعید نیست. ~~در این سناریو من 100% دقت طبقه‌بندی را با هر مقدار فولدهای اعتبارسنجی متقاطع دریافت می‌کنم، که بدیهی است قدرت واقعی طبقه‌بندی‌کننده من را نشان نمی‌دهد، به این معنا که احتمال طبقه‌بندی صحیح یک نمونه جدید هنوز فقط 50٪ است. ~~ [به روز رسانی: این **اشتباه** است. برای نشان دادن این که چرا اشتباه است، پاسخ من را در زیر ببینید.] ~~آیا روش های رایجی برای مقابله با چنین شرایطی وجود دارد؟~~ برای مثال، اگر بخواهم تفاوت آماری بین دو کلاس خود را ارزیابی کنم، می توانم MANOVA را اجرا کنم که در صورت وجود دو گروه به محاسبه T Hotelling کاهش می‌یابد. حتی اگر برخی از ویژگی‌ها تفاوت‌های تک متغیره قابل‌توجهی داشته باشند (مثبت کاذب)، من باید یک چند متغیره کلی غیرمعنادار دریافت کنم. تفاوت با این حال، من چیزی در روش اعتبارسنجی متقاطع نمی بینم که چنین موارد مثبت کاذبی را توضیح دهد (ممیزان نادرست؟). چه چیزی را از دست داده ام؟ یکی از چیزهایی که می توانم درباره خودم فکر کنم، این است که _over features_ را تایید متقابل کنم، به عنوان مثال. برای انتخاب زیرمجموعه تصادفی از ویژگی ها (علاوه بر انتخاب تصادفی یک مجموعه آزمایشی) در هر فول اعتبارسنجی متقابل. اما من فکر نمی کنم که چنین رویکردی اغلب (هیچ وقت؟) استفاده شود. **به روز رسانی:** بخش 7.10.3 عناصر یادگیری آماری با عنوان آیا اعتبارسنجی متقاطع واقعا کار می کند؟ دقیقاً همان سؤال را می پرسد و ادعا می کند که چنین وضعیتی هرگز نمی تواند ایجاد شود (دقت اعتبارسنجی متقاطع 50٪ خواهد بود، نه 100٪). تا اینجا من متقاعد نشده ام، خودم چند شبیه سازی را اجرا خواهم کرد. [به روز رسانی: حق با آنهاست. زیر را ببینید.]
آیا زمانی که حجم نمونه کوچک است، اعتبارسنجی متقاطع همچنان معتبر است؟
77037
متاسفم که به دلیل قراردادهای محرمانه نمی توانم بیش از حد صریح باشم. من سعی خواهم کرد مشکل خود را با قیاس بیان کنم. فرض کنید دو گروه از افراد دارید، یکی با شرایط و دیگری عادی. شما تقریباً 80 اندازه دور اعضای مختلف بدن را روی هر فرد انجام می دهید. واضح است که همه این اندازه‌گیری‌ها همبستگی خواهند داشت، برخی از آنها بیشتر از سایرین (اندازه‌گیری‌هایی که نزدیک به یکدیگر هستند تمایل بیشتری نسبت به سایرین دارند). شما یک فرضیه پیشینی دارید مبنی بر اینکه بیشترین تفاوت‌ها بین گروه‌ها در مکان‌های خاصی رخ می‌دهد (مثلاً «بیماران مبتلا به این بیماری بازوهای بزرگ‌تری نسبت به بیماران بدون آن خواهند داشت». به عنوان اولین قدم، ما به آزمون‌های t که اندازه‌گیری‌ها را بین گروه‌ها مقایسه می‌کردند، نگاه کردیم. تفاوت‌های بسیار معنی‌داری وجود داشت و بیشترین تفاوت‌ها در منطقه فرضی بود. ایده من این بود که از نوعی آزمون جایگشت استفاده کنم تا در حین محاسبه همبستگی ها، چندین آزمایش را محاسبه کنم. این نه تنها برای آزمایش فرضیه خاص است، بلکه برای تصحیح آزمایش‌های چندگانه روی تمام 80 اندازه‌گیری (به جای استفاده از بونفرونی) است. با این حال، من به کمک نیاز دارم: 1) آیا این منطقی است؟ 2) در صورت منطقی، راهنمایی در مورد نحوه انجام آن در «R» یا «SAS» وجود دارد؟ (هر گونه اشاره یا مرجع استقبال می شود) افزودن یک مرجع یکی از مقالاتی که چیزی شبیه به آنچه من می خواهم انجام می دهد نیکولز و هولمز است، اما آن برای داده های FMRI است که تا حدودی متفاوت است. و برنامه ای در متلب می دهند که من آن را ندارم و نمی دانم. همچنین، آنها دقیقاً مشکلی را که من دارم در نظر نمی گیرند.
تست جایگشت مجدد سوال برای یک مجموعه داده نسبتاً پیچیده
77035
من یک مجموعه داده با مجموعه ویژگی های ترکیبی دارم که هم از ویژگی های عددی و هم از ویژگی های متنی تشکیل شده است. تعداد ویژگی‌های عددی در مقایسه با تعداد ویژگی‌های متنی، یعنی 2000، بسیار کم است، یعنی 6 عدد. (مجموعه داده‌ها یک فایل csv است، که در آن 6 ستون فقط از مقادیر رقمی وجود دارد؛ ستون‌های دیگر فقط ساده هستند. متون). ما دریافتیم که حذف این ویژگی های عددی (ستون ها) در واقع عملکرد را بهبود می بخشد. با این حال، وقتی انتخاب ویژگی را بر اساس افزایش اطلاعات انجام می‌دهیم، به نظر می‌رسد که این ویژگی‌های عددی وزن بیشتری پیدا می‌کنند. چگونه این سناریو را توضیح دهیم؟
چگونه تفاوت اهمیت انتخاب ویژگی و کیفیت مدل را توضیح دهیم؟
86239
من یک احتمال بقای روزانه محاسبه شده و SE مرتبط دارم. از این طریق می توانم انحراف معیار را بدست بیاورم. من باید بقای تجمعی را در یک دوره خاص گزارش کنم. بنابراین برای مثال، برای یک دوره 38 روزه، که در آن نرخ بقای روزانه (DSR) = 0.97، و SD = 0.16، احتمال بقا در طول دوره به سادگی 0.97^38 = 0.314 است. آیا راهی برای محاسبه SD تجمعی نیز وجود دارد؟ آیا انجام این کار مناسب است؟ همچنین توجه داشته باشید که در این مثال DSR ثابت است، اما DSR و SD می‌توانند در برخی شرایط در طول دوره متفاوت باشند. این ممکن است کاملاً مستقیم باشد، اما به نظر نمی‌رسد که پاسخ قابل قبولی پیدا کنم. با تشکر برای هر گونه کمک.
محاسبه انحراف استاندارد تجمعی
108567
درک کلی من این است که AIC با مبادله بین خوب بودن تناسب مدل و پیچیدگی مدل سر و کار دارد. $AIC =2k -2ln(L)$k$ = تعداد پارامترها در مدل $L$ = احتمال معیار اطلاعات بیزی BIC ارتباط نزدیکی با AIC دارد. AIC تعداد پارامترها را با شدت کمتری نسبت به BIC جریمه می کند. من می بینم که این دو در همه جا از نظر تاریخی استفاده می شوند. اما اعتبار سنجی متقابل تعمیم یافته (GCV) برای من جدید است. چگونه GCV می تواند با BIC یا AIC ارتباط داشته باشد؟ چگونه این معیارها، با هم یا مجزا در انتخاب عبارت جریمه در رگرسیون پانلی مانند برجستگی استفاده می شوند؟ **ویرایش:** مثالی برای تفکر و بحث در اینجا آمده است: نیازمندی(lasso2) data(Prostate) need(rms) ridgefits = ols(lpsa~lcavol+lweight+ سن+lbph+svi+lcp+gleason+pgg45، روش =qr, data=Prostate,se.fit = TRUE, x=TRUE, y=TRUE) p <- pentrace(ridgefits, seq(0,1,by=.01)) effect.df(ridgefits,p) out <- p$results.all par(mfrow=c(3,2)) plot(out$df, out$aic, col = آبی، نوع = l، ylab = AIC، xlab = df ) plot(out$df، out$bic، col = green4، type = l، ylab = BIC، xlab = df ) plot(out$penalty، out$df، type = l، col = red، xlab = express(paste(lambda))، ylab = df ) plot( out$penalty، out$aic، col = آبی، type = l، ylab = AIC، xlab = عبارت(paste(lambda)) ) plot(out$penalty، out$bic، col = green4، type = l، ylab = BIC، xlab= عبارت(paste(lambda)) need(glmnet) y <- matrix(Prostate$lpsa, ncol = 1) x < - as.matrix (Prostate[,- length(Prostate)]) cv <- cv.glmnet(x,y,alpha=1,nfolds=10) plot(cv$lambda, cv$cvm, col = red, type = l, ylab = CVM, xlab= express(paste( لامبدا)) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HMAXf.jpg)
AIC، BIC و GCV: بهترین روش برای تصمیم گیری در روش های رگرسیون جریمه شده چیست؟
4284
من به دنبال توضیح شهودی مبادله بایاس واریانس، هم به طور کلی و هم به طور خاص در زمینه رگرسیون خطی هستم.
توضیح شهودی مبادله تعصب-واریانس؟
45588
فرض کنید که یک متغیر تصادفی دارای کران پایین و بالا [0,1] باشد. چگونه می توان واریانس چنین متغیری را محاسبه کرد؟
واریانس یک متغیر تصادفی محدود
108564
بنابراین من نتیجه ای از یک آزمایش بیولوژیکی دارم که در آن تعداد سلول های مرده را بر اساس یک جهش شمارش کرده ام. به عنوان مثال، در یک مورد - از 120 سلول، 16٪ از سلول های مرده را دیدیم، اما انتظارات ما حدود 10٪ بود. بنابراین برای بررسی تفاوت قابل توجه است، من آزمون Z برای تغییرات در نسبت را انجام داده ام. اما سوال من این است که آیا انجام تست مربع ch در یک آزمایش منفرد مانند موارد بالا امکان پذیر است؟ من خیلی در گوگل جستجو کرده ام، اما تمام نمونه هایی که می بینم از یک جدول احتمالی استفاده می کنند یا چندین متغیر را شامل می شوند.
تست مربع کای یا تست Z؟
4759
فقط برای کنجکاوی... اینجا بیشتر از چه زبانی استفاده می شود؟ R؟ متلب؟ پایتون؟ جاوا؟ برای نمونه اولیه یا برای تولید چیست؟ به عنوان مثال من فکر می کنم متلب بیشتر برای نمونه سازی استفاده می شود، پایتون برای هر دو پروت. و تولید ...
چه زبان برنامه نویسی برای استنتاج آماری؟
43450
من از Bayes ساده لوح یا درخت تصمیم استفاده خواهم کرد که هر دو مدل قانون را ارائه می دهد. برای نرمال سازی داده ها قبل از کار با چنین الگوریتم هایی ضروری است.
آیا قبل از الگوریتم های استخراج مدل قانون مانند ID3 به نرمال سازی داده ها نیاز است؟
103960
CrossPost: https://stackoverflow.com/questions/24301472/how-sensitive-are-ff-neural-networks من از هرس آگاه هستم و مطمئن نیستم که آیا نورون واقعی را حذف می کند یا وزن آن را صفر می کند، اما من می دانم با پرسیدن این سوال به گونه ای که گویی از فرآیند هرس استفاده نمی شود. در شبکه‌های عصبی پیشخور با اندازه‌های مختلف بر روی مجموعه‌های داده بزرگ با نویز زیاد: 1. آیا ممکن است یک (یا مقداری ناچیز) اضافی یا از دست رفته نورون‌های پنهان یا لایه‌های پنهان باعث ایجاد یا شکستن یک شبکه شود؟ یا اگر لازم نباشد وزن سیناپس آن به سادگی به صفر می رسد و اگر یک یا دو نورون از بین رفته باشد با سایر نورون ها جبران می شود؟ 2. هنگام آزمایش، آیا نورون های ورودی باید یکی یکی اضافه شوند یا در گروه های X؟ X چیست؟ افزایش 5؟ 3. در نهایت، آیا هر لایه پنهان باید دارای تعداد یکسانی نورون باشد؟ این همان چیزی است که من در مثال می بینم. اگر نه، چگونه و چرا اگر بر استفاده از آزمایش خالص تکیه نمی کنید، اندازه آنها را تنظیم می کنید؟ ترجیح می‌دهم زیاده‌روی کنم و بیشتر برای همگرایی منتظر بمانم تا اینکه شبکه‌های بزرگ‌تر خودشان را با راه‌حل وفق دهند. من پیکربندی های متعددی را امتحان کرده ام، اما هنوز اندازه گیری یک بهینه دشوار است.
شبکه های عصبی چقدر حساس هستند؟
56906
من با ارزیابی یک الگوریتم برنامه ریزی ژنتیک روبرو هستم. من از مجموعه داده Proben1 سرطان1 برای ارزیابی مدل های ایجاد شده توسط این الگوریتم استفاده می کنم. این مجموعه داده شامل 699 نمونه است که در حال حاضر به 50 درصد آموزش، 25 درصد اعتبار سنجی و 25 درصد داده های آزمون تقسیم شده است. بسیاری از مقالات دانشگاهی از اعتبار سنجی k-fold برای ارزیابی مدل های به دست آمده استفاده می کنند. من ایجاد مدل های k را برای کاهش واریانس در درصد رتبه بندی خطا درک می کنم. با این حال، نمی‌دانم که چرا انجام x برابر روش نگه‌داشتن (k=2) ترجیح داده نمی‌شود، جایی که هر بار داده‌ها به‌طور تصادفی به داده‌های آموزشی و آزمایشی تقسیم می‌شوند. دلیل عدم درک من این است که فکر می‌کنم مدل‌هایی که با مرتبه k بالاتر ارزیابی می‌شوند، به دلیل این واقعیت ساده که با درصد بالاتری از داده‌ها آموزش داده می‌شوند، کمتر تعمیم می‌یابند. با توجه به مجموعه داده های من از 699 نمونه، کدام یک از دو روش زیر ارجحیت دارد و چرا. * تقسیم در آموزش / اعتبار سنجی / آزمون و شاید این x بار تکرار شده به طور تصادفی به هر مجموعه با یک مجموعه آزمایشی 25٪ * اعتبار متقاطع 10 برابری اختصاص داده شود، اما در نتیجه با یک مجموعه آزمایشی فقط 10٪.
اعتبار سنجی متقاطع k برابر در مقابل اعتبار سنجی نگهدارنده k برابر
4288
هنگام تلاش برای تخمین تعداد واحدهای نمونه گیری با یک ویژگی، آیا روش جبری خوبی برای تجمیع امتیازهای تمایل برای آن ویژگی وجود دارد که هر کدام خطای خاص خود را دارند؟ به عنوان مثال، زمانی که امتیازات تمایل ممکن است با مقادیر متفاوتی از اطلاعات از هر واحد نمونه گیری محاسبه شود و هر یک خطای استاندارد خود را در آن تمایل دارد. یا می توان آنها را مقادیر مورد انتظار توزیع بتا دانست. در مورد دوم، می دانم که می توانم نتایج بتا-برنولی را از هر واحد نمونه برداری شبیه سازی کنم و نتایج را چندین بار جمع کنم. اما آیا برآوردگر ثابتی از نتیجه این فرآیند دشوار مقیاس وجود دارد؟ به طور خلاصه، مردم چگونه نمرات گرایش با قابلیت اطمینان های مختلف را جمع می کنند؟ ویرایش: گمان می‌کنم آن را ضعیف بیان کرده‌ام. داده هایی که من دارم همگی یا باینری یا مقوله ای هستند و هر مشاهده با احتمال مشاهده صحیح همراه است. بنابراین فرض کنید من 5 نفر دارم. که 3 تای آنها برای یک صفت مقدار 1 داشتند، 2 تای آنها برای آن صفت مقدار 0 داشتند که هر کدام به ترتیب احتمال درستی مشاهده شدن 0.8،.81،.82.،.83،.84 را داشتند. . مقدار مورد انتظار p (دارای آن ویژگی) چقدر است؟
تجمیع امتیازهای گرایش با قابلیت اطمینان متفاوت
17635
من از یک مدل رگرسیون لجستیک (glme4) برای تعیین اینکه آیا دو نوع مختلف کلمه (احساسی در مقابل غیر عاطفی) با دقت بیشتری تشخیص داده می شوند (دقیق = 0، خطا = 1) زمانی که در یک رنگ خاص (سبز، قرمز، آبی) نشان داده می شوند استفاده کردم. مدل لجستیک تفاوت معنی داری را بین قرمز و آبی با ضریب 0.064 نشان می دهد. این تفاوت تحت تأثیر نوع کلمه (ضریب 0.0042 = برای تعامل آماری مربوطه) قرار نگرفت. سوال من این است که آیا تابع expit <- function(x) { 1/(1+exp(-x)) } برای تعیین اندازه اثر (تغییر احتمال) برای هر یک از دو ضریب کافی است؟ چگونه می توان ضرایب بحرانی 0.064 و 0.0042 را در مقادیر درصد (اندازه اثر) بیان کرد؟ از نظر عددی، میانگین میزان خطای قرمز و آبی به ترتیب 12 و 15 درصد است. من از تابع lme4 lmer(Correct ~ WordType * Color + (1| شرکت کنندگان)، data = df) با contrasts(df$WordType) <- contr.sdif(2)) و Contrasts(df$Color) < استفاده کردم. - contr.sdif(3))`. نتایج در زیر آورده شده است: تخمین اثر ثابت SE Z intercept -1.86 .144 -12.96 WdTpe2-1 .058.055 1.05 Color21.006.028.228 رنگ 32.064.017 .79.3.0501. -.14 WdType:Color32.0042.033.127
آیا خروجی ها اندازه اثر را با رگرسیون لجستیک نشان می دهند؟
79141
من می خواهم مشاهدات خود را که از بیش از 2 متغیر تشکیل شده است در یک نمودار پراکنده طرح کنم. چند وقت پیش یک بسته R دیدم که این کار را با کاهش ابعاد (احتمالاً با استفاده از PCA و سایر الگوریتم‌ها) انجام می‌دهد و مشاهدات مشابه را نزدیک به هم ترسیم می‌کند. من در گوگل جستجو کردم که چگونه این کار را انجام دهم اما چیزی پیدا نکردم.
بردارهای ویژگی پروژه را در صفحه دو بعدی برای تجسم
86437
من در حال انجام پایان نامه خود در حسابداری هستم و یک پرسشنامه برای آزمایش فرضیه های خاصی در مورد رابطه بین متغیرهای مستقل و یک متغیر وابسته تهیه کردم. همه در مقیاس لیکرت 5 درجه ای اندازه گیری شد. من از SPSS برای تجزیه و تحلیل داده ها استفاده می کنم. متغیرها همه غیر نرمال هستند (من از آزمون کولموگروف- اسمیرنوف استفاده کردم) و بنابراین از همبستگی اسپیرمن برای آزمایش روابط استفاده خواهم کرد. میخواستم بدونم این کافیه؟ آیا باید از نوعی رگرسیون نیز استفاده کنم؟ و اگر انجام دهم، آیا باز هم نتایج اسپیرمن را درج می کنم؟ آیا مطالعات معمولاً شامل هر دو می شود؟ من هیچ آماری را مطالعه نکرده ام، بنابراین این برای من کاملاً جدید است.
گزارش رابطه بین متغیرها: همبستگی یا رگرسیون؟
96639
من قدردانی می کنم اگر کسی بتواند به من کمک کند معادله ریاضی را برای آریما فصلی (0،0،5) x (1،0،1) دوره 12 بنویسم.
چگونه می توانم معادله ریاضی ARIMA(0,0,5)(1,0,1) دوره 12 را بنویسم؟
19779
$Y_{ij} = \mu + u_i + e_{ij}$ را در نظر بگیرید که در آن $\mu$ یک ثابت است و $u_i ∼ N(0,\sigma_u^2 )$ موضوع اثر تصادفی $i$ است که مستقل است. از عبارت خطای $e_{ij} ~ N(0,σ_e^2)$. نمی‌توانم بفهمم چرا $${\rm cov}(Y_{ij}, Y_{ik}) = \sigma_u^2$$ لطفاً کسی می‌تواند توضیح دهد؟
چرا ${\rm cov}(Y_{ij}, Y_{ik}) = \sigma_u^2$ در مدل $Y_{ij} = \mu + u_i + e_{ij}$ است؟
19470
من سعی می کنم یک مدل داده پانل اقتصاد سنجی (اثرات تصادفی) با حدود 950 مشاهدات (بنابراین یک مجموعه داده کوچک) را اجرا کنم. داده های من شامل شرکت های دولتی مختلف اروپایی و تعداد کمی از آمارهای مالی آنها در 10 سال گذشته است. با این حال، من در جنبه زیر با مشکلات زیادی روبرو هستم: طبق آزمون Jarque-Bera (p مقدار 0) من فرض نرمال بودن را نقض می کنم. در حالی که چولگی من به اندازه کافی کوچک به نظر می رسد (زیر 3)، اما کشیدگی دارای ارزش 14 است. به عنوان یکی از گزینه‌هایی که خواندم می‌توانید لگاریتم را انتخاب کنید، اما یکی از متغیرهای من (ارزش افزوده بازار) اغلب منفی است و واضح است که Eviews به من اجازه نمی‌دهد آن گزینه را انتخاب کنم. آیا راه حل دیگری برای این مشکل وجود دارد یا کسی می تواند به یک تازه کار اقتصاد سنجی راهنمایی کند؟ پیشاپیش از شما متشکرم.
نقض فرض نرمال بودن