_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
40778 | من سعی می کنم یک مثال کامل از نحوه ترسیم منحنی های یادگیری پیدا کنم. من کلاس ML Andrew Ng را در Coursera تماشا کردم و او به استفاده از منحنی های یادگیری برای تشخیص مسائل واریانس سوگیری اشاره کرد. یادداشتهای من خط بالایی را بهعنوان مجموعه تست یا خطای cv نشان میدهند که با افزایش تعداد نمونههای آموزشی به سمت پایین حرکت میکند. این برای من منطقی است. مشکل من در خط پایین طرح است که خطای آموزشی است. من مطمئن نیستم که این به چه معناست و چرا این خطا با مثال های آموزشی بیشتر افزایش می یابد. آیا خطای آموزش باید در -1 ضرب شود؟ یا کار دیگری هست که باید انجام دهم؟ از هر نمونه کاری قدردانی می شود، همانطور که بسته R که به این امر کمک می کند. | منحنی های یادگیری مثال |
83462 | وقتی تخمینگر بین دادههای پانل خود را مدل میکنید، میانگین متغیرهای توضیحی آزمودنیها را در مقابل میانگین متغیرهای نتیجه آزمودنیها پس میگیرید. اما در این مدل رگرسیون، آیا باید یک رهگیری را نیز لحاظ کنید؟ خارج از کتاب درسی ما: > تخمینگر بین از بعد مقطعی (تفاوتها > بین واحدها) دادهها با رگرسیون میانگینهای فردی y روی میانگینهای فردی x و یک ثابت با استفاده از OLS که من با مثال بازی کردم، استفاده میکند. داده های کتاب گجراتی: مبانی اقتصاد سنجی، فصل 16. داده ها را می توانید در اینجا بیابید: http://shazam.econ.ubc.ca/student/gujarati/table15.4 این طرحی است که من ساختم (رنگ ها نشان دهنده 3 شرکت مختلف هستند): در نمودار می توانید داده های رگرسیون OLS جمع شده و اثرات ثابت را مشاهده کنید ( داده های رگرسیونی مستعار در برآوردگر. تخمین بین بین چگونه به نظر می رسد؟ یک رهگیری دارد یا سه؟ و اگر تمام نقاط داده شرکت ها دقیقاً بالای یکدیگر قرار گیرند، بنابراین آنها میانگین x را داشته باشند، چه؟  | برآوردگر بین در داده های پانل |
47209 | من روی یک مشکل طبقه بندی کار می کنم. با این حال، مجموعه داده آموزشی من بسیار کوچک است (فقط 800 مورد در مجموعه داده آموزشی) و هر آیتم داده حاوی تعداد کمی ویژگی است (فقط 5 ویژگی). در ابتدا، من از رگرسیون لجستیک برای ایجاد یک مدل برای این مجموعه داده استفاده کردم. متأسفانه، دقت پیشبینی مدل من بسیار بد بود. بعد، از مدل شبکه عصبی استفاده کردم، اما هیچ پیشرفتی را مشاهده نکردم. من گمان می کنم، تعداد آیتم های داده های آموزشی و تعداد ویژگی ها در هر آیتم برای آموزش رگرسیون لجستیک و شبکه عصبی کافی نیست. بنابراین سوال من این است که تکنیک های خوب برای مدل سازی مجموعه داده های کوچک چیست؟ | تکنیک های خوبی برای مدل سازی مجموعه داده های کوچک چیست؟ |
112053 | من آرایه ای از شناور دارم که میانگین و انحراف معیار را محاسبه می کنم. کاربر می تواند تعدادی از کلاس ها را بین 2 تا 8 مشخص کند. مقادیر حداقل و حداکثر هر کلاس با تعدادی انحراف استاندارد بالاتر و پایین تر از میانگین محاسبه می شود. مثال: nbr_classes = 4; میانگین = 10; min_value = 1 max_value = 10 std_deviation = 2 class_1_min = min_value class_1_max = mean - 2*std_deviation class_2_min = class_1_max class_2_max = mean - std_deviation class_3_d = class_2_max class_1_min = class_2_max class_viation class_3_max class_4_max = max_value من می خواهم تابعی ایجاد کنم که این کار را به صورت برنامه ای انجام دهد، با دانستن اینکه تعداد کلاس ها می تواند فرد باشد. | نحوه تعیین انحراف معیار بالا و پایین کلاس های میانگین به صورت برنامه ای |
112056 | در رگرسیون کمند یا رج، باید یک پارامتر انقباض را مشخص کرد که اغلب توسط $\lambda$ یا $\alpha$ نامیده می شود. این مقدار اغلب از طریق اعتبارسنجی متقاطع با بررسی مجموعه ای از مقادیر مختلف در داده های آموزشی و دیدن اینکه کدام بهترین را به دست می دهد، انتخاب می شود. $R^2$ در داده های آزمایشی. محدوده مقادیری که باید بررسی کنیم چقدر است؟ آیا دلار (0،1) دلار است؟ | محدوده معمولی مقادیر ممکن برای پارامتر انقباض در رگرسیون جریمه شده چقدر است؟ |
77964 | تصور کنید که داده های ساختار داده زیر را دارید | | env1 env2 env3 env4 env5 | | | | | replicates 1,2,3 4,5,6 7,8 9 10 در هر تکرار، درمان اسمی A و B خود را اعمال میکنید و پاسخ خود را برای هر تکرار در درمانهای متوالی A و B اندازهگیری میکنید. بنابراین هر تکرار یک نقطه داده برای تیمارهای A و B دارد. با استفاده از «lme4» یک GLMM از این داده ها ممکن است به این صورت باشد: glmer(پاسخ ~ درمان + (1|env/replicate)، خانواده=poisson، داده=داده) من می خواهم بدانم چه اثراتی دارد (پیامدهای مدل من) داشتن تنها یک تکرار در هر محیط در برخی موارد؟ | glmm عوامل تصادفی تو در تو نامتعادل |
86572 | فرض کنید که در حال انجام برخی استنتاج های بیزی آنلاین بر روی مشاهدات هستید. شما می خواهید $\mu، \sigma$ را برای $X$، با مدل $X \sim \mathcal{N}(\mu, \sigma)$ استنباط کنید. اکنون هر بار که یک $X_i$ مشاهده می کنید، قبلی خود را با نسخه جدید خود به روز می کنید و یک تخمین جدید $\mu_i، \sigma_i$ دریافت می کنید. این مقدمه برای مشاهدات بعدی شما و غیره می شود. اکنون پس از $n$ مشاهدات، تخمین شما $\mu_n، \sigma_n$ ناشی از اعمال بازگشت بر روی های قبلی شما $\mu_0، \sigma_0$، جایی که : $$ است. P(\mu_n، \sigma_n) \propto P(\mu_{n-1}، \sigma_{n-1}) \times P(X_n \sim \mathcal{N}(\mu_{n-1},\sigma_{n-1}) | \mu_{n-1},\sigma_{n-1})$$ اکنون است آیا ممکن است مدل بیزی خود را بدون نیاز به محاسبه مجدد کل زنجیره، نکات قدیمی را فراموش کند؟ به عبارت دیگر، اگر میخواهید این مدل را برای یک جریان داده اعمال کنید (چون امتیازات زیادی دارید)، آیا میتوانید آن را فراموش کنید که نقاط قدیمی را فراموش کند؟ امیدوارم سوالم را به اندازه کافی روشن کرده باشم، در صورت نیاز، نظرات را ویرایش خواهم کرد. خیلی ممنون | آیا ممکن است یک مدل بیزی نکاتی را «فراموش» کند؟ |
40777 | میخواهم یک خوشهبندی فضایی از دادههای پراکنده انجام دهم که مکانهای جغرافیایی افراد در یک منطقه شهری را نشان میدهد. به نظر می رسد خوشه بندی سلسله مراتبی به خوبی کار می کند، و من این کار را برای 100000 نقطه داده در مجموعه با موفقیت انجام داده ام. با این حال، به عنوان یک محدودیت/هدف اضافی، ما آرزو می کنیم که تعداد خوشه ها برابر باشد. یعنی مرکز شهر از نظر فضایی یک منطقه کوچک و مناطق حومه شهر بزرگ خواهد بود. آیا راه حل آماده ای برای این مشکل وجود دارد؟ | خوشه بندی فضایی با این محدودیت که همه خوشه ها دارای تعداد مساوی باشند |
38188 | من یک کاربر جدید از مدل های ترکیبی هستم و از طریق مطالبی که خوانده ام همیشه مقادیر احتمال (p>t) یا (p>z) وجود دارد که اهمیت سطح یک عامل را در مدل تخمین می زند. با این حال، هنگام استفاده از تابع `lmer()` در R، که ظاهراً آن احتمالات را به شما می دهد، من آنها را پیدا نمی کنم. در اینجا خروجی است: مدل خطی ترکیبی متناسب با REML فرمول: دما ~ عمق + (1 | محل) داده: qminmatrix AIC BIC logLik انحراف REMLdev 561.3 581.3 -273.7 551.5 547.3 اثرات تصادفی: گروه ها نام.D. locality (Intercept) 4.7998 2.1909 Residual 4.0433 2.0108 تعداد obs: 128، گروه: locality، 4 Fixed effect: Estimate Std. مقدار خطای t (Intercept) 22.0103 1.1500 19.140 depth1 1.9564 0.6832 2.864 depth10 2.6624 0.5756 4.625 depth5 3.0209 depth5 3.0209 0.425 - 0.413 0.5444 -4.149 همبستگی جلوه های ثابت: (Intr) depth1 dpth10 depth5 depth1 -0.157 depth10 -0.175 0.189 depth5 -0.213 0.313 0.458 0.458 0.458 0.458 عمق 10.139 WS - 0.441 | نمی توان مقادیر p را در خروجی lmer() در بسته lm4 در R پیدا کرد |
103380 | من سعی می کنم با استفاده از یک مدل اثرات ثابت تفاوت ها را در هزینه مراقبت های بهداشتی بین شهرستان ها در یک دوره چند ساله مطالعه کنم. من از یک معیار هزینه به عنوان متغیر وابسته استفاده می کنم و برخی از عوامل جمعیتی، جغرافیایی، اجتماعی و مرتبط با اندازه را به عنوان متغیرهای توضیحی دارم. به نظر شما برخی از عوامل می تواند در اثر مشاهده نشده، $a_i$ وجود داشته باشد؟ | عوامل موجود در اثر مشاهده نشده؟ |
40776 | در رگرسیون OLS من همه مفروضات کاملاً برآورده نمی شوند، اما خواندم که به دلیل حجم نمونه بزرگ، استحکام خاصی در مفروضات وجود دارد (نمونه من 2500 نفر است). به عنوان مثال DV کاملاً نرمال توزیع نشده است، با چولگی و کشیدگی قابل توجه، اما کوچک (اگر آن را آزمایش کنید، به عنوان مثال از بسته 'gvlma' در R استفاده کنید). من اکنون به دنبال ادبیاتی برای استناد به هنگام صحبت در مورد پسرفت خود هستم، به عنوان مثال. بازرسی مقادیر برازش شده در مقابل نمودارهای میانگین حداقل انحراف را از همسویی نشان داد، اما در محدوده استحکام رگرسیون (xxx، 1990). | ادبیات در مورد استحکام مفروضات رگرسیون |
44455 | من به دنبال اطلاعاتی در مورد نوع خاصی از تکنیک نمودارسازی هستم. اساساً، شما فهرستی از عناصر و دادههایی دارید که نشان میدهد عناصر چقدر با یکدیگر مرتبط هستند. در طرح، عناصری که نزدیک به هم هستند، نزدیک به هم ترسیم می شوند و عناصری که کمتر مرتبط هستند، دورتر کشیده می شوند. من در تلاشم تا بدانم این نوع نمودار چه نام دارد و آیا الگوریتم های خوب مرتبطی برای آن وجود دارد یا خیر. ببخشید اگر این سوال بدی است، اما این من را دیوانه کرده است و جستجوی آن غیرممکن است. * * * به روز رسانی: پس این یک _گراف شبکه_ بود که من به دنبال آن بودم. من این ابزار رایگان رایگان به نام Gehpi را پیدا کردم که تقریباً نیازهای من را برآورده می کند. با تشکر از کمک! | به دنبال نوع خاصی از طرح/گراف هستید |
108562 | من دو سری زمانی دارم یکی یک متغیر محیطی است (_n_ = 108) که بر اساس سال و ماه سازماندهی شده است. دیگری یک متغیر بیولوژیکی است که بر اساس سال و ماه نیز سازماندهی شده است، اما من برای چند ماه هیچ داده ای ندارم (_n_ = 97). من یک همبستگی متقاطع در R بین این سری های 2 بار انجام دادم و از تابع 'na.exclude' برای متغیر بیولوژیکی برای محاسبه مقادیر از دست رفته استفاده کردم. سپس من یک رگرسیون تاخیری را برازش میکنم و دوباره مقادیر گمشده را محاسبه میکنم. با این حال، میخواهم بدانم: 1. آیا میتوانم با حذف این مقادیر گمشده (بدون ماههای داده) برای متغیر بیولوژیکی یک همبستگی متقاطع انجام دهم، که طولهای نابرابر برای من باقی میگذارد؟ R همچنان یک همبستگی متقابل انجام می دهد، اما مطمئن نیستم که آیا نتایج معتبر هستند یا خیر. 2. آیا می توانم ماه های مربوطه را در env حذف کنم. متغیر دارای سری های زمانی مساوی باشد، یا اینکه حسابداری مقادیر از دست رفته رویکرد صحیحی است؟ با تشکر | همبستگی متقابل در R - برخورد با مقادیر از دست رفته |
40775 | فرض کنید میخواهم یک طبقهبندی لجستیک برای یک فیلم M ایجاد کنم. ویژگیهای من چیزی شبیه سن فرد، جنسیت، شغل، موقعیت مکانی است. بنابراین مجموعه آموزشی چیزی شبیه به این خواهد بود: * سن جنسیت موقعیت شغلی مانند(1)/نپسندیدن(0) * 23 M نرم افزار US 1 * 24 F Doctor UK 0 و غیره... حالا سوال من این است که چگونه باید مقیاس و نشان دهنده ویژگی های من است یک راه فکر کردم: سن را به عنوان گروه های سنی تقسیم کنید، بنابراین 18-25، 25-35، 35-بالاتر، جنسیت به عنوان M، F، مکان به عنوان ایالات متحده، انگلستان، و دیگران. اکنون یک ویژگی باینری برای همه این مقادیر ایجاد کنید، بنابراین سن دارای 3 ویژگی باینری خواهد بود که هر کدام مربوط به یک گروه سنی و غیره است. بنابراین، یک مرد 28 ساله از ایالات متحده به عنوان 010 10 100 نشان داده می شود (010-> گروه سنی 25-35، 10 -> مرد، 100 -> ایالات متحده) بهترین راه برای نشان دادن ویژگی ها در اینجا چیست؟ همچنین، در برخی از موارد به عنوان مثال متوجه شدم. از sklearn که تمام ویژگی ها به نوعی مقیاس بندی/نرمال شده اند، به عنوان مثال. جنسیت با دو مقدار 0.0045 و -.0.0045 برای مرد و زن نشان داده می شود. من هیچ سرنخی در مورد چگونگی انجام پوستهبندی/مورمالیزه کردن به این شکل ندارم؟ | ساخت ویژگی و عادی سازی در یادگیری ماشین |
108586 | من در تلاش برای پیدا کردن یک الگوریتم خوشه بندی هستم، اما در حال کار با موارد طبقه بندی شده قبلی هستم. اساساً اقلام متعلق به یک یا چند دسته هستند که قبلاً شناخته شده اند. مقوله ها مطلقاً به یکدیگر مرتبط نیستند. من باید خوشه هایی ایجاد کنم که تعداد دسته های متمایز در بین همه موارد حداقل باشد. همان دسته را می توان به چندین خوشه تقسیم کرد. تعداد خوشه و اندازه خوشه در ابتدا مشخص است. **نمونه:** | مورد | دسته بندی | | ------ | -------- | | مورد 1 | C1، C2 | | مورد 2 | C1 | تعداد خوشه = 2 | مورد 3 | C2 | اندازه خوشه = 3 | مورد 4 | C2 | | مورد 5 | C3 | | مورد 6 | C1 | نتیجه: - خوشه 1: [مورد 1، مورد 3، مورد 4] // 2 دسته (C1، C2) - خوشه 2: [مورد 2، مورد 5، مورد 6] // 2 دسته (C1، C3) من دارم قبلاً پیادهسازی سفارشی k-means را امتحان کردهایم، اما به نظر میرسد نتایجی بسیار دور از بهینه ایجاد میکند. آیا من چیزی را از دست داده ام؟ آیا یک الگوریتم شناخته شده با این نوع مشکل مطابقت دارد؟ * * * **ویرایش** _بیایید کمی بیشتر توضیح دهیم_ من باید اقلام را بر اساس تنها مشخصه ای که می دانم طبقه بندی کنم: تعلق به دسته آنها. من از یک تابع فاصله سفارشی استفاده کرده ام که می تواند به صورت زیر بیان شود: d(I1, I2) = تعداد دسته ای که I1 و I2 مشترک ندارند، فقط سعی کردم از نقطه شروع تصادفی استفاده کنم و نتایج متفاوتی به من می دهد. اما دور از حد مطلوب | خوشه بندی اقلام بر اساس تعلق دسته آنها |
103389 | در یک مدل رگرسیون ساده با استفاده از OLS، چرا حداقل به طور کلی، نمی توان $x_i$ را به سمت چپ مدل و $y_i$ را به سمت راست منتقل کرد. آیا می خواهید متغیر توضیحی و پاسخ را تغییر دهید؟ از نظر شهودی، کاملاً واضح به نظر می رسد که اگر ${\hat \beta ^{OLS}}\left( {Y,X} \right) = \mathop {\arg \min }\limits_{\beta \in \mathbb{R }} \sum\limits_{i = 1}^n {{{\left( {{y_i} - x_i^T\beta } \right)}^2}} $ و ${\hat \gamma ^{OLS}}\left( {X,Y} \right) = \mathop {\arg \min }\limits_{\gamma \in \mathbb{R}} \sum\limits_{i = 1}^n {{{\left( {{x_i} - y_i^T\gamma } \right)}^2}} $، تغییر ساده از طرفها» کار نمیکند زیرا من دو مبلغ مختلف را به حداقل میرسانم. اما آیا توضیح رسمی تری وجود دارد که چرا نمی توان آن را انجام داد؟ | حداقل مربعات معمولی - پاسخ تغییر و متغیر توضیحی |
113326 | از آنجایی که من یک مجموعه داده بسیار نامتعادل دارم (9٪ نتایج مثبت)، تصمیم گرفتم منحنی فراخوانی دقیق مناسبتر از منحنی ROC باشد. من اندازه گیری خلاصه مشابه مساحت زیر منحنی P-R را به دست آوردم (.49، اگر علاقه دارید) اما مطمئن نیستم که چگونه آن را تفسیر کنم. من شنیده ام که 8.8 یا بالاتر همان چیزی است که یک AUC خوب برای ROC است، اما آیا قطع عمومی برای AUC برای منحنی فراخوان دقیق یکسان است؟ | یک AUC خوب برای منحنی فراخوانی دقیق چیست؟ |
27817 | مدخل _حاشیه خطای ویکیپدیا میگوید که > یک نمونه تصادفی با اندازه 400، حاشیه خطا، در سطح اطمینان 95 درصد، 0.98/20 یا 0.049 را به دست میدهد - فقط کمتر از 5 درصد با توجه به اندازه جمعیت نامحدود. این بدان معناست که اگر من از 400 شهروند آمریکایی (به طور تصادفی انتخاب شده) نظرسنجی کنم و از آنها بپرسم اوباما یا رامنی؟، نسبت به دست آمده با سطح اطمینان 95 درصد دقیق خواهد بود، تا حاشیه خطای کمتر از 5 درصد. با این حال، آیا میتوانم از همین محاسبه برای آزمایش اینکه یک برنامه نرمافزاری میتواند تقریباً با همه ورودیها مقابله کند، استفاده کنم؟ به عنوان مثال: من تعداد نامحدودی از کاربران دارم، باید مطمئن باشم (95٪ اطمینان، 5٪ خطا) که نرم افزار من می تواند برای همه آنها بر اساس نام آنها و یک الگوریتم ساده یک نام مستعار ایجاد کند. . اگر به طور تصادفی 400 کاربر را انتخاب کنم و الگوریتم نام مستعار برای همه 400 کاربر کاملاً کار کند، آیا می توانم (با اطمینان 95٪، با توجه به 5٪ خطا) فرض کنم که الگوریتم من برای کل جمعیت وجود دارد؟ آیا این روش برای محاسبه حاشیه خطا برای این نوع مشکلات نادرست است؟ | چگونه می توان حاشیه خطا را برای یک آزمایش کنترل کیفیت دو جمله ای که در آن فقط موفقیت ها مشاهده می شود (از جمله FPC) محاسبه کرد؟ |
113329 | من یک سوال در مورد یافته های یک مقاله دارم که به طور کامل درک نمی کنم. نویسندگان روابط بین متغیرهای اندازه گیری شده در مقاطع زمانی مختلف را بررسی کردند. آنها دریافتند که یک متغیر V1 به طور مثبت یک متغیر V2 را پیش بینی می کند. V2 به طور مثبت V3 را پیش بینی کرد. با این حال V1 به صورت منفی V3 را پیش بینی کرد. آیا این امکان وجود دارد که اگرچه V1 به طور مثبت V2 را پیش بینی می کند، اما V3 را منفی پیش بینی می کند؟ V1 و V2 معیارهای قبل / بعد از یک رویداد بودند که از طریق همان مقیاس جمعآوری شدند. V1 متغیر زمان 1، V2 و V3، زمان 2 است. هر گونه بینش بسیار مورد توجه قرار می گیرد! | رگرسیون نتایج متناقض؟ |
109988 | با عرض پوزش این کمی طولانی است، اما توضیح درباره کاری که من می خواهم انجام دهم باید واضح باشد تا از مسائلی مانند این نقل قول جلوگیری شود ... غیر ممکن است به گونه ای صحبت کنید که نتوانید سوء تفاهم کنید. کارل پوپر. من مدل های رگرسیون خطی را اجرا می کنم، اما نتایج مورد انتظار را دریافت می کنم. نمیدانم چه چیز دیگری میتوانم تلاش کنم تا مقدار تخمینی پارامترهای پژواک موقعیت خفاش را بر اساس اندازهگیریهای ساعد بدست بیاورم. مشخص است که اندازه خفاش با فرکانس مشخصه (Fc) تماس های پژواک آنها (دهه ها کار میدانی من) رابطه منفی دارد. بنابراین به طور کلی افراد بزرگتر تماس های فرکانس پایین تری دارند و افراد کوچکتر تماس های فرکانس بالاتری دارند. من رگرسیون ها را بر اساس FA (اندازه گیری های معتبر ساعد) و محدوده های شناخته شده و معتبر Fc برای 12 گونه یا بیشتر و با استفاده از مدل های lm برای پیش بینی مقادیر Fc برای چند گونه که دارای مقادیر FA هستند اما هنوز انجام نداده اند، اجرا کرده ام. ثبت شده است. از این رو هیچ پارامتر فراخوانی echolocation معتبری وجود ندارد. کد R مورد استفاده در زیر بحث است. من محدوده های معتبری برای گونه های شناخته شده FA (اندازه گیری ساعد) و Fc (حداقل) و Fc (حداکثر) دارم. بنابراین من دو اجرا جداگانه با داده ها با استفاده از مدل lm انجام می دهم، یکی با FA~Fcmin و دیگری FA~Fcmax. هدف ارائه مقادیر پیشبینیشده (تخمینی) برای گونهها با مقادیر FA شناخته شده اما بدون محدوده ارزش Fc تأیید شده است. نگرانی من این است که مقادیر پیش بینی شده بازگردانده شده بسیار کمتر از مقادیر واقعی برای گونه های تأیید شده است. بنابراین من مطمئن نیستم که مقادیر پیشبینیشده برای آن محدودههای Fc تأیید شده بدون استفاده از آن مفید باشد. یک فرد بسیار مفید به مجموعه داده های ساده ای که من فرستادم نگاه کرد و نشان داد که تفاوت های آماری بین مقادیر واقعی و پیش بینی شده معنی دار نیست. با این حال، توصیه کربس به دانشآموزان سالها پیش «معنیداری آماری را با اهمیت زیستمحیطی اشتباه نگیرید» در اینجا صادق است. مقادیر محدودههای پیشبینیشده بسیار کمتر از واقعیت است، بنابراین تعداد کمی از گونههایی که مقادیر Fc ثبت شده در میدان ندارند مشکوک هستند. این تفاوتها در مقادیر پیشبینیشده از یک محدوده واقعی، برای شناسایی بالقوه تماسهای ناشناخته تفاوت ایجاد میکند. تفاوت Fc 10 کیلوهرتز به طور کلی نشان دهنده گونه های متفاوتی است، اگرچه برخی از آنها بسیار نزدیکتر هستند و ممکن است فقط 5 کیلوهرتز اختلاف داشته باشند. من به مجموعه دادههای صوتی از تماسهای آمریکای جنوبی نگاه میکنم و گونههای صوتی زیادی وجود دارد. اینها به وضوح گونه های جداگانه ای بر اساس پارامترهای فراخوانی پژواک هستند که هنوز چهره ها و صداها مطابقت داشته اند. ما می دانیم که پارامترهای فراخوانی برای خانواده ها و جنس ها تشخیصی هستند حتی زمانی که گونه ناشناخته باشد. سپس این مقادیر Fc هستند که به شناسایی گونه ها در مجموعه ای از تماس ها از همان جنس کمک می کنند. نمونه کد R استفاده شده: Bats <\- dget('C:/=داده های خفاش کار می کند/پارامترهای صوتی/_کار/=Vespertilionidae/Bats.robj') model.lm <\- lm(formula=Fc ~ as.factor( FA),data=Bats,na.action=na.omit) > Anova(model.lm,type='II') خطا در solve.default(L % _% V %_ % t(L)) : > سیستم از نظر محاسباتی مفرد است: شماره شرط متقابل = 0 > خلاصه (model.lm) فراخوانی: lm(فرمول = Fc ~ as.factor(FA )، داده = خفاش، na.action = na.omit) باقیمانده ها: همه 5 باقیمانده 0 هستند: درجه آزادی باقیمانده وجود ندارد! ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 53.3 NA NA NA به عنوان عامل(FA)34.4 -4.6 NA NA NA به عنوان عامل(FA)35.4 2.3 NA NA NA به عنوان عامل(FA) 35.5 9.0 NA NA NA as.factor(FA)40.5 -7.3 NA NA NA استاندارد باقیمانده خطا: NaN روی 0 درجه آزادی (2 مشاهده به دلیل عدم وجود حذف شد) R-squared چندگانه: 1، R-squared تعدیل شده: NaN F-آمار: NaN در 4 و 0 DF، p-value: NA > tmp<-predict (model.lm) خفاش ها[نام ها(tmp)،پیش بینی شده]<-tmp rm('tmp') > rm('model.lm') > > model.lm <\- lm(formula= Fc~ FA,data=Bats,na.action=na.omit) > > Anova(model.lm,type='II') > > خلاصه (model.lm) > > tmp<-predict(model.lm,bats) > > Bats[names(tmp),Predicted.Fc]<-tmp > > rm('tmp') rm('model.lm') با نتایج می توان دید که مقادیر Fc پیش بینی شده در سمت راست نزدیک به مقادیر Fc واقعی در سمت چپ و سپس من را در پذیرش 2 با مقادیر پیش بینی شده NA مردد می کند. گونه های FYI ساده 6 حرفی برای جنس و گونه کد گذاری شده اند. گونه FA Fcmin Fcmax FcMinpredic FcMaxpredic Myoalb 35.3 45.7 48.7 51.73 55.26 Myoata 37 NA NA 49.52 52.59 Myokea 33.7 57.8 33.7 57.8 61.75 61.75 51.6 55.7 52.77 56.52 Myooxy 40.5 45.7 47.6 44.98 47.09 Myorip 36 53.3 57.5 50.82 54.16 Myosim 38 NA NA NA 5 linear to 48.03 استفاده کنید؟ با تشکر از هر گونه پیشنهاد اضافی. بروس | سوال در مورد نتایج رگرسیون غیرمنتظره |
2269 | چگونه می توانم به جداول ایجاد شده در SAS Enterprise Guide Client به SAS Enterprise Miner Client دسترسی داشته باشم؟ | به جداول ایجاد شده در SAS Enterprise Guide Client به SAS Enterprise Miner Client دسترسی پیدا کنید؟ |
103387 | $$\Pr(A | B) = \frac{\Pr(B | A) \Pr(A)}{\Pr(B)}$$ بنابراین $\Pr(A)$ من احتمال این است که یک سکه دو سر برای استدلال، فرض کنید 1 در 10000 سکه دو سر است. $\Pr(B)$ من احتمال برگرداندن 10 سر است که 1 در $2^{10}$ است. خیلی ساده لوحانه فکر کردم $\Pr(B|A)$ خوب با توجه به اینکه من یک سکه دو سر دارم، احتمال اینکه 10 سر را برگردانم 1 است؟ این باعث می شود که من یک سکه دو سر در $\frac{10^{-4}}{2^{-10}}$ داشته باشم. با این حال، این به این معنی است که احتمال > 1 برای تلنگرهای بزرگتر خواهد بود. مرحله ای که در آن اشتباه کرده ام، ارزیابی $\Pr(B|A)$ است. کسی میتونه کمک کنه؟ | قانون بیز با توجه به اینکه من 10 سر را پشت سر هم ورق زدم، احتمال اینکه یک سکه دو سر داشته باشم چقدر است؟ |
103385 | من با تکنیک جنگل تصادفی نسبتاً تازه کار هستم. من درخت تصمیم را با موفقیت به دادهای اعمال کردم که نتیجه 1/0 را پیشبینی میکند. پیش بینی کننده ها مخلوطی از پیوسته و مقوله ای هستند. من مشابه روش درختی را امتحان می کردم: train_tree <\- randomForest(Response_variable ~ predictor1 + predictor2+...predictor10 ,trainData,ntree=50) اما خطای پرتاب من بود. میشه لطفا کمکم کنید؟ | استفاده از جنگل تصادفی به جای روش درخت تصمیم در R |
77965 | چگونه می توانم حجم نمونه را برای تخمین اختلاف نسبت بین 3 گروه محاسبه کنم؟ اکثر ماشینحسابهای اندازه نمونه رایگان فقط برای ۲ گروه گزینههایی دارند. | محاسبه اندازه نمونه برای مقایسه 3 نسبت |
38187 | من یک داده سری زمانی را با استفاده از ARIMA مدل می کنم. اکنون سعی می کنم با استفاده از آزمون دوربین واتسون، همبستگی سریال مدل SARIMA (1،1،1) را آزمایش کنم. مشکل من این است که نمی دانم چه مدل خطی را روی فرمول تابع «dwtest» در R قرار دهم. ، two.sided، کمتر)، تکرار = 15، دقیق = NULL، tol = 1e-10، داده = لیست()) کد زیر من است، داده: http://iitstat.weebly.com/uploads/7/3/4/0/7340846/chickenprod.rdata برای دانلود داده ها کافیست روی لینک کلیک راست کرده و روی ذخیره پیوند به عنوان... library(forecast) library( lmtest) ChickenProd <- ts(ChickenProd، شروع = 1980، فرکانس = 4) SARIMA111 <- Arima(ChickenProd، seasonal = list(order = c(1,1,1), period = 4)) باقیمانده های مدل SARIMA111 من توسط SARIMA111 بدست می آید[[residuals]] حال، من می خواهم همبستگی سریال را آزمایش کنم. از آن با استفاده از آزمون دوربین واتسون استفاده میکند، اما نمیدانم از چه مدل خطی در آرگومان «فرمول» تابع «dwtest» استفاده کنم. R. آیا این مدل SARIMA(1,1,1) است؟ اگر چنین است، چگونه ضرایب مدل SARIMA(1،1،1) را استخراج می کنم و یک فرمول مدل خطی در R ایجاد می کنم؟ پیشاپیش از شما متشکرم | آزمون دوربین واتسون برای باقیمانده های SARIMA (1،1،1) در R |
111580 | من سعی می کنم قدرت پیش بینی چهار الگوریتم مختلف را مقایسه کنم: * ماشین های بردار پشتیبان * k-NN * درخت های تصمیم * شبکه های عصبی من چند سوال در مورد تنظیم پارامتر دارم: 1. برخی مقالات مانند [1] بیان می کنند که k-نزدیکترین همسایه نیازی به تنظیم پارامتر ندارد، آیا لازم نیست تصمیم بگیرید که k چیست؟ 2. اگر میخواهید پارامترهای SVM (جستجوی شبکهای) و NN (نرونهای مخفی مختلف) را تنظیم کنید، اگر قصد استفاده از اعتبارسنجی متقاطع ده برابری را دارید، روی چه مجموعه دادهای این کار را انجام میدهید؟ اگر از مجموعه داده های خود با ده برابر استفاده می کنید، آیا داده ای برای اعتبارسنجی پارامترهای خود باقی نمانده است؟ [1] Xiao, W., Qian, Z., & Fei, Q. (2006). بررسی تطبیقی روش های داده کاوی در مدیریت امتیازدهی اعتبار وام های مصرفی. مجله علوم سیستم ها و مهندسی سیستم ها، 419-435. | تنظیم پارامترهای SVM، DT، k-NN، NN |
78121 | من 500 نمونه از مجموعه داده دانشجویی و 10 ویژگی دارم. اگر برای آموزش 170 تقسیم کنم برای تست 330. این سهمیه برای اعتبار متقاطع درست است؟ | اعتبار سنجی متقاطع در آموزش و آزمایش |
72244 | من باید اینجا کار خیلی اشتباهی انجام میدهم، چون auto.arima در R کاملاً در حال مرگ است، اما نمیتوانم ببینم چیست. من آخرین نسخه Forecast و R را دارم و فکر می کنم این اتفاق در ویندوز و یونیکس می افتد. برای برخی/اکثر سریهای زمانی که من امتحان کردم کار میکند (Equity) اما برای برخی دیگر شکست میخورد. بهنظر میرسد زمانی که مقدار زیاد/پایین را با بستههای روز قبل متفاوت میکنم، بیشتر با شکست مواجه میشود، نه اینکه فقط بستهها را به شکل زیر متفاوت میکنم. آیا این یک باگ است یا من به نوعی داده های بدی به arima می دهم؟ (و باعث مرگ آن با یک پیام خطای وحشتناک) من سعی کردم این خطا را جستجو کنم اما به چیز زیادی نرسیدم. خیلی ممنون library(tseries) library(forecast) dwa <- get.hist.quote(instrument=DWA, start=2010-01-01, end=2013-10-31) logreturns <- diff(log( dwa$Close))*100 مناسب <- auto.arima(logreturns, trace=TRUE) خروجی: این آدرس URL آزمایشی 4.8 پیش بینی شده است 'http://chart.yahoo.com/table.csv?s=DWA&a=0&b=01&c=2010&d=9&e=31&f=2013&g=d&q=q&y=0&z=DWA&x=.csv' نوع محتوا طول text/csv URL باز ناشناخته .......... .......... .......... .......... .... دانلود شده 44 کیلوبایت سری زمانی شروع می شود سری زمانی 2010-01-04 پایان می یابد 2013-10-07 ARIMA(2,1,2) با دریفت : 1e+20 * ARIMA(0,1,0) با دریفت: 1e+20 * ARIMA(1,1,0 ) با رانش: 1e+20 * ARIMA(0،1،1) با دریفت: 1e+20 * ARIMA(1,1,2) با دریفت: 1e+20 * ARIMA(3,1,2) با دریفت: 1e+20 * ARIMA(2,1,1) با دریفت: 1e+20 * ARIMA(2,1 ,3) با دریفت: 1e+20 * ARIMA(1,1,1) با دریفت: 1e+20 * ARIMA(3,1,3) با drift : 1e+20 * ARIMA(2,1,2) : 1e+20 *خطا در if (تفاوت == 1 & ثابت) { : آرگومان با طول صفر است فراخوانی: خودکار. arima -> myarima علاوه بر این: پیامهای هشدار: 1: در if (is.constant(x)) { : شرط دارای طول > 1 است و تنها عنصر اول خواهد بود استفاده شده 2: در if (is.constant(x)) return(d) : شرط دارای طول > 1 است و فقط عنصر اول استفاده می شود 3: در if (is.constant(dx)) { : شرط دارای طول است > 1 و تنها عنصر اول استفاده خواهد شد. اجرا متوقف شد | آیا این یک اشکال در auto arima است یا من کار اشتباهی انجام می دهم؟ |
83465 | من می خواهم اهمیت بهینه سازی عملکرد صحیح ضرر را درک کنم. بگویید که من در حال ساخت یک مدل رگرسیون خطی $p$ برای پیشبینی برخی مقادیر $y_1,\ldots,y_n$ هستم. من مدل خطی خود را طوری انتخاب می کنم که میانگین مربعات خطا را به حداقل برساند. اکنون مدل خود را به یک مسابقه پیش بینی آماری می فرستم، جایی که آنها به جای استفاده از MSE به عنوان معیار خطا از میانگین خطای مطلق استفاده می کنند (بنابراین بدون مربع). این چگونه بر قدرت پیشبینی مدلهای من تأثیر میگذارد؟ به طور کلی، در مورد اهمیت بهینه سازی تابع زیان صحیح چه می توان گفت؟ **ویرایش:** اگر بخواهیم سوال را در زمینه خاص تری مطرح کنیم، آن زمینه مسابقات مدل سازی پیش بینی کننده مانند مواردی است که در Kaggle.com نشان داده شده است. من میخواهم اهمیت انتخاب مدلها و توابع ضرر را که با معیار ارزیابی رقابت مطابقت دارند، درک کنم. یکی از دلایل این موضوع این اظهار نظر برنده یک مسابقه Kaggle است. | اهمیت بهینه سازی عملکرد صحیح ضرر |
44454 | اطلاعات متقابل نقطهای با این فرمول محاسبه میشود. بد من می دانم که اگر مقدار کم باشد، بد است، اما چه زمانی می توان فرض کرد که بین x و y ارتباط مناسبی وجود دارد؟ یا اینکه باید خودم (به صورت تجربی) این آستانه را تعیین کنم؟ | چه زمانی مقدار PMI خوب یا بد است؟ |
47205 | من می خواهم در مورد روش های نقطه داخلی یاد بگیرم. من با ویکی http://en.wikipedia.org/wiki/Interior_point_method شروع کردم. با این حال، من در درک ایده پشت آن مشکل دارم. آیا کسی میتواند لینکهای خوب، آموزشهای ویدیویی یا اشارههایی را به من ارائه دهد که به درک آن کمک کند؟ | شروع با روش های نقطه داخلی |
15299 | من در حال پردازش برخی از دادهها هستم که قبل از اینکه الگوریتم رگرسیون را طی کند نیاز به binning دارد. این اسکریپت در پایتون است و از تابع «هیستوگرام» Numpy استفاده میکند، اما کد باید خود توضیحی باشد. برای مرجع، «هیستوگرام» یا آرایهای حاوی تعداد صحیح نقاط در هر bin را خروجی میدهد، یا میتوانید با ارزش نقاط موجود در bin وزن کنید (مثلاً مجموع). خطاهای y توسعه دهندگان استاندارد هستند. بنابراین دادهها به صورت زیر در میآیند: #تعداد آیتمها در هر bin (binned، dump) = np.histogram(x,bins) #دادههای Binned، وزندهی به مقدار هر نقطه (xbinned، dump) = np.histogram (x، bins, weight=x) #etc برای خطای y و y ... خطاهای مقادیر y (این فرض می کند هیچ خطای x وجود ندارد) با واریانس وزن می شود بنابراین خطاها به صورت مربع اضافه می شوند: (varbinned, dump) = np.histogram(x,bins,weight=error**2) برای پایان دادن به تابع یک آرایه میانگین از نقاط را برمی گرداند، به عنوان مثال. xbinned = xbinned/binned چیزی که من در مورد آن مطمئن نیستم نحوه رسیدگی به خطاها است. نتیجه باید ریشه مربع باشد (برای تبدیل از واریانس های جمع شده)، اما چگونه تعداد bin ها در پاسخ فاکتور می شود؟ آیا این کار به همان سادگی انجام می شود: errorbinned = np.sqrt(varbinned/binned) با تشکر! | ترکیب خطاها در یک هیستوگرام (داده های binned) |
88559 | من سعی می کنم یک عبارت را در مدل AR(2) اضافه کنم: $$Y_t=\left( a_0+a_1 \frac{\exp(\beta_t)}{1+\exp(\beta_t)}\right)Y_{ t-1}+bY_{t-2}+\delta\epsilon_t$$ لطفاً کسی میتواند به من در این مورد کمک کند؟ به نظر نمی رسد که بتوانم این را در کد R قرار دهم. data=read.table(water.txt,header=T) n=ncol(data) koef=matrix(0,n-1,4) rownames(koef)=names(data)[-1] colnames(koef )=c(a1،a2،var.a1،var.a2) for(i in 2:n) { ser=log(data[,i]) ar2=arima(ser,order=c(2,0,0),xreg=data$year) koef[i-1,1]=ar2$coef[1] koef[i-1,2]=ar2$coef [2] koef[i-1,3]=ar2$var.coef[1,1] koef[i-1,4]=ar2$var.coef[2,2] } داده: سال آب 1986 0.01 1987 -0.63 1988 -0.14 1989 2.52 1990 1.96 1991 0.6 1992 1.82 1993 1.82 1994 0.89 192195 1995 - 0.89 1995 1991. 0.75 1998 0.02 1999 0.69 2000 1.65 2001 -1 2002 0.66 2003 0.09 2004 -0.08 2005 0.4 2006 -0.81 2001 -0.81 2007 2007 -0.81 0.07 2010 -2.57 | کمک در مورد نحوه گنجاندن عبارت $\exp(β_t)/(1+\exp(β_t))$ در مدل AR(2) |
108563 | من در حال مطالعه خودم برای یک امتحان هستم و می خواهم بدانم چگونه از قضیه Dynkin Lehmann Scheffe برای یک سوال کاربردی استفاده کنم. من از آمار ریاضی بیکل و داکسوم (ویرایش 2007) استفاده می کنم و فقط یک جمله این فرآیند را توصیف می کند: اجازه دهید P = {$P_{\theta}$ : $\theta$ $\in$ $\Theta$} جایی که $P_{\theta}$ گسسته متمرکز بر X = {$x_1$,$x_2$,....} است. اجازه دهید $p(x,\theta)$ $\equiv$ $P_{\theta}$$[X = x]$ $\equiv$ $L_x(\theta)$ > 0 در X. میتوان نشان داد که $ \frac{L_x(.)}{L_x(\theta_0)}$ حداقل کافی است. من یک سوال با راه حل پیدا کردم، اما می خواهم ببینم روند چگونه کار می کند. سوال اینجاست:  راه حل اینجاست:  از اینکه هیچ اثری نشان ندادم عذرخواهی می کنم، اما اطلاعات کمی در مورد این قضیه موجود است، بنابراین من فقط می خواستم ببینم روند این نوع مشکل چگونه کار می کند. | سوال در مورد قضیه Dynkin Lehmann Scheffe |
72242 | ما آزمایش تقسیم یک ویژگی محصول جدید را انجام دادهایم و میخواهیم اندازهگیری کنیم که آیا افزایش درآمد قابل توجه است یا خیر. مشاهدات ما قطعاً به طور معمول توزیع نمیشوند (بیشتر کاربران ما خرج نمیکنند، و در بین کسانی که انجام میدهند، به شدت به سمت خرجکنندگان کوچک و معدود خرجکنندگان بسیار بزرگ متمایل است). ما تصمیم گرفتهایم از bootstrapping برای مقایسه ابزارها استفاده کنیم تا مشکل توزیع نشدن دادهها به طور معمول را برطرف کنیم (سوال جانبی: آیا این استفاده مشروع از bootstrapping است؟) مجموعه داده ها (مثلاً معدود مصرف کنندگان بسیار بزرگ) قبل از اجرای بوت استرپینگ، یا این مهم نیست؟ | بوت استرپینگ - آیا باید ابتدا موارد پرت را حذف کنم؟ |
31755 | من دو نمونه دارم ($n \حدود 70$ در هر دو مورد). میانگین حدود دو برابر std ادغام شده متفاوت است. توسعه دهنده مقدار $T$ حاصل تقریباً 10 است. در حالی که بسیار خوب است که بدانیم به طور قطع نشان دادهام که میانگینها یکسان نیستند، به نظر من این امر توسط n بزرگ هدایت میشود. با نگاه کردن به هیستوگرام دادهها، مطمئناً احساس نمیکنم که مانند p-value کوچک واقعاً نماینده دادهها است و صادقانه بگویم، واقعاً احساس راحتی نمیکنم که آن را نقل قول کنم. احتمالا سوالم اشتباه است چیزی که من فکر می کنم این است: خوب، ابزارها متفاوت هستند، اما آیا این واقعا اهمیت دارد زیرا توزیع ها همپوشانی قابل توجهی دارند؟ آیا تست بیزی در اینجا مفید است؟ اگر چنین است، کجا مکان خوبی برای شروع است، کمی جستجو در گوگل نتیجه مفیدی نداشته است، اما ممکن است با پرسیدن سوال درست نتوانم. اگر این کار اشتباه است کسی پیشنهادی دارد؟ یا اینکه این صرفاً نقطهای برای بحث است در مقابل تحلیل کمی؟ | وقتی میانگین دو نمونه به طور قابل توجهی متفاوت است اما تفاوت آنقدر کوچک به نظر می رسد که اهمیتی نداشته باشد چه باید کرد |
108587 | من سعی می کنم تخمین حداکثر احتمال را انجام دهم و سعی می کنم ببینم آیا می توان مشکل را با استفاده از یک مدل اثر تصادفی فرموله کرد. شرح مشکل اینجاست: > $100$ جفت $(N_i, D_i)$ وجود دارد که هر $N_i$ تعداد آزمایشات است > و $D_i$ تعداد موفقیتهای $i$-th آزمایش دوجملهای است (با > آزمایشی 100 دلاری). احتمال $p$ دو جمله ای به NormCDF > از طریق پارامتر $\rho$ (که باید با استفاده از MLE تخمین زده شود) بستگی دارد. > احتمال $p$ واقعاً یک احتمال مشروط است، مشروط به $y$ = > مقداری ثابت، که در آن $y$ می تواند بیش از $(0,1)$ باشد. بنابراین، من یک احتمال > تابع $L$ دارم که روی متغیر $y$، $0 < y < 1$ ادغام شده است. > یعنی $L$ = int بیش از $(0,1)$ از Binomial(n,d,p)dy یا معادل آن $L$ = int بیش از $(0,1)$ از $\\{ k1 * p^d * (1-p)^ (n-d) dy \\},0<y<1$ که در آن $p$ تابعی از $y$ است و $k1$,$n$,$d$ هستند ثابت ها، $k1 = {n \انتخاب d}$. همچنین `p(y) = NORMCDF( (گاما - {sqrt(rho)*INVNORMCDF(y)} ) / sqrt(1-rho) )`، که در آن گاما یک ثابت است (در تمام 100 آزمایش). من سعی می کنم $L$ را به حداکثر برسانم تا تخمینی برای $\rho$ بدست آوریم. میخواهم بدانم که آیا میتوانم $y$ را بهعنوان یک جلوه تصادفی در نظر بگیرم، و همچنین، اگر مشخص کردن $y$ بهعنوان یک جلوه تصادفی در «SAS proc nlmixed» به این معنی است که احتمال $L$ بهطور خودکار روی $y یکپارچه میشود. $. در حال حاضر من سعی میکنم احتمال را در «SAS/IML» به حداکثر برسانم و مشکل این است که بهینهسازی برای $\rho$ کار نمیکند («IML» فقط به کار خود ادامه میدهد، و فکر میکنم به این دلیل است که تابع احتمال به اندازه کافی مسطح است که همگرایی خیلی طول می کشد). من سعی میکنم بفهمم که یک متغیر $y$ یک اثر تصادفی به چه معناست: آیا به این معنی است که احتمال روی همه مقادیر ممکن $y$ یکپارچه شده است؟ اگر درست باشد، آیا می توانم $\rho$ را با استفاده از PROC NLmixed به صورت زیر تخمین بزنم: `گاما = 0.5; PROC NLMIXED DATA=bindata MAXITER=200000 QPOINTS=10 GCONV=1e-15; PARMS rho = 0.5; * احتمال را تعریف کنید. w1 = INVNORMCDF(y); p = NORMCDF( (گاما - sqrt(rho)*w1) / sqrt(1-rho)); L = (n CHOOSE d)*((1-p)**(n-d)) + log(p**d); MODEL d ~ GENERAL(L); تصادفی y~ NORMAL(0,1) SUBJECT=ID; اجرا؛ به این ترتیب، من نیازی به ادغام چگالی دوجمله ای بیش از $y$ در $(0,1)$ در `IML` با استفاده از یک تابع 'QUAD' ندارم، همانطور که اکنون انجام می دهم. | مدلهای جلوههای تصادفی / ادغام روی جلوههای تصادفی |
81624 | تا آنجا که من درک می کنم، اصطلاح تعامل در یک ANOVA 2x2 سنتی برای تشخیص یک تعامل نامتعارف عالی است، زیرا آزمون فرض می کند که تعامل به شکل (-2، -2، 2، 2) است (Buckless and Ravenscroft، 1990). ). در مواردی که انتظار تعامل ترتیبی را دارم، میخواهم از کدگذاری کنتراست برای قدرت مناسب استفاده کنم. با این حال، سوال من این است که وقتی یک سطح اضافه شده از یک عامل وجود دارد، این چگونه تغییر می کند. اصطلاح تعامل در یک ANOVA 3x2 چه کد کنتراست را فرض می کند؟ | کدگذاری کنتراست پیشفرض برای تست تعامل در ANOVA 3x2 چیست؟ |
27813 | چرا حتی پیشین های غیر اطلاعاتی داشته باشید؟ آنها اطلاعاتی درباره $\theta$ ارائه نمی دهند. پس چرا از آنها استفاده کنیم؟ چرا فقط از پیشین های آموزنده استفاده نمی کنید؟ برای مثال، فرض کنید $ \theta \در [0,1]$. سپس $\theta \sim \mathcal{U}(0,1)$ یک قبلی غیر آموزنده برای $\theta$ است. | مقصود از مقدمات غیر اطلاعاتی چیست؟ |
81626 | من یک سوال در مورد راه رفتن تصادفی دو پادشاه در یک صفحه شطرنج 3×3 دارم. هر پادشاه به طور تصادفی با احتمال مساوی در این صفحه شطرنج حرکت می کند - عمودی، افقی و مورب. این دو پادشاه به طور مستقل از یکدیگر در یک صفحه شطرنج حرکت می کنند. هر دوی آنها از یک مربع شروع می کنند و سپس به طور مستقل حرکت می کنند. چگونه میتوانیم احتمال را در زمان $n$ پیدا کنیم که هر دو آنها در یک مربع هستند، زیرا $n$ به بینهایت میرود؟ | پیاده روی تصادفی: پادشاهان روی صفحه شطرنج |
78122 | من از scikit-learn در پایتون استفاده می کنم و آنها کمیتی به نام _score_ را تعریف می کنند. در وسط صفحه مستندات تعریف شده است. در اینجا بازتولید می شود: > ضریب تعیین R^2 پیش بینی را برمی گرداند. ضریب > R^2 به صورت (1 - u/v) تعریف می شود، جایی که u مجموع رگرسیون > مربع ها ((y_true - y_pred) ** 2).sum() و v مجموع باقیمانده مربع ها > ( (y_true - y_true.mean()) ** 2).sum(). بهترین امتیاز ممکن 1.0 است، مقادیر کمتر > بدتر هستند. چند سوال در این رابطه: 1. شهود پشت این معیار چیست؟ 2. نمره خوب چه چیزی محسوب می شود؟ چه چیزی بد محسوب می شود؟ | متریک امتیاز یادگیری scikit |
103384 | > یک خانه دارای 2 اتاق با اندازه های مشابه با تهویه مطبوع یکسان > مجهز به ترموستات است که در صورت نیاز روشن و خاموش می شود تا دمای > در هر اتاق تا سطح مطلوب 22 درجه حفظ شود. فرض کنید که ترموستات > برای مدت زمان نمایی با میانگین های > $1/\mu$ و $1/\lambda$، به ترتیب، مستقل از سایر ترموستات ها، روشن یا خاموش می ماند. > فرآیند مارکوف $\\{X(t), t \ge 0\\}$ را در نظر بگیرید که فضای حالت آن تعداد > تهویه مطبوع فعال است. ماتریس انتقال > نرخ ها را بنویسید. من مطمئن نیستم که دقیقاً چگونه به این نوع سؤال برخورد کنم. کار من به شرح زیر است اما اگر کسی بتواند ابهام من را روشن کند خوب است. کارکردن: بنابراین به وضوح 3 حالت وجود دارد، 0 برای هیچ کولر گازی روشن نیست، 1 برای یک کولر گازی روشن است (فعال)، و 2 برای دو تهویه مطبوع روشن است (فعال). اکنون برای محاسبه $q_{01}$، یعنی نرخ انتقال از حالت 0 به 1، فرض کنید در حال حاضر هیچ کولری روشن نیست. دو فرآیند پواسون مستقل هر دو را با پارامتر $\lambda$ در نظر بگیرید، که در آن زمان interarrival مدت زمان خاموش است، سپس ادغام این دو فرآیند یک فرآیند پواسون با پارامتر $2\lambda$ به دست میدهد، بنابراین نرخ انتقال از حالت 0 به حالت 1 $2\lambda$ است. حالا در مورد نرخ انتقال از حالت 0 به 2 چطور؟ به من گفته شده که 0 است، اما چرا؟ آیا امکان ندارد هر دو کولر گازی از حالت خاموش به روشن بروند؟ استدلال $q_{02} = 0$ چیست؟ | نرخ های انتقال در زنجیره مارکوف زمان پیوسته |
31752 | برای تحقیقاتم، من روی یک سیستم فیلتر/تطبیق رویداد کار میکنم که هر رویداد را مجموعهای از جفتهای کلید-مقدار در نظر میگیرد (مانند action=logon، user=john.doe). من میخواهم اعتبار آن را ارزیابی کنم، اما نتوانستم یک مجموعه داده عمومی با نیازهایم پیدا کنم: * باید یک سری زمانی از نمونهها با ساختار داخلی ثابت باشد. * باید بزرگ باشد - حداقل چندین میلیون رکورد/رویداد. * باید به تعدادی از دستهها/موارد استفاده از قبل طبقهبندی شود. یک طبقه بندی صرف به عنوان مثال نرمال/غیر طبیعی کافی نیست. از طرف دیگر، میتوانم از مجموعهای با ابزار مخصوص دامنه استفاده کنم که بتواند این طبقهبندی را به دقت انجام دهد. چندین مجموعه داده (مانند گزارشهای وب سرور) در اطراف وجود دارد، اما من هنوز یکی را پیدا نکردهام که این نیاز را برآورده کند. من باید بتوانم هم سیستم خود را آموزش دهم و هم عملکرد آن را با استفاده از _یک استاندارد طلایی دقیق_ ارزیابی کنم. * من دوست دارم مقوله ها برابر مفهومی باشند، به عنوان مثال. انواع تراکنش های بانکی من در حال حاضر از مجموعه داده KDD99 استفاده می کنم، اما این مجموعه بیش از حد بر روی تشخیص ناهنجاری متمرکز شده است. در حالی که دارای کلاس های ناهنجاری جداگانه است، همه رویدادهای عادی در یک دسته قرار می گیرند... آیا مجموعه داده ای در جایی وجود دارد که بتوانم از آن استفاده کنم؟ ترجیحاً چیزی که قبلاً تا حدی مورد بررسی قرار گرفته باشد؟ به عنوان جایگزین، آیا ابزار استاندارد یا راه دیگری برای _تولید_ چنین مجموعه داده ای وجود دارد؟ من به راه اندازی به عنوان مثال فکر کرده ام. یک برنامه وب و چکش کاری آن با یک آزمایشگر بار، یا حتی با استفاده از یک ابزار شبیه سازی عمومی، اما من معتقدم که هیچ یک از این رویکردها واقعاً در برابر بررسی همتایان قرار نمی گیرند، که خود ارزیابی را به خطر می اندازد. | مجموعه دادههای گزارش رویداد برای ارزیابی یک سیستم فیلترینگ؟ |
78127 | من دادههای زیادی را برای جمعیتهای مختلف جمعآوری کردهام و باید آنها را به اندازهگیری فاصله زوجی تبدیل کنم. فواصل متعددی مانند فاصله بری کورتیس و منهتن وجود دارد. سوال من این است که چگونه فاصله را انتخاب کنیم؟ آیا کتاب یا مقاله ای وجود دارد که معیارهای روشنی در مورد نحوه انتخاب داشته باشد؟ با تشکر | ویژگی های خاص جمعیت برای فواصل زوجی: چگونه فاصله را انتخاب کنیم؟ |
109673 | من یک مدل cox در R با استفاده از تابع coxph در بسته بقا ساختهام و اکنون برای امتیازدهی باید مدل را در SQL تکرار کنم. از درک من، مدل دارای فرمی است که در پایین صفحه 2 این سند، http://cran.r-project.org/doc/contrib/Fox-Companion/appendix-cox-regression.pdf توضیح داده شده است، که انعطاف پذیری نیمه پارامتریک از آنجایی که یک عبارت آلفای نامشخص وجود دارد، نمیتوانم فقط ضرایب را بگیرم و از مدل مانند یک مدل خطی معمولی یا مدل خطی تعمیمیافته استفاده کنم (و توان آن را نشان دهم). راههایی برای تخمین این عبارت آلفا وجود دارد و من معتقدم این عبارت اضافه شده به خطر برای مشخص کردن مدل کامل لازم است. اگر اینطور است، چگونه می توانم به این عبارت آلفا دست پیدا کنم؟ | چگونه R را به SQL برای مدل خطرات متناسب کاکس ترجمه کنیم؟ |
47202 | من میخواهم از مدل خودرگرسیون برای ایجاد یک پیشبینیکننده برای مجموعهای از دادههای مکانی-زمانی استفاده کنم. به عنوان مثال، من داده های ترافیکی تاریخی دارم (سرعت در بخش های مختلف آزادراه). به طور مشابه، من داده های آب و هوای تاریخی شهرهای مختلف را دارم. نیازی به ذکر نیست که همبستگی فضایی معناداری بین سایت های مجاور وجود دارد. من می توانم به 2 راه برای خود رگرسیون فکر کنم (فرض کنید که ترتیب خودرگرسیون کوچک است (مثلاً <= 3)): الف. استفاده از مدل خودرگرسیون برداری (VAR): که در آن هر سایت به مقادیر موجود در سایر سایتها در لحظههای زمانی قبلی بستگی دارد. ب از مدل Space-Time AR (STAR) استفاده کنید: جایی که هر سایت به مقادیر مکانهای شناخته شده نزدیک در لحظات قبلی بستگی دارد. کدام یک از این دو مدل مناسب تر است؟ کتابخانه statsmodels پایتون یک پیاده سازی برای VAR دارد، اما برای STAR نه. از آنجایی که من از پایتون برای کارم استفاده می کنم، وسوسه می شوم از VAR استفاده کنم. آیا کسی می تواند مزایای یکی را بر دیگری توضیح دهد؟ من شاید کمی بهتر از یک کدنویس معمولی هستم. اگر بخواهم مدل STAR را در پایتون پیاده سازی کنم، چقدر دشوار است؟ آیا متنی وجود دارد که به من در اجرای آن کمک کند؟ | VAR در مقابل STAR برای خودرگرسیون فضا-زمان در پایتون |
78120 | من کمی در مورد ثابت بودن ضعیف در ارتباط با مدل های ARCH/GARCH عصبانی هستم. من پاسخ را نمی دانم و در مورد آن مطمئن نیستم: سوال اساسی این است: > آیا قبل از اعمال مدل ARMA-GARCH باید ثابت بودن ضعیف را آزمایش کنیم؟ در ادامه می توان گفت: > ADF و دیگران معادله میانگین را آزمایش می کنند، اما این برای معادله > نوسانات نیست، بنابراین از چه آزمونی برای خودکوواریانس- > ایستایی باید استفاده کنیم؟ افکار من: مدلهای استاندارد ARMA میانگین و واریانس بدون قید و شرط را ثابت فرض میکنند. برای مدلهای ARMA-GARCH این مورد نیز صادق است: میانگین غیرشرطی و واریانس غیرشرطی باید ثابت باشد، در حالی که در مورد مدلهای ARMA-GARCH واریانس شرطی نیازی به ثابت بودن ندارد. درست است که برای معادله میانگین ممکن است مجبور باشیم به استفاده از یک مدل روند-ایستا یا تفاوت-ایستا فکر کنیم. اما این فقط مربوط به معادله میانگین است، بله. واریانس شرطی را می توان با آزمایش اثرات ARCH (Box-Ljung، Lagrange Multiplier) آزمایش کرد. بنابراین برای مدلهای ARMA-GARCH ما همچنان به ایستایی ضعیف نیاز داریم، زیرا میانگین و واریانس بدون قید و شرط باید ثابت باشند. بنابراین مطمئن نیستم، اما باید قبل از استفاده از مدل ARMA-GARCH، ثابت بودن ضعیف را آزمایش کنیم؟ و به خصوص با بازده مالی، آیا ما نیز باید آن را آزمایش کنیم؟ و از کدام تست استفاده می کنیم (و کدام دستور در R پیاده سازی شده است، پس چه دستوری را می توانید پیشنهاد دهید؟) من می دانم که اگر واریانس بدون شرط غیر ثابت باشد (محدود نیست و سپس ثابت نیست) یک GARCH یکپارچه ممکن است مناسب باشد. اما فقط به دلیل اینکه ثابت نیست نمی توانم بگویم از یک مدل GARCH یکپارچه استفاده می کنم؟ من همچنین می دانم که برای فرآیندهای ARMA-GARCH همه ریشه های مشخصه خارج از دایره واحد قرار دارند. بنابراین در صورت وجود ARMA-GARCH(1,1) $\alpha_1+\beta_1<1$ ضروری است. اما من این را فقط بعد از تخمین می بینم؟ این یک آزمون برای ثابت بودن کوواریانس نیست؟ **ویرایش**: اساساً به (نظرات را ببینید): چگونه می توانم ثابت بودن واریانس بدون قید و شرط را آزمایش کنم؟ منظورم این است که برای اعمال یک مدل GARCH باید مطمئن شوم که میانگین غیرشرطی ثابتی دارم (تست ADF و غیره) و باید واریانس بدون قید و شرط ثابت را آزمایش کنم (چگونه؟). من می دانم که باید بیشتر مطمئن شوم که واریانس شرطی غیر ثابت برای فرآیندهای GARCH دارم، در غیر این صورت داشتن واریانس شرطی ثابت ARMA کافی است (تست برای اثرات ARCH). ویرایش 2: یک تست طیف موجک در بسته locits وجود دارد، در مورد این تست چطور؟ | ایستایی ضعیف و مدل های ARMA-ARCH/GARCH؟ |
19181 | با توجه به نقاط داده $x_1, \ldots, x_n \in \mathbb{R}^d$ و برچسبهای $y_1, \ldots, y_n \in \left \\{-1, 1 \راست\\}$، سخت مشکل اصلی حاشیه SVM $$ \text{minimize}_{w, w_0} \quad \frac{1}{2} w^T w $$ $$ است \text{s.t.} \quad \forall i: y_i (w^T x_i + w_0) \ge 1$$ که یک برنامه درجه دوم با متغیرهای $d+1$ برای بهینه سازی و محدودیت $i$ است. دوگانه $$ \text{maximize}_{\alpha} \quad \sum_{i=1}^{n}{\alpha_i} - \frac{1}{2}\sum_{i=1}^{n }{\sum_{j=1}^{n}{y_i y_j \alpha_i \alpha_j x_i^T x_j}}$$ $$ \text{s.t.} \quad \forall i: \alpha_i \ge 0 \land \sum_{i=1}^{n}{y_i \alpha_i} = 0$$ یک برنامه درجه دوم با متغیرهای $n + 1$ برای بهینه سازی و $n$ است نابرابری و محدودیت های برابری $n$. هنگام پیادهسازی SVM حاشیه سخت، **چرا باید مسئله دوگانه را به جای مسئله اولیه حل کنم؟** مشکل اولیه برای من شهودی به نظر میرسد، و نیازی نیست خودم را با شکاف دوگانگی درگیر کنم، شرط کوهن تاکر و غیره. اگر $d \gg n$ بود مشکل دوگانه را حل کنم، اما من گمان میکنم دلایل بهتری وجود داشته باشد. آیا این مورد است؟ | چرا هنگام نصب SVM مشکل دوگانه را به خود مشغول کنید؟ |
72245 | با توجه به نمایش گرافیکی Naive Bayes در زیر، من می خواهم $P(X|Y_1,Y_2)$ را محاسبه کنم. آیا محاسبات زیر صحیح است؟  توزیع مشترک فاکتور در مورد سیستم عبارت است از: $$P(X,Y_1,Y_2)=P(X) \cdot P(Y_1|X) \cdot P(Y_2|X)$$ $$\frac{P(X,Y_1,Y_2)}{P(X)}=P(Y_1|X) \cdot P(Y_2|X)$$$$P(Y_1,Y_2|X)= P( Y_1|X) \cdot P(Y_2|X)$$ استفاده از قانون بیز برای برگرداندن سمت چپ: $$\frac{P(X|Y_1,Y_2) \cdot P(Y_1,Y_2)}{P(X)}= P(Y_1|X) \cdot P(Y_2|X)$$ $$P(X|Y_1,Y_2) = \frac{P(Y_1| X) \cdot P(Y_2|X) \cdot P(X)}{P(Y_1,Y_2)}$$ $$P(X|Y_1,Y_2) = \frac{P(Y_1|X) \cdot P(Y_2|X) \cdot P(X)}{P(Y_1) \cdot P(Y_2)}$$ | نمایش احتمالی گرافیکی بیز ساده لوح |
31751 | وقتی من لامبدا را از طریق اعتبارسنجی متقاطع تعیین می کنم، همه ضرایب صفر می شوند. اما من نکاتی از ادبیات دارم مبنی بر اینکه برخی از پیش بینی ها باید قطعاً بر نتیجه تأثیر بگذارند. آیا انتخاب خودسرانه لامبدا به گونه ای که به اندازه دلخواه فرد پراکنده باشد، احمقانه است؟ من میخواهم 10 پیشبینیکننده برتر را از بین 135 مدل کاکس انتخاب کنم و اندازههای افکت متأسفانه کوچک هستند. | انتخاب $\lambda$ در یک مدل LASSO تا چه حد قابل دفاع است تا تعداد پیشبینیکنندههای غیر صفر مورد نظر را به دست آورد؟ |
47204 | هر ماه، یک سازمان برخی از مشتریان خود را بررسی می کند (تعداد کل مشتریان نیز مشخص است). مشتریان نمونه به یک نظرسنجی با ده ها سوال پاسخ می دهند. گاهی اوقات مشتریان به هر سوالی پاسخ نمی دهند. یک میانگین ساده از _نسبت_ پاسخگویی به مشتریانی که دسته برتر را در سوال 1 داده اند و _نسبت_ که بیشترین پاسخ را به سوال 2 داده اند محاسبه می شود. (برترین دسته برای برخی سوالات عالی است، برای سوالات دیگر همیشه است.) این میانگین نمره ای را ایجاد می کند که در پایان هر ماه گزارش می شود. چه دستور(هایی) در SPSS می تواند احتمال/میزان بهبود آن امتیاز را در یک پنجره تاریخی معین محاسبه کند؟ همچنین آیا می توان این امتیاز را هموار کرد؟ نمرات آینده را پیش بینی کنید؟ من قبلاً یک ARIMA را بررسی کردهام، اما نتوانستم بفهمم که چگونه مرزهای متغیر وابسته (0،1) را در دستور قرار دهم. | چگونه یک سری زمانی نسبتها را رگرسیون کنیم؟ |
38184 | به نظر نمیرسد که نمیتوانم به این موضوع فکر کنم: یک قرعهکشی تصادفی برگزار میشود که برای آن 900 بلیت فروخته شده است، که برای آن یک بلیط برنده خواهد شد. اگر 25 بلیط خریداری کرده اید، احتمال برنده شدن شما چقدر است. من تقریباً مطمئن هستم که این یک توزیع دوجملهای را دنبال میکند، اما نمیدانم چگونه مدلها را برای حل مشکل اتخاذ کنم. هر گونه کمک / راهنمایی قدردانی می شود. من بیشتر به دنبال درک دامنه مشکل هستم تا دریافت پاسخ. پیشاپیش ممنونم | احتمال برنده شدن در قرعه کشی/لاتاری |
72247 | من به تازگی همین نظرسنجی را در وب سایت های کشورهای مختلف انجام داده ام و می خواهم بتوانم بگویم که آیا تفاوت های قابل توجهی بین کشورها وجود دارد یا خیر. برای مثال اگر 20 درصد آلمانی ها، 30 درصد بریتانیایی ها و 40 درصد هلندی ها به خیریه کمک می کنند، آیا می توانید با اطمینان بگویید که هلندی ها دو برابر آلمانی ها به امور خیریه کمک می کنند. ببخشید اگر سوال احمقانه ای است، من آمار را مطالعه نکرده ام و سعی کرده ام در مورد تست t و تست آنووا بخوانم اما همه اینها بسیار گیج کننده بود:( با تشکر. | آزمایش اهمیت آماری در نتایج نظرسنجی برای کشورهای مختلف |
88554 | من روی برخی از داده ها کار می کنم، به طور خاص، برخی از پیش بینی های برخی از نتایج. پیشبینیها در مقیاس پیوسته، بین 3- تا 3 دلار متفاوت است. به عنوان مثال، آنها می توانند: $x_1=-2.4، x_2=-2.1، x_3=1.4، x_4=0.4، \cdots، x_n=-1.2$ اکنون، برای هر پیش بینی، نتایج مربوطه را نیز دارم، $y_1، y_2 , \cdots , y_n$ که پیوسته نیز هستند. چگونه می توانم بررسی کنم که آیا پیش بینی های من خوب است یا نه؟ من هیچ دانشی در مورد نحوه انجام پیش بینی ها ندارم، بنابراین نمی توانم هیچ فاصله اطمینانی در مورد پیش بینی ها ایجاد کنم. | نحوه مقایسه نتایج مشاهده شده و مورد انتظار برای داده های پیوسته |
88557 | فرض کنید $\begin{bmatrix} K_{11} K_{12}\\\K_{12}^T K_{22} \end{bmatrix}\sim\mathcal{IW}\left(\eta,\begin{bmatrix } \Sigma_{11} \Sigma_{12}\\\\\Sigma_{12}^T \Sigma_{22} \end{bmatrix}\right)$. 1. توزیع مشروط $K_{11}|K_{22}$ و $K_{12}|K_{22}$ 2 چقدر است. انتظار $K_{12}^TK_{22}^{ چیست -1}$ | توزیع شرطی Wishart معکوس |
35927 | من در مورد مفهوم فاصله اطمینان سردرگم هستم. به طور خاص، فرض کنید یک متغیر گاوسی $X \sim N(\mu, \sigma)$ با $\sigma$ شناخته شده وجود دارد و من به کران پایین $\mu_L$ از میانگین با اطمینان $95\%$ علاقه مند هستم. سطح من آزمایش را برای 5 دلار بار انجام میدهم و X_1$، X_2$، X_3$، X_4$، X_5$ را مشاهده میکنم. **گزینه 1:** من هر نمونه را جداگانه بررسی می کنم و می توانم $\mu_L = X_i - \sigma z$ را برای هر $X_i$ محاسبه کنم. و سپس حدس میزنم راهی (نمیدانم چگونه) برای محاسبه کران پایین واقعی از این 5 $\mu_L$ وجود دارد. **گزینه 2:** از طرف دیگر، اگر $T = (X_1+X_2+X_3+X_4+X_5)/5$ را بگیرم، میتوانم $\mu_L = T - \sigma/\sqrt{5} را محاسبه کنم. z$. (با فرض اینکه $T$ نرمال باشد، می توانیم از t-stat نیز استفاده کنیم.) سوال من این است که آیا روش دیگری غیر از گزینه 2 برای محاسبه کران پایین بر اساس نمونه های $5$ وجود دارد؟ و برای گزینه 1 آیا راهی برای محاسبه کران پایین بر اساس 5 کران پایین محاسبه شده وجود دارد؟ | گیج شدن در مورد فاصله اطمینان |
103968 | فرض کنید من یک دیتافریم متشکل از شش سری زمانی دارم. در این چارچوب داده، برخی از مشاهدات وجود ندارد، به این معنی که در برخی از مقاطع زمانی، تمام سری های زمانی حاوی یک مقدار NA هستند. در R، یکی از بستههای انباشته ممکن که میتوان برای تلقین دادههای سری زمانی استفاده کرد، Amelia است. با این حال، این بسته برای مشاهداتی که کاملاً گم شده اند کار نمی کند. آیا راه های دیگری برای محاسبه داده های من وجود دارد؟ با توجه به ارزش آن، میزان مشاهدات از دست رفته کمتر از 20 درصد کل مشاهدات است. | منتسب کردن مشاهدات گمشده در سری های زمانی چند متغیره |
103969 | این دنباله سازه انگاری این سوال است. اگر نمیتوانیم یک متغیر تصادفی یکنواخت گسسته داشته باشیم که همه منطقها را در بازه $[0,1]$ پشتیبانی کند، بهترین چیز بعدی این است: یک متغیر تصادفی $Q$ بسازیم که این پشتیبانی را داشته باشد، $Q\ در \mathbb{Q}\cap[0,1]$، و از توزیع _some_ پیروی می کند. و صنعتگر در من مستلزم این است که این متغیر تصادفی از توزیع های موجود _ساخته شده_ باشد، نه اینکه با تعریف انتزاعی آنچه می خواهیم به دست آوریم ایجاد شود. بنابراین من به موارد زیر رسیدم: اجازه دهید $X$ یک متغیر تصادفی گسسته باشد که از Geometric Distribution-Variant II با پارامتر $0<p<1$، یعنی $$ X \in \\{0,1,2,.. پیروی می کند. .\\}،\;\;\;\; P(X=k) = (1-p)^kp,\;\;\; F_X(X) = 1-(1-p)^{k+1}$$ همچنین اجازه دهید $Y$ یک متغیر تصادفی گسسته به دنبال Geometric Distribution-Variant I با پارامتر یکسان $p$، یعنی $$ Y \in باشد. \\{1,2,...\\},\;\;\;\; P(Y=k) = (1-p)^{k-1}p,\;\;\; F_Y(Y) = 1-(1-p)^k$$ $X$ و $Y$ مستقل هستند. اکنون متغیر تصادفی $$Q = \frac {X}{Y}$$ را تعریف کنید و توزیع _شرطی_$$P(Q\leq q \mid \\{X\leq Y\\})$$ را با کلمات ساده در نظر بگیرید $Q$ شرطی نسبت $X$ به $Y$ است مشروط به اینکه $X$ کوچکتر یا مساوی $Y$ باشد. پشتیبانی از این توزیع شرطی $\\{0,1,1/2,1/3,...,1/k,1/(k+1),...,2/3,2/4 است. ,...\\} = \mathbb{Q}\cap[0,1]$. ** سوال این است: آیا کسی می تواند تابع جرم احتمال شرطی مرتبط را ارائه دهد؟** نظری پرسیده است آیا باید به صورت بسته باشد؟ از آنجایی که امروزه شکل بسته آنقدر واضح نیست، اجازه دهید آن را به این صورت بیان کنم: ما در جستجوی یک فرم تابعی هستیم که بتوانیم یک عدد گویا از $[0,1]$ را وارد کنیم و احتمال (( البته برای مقداری مشخص از پارامتر $p$)، که منجر به یک _graph_ نشان دهنده pmf می شود. و سپس $p$ را تغییر دهید تا ببینید نمودار چگونه تغییر می کند. اگر کمک کند، میتوانیم یک یا هر دو مرز پشتیبانی را باز کنیم، اگرچه این گونهها ما را از توانایی نمودار کردن مقادیر بالا و/یا پایین **pmf** محروم میکنند. همچنین، اگر کران بالایی را باز کنیم، باید رویداد شرطی $\\{X<Y\\}$ را در نظر بگیریم. از طرف دیگر، **من از سایر r.v.هایی که این پشتیبانی(ها) را دارند، استقبال می کنم، تا زمانی که آنها با pmf خود همراه شوند_**. من از توزیع هندسی استفاده کردم زیرا دو نوع آن به آسانی در دسترس است که یکی از آنها صفر را در پشتیبانی درج نمی کند (به طوری که از تقسیم بر صفر اجتناب شود). بدیهی است که می توان از سایر r.v های گسسته با استفاده از مقداری برش استفاده کرد. من مطمئناً برای این سؤال جایزه خواهم داد، اما سیستم فوراً این اجازه را نمی دهد. | ساخت یک r.v گسسته به عنوان پشتیبان همه دلایل منطقی در $[0,1]$ |
62338 | من می خواهم بدانم چگونه می توانیم حداکثر مقدار انحراف معیار، $\sigma$ را تعیین کنیم. با توجه به یک محدوده برای یک جامعه یا نمونه، $[a, b]$ که در آن $b$ حداکثر مقدار و $a$ حداقل مقدار است، تصور میکنم محدوده $\sigma$ نیز وجود داشته باشد که من آن را به عنوان $ نشان میدهم. [0, m]$، یعنی $0 \leq \sigma \leq S$. من فکر می کنم حداقل $\sigma$ باید 0 باشد زیرا اگر همه نمونه ها یک مقدار باشند، هیچ انحرافی از میانگین وجود ندارد. اما حداکثر $\sigma$ از میانگین چطور؟ اساساً میخواهم بدانم چگونه میتوان کرانهای پایین و بالایی را برای $\sigma$، با توجه به محدوده جامعه یا نمونه محاسبه کرد. خیلی خوب می شود اگر بتوانم به یک مقاله یا کتاب برای تایید پاسخ هایی که می گیرم ارجاع بدهم. | حداکثر انحراف معیار، $\sigma$ |
93486 | فرض کنید $\mu$ میانگین و $\sigma$ انحراف استاندارد توزیع احتمال تعریف شده در بازه محدود $[a,b]$ باشد (یعنی احتمال قرار گرفتن متغیر تصادفی خارج از $[a,b) دلار صفر است). آیا نابرابری زیر به طور کلی برای چنین توزیع احتمالی صادق است؟ $$\sigma^2 \le (\mu-a)(b-\mu)$$ **انگیزه:** این نابرابری برای توزیع بتا صادق است (همانطور که از فرمول های اینجا مشخص است). | $\sigma^2 \le (\mu-a)(b-\mu)$ برای همه توزیعهای احتمال محدود شده در $[a,b]$؟ |
103966 | من در حال ساخت یک تست مربع کای بر روی داده هایی هستم که اطلاعاتی در مورد دانش آموزان دارد. میخواهم بدانم آیا بین میزان موفقیت دانشآموزان در یک آزمون خاص و میزان ترک تحصیل رابطه وجود دارد یا خیر. من یک ماتریس 2×2 با متغیرهای Level in test دارم که مقادیر level 1 و level 2 را می گیرد و متغیر dropout که دارای مقادیر not active و active است. من یک آزمون مربع کای برای استقلال روی کل دانشکده انجام داده ام (_n_ = 1688) و مقدار p = 0.0042، که نشان می دهد بین دانش آموزان در سطح 1 و 2 در رابطه با ترک تحصیل آنها تفاوت وجود دارد. اما وقتی همان تحلیل را روی هر یک از 5 آموزش در دانشکده انجام میدهم، مقادیر p را دریافت میکنم (0.5275، 0.6499، 0.1190، 0.3298، 0.2660). این نتایج فردی این است که هیچ تفاوتی در دانشآموزان «سطح 1» و «سطح 2» در رابطه با «ترک تحصیل» وجود ندارد. آیا این نتایج متناقض است؟ به چی اعتماد کنم؟ (به داده های پیوست مراجعه کنید.) از قبل برای کمک تشکر می کنم! >  | تفسیر و درک نتایج از آزمون مربع کای برای استقلال |
109679 | من سعی می کنم انتظار $$E[e^{cX}]$$ را برای $c<0$ دلخواه محاسبه کنم (برای $c>0$ انتظار بی نهایت است) اگر $X$ به طور منطقی توزیع شده باشد، یعنی $\log (X) \sim N(\mu، \sigma)$. ایده من این بود که انتظارات را به عنوان یک انتگرال بنویسم، اما نمیدانستم چگونه ادامه دهم: $$E[e^{cX}] = \frac{1}{\sqrt{2\sigma\pi}}\int_0^ \infty \frac{1}{x}\exp\left(cx - \frac{(\log x - \mu)^2}{2\sigma^2}\right)dx$$ من هم امتحان کردم فرمول Itô (وظیفه واقعی یافتن $E[e^{cX_T} \mid X_t = x]$ است که در آن $X$ یک حرکت هندسی براونی است، اما به مشکل بالا کاهش مییابد زیرا ما به یک فرآیند مارکوف نگاه میکنیم) ، اما این نیز چندان امیدوارکننده به نظر نمی رسید. کسی میتونه کمکم کنه؟ | $E[e^{cX}]$ که در آن $c < 0$ و $X$ به طور منطقی توزیع شده است |
78128 | مطمئن نیستم که آیا این مکان برای این کار است، لطفا به من اطلاع دهید اگر نه! من سعی می کنم تکالیفی را تکمیل کنم و یکی از سوالات این است: با توجه به این درخت که با استفاده از الگوریتم ID3 مشتق شده است: جنسیت = مرد تلویزیون = بله درآمد = 40 - 50 سن = 30 - 40 -> پذیرش = بله سن = 40 - 50 -> گرفتن = بدون درآمد = 30 - 40 -> گرفتن = بله درآمد = 50 - 60 -> گرفتن بالا = بله درآمد = 20 - 30 -> برداشت = بله تلویزیون = خیر -> برداشت = نه و این مورد داده نادیده : جنسیت -> تبلیغات تلویزیونی مرد -> بله تبلیغات DVD -> بدون درآمد -> 40 - 50 سن - > 20 - 30 تا -> ? ارزش پذیرش این مورد چقدر باید باشد. من احساس میکنم که بله، زیرا در گروه سنی 30 تا 40 قرار میگیرد، اما سعی میکنم بفهمم که آیا واقعاً راهی برای حل آن وجود دارد یا خیر، اما مطمئن نیستم که دنبال چه چیزی هستم. به نظر می رسد که من 10 صفحه اول گوگل عجیب داده های دیده نشده در درخت تصمیم ID3 را جستجو کرده ام، اما هیچ چیز مفیدی از راه دور دریافت نمی کنم. پیوندهای مرتبط قدردانی می شود! با تشکر | داده های طبقه بندی نشده درخت تصمیم |
15296 | من مجموعه ای از نقاط داده دارم. برای هر مجموعه من رگرسیون خطی انجام داده ام تا بهترین خطوط را برای داده ها پیدا کنم. من فرض می کنم که گرادیان همه خطوط با بهترین تناسب باید صفر باشد. من میانگین و انحراف استاندارد همه گرادیان ها را گرفتم و اینها مقادیری هستند که محاسبه کردم: میانگین = 5.72 $ \times 10^{-5}$، انحراف استاندارد = 5.02 $ \times 10^{-4} $ برای من، یک فرد غیر معمول ، می توانم بگویم که این نشان می دهد که با توجه به مقدار میانگین بسیار کوچک و توزیع استاندارد فشرده، گرادیان ها باید صفر باشند. با این حال به من گفته شده است که باید کمی سختگیرتر باشم - ظاهراً باید برای اثبات فرضیهام آزمایش کای دو انجام دهم. لطفاً کسی میتواند مجموعهای از مراحل را به من بدهد که در آن توضیح دهد که چگونه این کار را انجام دهم؟ با تشکر | تست Chi-square برای بررسی اینکه آیا مقادیر نزدیک به صفر هستند؟ |
4286 | من تنظیمات زیر را دارم. من _n_ ماتریس های نیمه معین مثبت هرمیتین (HPSD) و یک متریک القا شده توسط یک هنجار ماتریس دارم. من در درجه اول به هنجار Frobenius و هنجار اپراتور علاقه مند هستم. من می خواهم مولفه اصلی اصلی را برای این مجموعه مشاهدات استخراج کنم، یعنی یک زیرفضای 1 بعدی در HPSD به طوری که مجموع مربعات حداقل فاصله بین ماتریس ها با این زیرفضا به حداقل برسد. من به مؤلفه های دوم، سوم و غیره علاقه ای ندارم، زیرا آنها حتی در این فضا به خوبی تعریف نشده اند، زیرا من یک محصول اسکالر را برای سادگی تعریف نکرده ام. در مورد هنجار Frobenius، با استفاده از نسخه های پشته ای ماتریس های ورودی به عنوان بردارهای ورودی، مشکل را می توان به PCA سنتی کاهش داد. اما در مورد هنجارهای اپراتور، من نمی توانم استراتژی برای حمله به مشکل پیدا کنم. سؤالات: 1. آیا کسی قبلاً این مشکل خاص را دیده است؟ توصیه ها و مراجع بسیار قدردانی می شود. 2. آیا کسی با محاسبه PCA در مورد فواصل غیر اقلیدسی سروکار داشته است؟ | تجزیه و تحلیل مؤلفه های اصلی در بین ماتریس ها |
88558 | من می خواهم با استفاده از بسته statsmodel برای پایتون **نقاط bean** را ترسیم کنم. در مثال ارائه شده در مستندات، یک **علامت قرمز قرمز** را در هر پلات می بینم:  نشان دهنده چیست ? | beanplots: علامت بعلاوه؟ |
88550 | من میخواهم عملکرد دو الگوریتم خوشهبندی را با هم مقایسه کنم که تعداد خوشههای متفاوتی به من میدهند. اخیراً از آمار شکاف مطلع شدم. با این حال، از آنچه من یاد گرفتم، از این آمار برای یافتن تعداد بهینه خوشه برای یک الگوریتم استفاده می شود (مثلاً در آن صفحه برای یافتن بهترین تعداد خوشه برای k-means استفاده می شود). آیا می توان از آن برای مقایسه اینکه کدام خوشه الگوریتم بهترین عملکرد را دارد استفاده کرد؟ (خوشه بندی را پیدا می کند که فاصله را در خوشه ها به حداقل می رساند و فاصله بین آنها را به حداکثر می رساند) | استفاده از آمار شکاف برای مقایسه الگوریتم ها |
69408 | من در تلاش برای یافتن وزن های بهینه برای یک ترکیب خطی هستم. من قبلاً علائم وزنه ها (+/-) را می شناسم. به طور خاص من داده های بیان ژنی دارم که در آن 100 ژن به یک مسیر خاص تعلق دارند. من می دانم که کدام ژن تنظیم کننده (علائم) آن 100 ژن هستند یا نه. من سعی می کنم برای هر نمونه با استفاده از وزن های مناسب امتیاز مسیر را محاسبه کنم. آیا روشی از نوع بیزی (برای اینکه بتوانم از اطلاعات قبلی +/- استفاده کنم) وجود دارد که بتوان از آن برای بدست آوردن وزن استفاده کرد؟ | وزن های بهینه برای ترکیب خطی |
72243 | با کد زیر، پیشبینیهای خطی Holt و Holt-Winters را با استفاده از Excel / Solver اجرا کردهام. من میخواستم این را با استفاده از R تکرار کنم (اکسل میتواند دردناک باشد) اما خطای زیر را با «hw()» دریافت میکنم. این اولین بار است که این را با R اجرا می کنم، بنابراین سعی می کنم از طریق اسناد پیش بروم. من فرض می کنم اجرای تابع مقدار اولیه را انتخاب می کند و همچنین پارامترها را بهینه می کند؟ یا من خیلی دور هستم؟ در هر صورت، فکر میکردم «hw()» کار میکند، اما واضح است که من در اینجا کار اشتباهی انجام میدهم. x<-c(12638.8,11583.3,13024.1,12594.2,13068.1,12765.4,13125.6,13316.3,1 3054.7,13879.3,14436.6,17861,13923.8,12418.4,13854.4,13558.8,14335,1363 9.9,14132.2,14457.2,14045.4,14941.2,15556,18984.2,14825.5,13138.3,14473 .6,14507.6,15055.9,14384.2,15199.7,15169.7,15223.5,16412.9,16662.9,2063 8.9,16154.8,14696,15793.8,15804.2,15895,15868.6,16435.6,15945.9,16381.4 ,17084.2,17261,21652.6,16330.6,14840.5,16419.8,16104.2,16326.2,16453.4, 16750.3,16678,16816.4,17431.7,17920.6,22491.3,17016.6,15534.8,17339.2,1 7065.6,17313.3,17448.2,17617.5,17814.2,17747.6,18592.4,19223.3,23636.1) x.ts <- ts(x، start=2001، فرکانس=12) نمودار(x.ts) ####هولت خطی(x، h=12، damped=FALSE، level=c(80،95)، fan = FALSE، اولیه = c (بهینه)، نمایی = FALSE، آلفا = NULL، بتا = NULL) #Holt-Winters hw(x، h=2*فرکانس(x)، seasonal=multiplicative، damped=FALSE، level=c(80,95)، fan=FALSE، initial=c(بهینه)، نمایی=TRUE، آلفا =NULL، بتا=NULL، گاما=NULL) # hw خطای زیر را می دهد #Error در ets(x، AAA، آلفا = آلفا، بتا = بتا، گاما = گاما، میرایی = میرا، : داده های غیر فصلی | هولتز خطی و هولت-وینترز در R |
69401 | من میخواهم امتیاز z را برای توزیعی که نسبت شانس و مقدار p را میدانم محاسبه کنم. من همچنین محدودیت های اطمینان 95 درصدی بالا و پایین را برای نسبت شانس می دانم. یک مثال با نقاط دو داده در اینجا نشان داده شده است. OR_95 OR_95U p-value 0.997804 0.970573 1.025798 0.876215 1.039562 1.010116 1.069866 0.00815 | امتیاز z را از نسبت شانس محاسبه کنید |
81622 | من آشکارا اعتراف می کنم که آمار و برنامه ریزی آماری واقعاً در چرخ من نیست. گفته می شود، شغل من این را می طلبد. من سعی میکنم دادههای جمعآوریشده از یک نظرسنجی قبل و بعد از آزمون را تجزیه و تحلیل کنم که در آن پاسخها با مقیاس لیکرت 1 تا 5 اندازهگیری شدند. 1- کاملا موافقم و 5 کاملا مخالفم. اساساً ما میخواهیم ثابت کنیم که مداخله ما نگرشها را تغییر میدهد تا کاملاً موافق اکثریت باشد. من می خواهم بتوانم درصد رشد را برای هر یک از 14 سوال خود از قبل تا پس آزمون نشان دهم. اساساً باید بدانم تغییر چیست؟ دوباره از SPSS استفاده می کنم و در راه بالای سرم. | تجزیه و تحلیل پیش و پس آزمون با استفاده از مقیاس لیکرت و SPSS |
109674 | من فکر می کنم که این یک موضوع جالب برای همه کسانی است که می خواهند نه تنها یک تابع پیش بینی را تنظیم کنند، بلکه می خواهند باندهای پیش بینی را برای ارزیابی خطای گرافیکی یا جدولی به دست آورند، من سعی می کنم گام به گام روش دلتا را روی داده های خود اعمال کنم. با این حال، همانطور که می خواهم پیشرفت های خود را برای رسیدن به فینال با شما به اشتراک بگذارم. با خلاصه کردن و مرور روش استاندارد با استفاده از نرم افزارهای تجاری بیش از همه، متوجه می شویم:  جایی که ریشه دوم سمت راست معکوس را شامل می شود. ماتریس Hessian فکر می کنم، اگرچه به آن می گویند ماتریس طراحی. و همچنین تابع ماتریس گرادیان. بنابراین من کدم را در اینجا به اشتراک میگذارم تا سعی کنم یک تابع غیرخطی سفارشی را متناسب کنم و فواصل پیشبینی آن (اطمینان و پیشبینی، یا زبان Mathematica، میانگین و فواصل پیشبینی ساده) را ارزیابی کنم. کد با دادههای مثال من: (*دادههای مثال*) در[1]:= داده = {31، 46، 70، 87، 87، 93، 114، 128، 133، 134، 143، 155، 161، 161، ، 177، 181، 207، 207، 226، 302، 315، 319، 347، 347، 362، 375، 377، 413، 440، 447، 461، 464، 511، 524، 556، 800، 800، 8 12000}; In[2]:=dist = ProbabilityDistribution[{CDF, Exp[-a Exp[-x b] - c Exp[-x d]]}, {x, 0, Infinity}, Assumptions -> {{0 < a < 10}، {0 <b <1}، {0 <c <10}، {0 <d <1}}]; در[3]:= res = FindDistributionParameters[data, dist, {{a, 3.8}, {b, 0.006}, {c, 0.08}, {d, 0.0002}}]; (* ACOV است:*) در[4]:= acov[data_, dist_, paramlist_, mleRule_] := Block[{len, infmat, cov}, len = Length[data]; infmat = -D[LogLikelihood[dist, data], {paramlist, 2}]/len /. mleRule; cov = معکوس[infmat]]; In[5]:= akov[data، dist، {a، b، c، d}، res]; (* تابع گرادیان G' *) در[6]:=D[Exp[-a Exp[-x b] - c Exp[-x d]], {{a, b, c, d}}]; در[7]:=پارتیشن [%4]; In[8]:= Transpose[%7]; (* برای ضرب Transpose-Gradient در acov در Gradient*) در[9]:=%7 %5 %8 (*مقدار بحرانی T-student به آلفا 0.05 و 42 داده*) Quantile[StudentTDistribution[41]، 0.95] مشکل اکنون اعتبارسنجی این کد و انجام آن با استفاده از یک مثال عددی برای بدست آوردن y پیش بینی شده و اطمینان آنها است. و فواصل پیش بینی یعنی ماتریس نهایی باید یک عدد ساده بدهد و سپس باید MSE و همچنین quaantile t-student را محاسبه کنیم. پست های مرجع: http : //mathematica.stackexchange.com/questions/6498/standard - errors - for - maximum - likelihood - تخمین ها - در - finddistributionparameters; http : //stats.stackexchange.com/questions/15423/نحوه - محاسبه - پیش بینی - باند - برای - رگرسیون - غیر خطی؟answertab = فعال #tab - top http : //stats.stackexchange.com/questions /68080/سوال - پایه - در مورد - اطلاعات - ماتریس - و - رابطه - با - هسین - و - فیشر منتظر کمک شما هستم، متشکرم. | استفاده از روش دلتا برای تولید باندهای پیش بینی برای توزیع های سفارشی گام به گام |
43459 | من یک سوال جالب در مورد داده های طولی دارم و به دنبال یک معیار خلاصه مناسب هستم که به من امکان دهد بدون دانستن/استفاده از چیزی در مورد داده های همبسته به سؤال مورد علاقه خود پاسخ دهم. فرض کنید ما دو نمونه متفاوت داریم - یک درمان و یک کنترل. در هر آزمایش، آزمودنیها باید یک پازل را حل کنند و تعداد تلاشها برای حل پازل را میشماریم. تعداد تلاش ها می تواند 1، 2، 3 باشد، یا اگر معما پس از 3 بار حل نشد، موضوع در این آزمایش شکست خورده است. آزمایش را 10 بار تکرار می کنیم تا هر موضوع 10 پازل را حل کند. بدیهی است که ما داده های همبستگی داریم زیرا 10 اندازه گیری در مورد هر موضوع داریم. فرضیه مورد علاقه من این است که آیا اثر یادگیری وجود دارد یا خیر. آیا به اندازه گیری خلاصه ای در مورد هر موضوع فکر می کنید (هر موضوع دارای 10 اندازه گیری است) که اندازه گیری های مربوط به آن موضوع را در یک اندازه گیری خلاصه می کند تا بتوانیم از دریافت داده های مرتبط اجتناب کنیم (یا حداقل تلاش کنیم از آن اجتناب کنیم؟) ممنون | یک معیار خلاصه خوب برای تجزیه و تحلیل اندازه گیری های مکرر داده های طولی؟ |
86230 | من با چند مشکل از SAS به R مهاجرت میکنم، بدون اینکه به شکافهای بزرگ در دانش آماری اشاره کنیم. من در یک مطالعه طولی به بررسی تأثیر قومیت بر فشار خون می پردازم. برای همه گروه های قومی، مشهود است که فشار خون آنها در 3-4 سال اول کاهش می یابد و پس از آن به طور پیوسته افزایش می یابد (روند دیگری مشاهده نشد). من 100000 مشاهده دارم، از 10000 فرد منحصر به فرد. داده ها به شدت نامتعادل هستند. برخی از افراد 1 مشاهده دارند در حالی که برخی دیگر 20 مشاهده دارند. مشاهدات در مقاطع زمانی مختلف جمع آوری می شوند. متغیرهای کمکی ثابت: سن، جنس، درمان، BMI، قومیت. متغیرهای کمکی تصادفی: قومیت واحد اندازه گیری مکرر: فردی (ID). چگونه این را مدل می کنید؟ من به تفاوت های قومی علاقه مند هستم و بنابراین باید قومیت را به عنوان یک متغیر ثابت داشته باشم. اما قومیت را میتوان بهعنوان یک سطح از نظر مدلهای چند سطحی ارزیابی کرد، و بنابراین در مدلهای ترکیبی بهعنوان تصادفی مدلسازی شد. اگر اشتباه نکنم، سوژه های من در میان گروه های قومی تودرتو هستند. من دفترچه های راهنمای بسته nlme و بسته lme4 را خوانده ام. با وجود روند غیرخطی فشار خون، تصمیم گرفتم با lme4 همراه شوم، اما سعی کردم با گرفتن دومین چند جملهای مدت زمان (زمان*زمان) آن را تنظیم کنم. چگونه این را مدل می کنید؟ به عنوان مثال: lmer(hba1c_up ~ سن + جنس + (1| قومیتx/ID)) ? lmer(hba1c_up ~ سن + جنس + (1|ID) + (1|Ethnicityx)) پیشنهادی دارید؟ کمک بسیار قدردانی خواهد شد! /آدام | مشاوره برای مدل ترکیبی با جلوه های چند سطحی در R |
108565 | برای دیریکله استاندارد، انتظار $X_i$ $\alpha_i/\alpha_0$ است، که در آن $\alpha_0 = \sum_i \alpha_i$ (http://en.wikipedia.org/wiki/Dirichlet_distribution) است. من تعمیم زیر را در نظر دارم. فرض کنید در حال انجام یک بازی پوکر ساده به شرح زیر هستیم. ما بازیکن 1 هستیم و بازی های بازیکن 2 را مشاهده می کنیم. بازیکن 2 را می توان با یکی از دو دست با احتمال 1/2 (یا به طور کلی احتمال $p$) - K یا Q (بازیکن 2 این را می بیند و بازیکن 1 نمی بیند). سپس بازیکن 2 یکی از اقدامات $i$ را انتخاب می کند. اجازه دهید $X_i$ نشان دهنده rv برای بازیکن احتمالی 2 باشد، عمل $i$ را با یک K انجام می دهد، و اجازه دهید $Y_i$ نشان دهنده rv برای Q باشد. $ و $Y_i$ مستقل هستند (استراتژی او برای K مستقل از استراتژی او برای Q است). بازیکن 1 فقط اکشن $i$ از P2 را مشاهده می کند و نه کارت خود را. من سعی می کنم یک فرم بسته برای $E[X_i]$ و $E[Y_i]$ پیدا کنم. این تعمیم با توزیع عمومی دیریکله متفاوت است، که یک راه حل بسته نسبتا ساده برای انتظارات دارد (http://en.wikipedia.org/wiki/Generalized_Dirichlet_distribution). من فکر میکنم pdf این توزیع به صورت زیر است، که $p$ نشاندهنده احتمال اینکه P2 یک K داده میشود، $\alpha_i$ تعداد دفعاتی است که تا به حال اقدام کرده است $i$، و $N(\alpha) )$ مقداری ثابت عادی سازی است که من مطمئن نیستم چگونه محاسبه کنم: $$f(x,y;\alpha) = N(\alpha) * \prod_i [p x_i + (1-p)y_i]^{\alpha_i}$$ که در آن $x_i، y_i \geq 0، \sum_i x_i = 1، \sum_i y_i = 1.$ میتوان قضیه دوجملهای را در اینجا اعمال کرد، اما مطمئن نیستم چگونه برای ادامه و اگر این حتی کمک خواهد کرد. به نحوی تابع گاما/بتا برای بازی باید وارد شود. خیلی ممنون | انتظار تعمیم توزیع دیریکله |
69405 | من در حال نصب مدلی با استفاده از تابع auto.arima در بسته پیش بینی هستم. من مدلی دریافت می کنم که برای مثال AR(1) است. سپس باقی مانده ها را از این مدل استخراج می کنم. این چگونه همان تعداد باقیمانده بردار اصلی را ایجاد می کند؟ اگر این یک مدل AR(1) است، تعداد باقیمانده ها باید 1 کمتر از ابعاد سری زمانی اصلی باشد. چه چیزی را از دست داده ام؟ مثال: require(forecast) arprocess = as.numeric(arima.sim(model = list(ar=.5), n=100)) #auto.arima(arprocess, d=0, D=0, ic=bic , stationary=T) # سری: arprocess # ARIMA(1,0,0) با میانگین صفر # ضرایب: # ar1 # 0.5198 # s.e. 0.0867 # sigma^2 بهعنوان 1.403 تخمین زده شد: log likelihood=-158.99 # AIC=321.97 AICc=322.1 BIC=327.18 r = resid(auto.arima(arprocess, d=0, D=0, ic=bic, stationary= T)) > length(r) [1] 100 به روز رسانی: با جستجوی کد auto.arima، می بینم که از Arima استفاده می کند که به نوبه خود از 'stats:::arima' استفاده می کند. بنابراین سوال واقعا این است که stats:::arima باقیمانده ها را برای اولین مشاهده چگونه محاسبه می کند؟ | باقیمانده ها در R با استفاده از auto.arima و بسته پیش بینی |
103963 | CrossPost: https://stackoverflow.com/questions/24301743/which-machine- learning-algorithm-is-the-slowest-but- surest?noredirect=1#comment37556042_24301743 شاید درک من از زمان توسط این ماشین های سریعتر تقویت شود روزها، اما من فکر می کردم که آیا نوعی از یادگیری ماشین وجود دارد یا خیر که بیشتر طول می کشد اما نتایج بسیار بهتری را در مجموعه داده های بزرگ با نویز زیاد به همراه خواهد داشت. من در اینجا فرض می کنم که همگرایی سریعتر به نحوی با احتمال گیر افتادن در یک افراط محلی ارتباط دارد. من متوجه نوسانات کمی بعد از 100-500 دوره می شوم که در آن مرحله من فقط باید دوباره راه اندازی کنم. من در حال حاضر از یک شبکه عصبی پیشخور برای رگرسیون و طبقهبندی استفاده میکنم. گمان میکنم الگوریتمهای ژنتیک به نظر میرسد که زمانبرترین انواع یادگیری ماشینی «نیروی بیرحم» باشند. من همچنین به این فکر میکردم که انواع دیگر شبکههای عصبی را میتوان تغییر داد (مانند تکانه یا نرخ یادگیری آنها برای افزایش دامنه آن بر روی تابع). بدیهی است که من سعی کردم هر دوی اینها را تنظیم کنم اما این مشکل من را حل نکرد. | کدام الگوریتم یادگیری ماشینی کندترین اما مطمئن ترین است؟ |
77759 | در اجرای MCMC از مدلهای سلسله مراتبی، با اثرات تصادفی معمولی و یک Wishart برای ماتریس کوواریانس آنها، نمونهگیری گیبس معمولاً استفاده میشود. با این حال، اگر توزیع اثرات تصادفی را تغییر دهیم (به عنوان مثال، به Student's-t یا یکی دیگر)، مزدوج از بین می رود. در این مورد، توزیع پیشنهادی مناسب (یعنی به راحتی قابل تنظیم) برای ماتریس کوواریانس اثرات تصادفی در الگوریتم متروپلیس-هیستینگ چیست، و نرخ پذیرش هدف، دوباره 0.234 چقدر باید باشد؟ پیشاپیش برای هر نکته ای متشکرم | توزیعهای پیشنهادی برای ماتریسهای کوواریانس در اجرای MCMC مدلهای سلسله مراتبی |
47849 | من با یک مشکل عجیب با تغییر اندازه مجموعه تست مواجه هستم. توضیح این موضوع کمی گیج کننده است، اما من تمام تلاشم را خواهم کرد. من از اکتاو برای آموزش یک SVM بر روی داده های سری زمانی استفاده می کنم و به طور کلی نتایج خوبی به همراه دارد. با این حال، گاهی اوقات وقتی ویژگیهای «بد» را معرفی میکنیم، SVM تقریباً بلافاصله در طول آموزش «تسلیم میشود» و مدلی تولید میکند که به طور موثر پیشبینیها را روی یک ویژگی واحد سنجاق میکند. در این موارد، قطار در 1 ثانیه در مقابل 4-5 دقیقه معمولی کامل می شود. من هرگز واقعاً نمی دانستم که چه چیزی باعث آن می شود، اما فقط تصور می کردم که نمی تواند یک مدل مفید پیدا کند، که منطقی به نظر می رسید. مشکلی که اکنون با آن روبرو هستم این است که به نظر می رسد چیزی به سادگی عادی سازی می تواند تفاوت بین یک مدل بسیار مؤثر و یک نتیجه فوری تسلیم شدن باشد. مورد خاص این است: من مجموعه داده ای از مثلاً 5000 نمونه آموزشی دارم. آنها برای قطار/آزمایش به یک تقسیم 90/10 تقسیم می شوند و به خوبی کار می کنند. به طور مشابه، اگر مجموعه داده ها را 95/5 تقسیم کنم، این نیز خوب کار می کند (در واقع برای عملکرد تست، صرفاً به این دلیل که کوچکتر است). با این حال، به طرز عجیبی، اگر من مجموعه داده را 90/5/5 تقسیم کنم و 5٪ آخر را بیرون بیاورم، دستگاه از آموزش امتناع می کند. بنابراین تمام کاری که من انجام میدهم حذف بخشی از مجموعه تست است که باعث میشود کل فرآیند با شکست مواجه شود. برای گیجکنندهتر کردن همه چیز، متوجه شدم که عادیسازی دلیل آن است: اگر نرمالسازی کنم (متوسط صفر + مقیاسبندی) و سپس برش بزنم، همه چیز خوب کار میکند، اما اگر برش بزنم، _then_ normalize، دستگاه از کار میافتد. اساساً، نتیجهگیری من این است که حذف نمونههای آموزشی خاص در مجموعه آزمایشی باعث میشود که نرمالسازی (به طور طبیعی) با مقادیر متفاوتی مقیاسبندی شده باشد که به دلایلی مشکلساز هستند. من حداقل/حداکثر/میانگین مقادیر مقیاسشده را در نظر گرفتهام و هیچکدام از آنها بیش از چند درصد تغییر نمیکنند، بنابراین تا حدودی در مورد بعدی که باید دنبال کنم دچار مشکل هستم. هر گونه راهنمایی در مورد چگونگی تشخیص این یا آنچه ممکن است اتفاق بیفتد بسیار قدردانی خواهد شد. به سلامتی **به روز رسانی:** بعد از مدتی کار بیشتر روی این موضوع، متوجه شدم که اگر یک ویژگی با صفر بودن همه مقادیر وجود داشته باشد، دستگاه فوراً تسلیم می شود (این ممکن است در زیر مجموعه های خاصی از داده های آموزشی اتفاق بیفتد یا فقط بدشانسی باشد. ). اگرچه من می پذیرم که ویژگی همه صفرها ارزش کمی دارد، آیا دلیل خاصی وجود دارد که چرا این امر باعث می شود الگوریتم همانطور که توضیح داده شد رفتار کند؟ اتفاقاً اگر تفاوتی ایجاد کند، از هسته گاوسی استفاده می کنیم. | SVM به طور کامل با زمانی که مجموعه تست متغیر است شکست می خورد |
69409 | من مقداری داده متلب دارم. ستون اول مقداری طول پیام است و ستون دوم تعداد دفعات تکرار آن طول است. چیزی شبیه به این: 15 1 40 12 200 5 215 2 اولین غریزه من برای تجسم این داده ها این بود که آن را در یک نمودار میله ای قرار دهم، به این ترتیب:  اما مشکل نمودارهای میله ای این است که یک فاصله مساوی ضمنی وجود دارد. در مورد تصویر بالا، یک فاصله 10 واحدی (در این مورد احتمالاً سال) از نوار به میله وجود دارد. همانطور که در مثال بالا نشان داده شده است، داده های من در همه جا فاصله یکسانی ندارند. و دامنه طول پیام زیاد است. یک تکه از داده هایی که من به تازگی پردازش کردم دارای محدوده ای از 44 تا 7756 با فاصله بسیار نامنظم است (در فاصله بین 10 تا 1000). من فکر نمیکنم هیستوگرام در اینجا انتخاب درستی باشد، زیرا دادههایی که من به آنها نگاه میکنم آنقدر نامنظم هستند که انتخاب خوبی برای اندازه سطل وجود ندارد. چگونه باید در مورد تجسم این داده ها اقدام کنم؟ | وقتی فاصله بین میلهها برابر نیست، چه روشی برای ارائه دادهها در نمودار میلهای وجود دارد؟ |
50538 | من یک آماردان نیستم، اما در حال اثبات کران بالای عبارتی هستم که حاوی واریانس متغیری است که مقادیر خود را از یک بازه بسته به دست میآورد [0,1]. من در چندین مکان (عمدتا در انجمن ها و صفحات وب) نتیجه را دیده ام که $\text{Var}(X)\le \frac{(b-a)^2}{4}$ برای $a\le X\le b$ . من میخواهم از این نتیجه استفاده کنم و به آن اشاره کنم، اما برای یافتن یک مرجع قوی به طور غیرعادی مشکل دارم. کسی اینجا میتونه یکی رو به من معرفی کنه؟ | مرجع $\text{Var}(X)\le (b-a)^2/4$ |
86238 | من یک سردرگمی بسیار اساسی در مورد اعتبارسنجی متقابل دارم. بگذارید بگوییم من در حال ساخت یک طبقهبندیکننده باینری خطی هستم و میخواهم از اعتبارسنجی متقاطع برای تخمین دقت طبقهبندی استفاده کنم. اکنون تصور کنید که اندازه نمونه من $N$ کوچک است، اما تعداد $k$ ویژگی ها بزرگ است. حتی زمانی که ویژگیها و کلاسها بهطور تصادفی تولید میشوند (یعنی دقت طبقهبندی واقعی باید 50٪ باشد، ممکن است این اتفاق بیفتد که یکی از ویژگیها به طور کامل کلاس باینری را پیشبینی کند. اگر $N$ کوچک و $k >> N$ باشد، چنین وضعیتی بعید نیست. ~~در این سناریو من 100% دقت طبقهبندی را با هر مقدار فولدهای اعتبارسنجی متقاطع دریافت میکنم، که بدیهی است قدرت واقعی طبقهبندیکننده من را نشان نمیدهد، به این معنا که احتمال طبقهبندی صحیح یک نمونه جدید هنوز فقط 50٪ است. ~~ [به روز رسانی: این **اشتباه** است. برای نشان دادن این که چرا اشتباه است، پاسخ من را در زیر ببینید.] ~~آیا روش های رایجی برای مقابله با چنین شرایطی وجود دارد؟~~ برای مثال، اگر بخواهم تفاوت آماری بین دو کلاس خود را ارزیابی کنم، می توانم MANOVA را اجرا کنم که در صورت وجود دو گروه به محاسبه T Hotelling کاهش مییابد. حتی اگر برخی از ویژگیها تفاوتهای تک متغیره قابلتوجهی داشته باشند (مثبت کاذب)، من باید یک چند متغیره کلی غیرمعنادار دریافت کنم. تفاوت با این حال، من چیزی در روش اعتبارسنجی متقاطع نمی بینم که چنین موارد مثبت کاذبی را توضیح دهد (ممیزان نادرست؟). چه چیزی را از دست داده ام؟ یکی از چیزهایی که می توانم درباره خودم فکر کنم، این است که _over features_ را تایید متقابل کنم، به عنوان مثال. برای انتخاب زیرمجموعه تصادفی از ویژگی ها (علاوه بر انتخاب تصادفی یک مجموعه آزمایشی) در هر فول اعتبارسنجی متقابل. اما من فکر نمی کنم که چنین رویکردی اغلب (هیچ وقت؟) استفاده شود. **به روز رسانی:** بخش 7.10.3 عناصر یادگیری آماری با عنوان آیا اعتبارسنجی متقاطع واقعا کار می کند؟ دقیقاً همان سؤال را می پرسد و ادعا می کند که چنین وضعیتی هرگز نمی تواند ایجاد شود (دقت اعتبارسنجی متقاطع 50٪ خواهد بود، نه 100٪). تا اینجا من متقاعد نشده ام، خودم چند شبیه سازی را اجرا خواهم کرد. [به روز رسانی: حق با آنهاست. زیر را ببینید.] | آیا زمانی که حجم نمونه کوچک است، اعتبارسنجی متقاطع همچنان معتبر است؟ |
77037 | متاسفم که به دلیل قراردادهای محرمانه نمی توانم بیش از حد صریح باشم. من سعی خواهم کرد مشکل خود را با قیاس بیان کنم. فرض کنید دو گروه از افراد دارید، یکی با شرایط و دیگری عادی. شما تقریباً 80 اندازه دور اعضای مختلف بدن را روی هر فرد انجام می دهید. واضح است که همه این اندازهگیریها همبستگی خواهند داشت، برخی از آنها بیشتر از سایرین (اندازهگیریهایی که نزدیک به یکدیگر هستند تمایل بیشتری نسبت به سایرین دارند). شما یک فرضیه پیشینی دارید مبنی بر اینکه بیشترین تفاوتها بین گروهها در مکانهای خاصی رخ میدهد (مثلاً «بیماران مبتلا به این بیماری بازوهای بزرگتری نسبت به بیماران بدون آن خواهند داشت». به عنوان اولین قدم، ما به آزمونهای t که اندازهگیریها را بین گروهها مقایسه میکردند، نگاه کردیم. تفاوتهای بسیار معنیداری وجود داشت و بیشترین تفاوتها در منطقه فرضی بود. ایده من این بود که از نوعی آزمون جایگشت استفاده کنم تا در حین محاسبه همبستگی ها، چندین آزمایش را محاسبه کنم. این نه تنها برای آزمایش فرضیه خاص است، بلکه برای تصحیح آزمایشهای چندگانه روی تمام 80 اندازهگیری (به جای استفاده از بونفرونی) است. با این حال، من به کمک نیاز دارم: 1) آیا این منطقی است؟ 2) در صورت منطقی، راهنمایی در مورد نحوه انجام آن در «R» یا «SAS» وجود دارد؟ (هر گونه اشاره یا مرجع استقبال می شود) افزودن یک مرجع یکی از مقالاتی که چیزی شبیه به آنچه من می خواهم انجام می دهد نیکولز و هولمز است، اما آن برای داده های FMRI است که تا حدودی متفاوت است. و برنامه ای در متلب می دهند که من آن را ندارم و نمی دانم. همچنین، آنها دقیقاً مشکلی را که من دارم در نظر نمی گیرند. | تست جایگشت مجدد سوال برای یک مجموعه داده نسبتاً پیچیده |
77035 | من یک مجموعه داده با مجموعه ویژگی های ترکیبی دارم که هم از ویژگی های عددی و هم از ویژگی های متنی تشکیل شده است. تعداد ویژگیهای عددی در مقایسه با تعداد ویژگیهای متنی، یعنی 2000، بسیار کم است، یعنی 6 عدد. (مجموعه دادهها یک فایل csv است، که در آن 6 ستون فقط از مقادیر رقمی وجود دارد؛ ستونهای دیگر فقط ساده هستند. متون). ما دریافتیم که حذف این ویژگی های عددی (ستون ها) در واقع عملکرد را بهبود می بخشد. با این حال، وقتی انتخاب ویژگی را بر اساس افزایش اطلاعات انجام میدهیم، به نظر میرسد که این ویژگیهای عددی وزن بیشتری پیدا میکنند. چگونه این سناریو را توضیح دهیم؟ | چگونه تفاوت اهمیت انتخاب ویژگی و کیفیت مدل را توضیح دهیم؟ |
86239 | من یک احتمال بقای روزانه محاسبه شده و SE مرتبط دارم. از این طریق می توانم انحراف معیار را بدست بیاورم. من باید بقای تجمعی را در یک دوره خاص گزارش کنم. بنابراین برای مثال، برای یک دوره 38 روزه، که در آن نرخ بقای روزانه (DSR) = 0.97، و SD = 0.16، احتمال بقا در طول دوره به سادگی 0.97^38 = 0.314 است. آیا راهی برای محاسبه SD تجمعی نیز وجود دارد؟ آیا انجام این کار مناسب است؟ همچنین توجه داشته باشید که در این مثال DSR ثابت است، اما DSR و SD میتوانند در برخی شرایط در طول دوره متفاوت باشند. این ممکن است کاملاً مستقیم باشد، اما به نظر نمیرسد که پاسخ قابل قبولی پیدا کنم. با تشکر برای هر گونه کمک. | محاسبه انحراف استاندارد تجمعی |
108567 | درک کلی من این است که AIC با مبادله بین خوب بودن تناسب مدل و پیچیدگی مدل سر و کار دارد. $AIC =2k -2ln(L)$k$ = تعداد پارامترها در مدل $L$ = احتمال معیار اطلاعات بیزی BIC ارتباط نزدیکی با AIC دارد. AIC تعداد پارامترها را با شدت کمتری نسبت به BIC جریمه می کند. من می بینم که این دو در همه جا از نظر تاریخی استفاده می شوند. اما اعتبار سنجی متقابل تعمیم یافته (GCV) برای من جدید است. چگونه GCV می تواند با BIC یا AIC ارتباط داشته باشد؟ چگونه این معیارها، با هم یا مجزا در انتخاب عبارت جریمه در رگرسیون پانلی مانند برجستگی استفاده می شوند؟ **ویرایش:** مثالی برای تفکر و بحث در اینجا آمده است: نیازمندی(lasso2) data(Prostate) need(rms) ridgefits = ols(lpsa~lcavol+lweight+ سن+lbph+svi+lcp+gleason+pgg45، روش =qr, data=Prostate,se.fit = TRUE, x=TRUE, y=TRUE) p <- pentrace(ridgefits, seq(0,1,by=.01)) effect.df(ridgefits,p) out <- p$results.all par(mfrow=c(3,2)) plot(out$df, out$aic, col = آبی، نوع = l، ylab = AIC، xlab = df ) plot(out$df، out$bic، col = green4، type = l، ylab = BIC، xlab = df ) plot(out$penalty، out$df، type = l، col = red، xlab = express(paste(lambda))، ylab = df ) plot( out$penalty، out$aic، col = آبی، type = l، ylab = AIC، xlab = عبارت(paste(lambda)) ) plot(out$penalty، out$bic، col = green4، type = l، ylab = BIC، xlab= عبارت(paste(lambda)) need(glmnet) y <- matrix(Prostate$lpsa, ncol = 1) x < - as.matrix (Prostate[,- length(Prostate)]) cv <- cv.glmnet(x,y,alpha=1,nfolds=10) plot(cv$lambda, cv$cvm, col = red, type = l, ylab = CVM, xlab= express(paste( لامبدا))  | AIC، BIC و GCV: بهترین روش برای تصمیم گیری در روش های رگرسیون جریمه شده چیست؟ |
4284 | من به دنبال توضیح شهودی مبادله بایاس واریانس، هم به طور کلی و هم به طور خاص در زمینه رگرسیون خطی هستم. | توضیح شهودی مبادله تعصب-واریانس؟ |
45588 | فرض کنید که یک متغیر تصادفی دارای کران پایین و بالا [0,1] باشد. چگونه می توان واریانس چنین متغیری را محاسبه کرد؟ | واریانس یک متغیر تصادفی محدود |
108564 | بنابراین من نتیجه ای از یک آزمایش بیولوژیکی دارم که در آن تعداد سلول های مرده را بر اساس یک جهش شمارش کرده ام. به عنوان مثال، در یک مورد - از 120 سلول، 16٪ از سلول های مرده را دیدیم، اما انتظارات ما حدود 10٪ بود. بنابراین برای بررسی تفاوت قابل توجه است، من آزمون Z برای تغییرات در نسبت را انجام داده ام. اما سوال من این است که آیا انجام تست مربع ch در یک آزمایش منفرد مانند موارد بالا امکان پذیر است؟ من خیلی در گوگل جستجو کرده ام، اما تمام نمونه هایی که می بینم از یک جدول احتمالی استفاده می کنند یا چندین متغیر را شامل می شوند. | تست مربع کای یا تست Z؟ |
4759 | فقط برای کنجکاوی... اینجا بیشتر از چه زبانی استفاده می شود؟ R؟ متلب؟ پایتون؟ جاوا؟ برای نمونه اولیه یا برای تولید چیست؟ به عنوان مثال من فکر می کنم متلب بیشتر برای نمونه سازی استفاده می شود، پایتون برای هر دو پروت. و تولید ... | چه زبان برنامه نویسی برای استنتاج آماری؟ |
43450 | من از Bayes ساده لوح یا درخت تصمیم استفاده خواهم کرد که هر دو مدل قانون را ارائه می دهد. برای نرمال سازی داده ها قبل از کار با چنین الگوریتم هایی ضروری است. | آیا قبل از الگوریتم های استخراج مدل قانون مانند ID3 به نرمال سازی داده ها نیاز است؟ |
103960 | CrossPost: https://stackoverflow.com/questions/24301472/how-sensitive-are-ff-neural-networks من از هرس آگاه هستم و مطمئن نیستم که آیا نورون واقعی را حذف می کند یا وزن آن را صفر می کند، اما من می دانم با پرسیدن این سوال به گونه ای که گویی از فرآیند هرس استفاده نمی شود. در شبکههای عصبی پیشخور با اندازههای مختلف بر روی مجموعههای داده بزرگ با نویز زیاد: 1. آیا ممکن است یک (یا مقداری ناچیز) اضافی یا از دست رفته نورونهای پنهان یا لایههای پنهان باعث ایجاد یا شکستن یک شبکه شود؟ یا اگر لازم نباشد وزن سیناپس آن به سادگی به صفر می رسد و اگر یک یا دو نورون از بین رفته باشد با سایر نورون ها جبران می شود؟ 2. هنگام آزمایش، آیا نورون های ورودی باید یکی یکی اضافه شوند یا در گروه های X؟ X چیست؟ افزایش 5؟ 3. در نهایت، آیا هر لایه پنهان باید دارای تعداد یکسانی نورون باشد؟ این همان چیزی است که من در مثال می بینم. اگر نه، چگونه و چرا اگر بر استفاده از آزمایش خالص تکیه نمی کنید، اندازه آنها را تنظیم می کنید؟ ترجیح میدهم زیادهروی کنم و بیشتر برای همگرایی منتظر بمانم تا اینکه شبکههای بزرگتر خودشان را با راهحل وفق دهند. من پیکربندی های متعددی را امتحان کرده ام، اما هنوز اندازه گیری یک بهینه دشوار است. | شبکه های عصبی چقدر حساس هستند؟ |
56906 | من با ارزیابی یک الگوریتم برنامه ریزی ژنتیک روبرو هستم. من از مجموعه داده Proben1 سرطان1 برای ارزیابی مدل های ایجاد شده توسط این الگوریتم استفاده می کنم. این مجموعه داده شامل 699 نمونه است که در حال حاضر به 50 درصد آموزش، 25 درصد اعتبار سنجی و 25 درصد داده های آزمون تقسیم شده است. بسیاری از مقالات دانشگاهی از اعتبار سنجی k-fold برای ارزیابی مدل های به دست آمده استفاده می کنند. من ایجاد مدل های k را برای کاهش واریانس در درصد رتبه بندی خطا درک می کنم. با این حال، نمیدانم که چرا انجام x برابر روش نگهداشتن (k=2) ترجیح داده نمیشود، جایی که هر بار دادهها بهطور تصادفی به دادههای آموزشی و آزمایشی تقسیم میشوند. دلیل عدم درک من این است که فکر میکنم مدلهایی که با مرتبه k بالاتر ارزیابی میشوند، به دلیل این واقعیت ساده که با درصد بالاتری از دادهها آموزش داده میشوند، کمتر تعمیم مییابند. با توجه به مجموعه داده های من از 699 نمونه، کدام یک از دو روش زیر ارجحیت دارد و چرا. * تقسیم در آموزش / اعتبار سنجی / آزمون و شاید این x بار تکرار شده به طور تصادفی به هر مجموعه با یک مجموعه آزمایشی 25٪ * اعتبار متقاطع 10 برابری اختصاص داده شود، اما در نتیجه با یک مجموعه آزمایشی فقط 10٪. | اعتبار سنجی متقاطع k برابر در مقابل اعتبار سنجی نگهدارنده k برابر |
4288 | هنگام تلاش برای تخمین تعداد واحدهای نمونه گیری با یک ویژگی، آیا روش جبری خوبی برای تجمیع امتیازهای تمایل برای آن ویژگی وجود دارد که هر کدام خطای خاص خود را دارند؟ به عنوان مثال، زمانی که امتیازات تمایل ممکن است با مقادیر متفاوتی از اطلاعات از هر واحد نمونه گیری محاسبه شود و هر یک خطای استاندارد خود را در آن تمایل دارد. یا می توان آنها را مقادیر مورد انتظار توزیع بتا دانست. در مورد دوم، می دانم که می توانم نتایج بتا-برنولی را از هر واحد نمونه برداری شبیه سازی کنم و نتایج را چندین بار جمع کنم. اما آیا برآوردگر ثابتی از نتیجه این فرآیند دشوار مقیاس وجود دارد؟ به طور خلاصه، مردم چگونه نمرات گرایش با قابلیت اطمینان های مختلف را جمع می کنند؟ ویرایش: گمان میکنم آن را ضعیف بیان کردهام. داده هایی که من دارم همگی یا باینری یا مقوله ای هستند و هر مشاهده با احتمال مشاهده صحیح همراه است. بنابراین فرض کنید من 5 نفر دارم. که 3 تای آنها برای یک صفت مقدار 1 داشتند، 2 تای آنها برای آن صفت مقدار 0 داشتند که هر کدام به ترتیب احتمال درستی مشاهده شدن 0.8،.81،.82.،.83،.84 را داشتند. . مقدار مورد انتظار p (دارای آن ویژگی) چقدر است؟ | تجمیع امتیازهای گرایش با قابلیت اطمینان متفاوت |
17635 | من از یک مدل رگرسیون لجستیک (glme4) برای تعیین اینکه آیا دو نوع مختلف کلمه (احساسی در مقابل غیر عاطفی) با دقت بیشتری تشخیص داده می شوند (دقیق = 0، خطا = 1) زمانی که در یک رنگ خاص (سبز، قرمز، آبی) نشان داده می شوند استفاده کردم. مدل لجستیک تفاوت معنی داری را بین قرمز و آبی با ضریب 0.064 نشان می دهد. این تفاوت تحت تأثیر نوع کلمه (ضریب 0.0042 = برای تعامل آماری مربوطه) قرار نگرفت. سوال من این است که آیا تابع expit <- function(x) { 1/(1+exp(-x)) } برای تعیین اندازه اثر (تغییر احتمال) برای هر یک از دو ضریب کافی است؟ چگونه می توان ضرایب بحرانی 0.064 و 0.0042 را در مقادیر درصد (اندازه اثر) بیان کرد؟ از نظر عددی، میانگین میزان خطای قرمز و آبی به ترتیب 12 و 15 درصد است. من از تابع lme4 lmer(Correct ~ WordType * Color + (1| شرکت کنندگان)، data = df) با contrasts(df$WordType) <- contr.sdif(2)) و Contrasts(df$Color) < استفاده کردم. - contr.sdif(3))`. نتایج در زیر آورده شده است: تخمین اثر ثابت SE Z intercept -1.86 .144 -12.96 WdTpe2-1 .058.055 1.05 Color21.006.028.228 رنگ 32.064.017 .79.3.0501. -.14 WdType:Color32.0042.033.127 | آیا خروجی ها اندازه اثر را با رگرسیون لجستیک نشان می دهند؟ |
79141 | من می خواهم مشاهدات خود را که از بیش از 2 متغیر تشکیل شده است در یک نمودار پراکنده طرح کنم. چند وقت پیش یک بسته R دیدم که این کار را با کاهش ابعاد (احتمالاً با استفاده از PCA و سایر الگوریتمها) انجام میدهد و مشاهدات مشابه را نزدیک به هم ترسیم میکند. من در گوگل جستجو کردم که چگونه این کار را انجام دهم اما چیزی پیدا نکردم. | بردارهای ویژگی پروژه را در صفحه دو بعدی برای تجسم |
86437 | من در حال انجام پایان نامه خود در حسابداری هستم و یک پرسشنامه برای آزمایش فرضیه های خاصی در مورد رابطه بین متغیرهای مستقل و یک متغیر وابسته تهیه کردم. همه در مقیاس لیکرت 5 درجه ای اندازه گیری شد. من از SPSS برای تجزیه و تحلیل داده ها استفاده می کنم. متغیرها همه غیر نرمال هستند (من از آزمون کولموگروف- اسمیرنوف استفاده کردم) و بنابراین از همبستگی اسپیرمن برای آزمایش روابط استفاده خواهم کرد. میخواستم بدونم این کافیه؟ آیا باید از نوعی رگرسیون نیز استفاده کنم؟ و اگر انجام دهم، آیا باز هم نتایج اسپیرمن را درج می کنم؟ آیا مطالعات معمولاً شامل هر دو می شود؟ من هیچ آماری را مطالعه نکرده ام، بنابراین این برای من کاملاً جدید است. | گزارش رابطه بین متغیرها: همبستگی یا رگرسیون؟ |
96639 | من قدردانی می کنم اگر کسی بتواند به من کمک کند معادله ریاضی را برای آریما فصلی (0،0،5) x (1،0،1) دوره 12 بنویسم. | چگونه می توانم معادله ریاضی ARIMA(0,0,5)(1,0,1) دوره 12 را بنویسم؟ |
19779 | $Y_{ij} = \mu + u_i + e_{ij}$ را در نظر بگیرید که در آن $\mu$ یک ثابت است و $u_i ∼ N(0,\sigma_u^2 )$ موضوع اثر تصادفی $i$ است که مستقل است. از عبارت خطای $e_{ij} ~ N(0,σ_e^2)$. نمیتوانم بفهمم چرا $${\rm cov}(Y_{ij}, Y_{ik}) = \sigma_u^2$$ لطفاً کسی میتواند توضیح دهد؟ | چرا ${\rm cov}(Y_{ij}, Y_{ik}) = \sigma_u^2$ در مدل $Y_{ij} = \mu + u_i + e_{ij}$ است؟ |
19470 | من سعی می کنم یک مدل داده پانل اقتصاد سنجی (اثرات تصادفی) با حدود 950 مشاهدات (بنابراین یک مجموعه داده کوچک) را اجرا کنم. داده های من شامل شرکت های دولتی مختلف اروپایی و تعداد کمی از آمارهای مالی آنها در 10 سال گذشته است. با این حال، من در جنبه زیر با مشکلات زیادی روبرو هستم: طبق آزمون Jarque-Bera (p مقدار 0) من فرض نرمال بودن را نقض می کنم. در حالی که چولگی من به اندازه کافی کوچک به نظر می رسد (زیر 3)، اما کشیدگی دارای ارزش 14 است. به عنوان یکی از گزینههایی که خواندم میتوانید لگاریتم را انتخاب کنید، اما یکی از متغیرهای من (ارزش افزوده بازار) اغلب منفی است و واضح است که Eviews به من اجازه نمیدهد آن گزینه را انتخاب کنم. آیا راه حل دیگری برای این مشکل وجود دارد یا کسی می تواند به یک تازه کار اقتصاد سنجی راهنمایی کند؟ پیشاپیش از شما متشکرم. | نقض فرض نرمال بودن |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.