_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
25485
بنابراین اگر این محل مناسب برای این سوال نیست، پیش از موعد عذرخواهی می کنم. من چند روزی است که با یکی از دوستانم بحث می کنم که بهترین راه برای اجرای یک براکت برای مسابقاتی که برای یک بازی ویدیویی برگزار می کنم چیست. اصلاً نیازی به دانستن چیزی در مورد بازی ویدیویی نیست، صرفاً یک گزینه برای بازی وجود ندارد. شخصیت‌ها و مراحل متعددی وجود دارد که بر خلاف بازی‌هایی مانند شطرنج، که در آن تنها یک چیز در بازی وجود دارد، اینکه چه کسی اول می‌رود و ذهن شما، واریانس را افزایش می‌دهند. آیا راهی برای نسبت دادن یک عدد برای اندازه گیری دقت به هر شکل، شکل یا شکلی به روش های زیر برای اجرای یک تورنمنت وجود دارد؟ ورود به سیستم (پایه 2) از # شرکت کنندگان مقدار راندهای سوئیسی را که برای اجرا نیاز دارید به شما می دهد. با گرفتن این # دور، من چند گزینه مختلف دارم. 1. Swiss->Double Elimination Bracket: من از Swiss استفاده می کنم و 8 مورد برتر را از آن نتایج می گیرم و آنها را در یک براکت حذفی دوگانه قرار می دهم. 2. Swiss->Single Elimination Bracket: من از Swiss استفاده می کنم و همین کار را انجام می دهم، اما به جای آن، آنها را در Single Elim قرار می دهم. 3. فقط یک براکت حذفی دوگانه. در ذهن من، تفاوت در دقت بین شماره 1 و شماره 2 چندان متفاوت نیست، و من احساس می کنم شماره 3 بدتر از 3 است. دوستم به من می گوید که من با انجام شماره 1 به طرز وحشتناکی دقت را قربانی می کنم، زمانی که من فکر می کنم مقدار قربانی شده ناچیز است. چگونه می توانم این چیزها را از نظر ریاضی محاسبه کنم؟
نظریه براکت و احتمال
79905
من یک سوال در مورد فرآیند Cross-validation دارم. من در وسط دوره یادگیری ماشینی در Cursera هستم. یکی از موضوعات در مورد اعتبار متقاطع است. دنبال کردن آن کمی دشوار بود. من می‌دانم چرا به CV نیاز داریم، زیرا می‌خواهیم مدل‌های ما روی داده‌های آینده (ناشناخته) به خوبی کار کنند و CV از برازش بیش از حد جلوگیری می‌کند. با این حال، این فرآیند به خودی خود گیج کننده است. آنچه من فهمیده ام این است که داده ها را به 3 زیر مجموعه تقسیم می کنم: آموزش، اعتبار سنجی و تست. Train and Validation برای یافتن پیچیدگی بهینه یک مدل است. چیزی که من نمی فهمم زیر مجموعه سوم است. می‌دانم که تعدادی از ویژگی‌ها را برای مدل در نظر می‌گیرم، آن را آموزش می‌دهم و در زیرمجموعه اعتبارسنجی اعتبارسنجی می‌کنم و وقتی ساختار را تغییر می‌دهم به دنبال تابع هزینه حداقل می‌گردم. وقتی آن را پیدا کردم، مدل را در زیر مجموعه تست آزمایش می کنم. اگر من قبلاً حداقل تابع هزینه را در زیرمجموعه اعتبارسنجی پیدا کرده ام، چرا باید دوباره آن را در زیر مجموعه تست آزمایش کنم؟ کسی میتونه لطفا این موضوع رو برای من روشن کنه؟ متشکرم
اعتبار سنجی متقابل شامل آموزش، اعتبار سنجی و آزمایش. چرا به سه زیر مجموعه نیاز داریم؟
111514
من سعی کرده ام EM را درک کنم و درک اینکه متغیر پنهان چیست، برایم مشکل است. به طور خاص، من در تشخیص اینکه آیا در یک مدل خاص که از آن استفاده می‌کنم، یک متغیر خاص یک متغیر پنهان است یا خیر، مشکل دارم. بنابراین، اساساً من دو تصویر $x$ و $y$ را مشاهده می‌کنم و سعی می‌کنم یک تبدیل $t$ بین آنها را تخمین بزنم که توسط مجموعه‌ای از پارامترهای $w$ پارامترگذاری می‌شود. بنابراین، مدل این است: $$ y = t(x, w) + e $$ بنابراین، $y$ یک نسخه تبدیل شده از $x$ با توجه به برخی پارامترهای تبدیل $w$ است. از نظر گرافیکی می توانم آن را به صورت زیر نمایش دهم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HlGZb.png) لطفاً توزیع های قبلی در $w$ و $\phi$ و همه پارامترهای hyper را نادیده بگیرید. بنابراین، درک من این است که $x$ و $y$ دو متغیر تصادفی هستند، اما همانطور که ما در واقع نمونه‌های خاصی از آنها را مشاهده و اندازه‌گیری می‌کنیم، پنهان نیستند (از این رو در نمودار PGM سایه‌دار می‌شوند). با این حال، پارامترهای تبدیل $w$ را می توان به عنوان یک متغیر تصادفی در نظر گرفت و از آنجایی که ما آن را مشاهده نمی کنیم، بلکه می خواهیم آن را استنتاج کنیم، آنها متغیرهای پنهان در مدل من هستند. آیا درک/استدلال من درست است؟ قدردان هر گونه نظر در این مورد.
شناسایی متغیرهای پنهان در این مدل
32211
من یک دیتافریم با 8 ستون (متغیرهای X1 تا X8) دارم. هر ستون یک پارامتر مدل متفاوت را نشان می دهد. هر ردیف از دیتافریم یک سناریوی مدل سازی را نشان می دهد. تمام سناریوهای مدل‌سازی منجر به خروجی دلخواه می‌شوند (یعنی Y1). به عبارت دیگر، پارامترهای مدل مختلف می تواند منجر به Y1 شود. می‌پرسیدم - آیا راه‌هایی در R وجود دارد که بتوان ساختار داده‌های فریم من را به‌صورت گرافیکی نشان داد؟ در حالت ایده‌آل، من می‌خواهم روشی را برای تعیین کمیت انجام دهم: اگر مقدار متغیر X1 1000 باشد، مقادیر احتمالی متغیرهای X2 تا X8 چقدر است؟ به این فکر می کردم که شاید نوعی نمودار درختی ممکن است مفید باشد. امیدوارم منطقی باشم
چگونه به صورت گرافیکی ساختارهای داده را آشکار کنیم؟
52840
در رگرسیون لجستیک من متغیر وابسته یک متغیر ساختگی است و من نیز دو متغیر مستقل دارم. یکی از آنها یک متغیر ساختگی و دیگری یک متغیر متریک است. من همچنین یک تعامل بین آن دو متغیر را فرض می کنم. من سه رگرسیون را محاسبه می کنم زیرا می خواهم تأثیر متغیرهای مستقل بر متغیر وابسته را در دوره 1، دوره 2 و در هر دو دوره با هم بررسی کنم. وقتی رگرسیون ها را برای دوره 2 و برای هر دو دوره با هم محاسبه می کنم، مشکلی وجود ندارد. اما هنگامی که من رگرسیون را برای دوره 1 محاسبه می کنم، SPSS یک هشدار ایجاد کرد که به دلیل افزونگی، درجه آزادی حداقل برای یک متغیر کاهش یافته است. من در واقع نمی دانم معنی آن چیست، اما متوجه شدم که وقتی متغیر ساختگی مستقل را از مدل خود برای دوره 1 حذف می کنم، عبارت تعامل در مدل گنجانده می شود. بنابراین هر دو متغیر به نوعی یکسان هستند. سوال من این است که چگونه باید در کارم با این موضوع برخورد کنم. آیا فقط باید بگویم که برای دوره اول عبارت تعامل و متغیر ساختگی یکسان هستند؟ یا پیامدهای دیگری برای تفسیر مدل من وجود دارد؟ امیدوارم این سوال من را کمی واضح تر کند. بازم ممنون
در مدل رگرسیون لجستیک من یکی از متغیرهای مستقل با عبارت تعامل اضافی است. چگونه باید با آن برخورد کنم؟
79904
ما فهرستی از شاخص ها داریم، مثلاً نرخ مواد منتخب فروخته شده، با 30 واحد در طول زمان. در چند سال گذشته نرخ برخی از شاخص‌ها تغییر کرده است، اما سوالی که می‌خواهیم بپرسیم این است که آیا این تغییرات در نتیجه تغییرات در مشخصات مشتریان رخ داده است؟ در یک مجموعه داده جداگانه، ما مشخصات واحدها را داریم، مثلاً گروه های سنی، جنسیت، سطوح تحصیلی و غیره. اینها درصد هستند، به طوری که ما در واحد 1 20٪ در گروه سنی 20-24، 80٪ مرد، 6٪ داشتند. به سطح تحصیلات 6 و غیره رسیده اند و به گونه ای دسته بندی می شوند که مجموع رده های سنی هر واحد برای هر سال تا 100% می رسد. شاخص‌ها با توزیع‌های log-normal مطابقت دارند و متغیرهای نمایه عموماً نرمال هستند. ما فکر کردیم glm در R با گاوسی (link=”log”) مناسب باشد. ما از مخرج به عنوان جبران استفاده نکردیم. ما چند شکاف در مجموعه داده‌های شاخص‌های خود داریم، اما فکر نمی‌کردیم در این مورد، انتساب لازم باشد. تنها متغیر واقعی عاملی که داریم سال است. ما یک متغیر را از هر گروه از متغیرها حذف کردیم تا از هم خطی جلوگیری کنیم (به عنوان مثال جنسیت مرد، گروه سنی 70+، سطح EDU دیگر حذف می شود). سپس هر گروه از متغیرها را بر اساس AIC و chitest P-value وارد glm خود کردیم. سال برای برخی از شاخص‌های ما قابل توجه بود، به این معنی که می‌توانیم بگوییم که X در سال 2012 نسبت به نرخ پایه در سال 2009 30٪ افزایش یافته است و تغییرات در پروفایل مشتریان را در نظر گرفته است. این واقعاً مفید است و دقیقاً همان چیزی است که ما نیاز داریم. با این حال، این یک رویکرد جدید برای ما است و ما علاقه مند خواهیم بود که نظرات شما را به طور کلی بشنویم، اما یک سوال خاص این است که ضرایب (exp of) مقاطع تحصیلی مثلاً وقتی همه آنها بالای 5 هستند، چه تفسیری دارند؟ سطح آموزشی <5 : 5.35; 5 : 5.60; 6 : 5.53; > 6 : 5.97; جنسیت F : 0.97; سال 2010 : 1.18; 2012: 1.22 هر ورودی بسیار مورد استقبال قرار گرفت.
تفسیر رگرسیون با متغیرهای مستقل به صورت درصد
80943
من باید با استفاده از 3 الگوریتم خوشه بندی یک مجموعه داده را با خوشه بندی weka تجزیه و تحلیل کنم و باید مقایسه ای بین آنها در مورد عملکرد و مناسب بودن آنها ارائه کنم. مقایسه ممکن است شامل توضیحاتی در مورد چگونگی تنظیم مقادیر پارامترهای الگوریتم های خوشه بندی برای عملکرد بهتر آنها باشد. این سه الگوریتم SimpleKmeans، DBSCAN و HierarchicalClusterer هستند. بنابراین، سؤالات من این است: هنگام اندازه گیری عملکرد و تناسب باید به چه نوع متغیرهایی توجه کنم؟ موردی که من تاکنون موفق به پیدا کردن آن شده ام، مجموع خطاهای مربعی درون خوشه ای است. و همچنین، برای عملکرد بهتر الگوریتم ها، کدام مقادیر پارامتر را باید تنظیم کنم؟
خوشه بندی با Weka
3713
هنگام استفاده از تجزیه و تحلیل خوشه ای بر روی یک مجموعه داده برای گروه بندی موارد مشابه، باید از بین تعداد زیادی روش خوشه بندی و اندازه گیری فاصله انتخاب شود. گاهی اوقات، یک انتخاب ممکن است بر دیگری تأثیر بگذارد، اما ترکیبات احتمالی زیادی از روش ها وجود دارد. آیا کسی توصیه ای در مورد نحوه انتخاب از بین الگوریتم های مختلف خوشه بندی و اندازه گیری فاصله دارد؟ این چگونه با ماهیت متغیرها (به عنوان مثال، مقوله ای یا عددی) و مشکل خوشه بندی مرتبط است؟ آیا تکنیک بهینه وجود دارد؟
انتخاب روش خوشه بندی
79902
من در مورد مدل‌های گرافیکی مطالعه می‌کنم و به یک مثال ساده رسیدم، اما مطمئن نیستم که کدام نوع تکنیک (HMM، DGM، MRF) می‌تواند به من در آن کمک کند. تصور کنید ما سه توپ داریم که می توانند در امتداد این فضای یک بعدی حرکت کنند. من فقط می توانم مختصات آنها را اندازه گیری کنم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HX0js.png) در طول زمان مشاهداتی را جمع آوری می کنم و متوجه می شوم **A همیشه با B* حرکت می کند. *، به عبارت دیگر، A با B همبستگی دارد: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WZwPr.png) آنچه می‌خواهم مدل‌های گرافیکی به من بگویند این است که $A ⫫ C$ (مستقل) اما A و B نیستند، وابستگی با آنها وجود دارد. علاوه بر این، با توجه به اینکه من فقط A را اندازه گیری کردم، آیا می توان B را تخمین زد؟ به طور خلاصه: * آیا می توان با توجه به مشاهدات آنها در طول زمان t مشخص کرد که کدام متغیرهای تصادفی وابسته هستند (و کدامیک نه)؟ (مثلاً مختصات) * با توجه به اینکه من مشکل قبلی را حل کردم و اکنون می دانم که کدام یک وابستگی دارند. همچنین با فرض اینکه در یک زمان خاص $t_k$ برخی از متغیرها مشاهده نمی شوند، چگونه می توانم مکان یک متغیر مشاهده نشده (مانند B) را با توجه به اینکه یک متغیر وابسته A را مشاهده کردم، تخمین بزنم؟ من برخی از مشاهدات احتمالی را برای این مثال ایجاد کردم. اگر کسی بتواند به من نشان دهد که چگونه آن را محاسبه می کنم، عالی خواهد بود: A,B,C 0,0,0 0,0,5 1,1,5 3,3,3 2,2,5 4,4, 0 2,2,0 بنابراین، وقتی می پرسم موقعیت B با توجه به اینکه A 6 است چیست؟ چگونه می توانم از مشاهدات قبلی برای رسیدن به یک راه حل استفاده کنم؟ متشکرم
مدل‌های گرافیکی همبستگی متغیرهای تصادفی و پیش‌بینی مشاهدات پنهان
3715
من می‌خواهم از قضیه بیز روی داده‌های به‌دست‌آمده از یک نمونه تصادفی کوچک استفاده کنم، و می‌خواهم از Agresti-Coull (یا هر تکنیک جایگزین دیگری) استفاده کنم تا بدانم عدم قطعیت چقدر بزرگ است. در اینجا قضیه بیز است: $P(A|B) = \frac{P(B|A)\cdot P(A)}{P(B)}$ اکنون، تمام داده‌هایی که من در این سیستم دارم از این سیستم به دست می‌آید. نمونه‌های تصادفی کوچک، بنابراین عدم قطعیت زیادی در هر سه متغیر، $P(B|A)$، $P(A)$ و $P(B)$ وجود دارد. من از Agresti-Coull برای به دست آوردن مقدار و عدم قطعیت برای هر یک از این سه متغیر استفاده کرده ام. (من عدد+-عدم قطعیت را به عنوان یک شی ufloat با استفاده از بسته عدم قطعیت نشان می‌دهم.) اما استفاده از Agresti-Coull سه بار جداگانه برای این سه متغیر یک مشکل است. آنها به یکدیگر وابسته هستند. بنابراین من به نتایج غیرممکن رسیده ام. برای مثال، اگر اجازه دهید عدم قطعیت $P(B)$ آن را به سمت پایین بکشد، و عدم قطعیت های مربوط به $P(B|A)$ و $P(A)$ آنها را به سمت بالا بکشد، احتمال کل بزرگتر از یکی آیا راهی برای انجام تقریب به سبک Agresti-Coull در کل عبارت Bayes به جای انجام آن روی سه قطعه جداگانه وجود دارد؟
قضیه بیز و آگرستی کول: آیا ترکیب خواهد شد؟
4901
غیر از آزمایش واقعی هر ترکیب ممکن از متغیر(های) در یک مدل (`x1:x2` یا x1*x2 ... xn-1 * xn`). چگونه تشخیص می دهید که آیا یک تعامل باید یا می تواند بین متغیرهای مستقل (امیدوارم) شما وجود داشته باشد؟ بهترین شیوه ها در تلاش برای شناسایی تعاملات چیست؟ آیا تکنیک گرافیکی وجود دارد که بتوانید یا از آن استفاده کنید؟
بهترین شیوه ها در شناسایی اثرات متقابل چیست؟
26598
من می‌خواهم از توزیعی نمونه برداری کنم که دارای مقادیر معین میانگین (=0)، انحراف استاندارد (=1)، چولگی (=0) و کشیدگی است. من همچنین می‌خواهم این توزیع تا حد امکان عمومی باشد، یعنی واگرایی Kullback-Leibler از توزیع یکنواخت تا حد امکان کوچک باشد (این شرط معادل اصل حداکثر آنتروپی است)، درست مانند توزیع نرمال برای کشیدگی=3. من می دانم که به احتمال زیاد امیدی به شکل بسته برای چنین توزیعی در حالت کلی وجود ندارد. من فقط علاقه مند به نمونه برداری از آن هستم. من تقریب های عددی معقول را قبول دارم. من زیاد نگران کارایی نیستم - می توانم حدود 2 روز صبر کنم تا فقط 2000 نمونه داشته باشم. سال‌ها من نوعی الگوریتم ژنتیک را برای رفع این مشکل نوشتم: 1. با نمونه تصادفی 2000 مقدار نمونه‌برداری شده از توزیع یکنواخت شروع کنید که بعداً جمعیت نامیده می‌شود. 2. با حذف نمونه فرعی تصادفی - مثلاً - 200 نمونه از جامعه، و سپس درج مجدد همان تعداد از اعداد تصادفی نمونه برداری شده از توزیع یکنواخت، تعداد زیادی (حدود 100) گونه از جامعه ایجاد کنید. 3. متغیری را پیدا کنید که دارای میانگین، sd، چولگی و کشیدگی تا حد ممکن به پارامترهای هدف باشد (انتخاب متریک نباید برای این الگوریتم حیاتی باشد، زیرا همه شرایط از یکدیگر مستقل هستند). 4. در مرحله 2 ادامه دهید و جمعیت بهترین نوع انتخاب شده از مرحله 3 است. الگوریتم کند است، اما در پایان آنچه را که من می فهمم تقریب خوبی از حداکثر توزیع آنتروپی به دست می دهد. آیا این الگوریتم صحیح است؟ یا آیا روش بهتری برای بدست آوردن توزیع عمومی لپتوکورتیک وجود دارد؟
نمونه‌بردار حداکثر آنتروپی
115005
من یک مجموعه داده دو هفته ای دارم که دارای چرخه های درون روزی و درون هفته ای است، بنابراین تصمیم گرفتم از dshw در r استفاده کنم. اگرچه MAE و RMSE بسیار خوبی به من داد، اما وقتی می‌خواستم SSE را ببینم، یک مقدار تهی به من نشان داد. آیا به این معنی است که من از مدل اشتباهی برای مجموعه داده خود استفاده می کنم؟ من فقط از دستور auto.arima برای دیدن بهترین مدل برازش استفاده کردم اما مدل توصیه شده هیچ مقدار فصلی را ارائه نمی دهد در حالی که نمودار سری زمانی به وضوح فصلی بودن را در ساعت های روز نشان می دهد و روزهای هفته از این رو به dshw تغییر مکان دادم. از سوی دیگر، چه پیشنهادی برای یافتن پیش‌بینی برای چرخه‌های بعدی وجود دارد؟ من دستور پیش بینی را امتحان کردم اما کار نکرد. با تشکر
روش زمستانی دوبار هولت فصلی با استفاده از dshw
25483
من چندین متغیر وابسته دارم که در توزیع غیر نرمال هستند: آزمون کولموگروف-اسمیرنوف قابل توجه است، محدوده چولگی برای برخی از متغیرها تا 8 است، و کشش عموماً حدود 2 است اما در چند مورد به 12 افزایش می یابد! این یک مدل ANOVA با اندازه گیری های مکرر (RM) برای متغیرهای معمولی توزیع شده است. چند سوال: 1. RM ANOVA چقدر در برابر نقض نرمال قوی است، وقتی تعداد مشاهدات مساوی در هر گروه وجود دارد؟ 2. اگر از آزمون‌های ناپارامتریک استفاده کنم، آیا باید آزمایش‌های متعددی را که خطای نوع 1 را تحت تأثیر قرار می‌دهند اصلاح کنم؟
ANOVA در برابر نقض نرمال چقدر قوی است؟
104512
## مشکل: مشتری Cu در حال خرید دو مورد است: (A,B). می‌خواهم بدانم بین اقلام C و D کدام مورد را به او توصیه کنم. ایده طبیعی من این است که سبد مشتریان قبلی را تجزیه و تحلیل کنم و ببینم آیا (A, B, C) بیشتر از (A, B) است یا خیر. , D) مثال : (A,B,C) : 4 مشتری (A,B,D) : 6 مشتری به نظر می رسد بهتر است D را به مشتریانی که در حال خرید (A,B) خرید هستند توصیه شود. کاربران کافی (A,B,C) یا (A,B,D) برای برون یابی ندارید. فکر می‌کنم باید رفتارهای مشتریانی را که (A,C), (A,D) و (B,C), (B,D) خرید می‌کنند نیز تحلیل کنم زیرا یک مورد مشترک با مشتری Cu وجود دارد. مثال: (A,C) : 60 مشتری (A,D) : 40 مشتری (B,C) : 90 مشتری (B,D) : 10 مشتری بر اساس این کاربران به نظر می رسد بهتر است C توصیه شود اما رابطه بین آنها و Cu ضعیف تر است (فقط یک مورد مشترک است) ## سوال: آیا روش استانداردی برای تجمیع قوانین مرتبط و دادن وزن بیشتر به قوی تر وجود دارد. ارتباط (با موارد رایج تر)؟
تجمیع قوانین انجمن
99867
زمینه: من مجموعه‌ای از داده‌ها را دارم که دووجهی هستند، بنابراین از بسته mixtools در R استفاده کردم تا توزیع نرمال دووجهی را در آن قرار دهم. به نظر می‌رسید که نرمال خیلی خوب مطابقت ندارد، و با توجه به مجموعه‌های مشابه دیگری از داده‌هایی که من دارم (که دووجهی نیستند) و به طور معمولی توزیع شده‌اند، متوجه شدم که log-normal احتمالاً منطقی‌تر خواهد بود. با این حال، mixtools راهی برای تطبیق توزیع log-normal bimodal ندارد، بنابراین گزارش داده‌ها را برداشتم و دوباره نصب کردم. این تصویر در زیر است و برای رضایت من مناسب است. در واقع، این یک نوع مشکل نرم افزاری است (ندانستن اینکه چه بسته ای می تواند صریحاً با یک log-normal دووجهی مطابقت داشته باشد) اما باعث شد به چیزی فکر کنم که اغلب به آن فکر می کردم: آیا تطبیق یک توزیع نرمال برای داده های ثبت شده معادل برازش یک log-normal است. توزیع به داده های اصلی؟ من شک دارم که نه، اما مطمئن نیستم چرا؟ (با نادیده گرفتن موارد داشتن داده های صفر یا منفی. با فرض اینکه همه داده ها مثبت نسبتا بزرگ هستند، اما منحرف هستند). همچنین دانستن این نکته که البته برای رسیدن به تخمین‌های ارزش اصلی، باید تبدیل را پشتیبان کنید. من سعی کردم این را با برخی از داده‌های اسباب‌بازی آزمایش کنم و متوجه شدم که حتی نمی‌دانم چرا میانگین لاگ مرتبط با توزیع log-normal آن چیزی نیست که وقتی میانگین توزیع نرمال ثبت‌شده را می‌گیرید، دریافت می‌کنید. بنابراین شاید درک من از قبل در مورد پارامترهای log-normal شکسته شده باشد. library(fitdistrplus) set.seed(1) test <- rnorm(1000, mean=100) test[test<=0] <- NA #غیرضروری چون مقادیر <= 0 وجود ندارد، اما فقط برای اثبات تست<-na.omit (تست) log.test <- log10(test) mean(log.test) sd(log.test) #1.999926 برای log.test #0.004496153 برای log.test fitdist (log.test, dist=lnorm, method=mle) sd است #با این حال، meanlog 0.693107737 و sdlog 0.002247176 است #میانگین ها بسیار متفاوت هستند، مطمئن نیستم چرا؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Y14OB.png)
تفاوت بین توزیع log-normal و متغیرهای ورود به سیستم، برازش نرمال
96943
طرح متداول در پژوهش، مطالعه ای است که از هر دو گروه درمان و کنترل استفاده می کند و هر گروه در پیش آزمون و پس آزمون اندازه گیری می شود. روش های زیادی برای تجزیه و تحلیل این داده ها برای تعیین تأثیر درمان وجود دارد. شما باید 4 روش مختلف را برای تعیین اینکه آیا درمان تأثیر داشته است توضیح دهید. توضیحی در مورد هر روش در مورد چگونگی بررسی اثر درمانی ارائه دهید. این شامل مزایا و معایب هر انتخاب است. من قبلاً 2 تجزیه و تحلیل را انتخاب کرده ام، آنها یک تحلیل ANCOVA و اندازه گیری های مکرر (یا آزمون تی وابسته) هستند، من فقط در یافتن دیگران با مشکل مواجه هستم. من به استفاده از رگرسیون لجستیک و آزمون تی مستقل فکر می کردم
کمک با یک سوال آماری (از چه تحلیلی استفاده کنیم؟)
3719
چگونه می توان همبستگی پیرسون و اسپیرمن بیش از دو داور را در متلب محاسبه کرد؟ با تشکر
آیا می توان همبستگی پیرسون و اسپیرمن بیش از دو داور را در متلب محاسبه کرد؟
104517
پس زمینه: خانه ای با چندین سنسور سیم کشی شده، ویژگی هایی مانند دما، نور، حرکت و غیره را اندازه گیری می کند. علاوه بر این، انبوهی از محرک ها می توانند عملی مانند باز کردن درب، روشن کردن چراغ و غیره را انجام دهند. بیان مشکل: اگر کاربر برای استفاده از این خانه مانند یک خانه معمولی، دوست دارم بتوانم الگوهای تکراری را در تعامل او با خانه اش پیدا کنم. منجر به اتوماسیون این فعالیت ها می شود. در چنین شرایطی که استقرار و استفاده از تجهیزات متفاوت است، اما فرض این است که افراد تمایل دارند کارهایی را که در خانه انجام می‌دهند کاملاً قابل اعتماد تکرار کنند. از چه نوع الگوریتم یادگیری در این سناریو استفاده می کنید؟ اساسا داده های ورودی مجموعه ای از جریان های سری زمانی هستند. برخی از آنها رویداد گسسته هستند مانند کلید روشن، اما برخی دیگر مقادیر عددی مانند دما هستند.
همبستگی بین سنسورها
89090
من سعی می کنم رابطه بین برخی از متغیرهای مستقل و یک متغیر وابسته را تحلیل کنم که در آن متغیرهای مستقل در مقیاس 1 (خیلی ضعیف) تا 10 (خیلی قوی) هستند که 5 ایده آل است و متغیر وابسته در مقیاس 1 تا 10 است. جایی که 10 ایده آل است. آیا می توانید پیشنهاد کنید که از چه تکنیکی برای تجزیه و تحلیل اینها استفاده کنیم؟
تحلیل رگرسیون با آیتم های لیکرت
57634
من می خواهم $S = \sum_{i=1}^n x_i$ را محاسبه کنم که در آن $w^t x_i>-1، \; \forall i$ و $x_i \tilde{} \mathcal{N}(\mu، \Sigma)$ برای $w$، $\mu$ و $\Sigma$ شناخته شده. من می دانم که $S$ را می توان با تکنیک های نمونه گیری تقریبی کرد، اما می خواستم بدانم که آیا S را می توان به صورت تحلیلی محاسبه کرد.
مجموع بردارهای ترسیم شده از نرمال چند متغیره را با یک محدودیت خطی محاسبه کنید
21900
لطفا توجه داشته باشید: من این را برای اولین بار در Mathoverflow پست کردم. شخصی در آنجا به من توصیه کرد که در stats.stackexchange ممکن است این سوال در اینجا بهتر جا بیفتد. این لینک پست اصلی است. من در حال حاضر باید برخی از داده های سنگین را جابجا کنم. از آنجایی که توزیع‌های برازش (مثبت، پیوسته) در یک روش یکپارچه‌سازی عددی که شامل تبدیل فوریه است استفاده می‌شود، من به توزیع‌هایی با تابع مشخصه تحلیلی محدود شده‌ام. برخی از اولین تجزیه و تحلیل ها (تپه پلات و غیره) نشان داد که دم ها می توانند با یک توزیع پایدار به خوبی برازش شوند. با این حال، نزدیک به صفر این مورد نیست. بنابراین من کمی با یک مخلوط (یا ترکیبی - اصطلاحی که به نظر می رسد در آمار به شدت اضافه بار شده است) توزیع پایدار و نمایی بازی کردم، به عنوان مثال: $$ f(x)=c_1\lambda\exp(-\lambda x) +c_2f_\text{stable}(x)\,, $$ که $c_1+c_2=1$. به نظر می رسد که این تناسب را به طور قابل توجهی بهبود می بخشد. این سوال باقی می ماند که چگونه توزیع مختلط را متناسب کنیم. با توجه به آنچه خوانده‌ام، منطقی به نظر می‌رسد که برآوردگرهای حداقل فاصله، مانند اندرسون-دارلینگ را برای دستیابی به حداکثر مطلوبیت در نظر بگیریم. من هیچ الگوریتم پیاده سازی شده ای برای روش حداقل فاصله پیدا نکردم. بنابراین می‌خواستم از برخی الگوریتم‌های بهینه‌سازی عددی استفاده کنم که محدودیت‌ها را (که به آن نیاز دارم) اجازه می‌دهد و خودم آن را پیاده‌سازی کنم. آیا این رویکرد منطقی است؟ توصیه هایی برای روش بهینه سازی؟ البته من ژاکوبین تحلیلی ندارم. آیا روش آزمایش شده و اجرا شده ای وجود دارد؟ آیا باید از روش دیگری استفاده کنم؟ MLE درگیر است زیرا هیچ تابع توزیع توزیع پایدار وجود ندارد ** توجه: ** تلاش محاسباتی مرتبط نیست. با این حال، از آنجایی که این فقط یک موضوع جزئی پایان نامه است، ترجیح می دهم زمان زیادی را روی آن صرف نکنم. تخمین پارامتر توزیع‌های دم سنگین یک زمینه وسیع است، همراه با کمبود تجربه، می‌تواند به یک فاجعه ختم شود. بنابراین خوشحال می شوم اگر کسی مرا در مسیر درست راهنمایی کند.
تخمین حداقل فاصله توزیع‌های مختلط/مخلوط
4908
بیایید تصور کنیم که ما چند آزمایش داریم. هر آزمایش ممکن است منجر به یکی از نتایج شود: A, B, C. بنابراین ما توزیع احتمالات را برای هر آزمایش $P_A, P_B, P_C$ داریم که وابسته به زمینه است. به عنوان مثال: 1. $Context_1 \Rightarrow \\{P_A^1، P_B^1، P_C^1\\}، $ نتیجه آزمایشی A 2 است. $Context_2 \Rightarrow \\{P_A^2، P_B^2، P_C^ 2\\}، $ نتیجه آزمایشی B 3 است. $Context_3 \Rightarrow \\{P_A^3, P_B^3, P_C^3\\}, $ نتیجه آزمایشی A 4 است. $Context_4 \Rightarrow \\{P_A^4, P_B^4, P_C^4\\}, $ نتیجه آزمایشی C است این احتمالات توسط برخی تابع $F:Context\rightarrow \\{P_A, P_B محاسبه می‌شود، P_C\\}$ من می‌خواهم نرخ اعتماد مطلق این تابع را تخمین بزنم. به عبارت دیگر، من می‌خواهم بتوانم بگویم ما می‌توانیم به این تابع در 86٪ اعتماد کنیم مانند زمانی که با آزمون کای‌دو پیرسون سروکار داریم. پیشنهادی دارید؟
آنالوگ Chi-square برای توزیع های وابسته به زمینه
79900
آیا راهی برای تنظیم اعتماد به نفس تست chi sq از 95% به 99% وجود دارد؟ تابع پایه chisq.test() از این تابع شکایت نمی کند... ویرایش: من برای p-values ​​درخواست نمی کنم. سوال من در مورد ریسک اطمینان است. ریسک آلفا (اطمینان) آزمون chisq به طور پیش فرض 0.05 است. من می خواهم آن را روی 0.01 تنظیم کنم (99٪ اطمینان). ریسک آلفا حد فاصل آماره X است. برای توزیع Chi معین با درجات آزادی 'x'، ریسک آلفا با یک آمار خطر X مطابقت دارد. اگر «آمار X از داده‌های ما» بیشتر از «آمار خطر X» باشد، H0 را رد می‌کنیم. ما می توانیم مقادیر p را محاسبه کنیم، که می تواند به عنوان احتمال درست بودن H1 ما تفسیر شود. من ریسک اطمینان را از 0.05 به 0.01 تغییر می دهم. اگر ریسک اطمینان را تغییر دهیم، مقادیر p تغییر می کند. برای مثال، مقدار p 0.001 برای اطمینان 95٪، می تواند 0.2 برای اطمینان 99٪ باشد.
تغییر ریسک اطمینان chisq
65252
این ممکن است یک سوال ساده باشد، اما فقط می‌خواهم مطمئن شوم که در مسیر درستی هستم: باید دو نمونه را با استفاده از آزمون t-test یک طرفه مقایسه کنم. حجم نمونه در دو گروه نابرابر است، اما باید خوب باشد. بخش مهم این است که داده ها در هر دو گروه مستقل نیستند. برای دقیق تر، من 4 بردار، v1، v2، v3 و v4 دارم و زوایای جفتی را محاسبه می کنم: v12، v13، v14، v23، v24، v34. سپس آنها را در دو گروه قرار دادم: گروه 1: v12، v34، گروه 2: v13، v14، v23، v24 سپس گروه 1 و 2 را با استفاده از آزمون t دو نمونه ای یک طرفه مقایسه می کنم. این فرض نمونه های مستقل آزمون t را نقض می کند، درست است؟ من در حال بررسی راه حلی برای استفاده از تست جایگشت در بسته R coin (one_way() هستم. آیا این روش صحیح است؟
جایگزینی برای آزمون t با نمونه های وابسته
104186
من می خواهم یک رگرسیون سانسور شده را با یک متغیر وابسته اجرا کنم که یک درصد است (تعدادی از مقادیر به دلیل روش اندازه گیری داده ها 0 هستند و بقیه بین 0 و 1). رگرسیون توبیت با چنین متغیرهایی کار نمی کند زیرا گزارش یک متغیر کوچکتر از یک منفی است، درست است؟ چه کار کنم؟
توبیت با نسبت به عنوان متغیر وابسته
4904
من به دنبال یک روش آماری برای تعیین اینکه آیا بازیکنی در یک بازی آنلاین تقلب می کند یا خیر، هستم. این بازی یک بازی شبیه به Quake3 (ego-shooter) است. با در نظر گرفتن تعدادی امتیاز مثبت و تعدادی امتیاز منفی برای هر بازیکن (امتیاز) و با توجه به n بازیکن (n<=64). امتیاز به این صورت جمع می شود (مثبت/منفی از دیدگاه ضد تقلب): مثبت = تعداد دفعاتی که بازیکن خودش مرده منفی = تعداد بازیکنان تیم مقابل کشته شده مقادیر اضافی موجود: t = مدت زمانی که این امتیاز به دست آمده است. c = تعداد بازیکنان فعلی m = تعداد دفعاتی که یک بازیکن یک نفر از همان تیم را کشته است (قاتل تیم، اگر بیشتر از 1 یا 2 در مدت 15 دقیقه باشد بسیار منفی است) هر بازیکن می تواند مستقل از هر یک تقلب کند. دیگر من از انحراف استاندارد (روی مقدار v = (منفی + 1) / (مثبت + 1) برای هر بازیکن استفاده کردم، بیش از 3 برابر انحراف استاندارد را با قطعیت مطلق (100٪) تقلب اختصاص دادم - اگرچه تجربه من بیش از حد بوده است. stddev به تنهایی در بیشتر موارد کافی است) که روی یک بازیکن عالی کار می کند اما به محض اینکه چندین بازیکن همزمان تقلب می کنند به طرز بدی شکست می خورد. همچنین تمرین تعریف 3 برابر stddev به عنوان 100٪ احتمالات بیش از 100٪ را امکان پذیر می کند. متأسفانه، درصد بازیکنانی که در یک بازی فیلتر نشده تقلب می‌کنند، تقریباً 70 تا 80 درصد یا حتی بیشتر است، البته اگر تقلب‌های ظریف‌تری در نظر گرفته شود. یکی دیگر از مواردی که باید در نظر گرفت این است که اگر گروهی از مردم تقلب می‌کنند، و گروهی که تقلب نمی‌کنند، توزیع دیگر یک توزیع عادی نیست، بلکه توزیعی شبیه به شتر است. آیا الگوریتم یا فرمولی مفید برای این مشکل وجود دارد؟
روشی برای تعیین قابل اعتماد مقادیر آماری غیرعادی
52845
در اینجا یک سوال آماری است که من در حین کار با برخی از داده های خود به آن فکر می کردم. من یک مجموعه داده بزرگ به نام bigbird دارم (مثلاً حدود یک میلیارد ردیف) و می خواهم به طور تصادفی یک مجموعه داده کوچکتر به نام smallbird را با استفاده از R نمونه برداری کنم. اکنون، می توانم به راحتی این کار را با کد زیر انجام دهم: smallbird<-bigbird [sample(1:nrow(bigbird),1000000,replace=FALSE)] این عالی است و مدل نظری من تا حدی کار می کند. با این حال، من سعی می‌کنم مدل خود را دقیق‌تر کنم و متوجه شدم که ممکن است در مورد نمونه‌گیری تصادفی به یک نگرانی نظری برخورده باشم. ابتدا تصور کنید که برخی از متغیرهای داخل bigbird به شکل زیر هستند: user,not_observation,year A, 5,1998 B,7,2003 A,6,1998 D,1,2010 اساساً، من کاربران دارم، یک مشاهده عدد (که به مجموعه متفاوتی از متغیرها ارجاع می‌دهد) و سالی که در آن مشاهده خاصی انجام داده‌اند. من دو مسئله دارم که به شرح زیر نیاز به توضیح دارند: 1. از نگاهی به مجموعه داده کلی، آشکار است که با پیشرفت دوره زمانی من (1998-2012)، مشاهدات بیشتر و کاربران جدید بیشتری در هر سال به صورت تصاعدی دارم. یعنی در سال 2012، تعداد بسیار بسیار بیشتری کاربران جدید در مجموعه داده نسبت به سال 1998 وجود دارد. در سال های گذشته یعنی در سال 2012، کاربر A ممکن است 50 مشاهدات مختلف داشته باشد در حالی که تنها 1 مشاهده در سال 1998 انجام شده است. من اشتباه می کنم)، این نمونه گیری تصادفی ساده به این 2 موضوع رسیدگی نمی کند. با تشکر
نمونه‌گیری مجموعه داده‌های کوچک از مجموعه داده‌های بزرگ با ارجاع به یک متغیر معین
105641
من در حال تجزیه و تحلیل الگوهای رفتاری سالانه هستم و در حال حاضر در حال بررسی این موضوع هستم که چگونه می توانم داده ها را به بهترین شکل تبدیل کنم تا همبستگی را آزمایش کنم که در آن متغیر مستقل من فاز ماه است (به عنوان روشنایی ماه چند صد ساله، یعنی 0٪ ماه جدید، 100٪ ماه کامل). ممکن است یک سوال نسبتاً پیش پا افتاده باشد، اما من قبلاً با این مشکل برخورد نکرده ام، بنابراین کمی در ضرر هستم. به سلامتی
بهترین تبدیل برای مجموعه داده های سینوسی؟
104518
من از «boot()» و «boot.ci()» برای ارائه فواصل اطمینان برای تفاوت در $c$-statistic (AUC) بین مدل‌های با و بدون نشانگر زیستی جدید استفاده می‌کنم. روش من در زیر است. من مطمئن نیستم که آیا این راه درستی برای آن است. داده‌های نمونه (n = 500، 3 ستون: وضعیت بیماری (1/0)، متغیر کمکی (1/0) و نشانگر زیستی (1-6)): داده <- read.table(https://notendur.hi .is/eyb8/dataframe.txt، header=TRUE) در اینجا تابعی است که تفاوت $c$-statistic بین مدل‌ها را برای استفاده در «boot()» برمی‌گرداند: library(rms) Cindexdiff <- تابع(داده‌ها، شاخص‌ها){ داده <- داده[شاخص‌ها،] # obs را انتخاب کنید. در نمونه بوت استرپ # آمار C بدون نشانگر زیستی: C1 <- lrm(بیماری ~ متغیر، داده = داده، x=TRUE، y=TRUE)$stats[C] # آمار C با نشانگر زیستی: C2 <- lrm(بیماری ~ نشانگر زیستی + متغیر کمکی، داده = داده، x = TRUE، y=TRUE)$stats[C] as.numeric(C2-C1) # تفاوت را برمی گرداند } و اکنون 95% CI برای تفاوت در $c$-statistics با بوت استرپینگ (تکرار 999 بار): library(boot) ) set.seed(1) b <- boot(data, Cindexdiff, 999) boot.ci(b) اکنون، **چند سوال دارم:** 1. آیا این یک روش صحیح برای محاسبه فاصله اطمینان بوت استرپ برای تغییر در آماره C است؟ 2. چگونه باید از «boot.ci()» کدام نوع فاصله اطمینان را انتخاب کنم؟ عادی یا تعصب تصحیح شده (BCa)؟
محاسبه فاصله اطمینان 95% و مقدار p برای تغییر در آماره C با استفاده از بوت استرپ با R
4909
تابع توزیع تجمعی تجربی یک متغیر تصادفی، با توجه به مشاهدات $x_\left( k \right) > x_\left( k-1 \right)$, $k \in \mathbb N$, $k \le n$, به صورت $F_{emp}(x_\left(k \right) > X \ge x_\left(k-1 \right)) = \frac k {n+1}$ تعریف می‌شود و $F_{emp}(X \ge x_\left(n\right))=1$. چرا؟ تا زمانی که در حال درون یابی هستیم، آیا استفاده از روش های درون یابی با خطای کمتر منطقی نیست؟ نزدیک‌ترین همسایه ساده یا درون‌یابی متوسط ​​تکه‌ای یک بهبود است، و درون‌یابی مکعبی نیز تابع چگالی تجربی قابل تمایز را برای ما به ارمغان می‌آورد. تعریف بالا حتی مقدار جزئی cdf را به شما نمی دهد، زیرا متغیر تصادفی است. مطمئناً تابع واقعی را به عنوان $n\to\infty$ نزدیک می‌کند، اما پس از آن هر interpolant دیگری نیز چنین است. مطمئناً حداقل interpolants خطی در نظر گرفته شده است.
درون یابی تابع تجمعی تجربی
99862
وضعیت من اینجاست من یک رگرسیون خطی چندگانه دارم که از آن برای پیش‌بینی یک مقدار y برای یک داده (x1,x2,x3,x4,x5,x6) استفاده کردم. چیزی شبیه پایین تر می خواند: 30، بالا:48. من همچنین دقیقاً همان چیزی را برای پیش‌بینی مقدار y* در داده‌های دیگر دارم (x1*,x2*,x3*,x4*,x5*,x6*). چیزی شبیه پایین تر:35، بالا:51 می خواند. من می خواهم به این سوال پاسخ دهم: احتمال اینکه مقدار y* از مقدار y بیشتر باشد چقدر است؟ فکر می کنم این یک سوال اساسی است، اما مطمئن نیستم. اگر فرمول نحوه محاسبه فاصله پیش‌بینی در یک موقعیت چند متغیره را بدانم احتمالاً می‌توانم به این احتمال دست پیدا کنم. این چیزی است که فکر می کنم باید انجام شود، اما می خواستم ابتدا توسط شما اجرا شود. فواصل پیش بینی بر اساس یک توزیع t با (n-6) درجه آزادی است (من 0 y-int اجباری دارم). بنابراین من معتقدم که حاشیه خطا محاسبه شده مقداری ثابت است که در مقدار متناظر از توزیع t ضرب می شود (t_.05/2 با n-6 درجه آزادی). مقداری ثابت خطای استاندارد این تخمین خاص خواهد بود. سپس من فقط با استفاده از پیش‌بینی تخمین نقطه‌ای به‌عنوان میانگین و این ثابت‌ها به‌عنوان خطاهای استاندارد با n-6 درجه آزادی، یک آزمون t نمونه پایه 2 را انجام می‌دهم. آیا این دقیق است؟ آیا راه بهتری وجود دارد؟ با تشکر
مقایسه فاصله پیش بینی رگرسیون چندگانه
57636
کمیت محوری $Q(X, \theta)$ را می توان برای ایجاد فاصله اطمینان استفاده کرد. می خواستم بدونم که آیا می توان از آن برای ساخت یک منطقه آماری آزمون و رد استفاده کرد؟ در موارد ساده‌تر که شامل یک فرضیه صفر ساده است، واضح است که چگونه از یک محور برای ساخت یک آماره آزمون و منطقه رد استفاده کنیم. در مورد فرضیه های صفر مرکب چطور؟ با تشکر و احترام! > **کمیت های محوری برای ساخت تست > آمار** اساسی هستند، زیرا اجازه می دهند آمار به پارامترها بستگی نداشته باشد - برای مثال، آماره t Student برای توزیع نرمال با ناشناخته > واریانس (و میانگین) است.
می توان از Pivot برای آزمایش استفاده کرد
60024
من سعی می کنم ماتریس کوواریانس معکوس پراکنده مدل گرافیکی گاوسی خود را تخمین بزنم. من بسته «glasso» را در R نصب کردم و چند نمونه را امتحان کردم. پس از آن نرم افزار «glasso» را روی داده های خودم اجرا کردم. بنابراین من آن را با ماتریس کوواریانس تجربی خود تغذیه کردم. با این حال، به نظر می رسد که گیر کرده است و به من نتیجه نمی دهد. بنابراین فکر می کردم که آیا نرم افزار را اشتباه اجرا می کنم. من این راهنما را دنبال کردم: http://cran.r-project.org/web/packages/glasso/glasso.pdf بنابراین اگر «S» ماتریس کوواریانس تجربی من باشد. من فقط موارد زیر را اجرا کردم: یک <- glasso(S, rho=.01, trace=TRUE) # حلقه بیرونی، m = 1 # حلقه بیرونی، m = 2 بعد از موارد بالا، گیر می کند. من ماتریس کوواریانس تجربی خود را نیز که به نرم افزار تغذیه می کنم، پیوست می کنم. http://rapidshare.com/files/141198734/emp_covariance_matrix.mat هرگونه راهنمایی بسیار قدردانی خواهد شد.
مسائل مربوط به تخمین ماتریس کوواریانس معکوس پراکنده با گلاسو
60027
من در حال انجام تحقیقات زیست پزشکی هستم و باید یک مدل لجستیک GAM تنظیم کنم که حداکثر امتیاز AUC ممکن را به دست آورد. من 4 نشانگر بیماری دارم. $Y_1، Y_2، Y_3، Y_4$ با داده های مختلف در هر یک، و مدل باید مشخصات زیر را داشته باشد: $\text{Model} = \log(\text{Odds Ratio} (\text{بیماری}~|~ Y_j,Y_i)) = \alpha + \sum\limits_{i,j}^n f_k(Y_k) $ مشکل این است که من باید در R all کدنویسی کنم ترکیبات ممکن بین این 4 نشانگر بدون تکرار، به منظور انجام چندین مقایسه، مانند: $\text{Model}_1 = \alpha + f_1(Y_1) + f_3(Y_3)$ یا $\text{Model}_2 = \alpha + f_1 (Y_1) + f_2 (Y_2) + f_3 (Y_3)$ و غیره. وقتی هر مدل را به صورت دستی کد می‌کنم از جملاتی مانند اینها این یک مثال برای مدلی است که فقط یک نشانگر دارد: model=gam(group~s(y1),family='binomial') pred=predict(model,type='response') r=ROCEmpiric(group,1-pred) ) جایی که گروه به عنوان نشانگر بیماری همیشه در داخل است و ROCEmpiric تابعی است که مقدار ROC را محاسبه می کند. کسی راه خودکار کردن محاسبات رو میدونه؟ مضحک به نظر می رسد نوشتن هر تابع پس از انجام جمع جایگشت ها.
مسئله ترکیبی برای رگرسیون لجستیک GAM اعمال شد
60029
مقیاس دانش 10 ماده ای (درست/نادرست) دارم. آیا می توانم آزمون آلفای کرونباخ را انجام دهم؟
آلفای کرونباخ در مورد درست و نادرست
104511
یکی از همکاران پیشنهاد کرد که شبیه سازی مونت کارلو باید برای ساخت فواصل اطمینان برای میانگین وزنی محاسبه شده از یک نمونه ترجیح داده شود. دقیقاً چگونه و چرا مونت کارلو ممکن است بهتر از آزمون t سنتی در این مورد استفاده کند؟
آیا شبیه سازی مونت کارلو از آزمون های پارامتریک برای ساخت فواصل اطمینان برای میانگین وزنی مناسب تر است؟
21907
تا آنجا که من متوجه شدم، * برآوردگر حداقل کوواریانس (MCD) به دنبال زیرمجموعه نقاط داده h است که ماتریس کوواریانس آنها کوچکترین تعیین کننده را دارد. * Minimum Volume Elipsoid (MVE) بیضی را با کمترین حجم که h نقاط داده را پوشش می دهد جستجو می کند. هنگامی که هر یک از زیر مجموعه ها پیدا شد، تخمین قوی ماتریس کوواریانس توسط آن نقاط h ارائه می شود. آیا می توانید تفاوت مفهومی بین MCD و MVE را برای من توضیح دهید؟ آیا تعیین کننده مربوط به حجم نیست؟ **ویرایش** User603 استدلال کرده است که هر دو برآوردگر راه حل هایی برای مسائل مختلف بهینه سازی هستند. حتی اگر همه چیز را در پاسخ آن نفهمم، به او اعتماد دارم. اما در مورد این فرمول برای حجم بیضی $(x-v)'A^{-1}(x-v)=1$$$V = \frac{4}{3}\pi\sqrt{\det( الف)}$$ که طبق آن کمینه کردن V معادل کمینه کردن $\det(A)$ است...
تفاوت بین برآوردگرهای MCD و MVE چیست؟
113115
من اساساً به دنبال معادل چیزی مانند $\mathbb{R}^2$ برای مدلی در مجموعه داده‌ای هستم که خود صرفاً مجموعه‌ای از نقاط است. یعنی اگر مجموعه داده های من (مثال بی اهمیت): x <- 1:10 y <- c(1،6،3،7،7،10،4، 7، 8، 10) و تناسب 6 نقطه ای من باشد. گرید این است: x.fit <- c(1,2,4,6,8,10) y.fit <- c(1,4,6,6,7,10) چگونه می توانم این تناسب را با 6 مقایسه کنم جفت مختصات، با یکی از تعداد کمتر یا بیشتر؟ اساساً من به دنبال به حداقل رساندن تعداد نقاطی هستم که برای نشان دادن فرآیند زیربنایی با تناسب نیاز دارم، در حالی که اطمینان حاصل کنم که تناسب همچنان داده ها را به خوبی مدل می کند. این خوب چیزی است که من به دنبال تجزیه و تحلیل آماری آن هستم، تا بتوانم مدل خود را با $N$ نقاط از 1 تا طول(فرآیند$x) رسم کنم و تعادلی پیدا کنم. من مطمئن نیستم که چگونه پردازش کنم، زیرا به برازش چند جمله ای ها یا مدل های پیش بینی کننده نقطه متغیر عادت دارم. هر گونه کمکی بسیار قدردانی خواهد شد.
چگونه تناسب فرآیند گسسته را با فرآیند زیربنایی گسسته مقایسه کنیم؟
34823
آیا می‌توانیم احتمال پسین به‌دست‌آمده از طبقه‌بندی‌کننده‌ای که یک مقدار کلاس پیش‌بینی‌شده و یک احتمال (مثلاً رگرسیون لجستیک یا ساده‌لوحانه) را به‌عنوان نوعی امتیاز اطمینان که به آن مقدار کلاس پیش‌بینی‌شده نسبت داده می‌شود، تفسیر کنیم؟
آیا می توان احتمال پیش بینی شده رگرسیون لجستیک را به عنوان اطمینان در طبقه بندی تفسیر کرد
99865
من برای یک سازمان جمع‌آوری کمک مالی کار می‌کنم و می‌خواهیم یک تست A/B برای تعیین اینکه آیا یک تکنیک بازیابی اهداکننده خاص کار می‌کند یا خیر اجرا کنیم. جمعیت مورد مطالعه اهداکنندگان از بین رفته ما هستند. اینها خیرینی هستند که در گذشته به ما کمک کردند، اما در آخرین کمپین ما ندادند. برای مطالعه ما قصد داریم از همه اهداکنندگان از بین رفته خود درخواست کنیم. همه اهداکنندگان از بین رفته یک بسته درخواست دریافت خواهند کرد، اما گروه A (گروه آزمایشی) همچنین نوعی یادداشت شخصی دست‌نویس دریافت خواهد کرد. گروه B هیچ یادداشت شخصی دریافت نمی کند. موفقیت این تکنیک با مقایسه تعداد (نسبت) اهداکنندگان بهبود یافته در هر گروه مشخص خواهد شد. چالش من این است که تعیین کنم چه تعداد یادداشت شخصی سازی شده باید بنویسیم. برای استدلال، من می گویم که ما 8000 اهداکننده داریم، بنابراین این واقع بینانه نیست که به سادگی گروه را به دو قسمت تقسیم کنیم و 4000 یادداشت شخصی سازی شده بنویسیم (ما منابع آن را نداریم). برای تعیین اندازه گروه آزمایشی چه تست هایی باید انجام دهم؟ من آنالیز توان را فرض می‌کردم، اما آیا مهم است که در اینجا آمار استنباطی انجام نمی‌دهم؟ ما همه اهداکنندگان از بین رفته را مطالعه خواهیم کرد. من مقداری مطالعه کرده‌ام و می‌دانم که در اینجا تفاوت‌های ظریف زیادی وجود دارد. به عنوان مثال، می توان استدلال کرد که به نوعی، من یک آزمایش استنباطی انجام خواهم داد، زیرا می خواهم بدانم که این آزمون رویکرد ما را نه تنها به جمعیت مورد مطالعه، بلکه به همه اهداکنندگان از بین رفته _آینده نیز اطلاع می دهد (فرضی جمعیت فوق العاده؟). اما حتی اگر بیت استنباطی را کنار بگذاریم، باز هم می‌خواهم تعداد کافی در گروه آزمایشی وجود داشته باشد تا مطمئن شوم که نتایج پس از آزمون قابل اعتماد هستند. لطفا راهنمایی یا منابع را پیشنهاد کنید. همچنین توجه داشته باشید که من در R نسبتاً مسلط هستم، بنابراین با خیال راحت کد R را اضافه کنید. من همچنین بسته 'pwr' را کمی بررسی کرده ام. پیشاپیش سپاس فراوان
الزامات اندازه نمونه هنگام مطالعه کل جمعیت
113112
Neyman-Pearson Lemma می گوید که قدرتمندترین تست، $\phi(x)$، با اندازه $\alpha$ (احتمال هشدار نادرست)، برای آزمایش $H_0:\theta=\theta_0$ در مقابل $H_1:\theta= \theta_1$ آزمون نسبت احتمال این فرم است: $$ \phi(x)=\begin{cases} 1 & l(x)>k \\\ \color{#C00}{p} & l(x)=k \\\ 0 & l(x)<k \\\ \end{موارد} $$ که در آن، $p$ احتمال پذیرش است $H_1$ در $k.$ $k$ آستانه است. $l(x)$ نسبت احتمال است، $l(x)=\frac{f_{\theta_1}(x)}{f_{\theta_0}(x)}.$ احتمال هشدار نادرست، $P_f=\ color{#C00}{p} \cdot P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_0 ]\hspace{2 mm}+\hspace{2 mm} P[l(x)>k \hspace{2 mm}| \hspace{2 mm} H_0 ].$ احتمال تشخیص، $P_d=p \cdot P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_1 ]\hspace{2 mm}+\hspace{2 mm} P[l(x)>k \hspace{2 mm}| \hspace{2 mm} H_1 ].$ **سوال** چرا احتمال هشدار نادرست، $P_f$، $\mathbf{نه}$ تعریف شده است: $P_f=\color{#C00}{(1-p )} \cdot P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_0 ]\hspace{2 mm}+\hspace{2 mm} P[l(x)>k \hspace{2 mm}| \hspace{2 mm} H_0 ].$ درک من از بیان معادله بالا این است که: اگر احتمال وقوع $H_1$ $p$ باشد، پس احتمال وقوع $H_0$ $(1-p) است. بنابراین، احتمال انتخاب $H_0$ در $k$ $(1-p) است.P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_0].$ کجای درک من اشتباه است؟ هر نظری لطفا
هشدار کاذب در تست نیمن-پیرسون. شک در متن؟
102911
من یک مجموعه داده از 1000 رکورد دارم. هر رکورد دارای سه متغیر وابسته $y_1, y_2, y_3$ و 100 متغیر مستقل $x_1,...,x_{100}$ است که متغیر وابسته $y_i$ 1. $0\le y_i \le1$ 2 را برآورده می‌کند. $y_1 + y_2 + y_3 =1$ یعنی. $y_i$ نشان دهنده احتمال مشاهده متعلق به یکی از سه کلاس است. Q1: چگونه می توانم یک مدل (خطی چند متغیره) با استفاده از $x_1،...،x_{100}$ برای پیش بینی ($y_1،y_2،y_3$) بسازم؟ آیا بسته R موجود است؟ چگونه می توانم آن را پیاده سازی کنم؟ Q2: از آنجایی که تعداد زیادی متغیر مستقل $x_1,...,x_{100}$ (ویژگی‌ها) وجود دارد، آیا می‌توان با استفاده از LASSO، SCAD یا شبکه الاستیک برای این مدل خطی چند متغیره با استفاده از ابزارهایی در `glmnet انتخاب ویژگی انجام داد. پکیج
رگرسیون توسط متغیرهای وابسته چندگانه با محدودیت ها و انتخاب ویژگی
102916
پیشاپیش پوزش می طلبم اگر این سوال به همان اندازه که در مورد آمار است، در مورد طراحی تجربی است. من می خواهم بدانم آیا بهترین راه برای انتخاب سطوح یک عامل تصادفی در یک مدل ترکیبی وجود دارد یا خیر. بیایید بگوییم که من علاقه مند به این هستم که چگونه افراد از نظر عملکرد در یک کار چه با چشم بسته در مقابل نه. همچنین فرض کنید که بتوانم سختی کار را در مقیاس 1-100 واحد دلخواه تغییر دهم. من به اثرات دشواری کار علاقه ای ندارم - این یک عامل آزاردهنده است که می خواهم آن را به عنوان یک اثر تصادفی مدل کنم. اگر بتوانم فقط 5 سطح را برای فاکتور تصادفی خود انتخاب کنم، آیا باید سطوحی را هدف قرار دهم که به هم نزدیکتر هستند (مثلاً دشواری های کاری 30، 32، 34، و غیره)، یا سطوحی که تا حد امکان از هم دور هستند ( به عنوان مثال، 20، 40، 60 و غیره)، و چرا؟ این انتخاب چگونه ممکن است بر مدل آماری من تأثیر بگذارد؟ متشکرم!
انتخاب سطوح عامل تصادفی در یک مدل ترکیبی
113117
من از RStudio استفاده می کنم و سعی می کنم از packrat با پروژه فعلی خود استفاده کنم. من روی کادر انتخاب «استفاده از packrat با این پروژه» کلیک می‌کنم و OK را فشار می‌دهم، در آنجا خروجی زیر را از کنسول دریافت می‌کنم: > packrat::init() شروع پروژه packrat در فهرست: - «/Users/Ash/Dropbox/Uni/2014 /Thesis/Code/R افزودن این بسته ها به packrat: _ packrat 0.4.0.12 واکشی منابع برای packrat (0.4.0.12) ... خطا در snapshotSources(project, activeRepos(project), allRecordsFlat): هنگام واکشی فایل های منبع خطا رخ داد: خطا در untar2(tarfile، فایل ها، لیست، exdir، restore_times) : بلوک ناقص روی فایل می توانم در مورد این خطا چیز زیادی پیدا نکردم، اما بر اساس این کد (جستجوی رشته خطا، ناقص block on file)، به نظر می رسد که این به طول/اندازه فایل غیرمنتظره مربوط می شود. من فرض می کنم ممکن است دانلود خراب باشد؟ اما چندین بار امتحان کردم یا شاید من مجوزهای صحیح را ندارم؟ اما فایل پروژه در اینجا نباید مشکلی داشته باشد. آیا کس دیگری این مشکل را داشته است؟
ر - «بلاک ناقص روی فایل» به چه معناست؟
15730
طبق نظر کرولی *)، انحراف پواسون به صورت $2 \sum{O \cdot \log ({O \over E})}$ محاسبه می‌شود اما اگر مقدار مشاهده‌شده $O$ صفر باشد چه؟ *) _محاسبات آماری - مقدمه ای بر تجزیه و تحلیل داده ها با استفاده از S-Plus، Michael J. Crawley، چاپ شده توسط Wiley 2004، صفحه 539._
انحراف پواسون - و در مورد مقادیر مشاهده شده صفر چطور؟
104516
من باید دو گروه از داده ها را با هم مقایسه کنم و ببینم که آیا تفاوت معنی داری بین میانگین ها وجود دارد یا خیر. من می‌خواستم یک تست Paired-Samples T-Test را با SPSS انجام دهم، با این حال، فقط روی بخشی از داده‌ها تمرکز می‌کند. ![Overall Means and N](http://i.stack.imgur.com/G3gkS.png) ![N جدید پس از انجام آزمایش](http://i.stack.imgur.com/6Dgbn.png همانطور که می بینید، N از 10148 به 1166 در Paired Samples Statistics کاهش می یابد. آیا می توان برای کل گروه مقایسه کرد؟! من بهترین دانش را از آمار ندارم، اما واقعا نیاز به مقایسه این دو گروه دارم... آیا آزمون دیگری را انتخاب کنم؟ آیا از اشتباه استفاده می کنم؟ من واقعا امیدوارم کسی بتواند کمک کند. پیشاپیش متشکرم بهترین، دیوید، من سعی خواهم کرد پیش زمینه بیشتری ارائه دهم. من دو ستون در اکسل با واکنش های سهام در یک توصیه دارم. بگذارید بگوییم که در ستون اول 1166 واکنش توصیه از سال 2005 و در ستون دوم 10148 واکنش توصیه از سال 2006 داریم. میانگین دو گروه کاملاً متفاوت است (0.79 و 0.36). با این حال، من می خواهم این میانگین ها را به صورت آماری با هم مقایسه کنم. امیدوارم این کمک کند..
مقایسه میانگین گروه هایی با حجم نمونه نابرابر
113116
من آزمایشی را با 8 آزمودنی انجام داده ام که باید [یک سری از 4] کار ناوبری را تحت 4 شرایط دید متفاوت انجام می دادند. آزمایش به صورت هفتگی، 16 بار با افراد مشابه تکرار شد. ترتیب شرایط در هر تکرار تصادفی شد. در نتیجه، اکنون معیارهای مختلفی از عملکرد ناوبری (متغیرهای وابسته) مانند سرعت، خیر دارم. خطاها، مسافت طی شده و غیره، هر کدام برای 4 کار x 4 شرایط بینایی x 16 تکرار x 8 موضوع. برای تجزیه و تحلیل، من در حال حاضر فقط به یک متغیر وابسته و یک وظیفه در یک زمان نگاه می کنم. علاقه اصلی من این است که آیا عملکرد کلی بین 4 شرایط بینایی متفاوت است یا خیر، و در صورت امکان، چگونه این کار با تکرارها ارتباط دارد. مقایسه های دوتایی (پس از اتفاقی؟) یک هدف بسیار محوری است. آیا می توانید در انتخاب یک آزمون آماری مناسب برای این موضوع به من کمک کنید؟ در ابتدا من از یک ANOVA دو طرفه استفاده می کردم، اما به داده ها نگاه کردم و همیشه به طور معمول توزیع نمی شود. به طور عمده، یک یا دو مورد از شرایط بینایی از حالت عادی منحرف می شود. همچنین بسته به متغیرهای وابسته، انحرافات زیادی از نرمال بودن وجود دارد. آیا می توانم استفاده از ANOVA دو طرفه را توجیه کنم، و اگر نه، یک جایگزین غیر پارامتریک معتبر کدام خواهد بود؟ من امتحان فریدمن را شروع می کنم - فقط مطمئن نیستم که آیا می توان تمام داده های تکرارهای آزمودنی ها را ضمیمه کرد و به آن آزمون داد تا تفاوت بین شرایط را پیدا کنم. من از SPSS و Matlab استفاده می کنم. متشکرم!
تجزیه و تحلیل مناسب برای این طرح آزمایشی - داده های غیر عادی
113111
من می دانم که این نوع سؤال ممکن است چندین بار در این انجمن یا در وب سایت های دیگر پرسیده شود. یه جورایی میدونم چیکار کنم اما فقط برای اینکه مطمئن شوم چیزی را اشتباه متوجه نشده ام، سوالم را مطرح می کنم. در حال حاضر من از XTABOND2 برای اجرای تفاوت و سیستم GMM برای مدل‌سازی تغییر سالانه TFPt = TFPt-1 + برخی از متغیرهای توضیحی یا از پیش تعیین‌شده + تصاویر زمان استفاده می‌کنم. کد برای تفاوت GMM به این صورت است: xtabond2 dtfp ltfp x time2-time12، gmm(ltfp) iv (x time2-time12) nol robust برای سیستم GMM: xtabond2 dtfp ltfp x time2-time12، gmm(ltfp) iv(x time2 -time12) dtfp قوی = تغییر سالانه TFP در زمان t ltfp = سطح TFP در زمان t - 1 x = فقط برخی از متغیرهای توضیحی زمان = ساختگی زمان تعداد پانل 123800 و زمان از 2000 تا 2011 است. این یک پانل نامتعادل بسیار بزرگ با میانگین مشاهده در هر گروه حدود 4 است. سوالات من اینجاست 1. آزمون آرلانو باند برای AR(2) هم برای تفاوت و هم برای سیستم GMM از نظر آماری معنی دار است، مقادیر p 0 هستند. این بدان معناست که همبستگی سریال تاخیر 2 وجود دارد و متغیر ابزاری فعلی کافی نیست. من سعی کردم از یک تاخیر عمیق تر استفاده کنم، به سادگی gmm(ltfp) را به gmm(ltfp, lag(2.)) تغییر دهید. وقتی من این کار را انجام دادم، AR(2) از نظر آماری معنادار است، اما AR(3) و AR(4) اینطور نیستند، مقادیر p بین 0.6 و 0.7 است. از این نتایج، آیا می توانم بگویم gmm(ltfp، lag(2.)) ابزار کافی است؟ 2. برخی افراد پیشنهاد می کنند که متغیر وابسته تاخیر را به این معادله اضافه کنید، بنابراین xtabond2 dtfp l.dtfp ltfp x time2-time12، gmm(ltfp) gmm(ldtfp) iv(x time2-time12) nol robust. فقط تعجب می کنم که آیا کار درستی است؟ اگر چنین است، چگونه می توانم بفهمم که چه تعداد تاخیر از متغیرهای وابسته به اندازه کافی کافی است؟ هنوز از آزمون های همبستگی آرلانو باند در AR2 AR3 استفاده می کنید؟ 3. در XTABOND2، گزینه ای برای تبدیل تفاوت یا تبدیل متعامد وجود دارد. از نحوه استفاده دیوید از xtabond2، به نظر می رسد که او استفاده از تبدیل متعامد را پیشنهاد می کند. یکی از مزایای آشکار آن ذخیره مشاهدات در اولین دوره زمانی است (من می دانم که مزایای کمی وجود دارد). از مشاهدات من، آنها ضرایب کاملاً متفاوتی را برمی‌گردانند - ضرایب ltfp در تفاوت و تبدیل متعامد در تفاوت-GMM - 0.63 و - 0.19 است. آیا اصلاً وجود دارد که بدانیم کدام تحول کار بهتری را انجام می دهد؟ 4. XTABOND2 تست های تفاوت در هانسن را برای هر دو گروه GMM و IV ارائه می دهد. فقط برای بررسی درست متوجه شدم اگر هم آزمون هانسن به استثنای گروه و هم تفاوت در ابزارهای GMM برای سطوح دارای مقادیر p بسیار کوچک باشند، نشان می‌دهد که سیستم-GMM نامعتبر است. اگر هر دو تست در IV مقادیر p کوچکی داشته باشند، نشان می‌دهد که برخی از متغیرها در IV کاملاً برون‌زا هستند و باید آن‌ها را درون‌زا یا از پیش تعیین‌شده درمان کرد؟ سوالات من هست پیشاپیش از کمک های شما سپاسگزارم به سلامتی، ماهی
تاخیر عمیق تر در رگرسیون پانل پویا با استفاده از xtabond2 در STATA
15735
من می خواهم داده های زیر را تجزیه و تحلیل کنم: * تعداد مشاهدات: 430 درخت * 1 متغیر پاسخ: رشد قطر درختان * 2 عامل طبقه بندی: گونه درختی (9 سطح) و درمان (2 سطح) به نظر می رسد متغیر پاسخ دارای نمایی است. توزیع (تراکم، تراکم رشد تبدیل شده به لگاریتم). این نمودار نشان می‌دهد که گونه‌های درختی تأثیر زیادی بر رشد dbh دارند، و این طرح که درمان ندارد. برای برخی از گونه ها، به نظر می رسد یک تعامل بین گونه ها و درمان وجود دارد. من می خواهم تأثیر گونه ها، درمان و تعامل بین گونه ها و درمان را تجزیه و تحلیل کنم. اگر متغیر پاسخ به طور معمول توزیع شده بود، حدس می‌زنم ANOVA کافی باشد. با این حال، به دلیل توزیع نمایی، در مورد چگونگی ادامه بیشتر مطمئن نیستم. من یک ANOVA ('aov(dbh.growth~ گونه * درمان، داده=df)` ایجاد کردم که مقادیر معنی داری Pr(>F) را برای هر دو عامل + تعامل (به نمودارهای تجزیه و تحلیل مراجعه کنید) نشان داد، اما آیا نتایج قابل استفاده هستند؟ آیا امکانی برای تجزیه و تحلیل عاملی با داده های توزیع شده وجود دارد؟ اینجا ;)
متغیر پاسخ با توزیع نمایی - چگونه تجزیه و تحلیل کنیم؟
34828
بنابراین بیایید فرض کنیم که نامزدهای _n_ در حال رقابت هستند. دسته ای از افراد تصادفی شروع به رای دادن انتخابی به نامزدها می کنند که هر رای عددی از _1_ تا _n_ است. روش مناسبی برای سفارش دادن نامزدها بر اساس تعداد رای آنها و همچنین تعداد آرا / فراوانی آرا چیست؟ به عنوان مثال: اگر نامزد A توسط گروهی از رای دهندگان رای داده می شد، اما آرا از هم فاصله داشت، احتمالاً به عنوان نامزدی که کمتر/همین مقدار/بیشتر رای داده بود اما آرا رای داده بودند، نه به بزرگی در نظر گرفته می شد. اندکی پس از دیگری من به چیزی شبیه به سیستم Karma Reddit فکر می کردم، اما این فقط 1+ و -1 را در نظر می گیرد (و من حتی مطمئن نیستم که Reddit اطلاعاتی در مورد نحوه عملکرد سیستم Karma خود داده است یا خیر!) * * * به عنوان مثال: نامزدها = [ باب، سالی، جو، سم، راب] شخص A سالی را به عنوان شماره 1 (بهترین انتخاب) و [باب، راب] را به عنوان شماره 5 (بدترین انتخاب) رتبه بندی می کند و (او را ترک می کند) به دیگران رای نمی دهد). شخص B سام را به عنوان شماره 2، جو را در رتبه 4 قرار می دهد و ترک می کند. شخص C سالی را به عنوان شماره 1، جو را در رتبه 3 و باب را در رتبه 5 قرار می دهد. بنابراین در این مورد ممکن است قانع کننده باشد که بگوییم سالی به شماره ۱ نزدیک است، در حالی که باب احتمالاً به شماره ۴ یا ۵ نزدیکتر است. اما سم فقط یک بار به عنوان شماره 2 انتخاب شد و به همین دلیل دلایل زیادی برای گفتن بله او قطعاً شماره 2 وجود ندارد. به طور مشابه، راب تنها یک بار به عنوان شماره 5 انتخاب شد، اما رای کافی برای گفتن اینکه او بدتر از باب است، وجود ندارد. به این ترتیب، رتبه بندی ممکن است چیزی شبیه به این شود: سالی > سام > جو > راب > باب شما احتمالاً می توانید این مثال را بچرخانید تا رأی دهندگان بیشتری داشته باشید و چند مورد غیرعادی ایجاد کنید، اما امیدوارم که او یک ایده کلی از آنچه هستم به شما بدهد. به دنبال
یک سیستم رای گیری خوب که بر اساس مقدار و تعداد/تکرار آرا باشد چیست؟
57631
من می خواهم استقلال چندین متغیر طبقه بندی را برای چند مجموعه داده آزمایش کنم. من معتقدم Breslow-day برای برخی از تحلیل‌هایی که می‌خواهم انجام دهم امکان‌پذیر است، و Log-linear ممکن است برای همه امکان‌پذیر باشد، اما علاوه بر شرایط کاربردی، این دو تحلیل چقدر متفاوت هستند و کدام یک برای مواردی که هر دو امکان‌پذیر است مناسب‌تر است. ? پاسخ‌های شرکت‌کنندگان آزمایشی به یک سؤال درک مطلب از هر یک از دو جنبه: درستی و عمومیت قوی یا ضعیف نمره‌گذاری شد. شرکت کنندگان از یکی از دو شرایط آموزشی بودند و همچنین در یکی از دو گروه دانش قبلی طبقه بندی شدند. بنابراین من کلاً 4 عامل باینری دارم: احترام، امتیاز، آموزش و گروه. امتیاز و گروه مشاهده شد، در حالی که احترام و آموزش دستکاری شد. احترام درون سوژه است، در حالی که دیگران همه بین سوژه هستند. در آزمایش بعدی، یک عامل آزمایشی باینری اضافی اضافه کردم، پیش تمرین. من در ابتدا گروه را در نظر نمی گرفتم، بنابراین با احترام، نمره و تمرین تست روز برسلو را انجام دادم. من یک تأثیر قابل توجه پیدا کردم که از آن به عنوان تأثیر آموزش بر نمره بسته به احترام متفاوت است تعبیر می کنم. به طور خاص، یک شرط تمرینی صحت را بهتر ارتقا داد، در حالی که دیگری انتزاعی بودن را بهتر ارتقا داد. بعداً می خواستم ببینم که آیا اضافه کردن گروه تفاوتی ایجاد می کند یا خیر. تا آنجا که من می دانم، نمی توانم عامل دیگری را در Breslow-day اضافه کنم. بنابراین، من یک تجزیه و تحلیل log-linear را امتحان کردم. من ابتدا این کار را با همان 3 فاکتور مورد استفاده در تست Breslow-day انجام دادم تا بتوانم نتایج را با هم مقایسه کنم. کد R اینجاست: T = جدول (D$score، D$training، D$respect، dnn=c('Score','Training','Respect') ) loglm(~ امتیاز + آموزش + احترام، داده = T) این نتیجه معنی‌دار نیست، که من به این معنا تعبیر می‌کنم که داده‌ها را می‌توان به طور کامل با تأثیرات اصلی عوامل، بدون هیچ اصطلاح تعاملی توضیح داد. به نظر می‌رسد که این با نتیجه آزمایش روز Breslow تناقض دارد، بنابراین من اکنون مطمئن نیستم که کدام یک دقیق‌تر است. در مرحله بعد، من می خواهم عوامل دیگر را اضافه کنم (گروه، پیش تمرین). آیا من درست می گویم که در این مورد باید از تحلیل log-linear استفاده کنم؟
تجزیه و تحلیل لاگ خطی در مقابل آزمون برسلو روز
34827
من مطمئن نیستم که آیا این سوال منطقی است یا حتی ایده آل است، اما مشکل من اینجاست: بسیاری از فرمول های فاصله پیشنهادی فقط یک فاصله را بر حسب ابعاد 1 نشان می دهند. یک فرمول متداول فاصله، فاصله اقلیدسی است (بارزترین آن). فاصله اقلیدسی $d_{ecdn}$ از دو نقطه واقع در $(x_1, x_2, x_3, ... , x_n)$ و $(y_1, y_2, y_3, ... , y_n)$ به ترتیب توسط $d_{ecdn} = \sqrt{\displaystyle\sum_{i=1}^{n} (x_i-y_i)^2}$. از نظر هندسی، در هر تعداد ابعاد (اما 3 بعد را به عنوان مثال تصور کنید)، اگر بخواهید بین دو نقطه خطی بکشید که طول آن فاصله اقلیدسی را بیان می کند، خود آن خط در یک بعد وجود دارد. چرا این یک مشکل است؟ من در حال انجام پروژه ای هستم که شامل داده کاوی و بازیابی اطلاعات است. اساساً، هر سند در یک پیکره به مکانی در یک فضای $n$-بعدی نگاشت می‌شود که در آن $n$ تعداد کل عبارت‌ها در کل مجموعه اسناد است. آنها می گویند که اگر سند A از نظر هندسی به سند B نزدیکتر از سند C باشد، سند A بیشتر شبیه B است تا C. فاصله اقلیدسی تصور اشتباهی از شباهت ایجاد می کند زیرا هر بعد مهم است. من نمی‌پرسم آیا کسی الگوریتم خوبی دارد که فاصله بین دو نقطه را محاسبه کند، اما با وزنی در هر بعد. یک مثال می تواند ضریب همبستگی محصول-لحظه پیرسون باشد. این فرمول توسط ![pearson](http://upload.wikimedia.org/wikipedia/en/math/6/8/6/68654488b517714870216d44f1ce8459.png) ارائه شده است.
فاصله وزنی بین دو نقطه در فضای n بعدی
15738
من اغلب در آموزش‌ها و صفحات وب مختلف می‌بینم که خوشه‌بندی فازی c-means و soft k-means clustering را توضیح می‌دهد. اما من نتوانستم هیچ ماده ای را پیدا کنم که آنها را متمایز کند. آیا هر دو خوشه بندی c-means فازی و k-means نرم یکسان هستند یا متفاوت هستند؟
تفاوت بین k-means نرم و c-means فازی
15739
آیا کسی ارجاع دقیق یک نقل قول را با کلماتی به این مضمون می داند: **داستانی را با داده ها بگویید.** من می خواهم از این نقل قول در ارائه خود استفاده کنم اما باید آن را تصدیق کنم. کار درستی است! (من مطمئن نیستم که از کدام برچسب استفاده کنم!)
چه کسی گفته با داده ها داستانی را تعریف کنید؟
87590
من یک رگرسیون خطی چندگانه را درک کرده ام. برای اینکه بدانم مدل من از نظر پیش‌بینی چقدر خوب عمل می‌کند، می‌توانم باندهای بازه‌های پیش‌بینی را محاسبه کنم و تصمیم بگیرم که آیا آنها به اندازه کافی باریک هستند که قابل استفاده باشند. اگر آنها خیلی گسترده باشند، احتمالاً مفید نیستند. با استفاده از R، من این کدهای R را نوشته ام. LinearModel.1 <- lm(GDP.per.head ~ Competitivness.score + Quality.score، data=Dataset) خلاصه (LinearModel.1) predict (LinearModel.1، se.fit = FALSE، scale = NULL، df = Inf ، فاصله = c(هیچ، اطمینان، پیش بینی)، سطح = 0.95، نوع = c(response، terms)، Terms = NULL) در اینجا یک کد مثال آورده شده است: # اعداد تصادفی برای دامنه x = rnorm(10) y = rnorm(10) # ایجاد می‌کند تا برخی از داده‌های نمونه مناسب باشد. z = 3*x+2*y - 5 + rnorm(10,sd=3.5) # تناسب رگرسیون را انجام دهید = lm(z~x+y) # چند نقطه برای استفاده برای ترسیم فاصله اطمینان # پیدا کنید و سپس از دستور پیش بینی برای بدست آوردن کرانه های # بازه اطمینان x1 = (-20:20)/10 y1 = (-20:20)/10 p = predict(fit,data.frame(x=x1,y=y1),interval='sigurt') # حالا نقاط اصلی را رسم کنید، سپس مقادیر پیش‌بینی‌شده و # کران بالا و پایین فاصله اطمینان را رسم کنید. نقاط نمودار(x,z)(x1,p[,1],col=2,type='l') points(x1,p[,2],col=3,type='l') نقاط (x1, p[,3],col=4,type='l') من سعی می کنم همین کار را با LinearModel.1 خود انجام دهم. منظورم این است که می‌خواهم نقاط اصلی را رسم کنم، سپس مقادیر پیش‌بینی‌شده و مرزهای بالایی و پایینی فاصله اطمینان را رسم کنم. من کد R را برای انجام این کار با LinearModel.1 خود دریافت نمی کنم. با تشکر از کمک شما
نمودار: خط رگرسیون مستقیم و باندهای پیش بینی
38934
من یادداشت های سخنرانی ام را نمی فهمم. بیان می کند که باقیمانده های استاندارد طبق تعریف $$R_i=\dfrac{y_i-\hat{y}_i}{\sqrt{\dfrac{1}{n-2}\sum_{i=1}^n (y_i- \hat{y}_i)^2 }}$$ می‌دانم که می‌توانم $\hat{y}$ را با روش حداقل مربعات معمولی محاسبه کنم. اما از آنجایی که $i$ را به‌عنوان زیرنویس $R$ و به عنوان شاخص جمع‌بندی استفاده می‌کنیم، نمی‌دانم که آیا اعداد واقعی $R_1،\ldots،R_n$ را تعریف می‌کند یا خیر. من با نماد $f_n=\sum_{i=1}^n$ آشنا هستم اما $f_i=\sum_{i=1}^n$ برای من جدید است. بنابراین، آیا کسی می تواند توضیح دهد که چگونه باید تعریف را بفهمم؟ اگر فقط $i=2$ را به معادله وصل کنم، می‌توانم ببینم که $R_2$ یک نماد معقول به نظر می‌رسد، اما $\sum_{2=1}^n$ چیست؟
چگونه می توان نماد پشت باقیمانده های استاندارد را درک کرد؟
96257
من در تلاش برای ایجاد یک هیستوگرام هنجاردار با استفاده از SciPy یا matplotlib (یا هر چیزی برای Python) بوده‌ام. هنگامی که من هیستوگرام خود را با گزینه normed غیرفعال ایجاد می کنم، به نظر می رسد مانند زیر (این مثال برای 10 bin است، اما همین اتفاق برای تعداد بیشتری از bin ها می افتد): (عدد اول شروع یک bin را نشان می دهد، دومی ارتفاع بن) -2.83785600931e-17 1182 5.6688145554e-15 1137 1.13660076709e-14 1031 1.70632007864e-14 950 2.27603939019e-14 912 2.84575870174e-14 802 3.414385 3.98519732484e-14 948 4.55491663639e-14 1315 5.12463594794e-14 870 که کاملاً خوب است، و آنچه من انتظار داشتم. با این حال، بعداً نیاز دارم که این هیستوگرام را با هیستوگرام دیگری تطبیق دهم و برای این منظور ترجیح می‌دهم یک نسخه نرم‌افزاری از این هیستوگرام داشته باشم تا تطبیق ارتفاع آن هیستوگرام‌ها آسان‌تر باشد. به طرز عجیبی، وقتی از گزینه «density=True» (برای نسخه «scipy.histogram») یا «normed=True» (برای نسخه «matplotlib.pyplot.plt» استفاده می‌کنم)، ارتفاع بن هیستوگرام مقادیر بسیار بزرگی مانند زیر دریافت می‌کند: -1.44880082614e-17 2.00318764844e+13 5.71138595513e-15 1.98921598219e+13 1.14372599185e-14 1.8040914044e+13 1.71631338819e-14 1.5273465 2.28890078453e-14 1.56133370332e+13 2.86148818087e-14 1.4617855813e+13 3.43407557721e-14 1.50026+1.5002e 4.00666297355e-14 1.74296536456e+13 4.57925036989e-14 2.3769297206e+13 5.15183776622e-14 1.57925036989e-14 2.3769297206e+13 5.15183776622e-14 1.57925036989e-13 5.15183776622e-14 1.50048 هنجار به معنای مجموع تا یک. آیا فکرم اشتباه است یا هیستوگرام نرمال شده خروجی اشتباه است؟
مقادیر هیستوگرام خیلی بزرگ (؟) هنگام استفاده از گزینه های هیستو نرمال در SciPy و matplotlib
6827
با توجه به جدولی شامل سه ستون، 1 2 0.05 1 3 0.04 2 3 0.001 و یک ماتریس با ابعاد تعریف شده، ماتریس <- ماتریس (NA, nrow = 3, ncol = 3) [,1] [,2] [,3] [1،] NA NA NA [2،] NA NA NA [3،] NA NA NA است آیا راهی کارآمد برای پر کردن ماتریس با ورودی های ستون سوم جدول با R، بدون نیاز به تکرار روی جدول، جداسازی شاخص ها و درج مقدار در یک حلقه for وجود دارد؟ با تشکر
روش کارآمد برای پر کردن ماتریس در R؟
113119
اگر من از واریانس یک متغیر به عنوان نماینده عدم قطعیت در یک رگرسیون استفاده کنم، برخی از مفروضات OLS برآورده نمی شوند؟ به عنوان مثال، آیا از نظر روش شناختی درست است که از میانگین متحرک بارندگی و میانگین متحرک واریانس بارندگی در یک رگرسیون استفاده کنم که متغیر وابسته تولید در سطح مزرعه است؟ من نمونه‌هایی از رگرسیون‌های حاوی واریانس یک متغیر را در X پیدا نکرده‌ام، بنابراین نمی‌دانم که آیا این به این دلیل است که برخی از مسائل مدل‌سازی در آن رویکرد وجود دارد. از کمک شما متشکرم.
در OLS آیا از نظر روش شناختی استفاده از واریانس یک متغیر به عنوان متغیر توضیحی صحیح است؟
34821
در یک مقاله اقتصادسنجی کاربردی، نویسنده مدلی را که باید به این صورت تخمین زده شود بیان می‌کند: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/1NSxJ.png) چرا نویسنده ادعا می‌کند که همجنسگرا است؟ این برای من منطقی نیست. آیا واریانس کوواریانس _population_ نمی تواند عناصری از قطر داشته باشد که اگر چیزی شبیه به متغیرهای حذف شده وجود داشته باشد، مشروط به $t$ هستند؟
بیانیه همسویی واریانس هنگام توصیف مدل OLS
96941
در زیر یک مشکل کوله پشتی است که در آن چندین گروه وجود دارد و هر آیتم متعلق به یک گروه است. هدف به حداکثر رساندن سود با توجه به محدودیت ها است. در این صورت از هر گروه فقط یک مورد به استثنای گروه خاص قابل انتخاب است. مشکل اینجاست: حداکثر کردن: $$\sum _{j=1}^{N}\sum _{j=1}^{\left | G_{i} \right |}p_{ij}x_{ij} +\sum _{j=1}^{\ چپ | G_{s} \right |}p_{sj}x_{sj}$$ موضوع: $$ \begin{align} (\sum _{i=1}^{n}\sum _{j=1}^ {\left |. G_{i} \right |}w_{ij}x_{ij} +\sum _{j=1}^{\left G_{s} | |}w_{sj}x_{sj})&\leq c \\\ \sum _{j=1}^{\ چپ | G_{i} \right |}x_{ij} &= 1 \\\ \sum _{j=1}^{\ چپ | G_{s} \right |}x_{sj} &= k \\\ x_{ij} \in \\{0,1\\}\\\ x_{sj} \\\{0,1\\ } \end{align} $$ نماد: _N_ تعداد آیتم ها _n_ تعداد گروه ها _c_ ظرفیت یک کوله پشتی _G_ = {$G_{1}،...،G_{n}$} مجموعه ای از گروه ${\left | G_{i} \right |}$ تعداد موارد در گروه $G_{i}$ ${\ چپ | G_{s} \right |}$ تعداد اقلام در گروه $G_{s}$ (گروه ویژه) $p_{ij}$ سود مورد _j_ از گروه $G_{i}$$w_{ij}$ وزن آیتم _j_ گروه $G_{i}$ $p_{sj}$ سود مورد _j_ از گروه $G_{s}$$w_{sj}$ وزن کالا _j_ از گروه $G_{s}$ _k_ محدودیت از گروه $G_{s}$ این نسبتاً آسان است. با این حال، من در توصیف وضعیتی که در آن موارد ممکن است اعضای بیش از یک گروه باشند اما فقط یک بار می توانند انتخاب شوند، مشکل دارم. به عنوان مثال، فرض کنید یک فهرست ورزشی فانتزی دارید. شما می خواهید انتخاب های خود را بر اساس امتیازات تخمینی خود بهینه کنید. اوزان دستمزد بازیکن است. فرمول ارائه شده قبلی در جایی کار می کند که بازیکن به موقعیت (مورد به گروه) در یک رابطه یک به یک باشد. اما فرض کنید یک بازیکن می تواند دو یا چند موقعیت را پر کند. سوال این است: چگونه می توان این را به عنوان یک محدودیت در بالا نوشت؟ آیا این یک مشکل کاملاً متفاوت است؟
مشکل کوله پشتی با چندین گروه که اقلام به بیش از یک گروه تعلق دارند
57632
من یک گروه درمان و یک گروه کنترل دارم. هر دو گروه از چندین تیم تشکیل شده اند که هر کدام چند نفر دارند. وقتی می‌خواهم عملکرد بین گروه‌ها را مقایسه کنم، می‌توانم یک آزمون t یا تست رتبه‌بندی Wilcoxon را روی مقادیر فردی در هر دو گروه اجرا کنم، و این خوب است. 1) با این حال، از آنجایی که آن تیم ها از نظر اندازه بسیار متفاوت هستند، «میانگین میانگین» بیشتر شبیه چیزی است که بعداً در رگرسیون های پارامتریک دریافت می کنم. با «میانگین» به این اشاره می‌کنم که ابتدا میانگین ارزش‌های فردی را در تیم بگیریم، سپس میانگین میانگین‌های تیمی را در گروه بگیریم. با $t$ تیم، $i$ فردی در گروه، سپس $$\text{mean of means}=1/T\sum_{t=1}^{T} (1/n_t \sum_{i=1) نشان دهید }^{n_{t}} x_{it}).$$ سؤال این است: آیا آزمون‌هایی وجود دارند که به من اجازه می‌دهند این فرضیه را آزمایش کنم که دو «میانگین میانگین» برابر هستند؟ 2) اگر نه، چگونه انحراف معیار میانگین میانگین را محاسبه می کنید؟ واضح است که فقط استفاده از SD تیم به معنای هدر رفتن اطلاعات است. در ویکی پدیا با انحرافات استاندارد ادغام شده مواجه شدم که در این زمینه مناسب به نظر می رسد. آیا ساختن خطاهای استاندارد بر اساس این SD های ادغام شده و استفاده از آنها برای آزمون فرضیه معتبر است؟ خیلی ممنون!
تست مقایسه «میانگین»
105643
من می خواهم سوال قبلی خود را روش های تعیین پایایی اندازه گیری ها با استفاده از انحراف مطلق میانه و میانه به روز کنم. من داده‌هایی از آزمایش‌های بیولوژیکی دارم که به این صورت است: v1 2 1.8 1.5 1.9 2.1 1.78 1.95 2.0 2.1 v2 2 100 -5.2 v3 1 -1.3 -2 2.3 v4 1 1.5 1.6 1.78 1.95 1.5 1.6 1.9 1.8 1.6 اینها بیان ژن را نشان می دهند. اکنون، من انتظار دارم که همه مقادیر هر متغیر (ژن ها) کم و بیش مشابه باشند، زیرا مقادیر اندازه گیری سریع همان ژن هستند. داشتن یک متغیر با چنین تفاوت فاحشی، مانند v2، معنی ندارد. این بدان معناست که داشتن ژنی با چنین تنوع زیادی در بیان منطقی نیست. بنابراین، باید از یک خطای روش شناختی ناشی شود. من به دنبال روشی (آزمایش احتمالی آماری) بودم که بتواند «تغییرات متوسط» را در بین نمونه‌های من شناسایی کند و به من گزارش دهد که کدام متغیرها (ژن‌ها) دارای تنوع قابل توجهی بیشتری هستند. این به این معنی است که داده‌های من برای این گونه‌ها به اندازه کافی برای تخمین بیان خوب نیستند و باید آنها را کنار بگذارم. ** _در وهله اول من واقعاً از هر پیشنهادی در آزمایشی که بتوانم برای هدفم استفاده کنم سپاسگزارم._ ** من به این فکر کردم: من برای هر ژن نسبت بین **انحراف مطلق میانه (دیوانه)** و **میانگین(دارو)**. من انتظار دارم که این نسبت توزیعی شبیه به نرمال داشته باشد، با این فرض که تغییرپذیری ناشی از خطا در اندازه گیری اتفاقی است. بنابراین، من می‌توانم تمام متغیرها (ژن) را شناسایی کنم که جیره*محکوم/دارو** به طور قابل توجهی بالاتر از توزیع متوسط ​​هستند، یا اگر بخواهید پرت مثبت هستند. برای من کاملاً شهودی به نظر می رسد، اما مطمئن نیستم که چگونه آن را به شیوه ای مناسب اجرا کنم. من واقعاً از نظرات شما در مورد روش من و همچنین پیشنهادات شما در مورد اینکه چگونه می توانم تجزیه و تحلیل را انجام دهم سپاسگزارم.
نقاط خارج از مدل رگرسیون را به طور قابل توجهی شناسایی کنید
33651
من می خواهم خوشه بندی را در مدت زمان بین معاملات سهام اندازه گیری کنم. به عنوان مثال، یک معامله در ساعت 1:59:19 رخ می دهد و معامله بعدی در ساعت 1:59:23 انجام می شود - مدت زمان بین معاملات 4 ثانیه است. من تقریباً 50000 معامله در روز برای یک سهم خاص دارم. به من گفته شد که می‌توانم مدت زمان بین معاملات را دو برابر کنم تا بتوانم خوشه‌بندی در معاملات را به دست بیاورم. آیا این درست است؟ اگر معاملات زیادی داشته باشم که همزمان اتفاق بیفتند چه؟ بنابراین، مدت زمان بین معاملات 0 ثانیه است. آیا این می تواند بر معیار خوشه بندی من تأثیر بگذارد؟
چگونه خوشه بندی را در مدت زمان اندازه گیری کنیم؟
96250
من حدود **100 مجموعه** دما ( **$N_{sample}=500$**) را مطالعه می‌کنم که به متغیرهای توضیحی 4 دلاری مانند قدرت یا سرعت بستگی دارد. وابستگی همیشه در هر مجموعه یکسان است، اما گاهی اوقات میانگین و واریانس متفاوت است. * من می خواهم ** مجموعه های مشابه را با هم گروه بندی کنم** و هر گروه را جداگانه مطالعه کنم: برای هر گروه یک مدل رگرسیون چندگانه پیدا کنید. * سپس می‌خواهم ** مجموعه‌های آینده** را که در یکی از آن گروه‌ها کشف خواهم کرد، طبقه‌بندی کنم. نمی‌دانم به خوشه‌بندی یا تشخیص الگو مربوط می‌شود یا شاید چیز دیگری. اما من هیچ ایده ای از نحوه طبقه بندی/مقایسه مجموعه های خود ندارم، به جز مقایسه میانگین و واریانس یک به یک. آیا کسی توصیه یا پیشنهادی دارد؟ در اینجا یک مثال از 3 مجموعه آورده شده است: ![دما در مقابل قدرت](http://i.stack.imgur.com/WaOzk.jpg) ![دما در مقابل سرعت](http://i.stack.imgur.com/ mF5ub.jpg) از کمکتان متشکریم.
مقایسه مجموعه داده های نزدیک
34829
من یک شبکه عصبی را برای داده‌های مثالی که به صورت آنلاین پیدا کردم، تطبیق می‌دهم: مخزن یادگیری ماشینی من 1 تا 10 واحد پنهان (فقط در 1 لایه) را اعتبارسنجی متقابل می‌کنم و حداقل خطا را با 10 واحد پنهان دارم. با این حال، من به نوعی به ماتریس های طراحی وابسته خطی فکر می کنم که 10 واحد پنهان را برای تنها 3 متغیر ورودی (سطح قرمز، سبز و آبی) معرفی می کنم. آیا این نگرانی موجه است یا می توانم فقط از 10 واحد پنهان در اینجا استفاده کنم؟ شاید تبدیل (سیگموئید) کاری برای جلوگیری از وابستگی خطی انجام دهد؟
در یک شبکه عصبی با N متغیر، آیا >N واحد پنهان بی فایده است؟
107738
آیا کسی می تواند توضیح ساده ای در مورد نحوه عملکرد آنالیز بیان ژن دیفرانسیل به من بدهد؟ من می دانم که این روش در [1] توضیح داده شده است و در بسته R بسته limma استفاده می شود. [1] اسمیت، گوردون کی. مدل های خطی و روش های بیز تجربی برای ارزیابی بیان دیفرانسیل در آزمایش های ریزآرایه. کاربردهای آماری در ژنتیک و زیست شناسی مولکولی 3.1 (2004). متشکرم
درک تحلیل بیان دیفرانسیل در آزمایشات ریزآرایه
34824
من در حال طراحی یک آزمایش هستم و به کمک نیاز دارم. دو ویدیو در یک وب سایت به شرکت کنندگان ارائه می شود. در یک دوره، یک ویژگی (جدول مطالب برای ویدیو) فعال است، در حالی که در دوره دیگر این ویژگی غیرفعال است. بار شناختی (DV) در هر دو ویدیو اندازه گیری می شود. من می دانم که متعادل کردن ترتیب درمان ها معقول است. با این حال، از آنجایی که شرکت‌کننده باید دو ویدیو را تماشا کند، ترتیب ویدیو نیز باید متعادل شود (حتی اگر مورد علاقه نباشد). بنابراین من به 4 گروه برای نمایش همه این ترکیب ها نیاز دارم: F=Feature N=No Feature V1=Video 1 V2=Video 2 Group Period 1 Period 2 1 F&v1 N&v2 2 N&v1 F&v2 3 F&v2 N&v1 4 N&v2 F&v1. (بخش آخر) می توانم از دو متغیر موضوعی ترتیب استفاده کنم و ترکیب برای نشان دادن جدول ترکیبات گروه بالا. بنابراین داده‌های من به این شکل است: سفارش ترکیبی cogload1 cogload2 1 1 5.00 3.00 2 1 4.00 6.00 1 2 5.00 7.00 2 2 8.00 5.00 اینجا جایی است که گیر می‌کنم. با توجه به اینکه اکنون ویژگی/ویدیو به ترتیب/ترکیب کدگذاری شده‌اند، چگونه می‌توانم تأثیر اصلی ویژگی یا تعامل بین ویژگی و ویدیو را تعیین کنم؟ همچنین، من هنوز با مدل سازی خطی کلی، تعاملات و تفسیر نتایج از SPSS آشنا می شوم. آیا کسی منبعی دارد که بتواند توصیه کند؟
تجزیه و تحلیل طراحی مدل های ترکیبی متعادل؟
34826
بسیاری از مقالات در اقتصاد سنجی کاربردی، نمایه سازی یک مدل OLS مقطعی را به صورت $i = 1،...N$ ارائه می کنند. به عنوان مثال: $(1) Y_i = a + b X_i + e_i$ $E[e_i] = 0$ $i = 1,...,N$. آیا ارائه آن به صورت زیر اشکالی ندارد؟ $(1) Y_i = a + b X_i + e_i$ $E[e_i] = 0 $ $i \ در \\{1,...,N\\}$. شاید محققین اولی را انجام دهند زیرا دومی لزومی ندارد که $(1)$ $\forall i$ تخمین زده شود (فقط $i$ عضوی از مجموعه $\\{1,...,N\\ است. }$ و $\\{i\\}$ می‌توانند زیر مجموعه مناسبی از $\\{1,...,N\\}$ باشند). می خواهید بهترین تمرین را بدانید. با تشکر
ارائه نمایه سازی یک مدل مقطعی ($i = 1،...،N$)
107730
هنگام استفاده از تابع ترکیبی از بسته hts بسیار مفید راب هیندمن برای پیش‌بینی سری‌های زمانی سلسله مراتبی و گروه‌بندی‌شده، به نظر نمی‌رسد راهی برای محدود کردن پیش‌بینی‌های ترکیبی بهینه برای مثبت بودن وجود داشته باشد - پیش‌بینی‌های شروع می‌توانند مثبت باشند، اما می‌توانند منفی باشند. فرآیند آشتی توابع forecast.gts و forecast.hts آرگومانی برای مثبت نگه داشتن پیش بینی ها دارند، اما به نظر نمی رسد این گزینه در هنگام استفاده از ترکیب به تنهایی با پیش بینی های به دست آمده با روش های دیگر باشد. آیا در این درک درست هستم و اگر چنین است راه حل مناسبی وجود دارد؟
ترکیبی در بسته R HTS - محدودیت برای مثبت نگه داشتن پیش بینی ها؟
18274
من چندین ماه با این سوال مبارزه کردم و این وب سایت را پیدا کردم که شگفت انگیز است. یک لیگ فرضی متشکل از بازیکنانی را تصور کنید که در یک مسابقه ساده به رقابت می پردازند که هدف هر مسابقه کسب امتیاز بیشتر از حریف است. استراتژی‌های بازیکن ساده هستند و در محدوده‌ای از تمرکز بر گلزنی، تمرکز بر جلوگیری از گلزنی حریف تا هر نقطه‌ای در این بین وجود دارند. فرض کنید بازیکنان در طول زمان به یک استراتژی خاص پایبند هستند. برای هر بازیکن در هر مسابقه، ما تعداد امتیازهای کسب شده و تعداد امتیازات مجاز را می دانیم. چالش ارزیابی نحوه عملکرد یک بازیکن در یک مسابقه خاص است. بدیهی است که تعداد امتیازهای به دست آمده توسط بازیکن کافی نخواهد بود زیرا با استراتژی حریف صحبت نمی کند (به عنوان مثال، حریفی که استراتژی متمرکز بر امتیازدهی دارد به هر بازیکن امتیاز بیشتری می دهد). من روشی را اندیشیده ام، و به دنبال بازخورد از همه اینجا هستم، به خصوص اگر این رویکرد نامی داشته باشد یا (همانطور که معمولاً اتفاق می افتد) به گونه ای دیگر فکر شده باشد. دارای سه ورودی است: * تعداد امتیازهایی که بازیکن در مسابقه کسب کرده است * میانگین امتیازاتی که همه بازیکنان در تمام مسابقات لیگ کسب کرده اند * میانگین امتیازهایی که حریف در تمام مسابقات قبلی خود مجاز کرده است، اما نه در این مسابقه. فرمول ساده به نظر می رسد: AdjPointsScored = NumPointsScored – (MeanOppPointsAllowedToDate – MeanLeaguePtsScored) که اساساً عملکرد بازیکن را به صورت +/- بیان می کند که ممکن است از یک بازیکن معمولی که در مقابل این حریف بازی می کند انتظار گلزنی داشته باشد. همچنین نمی‌دانم که آیا ممکن است دقیق‌تر باشد که NumPointsScored و MeanOppPointsAllowedToDate را به‌عنوان امتیاز Z بر اساس توزیع MeanLeaguePtsScored بیان کنیم، امتیازهای z را کم کنیم و سپس نتیجه را به واحدهای MeanLeaguePtsScored تبدیل کنیم، اما مطمئن نیستم که آیا که تجزیه و تحلیل را بهبود می بخشد یا چیزها را بیهوده پیچیده می کند. بسیار Abridged.
تنظیم عملکرد بر اساس سطح مهارت حریف در یک مسابقه ساده
33650
من در هر بازه زمانی 5 دقیقه ای هر روز معاملاتی برای بیش از 2 سال برای 40 سهم بازده سهام دارم. من می‌خواهم یک رگرسیون Fama-Macbeth بر اساس بازه زمانی (فاصله‌های 5 دقیقه) اجرا کنم و سپس همبستگی خطاهای استاندارد را با استفاده از Newey-West در SAS تصحیح کنم. این کد من است: ods listing close; ods output parameterestimates=pe; proc reg data=dset; بر اساس زمان_فاصله مدل depvar = indvars; اجرا؛ ترک کردن فهرست شانس؛ proc به معنی داده=pe mean std t probt; برآورد var; متغیر کلاس؛ اجرا؛ proc sort data=pe; توسط متغیر؛ اجرا؛ %let lags=1000; ods output parameterestimates=nw; بسته شدن فهرست شانس proc model data=pe; توسط متغیر؛ ابزار / intonly; برآورد=a; برآورد مناسب / هسته gmm=(bart,%eval(&lags+1),0); اجرا؛ ترک کردن فهرست شانس؛ همانطور که ممکن است حدس زده باشید، این از نظر محاسباتی بسیار فشرده است. هیچ نتیجه ای نمیتونم بگیرم آیا باید به جای بازه زمانی، رگرسیون فاما-مکبث را بر اساس سهام اجرا کنم؟ آیا من همان چیزی را دریافت خواهم کرد؟ آیا به این دلیل است که من از لیست های ods استفاده می کنم؟
سری زمانی: تصحیح خطاهای استاندارد در مجموعه داده های سری زمانی پانل عظیم
113110
من از RapidMiner برای ساختن مدل‌های پیش‌بینی آموزش‌دیده و تایید شده توسط مجموعه‌ای از داده‌های پزشکی استفاده می‌کنم (65 مورد. 18 ویژگی)، اکنون آزمایش‌هایی را با استفاده از ترکیب‌های مختلف یادگیرندگان و پارامترها اجرا می‌کنم، از این طریق امیدوارم ویژگی‌ها را کشف کنم. از اپراتورها و نحوه کار آنها، همچنین ببینید که چگونه می توانند با مجموعه داده من مطابقت داشته باشند تا مدل های بهتری ایجاد کنند. من می دانم که صرفاً ضبط AUC برای هر موقعیت کافی نیست زیرا مسئله بیش از حد مناسب است. بنابراین، در نتایج، چگونه می توانم اضافه برازش را در زمان وقوع آن ببینم، یا چه اعدادی را باید در یادداشت های آزمایشی برای تجزیه و تحلیل بیشتر اضافه برازش یادداشت کنم؟ من می دانم که مجموعه داده من به نوعی کوچک است، من در حال انجام یک پروژه تحقیقاتی کوتاه مدت هستم، بنابراین این تنها چیزی است که در دست دارم. واقعاً نمی‌دانم وقتی حتی نمی‌توانم نتایج اعتبارسنجی خودم را باور کنم، چیز معنی‌داری ظاهر می‌شود یا خیر. هر گونه پیشنهاد در مورد روش تشخیص بیش از حد برازش یا هر قدم دیگری که می توانم برای تحقیق در مورد این مجموعه داده بردارم استقبال می شود. من در این زمینه بسیار جدید هستم، بنابراین هر چیزی می تواند مفید باشد. متشکرم.
چگونه یک مدل آموزش دیده را با استفاده از پارامترهایی غیر از AUC در RapidMiner ارزیابی کنیم؟
18276
من یک کار انجام تجزیه و تحلیل داده ها در امور مالی دارم. شغل فعلی من به گونه ای است که در معرض اتفاقاتی که در بقیه صنعت یا سایر صنایع رخ می دهد، ندارم. من اطلاعات کافی در مورد آمار بیزی دارم. من می‌خواهم خود را قابل فروش نگه دارم، بنابراین کنجکاو هستم که در حال حاضر چه اطلاعاتی و مهارت‌های آماری تقاضای زیادی دارند و کجا هستند. دنیای نرم افزار مملو از داده است، بنابراین من انتظار دارم که آنها به شدت به آماردانان نیاز داشته باشند، اما تصور من این است که آنها تقاضای زیادی ندارند. یکی از دوستان من پیشنهاد کرده است که صنعت نرم افزار در درجه اول به مهارت های داده های بزرگ نیاز دارد، نه مهارت های آماری فی نفسه. چه داده ها و مهارت های آماری در حال حاضر تقاضای بالایی دارند و در کجا تقاضای بالایی دارند؟
چه داده ها و مهارت های آماری در حال حاضر تقاضای بالایی دارند و در کجا تقاضای بالایی دارند؟
68568
من سعی می کنم بفهمم چگونه می توان اقلامی را در بازاری که به نظر می رسد به طور تصادفی اما در محدوده خاصی حرکت می کند، قیمت گذاری کرد. به عنوان مثال، در اینجا نگاهی کوتاه به داده های سری زمانی داریم: DateTime Price Volume 2013-08-27 00:00:00 1.9299999476 4 2013-08-27 01:00:00 1.6849999428 2 2027:2013 00 1.7024297714 2 2013-08-27 03:00:00 1.2264721394 2 2013-08-27 04:00:00 1.75 7 2013-08-27 05:00:00 2013-08-27 05:00:00 05:00:00 06:00:00 1.9299999476 3 2013-08-27 07:00:00 1.75 5 2013-08-27 08:00:00 1.7000000477 5 2013-08-2013: 08-08-2013 1.8600000143 4 2013-08-27 10:00:00 1.8236290216 2 2013-08-27 11:00:00 1.8600000143 7 2013-08-2018: 2013-08-2706 6 2013-08-27 13:00:00 1.9107458592 2 2013-08-27 14:00:00 1.9414916039 6 2013-08-27 15:00:00 15:00:00 1.4204-08-27 1.4204 16:00:00 1.8037977219 6 2013-08-27 17:00:00 1.871355176 4 2013-08-27 18:00:00 1.727257967 5: 2001-5: 2013 1.6200000048 5 2013-08-27 20:00:00 1.8400000334 9 2013-08-27 21:00:00 1.8099999428 1 2013-08-08-270 1 2013-08-08-2013: 10 2013-08-27 23:00:00 1.7849999666 2 2013-08-28 00:00:00 1.8500000238 2 2013-08-28 01:00:00 01:00:00 01919191919. 2013-08-28 03:00:00 1.9900000095 7 2013-08-28 04:00:00 1.8511325121 3 2013-08-28 05:00:00 1.8920069-05-00 06:00:00 1.8419520855 4 2013-08-28 08:00:00 1.7999999523 1 2013-08-28 09:00:00 1.95500000429: 802-800429: 1.9500000477 5 2013-08-28 11:00:00 1.9510477781 4 2013-08-28 12:00:00 1.9403985739 2 2013-08-08-2013: 2013-08-2005: 2013-08-28 14:00:00 1.8400759697 6 بنابراین فرض کنید من یکی از این موارد را با قیمت 1.50 خریداری می کنم. سوال این است: با چه قیمت فروش می توانم سود را به حداکثر برسانم؟ همچنین، چگونه می توانم برای هر حرکت چرخه ای قیمت حساب کنم؟ (به عنوان یک نکته، من تا حدودی با R و Rapidminer آشنا هستم)
قیمت فروش بهینه یک کالا بر اساس داده‌های قیمت/حجم تاریخی آن چقدر است؟
31654
من سعی می کنم به دنبال الگوهای ساده در داده های آب و هوا بگردم. در اینجا یک نسخه ساده شده از چیزی است که من با آن کار می کنم. روز <- c(4، 5، 6، 8) دما <- c(97، 100، 98، 80) رطوبت <- c(62، 46، 50، 55) فرض کنید می‌خواستم دمای روز 7 را پیش‌بینی کنم و روز 9 (هیچکدام ذکر نشده اند) با استفاده از عوامل زیر. از کدام دستور R برای این کار استفاده کنم؟ من می دانم چگونه با استفاده از 2 متغیر پیش بینی کنم. _(به روز شده با استفاده از پاسخ گرگ اسنو)_ fit <- lm(temp ~ day) newdat <- data.frame( day=c(7,9) ) predict(fit, newdat) اما چگونه می توانم از بیش از 2 استفاده کنم ? کمک شما بسیار قدردانی خواهد شد.
تحلیل رگرسیون چند متغیره پایه با R
30309
من مشکل زیر را دارم: من زیر مجموعه ای از سلول ها را از بافتی در مگس سرکه در روزهای مختلف پس از تولد می شمارم. در روز 0 من جمعیتی از مگس ها را به دست می آورم و در هر نقطه زمانی تعدادی از این مگس ها را تشریح می کنم (یعنی من در روز 0 جمعیت 30 مگس دارم. 3 مورد از آنها را فوراً، 3 مورد دیگر را بعد از 1 روز، 3 مگس دیگر را بعد از 3 تشریح می کنم. روز، و به همین ترتیب تا 15 روز پس از تولد). برای به دست آوردن این نتایج، من باید مگس را تشریح کنم (در نتیجه می‌کشم)، بنابراین نمی‌توانم تفاوت‌ها را در یک مگس منفرد در حال تغییر زمان اضافه ارزیابی کنم، اما می‌توانم تفاوت‌ها را در کل جمعیت ارزیابی کنم. چیزی که به دست می‌آورم یک عدد n در حدود 50 برای هر نقطه زمانی است. من فقط می توانم میانگین هر نقطه زمانی را روی نمودار رسم کنم و تغییرات اضافه وقت را به این ترتیب نشان دهم. من از خطای استاندارد میانگین برای ایجاد نوارهای خطا استفاده می کنم. مشکل من این است که باید این داده ها را نه به عنوان داده خام، بلکه به صورت نسبت در روز اول نشان دهم تا کاهش تعداد سلول ها را بهتر نشان دهم. برای انجام این کار، من داده‌هایم را به صورت نسبت درصدی در روز 0 [(Day1Mean/Day0Mean)*100] نشان می‌دهم. برای روشن تر کردن: میانگین روز 0: 5 میانگین روز1: 4 میانگین روز3: 3.5 میانگین روز6: 3.5 میانگین روز9: 3 روز12 میانگین: 2.5 میانگین روز15: 2 به جای ایجاد نمودار پراکندگی با آن داده ها (که میانگین داده ها هستند تعداد سلول هایی که شمردم) می خواهم آنها را به این شکل نشان دهم: روز0: (روز0/روز0)*100 = 100% روز 1: (روز1/روز0)*100 = 80% روز3: (روز3/روز0)*100 = 70% روز6: (روز6/روز0)*100 = 70% روز نهم: (روز9/روز0)*100 = 60 % روز12: (روز12/روز0)*100 = 50% روز15: (Day15/Day0)*100 = 40% اکنون مشکل من این است: اگر از داده های خام استفاده می کنم، می توانم آنها را رسم کنم و از خطای استاندارد محاسبه شده بر روی میانگین استفاده کنم. من نمی توانم از خطای استاندارد با راه اندازی نوع دوم استفاده کنم زیرا شماره من کاملاً متفاوت است. اگر ممکن بود، دوست داشتم خطای استاندارد را به تجسم جدید تبدیل کنم. من فکر کردم که می تواند با نوعی تبدیل ریاضی امکان پذیر باشد، به روشی مشابه که در این سند گزارش شده است: http://www.census.gov/acs/www/Downloads/data_documentation/Accuracy/PercChg.pdf با تشکر فراوان از شما کمک کند
چگونه خطای نسبت درصد را محاسبه کنیم؟
15084
روش مناسب برای نوشتن نتیجه پس از توکی چیست؟ چندین مثال با نتایج متفاوت وجود دارد؟ بگویید شمال، جنوب، شرق و غرب دارید. North N=50 Mean=2.45 SD=3.9 std error=.577 LB=1.29 UB=3.62 South N=40 Mean=2.54 SD=3.8 std error=.576 LB=1.29 UB=3.63 East N=55 Mean=3.45 SD =3.7 std error=.575 LB=1.29 UB=3.64 غرب N=45 Mean=3.54 SD=3.6 std error=.574 LB=1.29 UB=3.65 شمال از نظر آماری با شرق (sig=.009) و غرب (sig= 0.040) معنادار است، اما نه جنوب (sig= .450). شرق از نظر آماری با جنوب معنادار است (0.049).
چگونه یافته‌های پس‌هک توکی را می‌نویسید؟
59900
من یک پیرسون r برای متغیرهای یکسان برای 4 دوره زمانی مختلف دارم. (4 سال مختلف). چگونه می توانم r پیرسون را برای همه آنها با هم پیدا کنم؟ در اینجا سال ها و ضرایب مربوطه آمده است: `1969: -.169، 1975: 0.427، 1982: 0.308، 2006: 0.632`. **آیا می توانم اینها را به ضریب r کلی پیرسون معدل کنم؟**
پیرسون r در طول زمان
18275
من باید باندهای اطمینان و پیش بینی را برای یک رگرسیون خطی محاسبه کنم که به شکل کلی $y=ax$ است، که در آن $a$ ضریب و $x$ متغیر است. من کدی را در http://demonstrations.wolfram.com/ConfidenceAndPredictionBands/ پیدا کردم، اگرچه باندهای اطمینان و پیش بینی $y=ax+b$ را می دهد که خارج از علاقه من است. * * * این کدی است که من بر اساس پاسخ @shabbychef نوشتم. آیا درست است؟ bands[list_, x_, type_, gamma_] := Module[{a, nlm, z, xs, ys, alphahat, betahat, sigmahat2, n, xbar, multiplier}, xs = list[[All, 1]]; ys = لیست[[همه، 2]]; alphahat = Mean[ys]; nlm = NonlinearModelFit[list, a z, {a}, z, ConfidenceLevel -> 1 - gamma]; betahat = a /. nlm[BestFitParameters]; n = طول[لیست]; xbar = Mean[xs]; sigmahat2 = nlm[Estimated Variance]; ضرب کننده = اگر[نوع == 1، Sqrt[n*sigmahat2/(n - 2)*(1/n + (x - xbar)^2/ Plus @@ ((xs - xbar)^2))]، Sqrt [n*sigmahat2/(n - 2)*(1 + 1/n + (x - xbar)^2/ Plus @@ ((xs - xbar)^2))]]; {betahat*(x)، betahat*(x) - ضریب*Quantile[StudentTDistribution[n - 2], 1 - gamma/2], betahat*(x) + multiplier*Quantile[StudentTDistribution[n - 2], 1 - گاما/2]} ]
چگونه می توان باندهای اطمینان و پیش بینی برای رگرسیون خطی را با استفاده از Mathematica محاسبه کرد؟
73368
فرض کنید من یک توزیع کلی دارم که می توان آن را با 100 پارامتر $a_1,...,a_{100}$ مشخص کرد. حال، اجازه دهید بگوییم که در این خانواده از توزیع‌ها، یک زیرخانواده وجود دارد که می‌توان آن را تنها با چند پارامتر نشان داد، که محدودیت‌هایی را بر پارامترهای اصلی تحمیل می‌کند. یک مثال بی اهمیت این است که $a_1=...=a_{100}$، به این معنی که می‌توانیم توزیع را با یک پارامتر واحد نمایش دهیم. می خواهم بدانم آیا نامی برای این فرآیند وجود دارد و آیا نامی برای مجموعه پارامترهای کاهش یافته جدید وجود دارد. به نظر می رسد چیزی مانند _meta-parameterization_ و _meta-parameter_ ممکن است مناسب باشد، اما من چیزی در مورد این موضوع پیدا نکردم.
آیا اصطلاحی برای کاهش تعداد پارامترهای یک توزیع به روش زیر وجود دارد؟
109946
من چند تحلیل تعدیل را با استفاده از رگرسیون چندگانه سلسله مراتبی اجرا می کنم. همه متغیرهای من ترکیبی از نسخه‌های والد و فرزند هر مقیاس هستند. من کامپوزیت ها را با اضافه کردن امتیازهای z از هر مقیاس با هم ایجاد کردم. من فکر می‌کنم این یک مشکل است، زیرا وقتی عبارت تعامل را با ضرب نمرات IV و Moderator ایجاد می‌کنم، وقتی مقادیر منفی با هم ضرب می‌شوند به یک مسئله بزرگ تبدیل می‌شوند. هیچ کدام از کتاب های درسی کمک زیادی به این موضوع نمی کنند، کسی نظری دارد؟ پیشاپیش متشکرم، الیوت
چگونه اعتدال را با استفاده از متغیرهای ترکیبی انجام دهم؟
30301
من در حال آزمایش کشت سلولی هستم. من سلول ها را در یک محیط کنترل به مدت 2 هفته رشد می دهم. در این 2 هفته سلول ها آنتی بادی تولید می کنند و در پایان 2 هفته سطح آنتی بادی را اندازه گیری می کنم. من همچنین رشد سلولی (تعداد سلول های زنده) را اندازه گیری می کنم. مشکل این است که چون یک سیستم زنده بیولوژیکی است، اگر آزمایش را 5 بار انجام دهم (دقیقاً به همان روشی که در بالا توضیح داده شد)، اعداد قابل ملاحظه ای برای رشد سلولی و تولید آنتی بادی خواهم داشت. به عنوان مثال، در 5 آزمایش رشد سلولی را پیدا کردم: 46، 59، 50، 77 و 74، و تولید آنتی بادی: 2558، 3089، 3498، 2115 و 1958. بسته به نمونه آزمایشی من، این تغییرات حتی می تواند بیشتر باشد. آیا کسی می تواند پیشنهاد دهد که چگونه می توانم این نوع تنوع بین تجربی را اصلاح کنم. با تشکر
چگونه می توان تغییرات بین تجربی در تحقیقات کشت سلولی را تصحیح کرد؟
107734
فرض کنید بردار $p$-بعدی $x$ یک توزیع Fisher-Von Mises با پارامترهای $\kappa، \mu$، و $M$ را می گیرد-Wishart معکوس با $n$ درجه آزادی و پارامتر ماتریسی $I_p$، ماتریس هویت $p\times p$، با $x$ و $M$ مستقل. آیا این چنین است که $Mx$، پیش بینی شده به کره، توزیع فیشر-فون میزس را می گیرد؟ _related_: چه تحولاتی توزیع فون میزس را حفظ می کند؟
توزیع معکوس ویشارت بار فیشر-فون میزس چگونه است؟
33656
اجازه دهید توزیع X$$U(0,1)$ باشد. فرض کنید U طول کوتاه‌تر بازه‌های $(0,X)$ و $(X,1)$ باشد. یعنی $Z=min(X,1-X)$ و اجازه دهید $Y=1-Z$ طول قسمت بزرگتر باشد. نشان دهید که برای $t>1$، $P[\frac{Y}{Z}\leq t]=\frac{t-1}{t+1}$;پی دی اف $Y/Z$ را بیابید. من نمی توانم تابع توزیع را پیدا کنم. می توانم PDF $Y/Z$ را پیدا کنم. لطفاً به من کمک کنید تا $P[\frac{Y}{Z}\leq t]=\frac{t-1}{t+1}$ را پیدا کنم
نشان دهید که برای $t>1$، $P[\frac{Y}{Z}\leq t]=\frac{t-1}{t+1}$
109827
متغیر $y$ را در نظر بگیرید (معمولا $y_i$ چیزی شبیه _number of ساکنان شهر $i$_ است) و برخی ویژگی های داده شده $X$ را در نظر بگیرید. فرض کنید این ویژگی‌ها پیوسته هستند (مثلاً مساحت کل شهر، تعداد مغازه‌ها، جاده‌ها). ما می خواهیم از ویژگی های $X$ برای توضیح $y$ استفاده کنیم. اگرچه متغیر $y$ به طور طبیعی باید به عنوان یک متغیر پیوسته دیده شود، اما در مجموعه آموزشی من به پنج کلاس گسسته شده است: $0 \leq y < 300$، سپس $300 \leq y < 1.000$ و غیره. بنابراین، حتی برای مجموعه آموزشی من، مقدار پیوسته $y$ را نمی دانم، فقط کلاس گسسته $C(y)$ را می دانم. من باید از این داده های آموزشی برای پیش بینی $C(y)$ برای سایر شهرها (یعنی شهرهایی که بخشی از مجموعه آموزشی من نیستند) استفاده کنم. لطفاً توجه داشته باشید که من فقط می‌خواهم پیش‌بینی کنم که هر شهر دیگری به کدام طبقه گسسته تعلق دارد (من به دنبال پیش‌بینی دقیق $y$ نیستم). من سرگردان هستم که چه رویکردی از لحاظ نظری رضایت بخش برای این نوع مشکل می تواند باشد. آیا باید با این مشکل به عنوان یک مشکل طبقه بندی رفتار کنم، حتی اگر یک متغیر پیوسته پنهان زیرین وجود داشته باشد؟ آیا می توانم نقاط داده مرزی را شناسایی کنم و به آنها وزن کمتری بدهم؟ آیا باید $C(y)$ را با استفاده از وسط کلاس به عنوان تخمین به یک متغیر پیوسته تبدیل کنم؟ ** من از هر ایده یا مرجعی در این زمینه قدردانی می کنم. با تشکر از همه.**
چه مدلی برای طبقه بندی متغیر پیوسته گسسته
59906
من نمی توانم هیچ بسته ای را پیدا کنم که به من اجازه دهد bolasso را در R پیاده سازی کنم، آیا کسی یکی از آنها را می شناسد؟ در غیر این صورت، من علاقه مند به تکنیک های انتخاب مدل هستم که می تواند در R برای مدل های لجستیک پیاده سازی شود. تنها نگرانی من توانایی پیش بینی است. داده‌ها متغیرهای کمکی (یا ویژگی‌های) زیادی دارند و من می‌خواهم تعاملات سطح 3 یا حتی 4 و شرایط مرتبه دوم را بررسی کنم، این چندین هزار متغیر کمکی است (~200k مشاهده وجود دارد) بنابراین مهم است که تکنیک‌ها سریع باشند.
Bolasso in R یا سایر تکنیک های انتخاب مدل برای مدل های پارامتریک
18279
با استفاده از یک فرآیند دو مرحله‌ای RJMCMC، بردار لگاریتم‌های خلفی مربوط به هر مدل را بدست می‌آورم. هدف من تبدیل این موارد به احتمالات پس از عادی سازی (برای استفاده در مرحله دوم فرآیند RJMCMC) است. مشکل این است که قسمت‌های عقب سیاهه بزرگ هستند (مثلاً 1100). برای تبدیل به احتمالات (نه در مقیاس log) می خواهم این کار را انجام دهم: exp(log.post)/sum(exp(log.post)) اما به دلیل مقادیر زیاد log posterior این امکان پذیر نیست. پیشنهادی در مورد نحوه تبدیل کردنم دارید؟ من احتمالات را در مقیاس اصلی می خواهم، نه در مقیاس ثبت.
پستی های لاگ را به عقبی اصلی تبدیل کنید
114026
من می خواهم روند طبقه بندی داده های توییت را از شما بپرسم. اکنون، من روی داده‌های توییتر کار می‌کنم، اما نحوه طبقه‌بندی داده‌های توییت با استفاده از ابزار Mallet را گیج کرده‌ام. مثال؛ من 200000 توییت دارم. محتوای توییت های مربوط به شرکت اپل. من می خواهم توییت ها را به دو دسته مثبت کاذب و مثبت طبقه بندی کنم. مثبت کاذب:(مربوط به شرکت اپل نیست) فیش اند چیپس خوب.. پای سیب خوب :-) مدتی است که دایی مک را ندیده ام مثبت (مربوط به شرکت) @Apple لطفا یک #ایموجی از ماهی مرکب درست کنید تا بتوانم آن را قرار دهم در کنار نام @squidneyy22 شاید #اپل فردا #iTunes11 را منتشر کند. شاید؟ آیا امکان استفاده از ابزار Mallet وجود دارد؟ چگونه می توانم انجام دهم؟ خیلی ممنون
درخواست طبقه بندی توییت
112795
من در مورد برخی منابع آنلاین خوب برای یادگیری نحوه پیاده سازی تکنیک های آماری فضایی، مانند Moran's I و Geary's C، یا حتی K Nearest Neighbors، تعجب می کنم ... هر گونه کمکی قابل تقدیر است. با تشکر
منابع آنلاین برای تحلیل فضایی
112790
من یک پیش‌بینی‌کننده طبقه‌بندی (درآمد) و سه پیش‌بینی‌کننده پیوسته (مساحت، تعداد اتاق‌های تخت و تعداد ماشین‌ها) دارم. چگونه می توانم یک عامل واحد از این متغیرها تشکیل دهم؟ به عبارت دیگر، من می خواهم همه این متغیرها را با هم ترکیب کنم تا یک متغیر واحد به دست آید.
ترکیب متغیرهای طبقه ای و پیوسته برای محاسبه یک عامل
18270
من می خواهم پرتکرارترین کلمات را در مواردی پیدا کنم که برخی از کلمات برجسته شوند. من برای هر مورد دو داده دارم، کلمه و تعداد دفعاتی که ظاهر می شود. می‌خواهم بدانم از کدام الگوریتم‌ها، تکنیک‌ها می‌توان برای یافتن بیشترین داده‌ها استفاده کرد. در حال حاضر، من از حذف برای عادی سازی داده ها (میانگین + انحراف استاندارد * 3) استفاده می کنم، اما فکر می کنم تکنیک های دیگری وجود دارد. چه چیزی می توانم استفاده کنم؟ **ویرایش:** من می‌دانم چه می‌خواهم، اما نمی‌دانم چه چیزی ممکن است، زیرا اطلاعات زیادی در مورد بخش آمار ندارم. من یک چارچوب داده در R دارم که حاوی کلمات و تعداد دفعاتی است که هر کلمه ظاهر می شود. این داده ها از یک پایگاه داده بزرگ (میلیون ردیف) دریافت می شود. چیزی که من می خواهم پیدا کنم کلماتی است که **بسیار متداول** نسبت به سایرین است. به عنوان مثال، من فهرستی از کلمات متداول دارم که بعد از کاما آمده اند. من می‌خواهم کلماتی را که واقعاً رایج هستند از کلماتی که فقط به دلیل وجود داده‌های زیاد ظاهر می‌شوند، متمایز کنم. **نشان دهنده الگوریتم ها/فرمول های فرکانس چیزی است که می خواهم** (من یک توسعه دهنده نرم افزار هستم، نه یک آمارگیر، نام های مناسب را نمی دانم).
الگوریتم هایی برای یافتن داده های رایج
33652
فاصله واحد (0، 1) با انتخاب یک نقطه به طور تصادفی از داخل بازه به دو بازه فرعی تقسیم می شود. نشان دادن طول بازه‌های فرعی طولانی‌تر و کوتاه‌تر با Y و Z نشان می‌دهد که Y/Z انتظار محدودی ندارد. فرض کنید X~U(0,1) و U طول کوتاهتر بازه های (0,X) و (X,1) باشد. یعنی Z=$min$(X,1-X) و بگذارید Y=1-U.پس، Y و Z به ترتیب طول بازه‌های فرعی بلندتر و کوتاه‌تر باشند، سپس برای پیدا کردن Expectation باید P.D.F را پیدا کنم. بله، اما من نمی توانم این کار را انجام دهم. لطفا کمک کنید.
نشان دهید که Y/Z انتظارات محدودی ندارد
47417
آیا اجرای کارآمدتر هستند -- این تفاوت از نظر عملی مهم است، بسته R وجود دارد که آنها را پیاده سازی می کند. آیا الگوریتم جدیدی است که بر اجرای عمومی (بسته RandomForest از R) نه تنها از نظر کارایی یا در برخی زمینه های دیگر غلبه می کند؟ جنگل تصادفی شدید http://link.springer.com/article/10.1007%2Fs10994-006-6226-1
جنگل تصادفی شدید چه تفاوتی با جنگل تصادفی دارد؟
47416
ما می دانیم که برآورد کردن مدلی که شامل عوامل MA است آسان نیست، زیرا مقادیر گذشته خطاها به صورت بازگشتی محاسبه می شوند. و این تخمین بازگشتی به برآوردهای اولیه (اولیه) پارامترها نیاز دارد. برای مثال، یک ARMA(1,2) $$z_t=\phi z_{t-1}-\theta_1 \varepsilon_{t-1}-\theta_2 \varepsilon_{t-2}+\varepsilon_t$$ برای تخمین پارامترها، ابتدا باید مقادیر $\varepsilon_{t-1}$ و $\varepsilon_{t-2}$ را محاسبه کنیم، چون اینها هنوز در دسترس نیستند و آنها با استفاده از $$\varepsilon_t=z_t-\phi z_{t-1}+\theta_1 \varepsilon_{t-1}+\theta_2 \varepsilon_{t-2}$$ محاسبه می شوند. در Box and Jenkins، سری زمانی: پیش بینی و کنترل موجود است. و این تخمین در حال حاضر در بسیاری از نرم افزارهای آماری موجود است. سوال من این است که آیا تابعی برای به دست آوردن یک تخمین اولیه از پارامترها در R وجود دارد؟ من به این نیاز دارم تا یک تخمین اولیه برای Space-Time ARIMA به دست بیاورم. سوال دیگر این است که عملکرد arima از R چگونه تخمین های اولیه پارامترها را محاسبه می کند در حالی که عوامل MA درگیر هستند؟ پیشاپیش متشکرم
برآورد اولیه ARIMA در R?
54451
ماهی قزل آلا گاهی اوقات حامل یک انگل انیساکیس سیمپلکس است که هنگام تغذیه از کریل در دریا می گیرد. ممکن است تعداد انگل‌ها در هر ماهی یک متغیر تصادفی $X$ با توزیع احتمال $p(x)$ زیر فرض شود: $$p(x)= \frac{\theta^x e^{-\theta}}{ x!}\,,\quad x= 0,1,2...$$ ممکن است فرض کنید که $E(X) = \theta$ و $V(X) = \theta$. یک نمونه تصادفی از $n$ ماهی قزل آلا مورد بررسی قرار گرفت و تعداد انگل‌ها در هر ماهی، $x_1، $$x_2، $$\ldots، $x_n$ شمارش شد. نشان دهید که برآوردگر حداکثر درستنمایی (MLE) $\theta$ میانگین نمونه است. نشان دهید که MLE برای $\theta$ بی طرف است. یک عبارت برای واریانس MLE بر حسب پارامتر $\theta$ پیدا کنید و از این رو نشان دهید که MLE برآوردگر ثابت $\theta$ است. یک نمونه تصادفی از $n = 20 $ ماهی آزاد که از یک رودخانه اسکاتلندی خاص گرفته شده بود مورد بررسی قرار گرفت و تعداد انگل ها به شرح زیر ثبت شد: xi : 2 0 4 0 1 0 3 2 0 5 1 2 0 3 0 1 6 2 2 7 با استفاده از این داده ها، $\theta$ را تخمین بزنید که حدود 95% اطمینان را برای مقدار واقعی ارائه می دهد. نشان دهید که احتمال یافتن یک یا چند انگل در ماهی با $$P(X \geq 1) = 1 داده می شود - e^{-\theta}$$ نمونه تصادفی $n = 60$ ماهی گرفته شد. از رودخانه ای متفاوت و بررسی شد. فرض کنید همه چیز شناخته شده این است که ماهی 43 دلاری حداقل یک انگل دارد و ماهی سالمون 17 دلاری بدون انگل است. یک عبارت برای احتمال این مورد پیدا کنید و از این رو MLE $\theta$ را با توجه به این اطلاعات بدست آورید.
برآوردگر حداکثر احتمال (MLE)
68378
فرض کنید من از R برای جا دادن یک مدل ترکیبی خطی تعمیم یافته از خانواده دوجمله ای و با یک پیوند لاجیت استفاده می کنم. چگونه می توانم فواصل پیش بینی (برخلاف فواصل اطمینان) را برای اثرات ثابت (در مقابل اثرات تصادفی) به گونه ای به دست بیاورم که تنوع توصیف شده توسط اثرات تصادفی را در خود داشته باشد؟ متشکرم.
چگونه فواصل پیش بینی را برای اثرات ثابت مدل ترکیبی خطی تعمیم یافته بدست آوریم؟
31658
من یک فایل داده با مقادیر مدت زمان کار برای سه گروه دارم، و می‌خواهم اثر گروهی را بر مدت زمان کار تعیین کنم (وظایف توسط افراد انجام شد؛ هر گروه 7 فرد مختلف داشت؛ هر فرد سه کار مشابه را انجام داد؛ و داده‌ها برای یک کار فرد در گروه B به دلیل مشکل تنظیم در طول آزمایش ثبت نشد). من از فایل داده نمودار کادر زیر را ایجاد کرده ام (نقاط قرمز به معنی است و n تعداد مقادیر زمانی در هر گروه است): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/tQu8J.png) و همچنین هیستوگرام زیر (مدت زمان داده شده در min:sec): ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/G0o8L.png) داده های من نمونه در هر گروه کوچک است و آزمون نرمال بودن Shapiro-Wilk به من می گوید که گروه A از توزیع نرمال نمی آید و گروه B و C از توزیع نرمال می آیند. از آنجایی که گروه ها کوچک و یک گروه غیرعادی است، تصمیم گرفتم آنالیز واریانس یک طرفه کروسکال-والیس (غیر پارامتریک) را اجرا کنم و نتیجه آن این بود: داده های آزمون مجموع رتبه های کروسکال-والیس: مدت زمان توسط گروه کروسکال-والیس چی -squared = 4.2811، df = 2، p-value = 0.1176 بنابراین باید بپذیرم که تأثیر گروه ها معنی دار نبود. (p-value > 0.05). با این حال، وقتی Anova یک طرفه را اجرا می‌کنم (بررسی سلامت عقل فقط در صورتی که Kruskal-Wallis انتخاب درستی نباشد)، نتیجه Anova این بود: مدت زمان ANOVA ~ گروه Df مجموع مربع میانگین مربع F مقدار Pr(>F) گروه 2 0.0003692 1.846e -04 6.473 0.00293 ** باقیمانده 57 0.0016257 2.852e-05 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مقایسه چندگانه توکی از میانگین 95% تفاوت سطح اطمینان خانوادگی از نظر lwr upr p adj B-A -0.0055763154 -0.0055763154 -0.00948703. 0.0054132 C-A -0.0048032407 -0.008769307 -0.0008371744 0.0138750 C-B 0.0007730747 -0.003354938 -0.003354938 -0.003354938 0.0008769307 - 0.0008371744 p-value <0.05 را برمی گرداند، یعنی نشان می دهد که اثر گروه معنادار است (در این مورد، گروه A در مورد B و C به طور قابل توجهی متفاوت بود). با این حال، به دلیل تعداد کمی از نمونه ها در هر گروه و این واقعیت که یک گروه به طور معمول توزیع نمی شود، من تمایل به پذیرش نتیجه کروسکال-والیس دارم، اما مطمئن نیستم. بنابراین سؤالات من این است: آیا باید نتیجه کروسکال-والیس را بپذیرم زیرا این آزمایش برای این مورد خاص از آنووا مناسب تر است؟ چگونه باید از نمودار جعبه و هیستوگرام برای تصمیم گیری برای مناسب ترین آزمایش استفاده می کردم؟ با تشکر
متناقض مقادیر p برای Anova و Kruskal-Wallis روی داده های یکسان: کدام درست است؟
35515
من در تعجبم که پشت گزینه matlab 'Regularize' برای متد gmdistribution.fit چیست. اگر صرفاً مقدار کمی به عناصر قطری ماتریس کوواریانس اضافه می شود تا ماتریس کوواریانس معکوس شود، آیا همگرایی الگوریتم برازش تضمین می شود؟ آیا روش پیچیده تری مانند تنظیم کوواریانس انقباضی در اینجا استفاده می شود؟ Doc برای این تابع اینجاست. به طور کلی، نظر شما در مورد افزودن مقدار کمی (مثلاً 10E-4!) به عناصر مورب چیست؟ آیا همگرایی تضمین شده است؟ با تشکر
matlab gmdistribution.fit 'Regularize' - چه روش تنظیم؟