_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
25485 | بنابراین اگر این محل مناسب برای این سوال نیست، پیش از موعد عذرخواهی می کنم. من چند روزی است که با یکی از دوستانم بحث می کنم که بهترین راه برای اجرای یک براکت برای مسابقاتی که برای یک بازی ویدیویی برگزار می کنم چیست. اصلاً نیازی به دانستن چیزی در مورد بازی ویدیویی نیست، صرفاً یک گزینه برای بازی وجود ندارد. شخصیتها و مراحل متعددی وجود دارد که بر خلاف بازیهایی مانند شطرنج، که در آن تنها یک چیز در بازی وجود دارد، اینکه چه کسی اول میرود و ذهن شما، واریانس را افزایش میدهند. آیا راهی برای نسبت دادن یک عدد برای اندازه گیری دقت به هر شکل، شکل یا شکلی به روش های زیر برای اجرای یک تورنمنت وجود دارد؟ ورود به سیستم (پایه 2) از # شرکت کنندگان مقدار راندهای سوئیسی را که برای اجرا نیاز دارید به شما می دهد. با گرفتن این # دور، من چند گزینه مختلف دارم. 1. Swiss->Double Elimination Bracket: من از Swiss استفاده می کنم و 8 مورد برتر را از آن نتایج می گیرم و آنها را در یک براکت حذفی دوگانه قرار می دهم. 2. Swiss->Single Elimination Bracket: من از Swiss استفاده می کنم و همین کار را انجام می دهم، اما به جای آن، آنها را در Single Elim قرار می دهم. 3. فقط یک براکت حذفی دوگانه. در ذهن من، تفاوت در دقت بین شماره 1 و شماره 2 چندان متفاوت نیست، و من احساس می کنم شماره 3 بدتر از 3 است. دوستم به من می گوید که من با انجام شماره 1 به طرز وحشتناکی دقت را قربانی می کنم، زمانی که من فکر می کنم مقدار قربانی شده ناچیز است. چگونه می توانم این چیزها را از نظر ریاضی محاسبه کنم؟ | نظریه براکت و احتمال |
79905 | من یک سوال در مورد فرآیند Cross-validation دارم. من در وسط دوره یادگیری ماشینی در Cursera هستم. یکی از موضوعات در مورد اعتبار متقاطع است. دنبال کردن آن کمی دشوار بود. من میدانم چرا به CV نیاز داریم، زیرا میخواهیم مدلهای ما روی دادههای آینده (ناشناخته) به خوبی کار کنند و CV از برازش بیش از حد جلوگیری میکند. با این حال، این فرآیند به خودی خود گیج کننده است. آنچه من فهمیده ام این است که داده ها را به 3 زیر مجموعه تقسیم می کنم: آموزش، اعتبار سنجی و تست. Train and Validation برای یافتن پیچیدگی بهینه یک مدل است. چیزی که من نمی فهمم زیر مجموعه سوم است. میدانم که تعدادی از ویژگیها را برای مدل در نظر میگیرم، آن را آموزش میدهم و در زیرمجموعه اعتبارسنجی اعتبارسنجی میکنم و وقتی ساختار را تغییر میدهم به دنبال تابع هزینه حداقل میگردم. وقتی آن را پیدا کردم، مدل را در زیر مجموعه تست آزمایش می کنم. اگر من قبلاً حداقل تابع هزینه را در زیرمجموعه اعتبارسنجی پیدا کرده ام، چرا باید دوباره آن را در زیر مجموعه تست آزمایش کنم؟ کسی میتونه لطفا این موضوع رو برای من روشن کنه؟ متشکرم | اعتبار سنجی متقابل شامل آموزش، اعتبار سنجی و آزمایش. چرا به سه زیر مجموعه نیاز داریم؟ |
111514 | من سعی کرده ام EM را درک کنم و درک اینکه متغیر پنهان چیست، برایم مشکل است. به طور خاص، من در تشخیص اینکه آیا در یک مدل خاص که از آن استفاده میکنم، یک متغیر خاص یک متغیر پنهان است یا خیر، مشکل دارم. بنابراین، اساساً من دو تصویر $x$ و $y$ را مشاهده میکنم و سعی میکنم یک تبدیل $t$ بین آنها را تخمین بزنم که توسط مجموعهای از پارامترهای $w$ پارامترگذاری میشود. بنابراین، مدل این است: $$ y = t(x, w) + e $$ بنابراین، $y$ یک نسخه تبدیل شده از $x$ با توجه به برخی پارامترهای تبدیل $w$ است. از نظر گرافیکی می توانم آن را به صورت زیر نمایش دهم.  لطفاً توزیع های قبلی در $w$ و $\phi$ و همه پارامترهای hyper را نادیده بگیرید. بنابراین، درک من این است که $x$ و $y$ دو متغیر تصادفی هستند، اما همانطور که ما در واقع نمونههای خاصی از آنها را مشاهده و اندازهگیری میکنیم، پنهان نیستند (از این رو در نمودار PGM سایهدار میشوند). با این حال، پارامترهای تبدیل $w$ را می توان به عنوان یک متغیر تصادفی در نظر گرفت و از آنجایی که ما آن را مشاهده نمی کنیم، بلکه می خواهیم آن را استنتاج کنیم، آنها متغیرهای پنهان در مدل من هستند. آیا درک/استدلال من درست است؟ قدردان هر گونه نظر در این مورد. | شناسایی متغیرهای پنهان در این مدل |
32211 | من یک دیتافریم با 8 ستون (متغیرهای X1 تا X8) دارم. هر ستون یک پارامتر مدل متفاوت را نشان می دهد. هر ردیف از دیتافریم یک سناریوی مدل سازی را نشان می دهد. تمام سناریوهای مدلسازی منجر به خروجی دلخواه میشوند (یعنی Y1). به عبارت دیگر، پارامترهای مدل مختلف می تواند منجر به Y1 شود. میپرسیدم - آیا راههایی در R وجود دارد که بتوان ساختار دادههای فریم من را بهصورت گرافیکی نشان داد؟ در حالت ایدهآل، من میخواهم روشی را برای تعیین کمیت انجام دهم: اگر مقدار متغیر X1 1000 باشد، مقادیر احتمالی متغیرهای X2 تا X8 چقدر است؟ به این فکر می کردم که شاید نوعی نمودار درختی ممکن است مفید باشد. امیدوارم منطقی باشم | چگونه به صورت گرافیکی ساختارهای داده را آشکار کنیم؟ |
52840 | در رگرسیون لجستیک من متغیر وابسته یک متغیر ساختگی است و من نیز دو متغیر مستقل دارم. یکی از آنها یک متغیر ساختگی و دیگری یک متغیر متریک است. من همچنین یک تعامل بین آن دو متغیر را فرض می کنم. من سه رگرسیون را محاسبه می کنم زیرا می خواهم تأثیر متغیرهای مستقل بر متغیر وابسته را در دوره 1، دوره 2 و در هر دو دوره با هم بررسی کنم. وقتی رگرسیون ها را برای دوره 2 و برای هر دو دوره با هم محاسبه می کنم، مشکلی وجود ندارد. اما هنگامی که من رگرسیون را برای دوره 1 محاسبه می کنم، SPSS یک هشدار ایجاد کرد که به دلیل افزونگی، درجه آزادی حداقل برای یک متغیر کاهش یافته است. من در واقع نمی دانم معنی آن چیست، اما متوجه شدم که وقتی متغیر ساختگی مستقل را از مدل خود برای دوره 1 حذف می کنم، عبارت تعامل در مدل گنجانده می شود. بنابراین هر دو متغیر به نوعی یکسان هستند. سوال من این است که چگونه باید در کارم با این موضوع برخورد کنم. آیا فقط باید بگویم که برای دوره اول عبارت تعامل و متغیر ساختگی یکسان هستند؟ یا پیامدهای دیگری برای تفسیر مدل من وجود دارد؟ امیدوارم این سوال من را کمی واضح تر کند. بازم ممنون | در مدل رگرسیون لجستیک من یکی از متغیرهای مستقل با عبارت تعامل اضافی است. چگونه باید با آن برخورد کنم؟ |
79904 | ما فهرستی از شاخص ها داریم، مثلاً نرخ مواد منتخب فروخته شده، با 30 واحد در طول زمان. در چند سال گذشته نرخ برخی از شاخصها تغییر کرده است، اما سوالی که میخواهیم بپرسیم این است که آیا این تغییرات در نتیجه تغییرات در مشخصات مشتریان رخ داده است؟ در یک مجموعه داده جداگانه، ما مشخصات واحدها را داریم، مثلاً گروه های سنی، جنسیت، سطوح تحصیلی و غیره. اینها درصد هستند، به طوری که ما در واحد 1 20٪ در گروه سنی 20-24، 80٪ مرد، 6٪ داشتند. به سطح تحصیلات 6 و غیره رسیده اند و به گونه ای دسته بندی می شوند که مجموع رده های سنی هر واحد برای هر سال تا 100% می رسد. شاخصها با توزیعهای log-normal مطابقت دارند و متغیرهای نمایه عموماً نرمال هستند. ما فکر کردیم glm در R با گاوسی (link=”log”) مناسب باشد. ما از مخرج به عنوان جبران استفاده نکردیم. ما چند شکاف در مجموعه دادههای شاخصهای خود داریم، اما فکر نمیکردیم در این مورد، انتساب لازم باشد. تنها متغیر واقعی عاملی که داریم سال است. ما یک متغیر را از هر گروه از متغیرها حذف کردیم تا از هم خطی جلوگیری کنیم (به عنوان مثال جنسیت مرد، گروه سنی 70+، سطح EDU دیگر حذف می شود). سپس هر گروه از متغیرها را بر اساس AIC و chitest P-value وارد glm خود کردیم. سال برای برخی از شاخصهای ما قابل توجه بود، به این معنی که میتوانیم بگوییم که X در سال 2012 نسبت به نرخ پایه در سال 2009 30٪ افزایش یافته است و تغییرات در پروفایل مشتریان را در نظر گرفته است. این واقعاً مفید است و دقیقاً همان چیزی است که ما نیاز داریم. با این حال، این یک رویکرد جدید برای ما است و ما علاقه مند خواهیم بود که نظرات شما را به طور کلی بشنویم، اما یک سوال خاص این است که ضرایب (exp of) مقاطع تحصیلی مثلاً وقتی همه آنها بالای 5 هستند، چه تفسیری دارند؟ سطح آموزشی <5 : 5.35; 5 : 5.60; 6 : 5.53; > 6 : 5.97; جنسیت F : 0.97; سال 2010 : 1.18; 2012: 1.22 هر ورودی بسیار مورد استقبال قرار گرفت. | تفسیر رگرسیون با متغیرهای مستقل به صورت درصد |
80943 | من باید با استفاده از 3 الگوریتم خوشه بندی یک مجموعه داده را با خوشه بندی weka تجزیه و تحلیل کنم و باید مقایسه ای بین آنها در مورد عملکرد و مناسب بودن آنها ارائه کنم. مقایسه ممکن است شامل توضیحاتی در مورد چگونگی تنظیم مقادیر پارامترهای الگوریتم های خوشه بندی برای عملکرد بهتر آنها باشد. این سه الگوریتم SimpleKmeans، DBSCAN و HierarchicalClusterer هستند. بنابراین، سؤالات من این است: هنگام اندازه گیری عملکرد و تناسب باید به چه نوع متغیرهایی توجه کنم؟ موردی که من تاکنون موفق به پیدا کردن آن شده ام، مجموع خطاهای مربعی درون خوشه ای است. و همچنین، برای عملکرد بهتر الگوریتم ها، کدام مقادیر پارامتر را باید تنظیم کنم؟ | خوشه بندی با Weka |
3713 | هنگام استفاده از تجزیه و تحلیل خوشه ای بر روی یک مجموعه داده برای گروه بندی موارد مشابه، باید از بین تعداد زیادی روش خوشه بندی و اندازه گیری فاصله انتخاب شود. گاهی اوقات، یک انتخاب ممکن است بر دیگری تأثیر بگذارد، اما ترکیبات احتمالی زیادی از روش ها وجود دارد. آیا کسی توصیه ای در مورد نحوه انتخاب از بین الگوریتم های مختلف خوشه بندی و اندازه گیری فاصله دارد؟ این چگونه با ماهیت متغیرها (به عنوان مثال، مقوله ای یا عددی) و مشکل خوشه بندی مرتبط است؟ آیا تکنیک بهینه وجود دارد؟ | انتخاب روش خوشه بندی |
79902 | من در مورد مدلهای گرافیکی مطالعه میکنم و به یک مثال ساده رسیدم، اما مطمئن نیستم که کدام نوع تکنیک (HMM، DGM، MRF) میتواند به من در آن کمک کند. تصور کنید ما سه توپ داریم که می توانند در امتداد این فضای یک بعدی حرکت کنند. من فقط می توانم مختصات آنها را اندازه گیری کنم:  در طول زمان مشاهداتی را جمع آوری می کنم و متوجه می شوم **A همیشه با B* حرکت می کند. *، به عبارت دیگر، A با B همبستگی دارد:  آنچه میخواهم مدلهای گرافیکی به من بگویند این است که $A ⫫ C$ (مستقل) اما A و B نیستند، وابستگی با آنها وجود دارد. علاوه بر این، با توجه به اینکه من فقط A را اندازه گیری کردم، آیا می توان B را تخمین زد؟ به طور خلاصه: * آیا می توان با توجه به مشاهدات آنها در طول زمان t مشخص کرد که کدام متغیرهای تصادفی وابسته هستند (و کدامیک نه)؟ (مثلاً مختصات) * با توجه به اینکه من مشکل قبلی را حل کردم و اکنون می دانم که کدام یک وابستگی دارند. همچنین با فرض اینکه در یک زمان خاص $t_k$ برخی از متغیرها مشاهده نمی شوند، چگونه می توانم مکان یک متغیر مشاهده نشده (مانند B) را با توجه به اینکه یک متغیر وابسته A را مشاهده کردم، تخمین بزنم؟ من برخی از مشاهدات احتمالی را برای این مثال ایجاد کردم. اگر کسی بتواند به من نشان دهد که چگونه آن را محاسبه می کنم، عالی خواهد بود: A,B,C 0,0,0 0,0,5 1,1,5 3,3,3 2,2,5 4,4, 0 2,2,0 بنابراین، وقتی می پرسم موقعیت B با توجه به اینکه A 6 است چیست؟ چگونه می توانم از مشاهدات قبلی برای رسیدن به یک راه حل استفاده کنم؟ متشکرم | مدلهای گرافیکی همبستگی متغیرهای تصادفی و پیشبینی مشاهدات پنهان |
3715 | من میخواهم از قضیه بیز روی دادههای بهدستآمده از یک نمونه تصادفی کوچک استفاده کنم، و میخواهم از Agresti-Coull (یا هر تکنیک جایگزین دیگری) استفاده کنم تا بدانم عدم قطعیت چقدر بزرگ است. در اینجا قضیه بیز است: $P(A|B) = \frac{P(B|A)\cdot P(A)}{P(B)}$ اکنون، تمام دادههایی که من در این سیستم دارم از این سیستم به دست میآید. نمونههای تصادفی کوچک، بنابراین عدم قطعیت زیادی در هر سه متغیر، $P(B|A)$، $P(A)$ و $P(B)$ وجود دارد. من از Agresti-Coull برای به دست آوردن مقدار و عدم قطعیت برای هر یک از این سه متغیر استفاده کرده ام. (من عدد+-عدم قطعیت را به عنوان یک شی ufloat با استفاده از بسته عدم قطعیت نشان میدهم.) اما استفاده از Agresti-Coull سه بار جداگانه برای این سه متغیر یک مشکل است. آنها به یکدیگر وابسته هستند. بنابراین من به نتایج غیرممکن رسیده ام. برای مثال، اگر اجازه دهید عدم قطعیت $P(B)$ آن را به سمت پایین بکشد، و عدم قطعیت های مربوط به $P(B|A)$ و $P(A)$ آنها را به سمت بالا بکشد، احتمال کل بزرگتر از یکی آیا راهی برای انجام تقریب به سبک Agresti-Coull در کل عبارت Bayes به جای انجام آن روی سه قطعه جداگانه وجود دارد؟ | قضیه بیز و آگرستی کول: آیا ترکیب خواهد شد؟ |
4901 | غیر از آزمایش واقعی هر ترکیب ممکن از متغیر(های) در یک مدل (`x1:x2` یا x1*x2 ... xn-1 * xn`). چگونه تشخیص می دهید که آیا یک تعامل باید یا می تواند بین متغیرهای مستقل (امیدوارم) شما وجود داشته باشد؟ بهترین شیوه ها در تلاش برای شناسایی تعاملات چیست؟ آیا تکنیک گرافیکی وجود دارد که بتوانید یا از آن استفاده کنید؟ | بهترین شیوه ها در شناسایی اثرات متقابل چیست؟ |
26598 | من میخواهم از توزیعی نمونه برداری کنم که دارای مقادیر معین میانگین (=0)، انحراف استاندارد (=1)، چولگی (=0) و کشیدگی است. من همچنین میخواهم این توزیع تا حد امکان عمومی باشد، یعنی واگرایی Kullback-Leibler از توزیع یکنواخت تا حد امکان کوچک باشد (این شرط معادل اصل حداکثر آنتروپی است)، درست مانند توزیع نرمال برای کشیدگی=3. من می دانم که به احتمال زیاد امیدی به شکل بسته برای چنین توزیعی در حالت کلی وجود ندارد. من فقط علاقه مند به نمونه برداری از آن هستم. من تقریب های عددی معقول را قبول دارم. من زیاد نگران کارایی نیستم - می توانم حدود 2 روز صبر کنم تا فقط 2000 نمونه داشته باشم. سالها من نوعی الگوریتم ژنتیک را برای رفع این مشکل نوشتم: 1. با نمونه تصادفی 2000 مقدار نمونهبرداری شده از توزیع یکنواخت شروع کنید که بعداً جمعیت نامیده میشود. 2. با حذف نمونه فرعی تصادفی - مثلاً - 200 نمونه از جامعه، و سپس درج مجدد همان تعداد از اعداد تصادفی نمونه برداری شده از توزیع یکنواخت، تعداد زیادی (حدود 100) گونه از جامعه ایجاد کنید. 3. متغیری را پیدا کنید که دارای میانگین، sd، چولگی و کشیدگی تا حد ممکن به پارامترهای هدف باشد (انتخاب متریک نباید برای این الگوریتم حیاتی باشد، زیرا همه شرایط از یکدیگر مستقل هستند). 4. در مرحله 2 ادامه دهید و جمعیت بهترین نوع انتخاب شده از مرحله 3 است. الگوریتم کند است، اما در پایان آنچه را که من می فهمم تقریب خوبی از حداکثر توزیع آنتروپی به دست می دهد. آیا این الگوریتم صحیح است؟ یا آیا روش بهتری برای بدست آوردن توزیع عمومی لپتوکورتیک وجود دارد؟ | نمونهبردار حداکثر آنتروپی |
115005 | من یک مجموعه داده دو هفته ای دارم که دارای چرخه های درون روزی و درون هفته ای است، بنابراین تصمیم گرفتم از dshw در r استفاده کنم. اگرچه MAE و RMSE بسیار خوبی به من داد، اما وقتی میخواستم SSE را ببینم، یک مقدار تهی به من نشان داد. آیا به این معنی است که من از مدل اشتباهی برای مجموعه داده خود استفاده می کنم؟ من فقط از دستور auto.arima برای دیدن بهترین مدل برازش استفاده کردم اما مدل توصیه شده هیچ مقدار فصلی را ارائه نمی دهد در حالی که نمودار سری زمانی به وضوح فصلی بودن را در ساعت های روز نشان می دهد و روزهای هفته از این رو به dshw تغییر مکان دادم. از سوی دیگر، چه پیشنهادی برای یافتن پیشبینی برای چرخههای بعدی وجود دارد؟ من دستور پیش بینی را امتحان کردم اما کار نکرد. با تشکر | روش زمستانی دوبار هولت فصلی با استفاده از dshw |
25483 | من چندین متغیر وابسته دارم که در توزیع غیر نرمال هستند: آزمون کولموگروف-اسمیرنوف قابل توجه است، محدوده چولگی برای برخی از متغیرها تا 8 است، و کشش عموماً حدود 2 است اما در چند مورد به 12 افزایش می یابد! این یک مدل ANOVA با اندازه گیری های مکرر (RM) برای متغیرهای معمولی توزیع شده است. چند سوال: 1. RM ANOVA چقدر در برابر نقض نرمال قوی است، وقتی تعداد مشاهدات مساوی در هر گروه وجود دارد؟ 2. اگر از آزمونهای ناپارامتریک استفاده کنم، آیا باید آزمایشهای متعددی را که خطای نوع 1 را تحت تأثیر قرار میدهند اصلاح کنم؟ | ANOVA در برابر نقض نرمال چقدر قوی است؟ |
104512 | ## مشکل: مشتری Cu در حال خرید دو مورد است: (A,B). میخواهم بدانم بین اقلام C و D کدام مورد را به او توصیه کنم. ایده طبیعی من این است که سبد مشتریان قبلی را تجزیه و تحلیل کنم و ببینم آیا (A, B, C) بیشتر از (A, B) است یا خیر. , D) مثال : (A,B,C) : 4 مشتری (A,B,D) : 6 مشتری به نظر می رسد بهتر است D را به مشتریانی که در حال خرید (A,B) خرید هستند توصیه شود. کاربران کافی (A,B,C) یا (A,B,D) برای برون یابی ندارید. فکر میکنم باید رفتارهای مشتریانی را که (A,C), (A,D) و (B,C), (B,D) خرید میکنند نیز تحلیل کنم زیرا یک مورد مشترک با مشتری Cu وجود دارد. مثال: (A,C) : 60 مشتری (A,D) : 40 مشتری (B,C) : 90 مشتری (B,D) : 10 مشتری بر اساس این کاربران به نظر می رسد بهتر است C توصیه شود اما رابطه بین آنها و Cu ضعیف تر است (فقط یک مورد مشترک است) ## سوال: آیا روش استانداردی برای تجمیع قوانین مرتبط و دادن وزن بیشتر به قوی تر وجود دارد. ارتباط (با موارد رایج تر)؟ | تجمیع قوانین انجمن |
99867 | زمینه: من مجموعهای از دادهها را دارم که دووجهی هستند، بنابراین از بسته mixtools در R استفاده کردم تا توزیع نرمال دووجهی را در آن قرار دهم. به نظر میرسید که نرمال خیلی خوب مطابقت ندارد، و با توجه به مجموعههای مشابه دیگری از دادههایی که من دارم (که دووجهی نیستند) و به طور معمولی توزیع شدهاند، متوجه شدم که log-normal احتمالاً منطقیتر خواهد بود. با این حال، mixtools راهی برای تطبیق توزیع log-normal bimodal ندارد، بنابراین گزارش دادهها را برداشتم و دوباره نصب کردم. این تصویر در زیر است و برای رضایت من مناسب است. در واقع، این یک نوع مشکل نرم افزاری است (ندانستن اینکه چه بسته ای می تواند صریحاً با یک log-normal دووجهی مطابقت داشته باشد) اما باعث شد به چیزی فکر کنم که اغلب به آن فکر می کردم: آیا تطبیق یک توزیع نرمال برای داده های ثبت شده معادل برازش یک log-normal است. توزیع به داده های اصلی؟ من شک دارم که نه، اما مطمئن نیستم چرا؟ (با نادیده گرفتن موارد داشتن داده های صفر یا منفی. با فرض اینکه همه داده ها مثبت نسبتا بزرگ هستند، اما منحرف هستند). همچنین دانستن این نکته که البته برای رسیدن به تخمینهای ارزش اصلی، باید تبدیل را پشتیبان کنید. من سعی کردم این را با برخی از دادههای اسباببازی آزمایش کنم و متوجه شدم که حتی نمیدانم چرا میانگین لاگ مرتبط با توزیع log-normal آن چیزی نیست که وقتی میانگین توزیع نرمال ثبتشده را میگیرید، دریافت میکنید. بنابراین شاید درک من از قبل در مورد پارامترهای log-normal شکسته شده باشد. library(fitdistrplus) set.seed(1) test <- rnorm(1000, mean=100) test[test<=0] <- NA #غیرضروری چون مقادیر <= 0 وجود ندارد، اما فقط برای اثبات تست<-na.omit (تست) log.test <- log10(test) mean(log.test) sd(log.test) #1.999926 برای log.test #0.004496153 برای log.test fitdist (log.test, dist=lnorm, method=mle) sd است #با این حال، meanlog 0.693107737 و sdlog 0.002247176 است #میانگین ها بسیار متفاوت هستند، مطمئن نیستم چرا؟  | تفاوت بین توزیع log-normal و متغیرهای ورود به سیستم، برازش نرمال |
96943 | طرح متداول در پژوهش، مطالعه ای است که از هر دو گروه درمان و کنترل استفاده می کند و هر گروه در پیش آزمون و پس آزمون اندازه گیری می شود. روش های زیادی برای تجزیه و تحلیل این داده ها برای تعیین تأثیر درمان وجود دارد. شما باید 4 روش مختلف را برای تعیین اینکه آیا درمان تأثیر داشته است توضیح دهید. توضیحی در مورد هر روش در مورد چگونگی بررسی اثر درمانی ارائه دهید. این شامل مزایا و معایب هر انتخاب است. من قبلاً 2 تجزیه و تحلیل را انتخاب کرده ام، آنها یک تحلیل ANCOVA و اندازه گیری های مکرر (یا آزمون تی وابسته) هستند، من فقط در یافتن دیگران با مشکل مواجه هستم. من به استفاده از رگرسیون لجستیک و آزمون تی مستقل فکر می کردم | کمک با یک سوال آماری (از چه تحلیلی استفاده کنیم؟) |
3719 | چگونه می توان همبستگی پیرسون و اسپیرمن بیش از دو داور را در متلب محاسبه کرد؟ با تشکر | آیا می توان همبستگی پیرسون و اسپیرمن بیش از دو داور را در متلب محاسبه کرد؟ |
104517 | پس زمینه: خانه ای با چندین سنسور سیم کشی شده، ویژگی هایی مانند دما، نور، حرکت و غیره را اندازه گیری می کند. علاوه بر این، انبوهی از محرک ها می توانند عملی مانند باز کردن درب، روشن کردن چراغ و غیره را انجام دهند. بیان مشکل: اگر کاربر برای استفاده از این خانه مانند یک خانه معمولی، دوست دارم بتوانم الگوهای تکراری را در تعامل او با خانه اش پیدا کنم. منجر به اتوماسیون این فعالیت ها می شود. در چنین شرایطی که استقرار و استفاده از تجهیزات متفاوت است، اما فرض این است که افراد تمایل دارند کارهایی را که در خانه انجام میدهند کاملاً قابل اعتماد تکرار کنند. از چه نوع الگوریتم یادگیری در این سناریو استفاده می کنید؟ اساسا داده های ورودی مجموعه ای از جریان های سری زمانی هستند. برخی از آنها رویداد گسسته هستند مانند کلید روشن، اما برخی دیگر مقادیر عددی مانند دما هستند. | همبستگی بین سنسورها |
89090 | من سعی می کنم رابطه بین برخی از متغیرهای مستقل و یک متغیر وابسته را تحلیل کنم که در آن متغیرهای مستقل در مقیاس 1 (خیلی ضعیف) تا 10 (خیلی قوی) هستند که 5 ایده آل است و متغیر وابسته در مقیاس 1 تا 10 است. جایی که 10 ایده آل است. آیا می توانید پیشنهاد کنید که از چه تکنیکی برای تجزیه و تحلیل اینها استفاده کنیم؟ | تحلیل رگرسیون با آیتم های لیکرت |
57634 | من می خواهم $S = \sum_{i=1}^n x_i$ را محاسبه کنم که در آن $w^t x_i>-1، \; \forall i$ و $x_i \tilde{} \mathcal{N}(\mu، \Sigma)$ برای $w$، $\mu$ و $\Sigma$ شناخته شده. من می دانم که $S$ را می توان با تکنیک های نمونه گیری تقریبی کرد، اما می خواستم بدانم که آیا S را می توان به صورت تحلیلی محاسبه کرد. | مجموع بردارهای ترسیم شده از نرمال چند متغیره را با یک محدودیت خطی محاسبه کنید |
21900 | لطفا توجه داشته باشید: من این را برای اولین بار در Mathoverflow پست کردم. شخصی در آنجا به من توصیه کرد که در stats.stackexchange ممکن است این سوال در اینجا بهتر جا بیفتد. این لینک پست اصلی است. من در حال حاضر باید برخی از داده های سنگین را جابجا کنم. از آنجایی که توزیعهای برازش (مثبت، پیوسته) در یک روش یکپارچهسازی عددی که شامل تبدیل فوریه است استفاده میشود، من به توزیعهایی با تابع مشخصه تحلیلی محدود شدهام. برخی از اولین تجزیه و تحلیل ها (تپه پلات و غیره) نشان داد که دم ها می توانند با یک توزیع پایدار به خوبی برازش شوند. با این حال، نزدیک به صفر این مورد نیست. بنابراین من کمی با یک مخلوط (یا ترکیبی - اصطلاحی که به نظر می رسد در آمار به شدت اضافه بار شده است) توزیع پایدار و نمایی بازی کردم، به عنوان مثال: $$ f(x)=c_1\lambda\exp(-\lambda x) +c_2f_\text{stable}(x)\,, $$ که $c_1+c_2=1$. به نظر می رسد که این تناسب را به طور قابل توجهی بهبود می بخشد. این سوال باقی می ماند که چگونه توزیع مختلط را متناسب کنیم. با توجه به آنچه خواندهام، منطقی به نظر میرسد که برآوردگرهای حداقل فاصله، مانند اندرسون-دارلینگ را برای دستیابی به حداکثر مطلوبیت در نظر بگیریم. من هیچ الگوریتم پیاده سازی شده ای برای روش حداقل فاصله پیدا نکردم. بنابراین میخواستم از برخی الگوریتمهای بهینهسازی عددی استفاده کنم که محدودیتها را (که به آن نیاز دارم) اجازه میدهد و خودم آن را پیادهسازی کنم. آیا این رویکرد منطقی است؟ توصیه هایی برای روش بهینه سازی؟ البته من ژاکوبین تحلیلی ندارم. آیا روش آزمایش شده و اجرا شده ای وجود دارد؟ آیا باید از روش دیگری استفاده کنم؟ MLE درگیر است زیرا هیچ تابع توزیع توزیع پایدار وجود ندارد ** توجه: ** تلاش محاسباتی مرتبط نیست. با این حال، از آنجایی که این فقط یک موضوع جزئی پایان نامه است، ترجیح می دهم زمان زیادی را روی آن صرف نکنم. تخمین پارامتر توزیعهای دم سنگین یک زمینه وسیع است، همراه با کمبود تجربه، میتواند به یک فاجعه ختم شود. بنابراین خوشحال می شوم اگر کسی مرا در مسیر درست راهنمایی کند. | تخمین حداقل فاصله توزیعهای مختلط/مخلوط |
4908 | بیایید تصور کنیم که ما چند آزمایش داریم. هر آزمایش ممکن است منجر به یکی از نتایج شود: A, B, C. بنابراین ما توزیع احتمالات را برای هر آزمایش $P_A, P_B, P_C$ داریم که وابسته به زمینه است. به عنوان مثال: 1. $Context_1 \Rightarrow \\{P_A^1، P_B^1، P_C^1\\}، $ نتیجه آزمایشی A 2 است. $Context_2 \Rightarrow \\{P_A^2، P_B^2، P_C^ 2\\}، $ نتیجه آزمایشی B 3 است. $Context_3 \Rightarrow \\{P_A^3, P_B^3, P_C^3\\}, $ نتیجه آزمایشی A 4 است. $Context_4 \Rightarrow \\{P_A^4, P_B^4, P_C^4\\}, $ نتیجه آزمایشی C است این احتمالات توسط برخی تابع $F:Context\rightarrow \\{P_A, P_B محاسبه میشود، P_C\\}$ من میخواهم نرخ اعتماد مطلق این تابع را تخمین بزنم. به عبارت دیگر، من میخواهم بتوانم بگویم ما میتوانیم به این تابع در 86٪ اعتماد کنیم مانند زمانی که با آزمون کایدو پیرسون سروکار داریم. پیشنهادی دارید؟ | آنالوگ Chi-square برای توزیع های وابسته به زمینه |
79900 | آیا راهی برای تنظیم اعتماد به نفس تست chi sq از 95% به 99% وجود دارد؟ تابع پایه chisq.test() از این تابع شکایت نمی کند... ویرایش: من برای p-values درخواست نمی کنم. سوال من در مورد ریسک اطمینان است. ریسک آلفا (اطمینان) آزمون chisq به طور پیش فرض 0.05 است. من می خواهم آن را روی 0.01 تنظیم کنم (99٪ اطمینان). ریسک آلفا حد فاصل آماره X است. برای توزیع Chi معین با درجات آزادی 'x'، ریسک آلفا با یک آمار خطر X مطابقت دارد. اگر «آمار X از دادههای ما» بیشتر از «آمار خطر X» باشد، H0 را رد میکنیم. ما می توانیم مقادیر p را محاسبه کنیم، که می تواند به عنوان احتمال درست بودن H1 ما تفسیر شود. من ریسک اطمینان را از 0.05 به 0.01 تغییر می دهم. اگر ریسک اطمینان را تغییر دهیم، مقادیر p تغییر می کند. برای مثال، مقدار p 0.001 برای اطمینان 95٪، می تواند 0.2 برای اطمینان 99٪ باشد. | تغییر ریسک اطمینان chisq |
65252 | این ممکن است یک سوال ساده باشد، اما فقط میخواهم مطمئن شوم که در مسیر درستی هستم: باید دو نمونه را با استفاده از آزمون t-test یک طرفه مقایسه کنم. حجم نمونه در دو گروه نابرابر است، اما باید خوب باشد. بخش مهم این است که داده ها در هر دو گروه مستقل نیستند. برای دقیق تر، من 4 بردار، v1، v2، v3 و v4 دارم و زوایای جفتی را محاسبه می کنم: v12، v13، v14، v23، v24، v34. سپس آنها را در دو گروه قرار دادم: گروه 1: v12، v34، گروه 2: v13، v14، v23، v24 سپس گروه 1 و 2 را با استفاده از آزمون t دو نمونه ای یک طرفه مقایسه می کنم. این فرض نمونه های مستقل آزمون t را نقض می کند، درست است؟ من در حال بررسی راه حلی برای استفاده از تست جایگشت در بسته R coin (one_way() هستم. آیا این روش صحیح است؟ | جایگزینی برای آزمون t با نمونه های وابسته |
104186 | من می خواهم یک رگرسیون سانسور شده را با یک متغیر وابسته اجرا کنم که یک درصد است (تعدادی از مقادیر به دلیل روش اندازه گیری داده ها 0 هستند و بقیه بین 0 و 1). رگرسیون توبیت با چنین متغیرهایی کار نمی کند زیرا گزارش یک متغیر کوچکتر از یک منفی است، درست است؟ چه کار کنم؟ | توبیت با نسبت به عنوان متغیر وابسته |
4904 | من به دنبال یک روش آماری برای تعیین اینکه آیا بازیکنی در یک بازی آنلاین تقلب می کند یا خیر، هستم. این بازی یک بازی شبیه به Quake3 (ego-shooter) است. با در نظر گرفتن تعدادی امتیاز مثبت و تعدادی امتیاز منفی برای هر بازیکن (امتیاز) و با توجه به n بازیکن (n<=64). امتیاز به این صورت جمع می شود (مثبت/منفی از دیدگاه ضد تقلب): مثبت = تعداد دفعاتی که بازیکن خودش مرده منفی = تعداد بازیکنان تیم مقابل کشته شده مقادیر اضافی موجود: t = مدت زمانی که این امتیاز به دست آمده است. c = تعداد بازیکنان فعلی m = تعداد دفعاتی که یک بازیکن یک نفر از همان تیم را کشته است (قاتل تیم، اگر بیشتر از 1 یا 2 در مدت 15 دقیقه باشد بسیار منفی است) هر بازیکن می تواند مستقل از هر یک تقلب کند. دیگر من از انحراف استاندارد (روی مقدار v = (منفی + 1) / (مثبت + 1) برای هر بازیکن استفاده کردم، بیش از 3 برابر انحراف استاندارد را با قطعیت مطلق (100٪) تقلب اختصاص دادم - اگرچه تجربه من بیش از حد بوده است. stddev به تنهایی در بیشتر موارد کافی است) که روی یک بازیکن عالی کار می کند اما به محض اینکه چندین بازیکن همزمان تقلب می کنند به طرز بدی شکست می خورد. همچنین تمرین تعریف 3 برابر stddev به عنوان 100٪ احتمالات بیش از 100٪ را امکان پذیر می کند. متأسفانه، درصد بازیکنانی که در یک بازی فیلتر نشده تقلب میکنند، تقریباً 70 تا 80 درصد یا حتی بیشتر است، البته اگر تقلبهای ظریفتری در نظر گرفته شود. یکی دیگر از مواردی که باید در نظر گرفت این است که اگر گروهی از مردم تقلب میکنند، و گروهی که تقلب نمیکنند، توزیع دیگر یک توزیع عادی نیست، بلکه توزیعی شبیه به شتر است. آیا الگوریتم یا فرمولی مفید برای این مشکل وجود دارد؟ | روشی برای تعیین قابل اعتماد مقادیر آماری غیرعادی |
52845 | در اینجا یک سوال آماری است که من در حین کار با برخی از داده های خود به آن فکر می کردم. من یک مجموعه داده بزرگ به نام bigbird دارم (مثلاً حدود یک میلیارد ردیف) و می خواهم به طور تصادفی یک مجموعه داده کوچکتر به نام smallbird را با استفاده از R نمونه برداری کنم. اکنون، می توانم به راحتی این کار را با کد زیر انجام دهم: smallbird<-bigbird [sample(1:nrow(bigbird),1000000,replace=FALSE)] این عالی است و مدل نظری من تا حدی کار می کند. با این حال، من سعی میکنم مدل خود را دقیقتر کنم و متوجه شدم که ممکن است در مورد نمونهگیری تصادفی به یک نگرانی نظری برخورده باشم. ابتدا تصور کنید که برخی از متغیرهای داخل bigbird به شکل زیر هستند: user,not_observation,year A, 5,1998 B,7,2003 A,6,1998 D,1,2010 اساساً، من کاربران دارم، یک مشاهده عدد (که به مجموعه متفاوتی از متغیرها ارجاع میدهد) و سالی که در آن مشاهده خاصی انجام دادهاند. من دو مسئله دارم که به شرح زیر نیاز به توضیح دارند: 1. از نگاهی به مجموعه داده کلی، آشکار است که با پیشرفت دوره زمانی من (1998-2012)، مشاهدات بیشتر و کاربران جدید بیشتری در هر سال به صورت تصاعدی دارم. یعنی در سال 2012، تعداد بسیار بسیار بیشتری کاربران جدید در مجموعه داده نسبت به سال 1998 وجود دارد. در سال های گذشته یعنی در سال 2012، کاربر A ممکن است 50 مشاهدات مختلف داشته باشد در حالی که تنها 1 مشاهده در سال 1998 انجام شده است. من اشتباه می کنم)، این نمونه گیری تصادفی ساده به این 2 موضوع رسیدگی نمی کند. با تشکر | نمونهگیری مجموعه دادههای کوچک از مجموعه دادههای بزرگ با ارجاع به یک متغیر معین |
105641 | من در حال تجزیه و تحلیل الگوهای رفتاری سالانه هستم و در حال حاضر در حال بررسی این موضوع هستم که چگونه می توانم داده ها را به بهترین شکل تبدیل کنم تا همبستگی را آزمایش کنم که در آن متغیر مستقل من فاز ماه است (به عنوان روشنایی ماه چند صد ساله، یعنی 0٪ ماه جدید، 100٪ ماه کامل). ممکن است یک سوال نسبتاً پیش پا افتاده باشد، اما من قبلاً با این مشکل برخورد نکرده ام، بنابراین کمی در ضرر هستم. به سلامتی | بهترین تبدیل برای مجموعه داده های سینوسی؟ |
104518 | من از «boot()» و «boot.ci()» برای ارائه فواصل اطمینان برای تفاوت در $c$-statistic (AUC) بین مدلهای با و بدون نشانگر زیستی جدید استفاده میکنم. روش من در زیر است. من مطمئن نیستم که آیا این راه درستی برای آن است. دادههای نمونه (n = 500، 3 ستون: وضعیت بیماری (1/0)، متغیر کمکی (1/0) و نشانگر زیستی (1-6)): داده <- read.table(https://notendur.hi .is/eyb8/dataframe.txt، header=TRUE) در اینجا تابعی است که تفاوت $c$-statistic بین مدلها را برای استفاده در «boot()» برمیگرداند: library(rms) Cindexdiff <- تابع(دادهها، شاخصها){ داده <- داده[شاخصها،] # obs را انتخاب کنید. در نمونه بوت استرپ # آمار C بدون نشانگر زیستی: C1 <- lrm(بیماری ~ متغیر، داده = داده، x=TRUE، y=TRUE)$stats[C] # آمار C با نشانگر زیستی: C2 <- lrm(بیماری ~ نشانگر زیستی + متغیر کمکی، داده = داده، x = TRUE، y=TRUE)$stats[C] as.numeric(C2-C1) # تفاوت را برمی گرداند } و اکنون 95% CI برای تفاوت در $c$-statistics با بوت استرپینگ (تکرار 999 بار): library(boot) ) set.seed(1) b <- boot(data, Cindexdiff, 999) boot.ci(b) اکنون، **چند سوال دارم:** 1. آیا این یک روش صحیح برای محاسبه فاصله اطمینان بوت استرپ برای تغییر در آماره C است؟ 2. چگونه باید از «boot.ci()» کدام نوع فاصله اطمینان را انتخاب کنم؟ عادی یا تعصب تصحیح شده (BCa)؟ | محاسبه فاصله اطمینان 95% و مقدار p برای تغییر در آماره C با استفاده از بوت استرپ با R |
4909 | تابع توزیع تجمعی تجربی یک متغیر تصادفی، با توجه به مشاهدات $x_\left( k \right) > x_\left( k-1 \right)$, $k \in \mathbb N$, $k \le n$, به صورت $F_{emp}(x_\left(k \right) > X \ge x_\left(k-1 \right)) = \frac k {n+1}$ تعریف میشود و $F_{emp}(X \ge x_\left(n\right))=1$. چرا؟ تا زمانی که در حال درون یابی هستیم، آیا استفاده از روش های درون یابی با خطای کمتر منطقی نیست؟ نزدیکترین همسایه ساده یا درونیابی متوسط تکهای یک بهبود است، و درونیابی مکعبی نیز تابع چگالی تجربی قابل تمایز را برای ما به ارمغان میآورد. تعریف بالا حتی مقدار جزئی cdf را به شما نمی دهد، زیرا متغیر تصادفی است. مطمئناً تابع واقعی را به عنوان $n\to\infty$ نزدیک میکند، اما پس از آن هر interpolant دیگری نیز چنین است. مطمئناً حداقل interpolants خطی در نظر گرفته شده است. | درون یابی تابع تجمعی تجربی |
99862 | وضعیت من اینجاست من یک رگرسیون خطی چندگانه دارم که از آن برای پیشبینی یک مقدار y برای یک داده (x1,x2,x3,x4,x5,x6) استفاده کردم. چیزی شبیه پایین تر می خواند: 30، بالا:48. من همچنین دقیقاً همان چیزی را برای پیشبینی مقدار y* در دادههای دیگر دارم (x1*,x2*,x3*,x4*,x5*,x6*). چیزی شبیه پایین تر:35، بالا:51 می خواند. من می خواهم به این سوال پاسخ دهم: احتمال اینکه مقدار y* از مقدار y بیشتر باشد چقدر است؟ فکر می کنم این یک سوال اساسی است، اما مطمئن نیستم. اگر فرمول نحوه محاسبه فاصله پیشبینی در یک موقعیت چند متغیره را بدانم احتمالاً میتوانم به این احتمال دست پیدا کنم. این چیزی است که فکر می کنم باید انجام شود، اما می خواستم ابتدا توسط شما اجرا شود. فواصل پیش بینی بر اساس یک توزیع t با (n-6) درجه آزادی است (من 0 y-int اجباری دارم). بنابراین من معتقدم که حاشیه خطا محاسبه شده مقداری ثابت است که در مقدار متناظر از توزیع t ضرب می شود (t_.05/2 با n-6 درجه آزادی). مقداری ثابت خطای استاندارد این تخمین خاص خواهد بود. سپس من فقط با استفاده از پیشبینی تخمین نقطهای بهعنوان میانگین و این ثابتها بهعنوان خطاهای استاندارد با n-6 درجه آزادی، یک آزمون t نمونه پایه 2 را انجام میدهم. آیا این دقیق است؟ آیا راه بهتری وجود دارد؟ با تشکر | مقایسه فاصله پیش بینی رگرسیون چندگانه |
57636 | کمیت محوری $Q(X, \theta)$ را می توان برای ایجاد فاصله اطمینان استفاده کرد. می خواستم بدونم که آیا می توان از آن برای ساخت یک منطقه آماری آزمون و رد استفاده کرد؟ در موارد سادهتر که شامل یک فرضیه صفر ساده است، واضح است که چگونه از یک محور برای ساخت یک آماره آزمون و منطقه رد استفاده کنیم. در مورد فرضیه های صفر مرکب چطور؟ با تشکر و احترام! > **کمیت های محوری برای ساخت تست > آمار** اساسی هستند، زیرا اجازه می دهند آمار به پارامترها بستگی نداشته باشد - برای مثال، آماره t Student برای توزیع نرمال با ناشناخته > واریانس (و میانگین) است. | می توان از Pivot برای آزمایش استفاده کرد |
60024 | من سعی می کنم ماتریس کوواریانس معکوس پراکنده مدل گرافیکی گاوسی خود را تخمین بزنم. من بسته «glasso» را در R نصب کردم و چند نمونه را امتحان کردم. پس از آن نرم افزار «glasso» را روی داده های خودم اجرا کردم. بنابراین من آن را با ماتریس کوواریانس تجربی خود تغذیه کردم. با این حال، به نظر می رسد که گیر کرده است و به من نتیجه نمی دهد. بنابراین فکر می کردم که آیا نرم افزار را اشتباه اجرا می کنم. من این راهنما را دنبال کردم: http://cran.r-project.org/web/packages/glasso/glasso.pdf بنابراین اگر «S» ماتریس کوواریانس تجربی من باشد. من فقط موارد زیر را اجرا کردم: یک <- glasso(S, rho=.01, trace=TRUE) # حلقه بیرونی، m = 1 # حلقه بیرونی، m = 2 بعد از موارد بالا، گیر می کند. من ماتریس کوواریانس تجربی خود را نیز که به نرم افزار تغذیه می کنم، پیوست می کنم. http://rapidshare.com/files/141198734/emp_covariance_matrix.mat هرگونه راهنمایی بسیار قدردانی خواهد شد. | مسائل مربوط به تخمین ماتریس کوواریانس معکوس پراکنده با گلاسو |
60027 | من در حال انجام تحقیقات زیست پزشکی هستم و باید یک مدل لجستیک GAM تنظیم کنم که حداکثر امتیاز AUC ممکن را به دست آورد. من 4 نشانگر بیماری دارم. $Y_1، Y_2، Y_3، Y_4$ با داده های مختلف در هر یک، و مدل باید مشخصات زیر را داشته باشد: $\text{Model} = \log(\text{Odds Ratio} (\text{بیماری}~|~ Y_j,Y_i)) = \alpha + \sum\limits_{i,j}^n f_k(Y_k) $ مشکل این است که من باید در R all کدنویسی کنم ترکیبات ممکن بین این 4 نشانگر بدون تکرار، به منظور انجام چندین مقایسه، مانند: $\text{Model}_1 = \alpha + f_1(Y_1) + f_3(Y_3)$ یا $\text{Model}_2 = \alpha + f_1 (Y_1) + f_2 (Y_2) + f_3 (Y_3)$ و غیره. وقتی هر مدل را به صورت دستی کد میکنم از جملاتی مانند اینها این یک مثال برای مدلی است که فقط یک نشانگر دارد: model=gam(group~s(y1),family='binomial') pred=predict(model,type='response') r=ROCEmpiric(group,1-pred) ) جایی که گروه به عنوان نشانگر بیماری همیشه در داخل است و ROCEmpiric تابعی است که مقدار ROC را محاسبه می کند. کسی راه خودکار کردن محاسبات رو میدونه؟ مضحک به نظر می رسد نوشتن هر تابع پس از انجام جمع جایگشت ها. | مسئله ترکیبی برای رگرسیون لجستیک GAM اعمال شد |
60029 | مقیاس دانش 10 ماده ای (درست/نادرست) دارم. آیا می توانم آزمون آلفای کرونباخ را انجام دهم؟ | آلفای کرونباخ در مورد درست و نادرست |
104511 | یکی از همکاران پیشنهاد کرد که شبیه سازی مونت کارلو باید برای ساخت فواصل اطمینان برای میانگین وزنی محاسبه شده از یک نمونه ترجیح داده شود. دقیقاً چگونه و چرا مونت کارلو ممکن است بهتر از آزمون t سنتی در این مورد استفاده کند؟ | آیا شبیه سازی مونت کارلو از آزمون های پارامتریک برای ساخت فواصل اطمینان برای میانگین وزنی مناسب تر است؟ |
21907 | تا آنجا که من متوجه شدم، * برآوردگر حداقل کوواریانس (MCD) به دنبال زیرمجموعه نقاط داده h است که ماتریس کوواریانس آنها کوچکترین تعیین کننده را دارد. * Minimum Volume Elipsoid (MVE) بیضی را با کمترین حجم که h نقاط داده را پوشش می دهد جستجو می کند. هنگامی که هر یک از زیر مجموعه ها پیدا شد، تخمین قوی ماتریس کوواریانس توسط آن نقاط h ارائه می شود. آیا می توانید تفاوت مفهومی بین MCD و MVE را برای من توضیح دهید؟ آیا تعیین کننده مربوط به حجم نیست؟ **ویرایش** User603 استدلال کرده است که هر دو برآوردگر راه حل هایی برای مسائل مختلف بهینه سازی هستند. حتی اگر همه چیز را در پاسخ آن نفهمم، به او اعتماد دارم. اما در مورد این فرمول برای حجم بیضی $(x-v)'A^{-1}(x-v)=1$$$V = \frac{4}{3}\pi\sqrt{\det( الف)}$$ که طبق آن کمینه کردن V معادل کمینه کردن $\det(A)$ است... | تفاوت بین برآوردگرهای MCD و MVE چیست؟ |
113115 | من اساساً به دنبال معادل چیزی مانند $\mathbb{R}^2$ برای مدلی در مجموعه دادهای هستم که خود صرفاً مجموعهای از نقاط است. یعنی اگر مجموعه داده های من (مثال بی اهمیت): x <- 1:10 y <- c(1،6،3،7،7،10،4، 7، 8، 10) و تناسب 6 نقطه ای من باشد. گرید این است: x.fit <- c(1,2,4,6,8,10) y.fit <- c(1,4,6,6,7,10) چگونه می توانم این تناسب را با 6 مقایسه کنم جفت مختصات، با یکی از تعداد کمتر یا بیشتر؟ اساساً من به دنبال به حداقل رساندن تعداد نقاطی هستم که برای نشان دادن فرآیند زیربنایی با تناسب نیاز دارم، در حالی که اطمینان حاصل کنم که تناسب همچنان داده ها را به خوبی مدل می کند. این خوب چیزی است که من به دنبال تجزیه و تحلیل آماری آن هستم، تا بتوانم مدل خود را با $N$ نقاط از 1 تا طول(فرآیند$x) رسم کنم و تعادلی پیدا کنم. من مطمئن نیستم که چگونه پردازش کنم، زیرا به برازش چند جمله ای ها یا مدل های پیش بینی کننده نقطه متغیر عادت دارم. هر گونه کمکی بسیار قدردانی خواهد شد. | چگونه تناسب فرآیند گسسته را با فرآیند زیربنایی گسسته مقایسه کنیم؟ |
34823 | آیا میتوانیم احتمال پسین بهدستآمده از طبقهبندیکنندهای که یک مقدار کلاس پیشبینیشده و یک احتمال (مثلاً رگرسیون لجستیک یا سادهلوحانه) را بهعنوان نوعی امتیاز اطمینان که به آن مقدار کلاس پیشبینیشده نسبت داده میشود، تفسیر کنیم؟ | آیا می توان احتمال پیش بینی شده رگرسیون لجستیک را به عنوان اطمینان در طبقه بندی تفسیر کرد |
99865 | من برای یک سازمان جمعآوری کمک مالی کار میکنم و میخواهیم یک تست A/B برای تعیین اینکه آیا یک تکنیک بازیابی اهداکننده خاص کار میکند یا خیر اجرا کنیم. جمعیت مورد مطالعه اهداکنندگان از بین رفته ما هستند. اینها خیرینی هستند که در گذشته به ما کمک کردند، اما در آخرین کمپین ما ندادند. برای مطالعه ما قصد داریم از همه اهداکنندگان از بین رفته خود درخواست کنیم. همه اهداکنندگان از بین رفته یک بسته درخواست دریافت خواهند کرد، اما گروه A (گروه آزمایشی) همچنین نوعی یادداشت شخصی دستنویس دریافت خواهد کرد. گروه B هیچ یادداشت شخصی دریافت نمی کند. موفقیت این تکنیک با مقایسه تعداد (نسبت) اهداکنندگان بهبود یافته در هر گروه مشخص خواهد شد. چالش من این است که تعیین کنم چه تعداد یادداشت شخصی سازی شده باید بنویسیم. برای استدلال، من می گویم که ما 8000 اهداکننده داریم، بنابراین این واقع بینانه نیست که به سادگی گروه را به دو قسمت تقسیم کنیم و 4000 یادداشت شخصی سازی شده بنویسیم (ما منابع آن را نداریم). برای تعیین اندازه گروه آزمایشی چه تست هایی باید انجام دهم؟ من آنالیز توان را فرض میکردم، اما آیا مهم است که در اینجا آمار استنباطی انجام نمیدهم؟ ما همه اهداکنندگان از بین رفته را مطالعه خواهیم کرد. من مقداری مطالعه کردهام و میدانم که در اینجا تفاوتهای ظریف زیادی وجود دارد. به عنوان مثال، می توان استدلال کرد که به نوعی، من یک آزمایش استنباطی انجام خواهم داد، زیرا می خواهم بدانم که این آزمون رویکرد ما را نه تنها به جمعیت مورد مطالعه، بلکه به همه اهداکنندگان از بین رفته _آینده نیز اطلاع می دهد (فرضی جمعیت فوق العاده؟). اما حتی اگر بیت استنباطی را کنار بگذاریم، باز هم میخواهم تعداد کافی در گروه آزمایشی وجود داشته باشد تا مطمئن شوم که نتایج پس از آزمون قابل اعتماد هستند. لطفا راهنمایی یا منابع را پیشنهاد کنید. همچنین توجه داشته باشید که من در R نسبتاً مسلط هستم، بنابراین با خیال راحت کد R را اضافه کنید. من همچنین بسته 'pwr' را کمی بررسی کرده ام. پیشاپیش سپاس فراوان | الزامات اندازه نمونه هنگام مطالعه کل جمعیت |
113112 | Neyman-Pearson Lemma می گوید که قدرتمندترین تست، $\phi(x)$، با اندازه $\alpha$ (احتمال هشدار نادرست)، برای آزمایش $H_0:\theta=\theta_0$ در مقابل $H_1:\theta= \theta_1$ آزمون نسبت احتمال این فرم است: $$ \phi(x)=\begin{cases} 1 & l(x)>k \\\ \color{#C00}{p} & l(x)=k \\\ 0 & l(x)<k \\\ \end{موارد} $$ که در آن، $p$ احتمال پذیرش است $H_1$ در $k.$ $k$ آستانه است. $l(x)$ نسبت احتمال است، $l(x)=\frac{f_{\theta_1}(x)}{f_{\theta_0}(x)}.$ احتمال هشدار نادرست، $P_f=\ color{#C00}{p} \cdot P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_0 ]\hspace{2 mm}+\hspace{2 mm} P[l(x)>k \hspace{2 mm}| \hspace{2 mm} H_0 ].$ احتمال تشخیص، $P_d=p \cdot P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_1 ]\hspace{2 mm}+\hspace{2 mm} P[l(x)>k \hspace{2 mm}| \hspace{2 mm} H_1 ].$ **سوال** چرا احتمال هشدار نادرست، $P_f$، $\mathbf{نه}$ تعریف شده است: $P_f=\color{#C00}{(1-p )} \cdot P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_0 ]\hspace{2 mm}+\hspace{2 mm} P[l(x)>k \hspace{2 mm}| \hspace{2 mm} H_0 ].$ درک من از بیان معادله بالا این است که: اگر احتمال وقوع $H_1$ $p$ باشد، پس احتمال وقوع $H_0$ $(1-p) است. بنابراین، احتمال انتخاب $H_0$ در $k$ $(1-p) است.P[l(x)=k \hspace{2 mm}| \hspace{2 mm} H_0].$ کجای درک من اشتباه است؟ هر نظری لطفا | هشدار کاذب در تست نیمن-پیرسون. شک در متن؟ |
102911 | من یک مجموعه داده از 1000 رکورد دارم. هر رکورد دارای سه متغیر وابسته $y_1, y_2, y_3$ و 100 متغیر مستقل $x_1,...,x_{100}$ است که متغیر وابسته $y_i$ 1. $0\le y_i \le1$ 2 را برآورده میکند. $y_1 + y_2 + y_3 =1$ یعنی. $y_i$ نشان دهنده احتمال مشاهده متعلق به یکی از سه کلاس است. Q1: چگونه می توانم یک مدل (خطی چند متغیره) با استفاده از $x_1،...،x_{100}$ برای پیش بینی ($y_1،y_2،y_3$) بسازم؟ آیا بسته R موجود است؟ چگونه می توانم آن را پیاده سازی کنم؟ Q2: از آنجایی که تعداد زیادی متغیر مستقل $x_1,...,x_{100}$ (ویژگیها) وجود دارد، آیا میتوان با استفاده از LASSO، SCAD یا شبکه الاستیک برای این مدل خطی چند متغیره با استفاده از ابزارهایی در `glmnet انتخاب ویژگی انجام داد. پکیج | رگرسیون توسط متغیرهای وابسته چندگانه با محدودیت ها و انتخاب ویژگی |
102916 | پیشاپیش پوزش می طلبم اگر این سوال به همان اندازه که در مورد آمار است، در مورد طراحی تجربی است. من می خواهم بدانم آیا بهترین راه برای انتخاب سطوح یک عامل تصادفی در یک مدل ترکیبی وجود دارد یا خیر. بیایید بگوییم که من علاقه مند به این هستم که چگونه افراد از نظر عملکرد در یک کار چه با چشم بسته در مقابل نه. همچنین فرض کنید که بتوانم سختی کار را در مقیاس 1-100 واحد دلخواه تغییر دهم. من به اثرات دشواری کار علاقه ای ندارم - این یک عامل آزاردهنده است که می خواهم آن را به عنوان یک اثر تصادفی مدل کنم. اگر بتوانم فقط 5 سطح را برای فاکتور تصادفی خود انتخاب کنم، آیا باید سطوحی را هدف قرار دهم که به هم نزدیکتر هستند (مثلاً دشواری های کاری 30، 32، 34، و غیره)، یا سطوحی که تا حد امکان از هم دور هستند ( به عنوان مثال، 20، 40، 60 و غیره)، و چرا؟ این انتخاب چگونه ممکن است بر مدل آماری من تأثیر بگذارد؟ متشکرم! | انتخاب سطوح عامل تصادفی در یک مدل ترکیبی |
113117 | من از RStudio استفاده می کنم و سعی می کنم از packrat با پروژه فعلی خود استفاده کنم. من روی کادر انتخاب «استفاده از packrat با این پروژه» کلیک میکنم و OK را فشار میدهم، در آنجا خروجی زیر را از کنسول دریافت میکنم: > packrat::init() شروع پروژه packrat در فهرست: - «/Users/Ash/Dropbox/Uni/2014 /Thesis/Code/R افزودن این بسته ها به packrat: _ packrat 0.4.0.12 واکشی منابع برای packrat (0.4.0.12) ... خطا در snapshotSources(project, activeRepos(project), allRecordsFlat): هنگام واکشی فایل های منبع خطا رخ داد: خطا در untar2(tarfile، فایل ها، لیست، exdir، restore_times) : بلوک ناقص روی فایل می توانم در مورد این خطا چیز زیادی پیدا نکردم، اما بر اساس این کد (جستجوی رشته خطا، ناقص block on file)، به نظر می رسد که این به طول/اندازه فایل غیرمنتظره مربوط می شود. من فرض می کنم ممکن است دانلود خراب باشد؟ اما چندین بار امتحان کردم یا شاید من مجوزهای صحیح را ندارم؟ اما فایل پروژه در اینجا نباید مشکلی داشته باشد. آیا کس دیگری این مشکل را داشته است؟ | ر - «بلاک ناقص روی فایل» به چه معناست؟ |
15730 | طبق نظر کرولی *)، انحراف پواسون به صورت $2 \sum{O \cdot \log ({O \over E})}$ محاسبه میشود اما اگر مقدار مشاهدهشده $O$ صفر باشد چه؟ *) _محاسبات آماری - مقدمه ای بر تجزیه و تحلیل داده ها با استفاده از S-Plus، Michael J. Crawley، چاپ شده توسط Wiley 2004، صفحه 539._ | انحراف پواسون - و در مورد مقادیر مشاهده شده صفر چطور؟ |
104516 | من باید دو گروه از داده ها را با هم مقایسه کنم و ببینم که آیا تفاوت معنی داری بین میانگین ها وجود دارد یا خیر. من میخواستم یک تست Paired-Samples T-Test را با SPSS انجام دهم، با این حال، فقط روی بخشی از دادهها تمرکز میکند.  . با این حال، من می خواهم این میانگین ها را به صورت آماری با هم مقایسه کنم. امیدوارم این کمک کند.. | مقایسه میانگین گروه هایی با حجم نمونه نابرابر |
113116 | من آزمایشی را با 8 آزمودنی انجام داده ام که باید [یک سری از 4] کار ناوبری را تحت 4 شرایط دید متفاوت انجام می دادند. آزمایش به صورت هفتگی، 16 بار با افراد مشابه تکرار شد. ترتیب شرایط در هر تکرار تصادفی شد. در نتیجه، اکنون معیارهای مختلفی از عملکرد ناوبری (متغیرهای وابسته) مانند سرعت، خیر دارم. خطاها، مسافت طی شده و غیره، هر کدام برای 4 کار x 4 شرایط بینایی x 16 تکرار x 8 موضوع. برای تجزیه و تحلیل، من در حال حاضر فقط به یک متغیر وابسته و یک وظیفه در یک زمان نگاه می کنم. علاقه اصلی من این است که آیا عملکرد کلی بین 4 شرایط بینایی متفاوت است یا خیر، و در صورت امکان، چگونه این کار با تکرارها ارتباط دارد. مقایسه های دوتایی (پس از اتفاقی؟) یک هدف بسیار محوری است. آیا می توانید در انتخاب یک آزمون آماری مناسب برای این موضوع به من کمک کنید؟ در ابتدا من از یک ANOVA دو طرفه استفاده می کردم، اما به داده ها نگاه کردم و همیشه به طور معمول توزیع نمی شود. به طور عمده، یک یا دو مورد از شرایط بینایی از حالت عادی منحرف می شود. همچنین بسته به متغیرهای وابسته، انحرافات زیادی از نرمال بودن وجود دارد. آیا می توانم استفاده از ANOVA دو طرفه را توجیه کنم، و اگر نه، یک جایگزین غیر پارامتریک معتبر کدام خواهد بود؟ من امتحان فریدمن را شروع می کنم - فقط مطمئن نیستم که آیا می توان تمام داده های تکرارهای آزمودنی ها را ضمیمه کرد و به آن آزمون داد تا تفاوت بین شرایط را پیدا کنم. من از SPSS و Matlab استفاده می کنم. متشکرم! | تجزیه و تحلیل مناسب برای این طرح آزمایشی - داده های غیر عادی |
113111 | من می دانم که این نوع سؤال ممکن است چندین بار در این انجمن یا در وب سایت های دیگر پرسیده شود. یه جورایی میدونم چیکار کنم اما فقط برای اینکه مطمئن شوم چیزی را اشتباه متوجه نشده ام، سوالم را مطرح می کنم. در حال حاضر من از XTABOND2 برای اجرای تفاوت و سیستم GMM برای مدلسازی تغییر سالانه TFPt = TFPt-1 + برخی از متغیرهای توضیحی یا از پیش تعیینشده + تصاویر زمان استفاده میکنم. کد برای تفاوت GMM به این صورت است: xtabond2 dtfp ltfp x time2-time12، gmm(ltfp) iv (x time2-time12) nol robust برای سیستم GMM: xtabond2 dtfp ltfp x time2-time12، gmm(ltfp) iv(x time2 -time12) dtfp قوی = تغییر سالانه TFP در زمان t ltfp = سطح TFP در زمان t - 1 x = فقط برخی از متغیرهای توضیحی زمان = ساختگی زمان تعداد پانل 123800 و زمان از 2000 تا 2011 است. این یک پانل نامتعادل بسیار بزرگ با میانگین مشاهده در هر گروه حدود 4 است. سوالات من اینجاست 1. آزمون آرلانو باند برای AR(2) هم برای تفاوت و هم برای سیستم GMM از نظر آماری معنی دار است، مقادیر p 0 هستند. این بدان معناست که همبستگی سریال تاخیر 2 وجود دارد و متغیر ابزاری فعلی کافی نیست. من سعی کردم از یک تاخیر عمیق تر استفاده کنم، به سادگی gmm(ltfp) را به gmm(ltfp, lag(2.)) تغییر دهید. وقتی من این کار را انجام دادم، AR(2) از نظر آماری معنادار است، اما AR(3) و AR(4) اینطور نیستند، مقادیر p بین 0.6 و 0.7 است. از این نتایج، آیا می توانم بگویم gmm(ltfp، lag(2.)) ابزار کافی است؟ 2. برخی افراد پیشنهاد می کنند که متغیر وابسته تاخیر را به این معادله اضافه کنید، بنابراین xtabond2 dtfp l.dtfp ltfp x time2-time12، gmm(ltfp) gmm(ldtfp) iv(x time2-time12) nol robust. فقط تعجب می کنم که آیا کار درستی است؟ اگر چنین است، چگونه می توانم بفهمم که چه تعداد تاخیر از متغیرهای وابسته به اندازه کافی کافی است؟ هنوز از آزمون های همبستگی آرلانو باند در AR2 AR3 استفاده می کنید؟ 3. در XTABOND2، گزینه ای برای تبدیل تفاوت یا تبدیل متعامد وجود دارد. از نحوه استفاده دیوید از xtabond2، به نظر می رسد که او استفاده از تبدیل متعامد را پیشنهاد می کند. یکی از مزایای آشکار آن ذخیره مشاهدات در اولین دوره زمانی است (من می دانم که مزایای کمی وجود دارد). از مشاهدات من، آنها ضرایب کاملاً متفاوتی را برمیگردانند - ضرایب ltfp در تفاوت و تبدیل متعامد در تفاوت-GMM - 0.63 و - 0.19 است. آیا اصلاً وجود دارد که بدانیم کدام تحول کار بهتری را انجام می دهد؟ 4. XTABOND2 تست های تفاوت در هانسن را برای هر دو گروه GMM و IV ارائه می دهد. فقط برای بررسی درست متوجه شدم اگر هم آزمون هانسن به استثنای گروه و هم تفاوت در ابزارهای GMM برای سطوح دارای مقادیر p بسیار کوچک باشند، نشان میدهد که سیستم-GMM نامعتبر است. اگر هر دو تست در IV مقادیر p کوچکی داشته باشند، نشان میدهد که برخی از متغیرها در IV کاملاً برونزا هستند و باید آنها را درونزا یا از پیش تعیینشده درمان کرد؟ سوالات من هست پیشاپیش از کمک های شما سپاسگزارم به سلامتی، ماهی | تاخیر عمیق تر در رگرسیون پانل پویا با استفاده از xtabond2 در STATA |
15735 | من می خواهم داده های زیر را تجزیه و تحلیل کنم: * تعداد مشاهدات: 430 درخت * 1 متغیر پاسخ: رشد قطر درختان * 2 عامل طبقه بندی: گونه درختی (9 سطح) و درمان (2 سطح) به نظر می رسد متغیر پاسخ دارای نمایی است. توزیع (تراکم، تراکم رشد تبدیل شده به لگاریتم). این نمودار نشان میدهد که گونههای درختی تأثیر زیادی بر رشد dbh دارند، و این طرح که درمان ندارد. برای برخی از گونه ها، به نظر می رسد یک تعامل بین گونه ها و درمان وجود دارد. من می خواهم تأثیر گونه ها، درمان و تعامل بین گونه ها و درمان را تجزیه و تحلیل کنم. اگر متغیر پاسخ به طور معمول توزیع شده بود، حدس میزنم ANOVA کافی باشد. با این حال، به دلیل توزیع نمایی، در مورد چگونگی ادامه بیشتر مطمئن نیستم. من یک ANOVA ('aov(dbh.growth~ گونه * درمان، داده=df)` ایجاد کردم که مقادیر معنی داری Pr(>F) را برای هر دو عامل + تعامل (به نمودارهای تجزیه و تحلیل مراجعه کنید) نشان داد، اما آیا نتایج قابل استفاده هستند؟ آیا امکانی برای تجزیه و تحلیل عاملی با داده های توزیع شده وجود دارد؟ اینجا ;) | متغیر پاسخ با توزیع نمایی - چگونه تجزیه و تحلیل کنیم؟ |
34828 | بنابراین بیایید فرض کنیم که نامزدهای _n_ در حال رقابت هستند. دسته ای از افراد تصادفی شروع به رای دادن انتخابی به نامزدها می کنند که هر رای عددی از _1_ تا _n_ است. روش مناسبی برای سفارش دادن نامزدها بر اساس تعداد رای آنها و همچنین تعداد آرا / فراوانی آرا چیست؟ به عنوان مثال: اگر نامزد A توسط گروهی از رای دهندگان رای داده می شد، اما آرا از هم فاصله داشت، احتمالاً به عنوان نامزدی که کمتر/همین مقدار/بیشتر رای داده بود اما آرا رای داده بودند، نه به بزرگی در نظر گرفته می شد. اندکی پس از دیگری من به چیزی شبیه به سیستم Karma Reddit فکر می کردم، اما این فقط 1+ و -1 را در نظر می گیرد (و من حتی مطمئن نیستم که Reddit اطلاعاتی در مورد نحوه عملکرد سیستم Karma خود داده است یا خیر!) * * * به عنوان مثال: نامزدها = [ باب، سالی، جو، سم، راب] شخص A سالی را به عنوان شماره 1 (بهترین انتخاب) و [باب، راب] را به عنوان شماره 5 (بدترین انتخاب) رتبه بندی می کند و (او را ترک می کند) به دیگران رای نمی دهد). شخص B سام را به عنوان شماره 2، جو را در رتبه 4 قرار می دهد و ترک می کند. شخص C سالی را به عنوان شماره 1، جو را در رتبه 3 و باب را در رتبه 5 قرار می دهد. بنابراین در این مورد ممکن است قانع کننده باشد که بگوییم سالی به شماره ۱ نزدیک است، در حالی که باب احتمالاً به شماره ۴ یا ۵ نزدیکتر است. اما سم فقط یک بار به عنوان شماره 2 انتخاب شد و به همین دلیل دلایل زیادی برای گفتن بله او قطعاً شماره 2 وجود ندارد. به طور مشابه، راب تنها یک بار به عنوان شماره 5 انتخاب شد، اما رای کافی برای گفتن اینکه او بدتر از باب است، وجود ندارد. به این ترتیب، رتبه بندی ممکن است چیزی شبیه به این شود: سالی > سام > جو > راب > باب شما احتمالاً می توانید این مثال را بچرخانید تا رأی دهندگان بیشتری داشته باشید و چند مورد غیرعادی ایجاد کنید، اما امیدوارم که او یک ایده کلی از آنچه هستم به شما بدهد. به دنبال | یک سیستم رای گیری خوب که بر اساس مقدار و تعداد/تکرار آرا باشد چیست؟ |
57631 | من می خواهم استقلال چندین متغیر طبقه بندی را برای چند مجموعه داده آزمایش کنم. من معتقدم Breslow-day برای برخی از تحلیلهایی که میخواهم انجام دهم امکانپذیر است، و Log-linear ممکن است برای همه امکانپذیر باشد، اما علاوه بر شرایط کاربردی، این دو تحلیل چقدر متفاوت هستند و کدام یک برای مواردی که هر دو امکانپذیر است مناسبتر است. ? پاسخهای شرکتکنندگان آزمایشی به یک سؤال درک مطلب از هر یک از دو جنبه: درستی و عمومیت قوی یا ضعیف نمرهگذاری شد. شرکت کنندگان از یکی از دو شرایط آموزشی بودند و همچنین در یکی از دو گروه دانش قبلی طبقه بندی شدند. بنابراین من کلاً 4 عامل باینری دارم: احترام، امتیاز، آموزش و گروه. امتیاز و گروه مشاهده شد، در حالی که احترام و آموزش دستکاری شد. احترام درون سوژه است، در حالی که دیگران همه بین سوژه هستند. در آزمایش بعدی، یک عامل آزمایشی باینری اضافی اضافه کردم، پیش تمرین. من در ابتدا گروه را در نظر نمی گرفتم، بنابراین با احترام، نمره و تمرین تست روز برسلو را انجام دادم. من یک تأثیر قابل توجه پیدا کردم که از آن به عنوان تأثیر آموزش بر نمره بسته به احترام متفاوت است تعبیر می کنم. به طور خاص، یک شرط تمرینی صحت را بهتر ارتقا داد، در حالی که دیگری انتزاعی بودن را بهتر ارتقا داد. بعداً می خواستم ببینم که آیا اضافه کردن گروه تفاوتی ایجاد می کند یا خیر. تا آنجا که من می دانم، نمی توانم عامل دیگری را در Breslow-day اضافه کنم. بنابراین، من یک تجزیه و تحلیل log-linear را امتحان کردم. من ابتدا این کار را با همان 3 فاکتور مورد استفاده در تست Breslow-day انجام دادم تا بتوانم نتایج را با هم مقایسه کنم. کد R اینجاست: T = جدول (D$score، D$training، D$respect، dnn=c('Score','Training','Respect') ) loglm(~ امتیاز + آموزش + احترام، داده = T) این نتیجه معنیدار نیست، که من به این معنا تعبیر میکنم که دادهها را میتوان به طور کامل با تأثیرات اصلی عوامل، بدون هیچ اصطلاح تعاملی توضیح داد. به نظر میرسد که این با نتیجه آزمایش روز Breslow تناقض دارد، بنابراین من اکنون مطمئن نیستم که کدام یک دقیقتر است. در مرحله بعد، من می خواهم عوامل دیگر را اضافه کنم (گروه، پیش تمرین). آیا من درست می گویم که در این مورد باید از تحلیل log-linear استفاده کنم؟ | تجزیه و تحلیل لاگ خطی در مقابل آزمون برسلو روز |
34827 | من مطمئن نیستم که آیا این سوال منطقی است یا حتی ایده آل است، اما مشکل من اینجاست: بسیاری از فرمول های فاصله پیشنهادی فقط یک فاصله را بر حسب ابعاد 1 نشان می دهند. یک فرمول متداول فاصله، فاصله اقلیدسی است (بارزترین آن). فاصله اقلیدسی $d_{ecdn}$ از دو نقطه واقع در $(x_1, x_2, x_3, ... , x_n)$ و $(y_1, y_2, y_3, ... , y_n)$ به ترتیب توسط $d_{ecdn} = \sqrt{\displaystyle\sum_{i=1}^{n} (x_i-y_i)^2}$. از نظر هندسی، در هر تعداد ابعاد (اما 3 بعد را به عنوان مثال تصور کنید)، اگر بخواهید بین دو نقطه خطی بکشید که طول آن فاصله اقلیدسی را بیان می کند، خود آن خط در یک بعد وجود دارد. چرا این یک مشکل است؟ من در حال انجام پروژه ای هستم که شامل داده کاوی و بازیابی اطلاعات است. اساساً، هر سند در یک پیکره به مکانی در یک فضای $n$-بعدی نگاشت میشود که در آن $n$ تعداد کل عبارتها در کل مجموعه اسناد است. آنها می گویند که اگر سند A از نظر هندسی به سند B نزدیکتر از سند C باشد، سند A بیشتر شبیه B است تا C. فاصله اقلیدسی تصور اشتباهی از شباهت ایجاد می کند زیرا هر بعد مهم است. من نمیپرسم آیا کسی الگوریتم خوبی دارد که فاصله بین دو نقطه را محاسبه کند، اما با وزنی در هر بعد. یک مثال می تواند ضریب همبستگی محصول-لحظه پیرسون باشد. این فرمول توسط  ارائه شده است. | فاصله وزنی بین دو نقطه در فضای n بعدی |
15738 | من اغلب در آموزشها و صفحات وب مختلف میبینم که خوشهبندی فازی c-means و soft k-means clustering را توضیح میدهد. اما من نتوانستم هیچ ماده ای را پیدا کنم که آنها را متمایز کند. آیا هر دو خوشه بندی c-means فازی و k-means نرم یکسان هستند یا متفاوت هستند؟ | تفاوت بین k-means نرم و c-means فازی |
15739 | آیا کسی ارجاع دقیق یک نقل قول را با کلماتی به این مضمون می داند: **داستانی را با داده ها بگویید.** من می خواهم از این نقل قول در ارائه خود استفاده کنم اما باید آن را تصدیق کنم. کار درستی است! (من مطمئن نیستم که از کدام برچسب استفاده کنم!) | چه کسی گفته با داده ها داستانی را تعریف کنید؟ |
87590 | من یک رگرسیون خطی چندگانه را درک کرده ام. برای اینکه بدانم مدل من از نظر پیشبینی چقدر خوب عمل میکند، میتوانم باندهای بازههای پیشبینی را محاسبه کنم و تصمیم بگیرم که آیا آنها به اندازه کافی باریک هستند که قابل استفاده باشند. اگر آنها خیلی گسترده باشند، احتمالاً مفید نیستند. با استفاده از R، من این کدهای R را نوشته ام. LinearModel.1 <- lm(GDP.per.head ~ Competitivness.score + Quality.score، data=Dataset) خلاصه (LinearModel.1) predict (LinearModel.1، se.fit = FALSE، scale = NULL، df = Inf ، فاصله = c(هیچ، اطمینان، پیش بینی)، سطح = 0.95، نوع = c(response، terms)، Terms = NULL) در اینجا یک کد مثال آورده شده است: # اعداد تصادفی برای دامنه x = rnorm(10) y = rnorm(10) # ایجاد میکند تا برخی از دادههای نمونه مناسب باشد. z = 3*x+2*y - 5 + rnorm(10,sd=3.5) # تناسب رگرسیون را انجام دهید = lm(z~x+y) # چند نقطه برای استفاده برای ترسیم فاصله اطمینان # پیدا کنید و سپس از دستور پیش بینی برای بدست آوردن کرانه های # بازه اطمینان x1 = (-20:20)/10 y1 = (-20:20)/10 p = predict(fit,data.frame(x=x1,y=y1),interval='sigurt') # حالا نقاط اصلی را رسم کنید، سپس مقادیر پیشبینیشده و # کران بالا و پایین فاصله اطمینان را رسم کنید. نقاط نمودار(x,z)(x1,p[,1],col=2,type='l') points(x1,p[,2],col=3,type='l') نقاط (x1, p[,3],col=4,type='l') من سعی می کنم همین کار را با LinearModel.1 خود انجام دهم. منظورم این است که میخواهم نقاط اصلی را رسم کنم، سپس مقادیر پیشبینیشده و مرزهای بالایی و پایینی فاصله اطمینان را رسم کنم. من کد R را برای انجام این کار با LinearModel.1 خود دریافت نمی کنم. با تشکر از کمک شما | نمودار: خط رگرسیون مستقیم و باندهای پیش بینی |
38934 | من یادداشت های سخنرانی ام را نمی فهمم. بیان می کند که باقیمانده های استاندارد طبق تعریف $$R_i=\dfrac{y_i-\hat{y}_i}{\sqrt{\dfrac{1}{n-2}\sum_{i=1}^n (y_i- \hat{y}_i)^2 }}$$ میدانم که میتوانم $\hat{y}$ را با روش حداقل مربعات معمولی محاسبه کنم. اما از آنجایی که $i$ را بهعنوان زیرنویس $R$ و به عنوان شاخص جمعبندی استفاده میکنیم، نمیدانم که آیا اعداد واقعی $R_1،\ldots،R_n$ را تعریف میکند یا خیر. من با نماد $f_n=\sum_{i=1}^n$ آشنا هستم اما $f_i=\sum_{i=1}^n$ برای من جدید است. بنابراین، آیا کسی می تواند توضیح دهد که چگونه باید تعریف را بفهمم؟ اگر فقط $i=2$ را به معادله وصل کنم، میتوانم ببینم که $R_2$ یک نماد معقول به نظر میرسد، اما $\sum_{2=1}^n$ چیست؟ | چگونه می توان نماد پشت باقیمانده های استاندارد را درک کرد؟ |
96257 | من در تلاش برای ایجاد یک هیستوگرام هنجاردار با استفاده از SciPy یا matplotlib (یا هر چیزی برای Python) بودهام. هنگامی که من هیستوگرام خود را با گزینه normed غیرفعال ایجاد می کنم، به نظر می رسد مانند زیر (این مثال برای 10 bin است، اما همین اتفاق برای تعداد بیشتری از bin ها می افتد): (عدد اول شروع یک bin را نشان می دهد، دومی ارتفاع بن) -2.83785600931e-17 1182 5.6688145554e-15 1137 1.13660076709e-14 1031 1.70632007864e-14 950 2.27603939019e-14 912 2.84575870174e-14 802 3.414385 3.98519732484e-14 948 4.55491663639e-14 1315 5.12463594794e-14 870 که کاملاً خوب است، و آنچه من انتظار داشتم. با این حال، بعداً نیاز دارم که این هیستوگرام را با هیستوگرام دیگری تطبیق دهم و برای این منظور ترجیح میدهم یک نسخه نرمافزاری از این هیستوگرام داشته باشم تا تطبیق ارتفاع آن هیستوگرامها آسانتر باشد. به طرز عجیبی، وقتی از گزینه «density=True» (برای نسخه «scipy.histogram») یا «normed=True» (برای نسخه «matplotlib.pyplot.plt» استفاده میکنم)، ارتفاع بن هیستوگرام مقادیر بسیار بزرگی مانند زیر دریافت میکند: -1.44880082614e-17 2.00318764844e+13 5.71138595513e-15 1.98921598219e+13 1.14372599185e-14 1.8040914044e+13 1.71631338819e-14 1.5273465 2.28890078453e-14 1.56133370332e+13 2.86148818087e-14 1.4617855813e+13 3.43407557721e-14 1.50026+1.5002e 4.00666297355e-14 1.74296536456e+13 4.57925036989e-14 2.3769297206e+13 5.15183776622e-14 1.57925036989e-14 2.3769297206e+13 5.15183776622e-14 1.57925036989e-13 5.15183776622e-14 1.50048 هنجار به معنای مجموع تا یک. آیا فکرم اشتباه است یا هیستوگرام نرمال شده خروجی اشتباه است؟ | مقادیر هیستوگرام خیلی بزرگ (؟) هنگام استفاده از گزینه های هیستو نرمال در SciPy و matplotlib |
6827 | با توجه به جدولی شامل سه ستون، 1 2 0.05 1 3 0.04 2 3 0.001 و یک ماتریس با ابعاد تعریف شده، ماتریس <- ماتریس (NA, nrow = 3, ncol = 3) [,1] [,2] [,3] [1،] NA NA NA [2،] NA NA NA [3،] NA NA NA است آیا راهی کارآمد برای پر کردن ماتریس با ورودی های ستون سوم جدول با R، بدون نیاز به تکرار روی جدول، جداسازی شاخص ها و درج مقدار در یک حلقه for وجود دارد؟ با تشکر | روش کارآمد برای پر کردن ماتریس در R؟ |
113119 | اگر من از واریانس یک متغیر به عنوان نماینده عدم قطعیت در یک رگرسیون استفاده کنم، برخی از مفروضات OLS برآورده نمی شوند؟ به عنوان مثال، آیا از نظر روش شناختی درست است که از میانگین متحرک بارندگی و میانگین متحرک واریانس بارندگی در یک رگرسیون استفاده کنم که متغیر وابسته تولید در سطح مزرعه است؟ من نمونههایی از رگرسیونهای حاوی واریانس یک متغیر را در X پیدا نکردهام، بنابراین نمیدانم که آیا این به این دلیل است که برخی از مسائل مدلسازی در آن رویکرد وجود دارد. از کمک شما متشکرم. | در OLS آیا از نظر روش شناختی استفاده از واریانس یک متغیر به عنوان متغیر توضیحی صحیح است؟ |
34821 | در یک مقاله اقتصادسنجی کاربردی، نویسنده مدلی را که باید به این صورت تخمین زده شود بیان میکند:  چرا نویسنده ادعا میکند که همجنسگرا است؟ این برای من منطقی نیست. آیا واریانس کوواریانس _population_ نمی تواند عناصری از قطر داشته باشد که اگر چیزی شبیه به متغیرهای حذف شده وجود داشته باشد، مشروط به $t$ هستند؟ | بیانیه همسویی واریانس هنگام توصیف مدل OLS |
96941 | در زیر یک مشکل کوله پشتی است که در آن چندین گروه وجود دارد و هر آیتم متعلق به یک گروه است. هدف به حداکثر رساندن سود با توجه به محدودیت ها است. در این صورت از هر گروه فقط یک مورد به استثنای گروه خاص قابل انتخاب است. مشکل اینجاست: حداکثر کردن: $$\sum _{j=1}^{N}\sum _{j=1}^{\left | G_{i} \right |}p_{ij}x_{ij} +\sum _{j=1}^{\ چپ | G_{s} \right |}p_{sj}x_{sj}$$ موضوع: $$ \begin{align} (\sum _{i=1}^{n}\sum _{j=1}^ {\left |. G_{i} \right |}w_{ij}x_{ij} +\sum _{j=1}^{\left G_{s} | |}w_{sj}x_{sj})&\leq c \\\ \sum _{j=1}^{\ چپ | G_{i} \right |}x_{ij} &= 1 \\\ \sum _{j=1}^{\ چپ | G_{s} \right |}x_{sj} &= k \\\ x_{ij} \in \\{0,1\\}\\\ x_{sj} \\\{0,1\\ } \end{align} $$ نماد: _N_ تعداد آیتم ها _n_ تعداد گروه ها _c_ ظرفیت یک کوله پشتی _G_ = {$G_{1}،...،G_{n}$} مجموعه ای از گروه ${\left | G_{i} \right |}$ تعداد موارد در گروه $G_{i}$ ${\ چپ | G_{s} \right |}$ تعداد اقلام در گروه $G_{s}$ (گروه ویژه) $p_{ij}$ سود مورد _j_ از گروه $G_{i}$$w_{ij}$ وزن آیتم _j_ گروه $G_{i}$ $p_{sj}$ سود مورد _j_ از گروه $G_{s}$$w_{sj}$ وزن کالا _j_ از گروه $G_{s}$ _k_ محدودیت از گروه $G_{s}$ این نسبتاً آسان است. با این حال، من در توصیف وضعیتی که در آن موارد ممکن است اعضای بیش از یک گروه باشند اما فقط یک بار می توانند انتخاب شوند، مشکل دارم. به عنوان مثال، فرض کنید یک فهرست ورزشی فانتزی دارید. شما می خواهید انتخاب های خود را بر اساس امتیازات تخمینی خود بهینه کنید. اوزان دستمزد بازیکن است. فرمول ارائه شده قبلی در جایی کار می کند که بازیکن به موقعیت (مورد به گروه) در یک رابطه یک به یک باشد. اما فرض کنید یک بازیکن می تواند دو یا چند موقعیت را پر کند. سوال این است: چگونه می توان این را به عنوان یک محدودیت در بالا نوشت؟ آیا این یک مشکل کاملاً متفاوت است؟ | مشکل کوله پشتی با چندین گروه که اقلام به بیش از یک گروه تعلق دارند |
57632 | من یک گروه درمان و یک گروه کنترل دارم. هر دو گروه از چندین تیم تشکیل شده اند که هر کدام چند نفر دارند. وقتی میخواهم عملکرد بین گروهها را مقایسه کنم، میتوانم یک آزمون t یا تست رتبهبندی Wilcoxon را روی مقادیر فردی در هر دو گروه اجرا کنم، و این خوب است. 1) با این حال، از آنجایی که آن تیم ها از نظر اندازه بسیار متفاوت هستند، «میانگین میانگین» بیشتر شبیه چیزی است که بعداً در رگرسیون های پارامتریک دریافت می کنم. با «میانگین» به این اشاره میکنم که ابتدا میانگین ارزشهای فردی را در تیم بگیریم، سپس میانگین میانگینهای تیمی را در گروه بگیریم. با $t$ تیم، $i$ فردی در گروه، سپس $$\text{mean of means}=1/T\sum_{t=1}^{T} (1/n_t \sum_{i=1) نشان دهید }^{n_{t}} x_{it}).$$ سؤال این است: آیا آزمونهایی وجود دارند که به من اجازه میدهند این فرضیه را آزمایش کنم که دو «میانگین میانگین» برابر هستند؟ 2) اگر نه، چگونه انحراف معیار میانگین میانگین را محاسبه می کنید؟ واضح است که فقط استفاده از SD تیم به معنای هدر رفتن اطلاعات است. در ویکی پدیا با انحرافات استاندارد ادغام شده مواجه شدم که در این زمینه مناسب به نظر می رسد. آیا ساختن خطاهای استاندارد بر اساس این SD های ادغام شده و استفاده از آنها برای آزمون فرضیه معتبر است؟ خیلی ممنون! | تست مقایسه «میانگین» |
105643 | من می خواهم سوال قبلی خود را روش های تعیین پایایی اندازه گیری ها با استفاده از انحراف مطلق میانه و میانه به روز کنم. من دادههایی از آزمایشهای بیولوژیکی دارم که به این صورت است: v1 2 1.8 1.5 1.9 2.1 1.78 1.95 2.0 2.1 v2 2 100 -5.2 v3 1 -1.3 -2 2.3 v4 1 1.5 1.6 1.78 1.95 1.5 1.6 1.9 1.8 1.6 اینها بیان ژن را نشان می دهند. اکنون، من انتظار دارم که همه مقادیر هر متغیر (ژن ها) کم و بیش مشابه باشند، زیرا مقادیر اندازه گیری سریع همان ژن هستند. داشتن یک متغیر با چنین تفاوت فاحشی، مانند v2، معنی ندارد. این بدان معناست که داشتن ژنی با چنین تنوع زیادی در بیان منطقی نیست. بنابراین، باید از یک خطای روش شناختی ناشی شود. من به دنبال روشی (آزمایش احتمالی آماری) بودم که بتواند «تغییرات متوسط» را در بین نمونههای من شناسایی کند و به من گزارش دهد که کدام متغیرها (ژنها) دارای تنوع قابل توجهی بیشتری هستند. این به این معنی است که دادههای من برای این گونهها به اندازه کافی برای تخمین بیان خوب نیستند و باید آنها را کنار بگذارم. ** _در وهله اول من واقعاً از هر پیشنهادی در آزمایشی که بتوانم برای هدفم استفاده کنم سپاسگزارم._ ** من به این فکر کردم: من برای هر ژن نسبت بین **انحراف مطلق میانه (دیوانه)** و **میانگین(دارو)**. من انتظار دارم که این نسبت توزیعی شبیه به نرمال داشته باشد، با این فرض که تغییرپذیری ناشی از خطا در اندازه گیری اتفاقی است. بنابراین، من میتوانم تمام متغیرها (ژن) را شناسایی کنم که جیره*محکوم/دارو** به طور قابل توجهی بالاتر از توزیع متوسط هستند، یا اگر بخواهید پرت مثبت هستند. برای من کاملاً شهودی به نظر می رسد، اما مطمئن نیستم که چگونه آن را به شیوه ای مناسب اجرا کنم. من واقعاً از نظرات شما در مورد روش من و همچنین پیشنهادات شما در مورد اینکه چگونه می توانم تجزیه و تحلیل را انجام دهم سپاسگزارم. | نقاط خارج از مدل رگرسیون را به طور قابل توجهی شناسایی کنید |
33651 | من می خواهم خوشه بندی را در مدت زمان بین معاملات سهام اندازه گیری کنم. به عنوان مثال، یک معامله در ساعت 1:59:19 رخ می دهد و معامله بعدی در ساعت 1:59:23 انجام می شود - مدت زمان بین معاملات 4 ثانیه است. من تقریباً 50000 معامله در روز برای یک سهم خاص دارم. به من گفته شد که میتوانم مدت زمان بین معاملات را دو برابر کنم تا بتوانم خوشهبندی در معاملات را به دست بیاورم. آیا این درست است؟ اگر معاملات زیادی داشته باشم که همزمان اتفاق بیفتند چه؟ بنابراین، مدت زمان بین معاملات 0 ثانیه است. آیا این می تواند بر معیار خوشه بندی من تأثیر بگذارد؟ | چگونه خوشه بندی را در مدت زمان اندازه گیری کنیم؟ |
96250 | من حدود **100 مجموعه** دما ( **$N_{sample}=500$**) را مطالعه میکنم که به متغیرهای توضیحی 4 دلاری مانند قدرت یا سرعت بستگی دارد. وابستگی همیشه در هر مجموعه یکسان است، اما گاهی اوقات میانگین و واریانس متفاوت است. * من می خواهم ** مجموعه های مشابه را با هم گروه بندی کنم** و هر گروه را جداگانه مطالعه کنم: برای هر گروه یک مدل رگرسیون چندگانه پیدا کنید. * سپس میخواهم ** مجموعههای آینده** را که در یکی از آن گروهها کشف خواهم کرد، طبقهبندی کنم. نمیدانم به خوشهبندی یا تشخیص الگو مربوط میشود یا شاید چیز دیگری. اما من هیچ ایده ای از نحوه طبقه بندی/مقایسه مجموعه های خود ندارم، به جز مقایسه میانگین و واریانس یک به یک. آیا کسی توصیه یا پیشنهادی دارد؟ در اینجا یک مثال از 3 مجموعه آورده شده است:   از کمکتان متشکریم. | مقایسه مجموعه داده های نزدیک |
34829 | من یک شبکه عصبی را برای دادههای مثالی که به صورت آنلاین پیدا کردم، تطبیق میدهم: مخزن یادگیری ماشینی من 1 تا 10 واحد پنهان (فقط در 1 لایه) را اعتبارسنجی متقابل میکنم و حداقل خطا را با 10 واحد پنهان دارم. با این حال، من به نوعی به ماتریس های طراحی وابسته خطی فکر می کنم که 10 واحد پنهان را برای تنها 3 متغیر ورودی (سطح قرمز، سبز و آبی) معرفی می کنم. آیا این نگرانی موجه است یا می توانم فقط از 10 واحد پنهان در اینجا استفاده کنم؟ شاید تبدیل (سیگموئید) کاری برای جلوگیری از وابستگی خطی انجام دهد؟ | در یک شبکه عصبی با N متغیر، آیا >N واحد پنهان بی فایده است؟ |
107738 | آیا کسی می تواند توضیح ساده ای در مورد نحوه عملکرد آنالیز بیان ژن دیفرانسیل به من بدهد؟ من می دانم که این روش در [1] توضیح داده شده است و در بسته R بسته limma استفاده می شود. [1] اسمیت، گوردون کی. مدل های خطی و روش های بیز تجربی برای ارزیابی بیان دیفرانسیل در آزمایش های ریزآرایه. کاربردهای آماری در ژنتیک و زیست شناسی مولکولی 3.1 (2004). متشکرم | درک تحلیل بیان دیفرانسیل در آزمایشات ریزآرایه |
34824 | من در حال طراحی یک آزمایش هستم و به کمک نیاز دارم. دو ویدیو در یک وب سایت به شرکت کنندگان ارائه می شود. در یک دوره، یک ویژگی (جدول مطالب برای ویدیو) فعال است، در حالی که در دوره دیگر این ویژگی غیرفعال است. بار شناختی (DV) در هر دو ویدیو اندازه گیری می شود. من می دانم که متعادل کردن ترتیب درمان ها معقول است. با این حال، از آنجایی که شرکتکننده باید دو ویدیو را تماشا کند، ترتیب ویدیو نیز باید متعادل شود (حتی اگر مورد علاقه نباشد). بنابراین من به 4 گروه برای نمایش همه این ترکیب ها نیاز دارم: F=Feature N=No Feature V1=Video 1 V2=Video 2 Group Period 1 Period 2 1 F&v1 N&v2 2 N&v1 F&v2 3 F&v2 N&v1 4 N&v2 F&v1. (بخش آخر) می توانم از دو متغیر موضوعی ترتیب استفاده کنم و ترکیب برای نشان دادن جدول ترکیبات گروه بالا. بنابراین دادههای من به این شکل است: سفارش ترکیبی cogload1 cogload2 1 1 5.00 3.00 2 1 4.00 6.00 1 2 5.00 7.00 2 2 8.00 5.00 اینجا جایی است که گیر میکنم. با توجه به اینکه اکنون ویژگی/ویدیو به ترتیب/ترکیب کدگذاری شدهاند، چگونه میتوانم تأثیر اصلی ویژگی یا تعامل بین ویژگی و ویدیو را تعیین کنم؟ همچنین، من هنوز با مدل سازی خطی کلی، تعاملات و تفسیر نتایج از SPSS آشنا می شوم. آیا کسی منبعی دارد که بتواند توصیه کند؟ | تجزیه و تحلیل طراحی مدل های ترکیبی متعادل؟ |
34826 | بسیاری از مقالات در اقتصاد سنجی کاربردی، نمایه سازی یک مدل OLS مقطعی را به صورت $i = 1،...N$ ارائه می کنند. به عنوان مثال: $(1) Y_i = a + b X_i + e_i$ $E[e_i] = 0$ $i = 1,...,N$. آیا ارائه آن به صورت زیر اشکالی ندارد؟ $(1) Y_i = a + b X_i + e_i$ $E[e_i] = 0 $ $i \ در \\{1,...,N\\}$. شاید محققین اولی را انجام دهند زیرا دومی لزومی ندارد که $(1)$ $\forall i$ تخمین زده شود (فقط $i$ عضوی از مجموعه $\\{1,...,N\\ است. }$ و $\\{i\\}$ میتوانند زیر مجموعه مناسبی از $\\{1,...,N\\}$ باشند). می خواهید بهترین تمرین را بدانید. با تشکر | ارائه نمایه سازی یک مدل مقطعی ($i = 1،...،N$) |
107730 | هنگام استفاده از تابع ترکیبی از بسته hts بسیار مفید راب هیندمن برای پیشبینی سریهای زمانی سلسله مراتبی و گروهبندیشده، به نظر نمیرسد راهی برای محدود کردن پیشبینیهای ترکیبی بهینه برای مثبت بودن وجود داشته باشد - پیشبینیهای شروع میتوانند مثبت باشند، اما میتوانند منفی باشند. فرآیند آشتی توابع forecast.gts و forecast.hts آرگومانی برای مثبت نگه داشتن پیش بینی ها دارند، اما به نظر نمی رسد این گزینه در هنگام استفاده از ترکیب به تنهایی با پیش بینی های به دست آمده با روش های دیگر باشد. آیا در این درک درست هستم و اگر چنین است راه حل مناسبی وجود دارد؟ | ترکیبی در بسته R HTS - محدودیت برای مثبت نگه داشتن پیش بینی ها؟ |
18274 | من چندین ماه با این سوال مبارزه کردم و این وب سایت را پیدا کردم که شگفت انگیز است. یک لیگ فرضی متشکل از بازیکنانی را تصور کنید که در یک مسابقه ساده به رقابت می پردازند که هدف هر مسابقه کسب امتیاز بیشتر از حریف است. استراتژیهای بازیکن ساده هستند و در محدودهای از تمرکز بر گلزنی، تمرکز بر جلوگیری از گلزنی حریف تا هر نقطهای در این بین وجود دارند. فرض کنید بازیکنان در طول زمان به یک استراتژی خاص پایبند هستند. برای هر بازیکن در هر مسابقه، ما تعداد امتیازهای کسب شده و تعداد امتیازات مجاز را می دانیم. چالش ارزیابی نحوه عملکرد یک بازیکن در یک مسابقه خاص است. بدیهی است که تعداد امتیازهای به دست آمده توسط بازیکن کافی نخواهد بود زیرا با استراتژی حریف صحبت نمی کند (به عنوان مثال، حریفی که استراتژی متمرکز بر امتیازدهی دارد به هر بازیکن امتیاز بیشتری می دهد). من روشی را اندیشیده ام، و به دنبال بازخورد از همه اینجا هستم، به خصوص اگر این رویکرد نامی داشته باشد یا (همانطور که معمولاً اتفاق می افتد) به گونه ای دیگر فکر شده باشد. دارای سه ورودی است: * تعداد امتیازهایی که بازیکن در مسابقه کسب کرده است * میانگین امتیازاتی که همه بازیکنان در تمام مسابقات لیگ کسب کرده اند * میانگین امتیازهایی که حریف در تمام مسابقات قبلی خود مجاز کرده است، اما نه در این مسابقه. فرمول ساده به نظر می رسد: AdjPointsScored = NumPointsScored – (MeanOppPointsAllowedToDate – MeanLeaguePtsScored) که اساساً عملکرد بازیکن را به صورت +/- بیان می کند که ممکن است از یک بازیکن معمولی که در مقابل این حریف بازی می کند انتظار گلزنی داشته باشد. همچنین نمیدانم که آیا ممکن است دقیقتر باشد که NumPointsScored و MeanOppPointsAllowedToDate را بهعنوان امتیاز Z بر اساس توزیع MeanLeaguePtsScored بیان کنیم، امتیازهای z را کم کنیم و سپس نتیجه را به واحدهای MeanLeaguePtsScored تبدیل کنیم، اما مطمئن نیستم که آیا که تجزیه و تحلیل را بهبود می بخشد یا چیزها را بیهوده پیچیده می کند. بسیار Abridged. | تنظیم عملکرد بر اساس سطح مهارت حریف در یک مسابقه ساده |
33650 | من در هر بازه زمانی 5 دقیقه ای هر روز معاملاتی برای بیش از 2 سال برای 40 سهم بازده سهام دارم. من میخواهم یک رگرسیون Fama-Macbeth بر اساس بازه زمانی (فاصلههای 5 دقیقه) اجرا کنم و سپس همبستگی خطاهای استاندارد را با استفاده از Newey-West در SAS تصحیح کنم. این کد من است: ods listing close; ods output parameterestimates=pe; proc reg data=dset; بر اساس زمان_فاصله مدل depvar = indvars; اجرا؛ ترک کردن فهرست شانس؛ proc به معنی داده=pe mean std t probt; برآورد var; متغیر کلاس؛ اجرا؛ proc sort data=pe; توسط متغیر؛ اجرا؛ %let lags=1000; ods output parameterestimates=nw; بسته شدن فهرست شانس proc model data=pe; توسط متغیر؛ ابزار / intonly; برآورد=a; برآورد مناسب / هسته gmm=(bart,%eval(&lags+1),0); اجرا؛ ترک کردن فهرست شانس؛ همانطور که ممکن است حدس زده باشید، این از نظر محاسباتی بسیار فشرده است. هیچ نتیجه ای نمیتونم بگیرم آیا باید به جای بازه زمانی، رگرسیون فاما-مکبث را بر اساس سهام اجرا کنم؟ آیا من همان چیزی را دریافت خواهم کرد؟ آیا به این دلیل است که من از لیست های ods استفاده می کنم؟ | سری زمانی: تصحیح خطاهای استاندارد در مجموعه داده های سری زمانی پانل عظیم |
113110 | من از RapidMiner برای ساختن مدلهای پیشبینی آموزشدیده و تایید شده توسط مجموعهای از دادههای پزشکی استفاده میکنم (65 مورد. 18 ویژگی)، اکنون آزمایشهایی را با استفاده از ترکیبهای مختلف یادگیرندگان و پارامترها اجرا میکنم، از این طریق امیدوارم ویژگیها را کشف کنم. از اپراتورها و نحوه کار آنها، همچنین ببینید که چگونه می توانند با مجموعه داده من مطابقت داشته باشند تا مدل های بهتری ایجاد کنند. من می دانم که صرفاً ضبط AUC برای هر موقعیت کافی نیست زیرا مسئله بیش از حد مناسب است. بنابراین، در نتایج، چگونه می توانم اضافه برازش را در زمان وقوع آن ببینم، یا چه اعدادی را باید در یادداشت های آزمایشی برای تجزیه و تحلیل بیشتر اضافه برازش یادداشت کنم؟ من می دانم که مجموعه داده من به نوعی کوچک است، من در حال انجام یک پروژه تحقیقاتی کوتاه مدت هستم، بنابراین این تنها چیزی است که در دست دارم. واقعاً نمیدانم وقتی حتی نمیتوانم نتایج اعتبارسنجی خودم را باور کنم، چیز معنیداری ظاهر میشود یا خیر. هر گونه پیشنهاد در مورد روش تشخیص بیش از حد برازش یا هر قدم دیگری که می توانم برای تحقیق در مورد این مجموعه داده بردارم استقبال می شود. من در این زمینه بسیار جدید هستم، بنابراین هر چیزی می تواند مفید باشد. متشکرم. | چگونه یک مدل آموزش دیده را با استفاده از پارامترهایی غیر از AUC در RapidMiner ارزیابی کنیم؟ |
18276 | من یک کار انجام تجزیه و تحلیل داده ها در امور مالی دارم. شغل فعلی من به گونه ای است که در معرض اتفاقاتی که در بقیه صنعت یا سایر صنایع رخ می دهد، ندارم. من اطلاعات کافی در مورد آمار بیزی دارم. من میخواهم خود را قابل فروش نگه دارم، بنابراین کنجکاو هستم که در حال حاضر چه اطلاعاتی و مهارتهای آماری تقاضای زیادی دارند و کجا هستند. دنیای نرم افزار مملو از داده است، بنابراین من انتظار دارم که آنها به شدت به آماردانان نیاز داشته باشند، اما تصور من این است که آنها تقاضای زیادی ندارند. یکی از دوستان من پیشنهاد کرده است که صنعت نرم افزار در درجه اول به مهارت های داده های بزرگ نیاز دارد، نه مهارت های آماری فی نفسه. چه داده ها و مهارت های آماری در حال حاضر تقاضای بالایی دارند و در کجا تقاضای بالایی دارند؟ | چه داده ها و مهارت های آماری در حال حاضر تقاضای بالایی دارند و در کجا تقاضای بالایی دارند؟ |
68568 | من سعی می کنم بفهمم چگونه می توان اقلامی را در بازاری که به نظر می رسد به طور تصادفی اما در محدوده خاصی حرکت می کند، قیمت گذاری کرد. به عنوان مثال، در اینجا نگاهی کوتاه به داده های سری زمانی داریم: DateTime Price Volume 2013-08-27 00:00:00 1.9299999476 4 2013-08-27 01:00:00 1.6849999428 2 2027:2013 00 1.7024297714 2 2013-08-27 03:00:00 1.2264721394 2 2013-08-27 04:00:00 1.75 7 2013-08-27 05:00:00 2013-08-27 05:00:00 05:00:00 06:00:00 1.9299999476 3 2013-08-27 07:00:00 1.75 5 2013-08-27 08:00:00 1.7000000477 5 2013-08-2013: 08-08-2013 1.8600000143 4 2013-08-27 10:00:00 1.8236290216 2 2013-08-27 11:00:00 1.8600000143 7 2013-08-2018: 2013-08-2706 6 2013-08-27 13:00:00 1.9107458592 2 2013-08-27 14:00:00 1.9414916039 6 2013-08-27 15:00:00 15:00:00 1.4204-08-27 1.4204 16:00:00 1.8037977219 6 2013-08-27 17:00:00 1.871355176 4 2013-08-27 18:00:00 1.727257967 5: 2001-5: 2013 1.6200000048 5 2013-08-27 20:00:00 1.8400000334 9 2013-08-27 21:00:00 1.8099999428 1 2013-08-08-270 1 2013-08-08-2013: 10 2013-08-27 23:00:00 1.7849999666 2 2013-08-28 00:00:00 1.8500000238 2 2013-08-28 01:00:00 01:00:00 01919191919. 2013-08-28 03:00:00 1.9900000095 7 2013-08-28 04:00:00 1.8511325121 3 2013-08-28 05:00:00 1.8920069-05-00 06:00:00 1.8419520855 4 2013-08-28 08:00:00 1.7999999523 1 2013-08-28 09:00:00 1.95500000429: 802-800429: 1.9500000477 5 2013-08-28 11:00:00 1.9510477781 4 2013-08-28 12:00:00 1.9403985739 2 2013-08-08-2013: 2013-08-2005: 2013-08-28 14:00:00 1.8400759697 6 بنابراین فرض کنید من یکی از این موارد را با قیمت 1.50 خریداری می کنم. سوال این است: با چه قیمت فروش می توانم سود را به حداکثر برسانم؟ همچنین، چگونه می توانم برای هر حرکت چرخه ای قیمت حساب کنم؟ (به عنوان یک نکته، من تا حدودی با R و Rapidminer آشنا هستم) | قیمت فروش بهینه یک کالا بر اساس دادههای قیمت/حجم تاریخی آن چقدر است؟ |
31654 | من سعی می کنم به دنبال الگوهای ساده در داده های آب و هوا بگردم. در اینجا یک نسخه ساده شده از چیزی است که من با آن کار می کنم. روز <- c(4، 5، 6، 8) دما <- c(97، 100، 98، 80) رطوبت <- c(62، 46، 50، 55) فرض کنید میخواستم دمای روز 7 را پیشبینی کنم و روز 9 (هیچکدام ذکر نشده اند) با استفاده از عوامل زیر. از کدام دستور R برای این کار استفاده کنم؟ من می دانم چگونه با استفاده از 2 متغیر پیش بینی کنم. _(به روز شده با استفاده از پاسخ گرگ اسنو)_ fit <- lm(temp ~ day) newdat <- data.frame( day=c(7,9) ) predict(fit, newdat) اما چگونه می توانم از بیش از 2 استفاده کنم ? کمک شما بسیار قدردانی خواهد شد. | تحلیل رگرسیون چند متغیره پایه با R |
30309 | من مشکل زیر را دارم: من زیر مجموعه ای از سلول ها را از بافتی در مگس سرکه در روزهای مختلف پس از تولد می شمارم. در روز 0 من جمعیتی از مگس ها را به دست می آورم و در هر نقطه زمانی تعدادی از این مگس ها را تشریح می کنم (یعنی من در روز 0 جمعیت 30 مگس دارم. 3 مورد از آنها را فوراً، 3 مورد دیگر را بعد از 1 روز، 3 مگس دیگر را بعد از 3 تشریح می کنم. روز، و به همین ترتیب تا 15 روز پس از تولد). برای به دست آوردن این نتایج، من باید مگس را تشریح کنم (در نتیجه میکشم)، بنابراین نمیتوانم تفاوتها را در یک مگس منفرد در حال تغییر زمان اضافه ارزیابی کنم، اما میتوانم تفاوتها را در کل جمعیت ارزیابی کنم. چیزی که به دست میآورم یک عدد n در حدود 50 برای هر نقطه زمانی است. من فقط می توانم میانگین هر نقطه زمانی را روی نمودار رسم کنم و تغییرات اضافه وقت را به این ترتیب نشان دهم. من از خطای استاندارد میانگین برای ایجاد نوارهای خطا استفاده می کنم. مشکل من این است که باید این داده ها را نه به عنوان داده خام، بلکه به صورت نسبت در روز اول نشان دهم تا کاهش تعداد سلول ها را بهتر نشان دهم. برای انجام این کار، من دادههایم را به صورت نسبت درصدی در روز 0 [(Day1Mean/Day0Mean)*100] نشان میدهم. برای روشن تر کردن: میانگین روز 0: 5 میانگین روز1: 4 میانگین روز3: 3.5 میانگین روز6: 3.5 میانگین روز9: 3 روز12 میانگین: 2.5 میانگین روز15: 2 به جای ایجاد نمودار پراکندگی با آن داده ها (که میانگین داده ها هستند تعداد سلول هایی که شمردم) می خواهم آنها را به این شکل نشان دهم: روز0: (روز0/روز0)*100 = 100% روز 1: (روز1/روز0)*100 = 80% روز3: (روز3/روز0)*100 = 70% روز6: (روز6/روز0)*100 = 70% روز نهم: (روز9/روز0)*100 = 60 % روز12: (روز12/روز0)*100 = 50% روز15: (Day15/Day0)*100 = 40% اکنون مشکل من این است: اگر از داده های خام استفاده می کنم، می توانم آنها را رسم کنم و از خطای استاندارد محاسبه شده بر روی میانگین استفاده کنم. من نمی توانم از خطای استاندارد با راه اندازی نوع دوم استفاده کنم زیرا شماره من کاملاً متفاوت است. اگر ممکن بود، دوست داشتم خطای استاندارد را به تجسم جدید تبدیل کنم. من فکر کردم که می تواند با نوعی تبدیل ریاضی امکان پذیر باشد، به روشی مشابه که در این سند گزارش شده است: http://www.census.gov/acs/www/Downloads/data_documentation/Accuracy/PercChg.pdf با تشکر فراوان از شما کمک کند | چگونه خطای نسبت درصد را محاسبه کنیم؟ |
15084 | روش مناسب برای نوشتن نتیجه پس از توکی چیست؟ چندین مثال با نتایج متفاوت وجود دارد؟ بگویید شمال، جنوب، شرق و غرب دارید. North N=50 Mean=2.45 SD=3.9 std error=.577 LB=1.29 UB=3.62 South N=40 Mean=2.54 SD=3.8 std error=.576 LB=1.29 UB=3.63 East N=55 Mean=3.45 SD =3.7 std error=.575 LB=1.29 UB=3.64 غرب N=45 Mean=3.54 SD=3.6 std error=.574 LB=1.29 UB=3.65 شمال از نظر آماری با شرق (sig=.009) و غرب (sig= 0.040) معنادار است، اما نه جنوب (sig= .450). شرق از نظر آماری با جنوب معنادار است (0.049). | چگونه یافتههای پسهک توکی را مینویسید؟ |
59900 | من یک پیرسون r برای متغیرهای یکسان برای 4 دوره زمانی مختلف دارم. (4 سال مختلف). چگونه می توانم r پیرسون را برای همه آنها با هم پیدا کنم؟ در اینجا سال ها و ضرایب مربوطه آمده است: `1969: -.169، 1975: 0.427، 1982: 0.308، 2006: 0.632`. **آیا می توانم اینها را به ضریب r کلی پیرسون معدل کنم؟** | پیرسون r در طول زمان |
18275 | من باید باندهای اطمینان و پیش بینی را برای یک رگرسیون خطی محاسبه کنم که به شکل کلی $y=ax$ است، که در آن $a$ ضریب و $x$ متغیر است. من کدی را در http://demonstrations.wolfram.com/ConfidenceAndPredictionBands/ پیدا کردم، اگرچه باندهای اطمینان و پیش بینی $y=ax+b$ را می دهد که خارج از علاقه من است. * * * این کدی است که من بر اساس پاسخ @shabbychef نوشتم. آیا درست است؟ bands[list_, x_, type_, gamma_] := Module[{a, nlm, z, xs, ys, alphahat, betahat, sigmahat2, n, xbar, multiplier}, xs = list[[All, 1]]; ys = لیست[[همه، 2]]; alphahat = Mean[ys]; nlm = NonlinearModelFit[list, a z, {a}, z, ConfidenceLevel -> 1 - gamma]; betahat = a /. nlm[BestFitParameters]; n = طول[لیست]; xbar = Mean[xs]; sigmahat2 = nlm[Estimated Variance]; ضرب کننده = اگر[نوع == 1، Sqrt[n*sigmahat2/(n - 2)*(1/n + (x - xbar)^2/ Plus @@ ((xs - xbar)^2))]، Sqrt [n*sigmahat2/(n - 2)*(1 + 1/n + (x - xbar)^2/ Plus @@ ((xs - xbar)^2))]]; {betahat*(x)، betahat*(x) - ضریب*Quantile[StudentTDistribution[n - 2], 1 - gamma/2], betahat*(x) + multiplier*Quantile[StudentTDistribution[n - 2], 1 - گاما/2]} ] | چگونه می توان باندهای اطمینان و پیش بینی برای رگرسیون خطی را با استفاده از Mathematica محاسبه کرد؟ |
73368 | فرض کنید من یک توزیع کلی دارم که می توان آن را با 100 پارامتر $a_1,...,a_{100}$ مشخص کرد. حال، اجازه دهید بگوییم که در این خانواده از توزیعها، یک زیرخانواده وجود دارد که میتوان آن را تنها با چند پارامتر نشان داد، که محدودیتهایی را بر پارامترهای اصلی تحمیل میکند. یک مثال بی اهمیت این است که $a_1=...=a_{100}$، به این معنی که میتوانیم توزیع را با یک پارامتر واحد نمایش دهیم. می خواهم بدانم آیا نامی برای این فرآیند وجود دارد و آیا نامی برای مجموعه پارامترهای کاهش یافته جدید وجود دارد. به نظر می رسد چیزی مانند _meta-parameterization_ و _meta-parameter_ ممکن است مناسب باشد، اما من چیزی در مورد این موضوع پیدا نکردم. | آیا اصطلاحی برای کاهش تعداد پارامترهای یک توزیع به روش زیر وجود دارد؟ |
109946 | من چند تحلیل تعدیل را با استفاده از رگرسیون چندگانه سلسله مراتبی اجرا می کنم. همه متغیرهای من ترکیبی از نسخههای والد و فرزند هر مقیاس هستند. من کامپوزیت ها را با اضافه کردن امتیازهای z از هر مقیاس با هم ایجاد کردم. من فکر میکنم این یک مشکل است، زیرا وقتی عبارت تعامل را با ضرب نمرات IV و Moderator ایجاد میکنم، وقتی مقادیر منفی با هم ضرب میشوند به یک مسئله بزرگ تبدیل میشوند. هیچ کدام از کتاب های درسی کمک زیادی به این موضوع نمی کنند، کسی نظری دارد؟ پیشاپیش متشکرم، الیوت | چگونه اعتدال را با استفاده از متغیرهای ترکیبی انجام دهم؟ |
30301 | من در حال آزمایش کشت سلولی هستم. من سلول ها را در یک محیط کنترل به مدت 2 هفته رشد می دهم. در این 2 هفته سلول ها آنتی بادی تولید می کنند و در پایان 2 هفته سطح آنتی بادی را اندازه گیری می کنم. من همچنین رشد سلولی (تعداد سلول های زنده) را اندازه گیری می کنم. مشکل این است که چون یک سیستم زنده بیولوژیکی است، اگر آزمایش را 5 بار انجام دهم (دقیقاً به همان روشی که در بالا توضیح داده شد)، اعداد قابل ملاحظه ای برای رشد سلولی و تولید آنتی بادی خواهم داشت. به عنوان مثال، در 5 آزمایش رشد سلولی را پیدا کردم: 46، 59، 50، 77 و 74، و تولید آنتی بادی: 2558، 3089، 3498، 2115 و 1958. بسته به نمونه آزمایشی من، این تغییرات حتی می تواند بیشتر باشد. آیا کسی می تواند پیشنهاد دهد که چگونه می توانم این نوع تنوع بین تجربی را اصلاح کنم. با تشکر | چگونه می توان تغییرات بین تجربی در تحقیقات کشت سلولی را تصحیح کرد؟ |
107734 | فرض کنید بردار $p$-بعدی $x$ یک توزیع Fisher-Von Mises با پارامترهای $\kappa، \mu$، و $M$ را می گیرد-Wishart معکوس با $n$ درجه آزادی و پارامتر ماتریسی $I_p$، ماتریس هویت $p\times p$، با $x$ و $M$ مستقل. آیا این چنین است که $Mx$، پیش بینی شده به کره، توزیع فیشر-فون میزس را می گیرد؟ _related_: چه تحولاتی توزیع فون میزس را حفظ می کند؟ | توزیع معکوس ویشارت بار فیشر-فون میزس چگونه است؟ |
33656 | اجازه دهید توزیع X$$U(0,1)$ باشد. فرض کنید U طول کوتاهتر بازههای $(0,X)$ و $(X,1)$ باشد. یعنی $Z=min(X,1-X)$ و اجازه دهید $Y=1-Z$ طول قسمت بزرگتر باشد. نشان دهید که برای $t>1$، $P[\frac{Y}{Z}\leq t]=\frac{t-1}{t+1}$;پی دی اف $Y/Z$ را بیابید. من نمی توانم تابع توزیع را پیدا کنم. می توانم PDF $Y/Z$ را پیدا کنم. لطفاً به من کمک کنید تا $P[\frac{Y}{Z}\leq t]=\frac{t-1}{t+1}$ را پیدا کنم | نشان دهید که برای $t>1$، $P[\frac{Y}{Z}\leq t]=\frac{t-1}{t+1}$ |
109827 | متغیر $y$ را در نظر بگیرید (معمولا $y_i$ چیزی شبیه _number of ساکنان شهر $i$_ است) و برخی ویژگی های داده شده $X$ را در نظر بگیرید. فرض کنید این ویژگیها پیوسته هستند (مثلاً مساحت کل شهر، تعداد مغازهها، جادهها). ما می خواهیم از ویژگی های $X$ برای توضیح $y$ استفاده کنیم. اگرچه متغیر $y$ به طور طبیعی باید به عنوان یک متغیر پیوسته دیده شود، اما در مجموعه آموزشی من به پنج کلاس گسسته شده است: $0 \leq y < 300$، سپس $300 \leq y < 1.000$ و غیره. بنابراین، حتی برای مجموعه آموزشی من، مقدار پیوسته $y$ را نمی دانم، فقط کلاس گسسته $C(y)$ را می دانم. من باید از این داده های آموزشی برای پیش بینی $C(y)$ برای سایر شهرها (یعنی شهرهایی که بخشی از مجموعه آموزشی من نیستند) استفاده کنم. لطفاً توجه داشته باشید که من فقط میخواهم پیشبینی کنم که هر شهر دیگری به کدام طبقه گسسته تعلق دارد (من به دنبال پیشبینی دقیق $y$ نیستم). من سرگردان هستم که چه رویکردی از لحاظ نظری رضایت بخش برای این نوع مشکل می تواند باشد. آیا باید با این مشکل به عنوان یک مشکل طبقه بندی رفتار کنم، حتی اگر یک متغیر پیوسته پنهان زیرین وجود داشته باشد؟ آیا می توانم نقاط داده مرزی را شناسایی کنم و به آنها وزن کمتری بدهم؟ آیا باید $C(y)$ را با استفاده از وسط کلاس به عنوان تخمین به یک متغیر پیوسته تبدیل کنم؟ ** من از هر ایده یا مرجعی در این زمینه قدردانی می کنم. با تشکر از همه.** | چه مدلی برای طبقه بندی متغیر پیوسته گسسته |
59906 | من نمی توانم هیچ بسته ای را پیدا کنم که به من اجازه دهد bolasso را در R پیاده سازی کنم، آیا کسی یکی از آنها را می شناسد؟ در غیر این صورت، من علاقه مند به تکنیک های انتخاب مدل هستم که می تواند در R برای مدل های لجستیک پیاده سازی شود. تنها نگرانی من توانایی پیش بینی است. دادهها متغیرهای کمکی (یا ویژگیهای) زیادی دارند و من میخواهم تعاملات سطح 3 یا حتی 4 و شرایط مرتبه دوم را بررسی کنم، این چندین هزار متغیر کمکی است (~200k مشاهده وجود دارد) بنابراین مهم است که تکنیکها سریع باشند. | Bolasso in R یا سایر تکنیک های انتخاب مدل برای مدل های پارامتریک |
18279 | با استفاده از یک فرآیند دو مرحلهای RJMCMC، بردار لگاریتمهای خلفی مربوط به هر مدل را بدست میآورم. هدف من تبدیل این موارد به احتمالات پس از عادی سازی (برای استفاده در مرحله دوم فرآیند RJMCMC) است. مشکل این است که قسمتهای عقب سیاهه بزرگ هستند (مثلاً 1100). برای تبدیل به احتمالات (نه در مقیاس log) می خواهم این کار را انجام دهم: exp(log.post)/sum(exp(log.post)) اما به دلیل مقادیر زیاد log posterior این امکان پذیر نیست. پیشنهادی در مورد نحوه تبدیل کردنم دارید؟ من احتمالات را در مقیاس اصلی می خواهم، نه در مقیاس ثبت. | پستی های لاگ را به عقبی اصلی تبدیل کنید |
114026 | من می خواهم روند طبقه بندی داده های توییت را از شما بپرسم. اکنون، من روی دادههای توییتر کار میکنم، اما نحوه طبقهبندی دادههای توییت با استفاده از ابزار Mallet را گیج کردهام. مثال؛ من 200000 توییت دارم. محتوای توییت های مربوط به شرکت اپل. من می خواهم توییت ها را به دو دسته مثبت کاذب و مثبت طبقه بندی کنم. مثبت کاذب:(مربوط به شرکت اپل نیست) فیش اند چیپس خوب.. پای سیب خوب :-) مدتی است که دایی مک را ندیده ام مثبت (مربوط به شرکت) @Apple لطفا یک #ایموجی از ماهی مرکب درست کنید تا بتوانم آن را قرار دهم در کنار نام @squidneyy22 شاید #اپل فردا #iTunes11 را منتشر کند. شاید؟ آیا امکان استفاده از ابزار Mallet وجود دارد؟ چگونه می توانم انجام دهم؟ خیلی ممنون | درخواست طبقه بندی توییت |
112795 | من در مورد برخی منابع آنلاین خوب برای یادگیری نحوه پیاده سازی تکنیک های آماری فضایی، مانند Moran's I و Geary's C، یا حتی K Nearest Neighbors، تعجب می کنم ... هر گونه کمکی قابل تقدیر است. با تشکر | منابع آنلاین برای تحلیل فضایی |
112790 | من یک پیشبینیکننده طبقهبندی (درآمد) و سه پیشبینیکننده پیوسته (مساحت، تعداد اتاقهای تخت و تعداد ماشینها) دارم. چگونه می توانم یک عامل واحد از این متغیرها تشکیل دهم؟ به عبارت دیگر، من می خواهم همه این متغیرها را با هم ترکیب کنم تا یک متغیر واحد به دست آید. | ترکیب متغیرهای طبقه ای و پیوسته برای محاسبه یک عامل |
18270 | من می خواهم پرتکرارترین کلمات را در مواردی پیدا کنم که برخی از کلمات برجسته شوند. من برای هر مورد دو داده دارم، کلمه و تعداد دفعاتی که ظاهر می شود. میخواهم بدانم از کدام الگوریتمها، تکنیکها میتوان برای یافتن بیشترین دادهها استفاده کرد. در حال حاضر، من از حذف برای عادی سازی داده ها (میانگین + انحراف استاندارد * 3) استفاده می کنم، اما فکر می کنم تکنیک های دیگری وجود دارد. چه چیزی می توانم استفاده کنم؟ **ویرایش:** من میدانم چه میخواهم، اما نمیدانم چه چیزی ممکن است، زیرا اطلاعات زیادی در مورد بخش آمار ندارم. من یک چارچوب داده در R دارم که حاوی کلمات و تعداد دفعاتی است که هر کلمه ظاهر می شود. این داده ها از یک پایگاه داده بزرگ (میلیون ردیف) دریافت می شود. چیزی که من می خواهم پیدا کنم کلماتی است که **بسیار متداول** نسبت به سایرین است. به عنوان مثال، من فهرستی از کلمات متداول دارم که بعد از کاما آمده اند. من میخواهم کلماتی را که واقعاً رایج هستند از کلماتی که فقط به دلیل وجود دادههای زیاد ظاهر میشوند، متمایز کنم. **نشان دهنده الگوریتم ها/فرمول های فرکانس چیزی است که می خواهم** (من یک توسعه دهنده نرم افزار هستم، نه یک آمارگیر، نام های مناسب را نمی دانم). | الگوریتم هایی برای یافتن داده های رایج |
33652 | فاصله واحد (0، 1) با انتخاب یک نقطه به طور تصادفی از داخل بازه به دو بازه فرعی تقسیم می شود. نشان دادن طول بازههای فرعی طولانیتر و کوتاهتر با Y و Z نشان میدهد که Y/Z انتظار محدودی ندارد. فرض کنید X~U(0,1) و U طول کوتاهتر بازه های (0,X) و (X,1) باشد. یعنی Z=$min$(X,1-X) و بگذارید Y=1-U.پس، Y و Z به ترتیب طول بازههای فرعی بلندتر و کوتاهتر باشند، سپس برای پیدا کردن Expectation باید P.D.F را پیدا کنم. بله، اما من نمی توانم این کار را انجام دهم. لطفا کمک کنید. | نشان دهید که Y/Z انتظارات محدودی ندارد |
47417 | آیا اجرای کارآمدتر هستند -- این تفاوت از نظر عملی مهم است، بسته R وجود دارد که آنها را پیاده سازی می کند. آیا الگوریتم جدیدی است که بر اجرای عمومی (بسته RandomForest از R) نه تنها از نظر کارایی یا در برخی زمینه های دیگر غلبه می کند؟ جنگل تصادفی شدید http://link.springer.com/article/10.1007%2Fs10994-006-6226-1 | جنگل تصادفی شدید چه تفاوتی با جنگل تصادفی دارد؟ |
47416 | ما می دانیم که برآورد کردن مدلی که شامل عوامل MA است آسان نیست، زیرا مقادیر گذشته خطاها به صورت بازگشتی محاسبه می شوند. و این تخمین بازگشتی به برآوردهای اولیه (اولیه) پارامترها نیاز دارد. برای مثال، یک ARMA(1,2) $$z_t=\phi z_{t-1}-\theta_1 \varepsilon_{t-1}-\theta_2 \varepsilon_{t-2}+\varepsilon_t$$ برای تخمین پارامترها، ابتدا باید مقادیر $\varepsilon_{t-1}$ و $\varepsilon_{t-2}$ را محاسبه کنیم، چون اینها هنوز در دسترس نیستند و آنها با استفاده از $$\varepsilon_t=z_t-\phi z_{t-1}+\theta_1 \varepsilon_{t-1}+\theta_2 \varepsilon_{t-2}$$ محاسبه می شوند. در Box and Jenkins، سری زمانی: پیش بینی و کنترل موجود است. و این تخمین در حال حاضر در بسیاری از نرم افزارهای آماری موجود است. سوال من این است که آیا تابعی برای به دست آوردن یک تخمین اولیه از پارامترها در R وجود دارد؟ من به این نیاز دارم تا یک تخمین اولیه برای Space-Time ARIMA به دست بیاورم. سوال دیگر این است که عملکرد arima از R چگونه تخمین های اولیه پارامترها را محاسبه می کند در حالی که عوامل MA درگیر هستند؟ پیشاپیش متشکرم | برآورد اولیه ARIMA در R? |
54451 | ماهی قزل آلا گاهی اوقات حامل یک انگل انیساکیس سیمپلکس است که هنگام تغذیه از کریل در دریا می گیرد. ممکن است تعداد انگلها در هر ماهی یک متغیر تصادفی $X$ با توزیع احتمال $p(x)$ زیر فرض شود: $$p(x)= \frac{\theta^x e^{-\theta}}{ x!}\,,\quad x= 0,1,2...$$ ممکن است فرض کنید که $E(X) = \theta$ و $V(X) = \theta$. یک نمونه تصادفی از $n$ ماهی قزل آلا مورد بررسی قرار گرفت و تعداد انگلها در هر ماهی، $x_1، $$x_2، $$\ldots، $x_n$ شمارش شد. نشان دهید که برآوردگر حداکثر درستنمایی (MLE) $\theta$ میانگین نمونه است. نشان دهید که MLE برای $\theta$ بی طرف است. یک عبارت برای واریانس MLE بر حسب پارامتر $\theta$ پیدا کنید و از این رو نشان دهید که MLE برآوردگر ثابت $\theta$ است. یک نمونه تصادفی از $n = 20 $ ماهی آزاد که از یک رودخانه اسکاتلندی خاص گرفته شده بود مورد بررسی قرار گرفت و تعداد انگل ها به شرح زیر ثبت شد: xi : 2 0 4 0 1 0 3 2 0 5 1 2 0 3 0 1 6 2 2 7 با استفاده از این داده ها، $\theta$ را تخمین بزنید که حدود 95% اطمینان را برای مقدار واقعی ارائه می دهد. نشان دهید که احتمال یافتن یک یا چند انگل در ماهی با $$P(X \geq 1) = 1 داده می شود - e^{-\theta}$$ نمونه تصادفی $n = 60$ ماهی گرفته شد. از رودخانه ای متفاوت و بررسی شد. فرض کنید همه چیز شناخته شده این است که ماهی 43 دلاری حداقل یک انگل دارد و ماهی سالمون 17 دلاری بدون انگل است. یک عبارت برای احتمال این مورد پیدا کنید و از این رو MLE $\theta$ را با توجه به این اطلاعات بدست آورید. | برآوردگر حداکثر احتمال (MLE) |
68378 | فرض کنید من از R برای جا دادن یک مدل ترکیبی خطی تعمیم یافته از خانواده دوجمله ای و با یک پیوند لاجیت استفاده می کنم. چگونه می توانم فواصل پیش بینی (برخلاف فواصل اطمینان) را برای اثرات ثابت (در مقابل اثرات تصادفی) به گونه ای به دست بیاورم که تنوع توصیف شده توسط اثرات تصادفی را در خود داشته باشد؟ متشکرم. | چگونه فواصل پیش بینی را برای اثرات ثابت مدل ترکیبی خطی تعمیم یافته بدست آوریم؟ |
31658 | من یک فایل داده با مقادیر مدت زمان کار برای سه گروه دارم، و میخواهم اثر گروهی را بر مدت زمان کار تعیین کنم (وظایف توسط افراد انجام شد؛ هر گروه 7 فرد مختلف داشت؛ هر فرد سه کار مشابه را انجام داد؛ و دادهها برای یک کار فرد در گروه B به دلیل مشکل تنظیم در طول آزمایش ثبت نشد). من از فایل داده نمودار کادر زیر را ایجاد کرده ام (نقاط قرمز به معنی است و n تعداد مقادیر زمانی در هر گروه است):  و همچنین هیستوگرام زیر (مدت زمان داده شده در min:sec):  داده های من نمونه در هر گروه کوچک است و آزمون نرمال بودن Shapiro-Wilk به من می گوید که گروه A از توزیع نرمال نمی آید و گروه B و C از توزیع نرمال می آیند. از آنجایی که گروه ها کوچک و یک گروه غیرعادی است، تصمیم گرفتم آنالیز واریانس یک طرفه کروسکال-والیس (غیر پارامتریک) را اجرا کنم و نتیجه آن این بود: داده های آزمون مجموع رتبه های کروسکال-والیس: مدت زمان توسط گروه کروسکال-والیس چی -squared = 4.2811، df = 2، p-value = 0.1176 بنابراین باید بپذیرم که تأثیر گروه ها معنی دار نبود. (p-value > 0.05). با این حال، وقتی Anova یک طرفه را اجرا میکنم (بررسی سلامت عقل فقط در صورتی که Kruskal-Wallis انتخاب درستی نباشد)، نتیجه Anova این بود: مدت زمان ANOVA ~ گروه Df مجموع مربع میانگین مربع F مقدار Pr(>F) گروه 2 0.0003692 1.846e -04 6.473 0.00293 ** باقیمانده 57 0.0016257 2.852e-05 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مقایسه چندگانه توکی از میانگین 95% تفاوت سطح اطمینان خانوادگی از نظر lwr upr p adj B-A -0.0055763154 -0.0055763154 -0.00948703. 0.0054132 C-A -0.0048032407 -0.008769307 -0.0008371744 0.0138750 C-B 0.0007730747 -0.003354938 -0.003354938 -0.003354938 0.0008769307 - 0.0008371744 p-value <0.05 را برمی گرداند، یعنی نشان می دهد که اثر گروه معنادار است (در این مورد، گروه A در مورد B و C به طور قابل توجهی متفاوت بود). با این حال، به دلیل تعداد کمی از نمونه ها در هر گروه و این واقعیت که یک گروه به طور معمول توزیع نمی شود، من تمایل به پذیرش نتیجه کروسکال-والیس دارم، اما مطمئن نیستم. بنابراین سؤالات من این است: آیا باید نتیجه کروسکال-والیس را بپذیرم زیرا این آزمایش برای این مورد خاص از آنووا مناسب تر است؟ چگونه باید از نمودار جعبه و هیستوگرام برای تصمیم گیری برای مناسب ترین آزمایش استفاده می کردم؟ با تشکر | متناقض مقادیر p برای Anova و Kruskal-Wallis روی داده های یکسان: کدام درست است؟ |
35515 | من در تعجبم که پشت گزینه matlab 'Regularize' برای متد gmdistribution.fit چیست. اگر صرفاً مقدار کمی به عناصر قطری ماتریس کوواریانس اضافه می شود تا ماتریس کوواریانس معکوس شود، آیا همگرایی الگوریتم برازش تضمین می شود؟ آیا روش پیچیده تری مانند تنظیم کوواریانس انقباضی در اینجا استفاده می شود؟ Doc برای این تابع اینجاست. به طور کلی، نظر شما در مورد افزودن مقدار کمی (مثلاً 10E-4!) به عناصر مورب چیست؟ آیا همگرایی تضمین شده است؟ با تشکر | matlab gmdistribution.fit 'Regularize' - چه روش تنظیم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.