_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
90122
|
من دادههای سری زمانی بسیاری از سهام را از گروههای خاص آنها (شاخصهای بازار) دارم و میخواهم آزمایشهای کمی را روی آنها به صورت گروهی انجام دهم. فرض کنید من 30 سهام در یک دوره 10 ساله با اطلاعات روزانه دارم. این به عنوان یک سلول (در Matlab) ذخیره می شود، بنابراین اساساً یک ماتریس با 30 ستون و 2520 (10 x 252 روز معاملاتی در سال) ردیف است. فرض کنید میخواهم ماتریس همبستگی را پیدا کنم، یعنی همبستگی بین هر جفت سهام. برای انجام این کار به یک ماتریس منظم (مستطیل شکل) نیاز دارید - اما مشکل من این است که مثلاً 3 سهام فقط 8، 6 و 5 سال پیش ظاهر شدند، بنابراین ستون های آنها به ترتیب 2، 4 و 5 سال کوتاهتر از بقیه هستند. من دو گزینه برای به دست آوردن ماتریس مستطیل شکل 1 خود دارم. تمام داده ها را با رفتن به قدیمی ترین تاریخ شروع یک سهام، که در مثال من به معنای از دست دادن داده های 5 ساله است، خرد کنم - واقعاً یک گزینه نیست. 2. ستونهای کوتاهتر را پر کنید تا به اندازه ستونهای بلندتر باشد. من قبلاً یک یا دو سهم را حذف کردهام، زیرا آنها واقعاً جوان هستند، و اکنون میخواهم چند سهام باقیمانده را که سریهای زمانی کوتاهتری دارند، پر کنم. سوال من این است: اگر آن ستون ها را اضافه کنم و تجزیه و تحلیل ها را اجرا کنم (همبستگی و غیره) تا چه اندازه نتایج من تحت تأثیر / اریب / مغرضانه قرار می گیرند. آیا خطاها قابل چشم پوشی هستند؟ آیا می توانم آنها را با انتخاب خود از آنچه که آنها را با آنها پاک کنم به حداقل برسانم؟ من استفاده از NaN را در Matlab در نظر گرفتهام، زیرا در بسیاری از تحلیلهای دیگر به صورت خنثی عمل میکند، اما در اینجا یک خطا ایجاد میکند. بهترین حدس بعدی من این است که با صفر یا با میانگین ارزش آن ستون (یعنی میانگین قیمت سهام در سری های زمانی) تکمیل شود. آیا ایده دیگری وجود دارد یا اینکه بالشتک کردن یک نه کاملاً نه است؟ پیشاپیش ممنون
|
پوشش یک ماتریس - تأثیر بر تجزیه و تحلیل های آماری
|
90128
|
من باید برازش داده ها را انجام دهم تا توزیع داده های داده شده را پیدا کنم. من باید تابع PDF توزیع را پیدا کنم. من می توانم از توابع برازش داده در متلب و پایتون استفاده کنم. شبیه یک گامای کوتاه شده است. اگر داده ها نتوانند به خوبی با گامای کوتاه شده مطابقت داشته باشند چه؟ نمودار QQ (چک-چک) نشان می دهد که گامای کوتاه شده مناسب نیست. چگونه پارامترهای توزیع گامای کوتاه شده مانند آلفا (شکل) و بتا (مقیاس) را پیدا کنیم؟ اگر برازش دادهها در اینجا کار نمیکند، چه روشهای دیگری میتوانم برای آن استفاده کنم؟ هر گونه کمکی قدردانی خواهد شد.
|
نحوه یافتن توزیع داده ها با برازش داده ها
|
63251
|
اکثر منابع اینترنتی --- مقالات، اسلایدها، و غیره --- در GP که من پیدا کرده ام، تابع میانگین را صفر می دانند. فصل 15 کتاب مورفی (یادگیری ماشین: دیدگاه احتمالی) میگوید این به این دلیل است که «پزشک عمومی به اندازهای انعطافپذیر است که میانگین را بهطور دلخواه مدلسازی کند، همانطور که در زیر خواهیم دید». من ندیدم که او در نهایت این نظر را توضیح دهد. بنابراین سوال من این است: چرا وقتی یک فرض میانگین صفر می کنید، کلیت را از دست نمی دهید؟
|
چه چیزی فرض میانگین صفر را برای فرآیندهای گاوسی توجیه می کند؟
|
90126
|
این یک سوال بسیار ساده است، اما به دلایلی نمی توانم سرم را دور آن بپیچم... در واقع کمی عجیب است، زیرا آنقدر ساده است که من به نوعی می خندم که منطقی نیست. در سایت خود چیزی شبیه به این دارم:  این تقریباً معیاری است برای اینکه یک پست در وب سایت من چقدر خوب است، با اندازه گیری بازدید کننده و اشتراک گذاری داده های فیس بوک مثال: من یک پست ایجاد می کنم. سپس در ابتدا آن را با یک اشتراک گذاری در صفحه شخصی خود مشاهده کردم. از آنجا شاهد رشد آن هستم... مردم پست را در فیس بوک می بینند، کلیک می کنند یا کلیک نمی کنند. اگر کلیک کنند، به پست من می رسند، جایی که آن را به اشتراک می گذارند یا آن را به اشتراک نمی گذارند. اگر آنها آن را به اشتراک بگذارند، افراد در فیس بوک آن را در فید خود می بینند، کلیک می کنند یا کلیک نمی کنند. اگر آنها کلیک کنند، چرخه تکرار می شود. * «بازدید» تعداد موارد منحصر به فرد از Google Analytics است * «اشتراکگذاری» تعداد اشتراکهایی است که پست از API فیس بوک دریافت کرده است * «اشتراکگذاری/ساعت» «اشتراکگذاری/سن پست به ساعت» است، به عنوان مثال: «99/43.14». سوال من از اینجا شروع می شود. شما همچنین (1.5%) را خواهید دید، اکنون مطمئن نیستم که آیا به این موضوع درست فکر می کنم، اما در ذهن من این نرخ تبدیل یک سهم است. به این معنی که اگر 1 نفر ظاهر شود، 1.5٪ شانس دارد که آن را به اشتراک بگذارد. من این را با گرفتن «اشتراکگذاری/بازدید*100» محاسبه میکنم. اکنون، معیار دیگری وجود دارد که معکوس این به اصطلاح «نرخ تبدیل» است، و آن «بازدیدها/اشتراکگذاریها» است... یا به نظر میرسد در انگلیسی چه چیزی باشد... «چند بازدید از یک تک سهم». بنابراین در مثال بالا، «6571/99» که اکنون اولین ستون اینجاست: من گیج شدم که تفاوت بین این دو آمار چیست: «اشتراک/بازدید*100» و «بازدید/اشتراک» آیا یکی واقعا مفید است و دیگری نه؟ آیا هر دو مفید هستند؟ آیا درک من از آنچه آنها نادرست هستند؟ به نظر میرسد «1.5 درصد» نشان میدهد که پست به طرز وحشتناکی انجام شده است (که انجام شد)، اما «66.4» بازدید به ازای هر اشتراک به نظر میرسد که در مقایسه با پستهای دیگر در سایت من شگفتانگیز بوده است (برخی از پستهایی که مرتبههای بزرگی بهتری داشتند، دارای یک مقدار «بازدید به ازای هر سهم» چیزی بسیار پایین، مانند «4.4»). یکی از ایدههای نهایی که در حال فکر کردن بودم (ممکن است کاملاً اشتباه باشد...): شاید یکی از این ارزشها اندازهگیری عملکرد یک _headline_ باشد، زیرا این تنها چیزی است که شخص قبل از کلیک کردن در فیسبوک میبیند. بنابراین اگر عنوان شگفت انگیز باشد، ممکن است کلیک های زیادی وجود داشته باشد اما اشتراک گذاری زیاد نباشد. حال، ممکن است دیگری اندازهگیری کند که محتوای_چقدر خوب است؟ بنابراین در اینجا، ممکن است افراد زیادی کلیک نکنند (به دلیل تیتر بد)، اما در میان افرادی که کلیک می کنند، درصد زیادی از آنها به دلیل محتوای بسیار خوب به اشتراک می گذارند. متأسفم که سؤال خیلی واضحی ندارم، عمدتاً فقط به کمک نیاز دارم که خطاهای فکر من کجاست و این مقادیر واقعاً به چه معنا هستند؟ چگونه می توانم از آنها به طور موثر برای تعیین میزان خوب بودن یک پست در دسته بندی عنوان و محتوا (ارزش به اشتراک گذاری) استفاده کنم. ویرایش: همچنین، من ** دوست دارم** اگر نظری برای آمار دیگری دارید که بسیار مفید است که من در اینجا ندارم، احتمالاً چیزی بسیار پیچیده تر.
|
شفاف سازی نرخ تبدیل
|
78797
|
من در دیتامینینگ مبتدی هستم. من پروژههای دادهکاوی، کارهایی بهعنوان مدلسازی داده (اجرای الگوریتمهای مختلف dm)، پیشپردازش (ETL، پرسشهای SQL پیچیده) را انجام خواهم داد. آیا برای این کارها استفاده از نوت بوک معمولی کافی است (من چهار هسته ای i7 2ghz، 16 گیگابایت رم، 256ssd را در نظر می گیرم - البته ابزارهای دسکتاپ dm به عنوان spss، sass در مک کار نمی کنند، اما امکان مجازی سازی ویندوز با به عنوان مثال virtualbox وجود دارد) یا به شدت توصیه می شود از کامپیوتر قدرتمند دستکوپ استفاده کنید. کدام یک را پیشنهاد می کنید، کدام جایگزین در عمل بیشتر استفاده می شود؟ * * * _آیا باید دسکتاپ انتخاب کنم یا نوت بوک؟_ من باید نوت بوک بخرم، من بین 2 مدل macbook pro را در نظر می گیرم: ارزان تر (چهار هسته ای i7 2ghz، 16 گیگابایت رم، 256 گیگابایت ssd، iris pro) یا گران (چهار هسته ای i7 2.3 ghz، 16 گیگابایت رم). , 512 گیگابایت ssd, GeForce GT 750M) و اختلاف قیمت بین این مدل ها 400 یورو می باشد. در آینده نزدیک روی پروژههای دادهکاوی کار خواهم کرد (همانطور که در مورد مدلسازی دادهها، وظایف پیشپردازش اشاره کردم) بنابراین در حال یافتن مقداری سختافزار بهینه هستم که به من امکان میدهد روی این پروژهها کار کنم، بنابراین به چند گزینه فکر میکنم: 1. آیا خرید مک بوک پرو ارزان تر کافی است؟ یا زمانی که قدرت 1 کافی نیست پس (جایگزین های گران تر): 2. خرید مک بوک پرو گران قیمت؟ 3. یا برای کارهای معمولی روزانه ارزانتر macbook pro + برای اهداف داده کاوی بخرید یک رایانه رومیزی قدرتمند بخرید (من فکر می کنم حدود 400-600 یورو امکان خرید رایانه رومیزی قدرتمند وجود دارد). آیا در عمل در پروژه های واقعی بیشتر از کامپیوترهای رومیزی قدرتمند مجزا برای این داده کاوی استفاده می شود یا بیشتر فقط از نوت بوک های قدرتمند معمولی استفاده می شود؟ _سوال در مورد OS_ برای کارهای روزانه ام یونیکس را ترجیح می دهم. سوال این است که چه زمانی برای وظایف دادهکاوی استفاده از شبیهسازی ویندوز (مثلاً جعبه مجازی، موازیها..) کافی است یا اینکه به طور قابلتوجهی ماشین را با ویندوز جدا میکند (من فکر میکنم برخی از کارها مانند پرسهای SQL پیچیده ETL زمان بیشتری اجرا میکنند).
|
نوت بوک یا کامپیوتر رومیزی برای پروژه های داده کاوی
|
8159
|
> **تکراری احتمالی:** > تفاوت بین داده کاوی، آمار، یادگیری ماشین > و هوش مصنوعی چیست؟ چگونه یادگیری ماشینی را با داده کاوی مقایسه کنیم؟ داده کاوی در مقابل تجزیه و تحلیل آماری؟ یادگیری ماشین در مقابل تجزیه و تحلیل آماری؟
|
رابطه بین یادگیری ماشین، داده کاوی و تجزیه و تحلیل آماری؟
|
114151
|
من در حال تجزیه و تحلیل مجموعه ای از داده ها هستم که در آن سعی می کنم با استفاده از متغیرهای کمکی خاص (ویژگی های جمعیت شناختی نمونه) یک نتیجه (سطح دانش تغذیه زنان؛ بالا یا پایین بودن آن) را پیش بینی کنم. من قبلاً تجزیه و تحلیل Chi-square را انجام داده ام و اکنون به سمت رگرسیون لجستیک باینری پیشرفت می کنم. برای جلوگیری از ارائه بیش از حد پیچیده نتایج با گنجاندن تعداد زیادی از متغیرهای غیر معنیدار، عوامل جمعیت شناختی که در آزمون Chi-square به طور معنیداری (05/0p<) با دانش زنان مرتبط بودند، وارد تحلیل رگرسیون لجستیک شدند. این عوامل عبارتند از: بارداری های قبلی، بارداری برنامه ریزی شده، سطح تحصیلات، درآمد خانوار، زبان اول و داشتن مدرک مرتبط با سلامت و/یا تغذیه. 1. متغیر وابسته = نمره کل دانش تغذیه زنان باردار. که به این صورت کد شده است: الف. کم: 0 ب. زیاد : 1 2. متغیرهای مستقل: **a-بارداری های قبلی** دارای 3 سطح و کد گذاری شده به صورت:.دو و بیشتر: 0 هیچکدام: 1 یک: 2 **ب-بارداری برنامه ریزی شده** دارای 2 سطح و کد گذاری شده به صورت: N0:0 بله: 1 **c-مقطع تحصیلی** دارای 4 سطح است و کد گذاری شده به صورت: برخی از دبیرستان یا کمتر: 0 دبیرستان تکمیل شده: 1 TAFE: 2 تحصیلات عالی: 3 **d-درآمد خانوار** دارای 3 سطح است و با کد: <25000$/سال: 0 $25000-50000/سال: 1 >50000$/سال: 2 **e-زبان اول** دارای 2 سطح است. و با کد: N0:0 بله: 1 **ف-داشتن مدرک مرتبط با سلامت و/یا تغذیه** دارای 2 سطح و کد شده به صورت: N0:0 بله: 1 (همانطور که در بالا مشاهده شد، سطوح یا کلاس متغیرهای طبقهبندی مستقل برای کمترین بهره 0 و برای بیشترین علاقه در مورد متغیر دوگانه و غیره برای متغیرهای دیگر کدگذاری شدند). **سوالات من:** 1- کدام دسته، دسته اول (یکی از کمترین ارزش ها) یا آخرین آن را باید به عنوان دسته مرجع تعیین کنم؟ 2- در مورد متغیرهایی مانند گروه های سنی که دارای 4 طبقه است و طبقه اول کمترین مقدار را دارد اما طبقه آخر بالاترین مقدار را ندارد. به عنوان مثال گروه های سنی به شرح زیر است: زیر 20 سال (کمترین امتیاز را در دانش تغذیه دارد)، 20-29 سال، 30-39 سال (بالاترین امتیاز را در دانش تغذیه دارد) و 40 سال به بالا نمره دانش کاهش یافته است) چگونه می توانم دسته ای را با بالاترین مقدار به عنوان رده مرجع انتخاب کنم وقتی که تجزیه و تحلیل رگرسیون لجستیک باینری را اجرا می کنم در حالی که اولین یا آخرین دسته نیست؟ 3- در رابطه با رگرسیون لجستیک باینری، کدام روش بهتر است: اینتر یا یکی از روش های حذف رو به جلو یا عقب؟ چه تفاوتی بین آنها وجود دارد؟ بر اساس چه چیزی باید روش را انتخاب کنم؟
|
در رابطه با رگرسیون لجستیک باینری، کدام روش بهتر است: اینتر یا یکی از روش های حذف رو به جلو یا عقب؟
|
97471
|
من مقدار تعیین کننده دریافت کردم - 5.84E-007. یعنی چی؟ کار رو ادامه بدم یا نه؟ من باید چه کار کنم؟ و همچنین مقدار Kaiser-Meyer-Olkin زیر و نتایج آزمون Bartlett's Kaiser-Meyer-Olkin Measure Sampling Adequacy را بدست میآورم. .793 تست کرویت بارتلت تقریبا. Chi-Square 3.452E3 df 253 Sig. 000 تست کرویت بارتلت تقریبا. Chi-Square 3.452E3 - آیا این مقدار صحیح است؟
|
تحلیل عاملی با استفاده از spss
|
29356
|
من می خواهم درک مفهومی از خطای میانگین مربعات ریشه (RMSE) و میانگین انحراف سوگیری (MBD) به دست بیاورم. با محاسبه این معیارها برای مقایسه دادههای خودم، اغلب گیج شدهام که RMSE بالا است (مثلاً 100 کیلوگرم)، در حالی که MBD پایین است (مثلاً کمتر از 1٪). به طور خاص، من به دنبال مرجعی (نه آنلاین) هستم که ریاضیات این معیارها را فهرست کرده و مورد بحث قرار دهد. روش معمول پذیرفته شده برای محاسبه این دو معیار چیست و چگونه باید آنها را در مقاله ژورنالی گزارش کنم؟ در زمینه این پست داشتن یک مجموعه داده اسباب بازی که می تواند برای توصیف محاسبه این دو معیار استفاده شود، واقعا مفید خواهد بود. برای مثال، فرض کنید که من جرم (بر حسب کیلوگرم) 200 ویجت تولید شده توسط یک خط مونتاژ را پیدا کنم. من همچنین یک مدل ریاضی دارم که سعی خواهد کرد جرم این ویجت ها را پیش بینی کند. این مدل نباید تجربی باشد و میتواند مبتنی بر فیزیکی باشد. من RMSE و MBD را بین اندازهگیریهای واقعی و مدل محاسبه میکنم و دریافتم که RMSE 100 کیلوگرم و MBD 1٪ است. این از نظر مفهومی به چه معناست و چگونه می توانم این نتیجه را تفسیر کنم؟ حال فرض کنید که من از نتیجه این آزمایش دریافتم که RMSE 10 کیلوگرم و MBD 80٪ است. این به چه معناست و در مورد این آزمایش چه می توانم بگویم؟ منظور از این اقدامات چیست و این دو (در کنار هم) به چه معناست؟ وقتی MBD با RMSE در نظر گرفته می شود چه اطلاعات اضافی ارائه می دهد؟
|
درک مفهومی ریشه میانگین مربعات خطا و میانگین انحراف بایاس
|
8864
|
من با مدل های پیش بینی کننده تازه کار هستم و مشکلی در دست دارم که به مشاوره نیاز دارم. اساساً برای یک کاربرد بالینی، ما میخواهیم نتیجه یک مقیاس رتبهبندی را با مدلی که بر روی نتایج دستگاه اندازهگیری جدیدمان ساخته شده است، پیشبینی کنیم. متغیر وابسته من، یک مقیاس رتبه بندی بالینی، یک عدد صحیح بین 0 تا 10 (شامل) است. متأسفانه من نمونه بزرگی ندارم ($n \تقریباً 100 دلار) و ویژگیهای زیادی برای انتخاب دارم ($p \حدود 120 دلار). همچنین بسیاری از این ویژگی ها با هم مرتبط هستند. تقریباً همه ویژگی ها متغیرهای پیوسته هستند. من یک نمونه جداگانه برای اعتبار سنجی دارم ($ n \ تقریبا 40 $). چندین موضوع وجود دارد که مایلم در مورد آنها راهنمایی کنید: 1. آیا باید به سراغ روش های رگرسیونی یا درختی بروم؟ 2. آیا باید روش های یادگیری گروهی را امتحان کنم یا بهتر است از یک مدل استفاده کنم؟ کدام روش ها را باید امتحان کنم و چرا؟ 3. اگر بهتر است سراغ تک مدل برویم، چگونه باید با مشکل انتخاب مدل برخورد کنم؟ آیا باید به عنوان مثال تعداد پیش بینی ها را محدود کنید و به سراغ روش هایی مانند LEAPS با AIC بروید یا باید سراغ روش هایی مانند LASSO بروم؟ 4. اگر روش های گروهی پیشنهاد می شود، کدام روش می تواند موارد با $n$ کوچک و $p$ بزرگ را بهتر مدیریت کند؟ 5. بحث در مورد ویژگی های انتخاب شده/تاثیرگذار برای من مهم است. با توجه به پاسخ سوالات قبلی، چگونه باید این کار را انجام دهم؟ من تا حدودی از مدلسازی رگرسیون و مشکلات انتخاب مدل درک دارم. من قبلا از پکیج bestglm استفاده کرده ام. در حال حاضر من به بسته Caret نگاه می کنم زیرا تعداد زیادی روش را تحت یک رابط کاربری قرار می دهد. منابع در مورد جزئیات مدلها فنی میشوند، اما تا کنون منبع خوبی برای بررسی مسائل عملی برای مشکلات با n کوچک و p بزرگ پیدا نکردهام. از پیشنهادات و کمک شما قدردانی می کنم. با تشکر، الف سین
|
به دنبال ایده هایی برای ساخت یک مدل پیش بینی کننده هستید
|
53333
|
همه ما دیدهایم که چگونه $p$-values را میتوان برای استنتاجهای نادرست تفسیر کرد. با این حال، من علاقه مند به یادگیری بیشتر در مورد ایرادات نظری/ریاضی/فلسفی به پارادایم فرضیه-آزمون- یعنی. من می خواهم بدانم که چرا کسی نسبت احتمال را به آزمون فرضیه ترجیح می دهد (مثلاً). من مقالاتی از اندرو گلمن در این زمینه خوانده ام، اما سعی می کنم ادبیات بیشتری پیدا کنم. هر گونه کمکی بسیار قدردانی خواهد شد.
|
ایرادات نظری به آزمون فرضیه
|
23712
|
> **تکراری احتمالی:** > چه زمانی حذف رهگیری در lm() مشکلی ندارد؟ من مقداری خروجی رگرسیون از R دارم: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -28.84775 29.71148 -0.971 0.341 sqft 0.17091 0.01545 11.064 2.48e-11 *** lotsize 6.7147729 6.19e-05 *** baths 15.53470 9.20827 1.687 0.104 --- رهگیری (و حمام ها) بی فایده به نظر می رسد، بنابراین برای تأیید آن، «confint()» را اجرا کردم: 2.5 % 97.5 % (Intercept) -8222050500-829.920 0.1391546 0.2026609 lotsize 3.8561912 9.6992184 حمام -3.3931660 34.4625741 و چه می دانید، آن است. الان گیر کردم اینجا چیکار کنم من می بینم که رهگیری می تواند شیب صفر داشته باشد، بنابراین می توانم با رهگیری مانند یک پیش بینی رفتار کنم و آن را رها کنم؟ پس از برداشتن «حمام» و اجرای مجدد رگرسیون، رهگیری همچنان از نظر آماری ناچیز است: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -23.20585 30.51527 -0.760 0.453566 و 2.5 % 97.5 % (Intercept) -85.8180248 39.4063179 نظری دارید؟
|
رگرسیون چندگانه: وقتی رهگیری قابل توجه نیست چه باید کرد؟
|
12209
|
می خواستم بدانم، با توجه به دو توزیع نرمال با std1، mean1 و std2، mean2، چگونه می توانم درصد مناطق همپوشانی دو توزیع را محاسبه کنم؟ فکر می کنم این مشکل یک نام خاص دارد، آیا از نام خاصی که این مشکل را توصیف می کند اطلاع دارید؟ آیا از اجرای این (به عنوان مثال، کد جاوا) اطلاع دارید؟
|
درصد مناطق همپوشانی دو توزیع نرمال
|
97477
|
من **رگرسیون چند جمله ای** را روی داده های خود اعمال می کنم، با این حال پارامترهای تتا همیشه **=0** بودند، متوجه شدم که داده یا خروجی y من در مرتبه 100000 خیلی بزرگ است، بنابراین y را **نرمال کردم** ، من پیش بینی های بسیار خوبی داشتم. با این حال، اگر لازم باشد پیشبینیها را بر اساس **مقادیر y واقعی** دریافت کنم، چه کاری میتوانم انجام دهم، به این معنی که چگونه میتوانم ** غیرعادی کنم**؟ آیا پارامترها بعداً اشتباه نمی شوند زیرا آنها را از داده های عادی خارج کردم؟ توجه: من همچنین ورودی x را عادی می کنم
|
غیرعادی کردن داده ها
|
62780
|
آیا کسی میتواند یک بسته R را توصیه کند که برش چپ، سانسور راست، و متغیرهای وابسته به زمان را مدیریت کند؟ من مجموعه داده ای دارم که از داده های فاصله تا رویداد تشکیل شده است تا زمان تا رویداد همانطور که در تحلیل سنتی بقا دیده می شود. من در حال مطالعه اثرات مزاحم سفر کشتی کروز در خلیجی در آلاسکا برای یک پرنده دریایی کوچک هستم که هنگام استراحت یا تغذیه روی آب شناور است. در واکنش به نزدیک شدن کشتی، یک پرنده می تواند 1. از آب خارج شود، 2. در زیر آب شیرجه بزند 3. به کشتی اجازه عبور دهد (در نظر گرفته شده به عنوان سانسور شده). از آنجایی که پرندگان در فاصله معینی از کشتی انتخاب می شوند و این فاصله با پیشروی کشتی کاهش می یابد، من فواصل اندازه گیری شده را طوری تغییر داده ام که در هنگام پیشرفت کشتی، فاصله به جای کاهش بیشتر افزایش می یابد (هر فاصله را از دورترین فاصله مشاهده شده برای همه پرندگان کم می کنم) . پس از ارائه نتایج، فواصلی که پرنده در نهایت در آن واکنش نشان می دهد، تغییر خواهد کرد. این اجازه می دهد تا داده ها به نرم افزار تجزیه و تحلیل بقای معمولی منتقل شوند، گویی زمان تا رویداد است (افزایش هر مشاهده مکرر). من در حال بررسی اثرات چندین متغیر ثابت مختلف (آب و هوا، فاصله تا ساحل، سرعت کشتی، و غیره) هستم، اما یک متغیر وابسته به زمان (یا به جای فاصله) دارم، پرندگانی که کمان را در رابطه با مسیر کشتیها برمیدارند. مگر اینکه پرنده مستقیماً در خط کشتی باشد، با نزدیکتر شدن کشتی، عملکرد نسبی آن از مسیر کشتی تغییر میکند. در نهایت اگر پرنده روی آب بماند، در دمای 90 درجه تا تعظیم قرار می گیرد و کشتی از کنار پرنده می گذرد. بنابراین من اندازهگیریهای فاصله و تحمل را روی هر پرنده تکرار کردهام که به این متغیر اجازه میدهد در طول مشاهده تغییر کند. من این متغیر کمکی را باینری (0-44 درجه و 45-90 درجه) در نظر گرفته ام. من عمدتاً به چگونگی تأثیر متغیرهای کمکی بر رویدادهای رقیب (Flush یا Dive) و اینکه آیا این دو استراتژی اجتناب بر اساس فاصله تا کشتی تغییر می کنند (تحلیل اولیه به نظر می رسد که تغییر می کنند) علاقه مند هستم.
|
تجزیه و تحلیل بقای ریسک رقابتی با متغیرهای کمکی وابسته به زمان
|
107980
|
من می خواهم بدانم چگونه با توجه به یک مجموعه داده، موارد زیر را به دست آوریم: 1/ تابع چگالی احتمال پارامتری که به بهترین شکل داده ها را توضیح می دهد 2/ مقادیر پارامتر چنین pdf با تشکر جانی
|
کالیبراسیون در آمار
|
63250
|
من سعی می کردم با استفاده از روش hw در R پیش بینی کنم. داده هایی دارم که به شرح زیر است: دوره 1: 568 485 360 523 514 370 332 دوره 2: 841 685 719 647 615 389 361 360 361 713 581 436 394 دوره 4: 865 805 952 759 677 429 424 دوره 5: 598 868 888 849 707 458 426 دوره 6: 950 677 429 424 دوره 6: 950 806 429 7: 1,070 770 989 863 737 525 461 Period 8: 1,041 863 989 833 783 506 496 > > [...] و دوره های بیشتر > دوره در اینجا نشان دهنده هفته ها و هر یک از داده ها در دوره ها مقادیر در یک روز هستند. بنابراین می توانیم الگویی را ببینیم که 3 روز اول معمولاً بیشترین مقدار را نشان می دهد. تصمیم گرفتم با روش HW پیش بینی کنم. بنابراین من این کار را در R انجام دادم: library(forecast) x <- data$weeklydata x <- ts(x، فرکانس = 7) plot(hw(x، 6)، byt = 1) با این حال، نموداری که دریافت می کنم از 200- تا 300 متغیر است، با پیش بینی من نزدیک به 0 تا کمیت منفی نشان داده شده است. من در اینجا با مفاهیمم اشتباه اساسی می کنم، یا مشکلی در کدنویسی R من وجود دارد؟
|
تابع پیش بینی R (رویکرد HW Holt-Winters)
|
101265
|
من سعی کردم از بسته nlme در r برای انجام یک مدل خطی چندسطحی استفاده کنم. من عملکرد را به عنوان متغیر پاسخ و بارندگی را به عنوان متغیر پیش بینی کننده برای 60 سال برای 6 مکان مختلف (ایالت) دارم. من در تلاشم تا ببینم آیا بارندگی در همه مکانها تأثیر یکسانی بر عملکرد دارد یا تأثیرات متفاوتی دارد. در اصل، من سعی می کنم ببینم که آیا شیب عملکرد در مقابل بارندگی به طور قابل توجهی بین مکان ها متفاوت است یا خیر. بنابراین بارندگی اثر تصادفی من است. من مدل خود را اینگونه ساختم: # مدل پایه که فقط شامل intercept mdl1<-gls (بازده ~ 1, داده = داده, روش = ML) # intercept به عنوان اثر تصادفی mdl2<-lme(بازده ~ 1,data=data ,random = ~1|state,method=ML) # شیب به عنوان اثر تصادفی mdl3<-lme(بازده ~ باران، داده = داده، تصادفی = ~باران|حالت، روش = ML) ## سه مدل آنووا را مقایسه کنید(mdl1,mdl2,mdl3) ##این به من نشان می دهد وقتی شیب را به عنوان اثر تصادفی اضافه می کنم، مدل من در مقایسه با خط پایه تناسب بهتری نشان می دهد مدل (mdl1) این همه خوب کار می کند. مشکل زمانی شروع میشود که من همان آنالیز را با استفاده از یک متغیر پیشبینیکننده دیگر (یک دادههای شمارش) # مدل پایه که فقط شامل intercept انجام میدهم شروع میشود: mdl4 به خوبی کار میکند<-gls (بازده ~ 1، داده = داده، روش = = ML) #intercept به عنوان اثر تصادفی - کار خوب MDL5 <-lme (عملکرد 1 ~ ، داده = داده ، تصادفی = 1 | حالت ، روش = میلی لیتر) # متفاوت است پیش بینی کننده (شکست) این بار به جای rain mdl6<-lme(بازده ~ شکست، داده = داده، تصادفی = ~شکست|حالت، روش = ML) وقتی mdl 6 را اجرا می کنم، این خطا به من می دهد Error در lme .formula(res_yld ~ brk، داده = داده، تصادفی = ~brk | حالت، : مشکل nlminb، کد خطای همگرایی = 1 پیام = بدون همگرایی به حد مجاز رسیده است (10) من مطلقاً نمی دانم که چرا این اتفاق برای اولین پیش بینی من رخ می دهد، اما در مورد پیش بینی کننده دیگری کار نمی کند آنلاین، اما پست ها برای من خیلی واضح نیستند، من واقعاً از هر کسی که بتواند در این مورد صحبت کند، قدردانی می کنم. با تشکر
|
کد خطای همگرایی nlme() = 1
|
103478
|
وقتی VIF متغیرهای مستقل خود را با متغیر وابسته بررسی میکنم، نرمال به نظر میرسد و کمتر از 5 است، اما وقتی متغیرهای تعامل را اضافه میکنم، VIF برای برخی از متغیرها به 48 افزایش مییابد. من خواندم که مرکز کردن یا ایجاد zscore (مقادیر استاندارد شده) برای متغیرها دو راه حل مشکل هستند، اما به نظر نمی رسد مقاله ای پیدا کنم که این کار را انجام دهد. من در حال انجام تحلیل داده های تابلویی با مدل ثابت هستم. چهار متغیر مستقل پیوسته با یک متغیر پیوسته و همچنین با یک سال ساختگی در یک مدل دیگر تعامل دارند چه باید بکنم؟ پیشاپیش از شما متشکرم
|
چند خطی با تعامل (VIF بالا)
|
54699
|
به نظر نمی رسد متوجه شوم که چرا نمی توانم یک آزمون 5 گروه بندی شده Kruskal-Wallis را در اندازه های نمونه نابرابر در matlab انجام دهم. آیا فکری برای انجام این کار دارید؟ همچنین به عنوان یک تجزیه و تحلیل پس از وقوع با استفاده از مجموع رتبه Wilcoxon آیا این به صورت جداگانه گروه ها را مقایسه می کند؟ با احترام، ویرایش: من طول 5 نوع مراقبت پرستاری را مشاهده کردم، اما اکنون 5 گروه با اندازه های نمونه متفاوت وجود دارد، فقط به این دلیل که مراقبت نوع 1 بیشتر انجام می شد. بنابراین وقتی «[P,ANOVATAB,STATS]=kruskalwallis([rand(10,1) rand(30,1)]) را اجرا میکنم > دریافت میکنم: خطا در استفاده از ابعاد آرگومانهای horzcat CAT سازگار نیست. چرا حجم نمونه نابرابر اهمیت دارد و در عوض چه کاری باید انجام دهم؟
|
آزمون کروسکال والیس گروههای دارای حجم نمونه نابرابر matlab
|
54696
|
من داده های قبل و بعد از آزمون را برای 2 گروه با استفاده از ANOVA اندازه گیری های مکرر ارزیابی می کنم. با توجه به اینکه من چند سلول داده را از دست داده ام، n نهایی در تجزیه و تحلیل کاهش می یابد. میخواهم بدانم آیا میتوانم ANOVA اندازهگیریهای مکرر جداگانه را برای هر آزمون فرعی (یا ترکیبهایی که تعداد مجموعه دادههای کامل یکسانی دارند) اجرا کنم، بهجای اینکه همه آنها را در یک مدل قرار دهم تا دادههای تحلیلشده را به حداکثر برسانم. اگر من ANOVA های جداگانه ای را اجرا کنم، آیا برای تفسیر من از خروجی پیامدهایی وجود دارد؟ ممنون میشم اگه راهنمایی کنید
|
اندازهگیریهای مکرر ANOVA مقادیری ندارند - مدلهای جداگانه اجرا میشوند؟
|
95187
|
همچنین میخواهم بدانم چرا این یکی یا دیگری است.
|
آیا مقدار p یک آمار نمونه است یا یک پارامتر جامعه یا هیچ کدام؟
|
62782
|
اگر درست متوجه شده باشم، مدل پروبیت یک مدل خطی تعمیم یافته است. من آن را در جدول ندیدم، بنابراین میخواستم بدانم که آیا عملکرد پیوند آن برای برخی از توزیعها متعارف است؟ با تشکر
|
آیا تابع پیوند در مدل پروبیت متعارف است؟
|
62788
|
من سعی می کنم دریابم که آیا برخی از خوشه ها در یک دندروگرام حاشیه نویسی دلخواه برای یک سطح خاص از یک متغیر طبقه بندی شده غنی شده اند. در حال حاضر، همانطور که در تصویر می بینید، من به سادگی یک تست Fisher'Exact را برای تمام هشت متغیر (نتیجه 1/0) با استفاده از رخداد درون خوشه ای آن سطح در مقابل رخداد خارج از آن محاسبه می کنم. من زیرخوشه ها را با برش دندروگرام در سطوح مختلف تعریف می کنم، و سپس یک خط صورتی بر روی غنی ترین خوشه رسم می کنم (من مقادیر p را از طریق BH در هر سطح برش اصلاح نمی کنم، تا خوشه بزرگتر را ترجیح دهم).  **اولین** سوال من این است: اگر سطوح یک متغیر بیشتر از دو باشد، تست صحیح چیست؟ سوال **دومین** من این است: آیا روشی زیباتر از بریدن درخت در چندین سطح (در مورد من، به طور دلخواه در 2:20 تعریف شده است) وجود دارد و هر بار غنی سازی را در تمام زیر گروه های تولید شده بررسی کنید؟ من از R استفاده می کنم ، بنابراین با اشاره به من به سمت بسته های R پاسخ دهید :-) متشکرم!
|
غنی سازی متغیرهای درون خوشه ها
|
26839
|
من اخیرا به SPSS v20 تغییر مکان دادم. اکنون وقتی نمودارها را به یک فایل DOC صادر می کنم، نمودارها تصویر هستند. هنگامی که من از نسخه قبلی SPSS خود صادر می کنم، نمودارها قابل ویرایش هستند. آیا کسی می تواند به من بگوید که چگونه نمودارهای قابل ویرایش را با V20 صادر کنم؟ با تشکر
|
چگونه نمودارهای SPSS را صادر کنیم تا بتوان آنها را ویرایش کرد
|
91346
|
من به دنبال یک معیار تشابه هستم به طوری که با توجه به دو کاربر فیس بوک، مقداری را برمی گرداند که نشان دهنده شباهت دو کاربر است. معیارهای تشابه باید این دو مشارکت را در نظر بگیرند (در همان زمان): 1. نمایه کاربر (سن، شهر، مکان، مذهب، موارد پسند و غیره) 2. عامل شبکه، یعنی اینکه دو کاربر چقدر شبیه یکدیگر هستند. در رابطه با شبکهشان (مثلاً دو کاربر که دوستان مشترک زیادی به اشتراک میگذارند نسبت به دو کاربر با دوستان مشترک کمی شبیهتر هستند) بنابراین من به یک معیار _unique_ (مقدار منحصربهفرد) نیاز دارم که به ما بگوید دو کاربر چقدر شبیه یکدیگر هستند. با توجه به مشخصات کاربران و فاکتور شبکه هستند. **به روز رسانی:** شاید برای درک درستی از منطق پشت مشکل من، ایده توسعه یافته در این مقاله مفید باشد: اقدامات مبتنی بر شبکه و نمایه برای شباهت های کاربر در شبکه های اجتماعی. اما در این کار، اولاً (برای من) مشخص نیست که چگونه شبکه و شباهت پروفایل را ترکیب کنیم و دوم اینکه شباهت شبکه (به دلایل خاصی که در مقاله مطرح شده است) متقارن نیست.
|
شباهت های کاربران فیس بوک
|
72858
|
من می خواهم افراد یک پایگاه داده را بر اساس یک متغیر کمی طبقه بندی کنم. آیا خوشه بندی سلسله مراتبی برای این کار مناسب است؟ اگر ممکن است، الگوریتم چگونه کار می کند؟ اگر استفاده از خوشهبندی سلسله مراتبی درست نیست، از کدام روشها یا تکنیکهای دیگر میتوانم استفاده کنم؟ هدف من طبقه بندی متغیر نیست، بلکه افراد است. بنابراین درختان تصمیم مناسب نیستند.
|
چگونه می توان یک طبقه بندی را تنها با یک متغیر انجام داد؟
|
54695
|
یک متغیر پنهان وجود دارد که من می خواهم آن را تقریبی کنم. من چندین آمار خلاصه را می دانم: حداقل، حداکثر، میانگین، میانه، انحراف معیار، n. و اینکه تقریبا طبیعی است. بدیهی است که با توجه به میانگین و انحراف معیار میتوانم یک توزیع نرمال ساده انجام دهم، اما میدانم که کمی کج و دم محدود است. بدیهی است که تقریب من کامل نخواهد بود، اما نزدیکتر خواهد بود. من احتمالاً در «R» پیادهسازی خواهم کرد، اما پیشنهادهایی که به پلتفرمها مرتبط نیستند قدردانی میشوند. مثال: Xbar <- 101.73 Xmedian <- 97.7 Xs <- 20.45 (انحراف استاندارد) Xmin <- 50 Xmax <- 160 n <- 148
|
تولید توزیع بر اساس آمار توصیفی
|
103475
|
تفاوت بین طبقه بندی کننده، مدل و برآوردگر چیست؟ از آنچه می توانم بگویم: * برآوردگر پیش بینی کننده ای است که از الگوریتم رگرسیون پیدا می شود * طبقه بندی کننده پیش بینی کننده ای است که از الگوریتم طبقه بندی پیدا می شود * یک مدل می تواند هم تخمینگر یا یک طبقه بندی کننده باشد اما از نگاه آنلاین به نظر می رسد که ممکن است این موارد را داشته باشم. تعاریف به هم ریخته بنابراین، تعاریف واقعی در زمینه یادگیری ماشین چیست؟ پیشاپیش ممنون
|
طبقهبندی کننده در مقابل مدل در مقابل برآوردگر
|
26831
|
هنوز در حال اجرای مدل های رگرسیون لجستیک هستم و می خواهم چند سوال در مورد آن بپرسم. **سوال 1**: آیا راه ساده ای برای بدست آوردن مقادیر p هر عامل مستقل در مدل رگرسیون لجستیک وجود دارد؟ به عنوان مثال، من این مدل را اجرا می کنم: mymod3 <- as.formula(surv~as.factor(tdate)+as.factor(sline)+as.factor(pgrp) +as.factor(weight5)+as.factor( backfat5) +as.factor(srect2)+as.factor(bcs) +as.factor(agit)+as.factor(uscore) +as.factor(loco)+as.factor(teat2) +as.factor(uscoref)+as.factor(colos) +as.factor(tb5)+as.factor(عصب) +as.factor(feed5)+ as.factor(fos) +as.factor(gest3)+as.factor(int3) +as.factor(psex)+as.factor(bwt5) +as.factor(presp2)+as.factor(mtone2) +as.factor(pscolor)+as.factor(pmstain) +as.factor(pshiv)+as.factor(ppscore) +as.factor(pincis)+ as.factor(prectem5) +as.factor(pcon12)+as.factor(crum5) +as.factor(pindx5)) sofNoMis3 <- apf[which(complete.cases(apf[,all.vars(mymod3)]))،] FulMod3 <- glm(mymod3,family=binomial(link=logit),data=sofNoMis3) خلاصه (FulMod3 ) من از این برای بررسی سطح قابل توجه هر عامل استفاده می کنم: anova(FulMod3,test=Chisq) و این را دریافت کرد: تجزیه و تحلیل مدل جدول انحراف: دو جمله ای، پیوند: logit پاسخ: surv شرایط اضافه شده به ترتیب (اول تا آخرین) Df Deviance Resid. دی اف رزید. Dev Pr(>Chi) NULL 7791 7096.2 as.factor(tdate) 15 50.71 7776 7045.4 9.215e-06 *** as.factor(sline) 1 13.90 7775 7031.5 as2factor *** 8.83 7772 7022.7 0.0316335 * as.factor(weight5) 4 7.18 7768 7015.5 0.1268943 as.factor(backfat5) 4 3.86 7764 7014.70. 0.15 7763 7011.5 0.6987832 as.factor(bcs) 3 6.46 7760 7005.1 0.0910745 . as.factor(agit) 2 13.44 7758 6991.6 0.0012075 ** as.factor(uscore) 2 2.16 7756 6989.5 0.3401845 as.factor(loco) 2 1.56 78759 78754 as.factor(teat2) 2 25.45 7752 6962.4 2.980e-06 *** as.factor(uscoref) 2 0.48 7750 6962.0 0.7861675 as.factor(colos) 1 1.0656977 as.factor(tb5) 4 49.22 7745 6911.7 5.265e-10 *** as.factor(عصب) 2 0.99 7743 6910.7 0.6105452 as.factor(feed5) 4 11.790.79087 as.factor(fos) 1 47.10 7738 6851.8 6.732e-12 *** as.factor(gest3) 2 22.60 7736 6829.2 1.235e-05 *** as.factor(int3) 2 6.426 2 6.607 as.factor(psex) 1 9.50 7733 6813.1 0.0020493 ** as.factor(bwt5) 4 348.42 7729 6464.7 < 2.2e-16 *** as.factor(presp2) 1 3 106 <782. 2.2e-16 *** as.factor(mtone2) 1 34.13 7727 6324.3 5.146e-09 *** as.factor(pscolor) 1 12.57 7726 6311.7 0.0003928 *** 0.0003928 *** 5stain 10. 6311.4 0.5845095 as.factor(pshiv) 1 32.29 7724 6279.2 1.328e-08 *** as.factor(ppscore) 1 16.71 7723 6262.4 4.351 6262.4 4.351 ***0sfactor. 7722 6262.4 0.8892848 as.factor(prectem5) 4 126.06 7718 6136.4 < 2.2e-16 *** as.factor(pcon12) 1 17.88 7717 6118.5 as.5-0. 15.25 7713 6103.2 0.0042137 ** as.factor(pindx5) 4 25.58 7709 6077.6 3.838e-05 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 اما همیشه با مدل نهایی پس از اعمال حذف معکوس مطابقت ندارد: مثال: این سه عامل در بالا معنی دار نبودند اما آنها هنوز هم در مدل نهایی زیر به عنوان.factor(weight5) 4 7.18 7768 7015.5 ظاهر شدند 0.1268943 as.factor(backfat5) 4 3.86 7764 7011.7 0.4258074 as.factor(srect2) 1 0.15 7763 7011.5 0.6987832 step(FulModward3,cedirection=FulModward3,ceied)
|
رگرسیون لجستیک در R
|
24572
|
در سوال قبلی ام نیاز داشتم که در استخراج ناحیه بیضی کمک کنم و تعیین کنم که آیا نقطه در آن ناحیه قرار دارد یا خیر. من به این کد رسیدم: library(ellipse) library(mvtnorm) require(spatstat) netflow <- read.csv(file=data.csv,head=FALSE,sep= ) #add headers names(netflow)<-c('timestamps','flows','flows_tcp','flows_udp','flows_icmp','flows_other','packe ts','packets_tcp','packets_udp','packets_icmp','packets_other','octets','octets_tcp','octets_udp','octets_icmp','octets_other') attach(netflow) #load library library(sfsmisc) #طرح plot(packets,flows,type='p',xlim=c(0,500000),ylim=c(0,50000),main=وابستگی تعداد جریان به تعداد بسته,xlab=packets,ylab =flows,pch = 16, cex = .3,col=#0000ff22,xaxt=n) #محور x را کامل کنید eaxis(1، padj=-0.5، cex.axis=0.8) pktsFlows=subset(na.omit(netflow),select=c(packets,flows)) head(pktsFlows) #plot(pktsFlows,pch = 16, cex = .3,col=#0000ff22) cPktsFlows <- apply(pktsFlows, 2, mean) elpPktsFlows=ellipse::ellipse(var(pktsFlows),centre=cPktsFlows,level=0.8) png(file=graph.png) plot(elpPktsFlows,type='l',xlim= c(0,500000) ylim=c(0,50000)) points(pktsFlows,pch = 19, cex = 0.5,col=#0000FF82) grid(ny=10,nx=10) dev.off() W <- owin(poly= elpPktsFlows) inside.owin(100000,18000, W) این نمودار را تولید می کند.  در اینجا همان دادهها با خط رگرسیون رسم شده است. می توانید توضیح دهید که چرا بیضی این شکل را دارد؟ انتظار داشتم که محور اصلی بیضی با خط رگرسیون خطی هم جهت داشته باشد، اما اینطور نیست. Btw. تخمین چگالی هسته نیز به 100000 اشاره میکند، اگرچه هیچ امتیازی وجود ندارد... !
|
شکل ناحیه بیضی از داده های توزیع شده نرمال دو متغیره؟
|
96984
|
من می خواهم یک تابع log-likelihood (L) را که تابعی از پارامترهای $\beta_i$ برای $i=1,..,k$ و $\alpha_1، \alpha_2$ است، به حداکثر برسانم. در حالت ایده آل، من می خواهم تخمین تمام پارامترها را در یک مرحله انجام دهم. متأسفانه به دلیل فرم مدلی که دارم نمی توانم تخمین یک مرحله ای را انجام دهم. اما برای برخی از مقادیر ثابت $\alpha_1، \alpha_2$، میتوانم حداکثر احتمال احتمال $\beta_i$ را برای $i=1،...،k$ پیدا کنم. بنابراین کاری که من انجام دادم این بود که تابعی مانند $f(\alpha_1, \alpha_2)$ ایجاد کردم و آن را به صورت $f(\alpha_1, \alpha_2)=L(\alpha_1, \alpha_2,\hat{\beta}) تعریف کردم. $، یعنی احتمال ورود به سیستم مربوط به $\alpha_1، \alpha_2$. سپس این تابع $f$ را به صورت عددی با توجه به $\alpha_1، \alpha_2$ به حداکثر رساندم. آیا این رویکرد ناسازگاری تخمین دو مرحله ای را که من دارم حل می کند؟ آیا اصلاً این رویکرد معتبری است؟ اگر نه، آیا روش تخمین دیگری وجود دارد که بتوانم از آن استفاده کنم؟
|
ناسازگاری در برآورد حداکثر درستنمایی دو مرحله ای
|
91348
|
من روی تجزیه و تحلیل داده ها کار می کنم. با توجه به گروهی از بردارهای داده، هر یک از آنها ابعاد یکسانی دارند. هر عنصر در یک بردار یک عدد ممیز شناور است. V1 [ , , , … ] V2[ , , , … ] ... Vn [ , , , … ] فرض کنید که هر بردار دارای M اعداد است. M می تواند 10000 باشد. n می تواند 200 باشد. من باید بیابم که چگونه n بردار را به زیر گروه ها تقسیم کنم به طوری که هر بردار در یک زیرگروه را بتوان با یک بردار پایه در زیرگروه نشان داد. به عنوان مثال، W = اتحاد V1، V2، V3 … Vn زیر گروه i، j، … t را بیابید: Gi = [ V1، V6، V3، V5، …، Vx] Gj = [V22، V11، V56، V45، … , Vy] … Gt = [V78, V90, V9, V12, … , Vz] به طوری که: اتحاد Gi , Gj, … , Gt برابر است با W و هیچ همپوشانی بین همه Gi , Gj, … , Gt وجود ندارد. همچنین، هر زیرگروه دارای یک بردار پایه است که همبستگی قوی با تمام بردار عناصر دیگر در زیرگروه دارد. به عنوان مثال، در Gi، ممکن است بردار Vx را به عنوان بردار اصلی داشته باشیم به طوری که همه بردارهای دیگر **همبستگی قوی (خطی)** با Vx داشته باشند. **در اینجا، ما همبستگی خطی بین دو بردار را اندازه گیری می کنیم نه دو نقطه داده.** علاوه بر این، باید تعداد زیر گروه ها را به حداقل برسانیم، در اینجا، t است. به این معنی که با توجه به 200 بردار (n = 200)، یک زیر گروه G1، G2، ...، Gt را ترجیح می دهیم و t به حداقل برسد. به عنوان مثال، ما t = 5 را به t = 6 ترجیح می دهیم. اگر t بیشتر از 10 باشد، ممکن است مفید نباشد. سوالات من: این مشکل به چه نوع حوزه دانشی تعلق دارد؟ آیا این یک تحلیل خوشهبندی است؟ اما، در تحلیل خوشهای، یک نقطه داده یک عدد است، اما در اینجا یک نقطه داده یک بردار است. آیا برخی از مدل های آماری یا الگوریتمی وجود دارد که می توان برای انجام این نوع تجزیه و تحلیل استفاده کرد؟ آیا ابزار یا بسته های نرم افزاری وجود دارد که این مشکل را حل کند؟ اگر سوالات من برای این انجمن مناسب نیست، لطفا به من بگویید کجا باید آن را ارسال کنم. بستههای R خوشهبندی را برای نقاط داده انجام میدهند نه برای بردار دادهها با همبستگی. هر گونه کمکی قدردانی خواهد شد.
|
تجزیه و تحلیل داده ها در مورد خوشه بندی داده ها با فاصله همبستگی برداری
|
8868
|
هنگام انجام تحقیقات سری زمانی در R، متوجه شدم که arima فقط مقادیر ضرایب و خطاهای استاندارد آنها را در مدل برازش ارائه می دهد. با این حال، من همچنین می خواهم مقدار p ضرایب را بدست بیاورم. من هیچ تابعی پیدا نکردم که اهمیت coef را ارائه دهد. بنابراین من می خواهم آن را توسط خودم محاسبه کنم، اما درجه آزادی در توزیع t یا chisq ضرایب را نمی دانم. بنابراین سوال من این است که چگونه می توان مقادیر p را برای ضرایب مدل آریمای برازش در R بدست آورد؟
|
چگونه p-value پارامترها را برای مدل ARIMA در R محاسبه کنیم؟
|
68632
|
من یک سوال در رابطه با استفاده از تست مربع کای برای داده های زوجی دارم. من خوانده ام که تست های مک نمار یک گزینه است اما در برخی از نرم افزارها مانند R فقط برای داده های 2x2 کار می کند (ممکن است روش صحیح انجام آن را ندانم) و داده های من بیش از 2 x 2 است. اینها تعداد هستند. برای افراد قبل و بعد از استفاده از حشره کش. برخی از افراد پیشنهاد کردند که یک تست t زوجی می تواند کار کند، اما من در مورد آن مطمئن نیستم زیرا داده های من شمارش هستند. داده ها مانند جدول زیر هستند. \begin{array}{|l|r|r|} &\text{پیش از}&\text{After}\\\ \hline \text{گونه A}&30&12\\\ \hline \text{گونه B}&30&7 \\\ \hline \text{گونه C}&30&6\\\ \hline \text{گونه D}&30&2\\\ \hline \text{گونه E}&30&4\\\ \hline \end{آرایه}
|
مقایسه زوجی مربع کای
|
21405
|
من دنبال یک کتاب مرجع خوب در زمینه اپیدمیولوژی هستم. من اپیدمیولوژی Rothman: An Introduction و پورتا A Dictionary of Epidemiology را دارم. روتمن ناامید کننده بزرگی بود، زیرا بسیار ساده است و فاقد هر چیزی است که پس از مطالعات اولیه آشکار نیست. من شنیده ام که اپیدمیولوژی مدرن او خوب است، اما در خرید آن کمی مردد هستم زیرا از کتاب مقدماتی بسیار ناامید هستم. به نظر من پورتا بسیار خوب است، اما یک فرهنگ لغت است و من بیشتر به یک کتاب درسی علاقه دارم. برای هر پیشنهادی ممنون خواهم بود.
|
کتاب مرجع خوبی برای اپیدمیولوژی
|
109284
|
من از یک MANOVA یک طرفه برای مطالعه تأثیر گروه های سنی بر میانگین قد و وزن استفاده کردم و متوجه شدم که آنها معنی دار هستند. سپس من از یک MANOVA دو طرفه برای مطالعه تأثیر گروههای سنی و جنسیت بر میانگینهای قد و وزن استفاده کردم و دریافتم که جنسیت تأثیر کلی دارد اما گروههای سنی نه. آیا در نتیجه به دست آمده با استفاده از دو روش فوق منطقی وجود دارد؟ **به روز رسانی.** داده ها 75 مرد و 75 زن هستند و من به طور تصادفی گروه های سنی 18-25، 25-30، 30-35، 35-40 و 40+ را انتخاب کردم. تعداد اعضا در هر گروه متفاوت است.
|
اثر اصلی قابل توجه در یک طرفه، اما نه در دو طرفه، MANOVA
|
8869
|
پس از دانستن اینکه LSA چگونه کار میکند، به خواندن pLSA ادامه دادم اما واقعاً نمیتوانستم فرمول ریاضی را بفهمم. این چیزی است که من از ویکیپدیا دریافت میکنم (سایر مقالات دانشگاهی/آموزش شکل مشابهی را نشان میدهند) \begin{align*} P(w,d) = \sum_{c} P(c) P(d|c) P(w|c) )\\\ &= P(d) \sum_{c} P(c|d) P(w|c)\\\ \end{align*} من از تلاش برای استخراج آن منصرف شدم و به جای آن این را پیدا کردم \begin{align*} P(c|d) = \frac{P(d|c)P(c)}{P(d)}\\\ P(c|d)P(d) = P(d) |c)P(c)\\\ P(w|c)P(c|d)P(d) = P(w|c)P(d|c)P(c)\\\ P(d) \sum_{c} P(w|c)P(c|d) = \sum_{c} P(w|c)P(d|c)P(c) \end{align*} چگونه جمع در خط آخر ظاهر می شود؟ من در حال حاضر در حال خواندن چند آموزش در مورد استنتاج بیزی هستم (قوانین احتمال اولیه و قضیه بیزی را قبلاً یاد گرفتم اما واقعاً نمی توانم آنها را به اندازه کافی مفید در اینجا ببینم). p/s: مطمئن نیستم که چگونه معادله چند خطی را به روش MathJax بنویسم، زمانی که راه درست را پیدا کنم درست خواهد شد...
|
استخراج مدل ریاضی pLSA
|
68631
|
من در حال ساختن یک سیستم پیش بینی هستم و یکی از الزامات آن این است که بتوانم اطمینان یک پیش بینی را ایجاد کنم. یعنی با توجه به مجموعهای از متغیرهای مستقل، باید بتواند نه تنها متغیر وابسته پیشبینیشده را ارائه دهد، بلکه برخی نشانههای «اطمینان» را نیز ارائه دهد. طبقهبندیکنندهها معمولاً میتوانند محدودهای بین پیشبینیها را برگردانند (مثلاً از 0-1)، که به شما اطلاعاتی در مورد میزان اعتماد به نفس طبقهبندیکننده در مورد یک پیشبینی داده شده میدهد. در یک موقعیت باینری، پیشبینی 0.51 ممکن است نشاندهنده اطمینان کم باشد، در حالی که 0.98 ممکن است نشاندهنده اطمینان بالا با توجه به مجموعه آموزشی باشد. رگرسیون چیزها را کمی تغییر می دهد، زیرا به هر حال برای پیش بینی یک متغیر پیوسته به جای طبقه بندی استفاده می شود. روش های متداول پذیرفته شده برای تعیین اطمینان یک نقطه داده معین کدامند؟ فواصل اطمینان/پیشبینی تا حدودی این کار را انجام میدهد، اما دادههای من این پتانسیل را دارند که بسیار غیرعادی توزیع شوند. تنها با در نظر گرفتن یک ویژگی، من می توانم با 20 قطعه داده در حدود x=50 و تنها 1 در اطراف x=1 به دست بیاورم. من انتظار دارم که حدود x=50 محدودتر باشد، اما CI/PI واقعاً این توزیع نابرابر را به حساب نمیآورد، زیرا نرمال بودن را فرض میکند. آیا راهی برای محاسبه این موضوع وجود دارد؟ از هر کمکی که می توانید ارائه دهید متشکریم، و متاسفم بابت نسبی بودن این سوال!
|
اطمینان رگرسیون در نقطه داده جدید
|
77784
|
من یک لیست تک بعدی مانند این کلاس عمومی دارم Zeit_und_Eigenschaft { [ویژگی] public double Sekunden { get; مجموعه؛ } } //... List<Zeit_und_Eigenschaft> lzue = new List<Zeit_und_Eigenschaft>(); //fill lzue lzue می تواند lzue باشد.Sekunden 1 2 3 4 8 9 10 22 55 ... هدف یافتن خوشه هایی در آن لیست است، یعنی عناصری که می توانند گروه هایی مانند f.i را تشکیل دهند. در این مثال lzue.Sekunden 1 2 3 4 8 9 10 22 55 کدام الگوریتم خوشه بندی مناسب است (تعداد خوشه های k را نمی دانم)؟ GMM؟ PCA؟ کمانس؟ دیگر؟
|
کدام الگوریتم خوشه بندی برای لیست های تک بعدی بدون دانستن k مناسب است؟
|
8867
|
با توجه به مدل سلسله مراتبی زیر، $$ X \sim {\mathcal N}(\mu,1), $$ and, $$ \mu \sim {\rm Laplace}(0, c) $$ where $\mathcal{ N}(\cdot,\cdot)$ یک توزیع عادی است. آیا راهی برای بدست آوردن یک عبارت دقیق برای اطلاعات فیشر از توزیع حاشیه ای $X$ با توجه به $c$ وجود دارد؟ یعنی اطلاعات فیشر چیست: $$ p(x | c) = \int p(x|\mu) p(\mu|c) d\mu $$ من می توانم یک عبارت برای توزیع حاشیه ای بدست بیاورم $X$ $c$ داده شده است، اما متمایز کننده w.r.t. $c$ و سپس گرفتن انتظارات بسیار دشوار به نظر می رسد. آیا چیزی واضح را گم کرده ام؟ هر گونه کمکی قدردانی خواهد شد.
|
اطلاعات فیشر در یک مدل سلسله مراتبی
|
62127
|
من در تلاش برای به دست آوردن همبستگی بین دو ماتریس با ابعاد مساوی هستم. من از همبستگی ستون به ستون و همبستگی متعارف استفاده کرده ام اما ماتریس همبستگی متقارن دریافت نمی کنم. من چیزی شبیه به زیر دریافت می کنم: A B C A 0.20 0.51 0.48 B 0.21 0.56 0.43 c 0.25 0.58 0.45 هیچ ایده ای دارید چرا؟ اینگونه داده ها را تولید می کنم: mat1 <- ماتریس(rnorm(100),10) mat2 <- ماتریس(rnorm(100),10) و اینگونه همبستگی همبستگی را محاسبه می کنم <- matcor(mat1,mat2)
|
چرا یک ماتریس همبستگی متقارن در R دریافت نمی کنم؟
|
82687
|
من مجموعه ای از N نمونه متعلق به کلاس های K دارم. من از خوشهبندی k-means با فاصله اقلیدسی برای خوشهبندی این نمونهها در خوشههای K استفاده میکنم. برای کمک به الگوریتم k-means برای گروه بندی نمونه های یک کلاس خاص در یک خوشه، من الگوریتم k-means را مقداردهی اولیه کردم تا میانگین مقدار هر خوشه، مقدار میانگین نمونه های یک کلاس خاص باشد. سوال من **نه ** در مورد سودمندی آنچه در بالا ذکر کردم یا هدف آن، با این حال، سوال من این است: آیا در یادگیری ماشینی به این خوشه بندی نظارت شده، خوشه بندی نیمه نظارت یا عادی می گویند. خوشه بندی با استفاده از نمونه هایی از کلاس واقعی مقداردهی اولیه شده است؟ وقتی از k-means اولیه شده با مقادیر میانگین کلاس واقعی استفاده می کنیم، می خواهم اصطلاحات صحیح را بدانم.
|
خوشه بندی نظارت شده یا بدون نظارت
|
76621
|
بسیاری از الگوریتمها (مانند مجموع زیر مجموعهها) «حاشیه» را در مدلهای گرافیکی پیدا میکنند. اما واقعاً برای من روشن نیست که چرا حاشیه ها اهمیت دارند. من این را میپرسم، زیرا وقتی کسی استنتاج میکند، توزیع مشترک کامل متغیرهای تصادفی را انجام میدهد. تنها دلیلی که می توانم به آن فکر کنم این است که در صورت مشاهده برخی از متغیرها، به راحتی می توانیم آنها را به حاشیه ببریم. اما به نظر من چیزی بیشتر از این وجود دارد.
|
چرا حاشیه ها در مدل های گرافیکی مهم هستند؟
|
68630
|
ما در حال انجام یک تحلیل مدلسازی چندسطحی ترکیبی، با استفاده از SAS PROC MIXED با 145 موضوع، و 255 مشاهده در هر آزمودنی هستیم. ما از افراد به عنوان یک عامل تصادفی استفاده کردیم و سه متغیر پیوسته (و تعامل بین این متغیرها) داشتیم که DV ما را پیشبینی میکردند. درجات آزادی ما برای هر یک از راه حل ها برای اثرات ثابت (به جز رهگیری) HUGE است: 33، 280. آیا این درست به نظر می رسد؟ من می دانم که مشاهدات زیادی در این تحلیل وجود دارد، اما می خواهم مطمئن شوم که این امر منطقی به نظر می رسد. خیلی ممنون
|
تعداد بسیار زیاد درجه آزادی در مدل ترکیبی MLM - آیا این درست است؟
|
67570
|
فرض کنید متغیری داریم که میتواند همه مقادیر را بین 0 و 1 فرض کند و سیستمی داریم که اندازهگیریهای این متغیر را پیشبینی میکند و تخمینهایی را بر حسب 6 سطح گسسته ارائه میکند (مثلاً 0، 0.2.، 0.4، 0.6، 0.8 و 1.0). اکنون ما در حال دریافت نتایج واقعی اندازه گیری ها (حدود 100) این متغیر در مقیاس پیوسته هستیم. با توجه به گسسته بودن ورودی، مناسب ترین آمار برای ارزیابی کیفیت پیش بینی سیستم چه خواهد بود؟ یک همبستگی رتبه اسپیرمن، یک رگرسیون (غیر پارامتریک)، یک ANOVA + آزمون تعقیبی شاید (با توجه به اینکه ما 6 گروه پیش بینی داریم و ممکن است بخواهیم ببینیم که آیا تفاوت معنی داری بین آنها وجود دارد) یا چیز دیگری؟
|
اندازهگیری کیفیت پیشبینی با پیشبینیهای گسسته یک متغیر وابسته پیوسته
|
18023
|
من سعی می کنم تابعی از داده های مشاهده شده را در JAGS مدل کنم. به عنوان مثال x[i,t]/phi ~ dpois(mu) که در آن x مشاهده می شود و ph یک پارامتر در مدل است. به نظر نمی رسد که این کار را انجام دهم و می دانم که آیا ممکن است مشکل بزرگتری را در JAGS از دست بدهم. من تقریباً مطمئن هستم که نمیتوانید هیچ تغییری در دادهها در دستور مدل داشته باشید و باید از یک بلوک داده استفاده کنید، اما به نظر میرسد که این بلوک پویا نیست، بنابراین اجازه نمیدهد که ph را متناسب کنم. هر ایده ای؟
|
بلوک های داده و مدل در JAGS
|
110552
|
در نظر بگیرید که ما یک جنگل تصادفی را بر روی $n$ تحقق مستقل یک بردار تصادفی $(X_1,X_2,X_3,Y)$ اجرا می کنیم با این فرض که $Y$ یک متغیر پاسخ عددی است. اجازه دهید $f$ بهترین طبقهبندیکننده نظری باشد که توسط $E[Y\mid X_1, X_2, X_3]=f(X_1, X_2, X_3)$ تعریف شده است. _متغیر اهمیت_ $\hat I_j$ پیش بینی $j$-th $X_j$ به صورت زیر تعریف می شود. برای هر درخت $t$ از جنگل تصادفی، یک طبقهبندی کننده $\hat f_t$ وجود دارد. میانگین مربع خطای $MSE_t$ در درخت $t$، میانگین مربع خطای پیش بینی در نمونه خارج از کیسه درخت $t$ است. $j$-th میانگین مربع خطای آشفته $MSE_t^{(j)}$ به طور مشابه پس از جابجایی تصادفی مقادیر متغیر $j$-th در نمونه خارج از کیسه تعریف میشود. در نهایت $\hat I_j$ به عنوان تفاوت میانگین $\overline{MSE}^{(j)} - \overline{MSE}$ روی همه درختان تعریف میشود. بیایید $j=1$ را برای کوتاه کردن نمادها در نظر بگیریم. در همبستگی و اهمیت متغیر در جنگلهای تصادفی (گرگوروتی و همکاران)، یک نتیجه مورد انتظار ادعا میشود: وقتی $n$ و $ntree$ به $\infty$ بروند، سپس $\hat I_1$ به متغیر _population اهمیت_ $$I_1 میرود. = E\left[{\bigl(Y-f(X'_1,X_2,X_3)\bigr)}^2\راست] - E\left[{\bigl(Y-f(X_1,X_2,X_3)\bigr)}^2\right]$$ که در آن $X'_1$ یک متغیر تصادفی است که توزیعی مشابه با $X_1$ دارد اما مستقل از بقیه متغیرهای تصادفی $X_2,X_3,Y$. البته نوعی سازگاری طبقهبندیکننده جنگل تصادفی $\hat f$ (مجموع $\hat f_t$) لازم است تا این نتیجه همگرایی برقرار باشد. ## سوال 1: در مورد اثبات نتیجه به گفته نویسندگان، این نتیجه همگرایی $\hat I_j \ به I_j$ در درختان یادگیری تقویتی (Zhu & al) نشان داده شده است. با این حال، من فقط در این مقاله نتایجی در مورد اهمیت متغیر در گره $A$ از یک درخت می بینم که نسخه جمعیت آن با $VI_A(j)$ در مقاله نشان داده می شود. من این مفهوم را نمی فهمم با استفاده از نمادهای کاغذ، یک گره $A$ با برخی بازه های $(a_j، b_j]$ تعریف می شود. من تحت این تصور هستم که این بازه ها در مقاله به عنوان قطعی تلقی می شوند، در حالی که (من فکر می کنم) این ها هستند. بازه هایی که پارتیشن فضای پیش بینی کننده ها را تعریف می کنند، و در جنگل های تصادفی معمولی به داده ها وابسته هستند و به عنوان نکته دوم، میخواهم بفهمم که چگونه میتوان از نتایج درختهای یادگیری تقویتکننده (Zhu & al) استنتاج کرد \hat I_j \ به I_j$ را نمی توان مستقیماً از نتایج بیان شده در مقاله استنتاج کرد، اما می توان با تطبیق برخی از شواهد ## سوال 2: تفسیر اهمیت جمعیت را نشان داد همبستگی و اهمیت متغیر در جنگلهای تصادفی (گرگوروتی و همکاران) برخی موارد خاص مانند مورد افزایشی $f(X_1,X_2,X_3)=f_1(X_1)+f_2(X_2)+f_3(X_3)$ را بررسی میکند برای بررسی اینکه $I_j=2Var\bigl(f_j(X_j)\bigr)$ در این مورد. در حالت کلی، چگونه میتوانیم اهمیت متغیر صفر، اهمیت متغیر منفی را تفسیر کنیم؟ چه ارتباطی با استقلال مشروط دارد؟ ## سوال 3: در مورد بسته R randomForest من به طور تجربی بررسی کردم که همگرایی $\hat I_j \به I_j$ با تابع rf() بسته R randomForest برقرار باشد. برای مثال: # شبیه سازی f <- تابع (x1، x2، x3) x1 + x2 + x3*(1+x1/5) set.seed(666) n <- 20000 sd0 <- 2 x1 <- rnorm(n, sd=sd0) x2 <- x1*rnorm(n, sd=sqrt(2)*sd0) x3 <- rnorm(n، sd=2*sd0) سیگما <- 1 y <- f(x1، x2، x3) + rnorm(n، sd=sigma) # اهمیت جمعیت تقریبی xx1 <- rnorm(n، sd=sd0) ( iv1 <- mean((y-f(xx1,x2,x3))^2) - sigma^2 ) ## [1] 12.85 xx2 <- xx1*rnorm(n، sd=sqrt(2)*sd0) ( iv2 <- mean((y-f(x1,xx2,x3))^2) - sigma^2 ) ## [1 ] 65.2 xx3 <- rnorm(n، sd=2*sd0) ( iv3 <- mean((y-f(x1,x2,xx3))^2) - sigma^2 ) ## [1] 36.35 # جنگل تصادفی ( rf <- randomForest(y ~ x1+x2+x3, mtry=2, ntree=500 , do.trace=100, important=TRUE) ) ## | خارج از کیف | ## درخت | MSE %Var(y) | ## 100 | 1.398 2.50 | ## 200 | 1.373 2.45 | ## 300 | 1.369 2.45 | ## 400 | 1.361 2.43 | ## 500 | 1.362 2.43 | ## ## فراخوانی: ## randomForest(فرمول = y ~ x1 + x2 + x3، mtry = 2، ntree = 500، do.trace = 100، اهمیت = TRUE) ## نوع جنگل تصادفی: رگرسیون ## تعداد درخت: 500 ## تعداد متغیرهای امتحان شده در هر تقسیم: 2 ## ## میانگین مربع باقیمانده: 1.362 ## % Var توضیح داده شده: 97.57 اهمیت (rf، scale=FALSE)[%IncMSE] / c(iv1,iv2,iv3) ## x1 x2 x3 ## 1.0008 0.9364 0.9703 _اما مراقب باشید که می تواند در بسیاری از موقعیت ها بسیار ناکارآمد باشد._ سوال من این است: چرا؟ اندازه گیری اهمیت %IncMSE نام دارد؟ از آنجایی که نماد `%` وجود دارد، فکر کردم که می تواند 100 $ \times \frac{\overline{MSE}^{(j)} - \overline{MSE}}{\overline{MSE}}$ به جای $\hat باشد. I_j=\overline{MSE}^{(j)
|
در مورد اهمیت متغیر جمعیت
|
26833
|
در بسیاری از سایتهای پرسش و پاسخ، مانند StackExchange، افراد میتوانند به هر پاسخ رأی مثبت یا منفی بدهند. این سایتها معمولاً سعی میکنند از آرا برای مرتبسازی پاسخها استفاده کنند، بنابراین پاسخهایی که به احتمال زیاد مفید یا دقیق هستند، نزدیکترین به بالا نشان داده میشوند. با توجه به تعداد رای موافق و مخالف برای هر پاسخ، چگونه باید پاسخ ها را مرتب کرد؟ * * * **نمونهها.** برای نشان دادن اینکه چرا فکر میکنم این سؤال ممکن است محتوای آماری غیرمعمولی داشته باشد، اجازه دهید تعدادی از روشها و برخی از کاستیهای آنها را بررسی کنم. در هر روش برای هر پاسخ یک _score_ را از روی رای مثبت و منفی آن محاسبه می کنیم و سپس پاسخ ها را بر اساس امتیاز مرتب می کنیم، بنابراین تنها سوال این است که از چه روشی برای محاسبه امتیاز استفاده کنیم. * **رای موافق منهای رای منفی.** محاسبه تفاوت افزودنی ساده است. _محدودیت ها._ آیا پاسخی با 121 رای موافق و 100 رای منفی واقعا بهتر از پاسخی با 20 رای موافق و 0 رای منفی است؟ * ** آراء موافق تقسیم بر تعداد کل آرا. ** این کسری از رای دهندگان را که نظر مثبتی نسبت به پاسخ داشتند، تخمین می زند، که مسلماً در نوع خود طبیعی و معنادار است. _محدودیت ها._ آیا پاسخی با 1 رای موافق و 0 رای منفی واقعا بهتر از پاسخی با 8 رای موافق و 1 رای منفی است؟ * **یک فاصله اطمینان را محاسبه کنید.** فکر میکنم میتوانیم برای هر پاسخ، یک فاصله اطمینان را برای کسر واقعی افرادی که در صورت رای دادن رای مثبت میدهند، محاسبه کنیم. اما روشن نیست که چگونه می توان این را به یک طرح مرتب سازی کامل گسترش داد. وقتی دو پاسخ دارای فواصل اطمینان با هم تداخل دارند چه کنیم؟ * **هموارسازی لاپلاس.** میتوانیم هموارسازی لاپلاس (هموارسازی افزودنی) را برای تعداد آرای موافق و مخالف اعمال کنیم، سپس کسری از آرای مثبت را تخمین بزنیم. اگر $u$ رای مثبت و $d$ رای منفی برای پاسخ داشته باشیم، امتیاز آن $(u+1)/(u+d+2)$ خواهد بود. (به عنوان مثال، این نشان می دهد که یک پاسخ با 3 رای موافق و 1 رای مخالف معادل پاسخی با 1 رای موافق و 0 رای منفی است. آیا این منطقی به نظر می رسد؟ گفتنش سخت است.)
|
مرتبسازی پاسخها، رأیهای اضافه و رأیهای منفی دادهشده
|
115070
|
من در حال انجام یک متاآنالیز هستم، اما در مورد چند مورد به کمک ارزشمند شما نیاز دارم: 1) اول، در R، در بسته «compute.es»، من فقط فرمول محاسبه اندازه اثر را برای طراحی بین موضوع پیدا کردم. آیا بسته/فرمولی برای محاسبه اندازه اثر برای مطالعه درون موضوعی وجود دارد؟ آیا میتوانیم همبستگی پیشآزمون و پسآزمون را مستقیماً بر روی همان اسکریپت نسبت دهیم؟ به عنوان یادآوری، واریانس d در یک مطالعه درون موضوعی (به طور پیش فرض، `r=0.5` است و بر واریانس تأثیر نمی گذارد، اما باید جالب باشد که ببینیم آیا تفاوت زیادی در اندازه اثر با `r= وجود دارد یا خیر. 0.2`، ضرب واریانس در `1.6` یا r=0.8 --> V*0.4) : $$V_d=\left\\{\frac{1}{n}+\frac{d}{2n} \right\\}2(1-r)$$ 2) اگر معیارهای تودرتو (خوشهای) داشته باشم ( برای مثال، مصرف الکل و سیگار در یک شرکتکننده، آیا بستهای برای انجام یک اندازه اثر جهانی از جمله آن DVهای مختلف وجود دارد؟ 3) برای تأثیر کلی در مطالعات، من از «metacum» در بسته «meta» در R استفاده میکنم. آیا درست میگویم یا اسکریپت مرتبطتری برای انجام آن وجود دارد؟
|
اندازه های اثر در طراحی درون موضوعی بر روی R
|
28406
|
در طبقه بندی اسناد، تشابه کسینوس یک طبقه بندی محسوب می شود یا یک تکنیک خوشه بندی؟ اما برای ایجاد مرکز به داده های آموزشی با شباهت کسینوس نیاز دارید درست است؟
|
آیا شباهت کسینوس یک طبقه بندی است یا یک تکنیک خوشه بندی؟
|
67572
|
من اساسا یک بازه زمانی از ژانویه تا آگوست (یا هر بازه زمانی دیگری) دارم که به دورههای فعال (که با خط قرمز در طرح مشخص میشود) و دورههای غیرفعال (بقیه) تقسیم میشود. چیزی که من میخواهم از این دورهها محاسبه کنم، اندازهگیری _گسترش زمانی_ است (نمیتوانستم نام بهتری پیدا کنم). من قبلاً به یک معیار بسیار ساده رسیدهام، درصد دورههای فعال، اما این به من نمیگوید که آیا دورههای فعال در سرتاسر بازه زمانی _گسترش دارند یا خیر. به عنوان مثال، هر دو نمودار زیر درصدی از دورههای فعال در حدود 50% دارند، اما دومی باید تداوم یا _گسترش زمانی_ بیشتری داشته باشد.   در نمودار آخر، درصد کلی حتی کمتر از 50٪ است، اما گسترش باید بالاترین هر سه باشد، زیرا دوره های فعال در ماه مه یا ژوئن نیز وجود دارد.  همانطور که می بینید، من دقیقاً نمی دانم به دنبال چه چیزی هستم، بنابراین فکر می کردم که آیا نوعی وجود دارد یا خیر معیار استاندارد برای این مشکل
|
اندازه گیری برای گسترش زمانی
|
115074
|
من در حال حاضر در حال تجزیه و تحلیل برخی از داده ها هستم تا مشخص کنم که آیا عملکرد مدرسه برای موضوعات خاص پیش بینی کننده خوبی از عملکرد دانشگاه در سطح سال اول در همه دانشکده ها و مقاطع تحصیلی است یا خیر. در اصل ما میخواهیم بدانیم کدام درسهای مدرسه خاص بهترین پیشبینیکننده عملکرد دانشگاه هستند تا بتوان از آنها برای مقاصد پذیرش در کنار آزمونهای پذیرش استفاده کرد. واضح است که قبلاً میلیون ها بار این کار انجام شده است. مشکل این است که به دلیل تغییرات اساسی در برنامه درسی اخیر، من در حال حاضر فقط به داده های یک گروه دسترسی دارم. به دلایل مختلف، برخی که در زیر مورد بحث قرار میگیرند، رگرسیون به روشی که به من آموختهام ممکن است راهگشا نباشد. اولین غریزه من این بود که برای هر دانشکده مقداری رگرسیون سلسله مراتبی انجام دهم با وارد کردن دروس مدرسه اجباری مورد نیاز برای پذیرش (مثلاً ریاضی و علوم برای مهندسی) و سپس وارد کردن برخی از موضوعات مورد علاقه دیگر (تاریخ و اقتصاد برای مهندسی). متغیر نتیجه معدل سال اول خواهد بود. این احتمالاً به دلایل مختلفی ایده بدی است. 1) معدل، به عنوان یک ساختار، از درجه به مدرک در دانشکده ها متفاوت است. به عنوان مثال، معادل سازی معدل برای مدرک مدیریت منابع انسانی و مدرک علوم اکچوئری با یکدیگر بسیار گمراه کننده خواهد بود، اگرچه هر دو در یک دانشکده هستند. از نظر تئوری این یک مشکل است اما از نظر عملی نیز. به عنوان مثال، با وجود میانگین نمرات بسیار مشابه معدل سال اول، میانگین نمره ریاضی و علوم مدرسه برای علوم اکچوئری حدود 25٪ بیشتر از میانگین مدیریت منابع انسانی است. رگرسیون این را خیلی دوست نخواهد داشت. تا آنجا که من می توانم ببینم هیچ راه واقعی برای تعیین کمیت این که خوشه های معینی از موضوعات دانشگاهی چقدر دشوارتر از خوشه های دیگر هستند وجود ندارد که باعث می شود معدل به عنوان یک متغیر نتیجه در سطح دانشکده بی فایده باشد. 2) در حالت ایدهآل، من میخواهم این کار را در سطح مدرکهای فردی انجام دهم که از نظر سختی مدرک کمی ثبات دارد، اما اگر این کار را انجام دهم، در نهایت تعداد دانشآموزان را به شدت خرد میکنم. با تمام گفتهها و انجامها، من حدود 5 درجه از حدود 100 را دارم که تعداد دانشآموزان کافی برای اجرای رگرسیون را به دست میدهد. من با برخی از محاسبات قدرت و با 5 یا 6 پیش بینی کننده در جایی در مجاورت بیش از 100 دانش آموز به آن نیاز دارم. با این حال، به دلیل انتخابی بودن برخی از این درجات، نمرات مدرسه تمایل به خوشهبندی در انتهای بالاتر با واریانس بسیار کمی بین دانشآموزان دارد و پیشبینیکنندههای کمتر از ایدهآل را ایجاد میکند. اگرچه نمرات معدل دانشگاه پراکنده تر است. برای مثال، من در اجرای رگرسیون در مدارک تحصیلی با 80 دانش آموز یا کمتر مردد هستم، به خصوص با توجه به خطر واقعی مسائل مربوط به همبستگی در مورد موضوعات مدرسه. برای مثال، یک همبستگی بسیار قوی بین نمرات ریاضی و علوم در دادهها وجود دارد و تمام مدارک تحصیلی که به یکی نیاز دارند برای پذیرش دیگری نیز نیاز دارند. هر ایده ای؟ کمک بسیار قابل قدردانی خواهد بود زیرا من از ساختن 100 رگرسیون با تنها تعداد کمی قابل استفاده متنفرم.
|
کمک به رگرسیون و معدل
|
58550
|
من باید تفاوت آماری را برای دادههای بیان ژن، برای دو گروه از دادهها، استاندارد شده با ژنهای مرجع مختلف تأیید کنم: ژن نمونه/مرجع YLS8/DRH1 14 ref. genes 10C+ 266.5474006 249.6696236 10C- 11.41636521 9.09824428 20C+ 243.241737 200.5418459 20C- 5.6783850000 20C. 30C+ 118.0172933 135.2698666 30C- 9.867119719 9.964417208 از کدام راه می توانم این کار را انجام دهم؟
|
تجزیه و تحلیل آماری بیان ژن
|
91343
|
من به سوالی برخورد کرده ام که می گوید 70 درصد از همه مردم خوشحال هستند. سپس، در مورد اینکه چگونه 1000 نفر به طور تصادفی انتخاب شدند و چگونه از بین آنها 760 نفر خوشحال شدند، بحث می شود. حال سوال این است که آیا من باید فرضیه صفر را رد کنم یا نپذیرم؟ سطح معنی داری 5 درصد است. من سعی کردم برخی چیزها را بفهمم: فرضیه صفر = 70٪ از همه افراد راضی هستند فرضیه جایگزین = 70٪ درصد از مردم خوشحال نیستند آمار نمونه = 760 (؟) مقدار بحرانی / مقدار برش = (؟) چگونه این را پیدا کنیم؟ سطح معناداری = 5٪، (1.96) (؟ این چیست؟) بنابراین چگونه می توانم بفهمم که آیا فرضیه صفر را رد کرده ام یا نمی توانم آن را رد کنم؟ هر گونه کمک در این مورد بسیار قدردانی خواهد شد!
|
آزمون فرضیه؟ رد یا شکست در رد؟
|
35055
|
من چند سری زمانی بدست آورده ام که از تعداد کمی تکرار به دست آمده است، که در آن متغیرهای زیادی (همه آنها پیوسته) در نقاط زمانی مختلف اندازه گیری می شوند (مطالعه طولی). من به دنبال یک آزمون آماری بودم که بتواند پاسخ دهد که آیا داده ها از هر نوع روند (افزایش، کاهش یا حتی نوسان) پشتیبانی می کنند یا نه، یا به جای آن، مقدار واقعی ثابت می ماند و آنچه در سری زمانی فردی یا متوسط خود می بینم ناشی از آن است. به تنهایی خطای اندازه گیری من نگاهی انداختم و تست Ljung-Box را پیدا کردم - آیا برای پاسخ دادن به آنچه می خواهم مناسب است؟ اگر نه، چه پیشنهادی دارید؟
|
سری های زمانی از اندازه گیری تجربی
|
96982
|
من به توزیعهای مصرف سوخت خودروها در ایالات متحده نگاه میکنم و دو مجموعه داده دارم: **مجموعه داده 1 -** این مجموعه داده برای مصرف سوخت _همه_ وسایل نقلیه است که برای فروش از سال 1990 تا 2010 در دسترس است ( بدون وزن فروش)، که از توزیع نرمال لگ پیروی می کند. بنابراین، من می توانم میانگین و انحراف استاندارد را برای کل جمعیت وسایل نقلیه موجود برای فروش در هر سال تعریف کنم. **مجموعه داده 2 -** این فقط دارای _متوسط_ مصرف سوخت وزنی سالانه فروش خودروها در ایالات متحده از سال 1990 تا 2010 است. بنابراین، من فقط قادر به تعریف میانگین (بدون انحراف استاندارد) مصرف سوخت وزنی فروش در هر سال هستم. . آیا راهی وجود دارد که بتوانم توزیعی را برای مصرف سوخت وزنی فروش با داده های مجموعه داده 1 استنباط کنم؟ به عبارت دیگر، آیا می توانم انحراف استاندارد را برای مجموعه داده 2 با استفاده از داده هایی که در مجموعه داده 1 در دسترس دارم ایجاد کنم؟ هر توصیه ای بسیار قدردانی خواهد شد و با تشکر فراوان!
|
مقایسه توزیع های Log-Normal
|
26834
|
من در حال تحقیق در مورد شخصیت (پنج عامل بزرگ) هستم و اینکه آیا شخصیت می تواند تعهد به یک سازمان را پیش بینی کند. اما تعهد از سه بعد تشکیل شده است. بهترین روشی که می توانم برای پیوند دادن پنج عامل بزرگ شخصیت با تعهد به یک سازمان استفاده کنم چیست؟
|
وقتی چندین پیشبینیکننده پنهان و پیامدهای پنهان متعدد وجود دارد، از کدام آزمون آماری استفاده کنم؟
|
24573
|
من یک کد ساده برای مقایسه فراوانی حشرات در سطوح دارای پوشش گیاهی و بدون پوشش گیاهی اجرا می کنم. طراحی RCBD است. 1 عامل با 2 سطح (پوشش گیاهی و بدون پوشش). 10 بلوک. توزیع باقیمانده ها غیر نرمال و واریانس دو جمعیت نابرابر است. من میتوانستم تبدیل را وارد کنم اما میخواستم با استفاده از GLIMMIX کاوش کنم. من همان مقادیر p، خطاهای استاندارد و واریانس را با استفاده از Proc mixed یا proc glimmix بدست میآورم. هیچ ایده ای چرا؟ آیا ارتباطی با استحکام مفروضات مختلط proc دارید؟ من یک دانشجوی حقیر محیط زیست هستم با 2 ترم آمار زیر کمربندم...به اندازه ای که گیج شدم! هر گونه ایده قدردانی می شود. داده abundancevisit3; ورودی blk trt$ y; خطوط؛ 1 گرم 5.867 1 b 0 2 g 6.933 2 b 0.444 3 g 0.8 3 b 0 4 g 5.2 4 b 0.667 5 g 56.267 5 b 1.333 6 g 14.933 6 b 44.017 b 5.026 8 b 0 9 g 4.8 9 b 1.333 10 g 11.733 10 b 0 ; گزینه nocenter; proc print data=abundancevisit3; اجرا؛ proc glimmix data=abundance visit3; کلاس blk trt; مدل Y=trt; blk تصادفی; lsmeans trt; اجرا؛
|
چرا نتایج PROC MIXED مانند PROC GLIMMIX بود؟
|
95824
|
برای زمینه، ابتدا مشکل کلی را که روی آن کار می کنم توضیح خواهم داد. کاتالوگی از نام محصولات به من داده می شود و همچنین مجموعه داده متنی بزرگی به من داده می شود که ممکن است حاوی ذکر این محصولات کاتالوگ باشد. مشکل این است که نام واقعی محصول در کاتالوگ می تواند بسیار متفاوت از نحوه ذکر آن در مجموعه داده متن باشد (بنابراین regex نتایج خیلی خوبی ایجاد نمی کند). علاوه بر این، بسیاری از نامهای محصول (یا قسمتهایی از نام محصول) مبهم هستند، به این معنی که میتوانند در مجموعه داده متنی وجود داشته باشند اما لزوماً به محصول در کاتالوگ اشاره نمیکنند. شواهدی که من از آن استفاده میکنم معیاری است که نشان میدهد چقدر تطابق بین نام محصول کاتالوگ و ذکر شده در متن وجود دارد (این کار با حداقل ویرایش-فاصله انجام میشود). من می خواهم سعی کنم اطلاعات قبلی را برای حل برخی از این مشکلات تزریق کنم. اطلاعات قبلی که من دارم و فکر می کنم مفید باشد، معیاری برای محبوبیت هر محصول در کاتالوگ است. فرضیه من این است که احتمال نام بردن از محصولات پرطرفدار بیشتر است و هر نامزدی که یک محصول بسیار محبوب نیز هست باید احتمال P(catalog_entry | reference_text) را افزایش دهد و بالعکس. من از بازدیدهای صفحه ویکیپدیا از مقاله ویکیپدیا مرتبط با محصول موجود در کاتالوگ به عنوان نماینده محبوبیت آن استفاده میکنم (توجه داشته باشید که همه محصولات کاتالوگ در یک نوع محصول/رده هستند، بنابراین بازدید از صفحه باید نمایش دقیقی از محبوبیت نسبی باشد). بنابراین سوال من این است که بهترین راه برای تبدیل دادههای نمایش صفحه به احتمالات چیست (یعنی بهترین توزیع برای مدلسازی دادههای نمایش صفحه با کدام است). بازدیدهای صفحه گسسته هستند، بنابراین فکر میکنم من به یک توزیع گسسته نیاز دارم که در آن جرم احتمال زیادی در مقادیر بالا وجود دارد. اما بازدید از صفحه در سمت راست نیز نامحدود است. در ابتدا من توزیع پواسون را در نظر گرفتم اما واقعاً با آنچه من می خواهم مطابقت دارد زیرا در مقادیر به اندازه کافی بزرگ جرم احتمال شروع به کاهش می کند. من تصور میکنم که بتوانم توزیع را بین 0 و بزرگترین بازدید صفحه که روی همه محصولات مشاهده میکنم به طور مصنوعی محدود کنم و سپس از نوعی توزیع گاما استفاده کنم. با این حال، توزیع گاما گسسته نیست. آیا کسی می تواند راه حلی برای این مشکل ببیند؟
|
چگونه باید توزیع قبلی را با نوع خاصی از داده های شمارش بسازم
|
91452
|
بنابراین من میخواهم توزیع دیریکله را بر روی بردارهای فرکانس تعریف کنم که بردارهای واحدی هستند که عناصر آن نشاندهنده بسامدی است که با آن کاراکترهای مختلف در متنی رخ میدهند. مشکل این نیست که همه بردارهای فرکانس برای استفاده از هر کاراکتر تضمین شده اند، بنابراین برخی از عناصر بردار می توانند صفر باشند. وقتی در نظر بگیرید که چیزهایی مانند $ 0^{a_i-1} $ در محصول دریافت خواهید کرد که اگر ${a_i-1}$ منفی باشد، خطای تقسیم بر صفر بسیار بد به نظر می رسد. آیا کنوانسیون برای رسیدگی به این موضوع وجود دارد؟ من فقط به این فکر می کردم که $x < 0 \ به معنای 0^{x} = 1 $ است. به این ترتیب من به طور موثر فقط عناصری را که بر صفر خطا تقسیم می شوند رها می کنم. من مطمئن نیستم که آیا این ایده آل است با این حال.
|
وقتی عناصر بردار X ممکن است صفر باشند، برای توزیع دیریکله چه باید کرد
|
68634
|
من میخواهم از یک نقطه تصادفی یکنواخت در یک چند ضلعی نمونهبرداری کنم... اگر تعداد زیادی نمونه برداری شود، اگر مساحت یکسانی داشته باشند، به همان اندازه در دو ناحیه قرار میگیرند. اگر مربع باشد این بسیار ساده خواهد بود زیرا من دو عدد تصادفی در [0,1] را به عنوان مختصات خود میگیرم. شکلی که من دارم یک چند ضلعی منظم است، اما دوست دارم برای هر چندضلعی محدب کار کند. http://stackoverflow.com/questions/3058150/how-to-find-a-random-point-in-a- quadrangle
|
نمونه گیری تصادفی در یک چند ضلعی
|
115071
|
من سعی می کنم پرسپترون های چندلایه را برای رگرسیون تابع درک کنم. به عنوان مرجع شروع، من از جعبه ابزار شبکه عصبی متلب استفاده می کنم. در آنجا اشاره کردم که ابزار مقادیر ورودی و خروجی را در محدوده [-1 1] ترسیم می کند. چرا این کار را می کنند؟ من فکر میکردم که ورودیها باید به هم مرتبط باشند و عاری از حد معمول باشند، اما آنها این کار را نمیکنند.
|
نگاشت مقادیر ورودی و خروجی برای پرسپترون چندلایه
|
88155
|
من در حال حاضر روی یک مکانیسم ضد تقلب برای یک کلاینت چند نفره به نام sa-mp کار می کنم. مشکل اینجاست که sa-mp اخیراً بهروزرسانی جدیدی منتشر کرده است که تأخیر را برطرف میکند و از این رو به aimbotters اجازه میدهد. Aimbotting را می توان به عنوان استفاده از یک برنامه کامپیوتری برای هدف قرار دادن و شلیک خودکار تمام دشمنان تعریف کرد. مشکل این است که چگونه می توان aimbotting را از انتهای سرور شناسایی کرد؟ زمانی که بازیکنی خودش به صفحه نمایش بازیکن دیگر نگاه میکند، هدفگذاری آشکار میشود. با این حال من به فرمولی برای محاسبه احتمالات یک بازیکن با استفاده از aimbot نیاز دارم تا بتوانم بازیکنان / مدیران مرده را برای تماشای بازیکن مشکوک هدایت کنم. در حالی که سرور نمی تواند تمام داده های مورد نیاز برای بررسی aimbotters را به من بدهد (من سرور را برنامه ریزی نکردم، من اسکریپت هایی را برای اجرا روی آن توسعه دادم)، برخی از داده های موجود مربوطه شامل کشتن های اخیر توسط بازیکن، مختصات XYZ دوربین بازیکن و بردارهای دوربین بازیکن به همراه گلوله های اخیر شلیک شده (و جایی که اصابت کرده اند، خواه به بازیکنی برخورد کنند یا نه و غیره). من هنوز در کلاس یازدهم هستم (کلاس دهم بر اساس سن، فکر می کنم)، هنوز ریاضیات را مطالعه نکرده ام که می تواند به تعیین احتمال استفاده از aimbots کمک کند. امیدوارم کسی بتونه کمکم کنه
|
شناسایی کلاهبرداران آنلاین aimbot در یک بازی چند نفره
|
11664
|
من به دنبال مقایسه آیتم های مقیاس لیکرت فردی هستم. سطح موافقت پاسخ دهنده را (در یک مقیاس 5 امتیازی) برای چندین مورد اندازه گرفتم (مثلاً از 1 تا 5 چقدر A برای درمان بیماری شما صلاحیت دارد؟ چقدر B؟ C؟ و غیره. - در مجموع 11 مورد ). من می خواهم تجزیه و تحلیل کنم که آیا امتیازات برای هر عبارت به طور قابل توجهی متفاوت است؟ من داده ها را به صورت ترتیبی و با استفاده از تحلیل ناپارامتریک در نظر می گیرم. تا اینجا کاری که من انجام دادم یک آزمون فریدمن بود (که باید نشان دهد آیا توافق بین k مجموعه رتبه بندی وجود دارد) (001/0p<). بنابراین در واقع توزیع چندین امتیاز (از چندین مورد) متفاوت است. اما من همچنین می خواستم بدانم کدام موارد از نظر آماری تفاوت معنی داری دارند. بنابراین من یک همبستگی کندال برای همه موارد انجام دادم. * آیا این رویکرد درستی است؟ * آیا کسی می تواند به من بگوید بهترین راه برای مقایسه اقلام در مقیاس لیکرت چیست؟
|
چگونه می توانم آیتم های مقیاس لیکرت را با هم مقایسه کنم
|
93580
|
من در حال انجام برخی تحقیقات هستم و در آمار مبتدی هستم و یک ماژول 2 هفته ای را انجام داده ام که عمدتاً روی داده های پارامتری و طراحی تجربی تمرکز دارد. با این حال، برای تحقیقم، یک مطالعه موردی گذشته نگر، بر روی پیامدهای شنوایی و گفتاری 3 گروه از بیماران با 3 بیماری گوش متفاوت به دنبال مداخله جراحی برای بهبود شنوایی انجام می دهم. وضعیت گوش به عنوان متغیر مستقل، پیامدهای گفتار و شنوایی، متغیر وابسته است. حجم نمونه بر اساس داده های موجود است نه یک محاسبه توان و هر گروه دارای اعداد زیر است، هر گروه نشان دهنده وضعیت گوش متفاوت است: 1) n = 10، 2) n = 5 و 3) n = 2. به من توصیه شده است که آمار استنباطی انجام دهم، بنابراین آزمایش های مناسب را انجام داده ام، اما نمی دانم که آیا آمار استنباطی به سمت یک طرح آزمایشی تنظیم می شود؟ نتایج همچنین تحت تأثیر بسیاری از عوامل جمعیت شناختی دیگر بین بیماران مانند سن آنها، توانایی شناختی زمینه ای و غیره قرار می گیرد که به دلیل نوع مطالعه کنترل نشدند. همچنین تعجب میکنم که قبلاً هیچ توانی محاسبه نمیشد (معمولاً این کار به دنبال پایلوت انجام میشود) اما آیا شما در این نوع مطالعه یک محاسبه توان را انجام میدهید؟ من آمارهای توصیفی را نیز انجام داده ام، اما در مورد استفاده از آمار استنباطی (آزمون های من ویتنی و t) کاملاً نامطمئن هستم که با داده ها مناسب است ... اما مطمئن نیستم که چه استنباط هایی می توان در مورد این نوع طراحی مطالعه کرد؟ هر گونه فکر بسیار قدردانی خواهد شد.
|
مطالعه موردی گذشته نگر
|
55943
|
من به دنبال برخی از منابع در مورد رگرسیون وزنی هستم، زمانی که ما فقط متغیرهای ساختگی برای پیش بینی داریم. من آن را قدردانی می کنم. با تشکر
|
رگرسیون وزنی با متغیرهای ساختگی
|
103471
|
من در حال نوشتن یک طبقه بندی NER هستم. این حتی بدون تبدیل پنجره نیز بسیار خوب عمل می کند (~80% امتیاز F1 برای زبان غیرانگلیسی کاملاً خوب است، AFAIK)، اما نکته عجیب این است که وقتی من تبدیل پنجره را انجام می دهم، کیفیت به طور چشمگیری کاهش می یابد. آیا کسی ایده ای دارد که چرا؟ وظیفه طبقهبندی NER «ساختار محلی» دارد، بنابراین دانش بافت محلی باید کمک کند، اینطور نیست؟ تنها فرضیهای که میتوانم داشته باشم: دادههای آموزشی کافی ندارم (حدود 300 ویژگی در مقابل 25 هزار نمونه آموزشی)، بنابراین وقتی تغییر پنجره را حتی با اندازه پنجره = 1 (800 ویژگی در مقابل 25 هزار نمونه) انجام میدهم، به سادگی بیش از حد مناسب میشود. من سعی کردم ابعاد داده ها را با استفاده از PCA ها و RMB های مختلف کاهش دهم، اما در حالی که خود داده ها در حال حاضر کاملاً متراکم هستند، این معنی ندارد و کیفیت طبقه بندی را نیز کاهش می دهد. طبقه بندی کننده خود ترکیب جنگل بسیار تصادفی و SVM خطی است. با تشکر
|
هنگامی که تبدیل پنجره کشویی انجام می شود، کیفیت طبقه بندی NER به طور چشمگیری کاهش می یابد
|
28400
|
کدام معیارهای آماری را می توان برای مشخص کردن سری های زمانی باینری استفاده کرد؟ برای سری های زمانی کلاسیک این مقاله وجود دارد: > S. Wang و R. Hyndman القای قانون برای انتخاب روش پیش بینی: > فرا یادگیری ویژگی های سری های زمانی تک متغیره، > محاسبات عصبی، 72، 2581-2594 ، 2009 اما برای سری های زمانی باینری من هیچ انتشاراتی نمی شناسم.
|
آمار ساده برای اندازه گیری ویژگی های سری زمانی باینری
|
110511
|
من یک مجموعه داده متشکل از چندین آزمودنی دارم که در سه زمان متمایز (آزمایش) در معرض دو درمان مختلف (درمان) قرار گرفتهاند، و علاقهمندم که مشخص کنم کدام افراد به طور قابلتوجهی پاسخهای متفاوتی بین این دو درمان دارند. مثال: نتیجه آزمایش درمان آزمودنی 1 A X 1 2.2740321 2 A X 2 1.5900599 3 A X 3 0.8478363 4 A Y 4 1.5506098 5 A Y 5 2.2662206 6 A Y 6371 X371. 1.1469458 8 B X 2 1.5929735 9 B X 3 1.0960918 10 B Y 4 1.4392964 11 B Y 5 1.2450169 12 B Y 6 1.7282016 نظری دارید؟ توجه داشته باشید که من علاقه ای ندارم ببینم کدام درمان (گروهی) موثرتر است.
|
ANOVA برای یافتن افرادی که به طور قابل توجهی بین درمانها متفاوت پاسخ دادند
|
23713
|
به نظر می رسد چندین گزینه برای کار با مدل های مخلوط گاوسی (GMM) در پایتون وجود دارد. در نگاه اول حداقل وجود دارد: * PyMix - http://www.pymix.org/pymix/index.php ابزارهایی برای مدل سازی مخلوط * PyEM - http://www.ar.media.kyoto-u.ac.jp /members/david/softwares/em/ که بخشی از جعبه ابزار Scipy است و به نظر می رسد روی GMM تمرکز دارد **به روز رسانی: اکنون assklearn.mixture** شناخته شده است. * PyPR - http://pypr.sourceforge.net/ تشخیص الگو و ابزارهای مرتبط از جمله GMM ... و شاید موارد دیگر. به نظر میرسد همه آنها اساسیترین نیازها را برای GMMها فراهم میکنند، از جمله ایجاد و نمونهبرداری، تخمین پارامتر، خوشهبندی، و غیره. مرجع: http://www.scipy.org/Topical_Software
|
بسته های پایتون برای کار با مدل های مخلوط گاوسی (GMM)
|
27007
|
ضریب تغییرات به عنوان نسبت S.D به میانگین تعریف می شود، عددی بدون بعد که با ضرب در 100 درصد پراکندگی با میانگین را نشان می دهد. اما وقتی این ضریب تغییرات را مربع می کنیم، نشان دهنده چیست؟ (من باید نموداری را بفهمم که ضریب تغییرات مربعی در محور y و میانگین روی محور x برای داده های توزیع شده پواسون دارد). با تشکر
|
ضریب تغییرات مجذور چه چیزی را نشان می دهد؟
|
27000
|
آیا کسی می داند که چگونه آرگومان **span** در **spec.pgram** در **R** استفاده می شود؟ از منوی راهنما، مثالهای زیر را ارائه میکند: طیف(ldeaths) spectrum(ldeaths, spans = c(3,5)) پهنای باند = 0.241 طیف (ldeaths, spans = c(5,7)) پهنای باند = 0.363 طیف را میدهد. (ldeaths, spans = 3) پهنای باند = 0.127 را می دهد 1. **c(3,5)** و **c(3,7)** یا **spans=3** چه چیزی را نشان می دهند؟ 2. پهنای باند چگونه محاسبه می شود؟ با تشکر
|
توضیح در مورد استفاده از spec.pgram در R
|
91796
|
تحقیق من دارای 4 متغیر مستقل و 5 متغیر وابسته است. فرضیه های من به گونه ای ساخته شده است که اندازه اثر 1 متغیر مستقل بر روی 5 متغیر وابسته بررسی می شود. MANOVA یک انتخاب خودکار خوب برای این است. متغیرهای مستقل من حول دسته ها و گروه ها ساخته نشده اند، به عنوان مثال. جنسیت و نه مانند سطح درآمد چند سطحی است. بنابراین آزمون های تعقیبی در این مورد مرتبط نیستند. نگرانی های من به شرح زیر است، 1. آیا MANOVA بدون آزمون های تعقیبی انتخاب خوبی است و به همان اندازه موثر است؟ به طور خاص باید به کدام مقادیر نگاه کرد. لامبای ویکی، مربع eta جزئی و بین موضوعات؟ 2. دوم اینکه آیا آزمون آماری جایگزین دیگری برای وضعیت فوق وجود دارد؟ 3. ثالثاً، یک نگرانی جدی این است که وقتی من تحلیل رگرسیون و ANOVA یک متغیر مستقل را روی یک متغیر وابسته اجرا کردم، برخی از مقادیر P ناچیز بودند، اما در MANOVA آن مقادیر P معنیدار بودند. به چه معناست، آیا در اینجا نگرانی وجود دارد؟ اگر به سؤالات فوق پاسخ داده شود سپاسگزار خواهم بود با سلام و احترام سلمان
|
MANOVA، زمانی که متغیر مستقل چند سطحی نیست و مقدار P در MANOVA معنادار است اما در ANOVA نه
|
110517
|
من از GARCH DCC چند متغیره برای محاسبه نوسانات سری زمانی 3 (ثابت، ظاهرا) استفاده می کنم. سپس تفاوت بین این سه سری نوسانات را با آزمون t تست می کنم و آمار t بسیار بالایی را دریافت می کنم. کسی می تواند در توضیح این موضوع به من کمک کند؟ آیا تنظیماتی وجود دارد که باید برای آزمون t استفاده کنم؟
|
MV GARCH DCC - آزمون t با آمار t بالا
|
93588
|
من یک چارچوب مفهومی بر اساس ادبیات ایجاد کرده ام. چارچوب مفهومی شامل پیشایندها و پیامدها است. عوامل مقدماتی 1، عامل 2 و عامل 3 بر عامل 1 و عامل پیامدها 1 بر عامل 4 و عامل 5 تأثیر می گذارد. از آنجایی که پاسخ دهندگان من شامل سازمان ها هستند، نمونه من حدود 160 است. در داده ها غیر عادی بودن جزئی وجود دارد. آیا می توانم دو CFA دو مدل ساختاری انجام دهم - یا می توانم CFA و مدل ساختاری را برای پیشینیان انجام دهم و سپس برای پیامدها/نتایج به CFA و مدل ساختاری ادامه دهم؟ (ایده اجرای CFA و SM جداگانه به این دلیل است که نمونه نسبتاً کوچک و غیر عادی بودن جزئی است.) پیشنهادات مورد استقبال قرار می گیرند.
|
اجرای مدل های CFA و ساختاری
|
23711
|
من سعی کردم کد R را پیدا کنم اما تا به حال موفق نشده ام. من می توانم یک آزمون t ترتیبی را روی برخی از داده هایی که قبلاً روی آنها کار می کردم انجام دهم اما اکنون داده های من ترکیبی از متغیرهای واقعی (عددی) و طبقه بندی را دارند. من میخواهم بتوانم کدی بنویسم که هر بار یک متغیر را بگیرد و آزمایش دو نسبت را روی آن ستون انجام دهم که در آن نمونهها با یک نقطه شکست تعریف میشوند که بهطور متوالی در مشاهدات آن ستون حرکت میکند. هنگامی که تمام مقادیر p در یک ماتریس ذخیره می شوند، کد به متغیر بعدی می رود و همان روش تست را انجام می دهد. در پایان همه چیز من با ماتریسی از مقادیر p باقی میمانم و تنها کاری که برای من باقی میماند تفسیر نتایج است. دلیل اینکه این را میپرسم چون میخواهم بدانم در چه نقطهای (یعنی نقطه شکست بین هر یک از نمونهها کجاست) هر یک از متغیرهای نمونه من معنیدار میشوند. من می توانم آن را به صورت دستی انجام دهم اما بیش از 10000 مشاهده با 30 متغیر دارم.
|
تست تناسبات ترتیبی
|
29357
|
من در حال جستجوی آموزش رگرسیون بردار پشتیبانی در R هستم. این و دفترچه راهنمای بسته e1071 را پیدا کردم. اما توضیح کمی در مورد نحوه تنظیم پارامترها وجود دارد، مانند انتخاب هسته، انتخاب رگرسیون، نه طبقه بندی. هر ماده ای قدردانی می شود.
|
پشتیبان رگرسیون برداری در R
|
26837
|
من دنبالههای توزیعهای مختلف را برای برنامهای مقایسه میکنم که در آن به انتظار شرطی دم یا دم کوتاه شده نیاز داریم: $E(X | a<X \leq b)= \frac{\int_a^b x f(x) dx }{F(b) - F(a)}$ اطلاعات محدودی در وب وجود دارد [مانند http://en.wikipedia.org/wiki/Truncated_normal_distribution ]، و من میتوانم انتگرالها را به سختی انجام دهم، اما در حالت ایدهآل میخواهم فرمولها و تقریبهایی را برای توزیعهای پیوسته اصلی ببینم. آیا اثر مرجع خوبی وجود دارد که من از دست داده باشم؟
|
از کجا می توانم فرمول های مرجع برای توزیع های کوتاه شده را دریافت کنم؟
|
91456
|
از من خواسته شد تا رتبه های خاصی را بین دو گروه مختلف مقایسه کنم. توزیع رتبهبندیها چیزی شبیه به این است: ` تعداد ارزش درصد 1 4 1.32% 2 5 1.65% 3 14 4.62% 4 48 15.84% 5 173 57.10% 6 59 19.47%` 1 بسیار بد است، 6 . آیا محاسبه فواصل اطمینان (یا احتمال بیزی) به گونه ای قابل قبول است که گویی داده ها عادی هستند؟ اگر نه، چه راه حلی بهتر است. افرادی که به آنها گزارش می دهم بسیار غیر فنی هستند.
|
فواصل اطمینان برای مقیاس لیکرت 6 درجه ای
|
27003
|
من به دنبال راهی برای انجام حداقل مربعات جزئی غیرخطی در R یا matlab هستم. من فکر میکردم کرنل pls راهی برای انجام آن است، اما مستقیماً با pls غیرخطی مرتبط نیست. آیا باید ماتریس کرنل غیرخطی خودم را محاسبه کنم و آن را به کرنل pls ارسال کنم؟ هر اشاره ای قدردانی می شود. به روز رسانی: من فکر نمی کنم هیچ راه مستقیمی برای انجام pls غیرخطی در R یا matlab وجود داشته باشد. اما من یک بسته kernlab پیدا کردم که می تواند برای غیرخطی بودن با کرنل ها مفید باشد. فکر می کنم این می تواند نقطه شروع خوبی باشد.
|
چگونه داده ها را با حداقل مربعات جزئی غیرخطی در R برازش دهیم؟
|
68639
|
آیا می توانم توزیع پواسون را بر روی نوع مجموعه داده زیر اعمال کنم؟ من دو نوع فرآیند دارم که هر کدام رویدادها را تولید می کنند. داده های واقعی که من در اختیار دارم مجموعه ای از این مهرهای زمانی است. رخدادها مستقل و تصادفی هستند. متأسفانه، رویدادها خوشهبندی میشوند، زیرا فرآیند تولید آنها برای دورههای تصادفی (دورههای مکث کوتاه و طولانی) متوقف میشود. این دورههای مکث نیست که مرا مورد توجه قرار میدهد، بلکه دورههایی است که در طی آن فرآیند در جریان است (بنابراین دورههای مکث نباید بر تحلیل من تأثیر بگذارد). از آنجایی که داده ها در طول زمان به طور یکنواخت توزیع نمی شوند، بلکه به صورت توده ای می آیند، مطمئن نیستم که بتوانم از توزیع پواسون در اینجا استفاده کنم یا خیر. هدف نهایی من تجزیه و تحلیل تفاوت در فرکانس بین دو نوع از چنین فرآیندهایی است. من توزیع احتمال را برای هر فرآیند، برای فاصله زمانی یک روز محاسبه می کنم و می بینم که چگونه این دو با هم تفاوت دارند. ترس من این است که فواصل مکث آنقدر توزیع را تغییر دهد که برای اهداف من بی معنی شود. در زیر هیستوگرام هایی برای مُهرهای زمانی وجود دارد که هر بن نشان دهنده یک روز است: https://dl.dropboxusercontent.com/u/17450714/i-1.jpg https://dl.dropboxusercontent.com/u/17450714/i-0 .jpg اگر پواسون برای این دادهها خوب نیست، چگونه میتوانم آن را با حذف دورههای مکث بزرگ آنالیز کنم؟ تحلیل خوشه ای؟ با تشکر
|
آیا توزیع پواسون برای رویدادهای متناوب و توده ای مناسب است؟
|
79728
|
من فرض میکنم تحلیل رگرسیون با مشاهدات اندک دارای ویژگیهایی است. در اینجا نتایج مربوط به رگرسیون لجستیک من است. $R^2_{\rm LR}$ = 0.7، تعداد 1 = 6 (4 پیش بینی شده)، تعداد 0 = 78 (همه پیش بینی شده) آیا مناسب است؟ اگر تعداد مشاهدات 10 برابر بیشتر باشد من شک دارم اما در اینجا می خواهم نظر یک متخصص را بپرسم.
|
رگرسیون لجستیک با مشاهدات اندک
|
73517
|
یکی از مشکلات تکلیف من شبیهسازی است که سه تخمینگر (حداقل مربع، رگرسیون پشته با پارامترهای شناختهشده، و رگرسیون پشته با پارامترهای تخمینی) را برای مدل زیر $$Y_i = \beta X_i + \epsilon_i,\quad \epsilon_i\sim مقایسه میکند. N(0,\sigma^2)$$ قرار است 1000 تکرار با $X_i\sim N(0,2)$. در ابتدا من بردار X$$ خود را تولید کردم و از همان بردار X$$ برای هر یک از 1000 تکرار استفاده کردم (بنابراین تنها تفاوت بین تکرارها این است که خطای تصادفی به آن اضافه می شود). سپس فکر کردم که ممکن است اشتباه باشد و باید بین هر تکرار داده X$ جدیدی تولید کنم. کار صحیح چیست؟ من می توانم در صورت نیاز کد ارائه کنم، اما واقعا برای پاسخ به سوال من ضروری نیست.
|
شبیه سازی x های جدید در مطالعه شبیه سازی رگرسیون
|
59207
|
من می خواهم میانگین غلظت مهاری (متغیر پیوسته) را در بیماران با پیامد A در مقابل پیامد B مقایسه کنم. من از آزمون من ویتنی U استفاده کردم. با این حال، من می خواهم آن نتایج را برای تراکم انگل کنترل کنم، که همچنین یک متغیر پیوسته است. تست ون الترن فقط امکان تصحیح طبقات را می دهد. آیا آزمون مشابهی وجود دارد که امکان تصحیح یک متغیر پیوسته را فراهم کند، یا این هیچ منطقی ندارد؟
|
آیا چیزی مانند آزمون Mann-Whitney U وجود دارد که بتواند یک متغیر پیوسته را کنترل کند؟
|
54692
|
من مجموعهای از آزمایشها را دارم که در آنها 3 اندازهگیری تکراری برای خطوط سلولی موش صحرایی و ردههای سلولی انسان در شرایط مختلف با استفاده از ترکیبات مختلف انجام میشود. من سعی می کنم پاسخ را در انسان بر اساس پاسخ در موش پیش بینی کنم. با فرض اینکه تکرارها جفت نشده باشند (تکثیر 1 در موش با تکرار 1 در انسان مطابقت ندارد)، آیا این روش صحیحی برای مدل سازی این است؟ موش <- ماتریس(rnorm(15)،5) انسان <- ماتریس(rnorm(15)،5) ترکیب <- c(c1، c2، c3، c4، c5) y <- NULL x <- NULL c <- NULL برای (i در 1:5) { y <- c(y، انسان[i,1]) x <- c(x، موش[i،1]) c <- c(c، ترکیب[i]) y <- c(y، انسان[i،1]) x <- c(x، موش[i،2]) c <- c(c، ترکیب[i]) y <- c(y، انسان[i،1]) x <- c(x، موش[i،3]) c <- c(c، ترکیب[i]) y <- c(y, انسان[i،2]) x <- c(x، موش[i،1]) c <- c(c، ترکیب[i]) y <- c(y، انسان[i،2]) x <- c(x، موش[i،2]) c <- c(c، ترکیب[i]) y <- c(y، انسان[i،2]) x <- c(x، موش[i،3] ) c <- c(c، مرکب[i]) y <- c(y، انسان[i,3]) x <- c(x، موش[i،1]) c <- c(c، ترکیب[i]) y <- c(y، انسان[i ,3]) x <- c(x، موش[i،2]) c <- c(c، ترکیب[i]) y <- c(y، انسان[i،3]) x <- c(x , rat[i,3]) c <- c(c، ترکیب[i]) } lme(y ~ x، تصادفی = ~1|c) بنابراین من اساساً تمام ترکیبات بین 3 تکرار را در نظر میگیرم زیرا آنها جفت نیستند. با تشکر اریش
|
مدل خطی زمانی که هر دو متغیر وابسته و مستقل دارای تکرارهای جفت نشده باشند
|
58552
|
اگر یک طرح چند متغیره هنگام محاسبه اثر پیشبینیکننده، سایر پیشبینیکنندهها را کنترل کند، آیا نباید مقادیر P کمرنگتری (مقادیر کماهمیتتر، یا نسبتهای شانس کمتر واضحتر) بدهد؟ من کاملا برعکس میبینم آیا **عادی** یا **ممکن** یا **معمول** است؟ توضیح مفصل در مورد مورد: هنگامی که من همبستگی بین متغیر نتیجه و پنج پیش بینی کننده خود را با استفاده از ضرایب همبستگی دو متغیره تجزیه و تحلیل می کنم، مقدار کمی P معنی دار پراکنده ظاهر می شود (همه فقط در سطح 0.05 معنی دار هستند). با این حال، مدلسازی همان متغیرها در یک تحلیل رگرسیون لجستیک چند متغیره، مقادیر P زیادی را به من میدهد، که بسیاری از آنها بسیار معنادار هستند (در سطح 0.01). باید اضافه کنم که من تعاملات متغیرهای مستقل را نیز مدل کرده ام (فقط تعاملات دو طرفه آنها). اما حتی اگر شرایط تعامل را به مدل اضافه نکنم، باز هم با تحلیل چند متغیره نتایج بهتری دریافت می کنم. باید اضافه کنم که هیچ یک از فاکتورهای تورم واریانس (VIF) بزرگتر از 2 نیست و من نسبتاً مطمئن هستم که چند خطی بودن مدل من را مختل نمی کند. بنابراین جالب است که ببینیم یک تحلیل چند متغیره نتایج بهتری ارائه می دهد. پس من تعجب می کنم که خوب است؟ یا شاید آنطور که باید باشد (یعنی بر خلاف تصور من، تحلیل چند متغیره معمولاً نتایج بهتری می دهد).
|
آیا بدست آوردن مقادیر P بهتر (کوچکتر) در تحلیل چند متغیره در مقایسه با دو متغیره طبیعی است؟
|
55120
|
من رکوردی از یک متغیر آب و هوایی با یک نقطه داده در هر سال دارم، و دیگری که فاصله نمونه بین 1.3 تا 75.2 سال متغیر است. من حتی چند سن در آن سریال دارم که دو نقطه داده برای آنها دارم. اگر بخواهم بفهمم که آیا این دو رکورد به طور قابل توجهی همبستگی دارند، آیا باید الف) رکورد با وضوح پایین را دوباره نمونهبرداری کنم تا با رزولوشن بالا مطابقت داشته باشد و سپس رگرسیون را اجرا کنم. ب) رکورد با وضوح بالا را مجدداً نمونه برداری کنید تا با رزولوشن پایین مطابقت داشته باشد و سپس رگرسیون را اجرا کنید. ج) یک رگرسیون روی دو رکورد بدون هیچ نمونهگیری مجدد انجام دهید (نمیدانم چگونه!) یا د) از رگرسیون در وهله اول استفاده نکنید (اما بعد چه؟). توجه داشته باشید که من با آمار مشکل دارم و ترجیح میدهم پردازش دادههایم را به اکسل محدود کنم (چه با افزونه تجزیه و تحلیل داده). خیلی ممنون
|
انجام تحلیل رگرسیون خطی بر روی دو سری داده با فاصله نمونه های مختلف
|
95823
|
برای فرآیند ARMA، * برخی (مثلاً در سری زمانی مالی Tsay) گفتند: اگر همه ریشههای چند جملهای مشخصه AR آن بزرگتر از 1 باشند، ثابت است. این امر با نیاز به غیرمنفی و ثابت بودن واریانس سری در هر زمان نشان داده می شود. * برخی (مثلاً در مقدمهای بر سری زمانی براکول) گفتند: اگر همه ریشههای چند جملهای مشخصه AR آن با قدر 1 نباشد، ثابت است. اگر همه ریشه های چند جمله ای مشخصه AR آن بزرگتر از 1 باشند، علی است. سؤالات 1. به گفته براکول، به نظر میرسد که یک فرآیند ARMA میتواند با حس گسترده ساکن باشد در حالی که غیر علی، اگر همه ریشههای چند جملهای مشخصه AR آن کمتر از 1 باشد. برای مثال، در مدل AR(1) $X_t = a X_{t-1} + e_t$، ریشه چند جمله ای مشخصه AR آن کمتر از 1 است، اگر $|a|<1$ باشد. من تعجب می کنم که $Var(X_t)$ در این مدل AR(1) چیست؟ آیا هنوز به خوبی تعریف شده است (غیر منفی)؟ عملکرد خودهمبستگی آن با افزایش تاخیر چگونه عمل می کند؟ (نه پوسیدگی، اما در 1 باقی بمانید؟) 2. تعجب می کنم که تفاوت شرایط لازم و کافی را که توسط Tsay و Brockwell ارائه شده است را چگونه درک می کنید؟ با تشکر
|
شرطی برای ثابت بودن فرآیند ARMA با حس گسترده
|
110512
|
من سعی میکنم مدلی را بسازم که در آن دنبالهای از شوکهای برونزا، X_1، X_2، ...، X_T$، و AR(1) از این شوکها وجود داشته باشد، Y_1، Y_2، ...، Y_T را توضیح میدهد. $. به طور خاص، داده ها (معروف): $X_1، X_2، ...، X_T$ $Y_1، Y_2، ...، Y_T$ قبلی ها (معلوم): $\phi = 2 \phi^* - 1$، که در آن $\ phi^* \sim Beta(\alpha, \beta)$، پارامتر persistence بین $(-1, 1)$ $\beta \sim N(\mu, v)$، پارامتر shock power مدل: $E_t = \phi E_{t-1} + \beta X_t$ $Y_t = E_t + \epsilon_t$, $\epsilon_t \sim N(0, 1)$ پارامترهای ناشناخته: $\phi $, $\beta$, $E_0$ سوال من این است که ساده ترین راه برای نمونه برداری از $\beta$ و $\phi$ چیست؟ به نظر میرسد که اگر اجازه داشته باشم از $E_{t-1}$ هنگام نمونهبرداری از $\phi$ استفاده کنم، کمی آسانتر میشود، زیرا: $Y_t = \phi E_{t-1} + \beta X_t + \ epsilon$ $\implies \phi E_{t-1} = Y_t - \beta X_t - \epsilon$ $\implies \phi \sim N(\frac{Y_t - \beta X_t}{E_{t-1}}, \frac{1}{E_{t-1}^2})$ با این حال، از آنجایی که $E_t$ به طور قطعی از $\phi$ شناخته می شود، به نظر می رسد که اگر من من باید یک مقدار قطعی برای $\phi$ انتخاب کنم. بنابراین من دو سوال دارم: چگونه می توانم این مدل را با استفاده از MCMC به بهترین نحو مناسب کنم؟ چگونه می توانم یک متغیر کمکی قطعی را در مرحله نمونه گیری گیبس شرطی کنم؟
|
نمونه گیبس از AR(1) ورودی اگزوژن
|
92185
|
از آنجایی که من درک می کنم، SIR مکانیزمی برای نمونه برداری از توزیع $p$ است که به شرح زیر عمل می کند: 1. یک توزیع هدف $p$ را با استفاده از یک نمونه اهمیت $S$ از یک توزیع پیشنهادی $q$ 2 تقریبی کنید. یک * رسم کنید. *small** نمونه $S_\text{small}$ از $S$ با جایگزینی مطابق $p$ نتیجه، $S_\text{small}$، نمونهای از $p$ است. 1. چرا از **زیرمجموعه کوچک** و نه از **نمونه*کامل**$S$ در 1 استفاده کنیم؟ 2. چرا این یک تکنیک کاهش واریانس است و چرا کاهش واریانس اهمیت دارد؟
|
چرا نمونه برداری مجدد از اهمیت نمونه برداری (SIR) بهتر از نمونه برداری اهمیت (IS) است؟
|
68637
|
من باید راهی برای اندازه گیری ارتباط بین چندین متغیر به طور همزمان پیدا کنم. به عنوان مثال تابع $z=f(x,y)=x+y+1$ را با داده های نمونه زیر در نظر بگیرید. x y x+y z 3 1 4 5 3 2 5 6 5 1 6 7 5 2 7 8 بله، مجموعه داده برای اندازه گیری دقیق همبستگی Spearman بسیار کوچک است، اما این نکته را نشان می دهد. Spearman $\rho$ بین $y$ و $z$ 0.4 ~ بسیار کم است. همین امر برای $\rho$ بین $x$ و $z$ نیز صدق می کند. اما برای $(x+y)$ و $z$ برابر با 1 است. من باید ایده ای برای مقابله با این نوع موقعیت ها داشته باشم: اندازه گیری همبستگی بین متغیرهای مستقل چندگانه و خروجی تابع. من گمان می کنم که این یک چیز شناخته شده است. من فقط نمی دانم چگونه آن را به درستی فرموله کنم.
|
$\rho$ اسپیرمن بین چندین متغیر
|
62125
|
من به تأثیر بر تخمین بتا شامل / حذف متغیرهای مستقل در رگرسیون خطی علاقه مند هستم. من این داده ها را در زیر ساخته ام: set.seed(50) predictor1 <- rnorm(10, 3, 1) predictor2 <- rnorm(10, 6, 1) همچنین مدلی را با استفاده از این داده ها با یک رهگیری شبیه سازی کرده ام از 2، بتای 50 برای «پیشبینیکننده1» و بتای 2 برای «پیشبینیکننده2»: پاسخ <- 2 + (50 * پیش بینی 1) + (2* پیش بینی 2) رگرسیون خطی در `R` به درستی فاصله و هر دو بتای را محاسبه می کند: خلاصه (lm(پاسخ ~ پیش بینی 1 + پیش بینی2)) فراخوانی: lm(فرمول = پاسخ ~ پیش بینی 1 + پیش بینی2) باقیمانده ها: حداقل 1Q Median 3Q Max -4.150e-14 -6.833e-15 1.100e-15 9.879e-15 2.757e-14 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 2.000e+00 8.194e-14 2.441e+13 <2e-16 *** predictor1 5.000e+01 7.730e-15 6.468e+15 <2e-16 * ** پیش بینی 2 2.000e+00 1.353e-14 1.479e+14 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 2.081e-14 در 7 درجه آزادی. 1 آماره F: 2.095e+31 در 2 و 7 DF، p-value: < 2.2e-16 با این حال، یک رگرسیون خطی تنها با «پیشبینیکننده2» در مدل، بتای 3.467- را برای «پیشبینیکننده2» محاسبه میکند: summary(lm(response ~ predictor2)) فراخوانی: lm(فرمول = پاسخ ~ پیش بینی 2) باقیمانده ها: حداقل 1Q میانه 3Q Max -75.201 -24.049 5.193 38.423 56.074 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 171.133 177.588 0.964 0.363 predictor2 -3.467 30.872 -0.112 0.913 خطای استاندارد باقیمانده: 47.58 در 8 درجه آزادی چند برابر شده: 47.58 درجه آزادی چند برابر150 R-squared: -0.1232 F-آمار: 0.01261 در 1 و 8 DF، p-value: 0.9134 در اینجا نمودار پاسخ در برابر predictor1 و predictor2 است، با خط بهترین برازش که از طریق رگرسیون محاسبه می شود: library(ggplot2 ) ggplot(dat، aes(predictor2، پاسخ)) + geom_point() + geom_point(aes(predictor1 , answer )) + geom_abline( intercept = 2, slope = 2) + geom_abline( intercept = 2, slope = 50) + ylim(0, 300) + xlim(0,10)! [توضیحات تصویر را وارد کنید اینجا](http://i.stack.imgur.com/fXEE8.jpg) و در اینجا نمودار «پاسخ» فقط در برابر «پیشبینی ۲»، در مقابل با خط بهترین تناسب محاسبهشده از طریق رگرسیون است: ggplot(dat, aes( پیشگو2، پاسخ  من دو سوال دارم: 1. چگونه رگرسیون خطی به بتای 3.467- در مدل دوم رسید، زمانی که بتا واقعی 2 است؟ یا به عبارت دیگر، حذف «predictor1» از مدل دوم چگونه باعث کاهش بیش از 5 بتای «predictor2» شده است؟ 2. آیا کسی می تواند نمایشی بصری از نحوه محاسبه بتای رگرسیون خطی ارائه دهد؟
|
تأثیر گنجاندن / حذف پیش بینی کننده ها بر تخمین بتا در رگرسیون خطی
|
92182
|
ایجاد یک باکس پلات در R با مجموعه داده کامل بی اهمیت است. با این حال، با دسترسی محدود به کل مجموعه داده، من فقط 5 نقطه داده در حداقل، 25٪، 50٪، 75٪ و حداکثر دارم. بنابراین آیا راه آسانی برای بازتولید باکس پلات تنها با این 5 مقدار وجود دارد؟
|
باکسپلات را فقط با نقاط داده در چندکهای معین بازتولید کنید
|
91989
|
من مدتی است که به عنوان بخشی از پایان نامه نهایی صلاحیتم روی یک تکلیف کار می کنم. من سعی می کنم مشکلم را به طور خلاصه شرح دهم. یک کانال تلویزیون کابلی کوچک وجود دارد که انواع کالاهایی مانند مخلوط کن، موپ و غیره را به فروش می رساند. آنها به صورت 24 ساعته در حال پخش تبلیغات محصولات مختلف (محدوده ثابت، 8 محصول مختلف) با مدت زمان مختلف (5، 10، 15) هستند. ، 20، 30 دقیقه). در صورتی که مشتری پس از شروع آن و قبل از آگهی بعدی این محصول تماس بگیرد، واقعیت فروش به این آگهی اختصاص داده می شود. وظیفه من ایجاد تابع پیش بینی برای بهینه سازی پخش زیر است. من باید تعداد سفارشات را برای آگهی داده شده پیش بینی کنم. بنابراین، پس از تلاشهای بیشماری، رگرسیون دوجملهای منفی را برای مدلسازی این فرآیند انتخاب کردم. من چندین پیش بینی دارم از جمله فاصله زمانی قبل از شروع تبلیغ بعدی این محصول، مجموعه ای از متغیرهای ساختگی که نشان دهنده محصولات و مدت زمان، زمان روز، تعداد تبلیغات این محصول (3 ساعت قبل از این تبلیغ و 3 ساعت بعد از آن) و غیره است. . آیا راهی وجود دارد که از مدل مناسب تری مثلا با افکت های ثابت یا تصادفی استفاده کنیم؟ همانطور که متوجه شدم، این روشها برای دادههای پانل ایجاد شدهاند، اما به نظر میرسد مجموعه من پانل نیست. با تشکر از توجه شما، هر ایده ای قابل قدردانی خواهد بود. P.S. نمونه کوچکی از دادهها وجود دارد، JIC https://drive.google.com/file/d/0B34-IapABY3mZllqOC1ZeWhWTkU/edit?usp=sharing
|
مدل صحیح برای استفاده برای داده های شمارش
|
73605
|
من 2 مجموعه از اشیاء تایپ شده X دارم: A = {x1, x2, x3 ... xn} B = {x1, x2, x3 ... xm} هدف این است که تعیین کنیم آن دو مجموعه بر اساس خروجی چقدر شبیه هستند. یک جنگل تصادفی احتمالی این جنگل تصادفی دو مورد از این اشیا (یکی از هر مجموعه) را به عنوان ورودی می گیرد و سپس احتمال تعلق آنها به یک کلاس را برمی گرداند. تا اینجای کار خیلی خوبه. فرآیند طبقه بندی گران است، بنابراین به جای محاسبه هر ترکیب ممکن از عناصر بین **A** و **B**، من به طور تصادفی **k** جفت عناصر را برای طبقه بندی انتخاب می کنم، بنابراین اکنون بردار * دارم. عناصر *k** که هر کدام نشان دهنده احتمال آن جفت عنصر متعلق به یک کلاس است. {P1, P2, P3 ... Pk} **چگونه می توانم _k_ مناسب را پیدا کنم تا از نظر آماری مجموعه ای نمونه از نمونه ها باشد، اما به اندازه کافی کوچک باشد که هزینه محاسباتی را کاهش دهد؟** بر اساس آن، باید احتمال را تعیین کنم. از مجموعه **A** و **B** متعلق به یک کلاس. ** چگونه می توانم احتمال دو مجموعه را بر اساس مجموعه نمونه های گرفته شده محاسبه کنم؟**
|
یافتن احتمال کلاس برای یک مجموعه بر اساس طبقه بندی نمونه فرعی
|
90922
|
من به دنبال کمک کوچکی برای تعیین روش صحیح اجرای **تحلیل توان** در طرح **میزان اندازه گیری مکرر درون سوژه** (یعنی بدون متغیر بین سوژه ها) با **تضادهای ترکیبی** هستم. در ابتدا، این تصور را داشتم که میتوانم یک تحلیل قدرت را روی طرح اندازهگیریهای مکرر با تضادهای برنامهریزیشده اجرا کنم و نگران این واقعیت نباشم که ما متغیرها را ترکیب میکنیم، زیرا همه چیز درون موضوع است. با این حال، از آن زمان متوجه شدم که اینطور نیست، زیرا برای طراحی سه عاملی تکرار شده (در داخل)، به دلیل ترکیبی از اثرات اصلی و تعاملات، 7 اصطلاح خطا وجود خواهد داشت. بسته به نحوه ایجاد کنتراست (و اندازه قدرت یا افکت) ما خطاهای SS مختلف و اصطلاحات df مرتبط با آنها را با هم ترکیب می کنیم... A SS Error(A) B SS Error(B) C SS Error(C) AB Error(AB ) و غیره... به عنوان مثال، ما در حال بررسی این هستیم که چگونه اپلیکیشن های مختلف بر معیارهای کیفیت زندگی تاثیر می گذارند. یکی از تضادهای برنامه ریزی شده، مقایسه تولیدکنندگان است (2). با این حال، ما همچنین میخواهیم بین تولیدکنندگان (به عنوان مثال، ترکیب تضادهای برنامهریزیشده) کنار بیاییم تا به استفاده از برنامه در مقابل بدون برنامه (خط پایه) نگاه کنیم. این وبسایت در تحقیقاتم برای من بسیار مفید بوده است، و اکنون چند هفته است که برای کشف این موضوع/بهدنبال پاسخی مستقیم از برخی آماردانان فوقالعاده تلاش میکنم. شاید من سوال اشتباهی میپرسم، اما امیدوارم کسی در اینجا بتواند به من کمک کند. هر توصیه ای بسیار قدردانی خواهد شد. پیشاپیش از شما متشکرم
|
چگونه می توان یک تحلیل توان برای اندازه گیری های مکرر (همه درون سوژه ها) با تضادهای ترکیبی اجرا کرد؟
|
59202
|
سوال من به رابطه آلفا و بتا و تعاریف آنها در آمار مربوط می شود. آلفا = نرخ خطای نوع I = سطح معناداری در نظر گرفته شده که فرضیه NULL درست است بتا = نرخ خطای نوع II اگر آلفا کاهش یابد (ویژگی با آلفا = 1- ویژگی افزایش مییابد)، بتا افزایش مییابد (حساسیت/قدرت با بتا = 1 کاهش مییابد - حساسیت/قدرت) **تغییر آلفا چگونه بر بتا تأثیر می گذارد؟** آیا رابطه خطی وجود دارد یا خیر؟ آیا نسبت آلفا/بتا همیشه یکسان است، به عبارت دیگر نسبت ویژگی/حساسیت همیشه یکسان است؟ اگر بله، به این معنی است که با استفاده از تصحیح بونفرونی، ما فقط به حساسیت کمتر و ویژگی بالاتر می رویم، اما نسبت حساسیت/ویژگی را تغییر نمی دهیم. آیا این گفته درست است؟ به روز رسانی (سؤال خاص مورد): برای یک طرح آزمایشی معین، ما 5 مدل خطی را روی داده ها اجرا می کنیم. ما یک نرخ مثبت واقعی (حساسیت/قدرت) در 0.8 و یک نرخ منفی واقعی (ویژگی) در 0.7 داریم. (بیایید تصور کنیم که می دانیم چه چیزی باید مثبت باشد و چه چیزی نباید). اگر اکنون سطح معناداری را با استفاده از Bonferroni به 0.05 / 5 = 0.01 اصلاح کنیم. آیا می توانیم نرخ مثبت واقعی (حساسیت/قدرت) و نرخ منفی واقعی (ویژگی) را به صورت عددی تخمین بزنیم؟ خیلی ممنون از کمک شما
|
آمار: رابطه بین آلفا و بتا
|
91986
|
**\---اطلاعات پس زمینه---** شرکت من یک محصول بهینه سازی موتور جستجو ساخته است که می تواند فعالیت های ماهانه اولویت بندی شده SEO (پیشنهاد وظایف) را پیشنهاد دهد که بیشترین سود را برای کاربر نهایی خواهد داشت. برای مثال، فرض کنید به 10 کلمه کلیدی و 4 پیشنهاد کار علاقه مندیم. کلیدواژه های مورد علاقه عبارتند از: «رهن، نرخ وام مسکن، نرخ بهره، مقایسه وام مسکن، وام، نرخ وام، بهره وام، نرخ بهره وام، ماشین حساب وام مسکن، ماشین حساب بازپرداخت وام». پیشنهادهای کار ممکن عبارتند از: 1. ایجاد پیوندی به این صفحه با متن لنگر مرتبط. به عنوان مثال، یک وبسایت را پیدا کنید و از آنها بخواهید به صفحه شما پیوند بزنند تا پیوند حاوی کلمات «ماشین حساب وام مسکن» باشد. 2. محتوایی تولید کنید که حول کلمه کلیدی می چرخد: به عنوان مثال. یک پلاگین ماشین حساب وام مسکن بسازید. 3. یک ویژگی در صفحه را تغییر دهید، به عنوان مثال. عنوان صفحه را تغییر دهید تا حاوی کلمه ماشین حساب وام مسکن باشد. 4. ایجاد علاقه در رسانه های اجتماعی: به عنوان مثال. مردم را وادار کنید تا ماشین حساب وام مسکن شما را در فیس بوک لایک کنند. با 10 کلمه کلیدی و 4 کار، در مجموع 40 پیشنهاد کار/کلمه کلیدی ممکن وجود دارد. در حال حاضر وظایف با استفاده از رتبه بندی «سختی» از پیش تعیین شده، بر اساس نظرسنجی از کارشناسان بهینه سازی موتورهای جستجو، اولویت بندی می شوند. ما میخواهیم دادهها را جمعآوری کنیم و الگوریتمی توسعه دهیم که درجهبندیهای دشواری را بهروزرسانی کند. دو دلیل برای این وجود دارد: 1. برخی از وظایف ممکن است برای برخی از مشتریان دشوارتر باشد. به عنوان مثال اگر مشتری فردی مسئول رسانه های اجتماعی نداشته باشد، ممکن است اجرای یک کمپین رسانه های اجتماعی برای او سخت باشد. بنابراین، ما میخواهیم رتبهبندیهای دشوار ما منعکس کننده شرایط خاص مشتری ما باشد. **\---اطلاعات پس زمینه پایانی---** من دو سوال دارم، یکی مربوط به جمع آوری داده ها، و دوم مربوط به نحوه تجزیه و تحلیل داده های جمع آوری شده است. ** سوال 1: ** ما می خواهیم بازخورد کاربر را در مورد دشواری کار دریافت کنیم. **چه نوع دکمه ای را باید برای نظرسنجی از کاربران اجرا کنم** تا داده های مفیدی را دریافت کنیم که بتوان از آنها برای به روز رسانی رتبه بندی دشواری خود استفاده کرد؟ آیا این دکمه باید: 1. چیزی متفاوت از گزینه های زیر باشد؟ 2. پاسخ بله/خیر به سوال آیا این کار خیلی سخت بود. 3. لطفا به سختی این کار در مقیاس 1 تا 5 امتیاز دهید. 5. ما قبلاً گزینه ای برای رد کار توسط کاربر داریم. شاید بتوانیم اطلاعاتی در مورد دشواری از این به دست آوریم؟ **سوال 2:** **از چه نوع روش های تجزیه و تحلیلی می توانیم برای به روز رسانی رتبه بندی دشواری استفاده کنیم؟** آیا روش تجزیه و تحلیل بسته به روش جمع آوری داده ها متفاوت است؟
|
چه نوع دکمه بازخوردی را باید برای اندازه گیری سختی یک کار اجرا کنم
|
73600
|
_میدانم که این سوال کاملاً خاص و کاربردی است، اما به دنبال یک کمک کلی هستم که به من کمک میکند تا در تحلیلام پیشرفت کنم. میخواهم پسرفت کند، در حالی که $\boldsymbol{x}\in\mathbb{R}^6$. ماتریس طراحی من $\boldsymbol{X}\in\mathbb{R}^{11\times6}$ (بنابراین، در حال حاضر $y(\boldsymbol{X})\in\mathbb{R}^{11} $، اما در صورت نیاز میتوانم آزمایشهای بیشتری انجام دهم). هدف من به حداکثر رساندن $y(\boldsymbol{x})$ بیش از $\boldsymbol{x}$, $x_{2k+1}=\\{5,7,9\\}$, $x_{2k}= است \\{2،4\\}$. اگر من یک تجزیه و تحلیل تجربی _dense_ را اجرا کنم، باید موارد 3^3\times2^3=216$ را آزمایش کنم، که هر یک از آنها بسیار وقت گیر هستند. دادههای جمعآوریشده به شرح زیر است (بله، میدانم، آنها محدودیتهای بالا را رعایت نمیکنند، که به من اجازه میدهد تا تعداد کل آزمایشهای نسبتاً کمتری را اجرا کنم اگر تجزیه و تحلیل آزمایشی متراکم به عنوان تنها راهحل امکانپذیر در نظر گرفته شود): X = [ 4 2 3 2 3 2 7 2 5 2 5 4 10 2 7 4 5 2 10 2 9 2 8 4 10 4 6 2 4 2 7 2 5 4 5 2 7 4 5 2 5 2 7 2 5 4 5 4 7 4 5 2 5 4 7 4 5 4 5 2 7 4 5 4 5 4 ]; y = [ 64.7 68.0 69.4 68.5 68.5 71.9 71.6 71.7 71.0 71.6 68.6 ]; من نمودار پراکندگی $(x_i، y(x_i))، i=\\{1،2،3،4،5،6 \\}$ را انجام دادم، اما خروجی آنقدر آموزنده نیست. name = { 'ks1' 'ss1' 'ks2' 'ss2' 'ks3' 'ss3' }; [m، n] = اندازه (X); ٪ # آزمایش، # پارامتر = 3 اندازه هسته تبدیل + 3 نمونه فرعی برای j = 1:2:n subplot(2,3,(j+1)/2) h = plot(X(:,j),y ,'x','MarkerSize',10,'LineWidth',2); xlabel(name{j}) ylabel ('دقت آزمایش [%]') محور ([2 10 60 75]) شبکه در انتهای برای j = 2:2:n طرح فرعی (2,3,3+j/2) h = plot(X(:,j),y,'x','MarkerSize',10,'LineWidth',2); xlabel(name{j}) ylabel('دقت آزمایش [%]') محور ([1 5 60 75]) شبکه در پایان  بنابراین، سوال من این است، **چگونه می توانم بفهمم** (و/یا تجسم کنم) **در این مسئله چند متغیره چه می گذرد؟** به نظر من یک PCA همچنان به عنوان ابزار مفید ممکن ظاهر می شود، حتی اگر می دانم که برای تجسم جهت گیری های اصلی به جای کمک به من در یافتن حداکثر میدان های اسکالر استفاده می شود. آموزش 30 دوره. با این حال، من می خواهم نتایج خود را به تصویر بکشم. در واقع، من یک تابع دقت تست (و آموزش) در هر مورد دارم، در حالی که در بالا فقط حداکثر آن را انتخاب کردم. این یک نمای کلی از توابع دقت تست است * * * آنچه که من سعی در انجام آن دارم، تعیین بهترین پیکربندی برای یک عصبی مصنوعی کانولوشن است. شبکه پارامترهایی که در اینجا در نظر میگیرم عبارتند از _kernel size_ ('ks') و ضریب _subsamplig_ ('ss') برای چندین لایه ('1'، '2' و '3')، در حالی که $y(\cdot)$ آزمایش است. دقت (یا اعتبارسنجی متقابل).
|
پارامتر اکتشاف فضا
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.