_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
49987
روش های درستنمایی دارای خواص مطلوب بسیاری هستند. متأسفانه، ماکزیمم محلی در نمونه های محدود یکی از آنها نیست. این واقعیت که یک ماکزیمم محلی نزدیک به مقدار پارامتر واقعی وجود دارد، اگر به ماکزیمم های محلی مختلف همگرا شود، راحت نیست. من به دنبال آثاری هستم که این مشکل را بررسی کنند، آن را نشان دهند و راه حل هایی ارائه دهند.
بیشینه ناهنجاری های محلی روش های احتمال
97783
من از بسته های Bernhard Pfaff {urca} و {vars} برای تجزیه و تحلیل 3 سری زمانی استفاده می کنم. هر یک I(1) است و با روابط هم انباشته $r =2$ هم ادغام شده است. دستور _vec2var_ () باید از شی **ca.jo** (VECM من) به نمایش VAR آن در سطوح تبدیل شود. اما من خروجی _vec2var_ () و همچنین نحوه انجام تجزیه و تحلیل VAR را روی این خروجی نمی‌دانم (یعنی ارسال داده‌ها به تابع _VAR_ () برای دریافت یک شی _varest_). یعنی بعد از تبدیل از VECM به VAR به تابع _VAR_ () (که تخمین استاندارد VAR را انجام می دهد) چه چیزی ارسال کنم؟ آیا باید این باشد: var.form$A%*%var.form$datamat[ , c(6:11)] + var.form$deterministic%*%var.form$datamat[ , c(4:5)] که در آن ابعاد در کد بالا به این دلیل است که متغیرهای $K=3$، تاخیرهای $p=2$، یک جمله ثابت و یک روند قطعی دارم. اما فرمول از _vec2var_ () [که من کد R بالا را بر اساس آن قرار دادم] چیزی شبیه به \begin{equation} Y_t = A_1 Y_{t-1} + A_2 Y_{t-2} + \Phi D_t + \ است. mu + \epsilon_t \end{equation} یعنی یک VAR(2) پایه با روند زمانی قطعی و ثابت. اما این چیزی است که من در مورد آن گیج شده ام: شکل VAR بلندمدت VECM (معادله 4.8a، در Pfaff's _Analysis of Integrated and Co-Integrated Time Series with R. user!_، و جاهای دیگر _مثلا Lütkepohl معادله 7.1.1) این است: \شروع{معادله} \دلتا y_t = \Gamma_1 \cdot \Delta y_{t-1} + \Gamma_2 \cdot \Delta y_{t-2} + \Pi \cdot y_{t-2} + \Phi \cdot D_t + \mu + \epsilon_t \end {equation} برای دریافت نمایش سطح VAR مناسب، باید داده ها را از _vec2var_ () بگیرم و دستکاری کنم خودم؟ (یعنی سری تفاوت را پیدا کنید و سپس در ماتریس همجمعی مناسب ضرب کنید)؟ اگر اینطور است، **کدام** [در کد R لطفاً!] ماتریس های ضریب باید کدام بردارها را ضرب کنند؟ من احساس می‌کنم ارتباطی با نظریه و فرمالیسم ریاضی و این بسته‌های R قطع شده است... اما به احتمال زیاد چیزی بسیار اساسی را از دست داده‌ام. در اینجا کد اصلی R تنظیم شده است: library(urca) library(vars) vecm <- ca.jo(mydata, ecdet = trend, type = trace, spec = longrun) var.form <- vec2var( vecm، r= 2) # داده‌های خروجی که دریافت می‌کنم از names(var.form) قابل مشاهده است، اما بخش‌های کلیدی عبارتند از: var.form$y # داده اصلی من var.form$datamat # original داده ها با سه متغیر (شروع از t = 2)، عبارت ثابت، ترم روند و سپس شش ستون با دو سطح تاخیر در t=1 و t=0 سازماندهی شده اند. # ضرایب برای رگرسیون ها در متغیرهای درون زا (A) و مؤلفه های قطعی عبارتند از: var.form$A # ضرایب متغیر با تأخیر (فقط سطوح، من فکر می کنم) var.form$deterministic # ضرایب روند ثابت و زمانی
آشنایی با تبدیل vec2var در R
82698
من یک مطالعه شبیه‌سازی را برای تعیین میزان خطای نوع یک آمار انجام داده‌ام. طراحی شبیه‌سازی من شامل عوامل سه‌گانه به‌عنوان حجم نمونه (4 سطح)، طول آزمون یا تعداد آیتم‌ها (3 سطح) و برآوردگر (3 سطح) است. این آمار برای اندازه‌گیری تناسب فرد با داده‌های آزمون در موقعیت آزمون آموزشی ایجاد شده است. من آنالیز را در هر سلول 100 بار تکرار کرده‌ام (یعنی طرح کاملاً تلاقی شده است). اکنون، من نتایج و نرخ خطای نوع I را از 0.005 تا 0.105 (یعنی در کل تجزیه و تحلیل) دارم. من می خواهم با استفاده از چیزی شبیه به ANOVA تجزیه و تحلیل کنم که چگونه عوامل بر میزان خطای نوع I تأثیر می گذارد. من رگرسیون بتا را در R با استفاده از بسته «betareg» امتحان کردم، اما این پیام خطا را دریافت کردم: > متغیر وابسته نامعتبر، همه مشاهدات باید در (0، 1) باشند.
تجزیه و تحلیل میزان خطای نوع I در یک مطالعه شبیه‌سازی با استفاده از روش‌های مشابه ANOVA
2499
چندین کاربرد متمایز وجود دارد: تخمین تراکم هسته، ترفند کرنل هموارسازی هسته لطفاً به زبان خودتان، به زبان انگلیسی ساده، معنی هسته در آنها را توضیح دهید.
به زبان انگلیسی ساده توضیح دهید که هسته چیست
2328
نسبت تعداد مشاهدات و تعداد متغیرها چقدر باید باشد؟ چگونه می توان اضافه برازش را در مدل شبکه عصبی تشخیص داد و راه های جلوگیری از اضافه برازش چیست؟ اگر بخواهم طبقه بندی را با شبکه عصبی انجام دهم، آیا کلاس ها باید فرکانس یکسانی داشته باشند؟ لطفا به من کمک کنید
چگونه می توان مدل سازی شبکه عصبی را به طور موثر انجام داد؟
56803
من سعی می کنم بین مقیاس لیکرت 4 سطحی با 11 گویه و مقیاس دوقطبی حال-نه حال از همان 11 گویه همبستگی انجام دهم. آیا می توانم این کار را انجام دهم؟
آیا می توانم بین مقیاس لیکرت و مقیاس دوگانه با فهرست یکسان موارد همبستگی انجام دهم
81522
به طور خلاصه: ماتریس های سردرگمی داده شده (TP/TN/FP/FN) از 8 اجرا بر روی داده های واقعی و x اجرا بر روی داده های شبیه سازی شده، نشان می دهد که نتایج حاصل از داده های شبیه سازی شده مشابه با داده های واقعی رفتار می کند. جزئیات بیشتر: من روی پروژه مرتب سازی/طبقه بندی سنگ معدنی برای تحقیقاتم (در علوم کامپیوتر) کار می کنم. من داده ها را از حسگرها می گیرم و با استفاده از الگوریتمی که توسعه داده ام، سنگ معدن ها را به 2 دسته طبقه بندی می کنم. در نهایت این برای من تعداد TP/TN/FP/FN برای هر اجرا باقی می‌گذارد (من داده‌های 8 اجرا را جمع‌آوری کرده‌ام). من همچنین یک شبیه‌ساز ساخته‌ام که هدف آن ایجاد داده‌هایی شبیه به سنگ معدن‌های واقعی است که از روی حسگرهای واقعی عبور می‌کنند. شبیه‌سازی بسیار تقریبی است، و داده‌های موجود در تولیدات من قبلاً می‌دانم تفاوت‌هایی با داده‌های واقعی دارند. چیزی که می‌خواهم بیان کنم این است که نتایج (طبقه‌بندی‌های TP/TN/FP/FN) از اجرای الگوریتم روی داده‌های واقعی با اجرای همان الگوریتم روی داده‌های شبیه‌سازی شده قابل مقایسه است. یعنی رفتار الگوریتم من هم روی داده های واقعی و هم روی داده های شبیه سازی شده یکسان است. به عنوان مثال، اگر الگوریتم من روی داده های شبیه سازی شده خوب عمل کند، می خواهم با اطمینان خاطر بگویم که روی داده های واقعی نیز عملکرد خوبی خواهد داشت. من به دنبال یک آزمون آماری برای حمایت از این جمله هستم. توجه: من می‌توانم به اندازه نیاز از شبیه‌سازی داده جمع‌آوری کنم، اما به آزمایش‌های دنیای واقعی محدود شده‌ام (ترجیح می‌دهم بیش از ۸ موردی که قبلاً انجام داده‌ام انجام ندهم). هیچ ایده ای در مورد اینکه از چه آزمون های آماری می توانم استفاده کنم؟ من سابقه ای در زمینه آمار ندارم، بنابراین هر گونه پیشنهاد - حتی پیشنهادهای بی اهمیت - قابل قدردانی است.
آزمون های آماری برای مقایسه رفتار شبیه سازی با رفتار دنیای واقعی
52385
بگویید دو متغیر وجود دارد. متغیر A وزن $\beta$ بیشتری نسبت به متغیر B دارد، اما متغیر B دارای آماره t بالاتری نسبت به متغیر A است. آیا هر یک از این اندازه‌گیری‌ها، $\beta$ استاندارد یا t-value، می‌توانند قدرت پیش‌بینی بهتری نسبت به دیگری ارائه دهند؟ آیا t-value و $\beta$ باید با هم در نظر گرفته شوند یا خیر؟
آیا وزن بتا بزرگتر از آماره t بالا پیش بینی کننده بهتری است؟
19540
فرض کنید یک طبقه‌بندی کننده $C^n$ دارید که به طور پیوسته یک جریان از برچسب‌های طبقه‌بندی $K^n_i$ و مهرهای زمانی مربوطه $T^n_i$ را خروجی می‌دهد. همچنین، ما احتمال قبلی $P(K^n) \forall n$ را می دانیم. حال، فرض کنید چندین طبقه‌بندی‌کننده داریم که برچسب‌های طبقه‌بندی را از منابع مختلف داده دریافت می‌کنند، اما همه تلاش می‌کنند یک شی را تشخیص دهند. چگونه می توانم اطلاعات این جریان ها را مطابقت دهم؟ من می توانم مجموعه ای از $k$ مشاهدات را از همه طبقه بندی کننده ها ({$K^n_i,T^n_i$} $\forall n$ و $i\in [1,k]$) ذخیره کنم و فرض کنم که مشاهدات با یکدیگر مطابقت دارند. بر اساس فاصله بین مهرهای زمانی آنها. به عنوان مثال اگر 2 طبقه‌بندی کننده داشته باشیم و $1\le a,b \le k$, {$K^1_a,T^1_a$}, {$K^2_b,T^2_b$} مطابقت داشته باشند اگر $|T^1_a-T^ 2_b|<\epsilon$. آیا راه هوشمندانه تری برای این کار وجود دارد؟
تطبیق جریان داده ناهمزمان
43669
از هر یک از شما که بتواند در این چالش به من کمک کند بسیار سپاسگزارم. من قصد دارم مشکل را به ترتیب متوالی بیان کنم تا روشن شود: 1. من $n$ متغیرهای تصادفی معمولی توزیع شده دارم. 2. من داده های آماری برای هر متغیر تصادفی دارم (بنابراین، میانگین و واریانس آنها). 3. من داده های تاریخی برای هر یک از متغیرهای تصادفی دارم و از روی این داده ها می توانم همبستگی بین متغیرهای تصادفی را محاسبه کنم. حال، با فرض اینکه ارزش یکی از متغیرها را بدانم، چگونه می توانم مقادیر متغیرهای دیگر را انتخاب کنم، به طوری که تمام مقادیر $n$ در بردار حاصل مطابق با هم مرتبط باشند. اگر این امکان وجود دارد، چگونه می توانم این را به موقعیتی که دو یا چند مقدار شناخته شده دارم تعمیم دهم؟ به عنوان مثال، من دو یا چند مقدار را از متغیرهای $n$ می شناسم (آنها محدودیت همبستگی را برآورده می کنند)، و می خواهم بقیه را انتخاب کنم تا آنها همبستگی و توابع توزیع مربوطه خود را برآورده کنند. من در آمار به خوبی مسلط نیستم، بنابراین از توضیحاتی که تا حد امکان قابل درک باشد قدردانی می کنم.
تولید نمونه هایی از متغیرهای همبسته با توزیع نرمال با برخی از متغیرهای از پیش انتخاب شده
28936
من یک مدل خطی از یک متغیر وابسته، $y$، با دو متغیر پیش بینی، سال و سایت، و تعامل آنها، با سال عددی و سایت مقوله ای دارم. اثر اصلی سال تفاوت معنی‌داری با صفر ندارد، با مقدار تخمینی 0.02312 برای $y$ در شیب سال. برخی از سال، تعاملات سایت قابل توجه است. خلاصه مدل خطی در R برآوردهایی را برای شرایط تعامل به عنوان انحراف از اثر اصلی سال ارائه می دهد. برای مثال، اگر تخمین سال به سایت 1 به صورت 416/0 گزارش شود و قابل توجه باشد، برای محاسبه شیب سالیانه در سایت 1، باید 0 + 0.416 یا 0.02312 + 0.416 را محاسبه کنم؟
چگونه می توان برآوردهای تعامل قابل توجه را زمانی که اثر اصلی معنی دار نیست محاسبه کرد؟
13632
من در حال مناظره کوچکی با یکی از همکارانم در مورد آزمایش و تفسیر فرضیه هستم. بینش، پیوند، یا ویرایش‌های شما برای اینکه ما را در مسیر درست قرار دهید واقعاً قدردانی می‌کنیم! من به شما نمی گویم که در کدام طرف بحث هستم، اما وضعیت اینجاست: _**وضعیت 1_** موضوعات به 4 گروه تقسیم می شوند، در هر گروه N=100. هر یک از شرکت‌کنندگان در معرض استرس‌های متفاوتی قرار می‌گیرند که بر اساس انتساب گروهی تعیین می‌شود، سپس خون آنها برای سطوح برخی از پروتئین استرس مورد آزمایش قرار می‌گیرد. * شرکت کنندگان گروه 1 به آرامی در یک اتاق می نشینند: سطح پروتئین 100 +/- 4 (SEM) * شرکت کنندگان گروه 2 که برای دویدن نیم مایل ساخته شده اند: پروتئین 140 +/- 4 * شرکت کنندگان گروه 3 به صورت شفاهی مورد سرزنش قرار گرفته اند: پروتئین 200 +/ - 4 * شرکت کنندگان در گروه 4 توسط بابکت خراشیده شدند: پروتئین 250 +/-4 است برای استدلال، بیایید بگوییم که در آزمایش قبلی ما استرس را به گونه ای تعریف کنید که درمان 4 دقیقاً 4 برابر درمان 1 استرس زا باشد (و به همین ترتیب برای 3 و 2 - آنها 3 برابر و 2 برابر درمان 1 استرس زا هستند). و ما در حال ارزیابی صحت این ادعا هستیم: ** _سطح استرس-پروتئین با درجه یک عامل استرس زای اعمال شده همبستگی دارد. ماهیت گسسته تکالیف گروهی را نادیده بگیرید و به سادگی تمام تنش‌ها و پاسخ‌های پروتئینی را به شکل پراکنده ترسیم کنید (x: تکلیف فرد 1، 2، 3 یا 4؛ y: پاسخ پروتئین فرد). با میانگین های گروهی و SEM داده شده و با N=400 امتیاز در نمودار پراکندگی، رگرسیون به وضوح معنی دار خواهد بود. در نظر گرفتن هویت گروه به عنوان یک متغیر پیوسته، تنها آزمون فرضیه را قوی‌تر می‌کند - دقیق‌تر از ANOVA. بنابراین لازم نیست نگران این باشیم که این روش ساختار اضافی را به داده ها اضافه کند. (2) روش فوق خوب است، اما N باید به عنوان 4 در نظر گرفته شود، نه به عنوان 400. زیرا نتایج در گروه ممکن است به روش هایی که ما اندازه گیری نکرده ایم همبستگی داشته باشد (استرس های مختلف ممکن است پروتئین استرس را به روش های غیر مرتبط با استرس افزایش دهند. برای مثال، پروتئین استرس ممکن است یک «پروتئین تمرینی» باشد)، ما نمی‌توانیم N بزرگ درون گروهی (یا SEM) را به تفسیر همبستگی خود منتقل کنیم. با N=4، همبستگی معیار اهمیت ما را برآورده نمی کند. *** موقعیت 2 *** این اصلاح وضعیت 1 است که سعی می کند (استدلال 2) را کمی بیشتر برجسته کند. اندی دبلیو، پیتر و وبر به موقعیت اول پاسخ می دادند. با تشکر از آنها برای نظرات خود! پاسخ ها واقعاً به من کمک کرد تا فکرم را در این مورد رسمی کنم. بنابراین، اگر هنوز به این سؤال علاقه دارید، لطفاً تصور کنید که مطالعه فوق فقط با گروه 1 و گروه 2 اجرا شده است. و فرض کنید که برای آزمایش‌کنندگان ناشناخته است، اما برای ما به عنوان افرادی که این سؤال فرضی را مطرح می‌کنند، شناخته می‌شوند، «پروتئین استرس» تنها بر اساس تصادف تاریخی نام خود را به دست آورده است. حقیقت اصلی این است که این پروتئین تنها با دویدن در مسیر تنظیم می شود. در آزمایش ما، استرس‌زای دویدن در مسیر دو برابر استرس‌زاتر از نشستن آرام در یک اتاق است. طراحی یک مطالعه با بسیاری از عوامل استرس زا، برخی شامل دویدن در مسیر و برخی دیگر نه، ارتباط بین استرس ایجاد شده و پروتئین استرس تولید شده را از بین می برد، اما این مطالعات اجرا نشدند. _اگر_ منطق پاسخ های پیتر و وبر را بتوان در موقعیت 2 اعمال کرد، به نظر می رسد که ما این ادعا را می پذیریم **_بیان استرس-پروتئین به طور قابل توجهی با درجه استرس اعمال شده مرتبط است_**. گروه 1 و گروه 2 همچنان هر کدام N=100 دارند. در حالت پراکندگی، پارامتر بتا همچنان با N=200 بسیار مهم است. و در حالت رگرسیون گروه گسسته، B1 و B2 به طور قابل توجهی متفاوت هستند. نکته جذاب در مورد (استدلال 2) این است که به منظور ارزیابی ادعای مورد بحث، می‌توانیم یک نمودار پراکنده جدید با N=(تعداد گروه‌ها) بسازیم. در محور x درجه تنشی است که به هر شرایط نسبت می‌دهیم، و روی y مقدار پروتئین تولید شده است، و فواصل اطمینان حول Bt(i) در مدل دوم whuber نشان‌دهنده اطمینان در قرار دادن آن نقاط در y است. محور. از آنجایی که SEM ها کوچک هستند، اطمینان ما بالا است، اما ما هنوز تعداد کمی از سطوح استرس اعمال شده را مقایسه می کنیم، و مجبوریم به جای آن ادعای ضعیف تری داشته باشیم: **_سطوح پروتئین استرس به طور متفاوتی توسط سطوح مختلف تعدیل می شود. گروه‌های درمانی._** این ادعای ضعیف‌تر، رابطه یکنواختی را ندارد که به نوعی در ادعای واقعی که ما در حال ارزیابی آن هستیم، مستتر است. من فکر می‌کنم با اطمینان می‌توان گفت که زمانی که استرس تنها در ۲ سطح اعمال می‌شود، نمی‌توان یک رابطه یکنواخت (خیلی کمتر، خطی) قابل توجه بین استرس و پاسخ پروتئین ایجاد کرد. با 4 سطح، یک رابطه یکنواخت ممکن است آشکار باشد، اما نه با مقدار p پایین. با 100 سطح (و مقداری مراقبت برای تنوع بخشیدن به انواع استرس، هنوز **با فرض اینکه می‌توانیم استرس را کاملاً کمیت کنیم)، اطمینان واقعی وجود دارد که استرس IV واقعاً
چگونه اندازه‌های نمونه برای تفاسیری تعیین می‌شوند که بین آنوا و همبستگی «حصار می‌پیچد»؟
46321
من در رشته روانشناسی هستم و سعی می کنم کاربرد مدل سازی ترکیبی را برای تجزیه و تحلیل داده های اندازه گیری های مکرر خود در یک آزمایش فاکتوریل کشف کنم. دلیل اصلی استفاده از مدل‌های مختلط این است که می‌خواهم از روش معمول میانگین‌گیری داده‌های جمع‌آوری‌شده در شرایط آزمایشی مشابه اجتناب کنم. درک من این است که معمولاً برای ANOVA با اندازه گیری های مکرر لازم است که فقط یک مشاهده در هر شرایط برای هر موضوع وجود داشته باشد. اگر چندین تکرار از یک شرط برای یک موضوع داشته باشید چه؟ برای دقیق تر بودن، من دو شرط دارم یک عامل بین آزمودنی A (2 سطح) و یک فاکتور درون آزمودنی B (3 سطح). 4 تکرار برای هر سطح B برای مجموع 12 کارآزمایی سفارشی تصادفی شده برای هر آزمودنی وجود دارد. معمولاً من به سادگی از بین این 4 عدد میانگین می‌گیرم تا تخمینی برای عملکرد سوژه در شرایط به دست بیاورم و سپس اجرا کنم، اما به نظر می‌رسد که از این طریق اطلاعات ارزشمندی در مورد تنوع ارائه می‌دهم. نحوه برخورد با چنین داده هایی با استفاده از مدل سازی ترکیبی در R (من از تابع lmer استفاده کرده ام). شاید گنجاندن شماره آزمایشی به عنوان متغیر دیگری کار کند؟ من سعی کردم آزمایش # را به عنوان یک عامل تصادفی همراه با موضوع وارد کنم، اما واریانس تخمینی آن در مقایسه با خطا و موضوع بسیار کم است.
چگونه با اندازه گیری های مکرر در شرایط مشابه آزمایش فاکتوریل برخورد کنیم؟
56805
> یک شهر خاص دارای دو شرکت تاکسیرانی است، شرکت تاکسی سبز (ماشین ها به رنگ سبز > سبز) و شرکت تاکسی آبی (ماشین های آبی رنگ). 10 درصد تاکسی ها سبز > و 90 درصد تاکسی ها آبی هستند. در یک غروب تاریک تصادفی رخ داد و شاهد ادعا کرد که یک تاکسی سبز درگیر بوده است. در آزمایشات بعدی، آنها دریافتند که در شرایط آن عصر، 80 درصد احتمال تشخیص صحیح رنگ کابین (بدون توجه به رنگ) و 20 درصد احتمال خطا در تشخیص رنگ وجود دارد. (فرض کنید هیچ یک از شرکت ها بیشتر از دیگری مستعد حادثه نیستند) > > a. قبل از شنیدن شهادت این شاهد، چه قدر احتمال دارد که شاهد ادعا کند که یک کابین آبی در آن شب تصادف کرده است؟ > > ب. اگر اکنون شهادت شاهدی را داشته باشیم که می گوید کابین > گرین بوده است، احتمال اینکه واقعاً گرین بوده چقدر است؟ من از درخت احتمال برای حل این سوال استفاده کردم اما ظاهراً در واقع مربوط به قضیه بیز بود. کاری که من (a) انجام دادم این بود که از درخت احتمال استفاده کردم و $P(Witness~claims~Blue) = (0.9)(0.8)+(0.1)(0.2)=0.74$ دریافت کردم. برای (ب)، $P(در واقع ~سبز) = (0.1)(0.8)+(0.1)(0.2)=0.10$. با این حال، پاسخ برای (b) $\frac{.08}{.26}$ بود و من قرار بود از قضیه بیز استفاده کنم. لطفاً کسی توضیح دهد که چرا باید از Bayes به جای مجموع احتمالات استفاده شود؟
با استفاده از قضیه بیز؟
90835
من برخی از داده های زیست محیطی دارم که در حال بررسی هستم (نمونه هایی از آب یک دریاچه). پس از توالی یابی نسل بعدی و مقداری محاسبات، تعدادی OTU (واحد طبقه بندی عملیاتی) دریافت می کنم که می گوید کدام باکتری در کدام نمونه محیطی قرار دارد (150 نمونه). ابتدا برای OTU هایی که به طور کلی فراوانی بالایی دارند و حداقل در پنج نمونه وجود دارند فیلتر کردم. سپس من ضرایب همبستگی اسپیرمن را بین تمام OTU ها محاسبه کردم. با ضرایب مثبت، من خوشه بندی مارکوف را انجام دادم که نتایج جالبی به من داد. اکنون سؤال این است که چگونه از همبستگی های منفی (در ترکیب با همبستگی های مثبت یا به تنهایی) استفاده کنیم. من می خواهم در این سوال تحقیق کنم که کدام باکتری اجتناب قوی دارد (از رقابت، طرد شدن توسط محیط، شکار یا هر چیز دیگری). چه روشی را پیشنهاد می کنید؟ روش‌های کلاسیک خوشه‌بندی همیشه از ایده شباهت یا فاصله استفاده می‌کنند، اما این در اینجا معنا ندارد. برای هر نمونه اطلاعات اضافی مانند دما، عمق، تاریخ، اکسیژن و بسیاری موارد دیگر دارم.
neg را بررسی کنید. روابط همبسته
19542
من سعی می کنم مقدار خام AIC را که در نتیجه تابع خلاصه می توانم ببینم، بدست بیاورم. x = forecast(ets(ts(داده، شروع=2000، فرکانس=12))، h=6) خلاصه (x) این مقدار AIC را به من نشان می دهد: AIC AICc BIC 7.995437 27.995437 7.779078 وقتی از AIC استفاده می کنم با این خطا مواجه می شوم > aic <- خطای AIC(x) در UseMethod(logLik): خیر روش قابل اجرا برای 'logLik' اعمال شده به یک شی از کلاس forecast آیا پیشنهادی دارید؟ با تشکر
چگونه می توانم مقدار AIC را از یک شی پیش بینی در R دریافت کنم؟
17391
چگونه می خواهید i.i.d را برای افراد غیر فنی توضیح دهید؟
i.i.d چیست؟ متغیرهای تصادفی؟
90831
من از GLMM و LMM برای یافتن فاکتورهای مهم برای داده هایم استفاده می کنم. و آیا می توانم بپرسم آیا نتایج حاصل از این دو مدل از قبل تضادهای برنامه ریزی شده ای را به من می دهد؟ یا باید آنها را جداگانه اجرا کنم؟
آیا GLMM یا LMM از قبل تضادهای برنامه ریزی شده را به ما می دهد؟
13630
من می خواهم با توجه به چگالی $$ f(a) \propto \frac{c^a d^{a-1}}{\Gamma(a)} ​​1_{(1,\infty)}(a) $$ نمونه برداری کنم که در آن $c$ و $d$ کاملا مثبت هستند. (انگیزه: زمانی که پارامتر شکل چگالی گاما دارای یک قبل یکنواخت است، این می تواند برای نمونه برداری گیبس مفید باشد.) آیا کسی می داند چگونه از این چگالی به راحتی نمونه برداری شود؟ شاید استاندارد است و فقط چیزی است که من در مورد آن نمی دانم؟ من می توانم به یک الگوریتم نمونه برداری احمقانه فکر کنم که کم و بیش کار می کند (حالت $a^*$ از $f$ را پیدا کنید، $(a,u)$ را از یونیفرم در یک جعبه بزرگ $[0,10a^* نمونه بگیرید. ]\ برابر [0,f(a^*)]$ و اگر $u>f(a)$ را رد کنید، اما (i) اصلا کارآمد نیست و (ii) $f(a^*)$ خواهد بود باشد بزرگ برای یک کامپیوتر که به راحتی با $c$ و $d$ حتی نسبتاً بزرگ کار می کند. (توجه داشته باشید که حالت برای $c$ و $d$ بزرگ تقریباً $a=cd$ است.) پیشاپیش از هرگونه کمکی متشکریم!
چگونه از $c^a d^{a-1} / \Gamma(a)$ نمونه برداری کنیم؟
2326
من به دنبال تنظیم آزمایشی در مورد یک سرگرمی خودم هستم، اساساً پارامترهای مختلف قبل و پس از را اندازه‌گیری می‌کنم و ببینم کدام یک، در صورت وجود، مطمئن‌ترین پیش‌بینی پارامتر نهایی را ارائه می‌دهد، یعنی آیا آنها یک پارامتر خطی دارند. رابطه، و غیره. هدف صرفه جویی در زمان و تلاش است که بعداً بر اساس پارامترهایی که تأثیر واقعی کمی بر نتایج نهایی دارند، مرتب‌سازی نمی‌شوند و اینکه آیا برخی از روش های طبقه بندی خسته کننده تر در واقع به اندازه فکر مفید هستند. این آزمایش بسط آزمایشی است که چند سال پیش برای مقاله آخرم در کلاس آمارم انجام دادم: بررسی رابطه بین وزن و حجم جعبه در مقابل سرعت دهانه برای جعبه های تفنگ مرکز آتش که در رقابت های هدف مدرن استفاده می شود (که در آن من هستم. نسبتا فعال). برای آن مقاله، من باید مقدار زیادی از زمان را صرف نشان دادن روش‌های مختلفی می‌کردم که واقعاً به چیزی که می‌خواستم بدانم مربوط نمی‌شدند، اما به هر حال باید پوشش می‌دادم تا «A» به دست بیاورم؛) برای این دور زدن.. من به دنبال برداشتن صد قطعه برنجی از یک جعبه، یک لات هستم. این قطعات «غیر مصرفی» هستند، زیرا می‌توانند چندین بار مورد استفاده مجدد و بارگیری مجدد قرار بگیرند. هر چیز دیگری - گلوله، پودر، پرایمر - به لوله شلیک می شود و قابل استفاده مجدد/اندازه گیری مجدد نیست. به طور خاص، کیس ها می توانند و تحت فشار شدید (50-70kpsi) به ابعاد داخلی محفظه آتش شکل می گیرند می شوند. در آزمایش اولیه‌ام، یک همبستگی قابل توجه، اما نه به ویژه قوی، بین وزن اولیه کیس و سرعت پوزه اولین شلیک پیدا کردم. از طرف دیگر، مورد _حجم_، که باید به شدت با MV مرتبط باشد... از نظر تئوری چنین نبود، زیرا موارد «بکر» لزوماً با ابعاد داخلی محفظه و مقدار معینی از انرژی تولید شده مطابقت ندارند. نه تنها در گرما، بلکه برای کوبیدن برنج به دیوار کیس در حین شلیک صرف می شود. بنابراین دوباره، من به دنبال برداشتن 100 قطعه برنج، وزن کردن مستقیم آنها از جعبه، اندازه گیری های مختلف (ضخامت دیواره داخل بدنه در نزدیکی کیس، ضخامت گردن کیس در نزدیکی دهان، وزن، حجم و غیره) در آنها هستم. حالت دست نخورده بکر، سپس انجام چندین مرحله آماده سازی معمولی کیس (ترمیم به طول، پخ کردن/برداشتن دهان، سوراخ کردن سوراخ فلاش، پرایمر یکنواخت جیب) و اندازه گیری ها را تکرار کنید. سپس گلوله ها را تا حد امکان به طور یکنواخت بارگیری و شلیک کنید - گلوله هایی که برای حداکثر قوام مرتب شده اند، پودر وزن شده بر روی یک مقیاس آزمایشگاهی تحلیلی با قابلیت میلی گرم و غیره در حالی که سرعت شلیک را کنترل می کنید تا افزایش دما در امتداد لوله تنظیم شود و سرعت پوزه اندازه گیری شود. از طریق یک کرونوگراف تقریبا برد 15 فوت پایین. سپس قصد دارم کاورهای داخل و خارج را به طور کامل تمیز کنم تا هر گونه باقیمانده کربن یا پودر را از بین ببرم و اندازه‌گیری‌ها را تکرار کنم و دوباره بارگیری و شلیک کنم و سپس برای آخرین بار تمیز و اندازه‌گیری کنم. بخشی از چیزی که می‌خواهم ببینم این است که چگونه توزیع برخی از اندازه‌گیری‌ها با آماده شدن کیس‌ها تغییر می‌کند، سپس دوباره زمانی که شلیک می‌شوند و به محفظه تبدیل می‌شوند. بعد از آن... می‌خواهم ببینم واقعاً چقدر تفاوت بین قاب‌های «باکره» و کیس‌های آتش‌فرم‌شده از نظر سرعت پوزه وجود دارد و در نهایت... از تمام مراحل اندازه‌گیری خسته‌کننده‌ای که در بالا ذکر شد، کدام یک واقعاً نشان می‌دهند. نشانه معقولی از MV ثابت، بنابراین من می توانم با موفقیت قطعات مشکوک برنج را در طول مرتب سازی اولیه جدا کنم، نه اینکه در هنگام استفاده از آنها روی هدف در مسابقه امتیاز از دست بدهم. تنها بزرگترین مشکل در ذهن من، حداقل در ظاهر، کرنوگراف است. دریافت هر چیزی که به اعداد معتبر نزدیک شود برای دقت یا درصد خطا از فروشندگان چیزی بین دشوار و غیرممکن است. با توجه به ماهیت دستگاه، آزمایش آن در سطح مصرف کننده بسیار دشوار است - هر دور از طریق آن ممکن است (یا ممکن است) کمی متفاوت باشد، بنابراین تعیین اینکه چقدر از تغییرات نمایش داده شده روی صفحه نمایش آن واقعا مهمات است و چگونه است. تغییرپذیری خود این ساز بسیار زیاد است... حداقل بگویم که من سرم را می خارم. در مورد اینکه چرا من قبلاً در مورد جزئیات آزمایش مبهم بودم... خوب، گاهی اوقات افراد به محض اینکه متوجه می شوند چیزی شامل اسلحه است، کمی عجیب می شوند و صرف نظر از اینکه چقدر منطقی باشد، آن را با یک تیر 10 فوتی لمس نمی کنند. باشد. ممنون، مونت
راه اندازی آزمایش برای تجزیه و تحلیل آماری
52387
**سوال** ماتریس انتقال زیر را در نظر بگیرید: P= 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 1/4 1/4 0 1/2 0 0 1 0 0 0 0 0 0 0 1/3 0 0 0 2/3 **a)** کدام حالات گذرا هستند؟ **ب)** کدام حالت ها عود کننده هستند؟ **ج)** همه مجموعه های بسته حالت ها را شناسایی کنید. **د)** آیا این زنجیره ارگودیک است؟ دوستان عزیز، من فکر می کنم حالت ها به شرح زیر است، {1،5} {0،2،4} تکراری چون با یکدیگر ارتباط برقرار می کنند {3} گذرا و از آنجایی که حالت 3 با سایر حالت ها ارتباط برقرار نمی کند، یک Ergodic Mc آیا درست می گویم؟ ممنونم..
طبقه بندی ایالت ها در زنجیره مارکوف
46325
من یک سری زمانی از نسبت ها دارم، $x_t = \frac{a_t}{b_t}$ یعنی $x_1 = 2 / 30، x_2 = 1/10$، ... می خواهم $x_t$ را صاف کنم. آیا باید تابع هموارسازی را مستقیماً روی $x_t$ اعمال کنم، یا باید $a_t$ و $b_t$ را به صورت جداگانه صاف کنم، سپس نسبت ها را دوباره محاسبه کنم؟ دل من به من می گوید که باید سری های زمانی فردی را صاف کنید و سپس دوباره محاسبه کنید. فرض کنید هر یک از سه سری زمانی نویز دارند (به همین دلیل است که ما علاقه مند به هموارسازی برای شروع هستیم)، پس شاید $a_t = f(t) + \epsilon_a$، $b_t = g(t) + \epsilon_b$. سپس نسبت‌های $x_t = \frac{f(t) + \epsilon_a}{g(t) + \epsilon_b}$، که می‌توان با گرفتن $\hat{x_t} = \frac{\hat{f(t) هموار شد )}}{\hat{g(t)}}$
هموارسازی یک سری زمانی از نسبت ها
65712
من برخی از شاخص‌های اعتبار خوشه‌بندی داخلی را در جاوا پیاده‌سازی کرده‌ام: 1. Simplified Silhouette. 2. Calinski-Harabasz (VRC). 3. دیویس -بولدین. 4. شاخص دان. چگونه می توانم بررسی کنم که اجرای من درست است؟ من شاخص ها را روی معیارهای Iris، Wine، Ionosphere، Heart، Sonar، Zoo و Glass آزمایش کرده ام. من از الگوریتم K-Means با تعداد خوشه های مختلف از 2 تا 8 استفاده کردم. در مجموعه داده‌های Zoo و Glass که تعداد واقعی خوشه‌ها 7 است، تنها یکی از شاخص‌ها در مورد k=7 بهترین امتیاز را کسب می‌کند. اگر ذکر این نکته مهم است: * نتایج K-Means (پیاده سازی Trickl-Cluster) با خروجی Weka (تست شده بر روی مجموعه داده عنبیه) یکسان است. * محاسبه مرکزها (میانگین خوشه ها) تقریباً با خروجی Weka یکسان است. * API مورد استفاده برای انجام محاسبات بر روی ماتریس ها Colt است (محاسبه هنجار، عملیات روی ماتریس ها، فاصله بین خوشه ها، مرکز...). چه اشکالی دارد؟
بررسی خروجی پیاده‌سازی شاخص‌های اعتبار خوشه‌بندی داخلی
63922
من در مورد تفاوت بین احتمال پوشش **اسمی** و **واقعی** سردرگم هستم. فرض کنید که ما در تلاش هستیم تا بخشی از جمعیت فعلی ایالات متحده را که به سرطان مبتلا شده اند، تخمین بزنیم. نمونه‌ای را دریافت می‌کنیم (مثلاً 10000 نفر) و سپس این کسری ($f$) و یک فاصله اطمینان در اطراف آن $[a,b]$ را با $\alpha$ (سطح اطمینان) $=0.95$ تخمین می‌زنیم. در این مرحله، اگر من چیزها را به درستی متوجه شده باشم، احتمال پوشش اسمی $\alpha$ است، یعنی $0.95$. اما در مورد احتمال پوشش **واقعی** چطور؟ برای من، فقط یک مقدار واقعی $f$ وجود دارد، به عنوان مثال. مثلاً $5\%$، و منطقی نیست که در مورد احتمال _واقعی_ که $f$ در بازه $[a,b]$ باشد صحبت کنیم. یا در محدوده $[a,b]$ است یا نیست. این استدلال چه اشکالی دارد؟ و چگونه می توان احتمال پوشش واقعی را در عمل به دست آورد؟
احتمال پوشش واقعی دقیقا چقدر است؟
82812
ما در حال آماده کردن یک رویداد برای مشتریان خود هستیم و باید اعدادی را که باید برای این رویداد آماده کنیم بشمارم (فکر می کنم سوال من مربوط به آمار است و یک تکلیف نیست). ورودی ها: * ما 26 حرف ASCII (کدهای ASCII 65-90) داریم که مشتریان از بین آنها انتخاب می کنند. وقتی کسی نامه ای را انتخاب می کند، آن را پس نمی دهد. * ما 500 کارت بازی داریم (= 500 مشتری می توانند رقابت کنند) با سه جعبه خالی برای حروف. * در یک قرعه کشی، مشتری در هر قرعه کشی یک حرف دریافت می کند * برنده کسی است که سه حرف خاص داشته باشد، به عنوان مثال. الف، ل، س. سوال: در صورت داشتن قیمت برای 100 برنده، چند نامه باید تهیه کنیم؟
استفاده از آمار برای رویداد مشتری
11773
در مقاله بیوانفورماتیک زیر، کمی سازی سازگاری محیطی مسیرهای متابولیک در متاژنومیکس، جیانولیس و همکاران. از دو ابزار برای تشخیص روابط چند متغیره بین ویژگی‌های محیطی و ویژگی‌های میکروبیومیک استفاده می‌کند: * تجزیه و تحلیل همبستگی متعارف منظم * تطبیق پارتیشن متمایز (DPM) این مقاله به چندین مقاله و کتاب آماری، از جمله کتابی از R. Wichern اشاره می‌کند، اما مشخص نیست که کدام یک از اینها مرجع DPM است. جستجوی Google برای تطبیق پارتیشن متمایز چندین مقاله کاربردی از جمله مقاله Gianolis را نشان می دهد، اما هیچ توضیح مستقیمی از روش وجود ندارد. از کجا می توانم اطلاعاتی در مورد تطبیق پارتیشن متمایز پیدا کنم؟
تطبیق پارتیشن متمایز چیست؟
63923
من از glmnet برای LASSO استفاده می کنم. مجموعه داده های من شامل چندین متغیر پیوسته و یک متغیر طبقه بندی شده است (چهار سطح دارد). من فکر کردم که آیا می توانم سه متغیر ساختگی را به عنوان متغیرهای پیوسته دیگر در نظر بگیرم. آیا باید از یک نوع رویکرد LASSO گروهی برای سه آدمک استفاده کنم؟ ببخشید اگر این سوال احمقانه است.
glmnet، متغیر دسته بندی، کمند گروهی؟
60299
واگرایی Kullback-Leibler یک متریک برای مقایسه دو تابع چگالی احتمال است، اما چه متریکی برای مقایسه X$ و Y$ دو GP استفاده می‌شود؟
چگونه دو فرآیند گاوسی را مقایسه می کنید؟
46327
آیا دلایل خوبی برای ترجیح دادن پنجره آموزشی مدل کشویی به پنجره رو به رشد در پیش بینی سری های زمانی آنلاین (یا برعکس) وجود دارد؟ من به ویژه به سری های زمانی مالی اشاره می کنم. به طور شهودی فکر می‌کنم یک پنجره کشویی باید عملکرد بدتری داشته باشد - خارج از نمونه - زیرا پتانسیل بیشتری برای تطبیق بیش از حد ویژگی‌های پنجره نمونه خاص دارد، اما برخی از نتایج تجربی که من دیده‌ام مخالف این هستند. همچنین، با توجه به اینکه یک پنجره کشویی توسط برخی ترجیح داده می شود، رویکرد شما برای تعیین طول نگاه به عقب (هیچ دلیل خوبی برای ترجیح یکی بر دیگری، جدای از اکتشافی خالص) چیست؟ اگرچه من مدلی را مشخص نکردم، یک مثال ممکن است ARIMA باشد. ویرایش: باید اضافه کنم که یک پست وبلاگ مرتبط توسط By وجود دارد. راب هیندمن، با چیزی که او آن را اعتبار متقاطع «سری های زمانی» نامید. در حالی که مفاهیم توصیف شده را پوشش می دهد، دلیل رسمی زیادی در مورد اینکه چرا ممکن است یک روش بر دیگری ترجیح داده شود، و همچنین هیچ ایده ای در مورد پارامتر بهینه پنجره نگاه به عقب ارائه نمی دهد.
سری‌های زمانی پنجره‌های بازبینی را پیش‌بینی می‌کنند - کشویی یا در حال رشد؟
13637
اگر $X = \\{ x_1,\cdots x_n\\}$ مجموعه‌ای از بردارهای ویژگی باشد، الگوریتم k-means سعی می‌کند تابع هدف $O = \sum_{i=1}^{k}\ را به حداقل برساند. sum_{x \in G_i}||x -\mu_i ||^2$ به منظور خوشه‌بندی بردارهای ویژگی $n$ در خوشه‌های $k$، یعنی $G_1 \cdots G_k$. در اینجا $\mu_i$ مرکز خوشه $G_i$ است. اکنون مجموعه بردارهای ویژگی را به عنوان یک ماتریس ویژگی $F_{m \times n}$ نشان می‌دهم، که $m$ بعد ویژگی و $n$ تعداد اشیا و مجموعه مرکزها به عنوان یک ماتریس Centroid $C_{ است. m \times k}$. چگونه می توانیم تابع هدف k-means بالا را بر حسب این نمادهای ماتریس (ماتریس مرکز ویژگی و خوشه) نشان دهیم؟
چگونه یک تابع هدف k-means را به شکل ماتریس استخراج کنیم؟
43664
من می‌خواهم از «lme4» برای جا دادن رگرسیون اثرات مختلط و «multcomp» برای محاسبه مقایسه‌های زوجی استفاده کنم. من یک مجموعه داده پیچیده با چندین پیش‌بینی‌کننده پیوسته و طبقه‌بندی دارم، اما سؤال من را می‌توان با استفاده از مجموعه داده داخلی «ChickWeight» به عنوان مثال نشان داد: m <- lmer(وزن ~ زمان * رژیم غذایی + (1 | جوجه)، داده=وزن جوجه، REML=F) زمان پیوسته و رژیم غذایی طبقه بندی شده است (4 سطح) و در هر جیره جوجه های متعددی وجود دارد. همه جوجه ها تقریباً با وزن یکسان شروع به کار کردند، اما رژیم غذایی آنها (ممکن است) بر سرعت رشد آنها تأثیر بگذارد، بنابراین وقفه های «رژیم غذایی» باید (کم و بیش) یکسان باشد، اما شیب ها ممکن است متفاوت باشد. من می‌توانم مقایسه‌های زوجی برای اثر رهگیری «رژیم غذایی» را به این صورت دریافت کنم: خلاصه (glht(m, linfct=mcp(رژیم غذایی = Tukey))) و در واقع تفاوت قابل توجهی ندارند، اما چگونه می توانم انجام دهم آزمایش مشابه برای اثر «زمان: رژیم غذایی»؟ فقط قرار دادن عبارت تعامل در mcp یک خطا ایجاد می کند: summary(glht(m, linfct=mcp('Time:Diet' = Tukey))) خطا در summary(glht(m, linfct = mcp('Time: Diet` = Tukey))): خطا در ارزیابی آرگومان 'object' در انتخاب روش برای تابع 'summary': خطا در mcp2matrix (model, linfct = linfct) : متغیر(های) 'Time: Diet' در 'linfct' مشخص شده است اما در 'model' یافت نمی شود!
مقایسه‌های چندگانه مدل مختلط برای تعامل بین پیش‌بینی‌کننده پیوسته و طبقه‌ای
65719
من یک GEE را روی 'SPSS' و همچنین 'Stata' روی داده های انتخابی با ساختار زیر اجرا می کنم: هر آزمودنی 32 کارآزمایی را در 4 بلوک، 8 آزمایش در هر بلوک انجام داد، که از بین دو گزینه انتخاب کرد. چهار بلوک نشان دهنده دو عامل درون موضوعی هستند که با یکدیگر تلاقی دارند. آزمودنی ها به یکی از سه شرط بین موضوعی اختصاص داده می شوند. بنابراین، من یک طرح ترکیبی 3*2*2 دارم. DV تعداد دفعاتی است که گزینه 1 از بین 8 آزمایش انتخاب شده است. من از یک GEE با پیوند لاجیت دو جمله ای و میانگین حاشیه ای برای درصد انتخاب بر اساس شرایط استفاده کردم. همه چیز خوب است، اما من با یک سوال کوچک مواجه هستم که پاسخی برای آن ندارم و امیدوارم کسی بتواند کمک کند. **من باید این فرضیه را آزمایش کنم که سهم انتخاب گزینه 1 در یک شرایط خاص با شانس متفاوت است (50%).** مقایسه های زوجی فقط به من اجازه می دهد تفاوت بین شرایط و نه بین یک شرط و یک را آزمایش کنم. مقدار تعریف شده توسط کاربر کسی میتونه کمک کنه؟
کنتراست تعریف شده توسط کاربر در معادلات برآورد تعمیم یافته
52651
من یک تازه کار در آمار ریاضی هستم و قبلاً هیچ نظریه گروهی را یاد نگرفته ام. یادداشت های سخنرانی من خیلی مختصر است. چگونه زیر مجموعه های Borel در $\mathbb R$ می توانند A.2 و A.3 یک $\sigma$-جبر را برآورده کنند؟ A.2 تحت مکمل بسته می شود. A.3 تحت اتحادیه های قابل شمارش است.
چرا زیر مجموعه های Borel در $\mathbb R$ یک $\sigma$-جبر هستند؟
96782
در کشف آمار با استفاده از SPSS 4e، اندی فیلد در p835 می نویسد: > SPSS دو روش را برای تخمین پارامترها در آنالیز به شما می دهد: حداکثر احتمال (ML)، که قبلاً با آن مواجه شده ایم، و > حداکثر احتمال محدود شده ( REML). به نظر می رسد عقل مرسوم این است که > ML تخمین های دقیق تری از پارامترهای رگرسیون ثابت تولید می کند، > در حالی که REML تخمین های دقیق تری از واریانس های تصادفی تولید می کند (Twisk، > 2006). به این ترتیب، انتخاب روش تخمین بستگی به این دارد که آیا فرضیه‌های شما بر پارامترهای رگرسیون ثابت متمرکز شده‌اند یا بر برآورد واریانس‌های اثرات تصادفی. با این حال، در بسیاری از موقعیت‌ها، انتخاب > ML یا REML تنها تفاوت کوچکی در برآورد پارامتر ایجاد می‌کند. همچنین، اگر می خواهید مدل ها را با هم مقایسه کنید، باید از ML استفاده کنید. من بیشتر به جمله آخر علاقه دارم. چرا برای مقایسه مدل ها باید از ML استفاده کنید نه REML؟
چرا استفاده از تخمین ML به جای REML برای مقایسه مدل های خطی چندسطحی ضروری است؟
100884
من نگران روش تعدیل فصلی هستم و می‌خواهم معیارهای این منظور را بدانم می‌تواند لطفاً به سؤال زیر پاسخ من را بدهد. چه معیارهایی برای تعدیل فصلی باید انجام داد یا نکرد؟
سری زمانی --- تنظیم فصلی
63927
من در تلاش هستم تا یک رگرسیون لجستیک ساده را برای یک مقدار وابسته (گروه) با یک متغیر کیفی مستقل (dilat) که دو بار به طور مستقل اندازه‌گیری می‌کند (مرتب‌دهنده) تنظیم کنم. من راه حل های زیادی را امتحان می کنم و با توجه به http://www.ats.ucla.edu/stat/mult_pkg/whatstat/ فکر می کنم که راه حل یک رگرسیون لجستیک با اثرات مختلط است. glmer_dilat<-glmer(گروه ~ dilat + (1 | رتبه‌دهنده)، داده = سابق، خانواده = دو جمله‌ای) خلاصه (glmer_dilat) مدل ترکیبی خطی تعمیم‌یافته متناسب با تقریب لاپلاس فرمول: گروه ~ dilat + (1 | رتبه‌دهنده) داده: سابق AIC BIC logLik انحراف 105.5 112.5 -49.74 99.48 اثرات تصادفی: نام گروه ها Variance Std.Dev. رتبه‌بندی (Intercept) 0 0 تعداد obs: 76، گروه‌ها: رتبه‌دهنده، 2 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.8473 0.4880 1.736 0.0825. dilat -1.2827 0.5594 -2.293 0.0219 * اما نتیجه بدون ! خلاصه (glm(گروه ~ دیلات، داده = سابق، خانواده = دوجمله ای)) glm(فرمول = گروه ~ دیلات، خانواده = دو جمله ای، داده = سابق) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.552 -0.999 -0.999 1.367 ضریب 1.367 : Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.8473 0.4879 1.736 0.0825. dilat -1.2826 0.5594 -2.293 0.0219 * راه حل چیست؟ لطفاً مجموعه داده‌های من را پس از اعمال دستور dput در اینجا پیدا کنید. ساختار(list(ID = ساختار(c(38L, 11L, 6L, 28L, 3L, 30L, 39L, 4L, 8L, 12L, 32L, 29L, 34L, 35L, 33L, 16L, 27L, 5L, 106L 9 لیتر، 14 لیتر، 1 لیتر، 13 لیتر، 31 لیتر، 2 لیتر، 17 لیتر، 7 لیتر، 19 لیتر، 20 لیتر، 18 لیتر، 21 لیتر، 23 لیتر، 15 لیتر، 24 لیتر، 25 لیتر، 37 لیتر، 26 لیتر، 38 لیتر، 11 لیتر، 6 لیتر، 28 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 12 لیتر، 32 لیتر، 29 لیتر، 34 لیتر، 35 لیتر، 33 لیتر، 16 لیتر، 27 لیتر، 5 لیتر، 36 لیتر، 10 لیتر، 9 لیتر، 14 لیتر، 1 لیتر، 13 لیتر، 31 لیتر، 2 لیتر، 17 لیتر، 7 لیتر، 19 لیتر، 2 لیتر، 1، 2 23L، 15L، 24L، 37L، 26L)، .Label = c(1038835، 2025267، 2053954، 3031612, 40004760، 40014515، 40014515، 40044، 400414053 ، 40105328، 4016213، 40187296، 40203950، 40260642, 40269263، 40300349، 40308059, 40327146، 40327146, 4033950، 4033365، 40269263 «40435267»، «40440293»، «40443920»، «40485124»، «40609779»، «40628741»، «40662695»، «5025220»، «E9701737»، «M/397SC»، «M/397SC»، «3773» QSC43884، QSC62220، QSC75555، QSC92652، QSD01289، QSD02237، U/FY0296)، کلاس = عامل)، گروه = c(1L، 1L، 1L، 1L، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L)، رتبه دهنده = c(1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L. ، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر)، دیلات = c(1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0L, 0L, 1L, 1L, 1L, 0L, 1L, 1L, 1L, 1L, 0L, 1L, 1L, 1L, 0L, 1L, 1L, Midbrain_atroph = c(1L, 1L, 1L, 0L, 1L 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0L، 1L، 0L، 1L، 0L، 0L، 1L، 0L، 1L، 1L، 1L. 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L)، quadrigemi_atroph = c(1L، 0L، 1L، 0L، 1L، 1L، 0L، 0L، 0L، 0L، 1L، 1L، 0L، 0. 0 لیتر، 0 لیتر، 0 لیتر، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 1L، 1L، 0L، 0L، 0L، 1L، 0L، 0L، 0L، 0L، 0L، 1L، 0L، 1L، 0L. 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر)، hum_sig = c(1L, 1L, 1L, 0L, 1L, 1L, 0L, 1L, 0L, 1L, 1L, 1L, 0L, 1L, 0L, 0L, 0L, 1L, 0L, 0L, 0L, 0L, 0L 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 1L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, flower_sig = c(0L, 1L, 1L) ، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0L، 1L، 0L، 1L، 0L، 1L، 1L، 0L، 0L، 1L، 0L، 0L، 0L، 1L، 1L. 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0L، 0L، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L)، fp_atroph = c(0L، 0L، 1L، 0L، 1L، 0L، 1L، 1L، 1L، 1L، 1L، 0L.. ، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1L، 0L، 0L، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 1L، 1L، 0L، 0L، 0L، 1L، 0L، 0L، 0L. 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0L، 1L، 0L، 0L، 1L، 1L، 0L، 1L، 0L، 1L، 0L، 0L، 0L، 1L، 0L، 0L، 0L، 1L، 1L. 0 لیتر، 0 لیتر
نحوه برازش رگرسیون لجستیک برای 1 متغیر وابسته و 1 متغیر کیفی دو بار اندازه گیری شده
2323
من فکر می کنم که الگوریتم های قیمت گذاری پویا (که در صنعت حمل و نقل هوایی و بلیط فروشی استفاده می شود) بسیار مبتنی بر آمار هستند، کسی در اینجا تجربه ای با آن الگوریتم ها با ارجاع به آن دارد؟
مراجع خوبی برای قیمت گذاری پویا چیست؟
63920
من با داده های مکانی سر و کار دارم که در آن متغیر پاسخ غلظت گاز است. علاوه بر این، من مقادیر مختصات x،y و متغیرهای کمکی دیگر را دارم. من فکر می کنم یک مدل میدان تصادفی گاوسی را به صورت زیر برازش کنم: $$ Z(s) = X(s) \beta + \epsilon(s) $$ که $ [Z(s): s \in R^2] $، $X(s)$ مجموعه‌ای از متغیرهای کمکی p است که با هر سایت s مرتبط است، $\beta$ یک بردار p-بعدی از ضرایب است. من قبلاً تابع کوواریانس را برای عبارت خطا تخمین زده بودم، اما اکنون در مورد نحوه ادامه مشکل دارم. من از R استفاده می کنم، اما متاسفانه تا کنون به هیچ بسته ای برخورد نکرده ام که بتوانم متغیرهای کمکی را در مدل قرار دهم. من هنوز در حال یادگیری آمار فضایی هستم، بنابراین اگر اشاره ای دارید، واقعاً از آن سپاسگزار خواهم بود.
فیلد تصادفی گاوسی را برای داده های مکانی مناسب کنید
97437
من در حال مطالعه عوامل موثر بر حقوق سالانه کارکنان در یک بانک نامعلوم هستم. مدل رگرسیونی که من تصمیم گرفتم از آن استفاده کنم به شرح زیر است: \begin{equation} Y_{k}=\beta_{1}+\beta_{2}E_{k}+\beta_{3}D_{gk}+\ beta_{4}D_{mk}+\beta_{5}D_{2k}+\beta_{6}D_{3k}+\varepsilon_{k} \end{equation} که در آن $Y_{k}$ لگاریتم حقوق سالانه است، $E$ تعداد سال های تحصیل، $D_{g}$ یک ساختگی جنسیت، $D_{m}$ یک ساختگی اقلیت است، و جایی که \ ابتدا{معادله} D_{2}=\begin{موردها} 1 &\text{وظیفه حضانت} \\\ 0 & \text{در غیر این صورت} \end{موارد} \end{equation} and \begin{equation} D_{3}=\begin{cases} 1 &\text{Management job} \\\ 0 & \text{Otherwise} \end{cases} \end{equation} می دانید، هرگاه کسی با GLS سر و کار داشته باشد، $\Omega$ تقریباً ناشناخته خواهد بود و بنابراین باید تخمین زده شود. به طور کلی پارامترهای $\frac{n(n+1)}{2}$ وجود دارد که باید تخمین زده شوند، که دستیابی به یک تخمین قابل قبول از $n$ مشاهدات را غیرممکن می‌کند. این معمولاً با تحمیل ساختاری روی $\Omega$ خنثی می شود. در مورد من، می‌خواهم این فرض را بکنم که عبارت‌های اختلال $\varepsilon_{k}$ در مدل رگرسیون فوق دارای واریانس $\sigma_{i}^{2}$ برای $i=1,2,3$ هستند. ، با توجه به اینکه آیا کارمند $i$-th شغلی به ترتیب در دسته 1،2 یا 3 دارد. اکنون، ممکن است تبدیل‌های $\gamma_{1}=\log (\sigma_{1}^{2})،\gamma_{2}=\log(\sigma_{2}^{2}/\sigma_{ را معرفی کنیم. 1}^{2})$ و $\gamma_{3}=\log(\sigma_{3}^{2}/\sigma_{1}^{2})$ تا ما را قادر سازد مدل زیر را برای \begin{equation} \sigma_{k}^{2}= \exp \\{ \gamma_{1}+\gamma_{2}D_{2k}+\gamma_{3} فرموله کنیم D_{3k} \\} \end{equation} از آنجایی که $\hat{\beta}_\rm{OLS}$ تخمین ثابتی از $\beta$ است، حتی در زیر با فرض ناهمگونی، ما داریم که $\hat{\beta}_{\rm OLS} \xrightarrow[]{p}\beta$ با افزایش تعداد مشاهدات. بنابراین ممکن است استدلال کنیم که $e_{k}^{2} \approx \sigma_{k}^{2}$، و بنابراین می‌توانیم بر اساس اطلاعاتی که قبلاً در اختیار داریم پسرفت کنیم. **خلاصه رویه** **(1)** برآورد OLS را محاسبه کنید. **(2)** محاسبه باقیمانده OLS $\textbf{e}=\textbf{Y}-\textbf{X}\hat{\beta}$ **(3)** برآورد OLS $\ را محاسبه کنید gamma$ از $e_{k}^{2}=f_{\gamma}(Z_{k})+\overline{\varepsilon}_{k}$. **(4)** برآورد FGLS را به عنوان تخمین GLS با $\hat{\Omega}=\Omega(\hat{\gamma})$ به جای $\Omega$ محاسبه کنید. > آنچه من می خواهم بدانم این است که آیا می توان این تخمین را > با استفاده از یک تابع شناخته شده در R، مثلا 'gls' انجام داد یا خیر؟ اگر پاسخ مثبت است، چگونه > دقیقاً باید بنویسم تا اطمینان حاصل کنم که فرض ناهمسانی من > در نظر گرفته شده است؟ ممنون از اینکه وقت گذاشتید روز خوبی داشته باشید!
حداقل مربع تعمیم یافته امکان پذیر در R
17028
من سعی می کنم بفهمم که چگونه با استفاده از انحراف معیار و میانگین، شما می توانید چارک های اول و سوم را در یک توزیع نرمال تعیین کنید. من دریافتم که مساحت زیر منحنی برابر با یک است. من می‌دانم که Q1 25% و Q3 75% را تشکیل می‌دهد. اما نمی‌دانم که چگونه می‌توان از این اطلاعات برای محاسبه (با TI-89 خود) استفاده کرد که Q1 و Q3 کجا هستند... من توانستم این مقادیر را با نگاه کردن به جدول z-score برای مناطقی که 25% و 75 را نشان می‌دهند به طور منطقی تخمین بزنم. ٪، و من امتیاز z 0.68 ± را گرفتم. با این حال، من به دقت بیشتری نسبت به تخمین دستی از روی جدول نیاز دارم، اما نمی‌دانم چگونه به صورت فرمول یا از طریق TI-89 به این موضوع برسم.
چگونه می توان چارک ها را تنها با انحراف معیار و میانگین با فرض توزیع نرمال محاسبه کرد؟
100881
من در حال مقایسه رابطه بین فاصله ژنتیکی و جغرافیایی افراد در جمعیت حیوانات وحشی هستم. فرضیه این است که افراد با وابستگی ژنتیکی بالاتر، محدوده‌های خانه را نزدیک‌تر به یکدیگر (فاصله جغرافیایی کوتاه‌تر بین آنها) نسبت به افرادی که نسبت کمتری دارند (یعنی فاصله جغرافیایی و خویشاوندی همبستگی معکوس دارند) ایجاد می‌کنند. از آنجایی که این حیوانات دارای محدوده‌هایی هستند که همپوشانی دارند و چندین بار در طول مطالعه نمونه‌برداری شدند، من در ابتدا یک نقطه مرکزی را برای محدوده خانه هر فرد محاسبه کردم و از آن به عنوان موقعیت جغرافیایی فرد استفاده کردم. سپس یک آزمون Mantel (و اصلاح آزمون Mantel به نام تست Tau Kr) را اجرا کردم و ضریب همبستگی خود را با نتایج 1000 جایگشت داده ها مقایسه کردم. نتیجه قابل توجهی به دست آوردم (05/0P<). با این حال، من می‌خواستم ببینم تجزیه و تحلیل چقدر نسبت به جایی که از فرد نمونه می‌گیرید حساس است. بنابراین، آزمایش‌های Mantel خود را مجدداً اجرا کردم، اما از هر ترکیب ممکنی از مکان‌های نمونه‌برداری برای هر فرد (به جای گرفتن نقطه مرکزی) استفاده کردم. من اکنون توزیعی از p-values ​​و آمار آزمون را برای همه این تست ها دارم و در 14٪ موارد تست ها برای تست Mantel و در 52٪ موارد با استفاده از تست Tau Kr معنی دار بودند (05/0P<). آیا راهی برای ارزیابی درستی فرضیه اولیه با این نتایج وجود دارد؟ به طور شهودی به نظر من، اگر بین فاصله جغرافیایی و ژنتیکی رابطه وجود نداشت، حتی 14 درصد آزمایش ها نباید معنی دار باشند. اما من واقعاً مطمئن نیستم که این توزیع مقادیر p را با چه چیزی مقایسه کنم - مدل تهی چگونه به نظر می رسد؟ به نظر می‌رسد که من یک الگوی واقعی را تشخیص می‌دهم، حتی اگر به شدت به محل نمونه‌گیری وابسته است، اما نمی‌توانم بفهمم که چگونه این مجموعه داده را اکنون تجزیه و تحلیل کنم تا مشخص شود سیگنال قابل توجه است یا خیر. با تشکر فراوان برای کمک شما!
مقایسه مقادیر p از آزمایش‌های جایگشت چندگانه (Mantel) بر روی تغییرات یک مجموعه داده
63929
من سعی می‌کنم یک مدل رگرسیون برای پیش‌بینی گزارش‌های ذهنی حافظه بر اساس پیش‌بینی‌کننده‌های زیر بسازم: آزمون حافظه عینی، ادراک بیماری، روانی کلامی، و خلق و خو. همچنین می‌خواهم سن، سال‌های تحصیل و IQ را با قرار دادن آنها در مدل رگرسیون نیز کنترل کنم. با این حال، یک مشکل وجود دارد. آزمون حافظه هدف (آزمون حافظه رفتاری ریورمید) هم نمرات خام و هم نمرات نمایه را برای خرده مقیاس های مختلف به شما می دهد. برخی، اما نه همه، نمرات پروفایل بر اساس IQ و سن تبدیل می شوند. همچنین، تخمین IQ (آزمون عملکرد پیش مرضی) نمرات خام را به تخمین ضریب هوشی تبدیل می کند، یا فقط با نمره خام، یا با نمره خام و متغیرهای جمعیت شناختی سن، جنسیت و سال تحصیلات. تخمین ضریب هوشی که شامل اطلاعات جمعیت شناختی می شود بسیار دقیق تر از تخمین است. اگر از نمرات نمایه (با مشخصات جمعیتی) استفاده کنم، آیا دو بار آنها را کنترل نمی کنم؟ آیا باید از نمرات خام یا نمرات پروفایل استفاده کنم؟ و چه چیزی و چگونه باید اینها را وارد مدل رگرسیون کنم؟ با عرض پوزش اگر موارد بالا منطقی نیست. من مطمئن نیستم که خودم آن را درک کنم. من واقعاً در حال تقلا هستم تا سرم را در این مورد برگردانم! با تشکر
آیا باید از نمرات خام یا نمرات نمایه برای متغیرها در مدل رگرسیون استفاده کنم؟
60746
من در حال تجزیه و تحلیل داده های معیار برای برخی از توابع R خود هستم، و سعی می کنم آماری را محاسبه کنم که نشان می دهد تابع من - group_one - چند برابر سریعتر از یک تابع کنترل - group_two - به عنوان ضریب (group_one $\alpha$ است) است. بار سریعتر از group_two). فرض بر این است که داده ها به طور معمول توزیع شده اند و طول آن برابر است. واریانس بین گروه ها متفاوت است. test_data <- list( group_one = c(9387298, 9447571, 10343495, 10232936, 10296492, 10273234, 16732716, 10527317, 10527317, 10527317, 743495 = گروه c(23721104، 39465146، 31087543، 39851996، 38027882، 44277978، 32448261، 39950612، 47677503، 3888 بار کوچکتر از گروه من است. دوم ضریب <- mean(test_data$group_one) / mean(test_data$group_two) واریانس داده های محک معمولاً حدود 15% از میانگین است، بنابراین من سعی می کنم فاصله اطمینان 95% را پیدا کنم که در آن ضریب ضریب افزایش می یابد؟ دروغ می گوید (چیزی به شکل گروه_یک 10 تا 12 برابر سریعتر از گروه_دو است) کسی می داند یک تابع R (ترجیحاً در کتابخانه پایه) که می تواند برای محاسبه این بازه استفاده شود: من t.test را امتحان کردم، اما مستقیماً فاصله اطمینانی را نشان نمی دهد که میانگین جمعیت در آن قرار دارد، و من نمی دانم؟ بدانید که چگونه بر اساس آزمون t استنباط کنید: من داده‌های واقعی‌تر را در بالا اضافه کردم. من می توانم ببینم که نسبت دو توزیع ممکن است بسیار حساس باشد تا به طور مفید اندازه گیری کند که group_one چقدر سریعتر از group_two است. اگر یک آمار جایگزین مفیدتر باشد، من آماده پیشنهادات هستم.
یافتن اختلاف میانگین دو مجموعه داده در R، در یک بازه اطمینان
60745
من دو الگوریتم مختلف ضربه کش را با استفاده از چهار مجموعه آموزشی و آزمایشی مختلف مقایسه می کنم. مجموعه‌های آموزشی مرتبط هستند: 1 زیر مجموعه‌ای از 2 است، زیر مجموعه‌ای از 3 زیرمجموعه‌ای از 4 است. در مجموعه‌های تست نیز همین‌طور است. نتیجه دو ماتریس مختلف با نسبت ضربه حافظه پنهان بین 0 و 1 است که مقادیر بالاتر بهتر است: الگوریتم A مجموعه تست 1: مجموعه تست 2: مجموعه تست 3: مجموعه تست 4: مجموعه آموزشی 1: 0..1 0.. مجموعه آموزشی 1 0..1 0..1 2: 0..1 0..1 0..1 0..1 ست آموزشی 3: 0..1 0..1 0..1 0..1 مجموعه آموزشی 4: 0..1 0..1 0..1 0..1 الگوریتم B: مجموعه تست 1: مجموعه تست 2: مجموعه تست 3: مجموعه تست 4 : مجموعه آموزشی 1: 0..1 0..1 0..1 0..1 مجموعه آموزشی 2: 0..1 0..1 0..1 0..1 مجموعه آموزشی 3: 0..1 0..1 0..1 0..1 مجموعه آموزشی 4: 0..1 0..1 0..1 0..1 اکنون می خواهم بهترین الگوریتم را تعیین کنم. چگونه می توان این کار را انجام داد؟ من درک محدودی از مفاهیم آماری دارم. من توزیع داده ها را نمی دانم. من در مورد استفاده از آزمون t نمونه وابسته برای هر جفت سلول در A و B فکر کردم، به طوری که B به عنوان درمان دیده می شود و سپس تصمیم می گیریم که آیا درمان مفید بوده است یا خیر. H0: تفاوت معنی داری بین الگوریتم ها وجود ندارد H1: تفاوت معنی داری بین الگوریتم ها وجود دارد آیا این روش حتی از راه دور معتبر است؟ هر گونه کمک بسیار قدردانی!
مقایسه آماری دو الگوریتم ضربه کش مختلف
60298
از ویکی پدیا > مقدار زیادی از منابع محاسباتی برای محاسبه **دقیق > احتمالات** برای آزمون کروسکال-والیس مورد نیاز است. نرم افزار موجود فقط > **احتمالات دقیق** را برای حجم نمونه کمتر از حدود 30 شرکت کننده ارائه می دهد. > این برنامه‌های نرم‌افزاری برای اندازه‌های نمونه بزرگ‌تر بر **تقریب مجانبی** تکیه می‌کنند. **مقادیر احتمال دقیق** برای نمونه های بزرگتر در دسترس هستند. اسپوریر (2003) جداول احتمال دقیق را برای نمونه هایی به بزرگی 45 شرکت کننده منتشر کرد. مایر و سیمن (2006) احتمال دقیق > توزیع را برای نمونه هایی به بزرگی 105 شرکت کننده تولید کردند. ارزش بحرانی > جداول و احتمالات دقیق از Meyer و Seaman برای دانلود در http://faculty.virginia.edu/kruskal-wallis/ موجود است. مقاله ای که کار آنها را توصیف می کند نیز ممکن است در آنجا یافت شود. من فکر می کنم احتمالات دقیق، احتمالات دقیق هستند، اما چرا می گوید: نرم افزار موجود فقط **احتمالات دقیق** را برای حجم نمونه کمتر از حدود 30 شرکت کننده ارائه می دهد. این برنامه های نرم افزاری برای اندازه های نمونه بزرگتر بر **تقریب مجانبی** تکیه می کنند. ؟ آیا اشتباه است؟ با تشکر و احترام!
احتمال دقیق و تقریب مجانبی
60747
هدف من یافتن بهترین C برای یک طبقه بندی SVM خطی با استفاده از libsvm است، من در مجموع 120 نمونه و 2 کلاس دارم که می خواهم آنها را طبقه بندی کنم. من در مورد پارتیشن بندی یک مجموعه داده به این قسمت ها سوال دارم: 1) آموزش بهینه سازی در طول جستجوی پارامتر C 2) آموزش ساخت مدل 3) آزمایش (نماینده داده های ورودی آینده) با استفاده از اعتبارسنجی متقابل و جستجوی شبکه ای، می خواهم C بهینه را برای مجموعه داده من پیدا کنید. به نظر می رسد پیشنهادهای مختلفی در مورد نحوه پارتیشن بندی داده ها به این سه قسمت وجود دارد که می توانم ابتدا داده های خود را به آموزش (50٪) و آزمایش (50٪) تقسیم کنم. از آموزش، من از نیمی (25٪ از کل داده ها) برای اعتبارسنجی متقابل برای بهینه سازی C استفاده می کنم. وقتی بهترین C را پیدا کردم، از نصف دیگر داده های آموزشی (25٪ از کل داده ها) برای ساخت استفاده می کنم. مدل از بهترین C استفاده می‌کند. سپس مدل را در برابر داده‌های آزمایشی 50% اعتبار می‌دهم، دقت حاصل، دقت نهایی است. به این ترتیب، نه داده‌هایی که برای ساخت مدل وارد شده‌اند و نه داده‌های آزمایش هرگز در طول بهینه‌سازی استفاده نشده‌اند. از 50% برای آموزش و 50% برای تست استفاده کنید. کل 50% برای آموزش برای اعتبارسنجی متقاطع برای بهینه سازی پارامتر C استفاده می شود. هنگامی که بهترین C را پیدا کردم، برای بدست آوردن مدل بر روی 50% کامل داده های آموزشی آموزش می بینم و آن را روی داده های تست اعتبار می دهم. من فکر می‌کنم مزیت 1. این است که هیچ یک از داده‌های ساخت و آزمایش مدل در فرآیند بهینه‌سازی نبودند، از این رو مشکل اضافه برازش کمتری وجود دارد. هر چند من حساب های مختلف را آنلاین خواندم، بنابراین هر ورودی بسیار قدردانی می شود. آیا این روش به میزان داده موجود بستگی دارد؟ در مورد من، من نمونه های زیادی ندارم، بنابراین مطمئن نیستم که آیا روش 1 توصیه می شود. ارجاع به سایر منابع/کتاب های درسی مرتبط نیز بسیار قدردانی می شود.
داده های بهینه سازی خطی SVM C، نحوه پارتیشن بندی به قطار، ساخت مدل، تست
52653
من فقط به توضیح ساده ای نیاز دارم که دقیقاً رگرسیون پشته چیست تا بتوانم درک شهودی مناسبی از آن داشته باشم. من می‌دانم که این در مورد اعمال نوعی جریمه برای ضرایب رگرسیون است... اما فراتر از آن، من در مورد تفاوت آن با سایر انواع رگرسیون که جریمه‌ها را اجرا می‌کنند، کمی سردرگم هستم. در چه موردی باید از رگرسیون ریج بر خلاف انواع دیگر رگرسیون استفاده کرد؟
رگرسیون پشته چیست؟
63924
من داده هایی دارم که غیر عادی و (به شدت) منحرف شده اند. داده ها همچنین دارای کشش و نقاط پرت بالایی هستند. به نظر می رسد گزینه های مختلفی برای تغییر شکل وجود دارد، اما من نمی توانم منبعی را پیدا کنم که به من کمک کند بهترین گزینه را تعیین کنم (یا اینکه چرا یکی را بر دیگری انتخاب کنم). در این مورد، آیا باید 1. منعکس کنم و تبدیل کنم 2. یک تبدیل نمایی انجام دهم 3. به Box-Cox نگاه کنم؟ و چگونه می توانم بدانم کدام یک برای داده های من انتخاب مناسبی است؟
انعکاس و تغییر شکل داده های منفی
90787
در تلاش برای درک بحث از یک فرآیند اعتبار سنجی متقاطع 5 برابری برای اعتبارسنجی یک مدل پیش‌بینی‌کننده و نتایج آن، عبارت خاصی وجود دارد که من را متحیر کرده است، به‌عنوان مثال: > پیش‌بینی‌های الگوریتم به طور قابل‌توجهی با موارد چپ و خارج غنی شده است. داده های تست **به نظر من یعنی چی**. در تلاش برای درک این موضوع، روشی که برای تفسیر این جمله برای من طبیعی‌تر به نظر می‌رسد این است: «وقتی داده‌های آزمایشی را اضافه می‌کنیم، مدل بهتر است» که کاملاً واضح به نظر می‌رسد. برای من، این به این معنی است که مدل به آن داده نیاز دارد - و اعتبارسنجی ناموفق_. ** آنچه به نظر من می رسد باید به آن معنی باشد **. با این حال، در زمینه اعتبارسنجی، من انتظار چیزی شبیه به این را دارم: درجه بالایی از شباهت بین آنچه مدل ما بدون داده های سمت چپ پیش بینی کرد و داده های سمت چپ گفته شده وجود دارد. برای من، این نشان می‌دهد که مدل در پیش‌بینی خوب است. من معتقدم که مفهوم غنی سازی را درک نمی کنم. پس از نگاه کردن به آن، معنی به طور کلی «بهبود» است. اگر اینطور است، و بنابراین اولین تفسیر من درست است، چرا این برای اعتبارسنجی مهم است؟ «غنی سازی» در این زمینه به چه معناست؟ با تشکر
منظور از اصطلاح غنی سازی هنگام انجام اعتبارسنجی متقابل چیست؟
52650
روی کاغذی که می خوانم کمی گیج شده ام. آنها جدولی از ضرایب پیرسون محاسبه شده دارند که در اینجا نشان داده شده است: $$ \begin{array} . & I & II & III\\\ A + B & 0.8 & 0.65 & 0.90\\\ A + C & 0.73 & 0.46 & 0.83\\\ B + C & 0.61 & 0.76 & 0.68\\\ \end{آرایه} $$ آنها ادعا می کنند که ضعیف ترین همبستگی ثبت شده بین $B+C، \،\، I$ و $B+C، \،\، III$. $A,B,C$ روش های مختلف تصویربرداری هستند. آیا آنها بیان می کنند که این دو نزدیکترین مقدار در یک مقایسه هستند (یعنی $B+C$)؟ من گیج شدم زیرا آنها در حال حاضر همبستگی های همبستگی دارند! من فکر می کردم ضعیف ترین همبستگی ها $B+C، \,\، I$ و $A+C، \,\, II$ باشد، زیرا آنها کوچکترین مقادیر را دارند، اما شاید من بیانیه آنها را متوجه نشدم. مقاله را می توان در اینجا یافت: http://online.medphys.org/resource/1/mphya6/v40/i4/p041707_s1?bypassSSO=1 صفحه 4، بخش III.B
در مورد مقایسه ضرایب پیرسون سردرگم است
96789
برای حالت دو متغیره، تفاوت های عملی بین استفاده از روش انگل-گرنجر در مقابل آزمون جوهانسن برای هم انباشتگی چیست؟ آیا یکی به طور جهانی قدرتمندتر از دیگری است؟ آیا یکی بیشتر از دیگری مثبت کاذب می دهد یا منفی کاذب؟ آیا یوهانسن باید همیشه ترجیح داده شود؟
تفاوت عملی بین آزمون یوهانسن در مقابل انگل-گرنجر برای هم انباشتگی چیست؟
53388
من قبلاً در مورد نظریه ای خوانده بودم که به یاد دارم (به درستی یا نه) به نام نظریه برنده بخت آزمایی نامیده می شود که اساساً به شرح زیر است: > یک فرد به طور نامتناسبی در مورد اتفاقات غیرمتناسب بیشتری از افراد دیگر می شنود که وارد قرعه کشی می شوند و برنده می شوند. انجام دادن دیگران که وارد > قرعه کشی می شوند و برنده نمی شوند. این به فرد دیدگاه تحریف شده ای از شانس برنده شدن واقعی می دهد. همین اصل در مورد وصیت نامه افراد از محصولات یا خدماتی که برای آنها کار می کند، در مقابل عدم کارکرد آنها صدق می کند. اگر اثر مضری رخ دهد، اثر معکوس نیز اعمال می شود. به نظر می‌رسد که به‌ویژه برای افرادی که احتمالاً واکسینه می‌شوند (مثلاً ایجاد اوتیسم)، و علم کاذب (مثلاً پس از کاهش هومیوپاتی کمرم درد نمی‌کند) و غیره کاربرد دارد. ** به هر حال، سؤال این است: آیا نام استانداردتری برای این اثر وجود دارد؟** جستجوی «نظریه برنده بخت آزمایی» در گوگل بسیار اندک بود. نزدیک‌ترین چیزی که من می‌توانم پیدا کنم، این مقاله بود که از یک نظریه برنده قرعه‌کشی نام می‌برد، که چند نتیجه دیگر از Google را نشان می‌دهد، اما هنوز تعداد زیادی از آنها وجود ندارد.
نام این نظریه (اگر وجود داشته باشد) چیست که بیان می‌کند برندگان قرعه‌کشی بیشتر احتمال دارد که در مورد ورود خود به لاتاری به دیگران اطلاع دهند؟
52652
این چیزی است که در یادداشت های من نوشته شده است. > ثابت ها RVS هستند: برای $ x = c = const $ ، یک نفر $ \\ {x \ leqslant t \\} => \ start {case} \ votyset ، t <c \\\ \ omega ، t \ geqslant c \ end {Case} $ چرا رویداد $ \\ {x \ leqslant t \\} $ برابر است با فضای نمونه وقتی $ t \ geqslant c $ و $X=c$؟
چرا وقتی $t \geqslant c$ و $X=c$، رویداد $\{X \leqslant t\}$ برابر با فضای نمونه است؟
52657
من بارها در تعدادی از مقالات دیده ام که تکنیک های ناپارامتریک در معرض نفرین ابعاد قرار می گیرند که ممکن است منجر به شکست این روش ها شود. چرا این اتفاق می افتد؟ می توانید یک مثال برای من بزنید؟ با تشکر
نفرین ابعاد و تکنیک های ناپارامتریک
97436
من در حال حاضر از Naive Bayes برای یک مشکل طبقه بندی سند متنی چند برچسب دار استفاده می کنم. اما دوست دارم تفاوت (مزایا و معایب) استفاده از SkiLearn Naive Bayes یا NLTK را بدانم؟ به نظر می‌رسد که SkiLearn در تنظیم پارامترها انعطاف‌پذیری بیشتری نسبت به NLTK دارد، اما فکر می‌کنم افکار من در مورد این تنها تفاوت کاملاً ساده‌لوحانه است. همچنین چه مواردی را بر دیگری انتخاب می کنید؟ هر گونه کمک قدردانی می شود.
تفاوت های پیاده سازی ساده بیز پایتون
64043
من یک مشکل بیولوژیکی دارم که شامل استفاده از آزمون t دو نمونه ای یک طرفه است. برای ساده کردن مسئله، آزمایشی را فرض کنیم که مقادیر را در یک گروه کنترل (C) و یک گروه تیمار (T) مقایسه می‌کند، که هر کدام دارای 3 تکرار هستند که C1، C2، C3، T1، T2، T3 نامیده می‌شوند. در اینجا **C1 و T1 نمونه هایی از یک موضوع هستند، C2 و T2 نمونه هایی از یک موضوع و ... هستند.** اکنون برای هر یک از ترکیب های زیر یک عدد بدست می آوریم. inthin = درون گروه (یعنی هر دو C یا هر دو T هستند). همچنین، اعداد بعد از C یا T نشان می دهد که آیا آنها از یک موضوع (فرعی) هستند یا خیر. C1_C2 (در: فرعی متفاوت) C1_C3 (در: فرعی متفاوت) C1_T1 (بین: فرعی مشابه) C1_T2 (بین: فرعی های مختلف) C1_T3 (بین: فرعی های مختلف) C2_C3 (در: فرعی های مختلف) C2_T1 (بین: فرعی های مختلف) C2_T2 (بین: فرعی مشابه) C2_T3 (بین: فرعی متفاوت) ... (مجموعاً 15 کمیت زوجی) ما اساساً علاقه مند به مقایسه مقادیر درون گروه و مقادیر بین گروه هستیم، اما **امیدواریم که اثر موضوع را به نحوی در آزمون t-test بگنجانیم**. آیا راهی برای تشخیص «زیرهای مختلف» و «زیر یکسان» در آزمون وجود دارد؟ خیلی ممنون از پیشنهاداتون!!
آزمون t دو نمونه ای یک طرفه با تنظیم متغیر
89536
ویرایش: همانطور که اشاره شد، در حال حاضر یک سوال مشابه دفن شده در یک سوال بزرگتر وجود دارد. بخش مربوطه را در اینجا بازتولید می کنم: > اگر چندین ضبط از مسیرهای مشابه داشته باشم، آیا تکنیک > معتبری برای ترکیب آنها برای نزدیک شدن به مسیر واقعی وجود دارد؟ بخش مربوط به پاسخ انتخاب شده، در زمینه سوال من، این است: > با چندین ضبط، می توانید یک هسته دوبعدی از هر کدام ایجاد کنید، هموارها را جمع کنید و آن را به یک تجزیه و تحلیل توپوگرافیک برای جستجوی > تبدیل کنید. رجلاین. معمولاً یک خط متصل دریافت نمی‌کنید، اما اغلب می‌توانید برآمدگی‌ها را در یک مسیر پیوسته به هم متصل کنید. برای مثال، مردم از این روش برای میانگین مسیرهای طوفان استفاده کرده اند. * * * من مجموعه ای از چند خط در فضای دوبعدی (X,Y) دارم که مسیرهای اجسام را نشان می دهد. هر چند خط در مجموعه یک مسیر اندازه گیری شده در امتداد همان مسیر تعیین شده است، که اکثر آنها (اما نه همه) از یک نقطه شروع می شوند و در اطراف همان نقطه دیگر خاتمه می یابند. من می‌خواهم مسیر ایده‌آل‌شده (میانگین چند خط) را از مجموعه چند خط‌ها محاسبه کنم، به همان روشی که به صورت دستی آن را در یک برنامه ترسیمی ردیابی می‌کنم، با این تفاوت که دوست دارم بدون دخالت دستی این اتفاق بیفتد. نمونه تصویر بخشی از مجموعه پلی لاین (برش خورده) در زیر آمده است. به نظر من جایی مشخص است که می توانم خط متوسط ​​را با ماوس ترسیم کنم، اما نمی توانم بفهمم که از کدام الگوریتم می توانم استفاده کنم. نکات مهم: 1. می‌دانم که می‌توانم از گره‌ها برای محاسبات استفاده کنم، اما برخی از بخش‌ها ممکن است خودسرانه طولانی باشند، بنابراین گره‌هایی در نزدیکی وجود ندارند که در محاسبات کمک کنند. یعنی می‌خواهم خود بخش‌های خط را برای محاسبه در نظر بگیرم، نه فقط گره‌ها را. 2. ممکن است قسمت هایی از یک چندخط مانند نقاط پرت رفتار کند (تصویر را ببینید). من فکر می‌کنم که با توجه به اینکه اکثر چند خط‌ها به خوبی رفتار می‌کنند، این بخش دورافتاده به راحتی توسط آنهایی که رفتار خوبی دارند جذب می‌شود. 3. اگرچه داده های اصلی دارای مهر زمانی هستند، من معتقدم که هیچ رابطه زمانی برای استنباط نتیجه مکانی که دنبال آن هستم لازم نیست، اینطور نیست؟ 4. بله، این داده های GPS است (البته این اتفاقی است به فرمول مشکل، که به طور هدفمند انتزاع شده است). ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FoIjE.png)
نحوه استخراج «پلی لاین متوسط» از مجموعه ای از چند خط
17024
فرض کنید یک رابطه نظری وجود دارد که می‌خواهید روی همه مقادیر یک متغیر ثابت کنید. برای مثال، $F(x)$ با $x$ افزایش می یابد. شما نمی توانید یک اثبات نظری کلی ارائه دهید. با این حال، شما می توانید $F(x)$ را برای هر مقدار خاص $x$ محاسبه کنید، و رابطه مورد انتظار برقرار است. احتمالاً، سپس می‌توانید نوعی رگرسیون را روی «داده‌های» ارائه‌شده توسط یک دسته کامل از مقادیری که به‌طور خاص محاسبه کرده‌اید، اجرا کنید. (با استفاده از $x$ به عنوان IV و $F(x)$ به عنوان DV). سپس، می‌توانید نشان دهید که یک رابطه رو به افزایش توسط «داده‌ها» پشتیبانی می‌شود و سعی کنید بهترین تناسب را پیدا کنید، و غیره. (حتی شکل) یک رابطه، نه فقط رابطه ترتیبی دو مقدار. آیا نامی برای این نوع فرآیند وجود دارد -- اجرای آمار بر روی راه حل های ریاضی، در مقابل داده های اندازه گیری شده؟ آیا این روشی قانع کننده برای استدلال یک نکته نظری است؟ آیا اجرای یک آزمایش و جمع آوری مقادیر داده ها و اجرای آمار در این مورد است؟ هدف نهایی، مشارکت نظری در حرکت $F$ با $x$ نیست، بلکه مدلی است که راهکار مفیدی ارائه می‌کند (به عنوان مثال، از آنجایی که $F(x)$ با $x$ افزایش می‌یابد، توصیه می‌شود سعی کنید $x$ را به حداقل برسانید).
آمار در مورد داده ریاضی؟
60742
من با داده های حضور/غیاب کار می کنم که حاوی صفرهای زیادی است. بهترین روش برای مدل سازی این چیست؟ تنها پیشنهادی که می‌توانم برای داده‌های بادی صفر پیدا کنم به داده‌های شمارش اشاره دارد نه داده‌های دوجمله‌ای/نسبتی.
داده های دوجمله ای متورم صفر
53380
آیا می توان فرمولی برای واریانس توان های یک متغیر تصادفی بر حسب مقدار مورد انتظار و واریانس X بدست آورد؟ $$\operatorname{var}(X^n)= \,?$$ and $$E(X^n)=\,?$$
واریانس توان های یک متغیر تصادفی
90786
من یک MLP NN نسبتاً ساده را به عنوان بخشی از پروژه خود اجرا کردم. من الان دارم آن را روی یک سینوسی تست می کنم و انتظار دارم خروجی این شبکه بدون مشکل از سینوسی پیروی کند. برخی از جزئیات شبکه: 32 گره ورودی 10 گره مخفی من از توابع فعال سازی tanh در هر دو لایه استفاده می کنم. این یک تصویر برای نشان دادن است: ![تصویر بریده شده](http://i.stack.imgur.com/aHy7O.png) اگر سینوسی هدف را با دامنه 0.9 بسازم، خوب کار می کند: ![تصویر پیش بینی خوب ](http://i.stack.imgur.com/xz7sS.png) من سعی کردم نرخ یادگیری را تا 0.5 افزایش دهم، اما کمکی نمی کند (فقط سر و صداتر به نظر می رسد). من فکر می کنم این چیزی است که من در مشتقات خود گم کرده ام. معادلات به روز رسانی من در اینجا آمده است (لطفاً عدم وجود جابجایی ها را نادیده بگیرید): $$ y = tanh(H*tanh(Wx)); $$ $$ e = y - y_d $$ $$ dH = \mu_1 * e * (1-tanh(H*tanh(Wx)^2)) * tanh(Wx) $$ $$ dW = \mu_2 * x * e * H * (1-tanh(Wx)^2) * (1-tanh(H*tanh(Wx)^2)) $$ $$ H = H - dH $$ $$ W = W - dW $$ من می دانم که این کلیپ را انجام می دهد زیرا به مقدار tanh نمی رسد که خروجی آن 1 باشد (زیرا tanh غیر خطی است). شاید باید تابع فعال سازی خود را له کنم تا باریکتر شود؟ همین... هر گونه فکری قابل قدردانی خواهد بود.
چرا هنگام استفاده از عملکرد فعال‌سازی tanh، بریده می‌شوم؟
64040
با توجه به تابع چگالی احتمال (pdf)، $$P(x) = \frac{f(x)}{\Sigma_x f(x)}.$$ آیا اگر ثابت نرمال کننده در مخرج، $ باشد، این هنوز یک pdf معتبر است. \Sigma_x f(x) = \infty$؟
آیا ثابت عادی سازی یک PDF می تواند بی نهایت باشد؟
102934
من سعی می کنم یک رگرسیون روی داده های ناهمسان انجام دهم که در آن سعی می کنم واریانس های خطا و همچنین مقادیر میانگین را بر حسب یک مدل خطی _پیش بینی کنم. چیزی شبیه این: $$\begin{align}\\\ y\left(x,t\right) &= \bar{y}\left(x,t\right)+\xi\left(x,t\ راست)، \\\ \xi\ چپ (x, t\ راست) &\sim N\ چپ (0,\sigma\ چپ (x,t\راست)\راست),\\\ \bar{y}\left(x,t\right) &= y_{0}+ax+bt,\\\ \sigma\left(x,t\right) &= \sigma_{0}+cx+dt . \end{align} $$ به عبارتی، داده‌ها از اندازه‌گیری‌های مکرر $y(x,t)$ در مقادیر مختلف $x$ و $t$ تشکیل شده‌اند. من فرض می‌کنم که این اندازه‌گیری‌ها از یک مقدار میانگین «واقعی» تشکیل شده‌اند. $ که انحراف معیار آن (یا واریانس، من تصمیم نگرفته‌ام) نیز به صورت خطی به $x,t$ بستگی دارد. (من می توانم وابستگی های پیچیده تری را به $x$ و $t$ مجاز کنم - انگیزه نظری قوی برای شکل خطی وجود ندارد - اما ترجیح می دهم در این مرحله مسائل را بیش از حد پیچیده نکنم.) می دانم که عبارت جستجو در اینجا است ناهمگونی، اما تنها چیزی که تا کنون توانسته ام پیدا کنم بحث در مورد چگونگی کاهش/حذف آن برای پیش بینی بهتر $\bar{y}$ است، اما هیچ چیز از نظر تلاش برای _predict_ $\sigma$ بر حسب متغیرهای مستقل. من می‌خواهم $y_0، a، b، \sigma_0، c$ و $d$ را با فواصل اطمینان (یا معادل‌های بیزی) تخمین بزنم، و اگر راه آسانی برای انجام آن در SPSS وجود داشته باشد، خیلی بهتر است! چه کار کنم؟ با تشکر
پیش‌بینی واریانس داده‌های ناهمسان
64047
منحنی Area Under ROC (AUROC) کمیتی است که برای تعیین کمیت عملکرد طبقه‌بندی‌کننده‌ها استفاده می‌شود. من در حال حاضر به اساسی ترین اشکالات استفاده از AUROC به عنوان معیار عملکرد منحصر به فرد علاقه مند هستم. من یک بازخورد منفی با AUROC در برخی از تحلیل‌های اخیر دریافت کردم زیرا با یک مشکل طبقه‌بندی که از طریق یک رگرسیون لجستیک در حضور جداسازی کامل انجام شد، مواجه شدم. من فرض می کنم که در این مورد به سادگی یک AUROC=1 کامل به دست می آید. آیا این درست است؟ به طور کلی، مقادیر بسیار بالای AUROC (منظورم مقادیر $\geq 0.998$ است) باعث می‌شود به این فکر کنم که آیا چیزی اشتباه یا مصنوعی در مدل و/یا داده‌ها، به عنوان اولین احساس وجود دارد. چه خوب است که این احساس من را تایید کنید و با مثال هایی از آن حمایت کنید. در این مرحله تز مخالف هم برایم جالب است.
اعتبار موثر AUROC به عنوان معیار عملکرد: در مورد مقادیر بسیار بالا AUROC چطور؟
80696
من با پاسخ به سؤالات زیر گیج شده‌ام. فرض کنید یک مجموعه داده D با 100 مثال داریم که 50 مورد از آنها به کلاس خوب و 50 مورد به کلاس فقیر تعلق دارد. فرض کنید که ما یک الگوریتم یادگیری بسیار ساده (L) داریم که مدلی را تولید می کند که به سادگی اکثریت نمونه های آموزشی را پیش بینی می کند (اگر اکثریت وجود نداشته باشد، همیشه خوب را پیش بینی می کند) 1) انجام اعتبار سنجی متقاطع 10 برابری طبقه بندی شده روی D همان نتیجه ای را می دهد که از نیمی از نمونه های هر کلاس برای آموزش و نیمی دیگر برای آزمایش استفاده می شود. پاسخ> درست 2) اعتبار سنجی متقاطع ترک یک خروجی، تخمین دقت بهتری را برای نحوه عملکرد L در نمونه هایی که به طور مستقل از همان توزیع D نمونه برداری شده اند، نسبت به استفاده از نیمی از مثال ها برای آموزش و نیمی از مثال ها برای آزمایش، ارائه می دهد. پاسخ > نادرست. آیا می توانم بدانم چرا پاسخ اول درست است و پاسخ دوم نادرست است؟
سوال در مورد کنار گذاشتن یک و اعتبار سنجی متقاطع 10 برابری
49110
من با یک ANOVA 3 طرفه با اقدامات مکرر مشکل دارم. طرح به شرح زیر است: محلی سازی متغیر وابسته است، از عوامل زیر در موضوعات ماده (4 سطح)، تکنیک انتشار (6 سطح) و نوع شناسی (2 سطح) وجود دارد. این فرمولی است که من استفاده کردم: aov_Material = aov(abs(محلی سازی) ~ Diffusion_Type*Material*Typology + Error(Subject/(Diffusion_Type*Material*Typology))، data=scrd) summary(aov_Material) و این خروجی است که من دریافت می کنم در نتیجه: پیام هشدار: در aov(abs(محلی سازی) ~ Diffusion_Type * Material * Typology + : Error() model is singular > summary(aov_Material) خطا: Subject Df Sum Sq Mean Sq F value Pr(>F) Residuals 11 2117 192.5 Error: Subject:Diffusion_Type Sqr Df Squm (>F) Diffusion_Type 5 20.2 4.032 0.423 0.83 Residuals 55 523.7 9.522 Error: Subject:Material Df Sum Sq Mean Sq F value Pr(>F) Material 3 1967 655.6 7.303eids. 1011 30.6 --- کدهای علامت: 0 '***' 0.001 '**' 0.05 '.' 0.1 ' 1 خطا: موضوع: Diffusion_Type:Material Df Sum Mean Sq F value Pr(>F) ) Diffusion_Type:Material 15 170.1 11.338 1.308 0.202 Residuals 165 1430.3 8.668 خطا: در داخل Df Sum Sq Mean Sq F مقدار Pr(>F) Residuals 288 2888 10.03 سؤالات من این است: 1. چرا BT به این معنی است که مدل اخطار چیست؟ مفرد)؟ 2. چرا اثری برای گونه شناسی ذکر شده در نتایج وجود ندارد؟ چگونه می توانم بفهمم که بین دو سطح تیپولوژی تفاوت وجود دارد؟
ANOVA ادعا می کند که مدل تک است
96781
آیا کسی می داند که چگونه می توان تست های post hoc را در ANCOVA با طرح فاکتوریل انجام داد؟ من دو بردار متشکل از 23 مقدار پایه (متغیر متغیر) و 23 مقدار بعد از درمان (متغیر مستقل) دارم و دو عامل با هر دو سطح دارم. من یک مدل ANCOVA ایجاد کردم و میانگین های تنظیم شده، خطاهای استاندارد و فواصل اطمینان را محاسبه کردم. مثال: کتابخانه (اثرات) پایه = c(0.7672,1.846,0.6487,0.4517,0.5599,0.2255,0.5946,1.435,0.5374,0.4901,1.258, 0.5445،1.078،1.142،0.5،1.044،0.7824،1.059،0.6802،0.8003،0.5547،1.003،0.9213) پس از درمان = c(0.4222,1.442,0.8436,0.5544,0.8818,0.08789,0.6291,1.23,0.4093,0.7828,-0.04061,0. 8686,0.8525,0.8036,0.3758,0.8531,0.2897,0.8127,1.213,0.05276,0.7364,1,001,0.8974) سن = فاکتور (c(rep(c(جوان، پیر)، 11)، جوان)) درمان = فاکتور (c(rep(دارو، 12)، تکرار (دارونما، 11) )) ANC = aov (بعد از درمان ~ خط پایه + درمان * سن) effect_treatage = اثر (درمان*سن،ANC) data.frame (اثر_درمان) سن درمان متناسب با بالا پایین 1 Drug Old 0.8232137 0.1455190 0.5174897 1.1289377 2 Placebo Old 0.6168641 0.1643178 0.2716452 0.9620831 0.9620831 3 Drug Young6620831 3 Drug You6620831 0.2602413 0.8775659 4 Placebo Young 0.7603360 0.1462715 0.4530309 1.0676410 اکنون می خواهم آزمایش کنم که آیا تفاوتی بین میانگین تنظیم شده Young-Placebo:Young-Drug-Drug:Old-Placebo:Young-Dlacebo Old:Old Young-Placebo:Old-Drug Old-Placebo:Young-Drug بنابراین سعی کردم: pH = glht(ANC, linfct = mcp(treatment*age=Tukey)) خطا: '=' غیرمنتظره در ph = glht(ANC_nback , linfct = mcp(treat*age= و: pH = TukeyHSD(ANC) خطا در rep.int(n, length(means)): نوع اجرا نشده 'NULL' در 'rep3' علاوه بر این: پیام هشدار: در تکرارها (paste(~، xx)، داده = mf) : غیر فاکتورها نادیده گرفته شده: خط پایه کسی میدونه چطوری اینو حل کنم؟ با تشکر فراوان
R: آزمون های تعقیبی در ANCOVA با طرح فاکتوریل
53389
اگر x$_{1}$, x$_{2}$,...,x$_{n}$ ~ N($\theta$, $\sigma$$^{2}$) بر اساس این واقعیت که Y$_{1}$ = $\sum$(x$_{i}$) و Y$_{2}$ =$\sum$(x$_{i}$)$^{2 }$ آمار کامل و کافی هستند، می توان نشان داد که (نه مطمئن هستم که چگونه) MVUE $\sigma$$^{2}$ = $\sum$(x$_{i}$- $\bar x$ )$^{2}$ / (n-1) در صورت نیاز برای پیدا کردن MVUE $\sigma$$^{4}$، می توانم بگویم که به سادگی [$\sum$(x$_{i}$- $\bar x$ )$^{2}$ / است (n-1)]$^{2}$ ? من فکر می کنم پاسخ منفی است زیرا E[A] $.$ E[A] لزوما برابر با E [A$^{2}$] نیست. کسی میتونه کمکم کنه لطفا تایید کنم؟ با تشکر
دریافت MVUE $\sigma^4$ برای توزیع عادی
90045
به طور کلی چند نقطه برای تخمین ماتریس کوواریانس p بعدی لازم است؟ آیا این بستگی به نحوه پخش داده ها در ابعاد مختلف دارد؟ آیا به توزیع واقعی داده ها بستگی دارد؟ متشکرم!
برای تخمین ماتریس کوواریانس p-بعدی به چند نمونه نیاز است؟
49117
سوالی دارم که مدتی ذهنم را مشغول کرده است. تست آنتروپی اغلب برای شناسایی داده های رمزگذاری شده استفاده می شود. آنتروپی زمانی به حداکثر می رسد که بایت های داده های تجزیه و تحلیل شده به طور یکنواخت توزیع شوند. تست آنتروپی داده های رمزگذاری شده را شناسایی می کند، زیرا این داده ها دارای توزیع یکنواخت هستند - مانند داده های فشرده، که هنگام استفاده از تست آنتروپی به عنوان رمزگذاری شده طبقه بندی می شوند. مثال: آنتروپی برخی از فایل های JPG 7,9961532 بیت/بایت است، آنتروپی برخی از TrueCrypt-container 7,9998857 است. این بدان معناست که با تست آنتروپی نمی توانم تفاوت بین داده های رمزگذاری شده و فشرده را تشخیص دهم. اما: همانطور که در تصویر اول مشاهده می کنید، بدیهی است که بایت های فایل JPG به طور یکنواخت توزیع نمی شوند (حداقل نه به اندازه بایت های موجود در محفظه truecrypt). آزمون دیگر می تواند تجزیه و تحلیل فرکانس باشد. توزیع هر بایت اندازه گیری می شود و به عنوان مثال. یک آزمون کای دو برای مقایسه توزیع با توزیع فرضی انجام می شود. در نتیجه، من یک مقدار p دریافت می کنم. وقتی این تست را روی JPG و TrueCrypt-data انجام می دهم، نتیجه متفاوت است. p-Value فایل JPG 0 است، به این معنی که توزیع از نظر آماری یکنواخت نیست. p-Value فایل TrueCrypt 0.95 است، به این معنی که توزیع تقریباً کاملاً یکنواخت است. سوال من در حال حاضر: آیا کسی می تواند به من بگوید که چرا تست آنتروپی اینگونه نتایج مثبت کاذب تولید می کند؟ آیا مقیاس واحدی است که محتوای اطلاعات در آن بیان می شود (بیت در هر بایت)؟ آیا به عنوان مثال مقدار p یک واحد بسیار بهتر است، به دلیل مقیاس دقیق تر؟ بچه ها برای هر پاسخ / ایده ای بسیار متشکرم! JPG-Image ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4LE3G.png) TrueCrypt-Container ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ 8gxfF.png)
مقایسه آنتروپی و توزیع بایت ها در داده های فشرده/رمزگذاری شده
95491
بسیاری از اوقات در آمار از یک آمار به روش های مختلف استفاده می کنیم. من فکر می کنم ضریب همبستگی درون طبقاتی یکی از آنهاست... ضریب همبستگی درون طبقاتی می تواند الف) معیار پایایی بین ارزیاب باشد، اما همچنین می تواند به عنوان B) معیار وابستگی بین نمرات (آزمون اولیه تحلیل چندسطحی) استفاده شود. بنابراین سوال(ها) این است/هستند: آیا از روش مشابهی برای اندازه گیری آن استفاده می کنیم؟ مثلا در برنامه های رابط کاربری گرافیکی مثل SPSS یا JMP از همین روش برای اندازه گیری استفاده می کنیم؟؟؟ آیا می توانید لطفاً به نشانی اینترنتی یا مقاله ای که نحوه استفاده از آن را به عنوان (B) نشان می دهد مراجعه کنید؟ محدوده (قاعده کلی) برای ICC برای B چقدر است؟؟؟ آیا مرجعی برای آن وجود دارد؟؟؟ پیشاپیش از مشارکت شما بسیار سپاسگزارم. من مشتاقانه منتظر پاسخ شما هستم.
سردرگمی ضریب همبستگی درون طبقاتی
52659
برای پایان نامه ام در این زمینه به کمک نیاز دارم. من 2 خط زمانی در تحقیقاتم دارم که در آنها متغیرهای مختلف اندازه گیری می شوند. تنها متغیری که برای هر دو خط زمانی یکسان است، استرس است. به من پیشنهاد شد که می توانم از رگرسیون چندگانه روی یک متغیر از زمان 1 و متغیر دیگری در زمان 2 (به عنوان IVs) استفاده کنم و آن را با استرس فقط با استفاده از زمان 2 (DV) آزمایش کنم. آیا این معتبر است؟ آیا من باید قبل از انجام آزمایش از هرگونه اقدامی اطمینان حاصل کنم؟ یا می‌توانم پیش‌فرض‌های داده‌ها را بررسی کنم و می‌توانم آزمایش را از قبل اجرا کنم؟ مشاوره انجام دهید زیرا پاسخ زمان 1 با پاسخ زمان 2 با داده های از دست رفته از انصراف متفاوت است. پیشاپیش از شما متشکرم
رگرسیون چندگانه
102994
من از مقیاس های 5 درجه ای لیکرت به عنوان متغیر وابسته استفاده کردم (1 کاملا موافق، 2 موافق، 3 خنثی، 4 مخالف، 5 کاملا مخالف)، اما همانطور که می دانید، استفاده از رگرسیون لجستیک باینری مستلزم ایجاد یک متغیر باینری است. از این پاسخ های 5 سطحی. بنابراین، کاملاً موافقم و موافقم به دسته 1 تبدیل می شوند و مخالفم و کاملاً مخالفم به دسته 2 تبدیل می شوند، در حالی که ما گزینه پاسخ خنثی را حذف می کنیم (اگرچه این به طور قابل توجهی حجم نمونه من را کاهش می دهد). یک موضوع دیگر در این زمینه، پرسشنامه من دارای 12 متغیر است و هر متغیر با گروهی از آیتم ها اندازه گیری می شود. به عنوان مثال، من تحصیلات (با 7 آیتم اندازه گیری شده)، نابرابری جنسیتی (با 6 آیتم اندازه گیری شده)، اعتماد (با 6 آیتم اندازه گیری شده)، پیشرفت شغلی (با 7 آیتم اندازه گیری شده) و غیره دارم. حالا و برای ایجاد دسته باینری آیا باید امتیاز بالا و پایین هر متغیر را بگیرم و میانگین و انحراف معیار را پیدا کنم و موارد وسط را حذف کنم؟ اما این دوباره حجم نمونه من را به میزان قابل توجهی کاهش می دهد؟ در نهایت آیا بهتر است از رگرسیون لجستیک چند جمله ای به جای رگرسیون لجستیک باینری استفاده کنیم، زمانی که متغیرهای وابسته با مقیاس لیکرت 5 درجه ای اندازه گیری می شوند، یعنی با هر متغیر 5 گروه وجود دارد؟
چگونه می توانم متغیرهای باینری را از مقیاس لیکرت برای مدل رگرسیون لجستیک باینری ایجاد کنم؟
45670
من می دانم که این در درجه اول یک سایت آمار است، بنابراین اگر من خارج از موضوع هستم، لطفاً مرا تغییر مسیر دهید. من یک سیستم با پمپ هایی دارم که گاهی اوقات خراب می شوند و نیاز به تعویض دارند. من می خواهم بتوانم خرابی ها را پیش بینی کنم و از این طریق به افرادی که پمپ ها را تعویض می کنند هشدار دهم. من داده‌های تاریخی برای فرآیند پمپ دارم، مانند جریان، فشار، ارتفاع مایع و غیره. من فقط تجربه کمی در استفاده از تکنیک‌های یادگیری ماشین برای طبقه‌بندی داده‌ها دارم - اساساً تمرین‌های دوره یادگیری ماشین Andrew Ng را دنبال و انجام داده‌ام. در coursera، و همچنین آمار یک اندرو کانوی، - و من هرگز از یادگیری ماشین برای طبقه بندی سری های زمانی استفاده نکرده ام. من به راه هایی فکر می کنم که بتوانم مشکل خود را تغییر دهم تا بتوانم از دانش موجود خود در مورد آن استفاده کنم. با دانش محدودی که دارم، پیش‌بینی خیلی بهینه‌ای نخواهم گرفت، اما امیدوارم از این موضوع درس بگیرم و برای این مشکل، هر پیشرفت کوچکی در پیش‌بینی مفید است، در مقابل صرفاً انتظار برای رخ دادن خطاها. رویکرد پیشنهادی من تبدیل سری زمانی به یک مسئله طبقه بندی عادی است. ورودی خلاصه ای از یک پنجره سری زمانی با مقدار میانگین، انحراف استاندارد، مقادیر حداکثر و غیره برای هر نوع داده در پنجره خواهد بود. برای خروجی، من مطمئن نیستم که چه چیزی بهتر کار می کند. یک رویکرد این است که خروجی یک طبقه بندی باینری است که آیا پمپ در یک بازه زمانی معین از انتهای پنجره خراب می شود یا خیر. مورد دیگر این است که خروجی زمان باقیمانده قبل از از کار افتادن پمپ است، بنابراین نه یک طبقه بندی، بلکه یک رگرسیون (به معنای یادگیری ماشینی). آیا فکر می کنید این رویکرد احتمالاً نتایجی را به همراه خواهد داشت؟ آیا این یک سوال بستگی به دامنه و داده های تاریخی دارد. آیا تبدیل‌های بهتری (هر دو ورودی و خروجی) وجود دارد که من در نظر نگرفته‌ام، یا اینکه پیش‌بینی خطا بر اساس داده‌های سری زمانی آنقدر متفاوت از پیش‌بینی خطای استاندارد است، که بهتر باشد وقت من صرف خواندن یادگیری ماشین با سری‌های زمانی شود. ?
چگونه می توانم داده های سری زمانی را تبدیل کنم تا بتوانم از تکنیک های ساده تری برای پیش بینی خطا استفاده کنم؟
80349
برآوردگر رگرسیون چندک مشروط توسط کونکر و باست (1978) برای چندک $\tau^{th}$ به صورت $$\widehat{\beta}_{QR} = \min_{b} \sum^{n} تعریف می‌شود. _{i=1} \rho_\tau (y_i - X'_i b_\tau)$$ جایی که $\rho_\tau = u_i\cdot (\tau - 1(u_i<0))$ یک تابع وزن‌دهی مجدد (به نام check-function) باقیمانده $u_i$ است. در مقاله ای توسط Firpo و همکاران. (2009) نویسندگان بیان می کنند که رگرسیون چندک شرطی اثرات جالبی نمی دهد. آنها می‌گویند که نتایج مشروط را نمی‌توان به جمعیت تعمیم داد (در OLS همیشه می‌توانیم از طریق قانون انتظارات تکراری از شرطی به غیرشرطی رسید، اما این برای چندک‌ها در دسترس نیست). دلیلش این است که کمیک غیرشرطی $\tau^{th}$ $y_i$ ممکن است با کمیک شرطی $\tau^{th}$ $y_i |X_i$ یکسان نباشد. اگر به درستی متوجه شده باشم، بخشی از مشکل این است که متغیرهای کمکی در $X_i$ گنجانده شده‌اند، بر متغیر رتبه‌بندی $u_i$ تأثیر می‌گذارد، زیرا درج متغیرهای کمکی، خطا را به اجزای مشاهده‌شده و مشاهده نشده تقسیم می‌کند. من فقط نمی توانم کاملاً درک کنم که چرا این باعث ایجاد مشکلات می شود. در اینجا سؤالات من وجود دارد: 1) چه چیزی باعث می شود که اثرات کمی مشروط و غیرشرطی از یکدیگر متفاوت باشند؟ 2) چگونه می توانم ضرایب رگرسیون چندک شرطی را تفسیر کنم؟ 3) آیا رگرسیون چندک شرطی سوگیری دارند؟ مراجع Firpo, S. et al. (2009) رگرسیون های چندگانه بدون شرط، اقتصادسنجی، جلد. 77 (3)، ص 953-973
تفاوت بین رگرسیون چندک شرطی و غیرشرطی چیست؟
95496
میانگین گیری داده ها چه تأثیری بر واریوگرام دارد؟ برای مشخص بودن، لطفاً یک مثال ساده را ببینید: #شبیه‌سازی یک مجموعه داده تصادفی خالص، این *PROCESS A* n <- 1000 #تعداد نقاط داده t <- 1:n #time y <- cumsum(rnorm(n )) #نقاط داده # با میانگین هر 2 تاخیر، این *PROCESS B* t2 را بنامید <- application(ماتریس(t, nrow=n/2, byrow=TRUE), 1, mean) y2 <- اعمال (ماتریس(y, nrow=n/2, byrow=TRUE), 1, mean) # واریوگرام تجربی نیاز(geoR) var <- as.geodata را محاسبه و رسم کنید (data.frame(coords = t(rbind(t, rep(1, n)))، data.col=y)) vario <- variog(var1) var2 <- as.geodata(data.frame(coords = t(rbind(t2, rep(1, n/2)))، data.col=y2) vario2 <- variog(var2) plot(vario$u, vario$v، type='b'، pch=16، cex=.7) نقاط (vario2$u، vario2$v، col=2، type='b'، pch=16, cex=.7) از نظر تئوری $\gamma(h) = \frac{1}{2} Var(y(t) - y(t+h))$ و برای یک واریوگرام خطی یک فرآیند ساده بدون اثر قطعه این $\frac{1}{2}\sigma^2 |h|$ است که $\sigma^2$ واریانس فرآیند اصلی است. بنابراین، ما انتظار داریم (1) دو واریوگرام موازی باشند و (2) نسبت اثر قطعه فرآیند A به فرآیند B 4/3 باشد. نمودارها و ریاضی را با هم مقایسه کنید: (1) تایید می شود، اما (2) تایید نمی شود. چرا؟ آیا این یک مثال ساده از مشکل تغییر حمایت در زمین آمار است؟ پیشاپیش از شما تشکر می کنم.
میانگین گیری داده ها چه تأثیری بر واریوگرام دارد؟
20534
من در حال مدل سازی یک رویداد با دو نتیجه، a و b هستم. من مدلی ایجاد کرده‌ام که احتمال وقوع a یا b را تخمین می‌زند (یعنی مدل محاسبه می‌کند که a با احتمال 40٪ و b با 60٪ شانس اتفاق می‌افتد). من سابقه زیادی از نتایج کارآزمایی ها با تخمین های مدل دارم. من می خواهم کمیت کنم که مدل چقدر از این داده ها استفاده می کند - آیا این امکان پذیر است و اگر بله چگونه؟
تعیین دقت مدلی که احتمال وقوع را تخمین می زند
90048
من در حال کار بر روی پروژه ای هستم که باید از داده های فروش حجم پایه و تبلیغاتی را جدا کنم. من برای 4 سال گذشته در سطح هفته داده های فروش دارم. چگونه می توانم حجم پایه و تبلیغات را فقط از این مقدار داده جدا کنم؟ آیا می توان با رگرسیون یا هر رویکرد سری زمانی انجام داد؟ من قدردان هر گونه بازخوردی هستم. با تشکر
تفکیک پایه و حجم تبلیغاتی
80343
من 2 فاکتور دارم یکی (Page type) 2 سطح و دیگری (Intensity) 4 سطح. من یک طراحی کامل 2x4 با 10 تکرار انجام دادم ، بنابراین 80 آزمایش انجام دادم. سپس من می خواستم ANOVA دو طرفه را در مورد این داده ها انجام دهم. اگر اشتباه می‌کنم، مرا تصحیح کنید، اما چیزی که باید بررسی کنم این است که آیا باقیمانده‌ها مستقل، هم‌سداست و به طور معمول توزیع شده‌اند. مستقل بودن و هم‌ساختار بودن با «باقیمانده بر اساس طرح پیش‌بینی‌شده» تأیید می‌شود، زیرا هیچ روند قابل مشاهده یا اسپرد فزاینده‌ای وجود ندارد. فرض نرمال بودن تأیید نشده است (نمودار دوم)، اما به نظر می رسد که مشکل بزرگی نیست زیرا: > علاوه بر این، نرمال بودن کمترین فرض یک مدل خطی است > (به عنوان مثال، ANOVA). ممکن است لازم نباشد که باقیمانده ها کاملاً عادی باشند. > (http://stats.stackexchange.com/a/28635/36058) به نظر می رسد که آنها _تقریباً عادی_ هستند. بنابراین، آیا افکار من درست است؟ آیا می توانم ANOVA دو طرفه را روی این داده ها به درستی انجام دهم؟ (ANOVA کامل: http://i.imgur.com/7tR3Kv2.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/B9lct.png)
ANOVA دو طرفه در باقیمانده های نه کاملاً عادی
95498
من میانگین (u) و انحراف معیار (sd) یک توزیع پیوسته (X) را دارم. چگونه می توانم میانگین (u_log) و انحراف استاندارد (sd_log) گزارش آن توزیع پیوسته (log(X)) را حل کنم؟ من به دنبال کشیدن اعداد تصادفی از یک توزیع log-normal هستم. مشکل این است که اکثر بسته های آماری دارای یک تابع log-normal-random-random-generator هستند که میانگین log (X) و sd از log (X) را به عنوان ورودی می گیرد. من فقط میانگین X و std از X را دارم. چگونه می توانم میانگین(log(X)) و sd(log(X)) را با توجه به این ورودی ها حل کنم.
نحوه محاسبه پارامترهای log-normal با استفاده از میانگین و std توزیع داده شده
45677
من در تلاش هستم که اجزای واریانس را برای انتخاب و شانس در یک طراحی bifactorial با نسل ** به عنوان یک عامل ثابت ** و ** به عنوان یک اصطلاح تصادفی تکرار کنم ، ** برای باروری اولیه. از آنجایی که من از سطح فردی استفاده می‌کنم (چون می‌خواهم فواصل اطمینان را برای شانس ایجاد کنم)، اندازه نمونه بین نسل‌ها برابر نیست، بنابراین یک طرح نامتعادل است و یک ANOVA اندازه‌گیری تکراری نیست، زیرا افراد من متفاوت هستند. مشکل این است که وقتی نتایج را بین Statistica و R مقایسه می‌کنم، میانگین مربعات (MS) برای عوامل تولید و تکرار متفاوت است (اما MS برای Gen*Rep و باقیمانده‌ها اینطور نیست!) داده‌های من شامل 2 عبارت است: * نسل - ضریب ثابت 2 سطح (6 و 11) * تکرار - ضریب تصادفی سطح 3 (Ad1، Ad2، Ad3) مدلی که من استفاده می کنم g است. <- Anova (aov(Fec~ Gen+Rep+ Gen*Rep), random=~1|Gen*Rep) من مطمئن نیستم که اینگونه بیان کنم که می خواهم عبارات با Replicate تصادفی باشند (شاید این یکی از خطاهای من هنگام مقایسه با نتایج Statistica؟). * ممکن است تفاوت ها به دلیل طراحی نامتعادل باشد؟ آیا R و Statistica روش های مختلفی برای رسیدگی به تعداد افراد مختلف در هر تکرار و نسل دارند؟ * چرا همه ام اس برابر نیستند؟ آیا راهی وجود دارد که نتایج یکسان باشد؟ * چگونه می توانم نشان دهم که یک عامل (و همه تعاملات آن) تصادفی هستند؟ * چگونه می‌توانم به R بگویم که می‌خواهم فاکتور Generation را در برابر عبارت Gen*Rep آزمایش کند یا آن را به روش دیگری بیان کنم تا اهمیت فاکتور Gen را در برابر ناهمگونی بین تکرارهای من آزمایش کند؟
پارتیشن های مختلف میانگین مربع در یک آنالیز واریانس دو عاملی نامتعادل (با ضریب تصادفی) بین R و Statistica
64049
من آزمایشی را با 7 شرایط درمانی طراحی شده برای کاهش مصرف الکل و یک شرایط کنترل انجام داده ام. متغیر وابسته، مصرف الکل پس از درمان است، و من یک ANCOVA را با مصرف پایه الکل به عنوان متغیر کمکی انجام داده‌ام. من هیچ تاثیری از آزمون ANCOVA F omnibus پیدا نکردم، اما می‌خواستم مقایسه‌های خاصی را بین شرایط درمان (که هدف اصلی تحقیق بود) بررسی کنم. بنابراین من از تضادهای برنامه ریزی شده برای بررسی دو سؤال خاص استفاده کردم: * میانگین همه شرایط درمان در مقابل شرایط کنترل = بدون تأثیر. * درمان 1 در مقابل تمام درمان های دیگر به صورت جداگانه. به عنوان مثال درمان 1 در مقابل درمان 2، درمان 1 در مقابل درمان 3، درمان 1 در مقابل درمان 4 و غیره. من تفاوت قابل توجهی بین درمان 1 و درمان 6 پیدا کرده ام (که فرضیه آن را داده بودم - اما نه بر اساس شواهد _قوی، بیشتر از حد تصور) با این حال، برای انجام این مقایسه‌های چندگانه، هیچ اصلاحی برای نرخ خطای نوع 1 متورم اعمال نکرده‌ام. همه چیزهایی که تا کنون در مورد این موضوع خوانده ام در مورد نحوه استفاده از اصلاحات بسیار مبهم بوده است، به عنوان مثال. اوه خوب است تا زمانی که فقط چند تضادهای برنامه ریزی شده را انجام دهید یا اگر دلیلی پیشینی برای آن دارید - اما این خیلی مفید نیست، چند چند است؟ سوال من این است: آیا به نظر شما برای مقایسه های چندگانه (من در مجموع 7 مورد را انجام داده ام) نیاز به اعمال تعدیل دارم و اگر بله، کدام تنظیم؟ من خوانده ام که هنگام استفاده از ANCOVA فقط می توانید از تنظیمات خاصی استفاده کنید (بر خلاف ANOVA). تست دانت به نظر می رسد که می تواند درست باشد، اما من نمی دانم که آیا می توان از تست دانت با ANCOVA استفاده کرد؟ هر گونه کمکی (یا حتی راهنمایی من در جهت مطالعه مفیدتر) بسیار قدردانی خواهد شد.
تصحیح برای مقایسه های متعدد در تضادهای برنامه ریزی شده با ANCOVA
95492
من چندین گروه سنسور دارم، هر گروه داده ها را با احتمال متفاوت ارسال می کند. من می‌خواهم این گروه‌ها را به 3 دسته طبقه‌بندی کنم (دسته اول داده‌ای برای ارسال ندارد، دسته دوم یک سنسور برای ارسال دارد و دسته سوم بیش از یک سنسور دارد که داده ارسال می‌کند) چگونه می‌توانم تابع توزیع احتمال را برای این دسته‌ها بنویسم.
دسته بندی حسگرها
57863
ما می دانیم که مقدار مورد انتظار $1 \ بیش از X$، که در آن $X$ یک متغیر تصادفی عادی است، وجود ندارد. اما فرض کنید در بازه‌ای که صفر نباشد شرط می‌کنیم. به عنوان مثال، اگر $ \mu_X = 10$ و $\sigma_X = 1$، $E چیست [{1 \over X} | ( 9<X<10 )] $ ? من می دانم که می توان از یکپارچگی عددی یا تقریبی استفاده کرد، اما آیا می توان یک فرمول تحلیلی پیدا کرد؟ اگر چنین است، چه تکنیکی برای ارزیابی انتگرال استفاده می شود؟
انتظار مشروط برای متقابل یک عادی
49114
یک کوزه حاوی N-1 قرمز و 1 توپ سبز است. هر توپ یک وزن مرتبط دارد. اگر هر توپ (بدون جایگزینی) با احتمالی متناسب با میزان سهم وزن آن در کوزه کشیده شود، تعداد مورد انتظار برای گرفتن توپ سبز چقدر است؟ مثال: 2 توپ قرمز با وزن 0.3 و 0.4 و توپ سبز با وزن 0.3. در اولین تلاش، «Pr(red1)=0.3»، «Pr(red2)=0.4»، «Pr(سبز)=0.3». مثلاً توپ قرمز با وزن 0.3 در اولین تلاش انتخاب می شود. سپس، در تلاش بعدی، «Pr(red2)=0.4/(0.4+0.3)» و «Pr(سبز)=0.3/(0.4+0.3)». اگر توپ های قرمز بیشتری وجود داشته باشد، پیگیری احتمالات نسبتاً دشوار می شود.
کوزه با احتمالات غیر یکنواخت
92848
من می‌دانم که آزمون t به «داده‌های توزیع شده عادی» نیاز دارد. اما متغیر `y` را در نظر بگیرید. هنگامی که بدون تقسیم شدن توسط «گروه» رسم می شود، معمولاً توزیع نمی شود: set.seed(1) y <- c(rnorm(1000, 1), rnorm(1000, 5)) گروه <- c(rep (A، 1000)، rep(B، 1000)) df <- data.frame(y=y، group=group) library(ggplot2) ggplot(df, aes(y)) + geom_histogram() ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/pWJqp.jpg) اما وقتی «y» با « تقسیم می شود گروه`، معمولاً توزیع می شود: ggplot(df، aes(y)) + geom_histogram() + facet_grid(~group) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sgWN8.jpg) آیا کسی می تواند توضیح دهد که آیا یک متغیر فقط پس از تقسیم شدن بر اساس گروه باید به طور معمول توزیع شود؟
t-test چه چیزی باید به طور معمول توزیع شود؟
49119
من قبلا هیچ مشکلی با خراب شدن R نداشتم. من از بسته موش (موش 2.13) برای انجام چندین انتساب استفاده می کنم. کد روی برخی از زیر مجموعه‌های داده به خوبی کار می‌کند، اما وقتی آن را روی زیرمجموعه‌های دیگر اجرا می‌کنم، R خراب می‌شود (نه بلافاصله - پس از مدتی). از خروجی R درست قبل از خراب شدن، من معتقدم که از روش انتساب «2l.pan» استفاده می کند (از بسته «pan») من قبلا update.packages() را اجرا کرده ام. چگونه می توانم این مشکل را تشخیص دهم؟ امضای مشکل: نام رویداد مشکل: نام برنامه APPCRASH: نسخه برنامه Rgui.exe: 2.151.59607.0 مهر زمانی برنامه: 4fe47a63 نام ماژول خطا: R.dll نسخه ماژول خطا: 2.151.59607.0 نسخه ماژول خطا: 2.151.59607.0 Timesta7. c0000005 Exception Offset: 0000000000032ec8 نسخه OS: 6.1.7601.2.1.0.256.4 شناسه محلی: 2057 اطلاعات اضافی 1: 7782 اطلاعات اضافی 2: 77823beb5aec83dionald اطلاعات 3: 4491 اطلاعات اضافی 4: 4491b41bf90894717964f5eef2cccd84 **به روز رسانی** من موفق به ایجاد یک مثال قابل تکرار، با داده ها شدم: require(foreign) require(mouse) require(pan) dt.fail <(http: read.cv //goo.gl/pg8um) dt.fail$X <- NULL dt.fail$out <- as.factor(dt.fail$out ) dt.fail$grp<- as.factor(dt.fail$grp) dt.fail$v1<- به عنوان .factor(dt.fail$v1) dt.fail$v2<- as.factor(dt.fail$v2) dt.fail$v3 <- as.factor(dt.fail$v3) dt.fail$v7<- as.factor(dt.fail$v7) dt.fail$v8 <- as.factor(dt.fail$v8 ) dt.fail$v9 <- as.factor(dt.fail$v9) dt.fail$v11 <- as.factor(dt.fail$v11) dt.fail$v12 <- as.factor(dt.fail$v12) PredMatrix <- quickpred(dt.fail) PredMatrix['CTP',] <- c(1,- 2,0,0,0,0,0,0,0,0,1,0,1,1,0,2) انباشت = موش( data=dt.fail، m = 1، maxit = 1، imputationMethod = c( logreg، # out ، # grp ----> ضریب گروه بندی خوشه pmm، # v1 polyreg، # v2 logreg، # v3 pmm، # v4 logreg، # v5 logreg، # v6 polyreg، # v7 ----> کمکی polyreg، # v8 ----> کمکی polyreg، # v9 ----> کمکی polyreg، # v10 ----> کمکی ، # v11 ----> کامل ، # v12 --- -> کامل 2l.pan، # CTP ----> انتساب چند سطحی )، # const ----> مورد نیاز برای انباشت چندسطحی predictorMatrix = PredMatrix، seed = 101) و برای کامل بودن، در اینجا ماتریس پیش بینی کننده ای است که من استفاده می کردم: . out grp v1 v2 v3 v4 v5 v6 v7 v8 v9 v10 v11 v12 CTP const out 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 grp 0 0 0 0 0 0 0 0 0 0 0 0 0 v1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 v2 0 0 0 0 0 1 1 1 0 1 0 0 1 1 1 0 v3 0 0 0 0 0 1 1 1 0 1 0 1 1 1 0 v4 0 0 0 0 1 1 0 1 1 0 1 1 1 0 v5 1 1 0 0 0 0 0 1 0 1 0 0 1 0 0 0 v6 1 1 0 1 0 1 1 0 0 1 0 0 1 0 0 0 v7 0 0 0 0 0 0 1 1 0 0 0 1 0 0 v8 0 0 0 0 0 0 1 1 0 0 0 0 1 1 0 0 v9 0 0 0 0 1 1 1 1 0 1 0 0 1 1 1 0 v10 0 0 0 0 0 0 1 1 0 1 0 0 1 1 0 0 0 v11 0 0 0 0 0 0 0 0 0 0 0 0 0 0 v12 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 CTP 1 -2 0 0 0 0 0 0 0 1 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
تشخیص اینکه چرا MICE هنگام تلاش برای نسبت دادن داده‌های چند سطحی، R را از کار می‌اندازد
90782
من یک مجموعه داده بسیار ساده دارم که شامل یک متغیر مستقل (پنج محل نمونه‌برداری به عنوان عوامل) و متغیر نتیجه است که وضعیت بیماری (مثبت/منفی) در خرچنگ‌های هر سایت است. این سایت ها در فواصل مختلف از نقطه خروج فاضلاب واقع شده اند. فرضیه های من این است که 1) شیوع در بین سایت ها متفاوت است، و 2) شیوع بیماری به عنوان تابعی از فاصله از یک منطقه آلودگی منبع نقطه ای شناسایی شده متفاوت است. فرضیه 1 با استفاده از آزمون کای اسکوئر برای روند بررسی شد. با توجه به فرضیه 2، من یک مدل رگرسیون لجستیک ساختم. به‌جای استفاده از سایتی که در دورترین فاصله از منبع آلودگی قرار دارد (خرچنگ‌هایی که کمتر در معرض آلودگی قرار دارند)، به‌عنوان گروه مرجع، به یک تحلیل اولیه متوسل شدم و از سایتی با کمترین شیوع به عنوان گروه مرجع استفاده کردم. با این اوصاف، من رده پایه خود را انتخاب نکردم (در مقایسه با همه موارد دیگر) _A priori_، بلکه تنها پس از دانستن اینکه خرچنگ های آن سایت کمترین آسیب را می بینند. ساختن مدل به این شکل برای من منطقی بود. با این حال، مطمئن نیستم که هیچ فرضی را در اینجا با درج نکردن دسته مرجعی که در وهله اول فکر می کردم کمترین شیوع بیماری را داشته باشد، نقض نمی کنم. آیا من اینجا اشتباه بزرگی می کنم؟ پیشاپیش از شما متشکرم.
ساخت مدل بر اساس تجزیه و تحلیل داده های اولیه
80342
آیا بازسازی مدل رگرسیون خطی چند متغیره به عنوان یک رگرسیون خطی چندگانه کاملاً معادل است؟ منظور من صرفاً اجرای رگرسیون های جداگانه $t$ نیست. من این را در چند جا خوانده‌ام (تحلیل داده‌های بیزی - گلمن و همکاران، و مدرسه قدیمی چند متغیره - ماردن) که یک مدل خطی چند متغیره را می‌توان به راحتی به‌عنوان رگرسیون چندگانه مجدداً پارامتر کرد. با این حال، هیچ یک از منابع به هیچ وجه در این مورد توضیح نمی دهند. آنها اساسا فقط آن را ذکر می کنند، سپس به استفاده از مدل چند متغیره ادامه می دهند. از نظر ریاضی، ابتدا نسخه چند متغیره را می نویسم، $$ \underset{n \times t}{\mathbf{Y}} = \underset{n \times k}{\mathbf{X}} \hspace{2mm}\ underset{k \times t}{\mathbf{B}} + \underset{n \times t}{\mathbf{R}}، $$ جایی که پررنگ متغیرها ماتریس هایی هستند که اندازه آنها در زیر آنها قرار دارد. طبق معمول، $\mathbf{Y}$ داده است، $\mathbf{X}$ ماتریس طراحی است، $\mathbf{R}$ معمولاً باقیمانده های توزیع شده هستند، و $\mathbf{B}$ چیزی است که ما به آن علاقه داریم. در استنباط با. برای تغییر پارامتر به عنوان رگرسیون خطی چندگانه آشنا، به سادگی متغیرها را به صورت زیر بازنویسی می کنیم: $$ \underset{nt \times 1}{\mathbf{y}} = \underset{nt \times nk}{\mathbf{D}} \hspace{2mm} \underset{nk \times 1}{\boldsymbol{\beta}} + \underset{nt \times 1}{\mathbf{r}}، $$ که در آن پارامترهای مجدد مورد استفاده عبارتند از $\mathbf{y} = row(\mathbf{Y}) $، $\boldsymbol\beta = row(\mathbf{B})$، و $\mathbf{D} = \mathbf{X} \otimes \mathbf{I}_{n}$. $row()$ به این معنی است که سطرهای ماتریس از انتها به انتها در یک بردار بلند مرتب شده اند و $\otimes$ محصول کرونکر یا بیرونی است. بنابراین، اگر این خیلی آسان است، چرا به نوشتن کتاب‌هایی در مورد مدل‌های چند متغیره، آزمایش آمار برای آن‌ها و غیره مشغول شوید؟ موثرتر است که ابتدا متغیرها را تبدیل کنید و از تکنیک های تک متغیره رایج استفاده کنید. مطمئنم دلیل موجهی وجود دارد، من فقط در فکر کردن به یکی، حداقل در مورد یک مدل خطی، مشکل دارم. آیا موقعیت‌هایی با مدل خطی چند متغیره و خطاهای تصادفی توزیع شده معمولی وجود دارد که این پارامترسازی مجدد اعمال نمی‌شود، یا احتمالات تحلیلی را که می‌توانید انجام دهید محدود می‌کند؟ منابعی که من این را دیده ام: Marden - آمار چند متغیره: مدرسه قدیمی. به بخش های 5.3 - 5.5 مراجعه کنید. این کتاب به صورت رایگان در دسترس است: http://istics.net/stat/ Gelman et al. - تجزیه و تحلیل داده های بیزی من نسخه دوم را دارم و در این نسخه یک پاراگراف کوچک در چ. 19 مدل های رگرسیون چند متغیره با عنوان: مدل رگرسیون تک متغیره معادل اساساً، آیا می توانید هر کاری را با مدل رگرسیون تک متغیره خطی معادل انجام دهید که با مدل چند متغیره می توانید انجام دهید؟ اگر چنین است، اصلاً چرا روش هایی برای مدل های خطی چند متغیره ایجاد می شود؟ در مورد رویکردهای بیزی چطور؟
ریخته گری یک مدل خطی چند متغیره به عنوان یک رگرسیون چندگانه
95490
من در دنیای داده کاوی تازه کار هستم. من یک مجموعه داده از 19 متغیر دارم (بعضی از آنها طبقه بندی شده اند). این در مورد زمان اجرای برنامه های مختلف است. من چیزی شبیه به این دارم) اما با هزاران ردیف. فرآیند فرعی برنامه ex_time مکان شروع_تاریخ شروع_زمان جلسه 1 A.a A.1 2 اسپانیا 01/02/2014 17:02:14 1234 2 A A.b A.2 2 اسپانیا 01/02/2014 17:02:16 1234 3 A. .2 3 فرانسه 01/02/2014 12:15:24 8374 4 B B.d B.4 4 انگلستان 02/02/2014 17:13:56 94374 5 B B.e B.5 5 آلمان 16/02/2014 10:11:14 3873 6 C.f C. 6 لهستان 25/01/2014 11:33:15 83739 7 C C.g C.9 0 فرانسه 9/04/2014 12:02:14 9437 هر برنامه دارای انواع مختلفی از فرآیندها است، اما هر فرآیند فرعی می تواند در یک فرآیند متفاوت باشد (اما باید در همان برنامه باشد) به عنوان مثال زیرفرایند A.2 داخل فرآیند A.b و A.c است (و باید در A باشد). ex_time زمان اجراست. Session یک عدد برای هر جلسه کاربر است (یعنی برای مثال در جلسه 1234 کاربر 2 ردیف اول نمونه را اجرا کرده است). چگونه می توانم پایه تاریخ را مطالعه کنم؟ چگونه می توانم زمان اجرا را پیش بینی کنم؟ برای آن از چه چیزی استفاده کنم؟ درختان تصمیم، خوشه بندی، (من با رگرسیون خطی با استفاده از زیر فرآیندهای مرتب شده توسط برنامه ها امتحان کرده ام)؟، سری زمانی، شبکه عصبی، قوانین ارتباط؟ متشکرم
مطالعه داده کاوی و پیش بینی یک چارچوب داده در R
90785
حداقل مربعات وزنی (WLS) و خطاهای استاندارد قوی گاهی اوقات به عنوان رویکردهای جایگزین برای به دست آوردن خطاهای استاندارد قابل اعتماد برآورد ضرایب رگرسیون در حضور ناهمسانی ارائه می شوند. با این حال، متوجه شدم که نرم افزار من (gretl) خطاهای استاندارد قوی را به عنوان یک گزینه در هنگام استفاده از WLS ارائه می دهد. موقعیتی که در آن به نظر می‌رسد این ممکن است مفید باشد، جایی است که در یک رگرسیون Y بر X، دلیل واضحی برای ناهمسانی وجود دارد، برای مثال یک اثر مقیاس به‌طوری‌که انتظار می‌رود مقادیر بزرگ‌تر Y با واریانس‌های بزرگ‌تری همراه باشد. سپس می توان از WLS استفاده کرد و به مشاهدات با Y کوچکتر وزن بیشتری داد (یا شاید بهتر، به مشاهدات با E[Y | X] کوچکتر، همانطور که از رگرسیون OLS اولیه استنباط می شود). با این حال، ممکن است یافت شود که باقیمانده‌های WLS مقداری ناهمگونی باقی مانده را پیشنهاد می‌کنند که وزن‌دهی آن را حذف نکرده است. این نشان می دهد که خطاهای استاندارد تخمین زده شده توسط WLS ممکن است کاملاً قابل اعتماد نباشند، و برای رسیدگی به این ممکن است خطاهای استاندارد قوی را انتخاب کنیم (به جای تلاش برای انجام این کار از طریق الگوی وزن دهی پیچیده تر). سوال: با فرض اینکه تعداد مشاهدات به طور معقولی زیاد باشد (مثلاً بیش از 100)، آیا در استفاده از WLS با خطاهای استاندارد قوی هنگام تخمین خطاهای استاندارد ضرایب رگرسیون، مشکلاتی وجود دارد؟
استفاده از حداقل مربعات وزن دار با خطاهای استاندارد قوی
59815
سلام من مجموعه ای از داده ها (پیام با اندازه های مختلف) در اکسل مانند (بیش از 5000 ورودی): پیام نام پیام اندازه پیام1 0.5 میلیون پیام2 10.2 میلیون پیام3 2.1 میلیون ... پیام n-1 40.52 میلیون پیام n 12.12 میلیون پیام با موفقیت ایجاد کردم یک جدول فرکانس و یک نمودار میله ای با آن. به عنوان مثال طیف مختلف اندازه چند پیام رخ داده است؟ 0 - 5M 4000 5 - 10M 454 5 - 15M 234 .. ... 45-50M 2 در زیر چند آمار برای این مجموعه داده ها آمده است: میانگین حالت میانه چولگی Kurtosis 2.085443743 0.884527206206 0.884527206 2. 5.067491934 37.95900794 انحراف استاندارد حداقل حداکثر 3.642138843 0.006651878 49.12574959 اما وقتی سعی کردم از طریق NORMDIST() یک توزیع عادی ترسیم کنم، احتمالاً توزیع آن خیلی زشت نیست! به این ترتیب، میانگین و مد کاملاً متفاوت هستند! چگونه می توانم بفهمم که داده ها به چه نوع توزیعی تعلق دارند؟ یا یک مدل آماری برای آن مدل کنید؟ #خیلی ممنون فکر می‌کنم آمار اینجا یک انجمن عالی است، پاسخ‌های مفید زیادی در مدت کوتاهی مانند stackoverflow وجود دارد :)
چگونه یک توزیع برای مجموعه ای از داده ها پیدا کنیم؟
99694
من تعدادی آزمایش یادگیری ماشین را برای پیش بینی یک طبقه بندی باینری انجام دادم. دقت، یادآوری و دقت را اندازه گرفتم. متوجه شدم که دقت من به طور کلی بسیار بالا است و یادآوری و دقت همیشه اعداد یکسانی هستند. من از تعاریف زیر استفاده کردم: $\text{Precision} = \frac{TP}{(TP + FP)}$$\text{Recall} = \frac{TP}{(TP + FN)}$$\text{ Accuracy} = \frac{(TP + TN)}{(P + N)}$ من برای تفسیر دقت و یادآوری مشکلاتی دارم. اگر این دو عدد همیشه در مورد من یکسان باشند به چه معناست؟
اگر دقت و یادآوری یکسان باشد به چه معناست؟
80344
من در درک مکان و چند بار استفاده از set.seed() مشکل دارم. من در حال انجام یک اعتبارسنجی متقاطع ترک یک خارج در مجموعه ای با 120 متغیر طبقه بندی شده برای پیش بینی 300 متغیر دیگر از کلاس ناشناخته هستم. آیا باید seed را در ابتدای کد تنظیم کنم یا در ابتدای هر تکرار اعتبار سنجی متقاطع ترک یک خروجی به منظور تضمین اجرای قابل تکرار؟ ممنون از هرگونه راهنمایی و توضیحات
یکی از اعتبار سنجی متقاطع را کنار بگذارید و در R قرار دهید
95141
من از lsmeans برای اجرای تجزیه و تحلیل پس‌هک برای کنتراست‌های مدل مختلط خطی استفاده می‌کنم، و در اینجا خروجی است: $contrasts تخمین کنتراست SE df t.ratio p.value aL2_like - انگلیسی 450.7397 252.6889 75.99 1.784 0.1223-like 0.1819 thai aL 127.8683 59.66 1.757 0.1931 انگلیسی - تایلندی -226.1284 274.6949 96.77 -0.823 0.6896 می‌توانم بپرسم که آیا برآورد در اینجا به اندازه اثر هر کنتراست اشاره دارد؟
در خروجی lsmeans، آیا تخمین اندازه اثر آن تضاد است؟
95497
در اینجا اصول اولیه: گروه 1 گروه کنترل است، به آنها یک وب سایت خاص داده می شود تا از آنها استفاده کنند. گروه 2 گروه آزمایشی است، به آنها یک وب سایت مشابه با ویژگی های فرامتن تنظیم شده داده می شود. پس از انجام اقدامات لازم، از آنها خواسته می شود تا یک نظرسنجی (مقیاس لیکرت) را تکمیل کنند که سعی می کند احساس آنها را در مورد امنیت و راحتی وب سایت اندازه گیری کند. این نسخه فشرده سوال است. فقط میخوای چک کنی IV: Hypertext The DV: Security and Convenience (اندازه گیری شده از طریق مقیاس لیکرت) اما از کدام آزمون های آماری در SPSS می توانم برای نشان دادن تفاوت معنادار در گروه کنترل و آزمایش استفاده کنم؟ و مشاوره اضافه نیز عالی خواهد بود. جدید به آمار، بنابراین هر گونه کمک قدردانی می شود.
چه آزمون های آماری برای این طرح موثر خواهد بود؟
57865
از آمار ریاضی بیکل و داکسوم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pdDbe.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ wCZNu.png) من تعجب کردم که $\Theta_0$ ابعاد کوچکتری نسبت به $\Theta = \Theta_0 \cup چیست؟ \Theta_1$ یعنی؟ توجه: در متن اصلی، $\theta_0$ یک اشتباه تایپی است و باید $\Theta_0$ باشد. چرا وقتی $p(x، \theta)$ در $\theta$ ممتد است و $\Theta_0$ ابعاد کوچکتری دارد که $\Theta = \Theta_0 \cup \Theta_1$، سپس $L(x)= \ لامبدا(x)$؟ با تشکر و احترام!
دو شکل آمار آزمون در آزمون های نسبت احتمال
49113
من از تابع matlab corr برای شناسایی همبستگی 236 نمونه استفاده کردم. همبستگی پیرسون انتخاب شده و خروجی مقدار r و p را برمی گرداند. دو مجموعه از نمونه ها مقدار r و p متفاوتی را برگرداندند. آیا می توانم بدانم چگونه اهمیت همبستگی را با نتایج زیر تفسیر کنم؟ (الف) داده‌ها همبستگی منفی قوی دارند و از آنجایی که p-value بسیار کمتر از 0.05 است (p<0.05) r = -0.9383 p = 6.7415e-110 معنی‌دار است (ب) داده‌ها همبستگی مثبت ضعیفی دارند، و به عنوان مقدار p> 0.05 ناچیز است. r = 0.06800 p = 0.2981 درست است؟
تفسیر اهمیت p-value از همبستگی پیرسون
99695
من در حال بحث در مورد چگونگی تغییر رشد یک تجارت در یک دوره زمانی با یک همکار هستم. مسئله این است که من می خواهم تأثیر سرمایه گذاری تجاری را فراتر از تعمیر و نگهداری تعمیم دهم. مثال یک هتل زنجیره ای با n هتل در سال اول است. در سال دوم، هتل‌های $n + x - y$ دارند، که $x$ افتتاحیه‌های جدید هستند و $y$ فروخته شده یا هتل‌های بسته شده در سال مرجع هستند. برای مقایسه این دو سال مانند مشابه، من وسوسه می‌شوم که فقط $n - y$ را گزارش کنم، اما این به نظر من چندان منطقی نیست زیرا تأثیراتی مانند درآمد بیشتر هتل‌های جدید و آدم‌خواری برخی از هتل‌های قدیمی و غیره را در نظر نمی‌گیرد. آیا روش معمولی وجود دارد که چگونه این اثرات را کاهش می دهند؟
گزارش تغییر زمانی که خط مبنا متفاوت است
10557
names(mydat)[c(name)]<-c(newname) از این رو می دانم که نام ستون/متغیر name قاب داده mydat با newname جایگزین شده است. سوال من این است که اگر بخواهم این کار را با یک حلقه انجام دهم تا چیزهایی مانند: newname1 newname2 newname3 newname4 و غیره داشته باشم، چگونه این کار را انجام دهم؟ این چیزی است که انجام داد و کار نکرد: for(i در 1:4){ names(mydat)[c(name)]<-c(newnamei) } آیا راهی برای کدگذاری این مورد وجود دارد؟ با تشکر فراوان از همه کسانی که می توانند کمک کنند. اووسو آیزاک
چگونه نام ستون ها را در قاب داده در R تغییر دهیم؟