_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
49987 | روش های درستنمایی دارای خواص مطلوب بسیاری هستند. متأسفانه، ماکزیمم محلی در نمونه های محدود یکی از آنها نیست. این واقعیت که یک ماکزیمم محلی نزدیک به مقدار پارامتر واقعی وجود دارد، اگر به ماکزیمم های محلی مختلف همگرا شود، راحت نیست. من به دنبال آثاری هستم که این مشکل را بررسی کنند، آن را نشان دهند و راه حل هایی ارائه دهند. | بیشینه ناهنجاری های محلی روش های احتمال |
97783 | من از بسته های Bernhard Pfaff {urca} و {vars} برای تجزیه و تحلیل 3 سری زمانی استفاده می کنم. هر یک I(1) است و با روابط هم انباشته $r =2$ هم ادغام شده است. دستور _vec2var_ () باید از شی **ca.jo** (VECM من) به نمایش VAR آن در سطوح تبدیل شود. اما من خروجی _vec2var_ () و همچنین نحوه انجام تجزیه و تحلیل VAR را روی این خروجی نمیدانم (یعنی ارسال دادهها به تابع _VAR_ () برای دریافت یک شی _varest_). یعنی بعد از تبدیل از VECM به VAR به تابع _VAR_ () (که تخمین استاندارد VAR را انجام می دهد) چه چیزی ارسال کنم؟ آیا باید این باشد: var.form$A%*%var.form$datamat[ , c(6:11)] + var.form$deterministic%*%var.form$datamat[ , c(4:5)] که در آن ابعاد در کد بالا به این دلیل است که متغیرهای $K=3$، تاخیرهای $p=2$، یک جمله ثابت و یک روند قطعی دارم. اما فرمول از _vec2var_ () [که من کد R بالا را بر اساس آن قرار دادم] چیزی شبیه به \begin{equation} Y_t = A_1 Y_{t-1} + A_2 Y_{t-2} + \Phi D_t + \ است. mu + \epsilon_t \end{equation} یعنی یک VAR(2) پایه با روند زمانی قطعی و ثابت. اما این چیزی است که من در مورد آن گیج شده ام: شکل VAR بلندمدت VECM (معادله 4.8a، در Pfaff's _Analysis of Integrated and Co-Integrated Time Series with R. user!_، و جاهای دیگر _مثلا Lütkepohl معادله 7.1.1) این است: \شروع{معادله} \دلتا y_t = \Gamma_1 \cdot \Delta y_{t-1} + \Gamma_2 \cdot \Delta y_{t-2} + \Pi \cdot y_{t-2} + \Phi \cdot D_t + \mu + \epsilon_t \end {equation} برای دریافت نمایش سطح VAR مناسب، باید داده ها را از _vec2var_ () بگیرم و دستکاری کنم خودم؟ (یعنی سری تفاوت را پیدا کنید و سپس در ماتریس همجمعی مناسب ضرب کنید)؟ اگر اینطور است، **کدام** [در کد R لطفاً!] ماتریس های ضریب باید کدام بردارها را ضرب کنند؟ من احساس میکنم ارتباطی با نظریه و فرمالیسم ریاضی و این بستههای R قطع شده است... اما به احتمال زیاد چیزی بسیار اساسی را از دست دادهام. در اینجا کد اصلی R تنظیم شده است: library(urca) library(vars) vecm <- ca.jo(mydata, ecdet = trend, type = trace, spec = longrun) var.form <- vec2var( vecm، r= 2) # دادههای خروجی که دریافت میکنم از names(var.form) قابل مشاهده است، اما بخشهای کلیدی عبارتند از: var.form$y # داده اصلی من var.form$datamat # original داده ها با سه متغیر (شروع از t = 2)، عبارت ثابت، ترم روند و سپس شش ستون با دو سطح تاخیر در t=1 و t=0 سازماندهی شده اند. # ضرایب برای رگرسیون ها در متغیرهای درون زا (A) و مؤلفه های قطعی عبارتند از: var.form$A # ضرایب متغیر با تأخیر (فقط سطوح، من فکر می کنم) var.form$deterministic # ضرایب روند ثابت و زمانی | آشنایی با تبدیل vec2var در R |
82698 | من یک مطالعه شبیهسازی را برای تعیین میزان خطای نوع یک آمار انجام دادهام. طراحی شبیهسازی من شامل عوامل سهگانه بهعنوان حجم نمونه (4 سطح)، طول آزمون یا تعداد آیتمها (3 سطح) و برآوردگر (3 سطح) است. این آمار برای اندازهگیری تناسب فرد با دادههای آزمون در موقعیت آزمون آموزشی ایجاد شده است. من آنالیز را در هر سلول 100 بار تکرار کردهام (یعنی طرح کاملاً تلاقی شده است). اکنون، من نتایج و نرخ خطای نوع I را از 0.005 تا 0.105 (یعنی در کل تجزیه و تحلیل) دارم. من می خواهم با استفاده از چیزی شبیه به ANOVA تجزیه و تحلیل کنم که چگونه عوامل بر میزان خطای نوع I تأثیر می گذارد. من رگرسیون بتا را در R با استفاده از بسته «betareg» امتحان کردم، اما این پیام خطا را دریافت کردم: > متغیر وابسته نامعتبر، همه مشاهدات باید در (0، 1) باشند. | تجزیه و تحلیل میزان خطای نوع I در یک مطالعه شبیهسازی با استفاده از روشهای مشابه ANOVA |
2499 | چندین کاربرد متمایز وجود دارد: تخمین تراکم هسته، ترفند کرنل هموارسازی هسته لطفاً به زبان خودتان، به زبان انگلیسی ساده، معنی هسته در آنها را توضیح دهید. | به زبان انگلیسی ساده توضیح دهید که هسته چیست |
2328 | نسبت تعداد مشاهدات و تعداد متغیرها چقدر باید باشد؟ چگونه می توان اضافه برازش را در مدل شبکه عصبی تشخیص داد و راه های جلوگیری از اضافه برازش چیست؟ اگر بخواهم طبقه بندی را با شبکه عصبی انجام دهم، آیا کلاس ها باید فرکانس یکسانی داشته باشند؟ لطفا به من کمک کنید | چگونه می توان مدل سازی شبکه عصبی را به طور موثر انجام داد؟ |
56803 | من سعی می کنم بین مقیاس لیکرت 4 سطحی با 11 گویه و مقیاس دوقطبی حال-نه حال از همان 11 گویه همبستگی انجام دهم. آیا می توانم این کار را انجام دهم؟ | آیا می توانم بین مقیاس لیکرت و مقیاس دوگانه با فهرست یکسان موارد همبستگی انجام دهم |
81522 | به طور خلاصه: ماتریس های سردرگمی داده شده (TP/TN/FP/FN) از 8 اجرا بر روی داده های واقعی و x اجرا بر روی داده های شبیه سازی شده، نشان می دهد که نتایج حاصل از داده های شبیه سازی شده مشابه با داده های واقعی رفتار می کند. جزئیات بیشتر: من روی پروژه مرتب سازی/طبقه بندی سنگ معدنی برای تحقیقاتم (در علوم کامپیوتر) کار می کنم. من داده ها را از حسگرها می گیرم و با استفاده از الگوریتمی که توسعه داده ام، سنگ معدن ها را به 2 دسته طبقه بندی می کنم. در نهایت این برای من تعداد TP/TN/FP/FN برای هر اجرا باقی میگذارد (من دادههای 8 اجرا را جمعآوری کردهام). من همچنین یک شبیهساز ساختهام که هدف آن ایجاد دادههایی شبیه به سنگ معدنهای واقعی است که از روی حسگرهای واقعی عبور میکنند. شبیهسازی بسیار تقریبی است، و دادههای موجود در تولیدات من قبلاً میدانم تفاوتهایی با دادههای واقعی دارند. چیزی که میخواهم بیان کنم این است که نتایج (طبقهبندیهای TP/TN/FP/FN) از اجرای الگوریتم روی دادههای واقعی با اجرای همان الگوریتم روی دادههای شبیهسازی شده قابل مقایسه است. یعنی رفتار الگوریتم من هم روی داده های واقعی و هم روی داده های شبیه سازی شده یکسان است. به عنوان مثال، اگر الگوریتم من روی داده های شبیه سازی شده خوب عمل کند، می خواهم با اطمینان خاطر بگویم که روی داده های واقعی نیز عملکرد خوبی خواهد داشت. من به دنبال یک آزمون آماری برای حمایت از این جمله هستم. توجه: من میتوانم به اندازه نیاز از شبیهسازی داده جمعآوری کنم، اما به آزمایشهای دنیای واقعی محدود شدهام (ترجیح میدهم بیش از ۸ موردی که قبلاً انجام دادهام انجام ندهم). هیچ ایده ای در مورد اینکه از چه آزمون های آماری می توانم استفاده کنم؟ من سابقه ای در زمینه آمار ندارم، بنابراین هر گونه پیشنهاد - حتی پیشنهادهای بی اهمیت - قابل قدردانی است. | آزمون های آماری برای مقایسه رفتار شبیه سازی با رفتار دنیای واقعی |
52385 | بگویید دو متغیر وجود دارد. متغیر A وزن $\beta$ بیشتری نسبت به متغیر B دارد، اما متغیر B دارای آماره t بالاتری نسبت به متغیر A است. آیا هر یک از این اندازهگیریها، $\beta$ استاندارد یا t-value، میتوانند قدرت پیشبینی بهتری نسبت به دیگری ارائه دهند؟ آیا t-value و $\beta$ باید با هم در نظر گرفته شوند یا خیر؟ | آیا وزن بتا بزرگتر از آماره t بالا پیش بینی کننده بهتری است؟ |
19540 | فرض کنید یک طبقهبندی کننده $C^n$ دارید که به طور پیوسته یک جریان از برچسبهای طبقهبندی $K^n_i$ و مهرهای زمانی مربوطه $T^n_i$ را خروجی میدهد. همچنین، ما احتمال قبلی $P(K^n) \forall n$ را می دانیم. حال، فرض کنید چندین طبقهبندیکننده داریم که برچسبهای طبقهبندی را از منابع مختلف داده دریافت میکنند، اما همه تلاش میکنند یک شی را تشخیص دهند. چگونه می توانم اطلاعات این جریان ها را مطابقت دهم؟ من می توانم مجموعه ای از $k$ مشاهدات را از همه طبقه بندی کننده ها ({$K^n_i,T^n_i$} $\forall n$ و $i\in [1,k]$) ذخیره کنم و فرض کنم که مشاهدات با یکدیگر مطابقت دارند. بر اساس فاصله بین مهرهای زمانی آنها. به عنوان مثال اگر 2 طبقهبندی کننده داشته باشیم و $1\le a,b \le k$, {$K^1_a,T^1_a$}, {$K^2_b,T^2_b$} مطابقت داشته باشند اگر $|T^1_a-T^ 2_b|<\epsilon$. آیا راه هوشمندانه تری برای این کار وجود دارد؟ | تطبیق جریان داده ناهمزمان |
43669 | از هر یک از شما که بتواند در این چالش به من کمک کند بسیار سپاسگزارم. من قصد دارم مشکل را به ترتیب متوالی بیان کنم تا روشن شود: 1. من $n$ متغیرهای تصادفی معمولی توزیع شده دارم. 2. من داده های آماری برای هر متغیر تصادفی دارم (بنابراین، میانگین و واریانس آنها). 3. من داده های تاریخی برای هر یک از متغیرهای تصادفی دارم و از روی این داده ها می توانم همبستگی بین متغیرهای تصادفی را محاسبه کنم. حال، با فرض اینکه ارزش یکی از متغیرها را بدانم، چگونه می توانم مقادیر متغیرهای دیگر را انتخاب کنم، به طوری که تمام مقادیر $n$ در بردار حاصل مطابق با هم مرتبط باشند. اگر این امکان وجود دارد، چگونه می توانم این را به موقعیتی که دو یا چند مقدار شناخته شده دارم تعمیم دهم؟ به عنوان مثال، من دو یا چند مقدار را از متغیرهای $n$ می شناسم (آنها محدودیت همبستگی را برآورده می کنند)، و می خواهم بقیه را انتخاب کنم تا آنها همبستگی و توابع توزیع مربوطه خود را برآورده کنند. من در آمار به خوبی مسلط نیستم، بنابراین از توضیحاتی که تا حد امکان قابل درک باشد قدردانی می کنم. | تولید نمونه هایی از متغیرهای همبسته با توزیع نرمال با برخی از متغیرهای از پیش انتخاب شده |
28936 | من یک مدل خطی از یک متغیر وابسته، $y$، با دو متغیر پیش بینی، سال و سایت، و تعامل آنها، با سال عددی و سایت مقوله ای دارم. اثر اصلی سال تفاوت معنیداری با صفر ندارد، با مقدار تخمینی 0.02312 برای $y$ در شیب سال. برخی از سال، تعاملات سایت قابل توجه است. خلاصه مدل خطی در R برآوردهایی را برای شرایط تعامل به عنوان انحراف از اثر اصلی سال ارائه می دهد. برای مثال، اگر تخمین سال به سایت 1 به صورت 416/0 گزارش شود و قابل توجه باشد، برای محاسبه شیب سالیانه در سایت 1، باید 0 + 0.416 یا 0.02312 + 0.416 را محاسبه کنم؟ | چگونه می توان برآوردهای تعامل قابل توجه را زمانی که اثر اصلی معنی دار نیست محاسبه کرد؟ |
13632 | من در حال مناظره کوچکی با یکی از همکارانم در مورد آزمایش و تفسیر فرضیه هستم. بینش، پیوند، یا ویرایشهای شما برای اینکه ما را در مسیر درست قرار دهید واقعاً قدردانی میکنیم! من به شما نمی گویم که در کدام طرف بحث هستم، اما وضعیت اینجاست: _**وضعیت 1_** موضوعات به 4 گروه تقسیم می شوند، در هر گروه N=100. هر یک از شرکتکنندگان در معرض استرسهای متفاوتی قرار میگیرند که بر اساس انتساب گروهی تعیین میشود، سپس خون آنها برای سطوح برخی از پروتئین استرس مورد آزمایش قرار میگیرد. * شرکت کنندگان گروه 1 به آرامی در یک اتاق می نشینند: سطح پروتئین 100 +/- 4 (SEM) * شرکت کنندگان گروه 2 که برای دویدن نیم مایل ساخته شده اند: پروتئین 140 +/- 4 * شرکت کنندگان گروه 3 به صورت شفاهی مورد سرزنش قرار گرفته اند: پروتئین 200 +/ - 4 * شرکت کنندگان در گروه 4 توسط بابکت خراشیده شدند: پروتئین 250 +/-4 است برای استدلال، بیایید بگوییم که در آزمایش قبلی ما استرس را به گونه ای تعریف کنید که درمان 4 دقیقاً 4 برابر درمان 1 استرس زا باشد (و به همین ترتیب برای 3 و 2 - آنها 3 برابر و 2 برابر درمان 1 استرس زا هستند). و ما در حال ارزیابی صحت این ادعا هستیم: ** _سطح استرس-پروتئین با درجه یک عامل استرس زای اعمال شده همبستگی دارد. ماهیت گسسته تکالیف گروهی را نادیده بگیرید و به سادگی تمام تنشها و پاسخهای پروتئینی را به شکل پراکنده ترسیم کنید (x: تکلیف فرد 1، 2، 3 یا 4؛ y: پاسخ پروتئین فرد). با میانگین های گروهی و SEM داده شده و با N=400 امتیاز در نمودار پراکندگی، رگرسیون به وضوح معنی دار خواهد بود. در نظر گرفتن هویت گروه به عنوان یک متغیر پیوسته، تنها آزمون فرضیه را قویتر میکند - دقیقتر از ANOVA. بنابراین لازم نیست نگران این باشیم که این روش ساختار اضافی را به داده ها اضافه کند. (2) روش فوق خوب است، اما N باید به عنوان 4 در نظر گرفته شود، نه به عنوان 400. زیرا نتایج در گروه ممکن است به روش هایی که ما اندازه گیری نکرده ایم همبستگی داشته باشد (استرس های مختلف ممکن است پروتئین استرس را به روش های غیر مرتبط با استرس افزایش دهند. برای مثال، پروتئین استرس ممکن است یک «پروتئین تمرینی» باشد)، ما نمیتوانیم N بزرگ درون گروهی (یا SEM) را به تفسیر همبستگی خود منتقل کنیم. با N=4، همبستگی معیار اهمیت ما را برآورده نمی کند. *** موقعیت 2 *** این اصلاح وضعیت 1 است که سعی می کند (استدلال 2) را کمی بیشتر برجسته کند. اندی دبلیو، پیتر و وبر به موقعیت اول پاسخ می دادند. با تشکر از آنها برای نظرات خود! پاسخ ها واقعاً به من کمک کرد تا فکرم را در این مورد رسمی کنم. بنابراین، اگر هنوز به این سؤال علاقه دارید، لطفاً تصور کنید که مطالعه فوق فقط با گروه 1 و گروه 2 اجرا شده است. و فرض کنید که برای آزمایشکنندگان ناشناخته است، اما برای ما به عنوان افرادی که این سؤال فرضی را مطرح میکنند، شناخته میشوند، «پروتئین استرس» تنها بر اساس تصادف تاریخی نام خود را به دست آورده است. حقیقت اصلی این است که این پروتئین تنها با دویدن در مسیر تنظیم می شود. در آزمایش ما، استرسزای دویدن در مسیر دو برابر استرسزاتر از نشستن آرام در یک اتاق است. طراحی یک مطالعه با بسیاری از عوامل استرس زا، برخی شامل دویدن در مسیر و برخی دیگر نه، ارتباط بین استرس ایجاد شده و پروتئین استرس تولید شده را از بین می برد، اما این مطالعات اجرا نشدند. _اگر_ منطق پاسخ های پیتر و وبر را بتوان در موقعیت 2 اعمال کرد، به نظر می رسد که ما این ادعا را می پذیریم **_بیان استرس-پروتئین به طور قابل توجهی با درجه استرس اعمال شده مرتبط است_**. گروه 1 و گروه 2 همچنان هر کدام N=100 دارند. در حالت پراکندگی، پارامتر بتا همچنان با N=200 بسیار مهم است. و در حالت رگرسیون گروه گسسته، B1 و B2 به طور قابل توجهی متفاوت هستند. نکته جذاب در مورد (استدلال 2) این است که به منظور ارزیابی ادعای مورد بحث، میتوانیم یک نمودار پراکنده جدید با N=(تعداد گروهها) بسازیم. در محور x درجه تنشی است که به هر شرایط نسبت میدهیم، و روی y مقدار پروتئین تولید شده است، و فواصل اطمینان حول Bt(i) در مدل دوم whuber نشاندهنده اطمینان در قرار دادن آن نقاط در y است. محور. از آنجایی که SEM ها کوچک هستند، اطمینان ما بالا است، اما ما هنوز تعداد کمی از سطوح استرس اعمال شده را مقایسه می کنیم، و مجبوریم به جای آن ادعای ضعیف تری داشته باشیم: **_سطوح پروتئین استرس به طور متفاوتی توسط سطوح مختلف تعدیل می شود. گروههای درمانی._** این ادعای ضعیفتر، رابطه یکنواختی را ندارد که به نوعی در ادعای واقعی که ما در حال ارزیابی آن هستیم، مستتر است. من فکر میکنم با اطمینان میتوان گفت که زمانی که استرس تنها در ۲ سطح اعمال میشود، نمیتوان یک رابطه یکنواخت (خیلی کمتر، خطی) قابل توجه بین استرس و پاسخ پروتئین ایجاد کرد. با 4 سطح، یک رابطه یکنواخت ممکن است آشکار باشد، اما نه با مقدار p پایین. با 100 سطح (و مقداری مراقبت برای تنوع بخشیدن به انواع استرس، هنوز **با فرض اینکه میتوانیم استرس را کاملاً کمیت کنیم)، اطمینان واقعی وجود دارد که استرس IV واقعاً | چگونه اندازههای نمونه برای تفاسیری تعیین میشوند که بین آنوا و همبستگی «حصار میپیچد»؟ |
46321 | من در رشته روانشناسی هستم و سعی می کنم کاربرد مدل سازی ترکیبی را برای تجزیه و تحلیل داده های اندازه گیری های مکرر خود در یک آزمایش فاکتوریل کشف کنم. دلیل اصلی استفاده از مدلهای مختلط این است که میخواهم از روش معمول میانگینگیری دادههای جمعآوریشده در شرایط آزمایشی مشابه اجتناب کنم. درک من این است که معمولاً برای ANOVA با اندازه گیری های مکرر لازم است که فقط یک مشاهده در هر شرایط برای هر موضوع وجود داشته باشد. اگر چندین تکرار از یک شرط برای یک موضوع داشته باشید چه؟ برای دقیق تر بودن، من دو شرط دارم یک عامل بین آزمودنی A (2 سطح) و یک فاکتور درون آزمودنی B (3 سطح). 4 تکرار برای هر سطح B برای مجموع 12 کارآزمایی سفارشی تصادفی شده برای هر آزمودنی وجود دارد. معمولاً من به سادگی از بین این 4 عدد میانگین میگیرم تا تخمینی برای عملکرد سوژه در شرایط به دست بیاورم و سپس اجرا کنم، اما به نظر میرسد که از این طریق اطلاعات ارزشمندی در مورد تنوع ارائه میدهم. نحوه برخورد با چنین داده هایی با استفاده از مدل سازی ترکیبی در R (من از تابع lmer استفاده کرده ام). شاید گنجاندن شماره آزمایشی به عنوان متغیر دیگری کار کند؟ من سعی کردم آزمایش # را به عنوان یک عامل تصادفی همراه با موضوع وارد کنم، اما واریانس تخمینی آن در مقایسه با خطا و موضوع بسیار کم است. | چگونه با اندازه گیری های مکرر در شرایط مشابه آزمایش فاکتوریل برخورد کنیم؟ |
56805 | > یک شهر خاص دارای دو شرکت تاکسیرانی است، شرکت تاکسی سبز (ماشین ها به رنگ سبز > سبز) و شرکت تاکسی آبی (ماشین های آبی رنگ). 10 درصد تاکسی ها سبز > و 90 درصد تاکسی ها آبی هستند. در یک غروب تاریک تصادفی رخ داد و شاهد ادعا کرد که یک تاکسی سبز درگیر بوده است. در آزمایشات بعدی، آنها دریافتند که در شرایط آن عصر، 80 درصد احتمال تشخیص صحیح رنگ کابین (بدون توجه به رنگ) و 20 درصد احتمال خطا در تشخیص رنگ وجود دارد. (فرض کنید هیچ یک از شرکت ها بیشتر از دیگری مستعد حادثه نیستند) > > a. قبل از شنیدن شهادت این شاهد، چه قدر احتمال دارد که شاهد ادعا کند که یک کابین آبی در آن شب تصادف کرده است؟ > > ب. اگر اکنون شهادت شاهدی را داشته باشیم که می گوید کابین > گرین بوده است، احتمال اینکه واقعاً گرین بوده چقدر است؟ من از درخت احتمال برای حل این سوال استفاده کردم اما ظاهراً در واقع مربوط به قضیه بیز بود. کاری که من (a) انجام دادم این بود که از درخت احتمال استفاده کردم و $P(Witness~claims~Blue) = (0.9)(0.8)+(0.1)(0.2)=0.74$ دریافت کردم. برای (ب)، $P(در واقع ~سبز) = (0.1)(0.8)+(0.1)(0.2)=0.10$. با این حال، پاسخ برای (b) $\frac{.08}{.26}$ بود و من قرار بود از قضیه بیز استفاده کنم. لطفاً کسی توضیح دهد که چرا باید از Bayes به جای مجموع احتمالات استفاده شود؟ | با استفاده از قضیه بیز؟ |
90835 | من برخی از داده های زیست محیطی دارم که در حال بررسی هستم (نمونه هایی از آب یک دریاچه). پس از توالی یابی نسل بعدی و مقداری محاسبات، تعدادی OTU (واحد طبقه بندی عملیاتی) دریافت می کنم که می گوید کدام باکتری در کدام نمونه محیطی قرار دارد (150 نمونه). ابتدا برای OTU هایی که به طور کلی فراوانی بالایی دارند و حداقل در پنج نمونه وجود دارند فیلتر کردم. سپس من ضرایب همبستگی اسپیرمن را بین تمام OTU ها محاسبه کردم. با ضرایب مثبت، من خوشه بندی مارکوف را انجام دادم که نتایج جالبی به من داد. اکنون سؤال این است که چگونه از همبستگی های منفی (در ترکیب با همبستگی های مثبت یا به تنهایی) استفاده کنیم. من می خواهم در این سوال تحقیق کنم که کدام باکتری اجتناب قوی دارد (از رقابت، طرد شدن توسط محیط، شکار یا هر چیز دیگری). چه روشی را پیشنهاد می کنید؟ روشهای کلاسیک خوشهبندی همیشه از ایده شباهت یا فاصله استفاده میکنند، اما این در اینجا معنا ندارد. برای هر نمونه اطلاعات اضافی مانند دما، عمق، تاریخ، اکسیژن و بسیاری موارد دیگر دارم. | neg را بررسی کنید. روابط همبسته |
19542 | من سعی می کنم مقدار خام AIC را که در نتیجه تابع خلاصه می توانم ببینم، بدست بیاورم. x = forecast(ets(ts(داده، شروع=2000، فرکانس=12))، h=6) خلاصه (x) این مقدار AIC را به من نشان می دهد: AIC AICc BIC 7.995437 27.995437 7.779078 وقتی از AIC استفاده می کنم با این خطا مواجه می شوم > aic <- خطای AIC(x) در UseMethod(logLik): خیر روش قابل اجرا برای 'logLik' اعمال شده به یک شی از کلاس forecast آیا پیشنهادی دارید؟ با تشکر | چگونه می توانم مقدار AIC را از یک شی پیش بینی در R دریافت کنم؟ |
17391 | چگونه می خواهید i.i.d را برای افراد غیر فنی توضیح دهید؟ | i.i.d چیست؟ متغیرهای تصادفی؟ |
90831 | من از GLMM و LMM برای یافتن فاکتورهای مهم برای داده هایم استفاده می کنم. و آیا می توانم بپرسم آیا نتایج حاصل از این دو مدل از قبل تضادهای برنامه ریزی شده ای را به من می دهد؟ یا باید آنها را جداگانه اجرا کنم؟ | آیا GLMM یا LMM از قبل تضادهای برنامه ریزی شده را به ما می دهد؟ |
13630 | من می خواهم با توجه به چگالی $$ f(a) \propto \frac{c^a d^{a-1}}{\Gamma(a)} 1_{(1,\infty)}(a) $$ نمونه برداری کنم که در آن $c$ و $d$ کاملا مثبت هستند. (انگیزه: زمانی که پارامتر شکل چگالی گاما دارای یک قبل یکنواخت است، این می تواند برای نمونه برداری گیبس مفید باشد.) آیا کسی می داند چگونه از این چگالی به راحتی نمونه برداری شود؟ شاید استاندارد است و فقط چیزی است که من در مورد آن نمی دانم؟ من می توانم به یک الگوریتم نمونه برداری احمقانه فکر کنم که کم و بیش کار می کند (حالت $a^*$ از $f$ را پیدا کنید، $(a,u)$ را از یونیفرم در یک جعبه بزرگ $[0,10a^* نمونه بگیرید. ]\ برابر [0,f(a^*)]$ و اگر $u>f(a)$ را رد کنید، اما (i) اصلا کارآمد نیست و (ii) $f(a^*)$ خواهد بود باشد بزرگ برای یک کامپیوتر که به راحتی با $c$ و $d$ حتی نسبتاً بزرگ کار می کند. (توجه داشته باشید که حالت برای $c$ و $d$ بزرگ تقریباً $a=cd$ است.) پیشاپیش از هرگونه کمکی متشکریم! | چگونه از $c^a d^{a-1} / \Gamma(a)$ نمونه برداری کنیم؟ |
2326 | من به دنبال تنظیم آزمایشی در مورد یک سرگرمی خودم هستم، اساساً پارامترهای مختلف قبل و پس از را اندازهگیری میکنم و ببینم کدام یک، در صورت وجود، مطمئنترین پیشبینی پارامتر نهایی را ارائه میدهد، یعنی آیا آنها یک پارامتر خطی دارند. رابطه، و غیره. هدف صرفه جویی در زمان و تلاش است که بعداً بر اساس پارامترهایی که تأثیر واقعی کمی بر نتایج نهایی دارند، مرتبسازی نمیشوند و اینکه آیا برخی از روش های طبقه بندی خسته کننده تر در واقع به اندازه فکر مفید هستند. این آزمایش بسط آزمایشی است که چند سال پیش برای مقاله آخرم در کلاس آمارم انجام دادم: بررسی رابطه بین وزن و حجم جعبه در مقابل سرعت دهانه برای جعبه های تفنگ مرکز آتش که در رقابت های هدف مدرن استفاده می شود (که در آن من هستم. نسبتا فعال). برای آن مقاله، من باید مقدار زیادی از زمان را صرف نشان دادن روشهای مختلفی میکردم که واقعاً به چیزی که میخواستم بدانم مربوط نمیشدند، اما به هر حال باید پوشش میدادم تا «A» به دست بیاورم؛) برای این دور زدن.. من به دنبال برداشتن صد قطعه برنجی از یک جعبه، یک لات هستم. این قطعات «غیر مصرفی» هستند، زیرا میتوانند چندین بار مورد استفاده مجدد و بارگیری مجدد قرار بگیرند. هر چیز دیگری - گلوله، پودر، پرایمر - به لوله شلیک می شود و قابل استفاده مجدد/اندازه گیری مجدد نیست. به طور خاص، کیس ها می توانند و تحت فشار شدید (50-70kpsi) به ابعاد داخلی محفظه آتش شکل می گیرند می شوند. در آزمایش اولیهام، یک همبستگی قابل توجه، اما نه به ویژه قوی، بین وزن اولیه کیس و سرعت پوزه اولین شلیک پیدا کردم. از طرف دیگر، مورد _حجم_، که باید به شدت با MV مرتبط باشد... از نظر تئوری چنین نبود، زیرا موارد «بکر» لزوماً با ابعاد داخلی محفظه و مقدار معینی از انرژی تولید شده مطابقت ندارند. نه تنها در گرما، بلکه برای کوبیدن برنج به دیوار کیس در حین شلیک صرف می شود. بنابراین دوباره، من به دنبال برداشتن 100 قطعه برنج، وزن کردن مستقیم آنها از جعبه، اندازه گیری های مختلف (ضخامت دیواره داخل بدنه در نزدیکی کیس، ضخامت گردن کیس در نزدیکی دهان، وزن، حجم و غیره) در آنها هستم. حالت دست نخورده بکر، سپس انجام چندین مرحله آماده سازی معمولی کیس (ترمیم به طول، پخ کردن/برداشتن دهان، سوراخ کردن سوراخ فلاش، پرایمر یکنواخت جیب) و اندازه گیری ها را تکرار کنید. سپس گلوله ها را تا حد امکان به طور یکنواخت بارگیری و شلیک کنید - گلوله هایی که برای حداکثر قوام مرتب شده اند، پودر وزن شده بر روی یک مقیاس آزمایشگاهی تحلیلی با قابلیت میلی گرم و غیره در حالی که سرعت شلیک را کنترل می کنید تا افزایش دما در امتداد لوله تنظیم شود و سرعت پوزه اندازه گیری شود. از طریق یک کرونوگراف تقریبا برد 15 فوت پایین. سپس قصد دارم کاورهای داخل و خارج را به طور کامل تمیز کنم تا هر گونه باقیمانده کربن یا پودر را از بین ببرم و اندازهگیریها را تکرار کنم و دوباره بارگیری و شلیک کنم و سپس برای آخرین بار تمیز و اندازهگیری کنم. بخشی از چیزی که میخواهم ببینم این است که چگونه توزیع برخی از اندازهگیریها با آماده شدن کیسها تغییر میکند، سپس دوباره زمانی که شلیک میشوند و به محفظه تبدیل میشوند. بعد از آن... میخواهم ببینم واقعاً چقدر تفاوت بین قابهای «باکره» و کیسهای آتشفرمشده از نظر سرعت پوزه وجود دارد و در نهایت... از تمام مراحل اندازهگیری خستهکنندهای که در بالا ذکر شد، کدام یک واقعاً نشان میدهند. نشانه معقولی از MV ثابت، بنابراین من می توانم با موفقیت قطعات مشکوک برنج را در طول مرتب سازی اولیه جدا کنم، نه اینکه در هنگام استفاده از آنها روی هدف در مسابقه امتیاز از دست بدهم. تنها بزرگترین مشکل در ذهن من، حداقل در ظاهر، کرنوگراف است. دریافت هر چیزی که به اعداد معتبر نزدیک شود برای دقت یا درصد خطا از فروشندگان چیزی بین دشوار و غیرممکن است. با توجه به ماهیت دستگاه، آزمایش آن در سطح مصرف کننده بسیار دشوار است - هر دور از طریق آن ممکن است (یا ممکن است) کمی متفاوت باشد، بنابراین تعیین اینکه چقدر از تغییرات نمایش داده شده روی صفحه نمایش آن واقعا مهمات است و چگونه است. تغییرپذیری خود این ساز بسیار زیاد است... حداقل بگویم که من سرم را می خارم. در مورد اینکه چرا من قبلاً در مورد جزئیات آزمایش مبهم بودم... خوب، گاهی اوقات افراد به محض اینکه متوجه می شوند چیزی شامل اسلحه است، کمی عجیب می شوند و صرف نظر از اینکه چقدر منطقی باشد، آن را با یک تیر 10 فوتی لمس نمی کنند. باشد. ممنون، مونت | راه اندازی آزمایش برای تجزیه و تحلیل آماری |
52387 | **سوال** ماتریس انتقال زیر را در نظر بگیرید: P= 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 0 1/4 1/4 0 1/2 0 0 1 0 0 0 0 0 0 0 1/3 0 0 0 2/3 **a)** کدام حالات گذرا هستند؟ **ب)** کدام حالت ها عود کننده هستند؟ **ج)** همه مجموعه های بسته حالت ها را شناسایی کنید. **د)** آیا این زنجیره ارگودیک است؟ دوستان عزیز، من فکر می کنم حالت ها به شرح زیر است، {1،5} {0،2،4} تکراری چون با یکدیگر ارتباط برقرار می کنند {3} گذرا و از آنجایی که حالت 3 با سایر حالت ها ارتباط برقرار نمی کند، یک Ergodic Mc آیا درست می گویم؟ ممنونم.. | طبقه بندی ایالت ها در زنجیره مارکوف |
46325 | من یک سری زمانی از نسبت ها دارم، $x_t = \frac{a_t}{b_t}$ یعنی $x_1 = 2 / 30، x_2 = 1/10$، ... می خواهم $x_t$ را صاف کنم. آیا باید تابع هموارسازی را مستقیماً روی $x_t$ اعمال کنم، یا باید $a_t$ و $b_t$ را به صورت جداگانه صاف کنم، سپس نسبت ها را دوباره محاسبه کنم؟ دل من به من می گوید که باید سری های زمانی فردی را صاف کنید و سپس دوباره محاسبه کنید. فرض کنید هر یک از سه سری زمانی نویز دارند (به همین دلیل است که ما علاقه مند به هموارسازی برای شروع هستیم)، پس شاید $a_t = f(t) + \epsilon_a$، $b_t = g(t) + \epsilon_b$. سپس نسبتهای $x_t = \frac{f(t) + \epsilon_a}{g(t) + \epsilon_b}$، که میتوان با گرفتن $\hat{x_t} = \frac{\hat{f(t) هموار شد )}}{\hat{g(t)}}$ | هموارسازی یک سری زمانی از نسبت ها |
65712 | من برخی از شاخصهای اعتبار خوشهبندی داخلی را در جاوا پیادهسازی کردهام: 1. Simplified Silhouette. 2. Calinski-Harabasz (VRC). 3. دیویس -بولدین. 4. شاخص دان. چگونه می توانم بررسی کنم که اجرای من درست است؟ من شاخص ها را روی معیارهای Iris، Wine، Ionosphere، Heart، Sonar، Zoo و Glass آزمایش کرده ام. من از الگوریتم K-Means با تعداد خوشه های مختلف از 2 تا 8 استفاده کردم. در مجموعه دادههای Zoo و Glass که تعداد واقعی خوشهها 7 است، تنها یکی از شاخصها در مورد k=7 بهترین امتیاز را کسب میکند. اگر ذکر این نکته مهم است: * نتایج K-Means (پیاده سازی Trickl-Cluster) با خروجی Weka (تست شده بر روی مجموعه داده عنبیه) یکسان است. * محاسبه مرکزها (میانگین خوشه ها) تقریباً با خروجی Weka یکسان است. * API مورد استفاده برای انجام محاسبات بر روی ماتریس ها Colt است (محاسبه هنجار، عملیات روی ماتریس ها، فاصله بین خوشه ها، مرکز...). چه اشکالی دارد؟ | بررسی خروجی پیادهسازی شاخصهای اعتبار خوشهبندی داخلی |
63922 | من در مورد تفاوت بین احتمال پوشش **اسمی** و **واقعی** سردرگم هستم. فرض کنید که ما در تلاش هستیم تا بخشی از جمعیت فعلی ایالات متحده را که به سرطان مبتلا شده اند، تخمین بزنیم. نمونهای را دریافت میکنیم (مثلاً 10000 نفر) و سپس این کسری ($f$) و یک فاصله اطمینان در اطراف آن $[a,b]$ را با $\alpha$ (سطح اطمینان) $=0.95$ تخمین میزنیم. در این مرحله، اگر من چیزها را به درستی متوجه شده باشم، احتمال پوشش اسمی $\alpha$ است، یعنی $0.95$. اما در مورد احتمال پوشش **واقعی** چطور؟ برای من، فقط یک مقدار واقعی $f$ وجود دارد، به عنوان مثال. مثلاً $5\%$، و منطقی نیست که در مورد احتمال _واقعی_ که $f$ در بازه $[a,b]$ باشد صحبت کنیم. یا در محدوده $[a,b]$ است یا نیست. این استدلال چه اشکالی دارد؟ و چگونه می توان احتمال پوشش واقعی را در عمل به دست آورد؟ | احتمال پوشش واقعی دقیقا چقدر است؟ |
82812 | ما در حال آماده کردن یک رویداد برای مشتریان خود هستیم و باید اعدادی را که باید برای این رویداد آماده کنیم بشمارم (فکر می کنم سوال من مربوط به آمار است و یک تکلیف نیست). ورودی ها: * ما 26 حرف ASCII (کدهای ASCII 65-90) داریم که مشتریان از بین آنها انتخاب می کنند. وقتی کسی نامه ای را انتخاب می کند، آن را پس نمی دهد. * ما 500 کارت بازی داریم (= 500 مشتری می توانند رقابت کنند) با سه جعبه خالی برای حروف. * در یک قرعه کشی، مشتری در هر قرعه کشی یک حرف دریافت می کند * برنده کسی است که سه حرف خاص داشته باشد، به عنوان مثال. الف، ل، س. سوال: در صورت داشتن قیمت برای 100 برنده، چند نامه باید تهیه کنیم؟ | استفاده از آمار برای رویداد مشتری |
11773 | در مقاله بیوانفورماتیک زیر، کمی سازی سازگاری محیطی مسیرهای متابولیک در متاژنومیکس، جیانولیس و همکاران. از دو ابزار برای تشخیص روابط چند متغیره بین ویژگیهای محیطی و ویژگیهای میکروبیومیک استفاده میکند: * تجزیه و تحلیل همبستگی متعارف منظم * تطبیق پارتیشن متمایز (DPM) این مقاله به چندین مقاله و کتاب آماری، از جمله کتابی از R. Wichern اشاره میکند، اما مشخص نیست که کدام یک از اینها مرجع DPM است. جستجوی Google برای تطبیق پارتیشن متمایز چندین مقاله کاربردی از جمله مقاله Gianolis را نشان می دهد، اما هیچ توضیح مستقیمی از روش وجود ندارد. از کجا می توانم اطلاعاتی در مورد تطبیق پارتیشن متمایز پیدا کنم؟ | تطبیق پارتیشن متمایز چیست؟ |
63923 | من از glmnet برای LASSO استفاده می کنم. مجموعه داده های من شامل چندین متغیر پیوسته و یک متغیر طبقه بندی شده است (چهار سطح دارد). من فکر کردم که آیا می توانم سه متغیر ساختگی را به عنوان متغیرهای پیوسته دیگر در نظر بگیرم. آیا باید از یک نوع رویکرد LASSO گروهی برای سه آدمک استفاده کنم؟ ببخشید اگر این سوال احمقانه است. | glmnet، متغیر دسته بندی، کمند گروهی؟ |
60299 | واگرایی Kullback-Leibler یک متریک برای مقایسه دو تابع چگالی احتمال است، اما چه متریکی برای مقایسه X$ و Y$ دو GP استفاده میشود؟ | چگونه دو فرآیند گاوسی را مقایسه می کنید؟ |
46327 | آیا دلایل خوبی برای ترجیح دادن پنجره آموزشی مدل کشویی به پنجره رو به رشد در پیش بینی سری های زمانی آنلاین (یا برعکس) وجود دارد؟ من به ویژه به سری های زمانی مالی اشاره می کنم. به طور شهودی فکر میکنم یک پنجره کشویی باید عملکرد بدتری داشته باشد - خارج از نمونه - زیرا پتانسیل بیشتری برای تطبیق بیش از حد ویژگیهای پنجره نمونه خاص دارد، اما برخی از نتایج تجربی که من دیدهام مخالف این هستند. همچنین، با توجه به اینکه یک پنجره کشویی توسط برخی ترجیح داده می شود، رویکرد شما برای تعیین طول نگاه به عقب (هیچ دلیل خوبی برای ترجیح یکی بر دیگری، جدای از اکتشافی خالص) چیست؟ اگرچه من مدلی را مشخص نکردم، یک مثال ممکن است ARIMA باشد. ویرایش: باید اضافه کنم که یک پست وبلاگ مرتبط توسط By وجود دارد. راب هیندمن، با چیزی که او آن را اعتبار متقاطع «سری های زمانی» نامید. در حالی که مفاهیم توصیف شده را پوشش می دهد، دلیل رسمی زیادی در مورد اینکه چرا ممکن است یک روش بر دیگری ترجیح داده شود، و همچنین هیچ ایده ای در مورد پارامتر بهینه پنجره نگاه به عقب ارائه نمی دهد. | سریهای زمانی پنجرههای بازبینی را پیشبینی میکنند - کشویی یا در حال رشد؟ |
13637 | اگر $X = \\{ x_1,\cdots x_n\\}$ مجموعهای از بردارهای ویژگی باشد، الگوریتم k-means سعی میکند تابع هدف $O = \sum_{i=1}^{k}\ را به حداقل برساند. sum_{x \in G_i}||x -\mu_i ||^2$ به منظور خوشهبندی بردارهای ویژگی $n$ در خوشههای $k$، یعنی $G_1 \cdots G_k$. در اینجا $\mu_i$ مرکز خوشه $G_i$ است. اکنون مجموعه بردارهای ویژگی را به عنوان یک ماتریس ویژگی $F_{m \times n}$ نشان میدهم، که $m$ بعد ویژگی و $n$ تعداد اشیا و مجموعه مرکزها به عنوان یک ماتریس Centroid $C_{ است. m \times k}$. چگونه می توانیم تابع هدف k-means بالا را بر حسب این نمادهای ماتریس (ماتریس مرکز ویژگی و خوشه) نشان دهیم؟ | چگونه یک تابع هدف k-means را به شکل ماتریس استخراج کنیم؟ |
43664 | من میخواهم از «lme4» برای جا دادن رگرسیون اثرات مختلط و «multcomp» برای محاسبه مقایسههای زوجی استفاده کنم. من یک مجموعه داده پیچیده با چندین پیشبینیکننده پیوسته و طبقهبندی دارم، اما سؤال من را میتوان با استفاده از مجموعه داده داخلی «ChickWeight» به عنوان مثال نشان داد: m <- lmer(وزن ~ زمان * رژیم غذایی + (1 | جوجه)، داده=وزن جوجه، REML=F) زمان پیوسته و رژیم غذایی طبقه بندی شده است (4 سطح) و در هر جیره جوجه های متعددی وجود دارد. همه جوجه ها تقریباً با وزن یکسان شروع به کار کردند، اما رژیم غذایی آنها (ممکن است) بر سرعت رشد آنها تأثیر بگذارد، بنابراین وقفه های «رژیم غذایی» باید (کم و بیش) یکسان باشد، اما شیب ها ممکن است متفاوت باشد. من میتوانم مقایسههای زوجی برای اثر رهگیری «رژیم غذایی» را به این صورت دریافت کنم: خلاصه (glht(m, linfct=mcp(رژیم غذایی = Tukey))) و در واقع تفاوت قابل توجهی ندارند، اما چگونه می توانم انجام دهم آزمایش مشابه برای اثر «زمان: رژیم غذایی»؟ فقط قرار دادن عبارت تعامل در mcp یک خطا ایجاد می کند: summary(glht(m, linfct=mcp('Time:Diet' = Tukey))) خطا در summary(glht(m, linfct = mcp('Time: Diet` = Tukey))): خطا در ارزیابی آرگومان 'object' در انتخاب روش برای تابع 'summary': خطا در mcp2matrix (model, linfct = linfct) : متغیر(های) 'Time: Diet' در 'linfct' مشخص شده است اما در 'model' یافت نمی شود! | مقایسههای چندگانه مدل مختلط برای تعامل بین پیشبینیکننده پیوسته و طبقهای |
65719 | من یک GEE را روی 'SPSS' و همچنین 'Stata' روی داده های انتخابی با ساختار زیر اجرا می کنم: هر آزمودنی 32 کارآزمایی را در 4 بلوک، 8 آزمایش در هر بلوک انجام داد، که از بین دو گزینه انتخاب کرد. چهار بلوک نشان دهنده دو عامل درون موضوعی هستند که با یکدیگر تلاقی دارند. آزمودنی ها به یکی از سه شرط بین موضوعی اختصاص داده می شوند. بنابراین، من یک طرح ترکیبی 3*2*2 دارم. DV تعداد دفعاتی است که گزینه 1 از بین 8 آزمایش انتخاب شده است. من از یک GEE با پیوند لاجیت دو جمله ای و میانگین حاشیه ای برای درصد انتخاب بر اساس شرایط استفاده کردم. همه چیز خوب است، اما من با یک سوال کوچک مواجه هستم که پاسخی برای آن ندارم و امیدوارم کسی بتواند کمک کند. **من باید این فرضیه را آزمایش کنم که سهم انتخاب گزینه 1 در یک شرایط خاص با شانس متفاوت است (50%).** مقایسه های زوجی فقط به من اجازه می دهد تفاوت بین شرایط و نه بین یک شرط و یک را آزمایش کنم. مقدار تعریف شده توسط کاربر کسی میتونه کمک کنه؟ | کنتراست تعریف شده توسط کاربر در معادلات برآورد تعمیم یافته |
52651 | من یک تازه کار در آمار ریاضی هستم و قبلاً هیچ نظریه گروهی را یاد نگرفته ام. یادداشت های سخنرانی من خیلی مختصر است. چگونه زیر مجموعه های Borel در $\mathbb R$ می توانند A.2 و A.3 یک $\sigma$-جبر را برآورده کنند؟ A.2 تحت مکمل بسته می شود. A.3 تحت اتحادیه های قابل شمارش است. | چرا زیر مجموعه های Borel در $\mathbb R$ یک $\sigma$-جبر هستند؟ |
96782 | در کشف آمار با استفاده از SPSS 4e، اندی فیلد در p835 می نویسد: > SPSS دو روش را برای تخمین پارامترها در آنالیز به شما می دهد: حداکثر احتمال (ML)، که قبلاً با آن مواجه شده ایم، و > حداکثر احتمال محدود شده ( REML). به نظر می رسد عقل مرسوم این است که > ML تخمین های دقیق تری از پارامترهای رگرسیون ثابت تولید می کند، > در حالی که REML تخمین های دقیق تری از واریانس های تصادفی تولید می کند (Twisk، > 2006). به این ترتیب، انتخاب روش تخمین بستگی به این دارد که آیا فرضیههای شما بر پارامترهای رگرسیون ثابت متمرکز شدهاند یا بر برآورد واریانسهای اثرات تصادفی. با این حال، در بسیاری از موقعیتها، انتخاب > ML یا REML تنها تفاوت کوچکی در برآورد پارامتر ایجاد میکند. همچنین، اگر می خواهید مدل ها را با هم مقایسه کنید، باید از ML استفاده کنید. من بیشتر به جمله آخر علاقه دارم. چرا برای مقایسه مدل ها باید از ML استفاده کنید نه REML؟ | چرا استفاده از تخمین ML به جای REML برای مقایسه مدل های خطی چندسطحی ضروری است؟ |
100884 | من نگران روش تعدیل فصلی هستم و میخواهم معیارهای این منظور را بدانم میتواند لطفاً به سؤال زیر پاسخ من را بدهد. چه معیارهایی برای تعدیل فصلی باید انجام داد یا نکرد؟ | سری زمانی --- تنظیم فصلی |
63927 | من در تلاش هستم تا یک رگرسیون لجستیک ساده را برای یک مقدار وابسته (گروه) با یک متغیر کیفی مستقل (dilat) که دو بار به طور مستقل اندازهگیری میکند (مرتبدهنده) تنظیم کنم. من راه حل های زیادی را امتحان می کنم و با توجه به http://www.ats.ucla.edu/stat/mult_pkg/whatstat/ فکر می کنم که راه حل یک رگرسیون لجستیک با اثرات مختلط است. glmer_dilat<-glmer(گروه ~ dilat + (1 | رتبهدهنده)، داده = سابق، خانواده = دو جملهای) خلاصه (glmer_dilat) مدل ترکیبی خطی تعمیمیافته متناسب با تقریب لاپلاس فرمول: گروه ~ dilat + (1 | رتبهدهنده) داده: سابق AIC BIC logLik انحراف 105.5 112.5 -49.74 99.48 اثرات تصادفی: نام گروه ها Variance Std.Dev. رتبهبندی (Intercept) 0 0 تعداد obs: 76، گروهها: رتبهدهنده، 2 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.8473 0.4880 1.736 0.0825. dilat -1.2827 0.5594 -2.293 0.0219 * اما نتیجه بدون ! خلاصه (glm(گروه ~ دیلات، داده = سابق، خانواده = دوجمله ای)) glm(فرمول = گروه ~ دیلات، خانواده = دو جمله ای، داده = سابق) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.552 -0.999 -0.999 1.367 ضریب 1.367 : Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.8473 0.4879 1.736 0.0825. dilat -1.2826 0.5594 -2.293 0.0219 * راه حل چیست؟ لطفاً مجموعه دادههای من را پس از اعمال دستور dput در اینجا پیدا کنید. ساختار(list(ID = ساختار(c(38L, 11L, 6L, 28L, 3L, 30L, 39L, 4L, 8L, 12L, 32L, 29L, 34L, 35L, 33L, 16L, 27L, 5L, 106L 9 لیتر، 14 لیتر، 1 لیتر، 13 لیتر، 31 لیتر، 2 لیتر، 17 لیتر، 7 لیتر، 19 لیتر، 20 لیتر، 18 لیتر، 21 لیتر، 23 لیتر، 15 لیتر، 24 لیتر، 25 لیتر، 37 لیتر، 26 لیتر، 38 لیتر، 11 لیتر، 6 لیتر، 28 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 12 لیتر، 32 لیتر، 29 لیتر، 34 لیتر، 35 لیتر، 33 لیتر، 16 لیتر، 27 لیتر، 5 لیتر، 36 لیتر، 10 لیتر، 9 لیتر، 14 لیتر، 1 لیتر، 13 لیتر، 31 لیتر، 2 لیتر، 17 لیتر، 7 لیتر، 19 لیتر، 2 لیتر، 1، 2 23L، 15L، 24L، 37L، 26L)، .Label = c(1038835، 2025267، 2053954، 3031612, 40004760، 40014515، 40014515، 40044، 400414053 ، 40105328، 4016213، 40187296، 40203950، 40260642, 40269263، 40300349، 40308059, 40327146، 40327146, 4033950، 4033365، 40269263 «40435267»، «40440293»، «40443920»، «40485124»، «40609779»، «40628741»، «40662695»، «5025220»، «E9701737»، «M/397SC»، «M/397SC»، «3773» QSC43884، QSC62220، QSC75555، QSC92652، QSD01289، QSD02237، U/FY0296)، کلاس = عامل)، گروه = c(1L، 1L، 1L، 1L، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L)، رتبه دهنده = c(1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L. ، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر)، دیلات = c(1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0L, 0L, 1L, 1L, 1L, 0L, 1L, 1L, 1L, 1L, 0L, 1L, 1L, 1L, 0L, 1L, 1L, Midbrain_atroph = c(1L, 1L, 1L, 0L, 1L 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0L، 1L، 0L، 1L، 0L، 0L، 1L، 0L، 1L، 1L، 1L. 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L)، quadrigemi_atroph = c(1L، 0L، 1L، 0L، 1L، 1L، 0L، 0L، 0L، 0L، 1L، 1L، 0L، 0. 0 لیتر، 0 لیتر، 0 لیتر، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 1L، 1L، 0L، 0L، 0L، 1L، 0L، 0L، 0L، 0L، 0L، 1L، 0L، 1L، 0L. 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر)، hum_sig = c(1L, 1L, 1L, 0L, 1L, 1L, 0L, 1L, 0L, 1L, 1L, 1L, 0L, 1L, 0L, 0L, 0L, 1L, 0L, 0L, 0L, 0L, 0L 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, 1L, 0L, 0L, 0L, 0L, 0L, 0L, 0L, flower_sig = c(0L, 1L, 1L) ، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0L، 1L، 0L، 1L، 0L، 1L، 1L، 0L، 0L، 1L، 0L، 0L، 0L، 1L، 1L. 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0L، 0L، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L)، fp_atroph = c(0L، 0L، 1L، 0L، 1L، 0L، 1L، 1L، 1L، 1L، 1L، 0L.. ، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1L، 0L، 0L، 1L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 0L، 1L، 1L، 0L، 0L، 0L، 1L، 0L، 0L، 0L. 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 0L، 1L، 0L، 0L، 1L، 1L، 0L، 1L، 0L، 1L، 0L، 0L، 0L، 1L، 0L، 0L، 0L، 1L، 1L. 0 لیتر، 0 لیتر | نحوه برازش رگرسیون لجستیک برای 1 متغیر وابسته و 1 متغیر کیفی دو بار اندازه گیری شده |
2323 | من فکر می کنم که الگوریتم های قیمت گذاری پویا (که در صنعت حمل و نقل هوایی و بلیط فروشی استفاده می شود) بسیار مبتنی بر آمار هستند، کسی در اینجا تجربه ای با آن الگوریتم ها با ارجاع به آن دارد؟ | مراجع خوبی برای قیمت گذاری پویا چیست؟ |
63920 | من با داده های مکانی سر و کار دارم که در آن متغیر پاسخ غلظت گاز است. علاوه بر این، من مقادیر مختصات x،y و متغیرهای کمکی دیگر را دارم. من فکر می کنم یک مدل میدان تصادفی گاوسی را به صورت زیر برازش کنم: $$ Z(s) = X(s) \beta + \epsilon(s) $$ که $ [Z(s): s \in R^2] $، $X(s)$ مجموعهای از متغیرهای کمکی p است که با هر سایت s مرتبط است، $\beta$ یک بردار p-بعدی از ضرایب است. من قبلاً تابع کوواریانس را برای عبارت خطا تخمین زده بودم، اما اکنون در مورد نحوه ادامه مشکل دارم. من از R استفاده می کنم، اما متاسفانه تا کنون به هیچ بسته ای برخورد نکرده ام که بتوانم متغیرهای کمکی را در مدل قرار دهم. من هنوز در حال یادگیری آمار فضایی هستم، بنابراین اگر اشاره ای دارید، واقعاً از آن سپاسگزار خواهم بود. | فیلد تصادفی گاوسی را برای داده های مکانی مناسب کنید |
97437 | من در حال مطالعه عوامل موثر بر حقوق سالانه کارکنان در یک بانک نامعلوم هستم. مدل رگرسیونی که من تصمیم گرفتم از آن استفاده کنم به شرح زیر است: \begin{equation} Y_{k}=\beta_{1}+\beta_{2}E_{k}+\beta_{3}D_{gk}+\ beta_{4}D_{mk}+\beta_{5}D_{2k}+\beta_{6}D_{3k}+\varepsilon_{k} \end{equation} که در آن $Y_{k}$ لگاریتم حقوق سالانه است، $E$ تعداد سال های تحصیل، $D_{g}$ یک ساختگی جنسیت، $D_{m}$ یک ساختگی اقلیت است، و جایی که \ ابتدا{معادله} D_{2}=\begin{موردها} 1 &\text{وظیفه حضانت} \\\ 0 & \text{در غیر این صورت} \end{موارد} \end{equation} and \begin{equation} D_{3}=\begin{cases} 1 &\text{Management job} \\\ 0 & \text{Otherwise} \end{cases} \end{equation} می دانید، هرگاه کسی با GLS سر و کار داشته باشد، $\Omega$ تقریباً ناشناخته خواهد بود و بنابراین باید تخمین زده شود. به طور کلی پارامترهای $\frac{n(n+1)}{2}$ وجود دارد که باید تخمین زده شوند، که دستیابی به یک تخمین قابل قبول از $n$ مشاهدات را غیرممکن میکند. این معمولاً با تحمیل ساختاری روی $\Omega$ خنثی می شود. در مورد من، میخواهم این فرض را بکنم که عبارتهای اختلال $\varepsilon_{k}$ در مدل رگرسیون فوق دارای واریانس $\sigma_{i}^{2}$ برای $i=1,2,3$ هستند. ، با توجه به اینکه آیا کارمند $i$-th شغلی به ترتیب در دسته 1،2 یا 3 دارد. اکنون، ممکن است تبدیلهای $\gamma_{1}=\log (\sigma_{1}^{2})،\gamma_{2}=\log(\sigma_{2}^{2}/\sigma_{ را معرفی کنیم. 1}^{2})$ و $\gamma_{3}=\log(\sigma_{3}^{2}/\sigma_{1}^{2})$ تا ما را قادر سازد مدل زیر را برای \begin{equation} \sigma_{k}^{2}= \exp \\{ \gamma_{1}+\gamma_{2}D_{2k}+\gamma_{3} فرموله کنیم D_{3k} \\} \end{equation} از آنجایی که $\hat{\beta}_\rm{OLS}$ تخمین ثابتی از $\beta$ است، حتی در زیر با فرض ناهمگونی، ما داریم که $\hat{\beta}_{\rm OLS} \xrightarrow[]{p}\beta$ با افزایش تعداد مشاهدات. بنابراین ممکن است استدلال کنیم که $e_{k}^{2} \approx \sigma_{k}^{2}$، و بنابراین میتوانیم بر اساس اطلاعاتی که قبلاً در اختیار داریم پسرفت کنیم. **خلاصه رویه** **(1)** برآورد OLS را محاسبه کنید. **(2)** محاسبه باقیمانده OLS $\textbf{e}=\textbf{Y}-\textbf{X}\hat{\beta}$ **(3)** برآورد OLS $\ را محاسبه کنید gamma$ از $e_{k}^{2}=f_{\gamma}(Z_{k})+\overline{\varepsilon}_{k}$. **(4)** برآورد FGLS را به عنوان تخمین GLS با $\hat{\Omega}=\Omega(\hat{\gamma})$ به جای $\Omega$ محاسبه کنید. > آنچه من می خواهم بدانم این است که آیا می توان این تخمین را > با استفاده از یک تابع شناخته شده در R، مثلا 'gls' انجام داد یا خیر؟ اگر پاسخ مثبت است، چگونه > دقیقاً باید بنویسم تا اطمینان حاصل کنم که فرض ناهمسانی من > در نظر گرفته شده است؟ ممنون از اینکه وقت گذاشتید روز خوبی داشته باشید! | حداقل مربع تعمیم یافته امکان پذیر در R |
17028 | من سعی می کنم بفهمم که چگونه با استفاده از انحراف معیار و میانگین، شما می توانید چارک های اول و سوم را در یک توزیع نرمال تعیین کنید. من دریافتم که مساحت زیر منحنی برابر با یک است. من میدانم که Q1 25% و Q3 75% را تشکیل میدهد. اما نمیدانم که چگونه میتوان از این اطلاعات برای محاسبه (با TI-89 خود) استفاده کرد که Q1 و Q3 کجا هستند... من توانستم این مقادیر را با نگاه کردن به جدول z-score برای مناطقی که 25% و 75 را نشان میدهند به طور منطقی تخمین بزنم. ٪، و من امتیاز z 0.68 ± را گرفتم. با این حال، من به دقت بیشتری نسبت به تخمین دستی از روی جدول نیاز دارم، اما نمیدانم چگونه به صورت فرمول یا از طریق TI-89 به این موضوع برسم. | چگونه می توان چارک ها را تنها با انحراف معیار و میانگین با فرض توزیع نرمال محاسبه کرد؟ |
100881 | من در حال مقایسه رابطه بین فاصله ژنتیکی و جغرافیایی افراد در جمعیت حیوانات وحشی هستم. فرضیه این است که افراد با وابستگی ژنتیکی بالاتر، محدودههای خانه را نزدیکتر به یکدیگر (فاصله جغرافیایی کوتاهتر بین آنها) نسبت به افرادی که نسبت کمتری دارند (یعنی فاصله جغرافیایی و خویشاوندی همبستگی معکوس دارند) ایجاد میکنند. از آنجایی که این حیوانات دارای محدودههایی هستند که همپوشانی دارند و چندین بار در طول مطالعه نمونهبرداری شدند، من در ابتدا یک نقطه مرکزی را برای محدوده خانه هر فرد محاسبه کردم و از آن به عنوان موقعیت جغرافیایی فرد استفاده کردم. سپس یک آزمون Mantel (و اصلاح آزمون Mantel به نام تست Tau Kr) را اجرا کردم و ضریب همبستگی خود را با نتایج 1000 جایگشت داده ها مقایسه کردم. نتیجه قابل توجهی به دست آوردم (05/0P<). با این حال، من میخواستم ببینم تجزیه و تحلیل چقدر نسبت به جایی که از فرد نمونه میگیرید حساس است. بنابراین، آزمایشهای Mantel خود را مجدداً اجرا کردم، اما از هر ترکیب ممکنی از مکانهای نمونهبرداری برای هر فرد (به جای گرفتن نقطه مرکزی) استفاده کردم. من اکنون توزیعی از p-values و آمار آزمون را برای همه این تست ها دارم و در 14٪ موارد تست ها برای تست Mantel و در 52٪ موارد با استفاده از تست Tau Kr معنی دار بودند (05/0P<). آیا راهی برای ارزیابی درستی فرضیه اولیه با این نتایج وجود دارد؟ به طور شهودی به نظر من، اگر بین فاصله جغرافیایی و ژنتیکی رابطه وجود نداشت، حتی 14 درصد آزمایش ها نباید معنی دار باشند. اما من واقعاً مطمئن نیستم که این توزیع مقادیر p را با چه چیزی مقایسه کنم - مدل تهی چگونه به نظر می رسد؟ به نظر میرسد که من یک الگوی واقعی را تشخیص میدهم، حتی اگر به شدت به محل نمونهگیری وابسته است، اما نمیتوانم بفهمم که چگونه این مجموعه داده را اکنون تجزیه و تحلیل کنم تا مشخص شود سیگنال قابل توجه است یا خیر. با تشکر فراوان برای کمک شما! | مقایسه مقادیر p از آزمایشهای جایگشت چندگانه (Mantel) بر روی تغییرات یک مجموعه داده |
63929 | من سعی میکنم یک مدل رگرسیون برای پیشبینی گزارشهای ذهنی حافظه بر اساس پیشبینیکنندههای زیر بسازم: آزمون حافظه عینی، ادراک بیماری، روانی کلامی، و خلق و خو. همچنین میخواهم سن، سالهای تحصیل و IQ را با قرار دادن آنها در مدل رگرسیون نیز کنترل کنم. با این حال، یک مشکل وجود دارد. آزمون حافظه هدف (آزمون حافظه رفتاری ریورمید) هم نمرات خام و هم نمرات نمایه را برای خرده مقیاس های مختلف به شما می دهد. برخی، اما نه همه، نمرات پروفایل بر اساس IQ و سن تبدیل می شوند. همچنین، تخمین IQ (آزمون عملکرد پیش مرضی) نمرات خام را به تخمین ضریب هوشی تبدیل می کند، یا فقط با نمره خام، یا با نمره خام و متغیرهای جمعیت شناختی سن، جنسیت و سال تحصیلات. تخمین ضریب هوشی که شامل اطلاعات جمعیت شناختی می شود بسیار دقیق تر از تخمین است. اگر از نمرات نمایه (با مشخصات جمعیتی) استفاده کنم، آیا دو بار آنها را کنترل نمی کنم؟ آیا باید از نمرات خام یا نمرات پروفایل استفاده کنم؟ و چه چیزی و چگونه باید اینها را وارد مدل رگرسیون کنم؟ با عرض پوزش اگر موارد بالا منطقی نیست. من مطمئن نیستم که خودم آن را درک کنم. من واقعاً در حال تقلا هستم تا سرم را در این مورد برگردانم! با تشکر | آیا باید از نمرات خام یا نمرات نمایه برای متغیرها در مدل رگرسیون استفاده کنم؟ |
60746 | من در حال تجزیه و تحلیل داده های معیار برای برخی از توابع R خود هستم، و سعی می کنم آماری را محاسبه کنم که نشان می دهد تابع من - group_one - چند برابر سریعتر از یک تابع کنترل - group_two - به عنوان ضریب (group_one $\alpha$ است) است. بار سریعتر از group_two). فرض بر این است که داده ها به طور معمول توزیع شده اند و طول آن برابر است. واریانس بین گروه ها متفاوت است. test_data <- list( group_one = c(9387298, 9447571, 10343495, 10232936, 10296492, 10273234, 16732716, 10527317, 10527317, 10527317, 743495 = گروه c(23721104، 39465146، 31087543، 39851996، 38027882، 44277978، 32448261، 39950612، 47677503، 3888 بار کوچکتر از گروه من است. دوم ضریب <- mean(test_data$group_one) / mean(test_data$group_two) واریانس داده های محک معمولاً حدود 15% از میانگین است، بنابراین من سعی می کنم فاصله اطمینان 95% را پیدا کنم که در آن ضریب ضریب افزایش می یابد؟ دروغ می گوید (چیزی به شکل گروه_یک 10 تا 12 برابر سریعتر از گروه_دو است) کسی می داند یک تابع R (ترجیحاً در کتابخانه پایه) که می تواند برای محاسبه این بازه استفاده شود: من t.test را امتحان کردم، اما مستقیماً فاصله اطمینانی را نشان نمی دهد که میانگین جمعیت در آن قرار دارد، و من نمی دانم؟ بدانید که چگونه بر اساس آزمون t استنباط کنید: من دادههای واقعیتر را در بالا اضافه کردم. من می توانم ببینم که نسبت دو توزیع ممکن است بسیار حساس باشد تا به طور مفید اندازه گیری کند که group_one چقدر سریعتر از group_two است. اگر یک آمار جایگزین مفیدتر باشد، من آماده پیشنهادات هستم. | یافتن اختلاف میانگین دو مجموعه داده در R، در یک بازه اطمینان |
60745 | من دو الگوریتم مختلف ضربه کش را با استفاده از چهار مجموعه آموزشی و آزمایشی مختلف مقایسه می کنم. مجموعههای آموزشی مرتبط هستند: 1 زیر مجموعهای از 2 است، زیر مجموعهای از 3 زیرمجموعهای از 4 است. در مجموعههای تست نیز همینطور است. نتیجه دو ماتریس مختلف با نسبت ضربه حافظه پنهان بین 0 و 1 است که مقادیر بالاتر بهتر است: الگوریتم A مجموعه تست 1: مجموعه تست 2: مجموعه تست 3: مجموعه تست 4: مجموعه آموزشی 1: 0..1 0.. مجموعه آموزشی 1 0..1 0..1 2: 0..1 0..1 0..1 0..1 ست آموزشی 3: 0..1 0..1 0..1 0..1 مجموعه آموزشی 4: 0..1 0..1 0..1 0..1 الگوریتم B: مجموعه تست 1: مجموعه تست 2: مجموعه تست 3: مجموعه تست 4 : مجموعه آموزشی 1: 0..1 0..1 0..1 0..1 مجموعه آموزشی 2: 0..1 0..1 0..1 0..1 مجموعه آموزشی 3: 0..1 0..1 0..1 0..1 مجموعه آموزشی 4: 0..1 0..1 0..1 0..1 اکنون می خواهم بهترین الگوریتم را تعیین کنم. چگونه می توان این کار را انجام داد؟ من درک محدودی از مفاهیم آماری دارم. من توزیع داده ها را نمی دانم. من در مورد استفاده از آزمون t نمونه وابسته برای هر جفت سلول در A و B فکر کردم، به طوری که B به عنوان درمان دیده می شود و سپس تصمیم می گیریم که آیا درمان مفید بوده است یا خیر. H0: تفاوت معنی داری بین الگوریتم ها وجود ندارد H1: تفاوت معنی داری بین الگوریتم ها وجود دارد آیا این روش حتی از راه دور معتبر است؟ هر گونه کمک بسیار قدردانی! | مقایسه آماری دو الگوریتم ضربه کش مختلف |
60298 | از ویکی پدیا > مقدار زیادی از منابع محاسباتی برای محاسبه **دقیق > احتمالات** برای آزمون کروسکال-والیس مورد نیاز است. نرم افزار موجود فقط > **احتمالات دقیق** را برای حجم نمونه کمتر از حدود 30 شرکت کننده ارائه می دهد. > این برنامههای نرمافزاری برای اندازههای نمونه بزرگتر بر **تقریب مجانبی** تکیه میکنند. **مقادیر احتمال دقیق** برای نمونه های بزرگتر در دسترس هستند. اسپوریر (2003) جداول احتمال دقیق را برای نمونه هایی به بزرگی 45 شرکت کننده منتشر کرد. مایر و سیمن (2006) احتمال دقیق > توزیع را برای نمونه هایی به بزرگی 105 شرکت کننده تولید کردند. ارزش بحرانی > جداول و احتمالات دقیق از Meyer و Seaman برای دانلود در http://faculty.virginia.edu/kruskal-wallis/ موجود است. مقاله ای که کار آنها را توصیف می کند نیز ممکن است در آنجا یافت شود. من فکر می کنم احتمالات دقیق، احتمالات دقیق هستند، اما چرا می گوید: نرم افزار موجود فقط **احتمالات دقیق** را برای حجم نمونه کمتر از حدود 30 شرکت کننده ارائه می دهد. این برنامه های نرم افزاری برای اندازه های نمونه بزرگتر بر **تقریب مجانبی** تکیه می کنند. ؟ آیا اشتباه است؟ با تشکر و احترام! | احتمال دقیق و تقریب مجانبی |
60747 | هدف من یافتن بهترین C برای یک طبقه بندی SVM خطی با استفاده از libsvm است، من در مجموع 120 نمونه و 2 کلاس دارم که می خواهم آنها را طبقه بندی کنم. من در مورد پارتیشن بندی یک مجموعه داده به این قسمت ها سوال دارم: 1) آموزش بهینه سازی در طول جستجوی پارامتر C 2) آموزش ساخت مدل 3) آزمایش (نماینده داده های ورودی آینده) با استفاده از اعتبارسنجی متقابل و جستجوی شبکه ای، می خواهم C بهینه را برای مجموعه داده من پیدا کنید. به نظر می رسد پیشنهادهای مختلفی در مورد نحوه پارتیشن بندی داده ها به این سه قسمت وجود دارد که می توانم ابتدا داده های خود را به آموزش (50٪) و آزمایش (50٪) تقسیم کنم. از آموزش، من از نیمی (25٪ از کل داده ها) برای اعتبارسنجی متقابل برای بهینه سازی C استفاده می کنم. وقتی بهترین C را پیدا کردم، از نصف دیگر داده های آموزشی (25٪ از کل داده ها) برای ساخت استفاده می کنم. مدل از بهترین C استفاده میکند. سپس مدل را در برابر دادههای آزمایشی 50% اعتبار میدهم، دقت حاصل، دقت نهایی است. به این ترتیب، نه دادههایی که برای ساخت مدل وارد شدهاند و نه دادههای آزمایش هرگز در طول بهینهسازی استفاده نشدهاند. از 50% برای آموزش و 50% برای تست استفاده کنید. کل 50% برای آموزش برای اعتبارسنجی متقاطع برای بهینه سازی پارامتر C استفاده می شود. هنگامی که بهترین C را پیدا کردم، برای بدست آوردن مدل بر روی 50% کامل داده های آموزشی آموزش می بینم و آن را روی داده های تست اعتبار می دهم. من فکر میکنم مزیت 1. این است که هیچ یک از دادههای ساخت و آزمایش مدل در فرآیند بهینهسازی نبودند، از این رو مشکل اضافه برازش کمتری وجود دارد. هر چند من حساب های مختلف را آنلاین خواندم، بنابراین هر ورودی بسیار قدردانی می شود. آیا این روش به میزان داده موجود بستگی دارد؟ در مورد من، من نمونه های زیادی ندارم، بنابراین مطمئن نیستم که آیا روش 1 توصیه می شود. ارجاع به سایر منابع/کتاب های درسی مرتبط نیز بسیار قدردانی می شود. | داده های بهینه سازی خطی SVM C، نحوه پارتیشن بندی به قطار، ساخت مدل، تست |
52653 | من فقط به توضیح ساده ای نیاز دارم که دقیقاً رگرسیون پشته چیست تا بتوانم درک شهودی مناسبی از آن داشته باشم. من میدانم که این در مورد اعمال نوعی جریمه برای ضرایب رگرسیون است... اما فراتر از آن، من در مورد تفاوت آن با سایر انواع رگرسیون که جریمهها را اجرا میکنند، کمی سردرگم هستم. در چه موردی باید از رگرسیون ریج بر خلاف انواع دیگر رگرسیون استفاده کرد؟ | رگرسیون پشته چیست؟ |
63924 | من داده هایی دارم که غیر عادی و (به شدت) منحرف شده اند. داده ها همچنین دارای کشش و نقاط پرت بالایی هستند. به نظر می رسد گزینه های مختلفی برای تغییر شکل وجود دارد، اما من نمی توانم منبعی را پیدا کنم که به من کمک کند بهترین گزینه را تعیین کنم (یا اینکه چرا یکی را بر دیگری انتخاب کنم). در این مورد، آیا باید 1. منعکس کنم و تبدیل کنم 2. یک تبدیل نمایی انجام دهم 3. به Box-Cox نگاه کنم؟ و چگونه می توانم بدانم کدام یک برای داده های من انتخاب مناسبی است؟ | انعکاس و تغییر شکل داده های منفی |
90787 | در تلاش برای درک بحث از یک فرآیند اعتبار سنجی متقاطع 5 برابری برای اعتبارسنجی یک مدل پیشبینیکننده و نتایج آن، عبارت خاصی وجود دارد که من را متحیر کرده است، بهعنوان مثال: > پیشبینیهای الگوریتم به طور قابلتوجهی با موارد چپ و خارج غنی شده است. داده های تست **به نظر من یعنی چی**. در تلاش برای درک این موضوع، روشی که برای تفسیر این جمله برای من طبیعیتر به نظر میرسد این است: «وقتی دادههای آزمایشی را اضافه میکنیم، مدل بهتر است» که کاملاً واضح به نظر میرسد. برای من، این به این معنی است که مدل به آن داده نیاز دارد - و اعتبارسنجی ناموفق_. ** آنچه به نظر من می رسد باید به آن معنی باشد **. با این حال، در زمینه اعتبارسنجی، من انتظار چیزی شبیه به این را دارم: درجه بالایی از شباهت بین آنچه مدل ما بدون داده های سمت چپ پیش بینی کرد و داده های سمت چپ گفته شده وجود دارد. برای من، این نشان میدهد که مدل در پیشبینی خوب است. من معتقدم که مفهوم غنی سازی را درک نمی کنم. پس از نگاه کردن به آن، معنی به طور کلی «بهبود» است. اگر اینطور است، و بنابراین اولین تفسیر من درست است، چرا این برای اعتبارسنجی مهم است؟ «غنی سازی» در این زمینه به چه معناست؟ با تشکر | منظور از اصطلاح غنی سازی هنگام انجام اعتبارسنجی متقابل چیست؟ |
52650 | روی کاغذی که می خوانم کمی گیج شده ام. آنها جدولی از ضرایب پیرسون محاسبه شده دارند که در اینجا نشان داده شده است: $$ \begin{array} . & I & II & III\\\ A + B & 0.8 & 0.65 & 0.90\\\ A + C & 0.73 & 0.46 & 0.83\\\ B + C & 0.61 & 0.76 & 0.68\\\ \end{آرایه} $$ آنها ادعا می کنند که ضعیف ترین همبستگی ثبت شده بین $B+C، \،\، I$ و $B+C، \،\، III$. $A,B,C$ روش های مختلف تصویربرداری هستند. آیا آنها بیان می کنند که این دو نزدیکترین مقدار در یک مقایسه هستند (یعنی $B+C$)؟ من گیج شدم زیرا آنها در حال حاضر همبستگی های همبستگی دارند! من فکر می کردم ضعیف ترین همبستگی ها $B+C، \,\، I$ و $A+C، \,\, II$ باشد، زیرا آنها کوچکترین مقادیر را دارند، اما شاید من بیانیه آنها را متوجه نشدم. مقاله را می توان در اینجا یافت: http://online.medphys.org/resource/1/mphya6/v40/i4/p041707_s1?bypassSSO=1 صفحه 4، بخش III.B | در مورد مقایسه ضرایب پیرسون سردرگم است |
96789 | برای حالت دو متغیره، تفاوت های عملی بین استفاده از روش انگل-گرنجر در مقابل آزمون جوهانسن برای هم انباشتگی چیست؟ آیا یکی به طور جهانی قدرتمندتر از دیگری است؟ آیا یکی بیشتر از دیگری مثبت کاذب می دهد یا منفی کاذب؟ آیا یوهانسن باید همیشه ترجیح داده شود؟ | تفاوت عملی بین آزمون یوهانسن در مقابل انگل-گرنجر برای هم انباشتگی چیست؟ |
53388 | من قبلاً در مورد نظریه ای خوانده بودم که به یاد دارم (به درستی یا نه) به نام نظریه برنده بخت آزمایی نامیده می شود که اساساً به شرح زیر است: > یک فرد به طور نامتناسبی در مورد اتفاقات غیرمتناسب بیشتری از افراد دیگر می شنود که وارد قرعه کشی می شوند و برنده می شوند. انجام دادن دیگران که وارد > قرعه کشی می شوند و برنده نمی شوند. این به فرد دیدگاه تحریف شده ای از شانس برنده شدن واقعی می دهد. همین اصل در مورد وصیت نامه افراد از محصولات یا خدماتی که برای آنها کار می کند، در مقابل عدم کارکرد آنها صدق می کند. اگر اثر مضری رخ دهد، اثر معکوس نیز اعمال می شود. به نظر میرسد که بهویژه برای افرادی که احتمالاً واکسینه میشوند (مثلاً ایجاد اوتیسم)، و علم کاذب (مثلاً پس از کاهش هومیوپاتی کمرم درد نمیکند) و غیره کاربرد دارد. ** به هر حال، سؤال این است: آیا نام استانداردتری برای این اثر وجود دارد؟** جستجوی «نظریه برنده بخت آزمایی» در گوگل بسیار اندک بود. نزدیکترین چیزی که من میتوانم پیدا کنم، این مقاله بود که از یک نظریه برنده قرعهکشی نام میبرد، که چند نتیجه دیگر از Google را نشان میدهد، اما هنوز تعداد زیادی از آنها وجود ندارد. | نام این نظریه (اگر وجود داشته باشد) چیست که بیان میکند برندگان قرعهکشی بیشتر احتمال دارد که در مورد ورود خود به لاتاری به دیگران اطلاع دهند؟ |
52652 | این چیزی است که در یادداشت های من نوشته شده است. > ثابت ها RVS هستند: برای $ x = c = const $ ، یک نفر $ \\ {x \ leqslant t \\} => \ start {case} \ votyset ، t <c \\\ \ omega ، t \ geqslant c \ end {Case} $ چرا رویداد $ \\ {x \ leqslant t \\} $ برابر است با فضای نمونه وقتی $ t \ geqslant c $ و $X=c$؟ | چرا وقتی $t \geqslant c$ و $X=c$، رویداد $\{X \leqslant t\}$ برابر با فضای نمونه است؟ |
52657 | من بارها در تعدادی از مقالات دیده ام که تکنیک های ناپارامتریک در معرض نفرین ابعاد قرار می گیرند که ممکن است منجر به شکست این روش ها شود. چرا این اتفاق می افتد؟ می توانید یک مثال برای من بزنید؟ با تشکر | نفرین ابعاد و تکنیک های ناپارامتریک |
97436 | من در حال حاضر از Naive Bayes برای یک مشکل طبقه بندی سند متنی چند برچسب دار استفاده می کنم. اما دوست دارم تفاوت (مزایا و معایب) استفاده از SkiLearn Naive Bayes یا NLTK را بدانم؟ به نظر میرسد که SkiLearn در تنظیم پارامترها انعطافپذیری بیشتری نسبت به NLTK دارد، اما فکر میکنم افکار من در مورد این تنها تفاوت کاملاً سادهلوحانه است. همچنین چه مواردی را بر دیگری انتخاب می کنید؟ هر گونه کمک قدردانی می شود. | تفاوت های پیاده سازی ساده بیز پایتون |
64043 | من یک مشکل بیولوژیکی دارم که شامل استفاده از آزمون t دو نمونه ای یک طرفه است. برای ساده کردن مسئله، آزمایشی را فرض کنیم که مقادیر را در یک گروه کنترل (C) و یک گروه تیمار (T) مقایسه میکند، که هر کدام دارای 3 تکرار هستند که C1، C2، C3، T1، T2، T3 نامیده میشوند. در اینجا **C1 و T1 نمونه هایی از یک موضوع هستند، C2 و T2 نمونه هایی از یک موضوع و ... هستند.** اکنون برای هر یک از ترکیب های زیر یک عدد بدست می آوریم. inthin = درون گروه (یعنی هر دو C یا هر دو T هستند). همچنین، اعداد بعد از C یا T نشان می دهد که آیا آنها از یک موضوع (فرعی) هستند یا خیر. C1_C2 (در: فرعی متفاوت) C1_C3 (در: فرعی متفاوت) C1_T1 (بین: فرعی مشابه) C1_T2 (بین: فرعی های مختلف) C1_T3 (بین: فرعی های مختلف) C2_C3 (در: فرعی های مختلف) C2_T1 (بین: فرعی های مختلف) C2_T2 (بین: فرعی مشابه) C2_T3 (بین: فرعی متفاوت) ... (مجموعاً 15 کمیت زوجی) ما اساساً علاقه مند به مقایسه مقادیر درون گروه و مقادیر بین گروه هستیم، اما **امیدواریم که اثر موضوع را به نحوی در آزمون t-test بگنجانیم**. آیا راهی برای تشخیص «زیرهای مختلف» و «زیر یکسان» در آزمون وجود دارد؟ خیلی ممنون از پیشنهاداتون!! | آزمون t دو نمونه ای یک طرفه با تنظیم متغیر |
89536 | ویرایش: همانطور که اشاره شد، در حال حاضر یک سوال مشابه دفن شده در یک سوال بزرگتر وجود دارد. بخش مربوطه را در اینجا بازتولید می کنم: > اگر چندین ضبط از مسیرهای مشابه داشته باشم، آیا تکنیک > معتبری برای ترکیب آنها برای نزدیک شدن به مسیر واقعی وجود دارد؟ بخش مربوط به پاسخ انتخاب شده، در زمینه سوال من، این است: > با چندین ضبط، می توانید یک هسته دوبعدی از هر کدام ایجاد کنید، هموارها را جمع کنید و آن را به یک تجزیه و تحلیل توپوگرافیک برای جستجوی > تبدیل کنید. رجلاین. معمولاً یک خط متصل دریافت نمیکنید، اما اغلب میتوانید برآمدگیها را در یک مسیر پیوسته به هم متصل کنید. برای مثال، مردم از این روش برای میانگین مسیرهای طوفان استفاده کرده اند. * * * من مجموعه ای از چند خط در فضای دوبعدی (X,Y) دارم که مسیرهای اجسام را نشان می دهد. هر چند خط در مجموعه یک مسیر اندازه گیری شده در امتداد همان مسیر تعیین شده است، که اکثر آنها (اما نه همه) از یک نقطه شروع می شوند و در اطراف همان نقطه دیگر خاتمه می یابند. من میخواهم مسیر ایدهآلشده (میانگین چند خط) را از مجموعه چند خطها محاسبه کنم، به همان روشی که به صورت دستی آن را در یک برنامه ترسیمی ردیابی میکنم، با این تفاوت که دوست دارم بدون دخالت دستی این اتفاق بیفتد. نمونه تصویر بخشی از مجموعه پلی لاین (برش خورده) در زیر آمده است. به نظر من جایی مشخص است که می توانم خط متوسط را با ماوس ترسیم کنم، اما نمی توانم بفهمم که از کدام الگوریتم می توانم استفاده کنم. نکات مهم: 1. میدانم که میتوانم از گرهها برای محاسبات استفاده کنم، اما برخی از بخشها ممکن است خودسرانه طولانی باشند، بنابراین گرههایی در نزدیکی وجود ندارند که در محاسبات کمک کنند. یعنی میخواهم خود بخشهای خط را برای محاسبه در نظر بگیرم، نه فقط گرهها را. 2. ممکن است قسمت هایی از یک چندخط مانند نقاط پرت رفتار کند (تصویر را ببینید). من فکر میکنم که با توجه به اینکه اکثر چند خطها به خوبی رفتار میکنند، این بخش دورافتاده به راحتی توسط آنهایی که رفتار خوبی دارند جذب میشود. 3. اگرچه داده های اصلی دارای مهر زمانی هستند، من معتقدم که هیچ رابطه زمانی برای استنباط نتیجه مکانی که دنبال آن هستم لازم نیست، اینطور نیست؟ 4. بله، این داده های GPS است (البته این اتفاقی است به فرمول مشکل، که به طور هدفمند انتزاع شده است).  | نحوه استخراج «پلی لاین متوسط» از مجموعه ای از چند خط |
17024 | فرض کنید یک رابطه نظری وجود دارد که میخواهید روی همه مقادیر یک متغیر ثابت کنید. برای مثال، $F(x)$ با $x$ افزایش می یابد. شما نمی توانید یک اثبات نظری کلی ارائه دهید. با این حال، شما می توانید $F(x)$ را برای هر مقدار خاص $x$ محاسبه کنید، و رابطه مورد انتظار برقرار است. احتمالاً، سپس میتوانید نوعی رگرسیون را روی «دادههای» ارائهشده توسط یک دسته کامل از مقادیری که بهطور خاص محاسبه کردهاید، اجرا کنید. (با استفاده از $x$ به عنوان IV و $F(x)$ به عنوان DV). سپس، میتوانید نشان دهید که یک رابطه رو به افزایش توسط «دادهها» پشتیبانی میشود و سعی کنید بهترین تناسب را پیدا کنید، و غیره. (حتی شکل) یک رابطه، نه فقط رابطه ترتیبی دو مقدار. آیا نامی برای این نوع فرآیند وجود دارد -- اجرای آمار بر روی راه حل های ریاضی، در مقابل داده های اندازه گیری شده؟ آیا این روشی قانع کننده برای استدلال یک نکته نظری است؟ آیا اجرای یک آزمایش و جمع آوری مقادیر داده ها و اجرای آمار در این مورد است؟ هدف نهایی، مشارکت نظری در حرکت $F$ با $x$ نیست، بلکه مدلی است که راهکار مفیدی ارائه میکند (به عنوان مثال، از آنجایی که $F(x)$ با $x$ افزایش مییابد، توصیه میشود سعی کنید $x$ را به حداقل برسانید). | آمار در مورد داده ریاضی؟ |
60742 | من با داده های حضور/غیاب کار می کنم که حاوی صفرهای زیادی است. بهترین روش برای مدل سازی این چیست؟ تنها پیشنهادی که میتوانم برای دادههای بادی صفر پیدا کنم به دادههای شمارش اشاره دارد نه دادههای دوجملهای/نسبتی. | داده های دوجمله ای متورم صفر |
53380 | آیا می توان فرمولی برای واریانس توان های یک متغیر تصادفی بر حسب مقدار مورد انتظار و واریانس X بدست آورد؟ $$\operatorname{var}(X^n)= \,?$$ and $$E(X^n)=\,?$$ | واریانس توان های یک متغیر تصادفی |
90786 | من یک MLP NN نسبتاً ساده را به عنوان بخشی از پروژه خود اجرا کردم. من الان دارم آن را روی یک سینوسی تست می کنم و انتظار دارم خروجی این شبکه بدون مشکل از سینوسی پیروی کند. برخی از جزئیات شبکه: 32 گره ورودی 10 گره مخفی من از توابع فعال سازی tanh در هر دو لایه استفاده می کنم. این یک تصویر برای نشان دادن است:  اگر سینوسی هدف را با دامنه 0.9 بسازم، خوب کار می کند:  من سعی کردم نرخ یادگیری را تا 0.5 افزایش دهم، اما کمکی نمی کند (فقط سر و صداتر به نظر می رسد). من فکر می کنم این چیزی است که من در مشتقات خود گم کرده ام. معادلات به روز رسانی من در اینجا آمده است (لطفاً عدم وجود جابجایی ها را نادیده بگیرید): $$ y = tanh(H*tanh(Wx)); $$ $$ e = y - y_d $$ $$ dH = \mu_1 * e * (1-tanh(H*tanh(Wx)^2)) * tanh(Wx) $$ $$ dW = \mu_2 * x * e * H * (1-tanh(Wx)^2) * (1-tanh(H*tanh(Wx)^2)) $$ $$ H = H - dH $$ $$ W = W - dW $$ من می دانم که این کلیپ را انجام می دهد زیرا به مقدار tanh نمی رسد که خروجی آن 1 باشد (زیرا tanh غیر خطی است). شاید باید تابع فعال سازی خود را له کنم تا باریکتر شود؟ همین... هر گونه فکری قابل قدردانی خواهد بود. | چرا هنگام استفاده از عملکرد فعالسازی tanh، بریده میشوم؟ |
64040 | با توجه به تابع چگالی احتمال (pdf)، $$P(x) = \frac{f(x)}{\Sigma_x f(x)}.$$ آیا اگر ثابت نرمال کننده در مخرج، $ باشد، این هنوز یک pdf معتبر است. \Sigma_x f(x) = \infty$؟ | آیا ثابت عادی سازی یک PDF می تواند بی نهایت باشد؟ |
102934 | من سعی می کنم یک رگرسیون روی داده های ناهمسان انجام دهم که در آن سعی می کنم واریانس های خطا و همچنین مقادیر میانگین را بر حسب یک مدل خطی _پیش بینی کنم. چیزی شبیه این: $$\begin{align}\\\ y\left(x,t\right) &= \bar{y}\left(x,t\right)+\xi\left(x,t\ راست)، \\\ \xi\ چپ (x, t\ راست) &\sim N\ چپ (0,\sigma\ چپ (x,t\راست)\راست),\\\ \bar{y}\left(x,t\right) &= y_{0}+ax+bt,\\\ \sigma\left(x,t\right) &= \sigma_{0}+cx+dt . \end{align} $$ به عبارتی، دادهها از اندازهگیریهای مکرر $y(x,t)$ در مقادیر مختلف $x$ و $t$ تشکیل شدهاند. من فرض میکنم که این اندازهگیریها از یک مقدار میانگین «واقعی» تشکیل شدهاند. $ که انحراف معیار آن (یا واریانس، من تصمیم نگرفتهام) نیز به صورت خطی به $x,t$ بستگی دارد. (من می توانم وابستگی های پیچیده تری را به $x$ و $t$ مجاز کنم - انگیزه نظری قوی برای شکل خطی وجود ندارد - اما ترجیح می دهم در این مرحله مسائل را بیش از حد پیچیده نکنم.) می دانم که عبارت جستجو در اینجا است ناهمگونی، اما تنها چیزی که تا کنون توانسته ام پیدا کنم بحث در مورد چگونگی کاهش/حذف آن برای پیش بینی بهتر $\bar{y}$ است، اما هیچ چیز از نظر تلاش برای _predict_ $\sigma$ بر حسب متغیرهای مستقل. من میخواهم $y_0، a، b، \sigma_0، c$ و $d$ را با فواصل اطمینان (یا معادلهای بیزی) تخمین بزنم، و اگر راه آسانی برای انجام آن در SPSS وجود داشته باشد، خیلی بهتر است! چه کار کنم؟ با تشکر | پیشبینی واریانس دادههای ناهمسان |
64047 | منحنی Area Under ROC (AUROC) کمیتی است که برای تعیین کمیت عملکرد طبقهبندیکنندهها استفاده میشود. من در حال حاضر به اساسی ترین اشکالات استفاده از AUROC به عنوان معیار عملکرد منحصر به فرد علاقه مند هستم. من یک بازخورد منفی با AUROC در برخی از تحلیلهای اخیر دریافت کردم زیرا با یک مشکل طبقهبندی که از طریق یک رگرسیون لجستیک در حضور جداسازی کامل انجام شد، مواجه شدم. من فرض می کنم که در این مورد به سادگی یک AUROC=1 کامل به دست می آید. آیا این درست است؟ به طور کلی، مقادیر بسیار بالای AUROC (منظورم مقادیر $\geq 0.998$ است) باعث میشود به این فکر کنم که آیا چیزی اشتباه یا مصنوعی در مدل و/یا دادهها، به عنوان اولین احساس وجود دارد. چه خوب است که این احساس من را تایید کنید و با مثال هایی از آن حمایت کنید. در این مرحله تز مخالف هم برایم جالب است. | اعتبار موثر AUROC به عنوان معیار عملکرد: در مورد مقادیر بسیار بالا AUROC چطور؟ |
80696 | من با پاسخ به سؤالات زیر گیج شدهام. فرض کنید یک مجموعه داده D با 100 مثال داریم که 50 مورد از آنها به کلاس خوب و 50 مورد به کلاس فقیر تعلق دارد. فرض کنید که ما یک الگوریتم یادگیری بسیار ساده (L) داریم که مدلی را تولید می کند که به سادگی اکثریت نمونه های آموزشی را پیش بینی می کند (اگر اکثریت وجود نداشته باشد، همیشه خوب را پیش بینی می کند) 1) انجام اعتبار سنجی متقاطع 10 برابری طبقه بندی شده روی D همان نتیجه ای را می دهد که از نیمی از نمونه های هر کلاس برای آموزش و نیمی دیگر برای آزمایش استفاده می شود. پاسخ> درست 2) اعتبار سنجی متقاطع ترک یک خروجی، تخمین دقت بهتری را برای نحوه عملکرد L در نمونه هایی که به طور مستقل از همان توزیع D نمونه برداری شده اند، نسبت به استفاده از نیمی از مثال ها برای آموزش و نیمی از مثال ها برای آزمایش، ارائه می دهد. پاسخ > نادرست. آیا می توانم بدانم چرا پاسخ اول درست است و پاسخ دوم نادرست است؟ | سوال در مورد کنار گذاشتن یک و اعتبار سنجی متقاطع 10 برابری |
49110 | من با یک ANOVA 3 طرفه با اقدامات مکرر مشکل دارم. طرح به شرح زیر است: محلی سازی متغیر وابسته است، از عوامل زیر در موضوعات ماده (4 سطح)، تکنیک انتشار (6 سطح) و نوع شناسی (2 سطح) وجود دارد. این فرمولی است که من استفاده کردم: aov_Material = aov(abs(محلی سازی) ~ Diffusion_Type*Material*Typology + Error(Subject/(Diffusion_Type*Material*Typology))، data=scrd) summary(aov_Material) و این خروجی است که من دریافت می کنم در نتیجه: پیام هشدار: در aov(abs(محلی سازی) ~ Diffusion_Type * Material * Typology + : Error() model is singular > summary(aov_Material) خطا: Subject Df Sum Sq Mean Sq F value Pr(>F) Residuals 11 2117 192.5 Error: Subject:Diffusion_Type Sqr Df Squm (>F) Diffusion_Type 5 20.2 4.032 0.423 0.83 Residuals 55 523.7 9.522 Error: Subject:Material Df Sum Sq Mean Sq F value Pr(>F) Material 3 1967 655.6 7.303eids. 1011 30.6 --- کدهای علامت: 0 '***' 0.001 '**' 0.05 '.' 0.1 ' 1 خطا: موضوع: Diffusion_Type:Material Df Sum Mean Sq F value Pr(>F) ) Diffusion_Type:Material 15 170.1 11.338 1.308 0.202 Residuals 165 1430.3 8.668 خطا: در داخل Df Sum Sq Mean Sq F مقدار Pr(>F) Residuals 288 2888 10.03 سؤالات من این است: 1. چرا BT به این معنی است که مدل اخطار چیست؟ مفرد)؟ 2. چرا اثری برای گونه شناسی ذکر شده در نتایج وجود ندارد؟ چگونه می توانم بفهمم که بین دو سطح تیپولوژی تفاوت وجود دارد؟ | ANOVA ادعا می کند که مدل تک است |
96781 | آیا کسی می داند که چگونه می توان تست های post hoc را در ANCOVA با طرح فاکتوریل انجام داد؟ من دو بردار متشکل از 23 مقدار پایه (متغیر متغیر) و 23 مقدار بعد از درمان (متغیر مستقل) دارم و دو عامل با هر دو سطح دارم. من یک مدل ANCOVA ایجاد کردم و میانگین های تنظیم شده، خطاهای استاندارد و فواصل اطمینان را محاسبه کردم. مثال: کتابخانه (اثرات) پایه = c(0.7672,1.846,0.6487,0.4517,0.5599,0.2255,0.5946,1.435,0.5374,0.4901,1.258, 0.5445،1.078،1.142،0.5،1.044،0.7824،1.059،0.6802،0.8003،0.5547،1.003،0.9213) پس از درمان = c(0.4222,1.442,0.8436,0.5544,0.8818,0.08789,0.6291,1.23,0.4093,0.7828,-0.04061,0. 8686,0.8525,0.8036,0.3758,0.8531,0.2897,0.8127,1.213,0.05276,0.7364,1,001,0.8974) سن = فاکتور (c(rep(c(جوان، پیر)، 11)، جوان)) درمان = فاکتور (c(rep(دارو، 12)، تکرار (دارونما، 11) )) ANC = aov (بعد از درمان ~ خط پایه + درمان * سن) effect_treatage = اثر (درمان*سن،ANC) data.frame (اثر_درمان) سن درمان متناسب با بالا پایین 1 Drug Old 0.8232137 0.1455190 0.5174897 1.1289377 2 Placebo Old 0.6168641 0.1643178 0.2716452 0.9620831 0.9620831 3 Drug Young6620831 3 Drug You6620831 0.2602413 0.8775659 4 Placebo Young 0.7603360 0.1462715 0.4530309 1.0676410 اکنون می خواهم آزمایش کنم که آیا تفاوتی بین میانگین تنظیم شده Young-Placebo:Young-Drug-Drug:Old-Placebo:Young-Dlacebo Old:Old Young-Placebo:Old-Drug Old-Placebo:Young-Drug بنابراین سعی کردم: pH = glht(ANC, linfct = mcp(treatment*age=Tukey)) خطا: '=' غیرمنتظره در ph = glht(ANC_nback , linfct = mcp(treat*age= و: pH = TukeyHSD(ANC) خطا در rep.int(n, length(means)): نوع اجرا نشده 'NULL' در 'rep3' علاوه بر این: پیام هشدار: در تکرارها (paste(~، xx)، داده = mf) : غیر فاکتورها نادیده گرفته شده: خط پایه کسی میدونه چطوری اینو حل کنم؟ با تشکر فراوان | R: آزمون های تعقیبی در ANCOVA با طرح فاکتوریل |
53389 | اگر x$_{1}$, x$_{2}$,...,x$_{n}$ ~ N($\theta$, $\sigma$$^{2}$) بر اساس این واقعیت که Y$_{1}$ = $\sum$(x$_{i}$) و Y$_{2}$ =$\sum$(x$_{i}$)$^{2 }$ آمار کامل و کافی هستند، می توان نشان داد که (نه مطمئن هستم که چگونه) MVUE $\sigma$$^{2}$ = $\sum$(x$_{i}$- $\bar x$ )$^{2}$ / (n-1) در صورت نیاز برای پیدا کردن MVUE $\sigma$$^{4}$، می توانم بگویم که به سادگی [$\sum$(x$_{i}$- $\bar x$ )$^{2}$ / است (n-1)]$^{2}$ ? من فکر می کنم پاسخ منفی است زیرا E[A] $.$ E[A] لزوما برابر با E [A$^{2}$] نیست. کسی میتونه کمکم کنه لطفا تایید کنم؟ با تشکر | دریافت MVUE $\sigma^4$ برای توزیع عادی |
90045 | به طور کلی چند نقطه برای تخمین ماتریس کوواریانس p بعدی لازم است؟ آیا این بستگی به نحوه پخش داده ها در ابعاد مختلف دارد؟ آیا به توزیع واقعی داده ها بستگی دارد؟ متشکرم! | برای تخمین ماتریس کوواریانس p-بعدی به چند نمونه نیاز است؟ |
49117 | سوالی دارم که مدتی ذهنم را مشغول کرده است. تست آنتروپی اغلب برای شناسایی داده های رمزگذاری شده استفاده می شود. آنتروپی زمانی به حداکثر می رسد که بایت های داده های تجزیه و تحلیل شده به طور یکنواخت توزیع شوند. تست آنتروپی داده های رمزگذاری شده را شناسایی می کند، زیرا این داده ها دارای توزیع یکنواخت هستند - مانند داده های فشرده، که هنگام استفاده از تست آنتروپی به عنوان رمزگذاری شده طبقه بندی می شوند. مثال: آنتروپی برخی از فایل های JPG 7,9961532 بیت/بایت است، آنتروپی برخی از TrueCrypt-container 7,9998857 است. این بدان معناست که با تست آنتروپی نمی توانم تفاوت بین داده های رمزگذاری شده و فشرده را تشخیص دهم. اما: همانطور که در تصویر اول مشاهده می کنید، بدیهی است که بایت های فایل JPG به طور یکنواخت توزیع نمی شوند (حداقل نه به اندازه بایت های موجود در محفظه truecrypt). آزمون دیگر می تواند تجزیه و تحلیل فرکانس باشد. توزیع هر بایت اندازه گیری می شود و به عنوان مثال. یک آزمون کای دو برای مقایسه توزیع با توزیع فرضی انجام می شود. در نتیجه، من یک مقدار p دریافت می کنم. وقتی این تست را روی JPG و TrueCrypt-data انجام می دهم، نتیجه متفاوت است. p-Value فایل JPG 0 است، به این معنی که توزیع از نظر آماری یکنواخت نیست. p-Value فایل TrueCrypt 0.95 است، به این معنی که توزیع تقریباً کاملاً یکنواخت است. سوال من در حال حاضر: آیا کسی می تواند به من بگوید که چرا تست آنتروپی اینگونه نتایج مثبت کاذب تولید می کند؟ آیا مقیاس واحدی است که محتوای اطلاعات در آن بیان می شود (بیت در هر بایت)؟ آیا به عنوان مثال مقدار p یک واحد بسیار بهتر است، به دلیل مقیاس دقیق تر؟ بچه ها برای هر پاسخ / ایده ای بسیار متشکرم! JPG-Image  TrueCrypt-Container  | مقایسه آنتروپی و توزیع بایت ها در داده های فشرده/رمزگذاری شده |
95491 | بسیاری از اوقات در آمار از یک آمار به روش های مختلف استفاده می کنیم. من فکر می کنم ضریب همبستگی درون طبقاتی یکی از آنهاست... ضریب همبستگی درون طبقاتی می تواند الف) معیار پایایی بین ارزیاب باشد، اما همچنین می تواند به عنوان B) معیار وابستگی بین نمرات (آزمون اولیه تحلیل چندسطحی) استفاده شود. بنابراین سوال(ها) این است/هستند: آیا از روش مشابهی برای اندازه گیری آن استفاده می کنیم؟ مثلا در برنامه های رابط کاربری گرافیکی مثل SPSS یا JMP از همین روش برای اندازه گیری استفاده می کنیم؟؟؟ آیا می توانید لطفاً به نشانی اینترنتی یا مقاله ای که نحوه استفاده از آن را به عنوان (B) نشان می دهد مراجعه کنید؟ محدوده (قاعده کلی) برای ICC برای B چقدر است؟؟؟ آیا مرجعی برای آن وجود دارد؟؟؟ پیشاپیش از مشارکت شما بسیار سپاسگزارم. من مشتاقانه منتظر پاسخ شما هستم. | سردرگمی ضریب همبستگی درون طبقاتی |
52659 | برای پایان نامه ام در این زمینه به کمک نیاز دارم. من 2 خط زمانی در تحقیقاتم دارم که در آنها متغیرهای مختلف اندازه گیری می شوند. تنها متغیری که برای هر دو خط زمانی یکسان است، استرس است. به من پیشنهاد شد که می توانم از رگرسیون چندگانه روی یک متغیر از زمان 1 و متغیر دیگری در زمان 2 (به عنوان IVs) استفاده کنم و آن را با استرس فقط با استفاده از زمان 2 (DV) آزمایش کنم. آیا این معتبر است؟ آیا من باید قبل از انجام آزمایش از هرگونه اقدامی اطمینان حاصل کنم؟ یا میتوانم پیشفرضهای دادهها را بررسی کنم و میتوانم آزمایش را از قبل اجرا کنم؟ مشاوره انجام دهید زیرا پاسخ زمان 1 با پاسخ زمان 2 با داده های از دست رفته از انصراف متفاوت است. پیشاپیش از شما متشکرم | رگرسیون چندگانه |
102994 | من از مقیاس های 5 درجه ای لیکرت به عنوان متغیر وابسته استفاده کردم (1 کاملا موافق، 2 موافق، 3 خنثی، 4 مخالف، 5 کاملا مخالف)، اما همانطور که می دانید، استفاده از رگرسیون لجستیک باینری مستلزم ایجاد یک متغیر باینری است. از این پاسخ های 5 سطحی. بنابراین، کاملاً موافقم و موافقم به دسته 1 تبدیل می شوند و مخالفم و کاملاً مخالفم به دسته 2 تبدیل می شوند، در حالی که ما گزینه پاسخ خنثی را حذف می کنیم (اگرچه این به طور قابل توجهی حجم نمونه من را کاهش می دهد). یک موضوع دیگر در این زمینه، پرسشنامه من دارای 12 متغیر است و هر متغیر با گروهی از آیتم ها اندازه گیری می شود. به عنوان مثال، من تحصیلات (با 7 آیتم اندازه گیری شده)، نابرابری جنسیتی (با 6 آیتم اندازه گیری شده)، اعتماد (با 6 آیتم اندازه گیری شده)، پیشرفت شغلی (با 7 آیتم اندازه گیری شده) و غیره دارم. حالا و برای ایجاد دسته باینری آیا باید امتیاز بالا و پایین هر متغیر را بگیرم و میانگین و انحراف معیار را پیدا کنم و موارد وسط را حذف کنم؟ اما این دوباره حجم نمونه من را به میزان قابل توجهی کاهش می دهد؟ در نهایت آیا بهتر است از رگرسیون لجستیک چند جمله ای به جای رگرسیون لجستیک باینری استفاده کنیم، زمانی که متغیرهای وابسته با مقیاس لیکرت 5 درجه ای اندازه گیری می شوند، یعنی با هر متغیر 5 گروه وجود دارد؟ | چگونه می توانم متغیرهای باینری را از مقیاس لیکرت برای مدل رگرسیون لجستیک باینری ایجاد کنم؟ |
45670 | من می دانم که این در درجه اول یک سایت آمار است، بنابراین اگر من خارج از موضوع هستم، لطفاً مرا تغییر مسیر دهید. من یک سیستم با پمپ هایی دارم که گاهی اوقات خراب می شوند و نیاز به تعویض دارند. من می خواهم بتوانم خرابی ها را پیش بینی کنم و از این طریق به افرادی که پمپ ها را تعویض می کنند هشدار دهم. من دادههای تاریخی برای فرآیند پمپ دارم، مانند جریان، فشار، ارتفاع مایع و غیره. من فقط تجربه کمی در استفاده از تکنیکهای یادگیری ماشین برای طبقهبندی دادهها دارم - اساساً تمرینهای دوره یادگیری ماشین Andrew Ng را دنبال و انجام دادهام. در coursera، و همچنین آمار یک اندرو کانوی، - و من هرگز از یادگیری ماشین برای طبقه بندی سری های زمانی استفاده نکرده ام. من به راه هایی فکر می کنم که بتوانم مشکل خود را تغییر دهم تا بتوانم از دانش موجود خود در مورد آن استفاده کنم. با دانش محدودی که دارم، پیشبینی خیلی بهینهای نخواهم گرفت، اما امیدوارم از این موضوع درس بگیرم و برای این مشکل، هر پیشرفت کوچکی در پیشبینی مفید است، در مقابل صرفاً انتظار برای رخ دادن خطاها. رویکرد پیشنهادی من تبدیل سری زمانی به یک مسئله طبقه بندی عادی است. ورودی خلاصه ای از یک پنجره سری زمانی با مقدار میانگین، انحراف استاندارد، مقادیر حداکثر و غیره برای هر نوع داده در پنجره خواهد بود. برای خروجی، من مطمئن نیستم که چه چیزی بهتر کار می کند. یک رویکرد این است که خروجی یک طبقه بندی باینری است که آیا پمپ در یک بازه زمانی معین از انتهای پنجره خراب می شود یا خیر. مورد دیگر این است که خروجی زمان باقیمانده قبل از از کار افتادن پمپ است، بنابراین نه یک طبقه بندی، بلکه یک رگرسیون (به معنای یادگیری ماشینی). آیا فکر می کنید این رویکرد احتمالاً نتایجی را به همراه خواهد داشت؟ آیا این یک سوال بستگی به دامنه و داده های تاریخی دارد. آیا تبدیلهای بهتری (هر دو ورودی و خروجی) وجود دارد که من در نظر نگرفتهام، یا اینکه پیشبینی خطا بر اساس دادههای سری زمانی آنقدر متفاوت از پیشبینی خطای استاندارد است، که بهتر باشد وقت من صرف خواندن یادگیری ماشین با سریهای زمانی شود. ? | چگونه می توانم داده های سری زمانی را تبدیل کنم تا بتوانم از تکنیک های ساده تری برای پیش بینی خطا استفاده کنم؟ |
80349 | برآوردگر رگرسیون چندک مشروط توسط کونکر و باست (1978) برای چندک $\tau^{th}$ به صورت $$\widehat{\beta}_{QR} = \min_{b} \sum^{n} تعریف میشود. _{i=1} \rho_\tau (y_i - X'_i b_\tau)$$ جایی که $\rho_\tau = u_i\cdot (\tau - 1(u_i<0))$ یک تابع وزندهی مجدد (به نام check-function) باقیمانده $u_i$ است. در مقاله ای توسط Firpo و همکاران. (2009) نویسندگان بیان می کنند که رگرسیون چندک شرطی اثرات جالبی نمی دهد. آنها میگویند که نتایج مشروط را نمیتوان به جمعیت تعمیم داد (در OLS همیشه میتوانیم از طریق قانون انتظارات تکراری از شرطی به غیرشرطی رسید، اما این برای چندکها در دسترس نیست). دلیلش این است که کمیک غیرشرطی $\tau^{th}$ $y_i$ ممکن است با کمیک شرطی $\tau^{th}$ $y_i |X_i$ یکسان نباشد. اگر به درستی متوجه شده باشم، بخشی از مشکل این است که متغیرهای کمکی در $X_i$ گنجانده شدهاند، بر متغیر رتبهبندی $u_i$ تأثیر میگذارد، زیرا درج متغیرهای کمکی، خطا را به اجزای مشاهدهشده و مشاهده نشده تقسیم میکند. من فقط نمی توانم کاملاً درک کنم که چرا این باعث ایجاد مشکلات می شود. در اینجا سؤالات من وجود دارد: 1) چه چیزی باعث می شود که اثرات کمی مشروط و غیرشرطی از یکدیگر متفاوت باشند؟ 2) چگونه می توانم ضرایب رگرسیون چندک شرطی را تفسیر کنم؟ 3) آیا رگرسیون چندک شرطی سوگیری دارند؟ مراجع Firpo, S. et al. (2009) رگرسیون های چندگانه بدون شرط، اقتصادسنجی، جلد. 77 (3)، ص 953-973 | تفاوت بین رگرسیون چندک شرطی و غیرشرطی چیست؟ |
95496 | میانگین گیری داده ها چه تأثیری بر واریوگرام دارد؟ برای مشخص بودن، لطفاً یک مثال ساده را ببینید: #شبیهسازی یک مجموعه داده تصادفی خالص، این *PROCESS A* n <- 1000 #تعداد نقاط داده t <- 1:n #time y <- cumsum(rnorm(n )) #نقاط داده # با میانگین هر 2 تاخیر، این *PROCESS B* t2 را بنامید <- application(ماتریس(t, nrow=n/2, byrow=TRUE), 1, mean) y2 <- اعمال (ماتریس(y, nrow=n/2, byrow=TRUE), 1, mean) # واریوگرام تجربی نیاز(geoR) var <- as.geodata را محاسبه و رسم کنید (data.frame(coords = t(rbind(t, rep(1, n)))، data.col=y)) vario <- variog(var1) var2 <- as.geodata(data.frame(coords = t(rbind(t2, rep(1, n/2)))، data.col=y2) vario2 <- variog(var2) plot(vario$u, vario$v، type='b'، pch=16، cex=.7) نقاط (vario2$u، vario2$v، col=2، type='b'، pch=16, cex=.7) از نظر تئوری $\gamma(h) = \frac{1}{2} Var(y(t) - y(t+h))$ و برای یک واریوگرام خطی یک فرآیند ساده بدون اثر قطعه این $\frac{1}{2}\sigma^2 |h|$ است که $\sigma^2$ واریانس فرآیند اصلی است. بنابراین، ما انتظار داریم (1) دو واریوگرام موازی باشند و (2) نسبت اثر قطعه فرآیند A به فرآیند B 4/3 باشد. نمودارها و ریاضی را با هم مقایسه کنید: (1) تایید می شود، اما (2) تایید نمی شود. چرا؟ آیا این یک مثال ساده از مشکل تغییر حمایت در زمین آمار است؟ پیشاپیش از شما تشکر می کنم. | میانگین گیری داده ها چه تأثیری بر واریوگرام دارد؟ |
20534 | من در حال مدل سازی یک رویداد با دو نتیجه، a و b هستم. من مدلی ایجاد کردهام که احتمال وقوع a یا b را تخمین میزند (یعنی مدل محاسبه میکند که a با احتمال 40٪ و b با 60٪ شانس اتفاق میافتد). من سابقه زیادی از نتایج کارآزمایی ها با تخمین های مدل دارم. من می خواهم کمیت کنم که مدل چقدر از این داده ها استفاده می کند - آیا این امکان پذیر است و اگر بله چگونه؟ | تعیین دقت مدلی که احتمال وقوع را تخمین می زند |
90048 | من در حال کار بر روی پروژه ای هستم که باید از داده های فروش حجم پایه و تبلیغاتی را جدا کنم. من برای 4 سال گذشته در سطح هفته داده های فروش دارم. چگونه می توانم حجم پایه و تبلیغات را فقط از این مقدار داده جدا کنم؟ آیا می توان با رگرسیون یا هر رویکرد سری زمانی انجام داد؟ من قدردان هر گونه بازخوردی هستم. با تشکر | تفکیک پایه و حجم تبلیغاتی |
80343 | من 2 فاکتور دارم یکی (Page type) 2 سطح و دیگری (Intensity) 4 سطح. من یک طراحی کامل 2x4 با 10 تکرار انجام دادم ، بنابراین 80 آزمایش انجام دادم. سپس من می خواستم ANOVA دو طرفه را در مورد این داده ها انجام دهم. اگر اشتباه میکنم، مرا تصحیح کنید، اما چیزی که باید بررسی کنم این است که آیا باقیماندهها مستقل، همسداست و به طور معمول توزیع شدهاند. مستقل بودن و همساختار بودن با «باقیمانده بر اساس طرح پیشبینیشده» تأیید میشود، زیرا هیچ روند قابل مشاهده یا اسپرد فزایندهای وجود ندارد. فرض نرمال بودن تأیید نشده است (نمودار دوم)، اما به نظر می رسد که مشکل بزرگی نیست زیرا: > علاوه بر این، نرمال بودن کمترین فرض یک مدل خطی است > (به عنوان مثال، ANOVA). ممکن است لازم نباشد که باقیمانده ها کاملاً عادی باشند. > (http://stats.stackexchange.com/a/28635/36058) به نظر می رسد که آنها _تقریباً عادی_ هستند. بنابراین، آیا افکار من درست است؟ آیا می توانم ANOVA دو طرفه را روی این داده ها به درستی انجام دهم؟ (ANOVA کامل: http://i.imgur.com/7tR3Kv2.png)  | ANOVA دو طرفه در باقیمانده های نه کاملاً عادی |
95498 | من میانگین (u) و انحراف معیار (sd) یک توزیع پیوسته (X) را دارم. چگونه می توانم میانگین (u_log) و انحراف استاندارد (sd_log) گزارش آن توزیع پیوسته (log(X)) را حل کنم؟ من به دنبال کشیدن اعداد تصادفی از یک توزیع log-normal هستم. مشکل این است که اکثر بسته های آماری دارای یک تابع log-normal-random-random-generator هستند که میانگین log (X) و sd از log (X) را به عنوان ورودی می گیرد. من فقط میانگین X و std از X را دارم. چگونه می توانم میانگین(log(X)) و sd(log(X)) را با توجه به این ورودی ها حل کنم. | نحوه محاسبه پارامترهای log-normal با استفاده از میانگین و std توزیع داده شده |
45677 | من در تلاش هستم که اجزای واریانس را برای انتخاب و شانس در یک طراحی bifactorial با نسل ** به عنوان یک عامل ثابت ** و ** به عنوان یک اصطلاح تصادفی تکرار کنم ، ** برای باروری اولیه. از آنجایی که من از سطح فردی استفاده میکنم (چون میخواهم فواصل اطمینان را برای شانس ایجاد کنم)، اندازه نمونه بین نسلها برابر نیست، بنابراین یک طرح نامتعادل است و یک ANOVA اندازهگیری تکراری نیست، زیرا افراد من متفاوت هستند. مشکل این است که وقتی نتایج را بین Statistica و R مقایسه میکنم، میانگین مربعات (MS) برای عوامل تولید و تکرار متفاوت است (اما MS برای Gen*Rep و باقیماندهها اینطور نیست!) دادههای من شامل 2 عبارت است: * نسل - ضریب ثابت 2 سطح (6 و 11) * تکرار - ضریب تصادفی سطح 3 (Ad1، Ad2، Ad3) مدلی که من استفاده می کنم g است. <- Anova (aov(Fec~ Gen+Rep+ Gen*Rep), random=~1|Gen*Rep) من مطمئن نیستم که اینگونه بیان کنم که می خواهم عبارات با Replicate تصادفی باشند (شاید این یکی از خطاهای من هنگام مقایسه با نتایج Statistica؟). * ممکن است تفاوت ها به دلیل طراحی نامتعادل باشد؟ آیا R و Statistica روش های مختلفی برای رسیدگی به تعداد افراد مختلف در هر تکرار و نسل دارند؟ * چرا همه ام اس برابر نیستند؟ آیا راهی وجود دارد که نتایج یکسان باشد؟ * چگونه می توانم نشان دهم که یک عامل (و همه تعاملات آن) تصادفی هستند؟ * چگونه میتوانم به R بگویم که میخواهم فاکتور Generation را در برابر عبارت Gen*Rep آزمایش کند یا آن را به روش دیگری بیان کنم تا اهمیت فاکتور Gen را در برابر ناهمگونی بین تکرارهای من آزمایش کند؟ | پارتیشن های مختلف میانگین مربع در یک آنالیز واریانس دو عاملی نامتعادل (با ضریب تصادفی) بین R و Statistica |
64049 | من آزمایشی را با 7 شرایط درمانی طراحی شده برای کاهش مصرف الکل و یک شرایط کنترل انجام داده ام. متغیر وابسته، مصرف الکل پس از درمان است، و من یک ANCOVA را با مصرف پایه الکل به عنوان متغیر کمکی انجام دادهام. من هیچ تاثیری از آزمون ANCOVA F omnibus پیدا نکردم، اما میخواستم مقایسههای خاصی را بین شرایط درمان (که هدف اصلی تحقیق بود) بررسی کنم. بنابراین من از تضادهای برنامه ریزی شده برای بررسی دو سؤال خاص استفاده کردم: * میانگین همه شرایط درمان در مقابل شرایط کنترل = بدون تأثیر. * درمان 1 در مقابل تمام درمان های دیگر به صورت جداگانه. به عنوان مثال درمان 1 در مقابل درمان 2، درمان 1 در مقابل درمان 3، درمان 1 در مقابل درمان 4 و غیره. من تفاوت قابل توجهی بین درمان 1 و درمان 6 پیدا کرده ام (که فرضیه آن را داده بودم - اما نه بر اساس شواهد _قوی، بیشتر از حد تصور) با این حال، برای انجام این مقایسههای چندگانه، هیچ اصلاحی برای نرخ خطای نوع 1 متورم اعمال نکردهام. همه چیزهایی که تا کنون در مورد این موضوع خوانده ام در مورد نحوه استفاده از اصلاحات بسیار مبهم بوده است، به عنوان مثال. اوه خوب است تا زمانی که فقط چند تضادهای برنامه ریزی شده را انجام دهید یا اگر دلیلی پیشینی برای آن دارید - اما این خیلی مفید نیست، چند چند است؟ سوال من این است: آیا به نظر شما برای مقایسه های چندگانه (من در مجموع 7 مورد را انجام داده ام) نیاز به اعمال تعدیل دارم و اگر بله، کدام تنظیم؟ من خوانده ام که هنگام استفاده از ANCOVA فقط می توانید از تنظیمات خاصی استفاده کنید (بر خلاف ANOVA). تست دانت به نظر می رسد که می تواند درست باشد، اما من نمی دانم که آیا می توان از تست دانت با ANCOVA استفاده کرد؟ هر گونه کمکی (یا حتی راهنمایی من در جهت مطالعه مفیدتر) بسیار قدردانی خواهد شد. | تصحیح برای مقایسه های متعدد در تضادهای برنامه ریزی شده با ANCOVA |
95492 | من چندین گروه سنسور دارم، هر گروه داده ها را با احتمال متفاوت ارسال می کند. من میخواهم این گروهها را به 3 دسته طبقهبندی کنم (دسته اول دادهای برای ارسال ندارد، دسته دوم یک سنسور برای ارسال دارد و دسته سوم بیش از یک سنسور دارد که داده ارسال میکند) چگونه میتوانم تابع توزیع احتمال را برای این دستهها بنویسم. | دسته بندی حسگرها |
57863 | ما می دانیم که مقدار مورد انتظار $1 \ بیش از X$، که در آن $X$ یک متغیر تصادفی عادی است، وجود ندارد. اما فرض کنید در بازهای که صفر نباشد شرط میکنیم. به عنوان مثال، اگر $ \mu_X = 10$ و $\sigma_X = 1$، $E چیست [{1 \over X} | ( 9<X<10 )] $ ? من می دانم که می توان از یکپارچگی عددی یا تقریبی استفاده کرد، اما آیا می توان یک فرمول تحلیلی پیدا کرد؟ اگر چنین است، چه تکنیکی برای ارزیابی انتگرال استفاده می شود؟ | انتظار مشروط برای متقابل یک عادی |
49114 | یک کوزه حاوی N-1 قرمز و 1 توپ سبز است. هر توپ یک وزن مرتبط دارد. اگر هر توپ (بدون جایگزینی) با احتمالی متناسب با میزان سهم وزن آن در کوزه کشیده شود، تعداد مورد انتظار برای گرفتن توپ سبز چقدر است؟ مثال: 2 توپ قرمز با وزن 0.3 و 0.4 و توپ سبز با وزن 0.3. در اولین تلاش، «Pr(red1)=0.3»، «Pr(red2)=0.4»، «Pr(سبز)=0.3». مثلاً توپ قرمز با وزن 0.3 در اولین تلاش انتخاب می شود. سپس، در تلاش بعدی، «Pr(red2)=0.4/(0.4+0.3)» و «Pr(سبز)=0.3/(0.4+0.3)». اگر توپ های قرمز بیشتری وجود داشته باشد، پیگیری احتمالات نسبتاً دشوار می شود. | کوزه با احتمالات غیر یکنواخت |
92848 | من میدانم که آزمون t به «دادههای توزیع شده عادی» نیاز دارد. اما متغیر `y` را در نظر بگیرید. هنگامی که بدون تقسیم شدن توسط «گروه» رسم می شود، معمولاً توزیع نمی شود: set.seed(1) y <- c(rnorm(1000, 1), rnorm(1000, 5)) گروه <- c(rep (A، 1000)، rep(B، 1000)) df <- data.frame(y=y، group=group) library(ggplot2) ggplot(df, aes(y)) + geom_histogram()  اما وقتی «y» با « تقسیم می شود گروه`، معمولاً توزیع می شود: ggplot(df، aes(y)) + geom_histogram() + facet_grid(~group)  آیا کسی می تواند توضیح دهد که آیا یک متغیر فقط پس از تقسیم شدن بر اساس گروه باید به طور معمول توزیع شود؟ | t-test چه چیزی باید به طور معمول توزیع شود؟ |
49119 | من قبلا هیچ مشکلی با خراب شدن R نداشتم. من از بسته موش (موش 2.13) برای انجام چندین انتساب استفاده می کنم. کد روی برخی از زیر مجموعههای داده به خوبی کار میکند، اما وقتی آن را روی زیرمجموعههای دیگر اجرا میکنم، R خراب میشود (نه بلافاصله - پس از مدتی). از خروجی R درست قبل از خراب شدن، من معتقدم که از روش انتساب «2l.pan» استفاده می کند (از بسته «pan») من قبلا update.packages() را اجرا کرده ام. چگونه می توانم این مشکل را تشخیص دهم؟ امضای مشکل: نام رویداد مشکل: نام برنامه APPCRASH: نسخه برنامه Rgui.exe: 2.151.59607.0 مهر زمانی برنامه: 4fe47a63 نام ماژول خطا: R.dll نسخه ماژول خطا: 2.151.59607.0 نسخه ماژول خطا: 2.151.59607.0 Timesta7. c0000005 Exception Offset: 0000000000032ec8 نسخه OS: 6.1.7601.2.1.0.256.4 شناسه محلی: 2057 اطلاعات اضافی 1: 7782 اطلاعات اضافی 2: 77823beb5aec83dionald اطلاعات 3: 4491 اطلاعات اضافی 4: 4491b41bf90894717964f5eef2cccd84 **به روز رسانی** من موفق به ایجاد یک مثال قابل تکرار، با داده ها شدم: require(foreign) require(mouse) require(pan) dt.fail <(http: read.cv //goo.gl/pg8um) dt.fail$X <- NULL dt.fail$out <- as.factor(dt.fail$out ) dt.fail$grp<- as.factor(dt.fail$grp) dt.fail$v1<- به عنوان .factor(dt.fail$v1) dt.fail$v2<- as.factor(dt.fail$v2) dt.fail$v3 <- as.factor(dt.fail$v3) dt.fail$v7<- as.factor(dt.fail$v7) dt.fail$v8 <- as.factor(dt.fail$v8 ) dt.fail$v9 <- as.factor(dt.fail$v9) dt.fail$v11 <- as.factor(dt.fail$v11) dt.fail$v12 <- as.factor(dt.fail$v12) PredMatrix <- quickpred(dt.fail) PredMatrix['CTP',] <- c(1,- 2,0,0,0,0,0,0,0,0,1,0,1,1,0,2) انباشت = موش( data=dt.fail، m = 1، maxit = 1، imputationMethod = c( logreg، # out ، # grp ----> ضریب گروه بندی خوشه pmm، # v1 polyreg، # v2 logreg، # v3 pmm، # v4 logreg، # v5 logreg، # v6 polyreg، # v7 ----> کمکی polyreg، # v8 ----> کمکی polyreg، # v9 ----> کمکی polyreg، # v10 ----> کمکی ، # v11 ----> کامل ، # v12 --- -> کامل 2l.pan، # CTP ----> انتساب چند سطحی )، # const ----> مورد نیاز برای انباشت چندسطحی predictorMatrix = PredMatrix، seed = 101) و برای کامل بودن، در اینجا ماتریس پیش بینی کننده ای است که من استفاده می کردم: . out grp v1 v2 v3 v4 v5 v6 v7 v8 v9 v10 v11 v12 CTP const out 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 grp 0 0 0 0 0 0 0 0 0 0 0 0 0 v1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 0 v2 0 0 0 0 0 1 1 1 0 1 0 0 1 1 1 0 v3 0 0 0 0 0 1 1 1 0 1 0 1 1 1 0 v4 0 0 0 0 1 1 0 1 1 0 1 1 1 0 v5 1 1 0 0 0 0 0 1 0 1 0 0 1 0 0 0 v6 1 1 0 1 0 1 1 0 0 1 0 0 1 0 0 0 v7 0 0 0 0 0 0 1 1 0 0 0 1 0 0 v8 0 0 0 0 0 0 1 1 0 0 0 0 1 1 0 0 v9 0 0 0 0 1 1 1 1 0 1 0 0 1 1 1 0 v10 0 0 0 0 0 0 1 1 0 1 0 0 1 1 0 0 0 v11 0 0 0 0 0 0 0 0 0 0 0 0 0 0 v12 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 CTP 1 -2 0 0 0 0 0 0 0 1 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | تشخیص اینکه چرا MICE هنگام تلاش برای نسبت دادن دادههای چند سطحی، R را از کار میاندازد |
90782 | من یک مجموعه داده بسیار ساده دارم که شامل یک متغیر مستقل (پنج محل نمونهبرداری به عنوان عوامل) و متغیر نتیجه است که وضعیت بیماری (مثبت/منفی) در خرچنگهای هر سایت است. این سایت ها در فواصل مختلف از نقطه خروج فاضلاب واقع شده اند. فرضیه های من این است که 1) شیوع در بین سایت ها متفاوت است، و 2) شیوع بیماری به عنوان تابعی از فاصله از یک منطقه آلودگی منبع نقطه ای شناسایی شده متفاوت است. فرضیه 1 با استفاده از آزمون کای اسکوئر برای روند بررسی شد. با توجه به فرضیه 2، من یک مدل رگرسیون لجستیک ساختم. بهجای استفاده از سایتی که در دورترین فاصله از منبع آلودگی قرار دارد (خرچنگهایی که کمتر در معرض آلودگی قرار دارند)، بهعنوان گروه مرجع، به یک تحلیل اولیه متوسل شدم و از سایتی با کمترین شیوع به عنوان گروه مرجع استفاده کردم. با این اوصاف، من رده پایه خود را انتخاب نکردم (در مقایسه با همه موارد دیگر) _A priori_، بلکه تنها پس از دانستن اینکه خرچنگ های آن سایت کمترین آسیب را می بینند. ساختن مدل به این شکل برای من منطقی بود. با این حال، مطمئن نیستم که هیچ فرضی را در اینجا با درج نکردن دسته مرجعی که در وهله اول فکر می کردم کمترین شیوع بیماری را داشته باشد، نقض نمی کنم. آیا من اینجا اشتباه بزرگی می کنم؟ پیشاپیش از شما متشکرم. | ساخت مدل بر اساس تجزیه و تحلیل داده های اولیه |
80342 | آیا بازسازی مدل رگرسیون خطی چند متغیره به عنوان یک رگرسیون خطی چندگانه کاملاً معادل است؟ منظور من صرفاً اجرای رگرسیون های جداگانه $t$ نیست. من این را در چند جا خواندهام (تحلیل دادههای بیزی - گلمن و همکاران، و مدرسه قدیمی چند متغیره - ماردن) که یک مدل خطی چند متغیره را میتوان به راحتی بهعنوان رگرسیون چندگانه مجدداً پارامتر کرد. با این حال، هیچ یک از منابع به هیچ وجه در این مورد توضیح نمی دهند. آنها اساسا فقط آن را ذکر می کنند، سپس به استفاده از مدل چند متغیره ادامه می دهند. از نظر ریاضی، ابتدا نسخه چند متغیره را می نویسم، $$ \underset{n \times t}{\mathbf{Y}} = \underset{n \times k}{\mathbf{X}} \hspace{2mm}\ underset{k \times t}{\mathbf{B}} + \underset{n \times t}{\mathbf{R}}، $$ جایی که پررنگ متغیرها ماتریس هایی هستند که اندازه آنها در زیر آنها قرار دارد. طبق معمول، $\mathbf{Y}$ داده است، $\mathbf{X}$ ماتریس طراحی است، $\mathbf{R}$ معمولاً باقیمانده های توزیع شده هستند، و $\mathbf{B}$ چیزی است که ما به آن علاقه داریم. در استنباط با. برای تغییر پارامتر به عنوان رگرسیون خطی چندگانه آشنا، به سادگی متغیرها را به صورت زیر بازنویسی می کنیم: $$ \underset{nt \times 1}{\mathbf{y}} = \underset{nt \times nk}{\mathbf{D}} \hspace{2mm} \underset{nk \times 1}{\boldsymbol{\beta}} + \underset{nt \times 1}{\mathbf{r}}، $$ که در آن پارامترهای مجدد مورد استفاده عبارتند از $\mathbf{y} = row(\mathbf{Y}) $، $\boldsymbol\beta = row(\mathbf{B})$، و $\mathbf{D} = \mathbf{X} \otimes \mathbf{I}_{n}$. $row()$ به این معنی است که سطرهای ماتریس از انتها به انتها در یک بردار بلند مرتب شده اند و $\otimes$ محصول کرونکر یا بیرونی است. بنابراین، اگر این خیلی آسان است، چرا به نوشتن کتابهایی در مورد مدلهای چند متغیره، آزمایش آمار برای آنها و غیره مشغول شوید؟ موثرتر است که ابتدا متغیرها را تبدیل کنید و از تکنیک های تک متغیره رایج استفاده کنید. مطمئنم دلیل موجهی وجود دارد، من فقط در فکر کردن به یکی، حداقل در مورد یک مدل خطی، مشکل دارم. آیا موقعیتهایی با مدل خطی چند متغیره و خطاهای تصادفی توزیع شده معمولی وجود دارد که این پارامترسازی مجدد اعمال نمیشود، یا احتمالات تحلیلی را که میتوانید انجام دهید محدود میکند؟ منابعی که من این را دیده ام: Marden - آمار چند متغیره: مدرسه قدیمی. به بخش های 5.3 - 5.5 مراجعه کنید. این کتاب به صورت رایگان در دسترس است: http://istics.net/stat/ Gelman et al. - تجزیه و تحلیل داده های بیزی من نسخه دوم را دارم و در این نسخه یک پاراگراف کوچک در چ. 19 مدل های رگرسیون چند متغیره با عنوان: مدل رگرسیون تک متغیره معادل اساساً، آیا می توانید هر کاری را با مدل رگرسیون تک متغیره خطی معادل انجام دهید که با مدل چند متغیره می توانید انجام دهید؟ اگر چنین است، اصلاً چرا روش هایی برای مدل های خطی چند متغیره ایجاد می شود؟ در مورد رویکردهای بیزی چطور؟ | ریخته گری یک مدل خطی چند متغیره به عنوان یک رگرسیون چندگانه |
95490 | من در دنیای داده کاوی تازه کار هستم. من یک مجموعه داده از 19 متغیر دارم (بعضی از آنها طبقه بندی شده اند). این در مورد زمان اجرای برنامه های مختلف است. من چیزی شبیه به این دارم) اما با هزاران ردیف. فرآیند فرعی برنامه ex_time مکان شروع_تاریخ شروع_زمان جلسه 1 A.a A.1 2 اسپانیا 01/02/2014 17:02:14 1234 2 A A.b A.2 2 اسپانیا 01/02/2014 17:02:16 1234 3 A. .2 3 فرانسه 01/02/2014 12:15:24 8374 4 B B.d B.4 4 انگلستان 02/02/2014 17:13:56 94374 5 B B.e B.5 5 آلمان 16/02/2014 10:11:14 3873 6 C.f C. 6 لهستان 25/01/2014 11:33:15 83739 7 C C.g C.9 0 فرانسه 9/04/2014 12:02:14 9437 هر برنامه دارای انواع مختلفی از فرآیندها است، اما هر فرآیند فرعی می تواند در یک فرآیند متفاوت باشد (اما باید در همان برنامه باشد) به عنوان مثال زیرفرایند A.2 داخل فرآیند A.b و A.c است (و باید در A باشد). ex_time زمان اجراست. Session یک عدد برای هر جلسه کاربر است (یعنی برای مثال در جلسه 1234 کاربر 2 ردیف اول نمونه را اجرا کرده است). چگونه می توانم پایه تاریخ را مطالعه کنم؟ چگونه می توانم زمان اجرا را پیش بینی کنم؟ برای آن از چه چیزی استفاده کنم؟ درختان تصمیم، خوشه بندی، (من با رگرسیون خطی با استفاده از زیر فرآیندهای مرتب شده توسط برنامه ها امتحان کرده ام)؟، سری زمانی، شبکه عصبی، قوانین ارتباط؟ متشکرم | مطالعه داده کاوی و پیش بینی یک چارچوب داده در R |
90785 | حداقل مربعات وزنی (WLS) و خطاهای استاندارد قوی گاهی اوقات به عنوان رویکردهای جایگزین برای به دست آوردن خطاهای استاندارد قابل اعتماد برآورد ضرایب رگرسیون در حضور ناهمسانی ارائه می شوند. با این حال، متوجه شدم که نرم افزار من (gretl) خطاهای استاندارد قوی را به عنوان یک گزینه در هنگام استفاده از WLS ارائه می دهد. موقعیتی که در آن به نظر میرسد این ممکن است مفید باشد، جایی است که در یک رگرسیون Y بر X، دلیل واضحی برای ناهمسانی وجود دارد، برای مثال یک اثر مقیاس بهطوریکه انتظار میرود مقادیر بزرگتر Y با واریانسهای بزرگتری همراه باشد. سپس می توان از WLS استفاده کرد و به مشاهدات با Y کوچکتر وزن بیشتری داد (یا شاید بهتر، به مشاهدات با E[Y | X] کوچکتر، همانطور که از رگرسیون OLS اولیه استنباط می شود). با این حال، ممکن است یافت شود که باقیماندههای WLS مقداری ناهمگونی باقی مانده را پیشنهاد میکنند که وزندهی آن را حذف نکرده است. این نشان می دهد که خطاهای استاندارد تخمین زده شده توسط WLS ممکن است کاملاً قابل اعتماد نباشند، و برای رسیدگی به این ممکن است خطاهای استاندارد قوی را انتخاب کنیم (به جای تلاش برای انجام این کار از طریق الگوی وزن دهی پیچیده تر). سوال: با فرض اینکه تعداد مشاهدات به طور معقولی زیاد باشد (مثلاً بیش از 100)، آیا در استفاده از WLS با خطاهای استاندارد قوی هنگام تخمین خطاهای استاندارد ضرایب رگرسیون، مشکلاتی وجود دارد؟ | استفاده از حداقل مربعات وزن دار با خطاهای استاندارد قوی |
59815 | سلام من مجموعه ای از داده ها (پیام با اندازه های مختلف) در اکسل مانند (بیش از 5000 ورودی): پیام نام پیام اندازه پیام1 0.5 میلیون پیام2 10.2 میلیون پیام3 2.1 میلیون ... پیام n-1 40.52 میلیون پیام n 12.12 میلیون پیام با موفقیت ایجاد کردم یک جدول فرکانس و یک نمودار میله ای با آن. به عنوان مثال طیف مختلف اندازه چند پیام رخ داده است؟ 0 - 5M 4000 5 - 10M 454 5 - 15M 234 .. ... 45-50M 2 در زیر چند آمار برای این مجموعه داده ها آمده است: میانگین حالت میانه چولگی Kurtosis 2.085443743 0.884527206206 0.884527206 2. 5.067491934 37.95900794 انحراف استاندارد حداقل حداکثر 3.642138843 0.006651878 49.12574959 اما وقتی سعی کردم از طریق NORMDIST() یک توزیع عادی ترسیم کنم، احتمالاً توزیع آن خیلی زشت نیست! به این ترتیب، میانگین و مد کاملاً متفاوت هستند! چگونه می توانم بفهمم که داده ها به چه نوع توزیعی تعلق دارند؟ یا یک مدل آماری برای آن مدل کنید؟ #خیلی ممنون فکر میکنم آمار اینجا یک انجمن عالی است، پاسخهای مفید زیادی در مدت کوتاهی مانند stackoverflow وجود دارد :) | چگونه یک توزیع برای مجموعه ای از داده ها پیدا کنیم؟ |
99694 | من تعدادی آزمایش یادگیری ماشین را برای پیش بینی یک طبقه بندی باینری انجام دادم. دقت، یادآوری و دقت را اندازه گرفتم. متوجه شدم که دقت من به طور کلی بسیار بالا است و یادآوری و دقت همیشه اعداد یکسانی هستند. من از تعاریف زیر استفاده کردم: $\text{Precision} = \frac{TP}{(TP + FP)}$$\text{Recall} = \frac{TP}{(TP + FN)}$$\text{ Accuracy} = \frac{(TP + TN)}{(P + N)}$ من برای تفسیر دقت و یادآوری مشکلاتی دارم. اگر این دو عدد همیشه در مورد من یکسان باشند به چه معناست؟ | اگر دقت و یادآوری یکسان باشد به چه معناست؟ |
80344 | من در درک مکان و چند بار استفاده از set.seed() مشکل دارم. من در حال انجام یک اعتبارسنجی متقاطع ترک یک خارج در مجموعه ای با 120 متغیر طبقه بندی شده برای پیش بینی 300 متغیر دیگر از کلاس ناشناخته هستم. آیا باید seed را در ابتدای کد تنظیم کنم یا در ابتدای هر تکرار اعتبار سنجی متقاطع ترک یک خروجی به منظور تضمین اجرای قابل تکرار؟ ممنون از هرگونه راهنمایی و توضیحات | یکی از اعتبار سنجی متقاطع را کنار بگذارید و در R قرار دهید |
95141 | من از lsmeans برای اجرای تجزیه و تحلیل پسهک برای کنتراستهای مدل مختلط خطی استفاده میکنم، و در اینجا خروجی است: $contrasts تخمین کنتراست SE df t.ratio p.value aL2_like - انگلیسی 450.7397 252.6889 75.99 1.784 0.1223-like 0.1819 thai aL 127.8683 59.66 1.757 0.1931 انگلیسی - تایلندی -226.1284 274.6949 96.77 -0.823 0.6896 میتوانم بپرسم که آیا برآورد در اینجا به اندازه اثر هر کنتراست اشاره دارد؟ | در خروجی lsmeans، آیا تخمین اندازه اثر آن تضاد است؟ |
95497 | در اینجا اصول اولیه: گروه 1 گروه کنترل است، به آنها یک وب سایت خاص داده می شود تا از آنها استفاده کنند. گروه 2 گروه آزمایشی است، به آنها یک وب سایت مشابه با ویژگی های فرامتن تنظیم شده داده می شود. پس از انجام اقدامات لازم، از آنها خواسته می شود تا یک نظرسنجی (مقیاس لیکرت) را تکمیل کنند که سعی می کند احساس آنها را در مورد امنیت و راحتی وب سایت اندازه گیری کند. این نسخه فشرده سوال است. فقط میخوای چک کنی IV: Hypertext The DV: Security and Convenience (اندازه گیری شده از طریق مقیاس لیکرت) اما از کدام آزمون های آماری در SPSS می توانم برای نشان دادن تفاوت معنادار در گروه کنترل و آزمایش استفاده کنم؟ و مشاوره اضافه نیز عالی خواهد بود. جدید به آمار، بنابراین هر گونه کمک قدردانی می شود. | چه آزمون های آماری برای این طرح موثر خواهد بود؟ |
57865 | از آمار ریاضی بیکل و داکسوم   من تعجب کردم که $\Theta_0$ ابعاد کوچکتری نسبت به $\Theta = \Theta_0 \cup چیست؟ \Theta_1$ یعنی؟ توجه: در متن اصلی، $\theta_0$ یک اشتباه تایپی است و باید $\Theta_0$ باشد. چرا وقتی $p(x، \theta)$ در $\theta$ ممتد است و $\Theta_0$ ابعاد کوچکتری دارد که $\Theta = \Theta_0 \cup \Theta_1$، سپس $L(x)= \ لامبدا(x)$؟ با تشکر و احترام! | دو شکل آمار آزمون در آزمون های نسبت احتمال |
49113 | من از تابع matlab corr برای شناسایی همبستگی 236 نمونه استفاده کردم. همبستگی پیرسون انتخاب شده و خروجی مقدار r و p را برمی گرداند. دو مجموعه از نمونه ها مقدار r و p متفاوتی را برگرداندند. آیا می توانم بدانم چگونه اهمیت همبستگی را با نتایج زیر تفسیر کنم؟ (الف) دادهها همبستگی منفی قوی دارند و از آنجایی که p-value بسیار کمتر از 0.05 است (p<0.05) r = -0.9383 p = 6.7415e-110 معنیدار است (ب) دادهها همبستگی مثبت ضعیفی دارند، و به عنوان مقدار p> 0.05 ناچیز است. r = 0.06800 p = 0.2981 درست است؟ | تفسیر اهمیت p-value از همبستگی پیرسون |
99695 | من در حال بحث در مورد چگونگی تغییر رشد یک تجارت در یک دوره زمانی با یک همکار هستم. مسئله این است که من می خواهم تأثیر سرمایه گذاری تجاری را فراتر از تعمیر و نگهداری تعمیم دهم. مثال یک هتل زنجیره ای با n هتل در سال اول است. در سال دوم، هتلهای $n + x - y$ دارند، که $x$ افتتاحیههای جدید هستند و $y$ فروخته شده یا هتلهای بسته شده در سال مرجع هستند. برای مقایسه این دو سال مانند مشابه، من وسوسه میشوم که فقط $n - y$ را گزارش کنم، اما این به نظر من چندان منطقی نیست زیرا تأثیراتی مانند درآمد بیشتر هتلهای جدید و آدمخواری برخی از هتلهای قدیمی و غیره را در نظر نمیگیرد. آیا روش معمولی وجود دارد که چگونه این اثرات را کاهش می دهند؟ | گزارش تغییر زمانی که خط مبنا متفاوت است |
10557 | names(mydat)[c(name)]<-c(newname) از این رو می دانم که نام ستون/متغیر name قاب داده mydat با newname جایگزین شده است. سوال من این است که اگر بخواهم این کار را با یک حلقه انجام دهم تا چیزهایی مانند: newname1 newname2 newname3 newname4 و غیره داشته باشم، چگونه این کار را انجام دهم؟ این چیزی است که انجام داد و کار نکرد: for(i در 1:4){ names(mydat)[c(name)]<-c(newnamei) } آیا راهی برای کدگذاری این مورد وجود دارد؟ با تشکر فراوان از همه کسانی که می توانند کمک کنند. اووسو آیزاک | چگونه نام ستون ها را در قاب داده در R تغییر دهیم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.