_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
57053 | دو مجموعه از متغیرهای تصادفی مستقل به من داده شده است که توسط دو توزیع نرمال متفاوت $X_1,...,X_n \sim N(\theta_1,1)$ و $Y_1,...,Y_m \sim N(\theta_2, 1) دلار. و از آنها خواسته شده است که تابع احتمال log را برای پارامتر $\theta = (\theta_1,\theta_2)$ پیدا کنند. میخواستم بدانم آیا یک رویکرد صحیح این است که $l(\theta) = \sum_{i=1}^n(log(f(\theta_1;x_i)) + \sum_{i=1}^m(log (f(\theta_2;y_i)))$، که $f(\theta_1;x_i)$ پی دی اف برای $X_i \sim N(\theta_1,1)$ است یا من هستم این کار را کاملاً اشتباه انجام می دهید؟ | احتمال log چند پارامتری توزیع نرمال برای دو نمونه جداگانه |
27992 | اجازه دهید $X = (X_1، \ldots، X_p) \sim F$ یک بردار تصادفی چند متغیره باشد. ما n مشاهده iid از F، $\\{x_i\\}_{i=1}^n$ داریم. فرض کنید $\hat r_{ab}$ تخمین تجربی همبستگی جزئی بین $X_a$ و $X_b$ با توجه به سایر اجزای F باشد. چه نتایجی برای $P[|\hat r_{ab} - r_ شناخته شده است. {ab}| > t] \leq f(t)$ که $r_{ab}$ همبستگی جزئی جمعیت است و $f(t)$ مقداری تابع نزولی t است؟ اگر $F$ گاوسی چند متغیره باشد چه؟ از مراجع استقبال می شود. | نتایج غلظت نمونه محدود برای همبستگی جزئی |
80698 | من انواع مختلفی از روشها را برای یافتن مدلها با رگرسیون، و بسیاری از مدلهای مختلف برای یافتن خوشهها با الگوریتمهای خوشهبندی یاد گرفتهام، اما از زمانی که با ML شروع کردم، همیشه به این فکر میکردم که چگونه میتوان از یک الگوریتم به جای الگوریتم دیگری استفاده کرد؟ آیا همیشه باید خطاهای هر مدل را اندازه گیری کنیم سپس انتخاب خود را بر اساس آن انجام دهیم؟ من چیزهایی مانند SVM، الگوریتم پرسپترون، شبکه های عصبی فید فوروارد، ماشین های بولتزمن را یاد گرفته ام، اما چه زمانی باید یکی را بر دیگری انتخاب کنم؟ این همیشه واقعاً من را گیج کرده است. بنابراین از آنچه من میدانم، یک دانشمند داده فقط برای i در all_algorithms: use_algorithm(data) use_best_algorithm(data) ایده جانبی: من همچنین داشتم میخواندم که الگوریتم واقعاً مهم نیست، بلکه مقدار دادهای است که شما دارید. که واقعا مهم است پیشاپیش از شما متشکرم | چگونه یک مدل/برآورنده انتخاب کنم؟ |
27994 | با توجه به یک توالی نامتناهی از مقادیر، انتخاب شده به صورت تصادفی (با جایگزینی) از مجموعه ای از مقادیر N، مقداری X را از مجموعه مقادیر انتخاب می کنم. سپس، از اولین رخداد X در دنباله شروع میکنم، تعداد مقادیر بین هر وقوع بعدی X را میشمارم و یک دنباله جدید میدهم. میانگین و SD این سکانس جدید چیست؟ به عنوان مثال، اگر N=2 و مقادیر 0 و 1 باشند، دنباله نامتناهی من ممکن است شروع شود: 0010101101111000101010011001001... اگر X را به عنوان 1 انتخاب کنم، دنباله جدید خواهد بود: 00101011011110101010... 1000 3 1 1 20 2 2... یا تعداد 0 هایی که هر 1 متوالی را از هم جدا می کند. با تشکر. [انتظار داشتم که این میانگین و واریانس N داشته باشد (بهطور مبهم چیزی در مورد آمار پواسون از مدرسه به خاطر میآورم)، اما به نظر میرسد برخی آزمایشها نشان میدهند که SD N است.] | میانگین و SD برای فاصله بین وقوع یک مقدار معین در دنباله ای که به صورت تصادفی ترسیم شده است |
69886 | من اخیراً برای مقاله تحقیقاتی خود تجدید نظری دریافت کردم و در زیر نظر داور در مورد مقاله من آمده است: > نتایج به دست آمده از یک مدل کاملاً قانع کننده نیست، به خصوص خطی > رگرسیون معمولاً در برخورد با موارد پرت نقص دارد. من به نویسندگان پیشنهاد میکنم رگرسیون لجستیک را نیز امتحان کنند و نتایج مربوطه را با نتایج فعلی مقایسه کنند. اگر مشاهدات مشابه به دست آید، نتایج > محکم تر خواهد بود. آیا نظر داور درست است؟ آیا رگرسیون لجستیک بهتر از رگرسیون خطی چندگانه است؟ مشکل این است که متغیر وابسته من مقوله ای نیست، یک متغیر مقیاس است. الان چیکار کنم؟ چه روش رگرسیون دیگری را برای ارزیابی مدل من توصیه می کنید؟ امتیاز در جدول زیر متغیر وابسته است. تازگی، فراوانی، دوره تصدی و آخرین امتیاز متغیرهای مستقل هستند.  من این متغیرها را از یک سایت استخراج کرده ام و فرض می کنم که این **متغیرهای مستقل** **تاثیر قابل توجهی* دارند. * در **امتیاز**. بنابراین، من مدلهای زیر را نشان میدهم:  * * * به هر حال، مقدار مربع R برای این مدل خطی 0.316 است. ! داور همچنین در مورد این مقدار نیز اظهار نظر کرد: > پس نتایج قانع کننده نیستند زیرا هیچ شاخصی در مورد کیفیت > ضرایب آموخته شده وجود ندارد. یک R^2 کوچک نمی تواند عملکرد خوب را نشان دهد زیرا ممکن است مدل > بیش از حد برازش داشته باشد. آیا 0.316 برای مجذور R بسیار کم است؟ در مقالات قبلی مقادیر مشابه را زیاد دیدم.  | استفاده از رگرسیون لجستیک برای یک متغیر وابسته پیوسته |
27995 | برای یک پروژه اخیر، من از رگرسیون خطی چندگانه برای مدلسازی دادهها استفاده کردم. من سعی کردم بین مدل کامل اولیه و مدل کاهش یافته با انجام یک آزمون F جزئی یکی را انتخاب کنم. مدلهای مورد استفاده به شرح زیر بودند: مدل کامل: $\hat{Y}$ = $B_0$ + $B_1$$x_1$ + $B_2$$x_2$ + $B_3$$x_3$ مدل کاهشیافته: $\hat{Y }$ = $B_0$ + $B_2$$x_2$ + $B_3$$x_3$ مدل کاهش یافته فقط یک متغیر کمکی حذف شده است - $x_1$. F-Test جزئی یک F-value 2.162 و P-value بیشتر از 0.1 را برگرداند، بنابراین من فرضیه صفر را رد نکردم و به این نتیجه رسیدم که اضافه کردن $x_1$ در مدل ممکن است هیچ سهم خطی قابل توجهی در مدل نداشته باشد. پیش بینی $Y$. بعداً معلمم به من گفت که نباید یک F-Test جزئی را روی مدل کاهش یافته فقط یک متغیر کمتر اجرا کنم. معلم گفت نه تنها نباید چنین کاری انجام دهم، بلکه انجام این کار اشتباه است. به من گفته شد که در عوض فقط دو مدل را با استفاده از مقادیر R^2$، F-values و T-values هر مدل مقایسه کنم. من میتوانم ببینم که چگونه آزمون F جزئی در این مورد ممکن است اطلاعات مفیدی ارائه نکند، زیرا فرضیه صفری که آن را آزمایش میکند این است که $B_1 = 0$، که همان چیزی است که آزمون T روی پارامتر x_1$ آزمایش میکند ( در مدل کامل). [توجه: من مطمئن نیستم که رابطه دقیق بین این T-value و F-value آزمون F جزئی چیست.] با این وجود، چرا استفاده و تفسیر نتایج حاصل از آزمون F جزئی اشتباه تلقی می شود. ? | آیا یک آزمون F جزئی روی یک مدل تنها با یک متغیر کاهش می یابد معتبر است؟ |
54888 | آیا می توانم برای یک سری زمانی ثابت از میانگین نمونه به عنوان تخمین میانگین سری زمانی استفاده کنم؟ همچنین روش پیشنهادی برای تخمین واریانس چیست؟ این سری با همبستگی خودکار است. | تخمین میانگین و واریانس یک سری زمانی ثابت |
17724 | اندرو گلمن، در کتابی که با جنیفر هیل نوشت، در فصل 9، (بخش 9.3)، در صفحه 177 بیان میکند: > فقط برای کنترل پیشبینیکنندههای قبل از درمان، یا بهطور کلی، پیشبینیکنندههایی که نمیتوانند انجام شوند، مناسب است. تحت تأثیر درمان (مانند > نژاد یا سن). این نکته در بخش 9.7 بیشتر توضیح داده خواهد شد... و در آنجا (9.7 با عنوان متغیرهای پس از درمان را کنترل نکنید) او به جای مسئله قبل از تغییر مستقیماً به مسئله اندازه گیری متغیرهای واسطه بحث می کند. در اینجا ذکر این نکته مهم است که به نظر من گلمن/هیل متن درخشانی است... و من از درک آن کاملاً لذت می برم. با این حال، این کمی علاقه من را برانگیخت، زیرا رویکرد Everitt & Pickles به همین مشکل را به ذهن می آورد. اوریت بر این عقیده است که استفاده از امتیاز تغییر (نمره B - نمره A) یافتههای شما را به نفع درمان سوگیری میکند، در حالی که گنجاندن نمرات پایه در مدل محافظهکارانهتر است. آنها از این موضوع با یک شبیه سازی پشتیبانی می کنند - این بسیار متقاعد کننده است. درک من تا اینجا این بود که آنچه شما کنترل میکنید تفاوتهای گروهی در نمرات پایه است که ممکن است باعث شود اثر درمانی ظاهری بیشتر از آن چیزی باشد که هست یا وجود داشته باشد، در حالی که وجود ندارد. همچنین درک من این است که به این دلیل است که رگرسیون به میانگین در کار است، به طوری که نمرات پایه بالاتر مستقل از اثر درمان با کاهش بیشتری همراه خواهد بود و بالعکس. اوریت شدیداً با «نمرات تغییر» مخالف است و به نظر میرسد گلمن توصیه میکند که نمرات پایه را در مدل لحاظ نکنید. با این حال، گلمن این را در 2-3 صفحه بعدی، از جمله نمرات پیش آزمون به عنوان یک پیش بینی، نشان می دهد. او این هشدار را می دهد که سپس طیف وسیعی از اثرات درمانی قابل قبول را دریافت می کنید که مشروط به نمره پیش آزمون است، نه طیفی از اثرات درمانی که صرفاً عدم اطمینان در تأثیرات را نشان می دهد. نظر من این است که به نظر میرسد استفاده از «نمرات تغییر» واقعاً کاری در مورد رگرسیون به میانگین انجام نمیدهد، در حالی که گنجاندن امتیاز خط پایه بهعنوان پیشبینیکننده اجازه میدهد تا تفاوتهای گروه پایه را لغو کند، که اساساً ساختار کوواریانس را معرفی میکند. من یک پزشک هستم و باید در مورد اینکه کدام درمان موثر است، تصمیمات واقعی بگیرم. پس باید چیکار کنم؟ شامل نمرات پایه هر فرد یا استفاده از نمرات تغییر؟ | چگونه باید تفاوت های گروهی و فردی در نمرات قبل از درمان را در یک کارآزمایی تصادفی کنترل شده کنترل کرد؟ |
22902 | هنگام مقایسه نتایج بهدستآمده با مدلهای مختلف در R، برای انتخاب بهترین آنها باید به دنبال چه چیزی باشم؟ اگر برای مثال از 4 مدل زیر استفاده کنم که برای نمونه حضور/غیاب یکسان گرفته شده از مجموعه داده گونهها، با متغیرهای یکسان استفاده میشود: * مدل خطی تعمیمیافته * مدلهای افزودنی تعمیمیافته طبقهبندی * درخت رگرسیون * شبکههای عصبی مصنوعی آیا باید همه روشها را بر اساس مقایسه کنم AIC، Kappa، یا اعتبار متقابل؟ آیا هرگز از انتخاب بهترین مدل مطمئن خواهم شد؟ چه اتفاقی میافتد اگر آن 4 مدل پیشبینی را با فاکتور بیز مقایسه کنم؟ آیا می توانم آنها را مقایسه کنم؟ | ارزیابی و مقایسه مدل برای انتخاب بهترین مدل |
94020 | مشکل ما این است که تعیین کنیم آیا رابطه ای بین بازده حقوق صاحبان سهام شرکت ها (ROE) و وجود (تعداد شاخص های استفاده شده) (Y) نوع خاصی از شاخص که در گزارش سالانه نشان داده می شود وجود دارد یا خیر. در ابتدا 118 مشاهده داشتیم و پس از تعدیل 104 شرکت داشتیم. به منظور بررسی وجود رابطه خطی بین Y (توزیع شده پواسون) و پیش بینی کننده ROE، 8 خوشه بر اساس توزیع ROE ساختیم و برای هر کلاس میانگین ROE (ROEM)، میانگین تعداد شاخص های استفاده شده را محاسبه کردیم. (ym) و در نهایت، مقدار کل شاخص های استفاده شده توسط هر طبقه. سپس log_ym و ROEM را در یک نمودار رسم کردیم، رابطه آنها خطی نبود بلکه درجه دوم بود.  بنابراین تصمیم گرفتیم رگرسیون پواسون را با استفاده از متغیر وابسته Y و به عنوان پیش بینی کننده ROE و ROE^2 اعمال کنیم. این مدل چندان خوب نبود: شبه R^2 بسیار کوچک بود (حدود 0.02) و فرضیه بیش از حد پراکندگی پذیرفته شد.  همانطور که در برخی مقالات خواندیم، به این نتیجه رسیدیم که تمایل به مشاهدات به خوشه وجود دارد. در این مرحله تصمیم گرفتیم رگرسیون پواسون را روی داده های خوشه ای با استفاده از متغیر وابسته مقدار کل شاخص های استفاده شده توسط هر کلاس (ym گسسته نیست) و به عنوان پیش بینی کننده ROEM و ROEM^2 اعمال کنیم. به عنوان متغیر افست از تعداد موارد در هر خوشه استفاده کردیم. خروجی مدل در زیر خلاصه شده است:  * آیا رویکرد ما صحیح است؟ * آیا روش های ساده تری وجود دارد؟ * آیا 8 خوشه کم است؟ * اگر از 14 خوشه به جای 8 استفاده کنیم، نتایج بدتر می شوند. آیا این بدان معنی است که مدل به خوبی جا نمی شود؟ | رگرسیون پواسون با متغیر افست |
54885 | من باید تعیین کنم که آیا همیشه یک ریشه منحصربهفرد از معادله احتمال l'(x,0)=0 برای اندازههای نمونههای مختلف توزیع کوشی وجود دارد یا خیر. اما من در مورد چگونگی تعریف واقعی تابع log-lihood R و اینکه واقعاً قادر به رسم این نمودارها هستم مطمئن نیستم. هر توصیه ای قدردانی خواهد شد! | چگونه توابع loglikelihood توزیع کوشی را در R رسم کنم؟ |
94028 | من در مورد وظیفه طبقه بندی SVM (و بیشتر در کار طبقه بندی کلی)، در مورد **عادی سازی داده ها** تردید زیادی دارم. فرض کنید من یک **SVM آموزش دیده با داده های نرمال شده** و **داده های جدید برای طبقه بندی** دارم. **1** ) **چگونه داده های جدید را عادی کنم**؟ لطفاً توجه داشته باشید که وقتی SVM خود را عادی و آموزش دادم آنها را نمی شناسم. **2** ) **بهترین/روش نرمال سازی مناسب کدام است**؟ حداقل حداکثر یا صفر میانگین + واریانس؟ یک راه حل ممکن که من فکر کردم این است: هنگامی که داده های جدید وارد می شوند، و همانطور که ما با SV ها (که بخشی از داده های آموزشی هستند) کار می کنیم، می توانیم SV ها را غیرعادی کنیم، min-Max/mean-var را دوباره محاسبه کنیم. مجموعه داده جدید WHOLE، و عادی سازی داده های جدید و عادی سازی مجدد SV ها. در مورد این چطور؟ پیشاپیش متشکرم، ایوانو | نرمال سازی داده های SVM... در مورد طبقه بندی داده های جدید (آموزشی) چطور؟ |
11088 | من یک تازه کار در آمار هستم. من در حال تکمیل پایان نامه ام در الگوریتم تکاملی هستم. من باید تعدادی اعداد تصادفی را از توزیع T یا توزیع لاپلاس تولید کنم. چگونه می توانم این کار را انجام دهم؟ توضیح آسان و ساده قدردانی خواهد شد. پیشاپیش ممنون | تولید اعداد تصادفی با استفاده از توزیع t یا توزیع لاپلاس |
96479 | من دو متغیر پیوسته دارم. متغیر $X$ مقادیر واقعی را نشان می دهد (در واقع فشار اتمسفر است که از طریق فشارسنج اندازه گیری می شود). متغیر $Y$ روشی را برای تقریب فشار اتمسفر بر اساس ارتفاع، دما و برخی پارامترهای فیزیکی دیگر نشان می دهد. من مقادیر $n=17$ دارم. اکنون سؤال این است که تقریب ها چقدر به مقادیر واقعی نزدیک هستند، یعنی چقدر به $X$ و $Y$ نزدیک هستند. به نظر من پلات بلند آلتمن (به عنوان ابزار توصیفی) و ضریب همبستگی تطابق برای ارزیابی تطابق دو متغیر و در نتیجه دقت Y$ مناسب هستند. تنها نگرانی من این است که یکی از متغیرها نشان دهنده مقدار واقعی (یعنی X$) باشد و درک من این است که روش های ذکر شده در شرایطی که من دو اندازه گیری را بدون اطلاع واقعی از مقادیر واقعی مقایسه می کنم، اعمال می شود. قابلیت اطمینان ارزیاب سوال من این است که آیا می توانم از آن دو روش استفاده کنم و آیا روش های مناسب دیگری (بیشتر) وجود دارد؟ | اندازه گیری دقت یا اندازه گیری توافق برای داده های پیوسته با مقادیر واقعی |
94026 | من از SPSS برای تجزیه و تحلیل مجموعه داده ای استفاده می کنم که هدف آن پیش بینی اینکه آیا افراد بر اساس پنج علامت (a، b، c، d، e) مبتلا به سرطان هستند یا خیر. در این مجموعه داده ها بیشتر افراد مبتلا به سرطان هستند. من یک رگرسیون لجستیک باینری اجرا کردم و خروجی زیر را دریافت کردم:  این مدلی را آزمایش می کند که با آن فقط ثابت را شامل می شود و در کل 91.8 را پیش بینی می کند. % درست است. من می دانم که این واقعیت که من پیش بینی کننده های قابل توجهی در جدول متغیرها در معادله نیستند دارم به این معنی است که افزودن یک یا چند مورد از این متغیرها به مدل باید قدرت پیش بینی آن را بهبود بخشد. بعد از اینکه همه پیشبینیکنندهها گنجانده شدند، به مدل نگاه کردم:  پیشبینی فقط بسیار کمی متفاوت است اکنون پیش بینی می شود که دو نفر به سرطان مبتلا نشوند. درصد کلی درست 91.8٪ باقی می ماند. * چرا با وجود قابل توجه بودن پیش بینی ها، هیچ بهبودی رخ نداد؟ * با این مجموعه داده از اینجا باید به کجا بروم؟ آیا می توان قدرت پیش بینی مدل را بدون گنجاندن پیش بینی های جدید بهبود بخشید؟ * چگونه باید مدل را ارزیابی کنم؟ آیا این واقعیت که نسبت به مدل بهبود نمییابد تنها با شواهد ثابتی که نشان میدهد مدل بیفایده است؟ خروجی کامل در اینجا قابل مشاهده است. مجموعه دادهها در اینجا بهعنوان سند Google قابل دانلود است. | چگونه می توانم قدرت پیش بینی این مدل رگرسیون لجستیک را بهبود بخشم؟ |
52487 | تکنیکهای Real-Time Learning دقیقاً چگونه با مشکل توزیع اریب در متغیرهای وابسته و مستقل برخورد میکنند؟ من در حال آشنایی با Vowpal Wabbit هستم و با این مشکل روبرو هستم. داده های من دارای انواع مختلفی از متغیرها (عددی و اسمی) هستند. من از آن برای رگرسیون و طبقه بندی استفاده می کنم. میدانم احتمالاتی که دریافت میکنم هنوز باید کالیبره شوند، درست است؟ من این عدم تعادل را در حال حاضر در حوزه میدانم، اما از آنجایی که یادگیری بیدرنگ نمونههای آموزشی را جمعآوری میکند، چگونه کار میکند؟ عدم تعادل (توزیع اریب) در متغیر مستقل نیز یک مشکل در رگرسیون است، پس چگونه حل می شود؟ فکر می کنم تمام آن تکنیک های پیچیده برای رسیدگی به این مشکلات توسعه یافته اند، اما برای شروع به جزئیاتی نیاز دارم. | کالیبراسیون احتمالات در یادگیری آنلاین (یادگیری بلادرنگ) با Vowpal Wabbit |
22901 | من یک مدل ارتفاعی دیجیتال شبکه بندی شده (DEM) دارم که ارتفاع زمین ($z$) را در مختصات دکارتی $(x,y)$ ارائه می کند. من همراه با DEM، RMS ارتفاعات را می شناسم. تا آنجا که من می دانم RMS را می توان در هر نقطه ای از DEM اعمال کرد و انحراف استاندارد ارتفاعات ثابت است. حال، اگر دو نقطه از DEM بگیرم، ارتفاعات در این نقاط مستقل نیستند، اما اگر فاصله بین نقاط زیر یک محدوده خاص باشد، همبستگی خودکار دارند. من می توانم یک واریوگرام از داده های ارتفاع DEM بسازم که تابع تغییرات ارتفاع را به عنوان تابعی از فاصله ارائه می کند. برای فواصل فراتر از محدوده، تغییرات ارتفاع مستقل است و فقط میانگین تمام ارتفاعات در زمین است. با این حال، چیزی که من واقعاً می خواهم بدانم عدم قطعیت ارتفاع در فواصل نزدیک متفاوت است. من فرض می کنم که عدم قطعیت برابر با RMS در محدوده بزرگ است، اما اگر فاصله نزدیک به صفر باشد، به صفر نزدیک می شود. چیزی که من نیاز دارم تابع vor مقادیر بین فاصله صفر و محدوده است. من فقط تابع واریوگرام ارتفاع را به عدم قطعیت اعمال میکنم و آن را از ارتفاع متوسط به RMS مقیاس میدهم، اما حدس میزنم این یک رویکرد تقریباً سادهشده است. | همبستگی داده های ارتفاع و عدم قطعیت ارتفاع به عنوان تابعی از محدوده در یک DEM |
11611 | اگر 0 در جدول احتمالی وجود داشته باشد و مدلهای poisson/loglinear تودرتو (با استفاده از تابع «glm» R) را برای آزمایش نسبت احتمال برازش میدهیم، آیا باید دادهها را قبل از برازش مدلهای glm تنظیم کنیم (مثلاً اضافه کردن 1/ 2 به همه موارد)؟ بدیهی است که برخی از پارامترها را نمی توان بدون مقداری تنظیم تخمین زد، اما تنظیم/عدم تنظیم چگونه بر تست LR تأثیر می گذارد؟ | آیا برای آزمایش نسبت احتمال مدلهای پواسون/لاگ خطی باید شمارش صفر تنظیم شود؟ |
57054 | من می خواهم توزیع استاندارد Student's-t را متناسب کنم. log-likelihood توسط: \begin{align*} log \mathcal{L}(\nu | l_1,...,l_n)=\sum_{i=1}^n \left( log \left( ( \pi (\nu-2))^{-\frac{1}{2}}\Gamma \left(\frac{\nu}{2} \right)^{-1} \Gamma \left(\frac{\nu+1}{2} \right) \left(1+\frac{l^2}{\nu-2} \right)^{\text{$-\frac{1+ \nu}{2}$}}\right)\right) \end{align*} سعی میکنم این کار را با دستور optim انجام دهم. کد R من (داده) است: # log likelihood pinumber<-3.141592653589793 startvalue<-55 loglikstandardizedt <-function(par){ if(par>0) return(-sum(log((pinumber*(par-2))^(-1/2)*gamma(par/2)^(-1)*gamma((par+1)/2)*(1+ standresidalvewma^2/(par-2))^(-(1+par)/2)))) else return(Inf) } optim(startvalue,loglikstandardizedt, method=BFGS) param = optim(startvalue,loglikstandardizedt, method=BFGS)$par من می توانم آن را با نگاه کردن به نمودار کنترل کنم: denstiystandtresid<-function (x) (پیشمبر*(پارام-2))^(-1/2)*گاما(پارام/2)^(-1)*گاما((پارام+1)/2)*(1+x^2/(پارام- 2))^(-(1+پارام)/2) نمودار(تراکم(standresidalvewma)،ylim=c(0,0.8)) منحنی(denstiystandtresid,col=red,add=TRUE) من این مشکل را دارم که خروجی optim، یعنی مقدار par به مقدار زیادی به مقدار شروع بستگی دارد. ارزش شروع درست چیست؟ و بهترین ارزش برای $\nu$ من چیست؟ تنوع بسیار زیاد است، من مقادیر از 27 تا 215 را دریافت می کنم، بنابراین این یک تفاوت بزرگ است؟ | نتیجه بهینه به شدت به مقدار شروع بستگی دارد |
52482 | من از خودم میپرسم آیا حذف آن متغیرهایی با مقدار اهمیت متغیر منفی (%IncMSE) در زمینه رگرسیون ایده خوبی است؟ و اگر پیش بینی بهتری به من بدهد؟ نظر شما چیست؟ | ارزش متغیر تصادفی Forest مقادیر منفی |
80577 | من یک سوال دارم که نمی توانم پاسخی برای آن پیدا کنم اگرچه واقعاً زمان زیادی را صرف جستجو کردم. من داده های سری زمانی حدود 20 منطقه یک کشور را دارم. هر سری زمانی 20 سال را پوشش می دهد. من می خواهم اندازه گیری کنم که تکامل متغیر x تا چه اندازه از یک الگو در مناطق پیروی می کند. من مطمئن هستم که تا حدودی انجام شده است، اما می خواهم در مقاله خود استدلال کنم که آنها از یک الگوی مشابه پیروی می کنند، بنابراین من به یک اندازه گیری دقیق نیاز دارم. من فقط به همبستگی دادهها برای مناطق فکر میکردم، اما جدول متقابلی که دریافت میکنم برای نتیجهگیری میزان شباهتها کافی نیست. هر ایده ای؟ من گزینه همبستگی خودکار و همبستگی متقاطع را دیدم اما حدس میزنم این چیزی نیست که به دنبالش هستم. به نظر می رسد که گزینه پیش بینی نیز بهترین راه برای انجام این کار نیست. من می خواهم تجزیه و تحلیل آماری را فقط در ابتدای مقاله خود ذکر کنم - سپس برای اثبات نظرم به مطالعات موردی کیفی می پردازم، بنابراین نیازی به ارائه یک مدل بزرگ برای داده های آماری ندارم. من از کمک شما قدردانی خواهم کرد. * ویرایش - فرضیه من نظریه محور است. من فرض می کنم x و y به طور علی به هم مرتبط هستند. از نظر تئوری منطقی است. من کشور را از نظر کیفی (تحلیل تاریخی) بررسی کرده ام و به نظر منطقی است. من آن را با داده های آماری سطح کشور نیز بررسی کرده ام و همبستگی زیادی بین x و y وجود دارد، اما من فقط برای 22 سال اطلاعات دارم، بنابراین می ترسم این همبستگی فقط یک تصادف باشد. برای مثال از خودم میپرسم که آیا این همبستگی ناشی از تغییرات در برخی مناطق، معدود، نیست. که با تبیین علی باطل می شود. به همین دلیل است که میخواهم ببینم آیا سری دادهها با هم مرتبط هستند - من نمودارها را دیدهام و به نظر میرسد همه مناطق از الگوی قابل مشاهده در دادههای سطح کشور پیروی میکنند، اما میخواهم مطمئن باشم. من دوست دارم همبستگی x و y را در سطح منطقه ای نیز بررسی کنم! نمی دانم چگونه این کار را انجام دهم (اما این از اهمیت کمتری برخوردار است، فقط به این دلیل که من شک دارم که آیا داده های منطقه ای که در y پیدا کردم قابل اعتماد هستند و منبع داده دیگری ندارند). | همبستگی سری های زمانی برای 20 منطقه (SPSS) |
56907 | میخواهم بدانم که آیا استدلال من در اینجا درست است، بهاندازه کافی ساده به نظر میرسد، اما من فقط میخواهم توضیح بدهم (من این مدرک را در نظر میگیرم که اگر یک فرآیند مارکوف شرایط تعادل دقیق را برآورده کند، پس قابل برگشت است). اگر $X_{t}$ یک فرآیند مارکوف فضای حالت گسسته است، اجازه دهید $\pi_{x}^{(n)} = P(X_{n} = x)$، $\pi$ توزیع ثابت و $ باشد. P(X_{n+1}=y|X_{n}=x) = P_{xy}$. سپس، $P(X_{n} = x |X_{n+1}=y) = \large\frac{P(X_{n+1}=y|X_{n}=x)P(X_{n }=x)}{P(X_{n+1}=y)} = \frac{P_{xy}P(X_{n}=x)}{P(X_{n+1}=y)} = \large\frac{P_{xy}\pi_{x}}{\pi_{y}}$. این آخرین برابری است که برای من کاملاً واضح نیست. آیا می توانم آن را با گفتن این واقعیت توجیه کنم: $\large\frac{P_{xy}P(X_{n}=x)}{P(X_{n+1}=y)} = \large\frac{P_{ xy}\pi_{x}^{(n)}}{\pi_{y}^{(n+1)}}$، اما از $\pi^{(n)} \rightarrow \pi$ به عنوان $n\rightarrow\infty$ و از آنجایی که $P(X_{n} = x |X_{n+1}=y)$ ثابت است، می توانم $n \rightarrow \infty$ را در بالا بگذارم، به طوری که $\ large\frac{P_{xy}\pi_{x}^{(n)}}{\pi_{y}^{(n+1)}} =\large\frac{P_{xy}\pi_{x}}{\pi_{y}}$؟ با تشکر از بینش و افکار شما. | هویت در فرآیند مارکوف |
54884 | من این سوال را در Mathoverflow.net پرسیده بودم و کسی پیشنهاد داد که این انجمن ممکن است انجمن بهتری باشد. بنابراین دوباره سوال اینجاست سلام، من دو ماتریس همبستگی n*n با مقادیر بین -1،1 دارم. (2 ماتریس همبستگی چون من n عبارت یکسان را تحت 2 شرایط مختلف دارم) با در نظر گرفتن مطلق ماتریس همبستگی، سپس همبستگی را به یک ماتریس شباهت تبدیل کردم که در آن مقادیر بین [0,1] متغیر است. شباهت با استفاده از فرمول اینجا محاسبه شد:  که در آن lij = summation(aiu.auj) و aiu= مقدار همبستگی بین ith است. و عنصر uth در ماتریس همبستگی. ki،kj در مورد ما n-1 است. این به من 2 ماتریس شباهت می دهد. سوال من این است که چگونه می توانم تفاوت بین ماتریس های شباهت (SIM) را محاسبه کنم؟ آیا انجام یک abs ساده (SIM1-SIM2) منطقی آماری/ریاضی خواهد بود؟ آیا راهی قوی برای یافتن/کمیتسازی تفاوت بین دو ماتریس شباهت وجود دارد؟ هر ایده ای واقعا قدردانی خواهد شد. پیشاپیش ممنون | چگونه تفاوت بین 2 ماتریس شباهت را محاسبه کنیم؟ |
53280 | تفاوت بین انجام آزمون t بر روی داده هایی که رتبه بندی شده اند و انجام آزمون من ویتنی U بر روی داده های رتبه بندی نشده چیست؟ من به خواندن مواردی از این قبیل ادامه می دهم: به عنوان مثال، صفحه ویکی پدیا برای ANOVA در Ranks بیان می کند: > این روش مبتنی بر رتبه به عنوان قوی در برابر خطاهای غیر عادی، مقاوم در برابر نقاط پرت و بسیار کارآمد برای بسیاری از توزیع ها توصیه شده است. > ممکن است منجر به یک آمار شناخته شده شود (به عنوان مثال، در دو نمونه مستقل > نتایج رتبه بندی طرح در آزمون ویلکاکسون rannk-sum / Mann-Whitney U). دلیل سردرگمی من این است که آزمون U Mann-Whitney برای تفاوت در مکان، فرض می کند که نمونه ها از توزیع های یکسان می آیند. و با این حال انجام ANOVA در رتبه ها چنین فرضی ندارد. با تشکر | ANOVA در رتبه ها در مقابل آزمون من ویتنی U |
63597 | من دادههایی در یک دیتافریم با ستونهای زیر دارم: تاریخ، زمان، نماد، قیمت من سعی میکنم مدل زیر را در قیمت R اجرا کنم ~ فاکتور(زمان) + فاکتور(نماد)* عامل(زمان) + 0 که ضریب اول است. از یک متغیر ساختگی ستون زمان در چارچوب داده و ضریب دوم از حاصلضرب متغیر ساختگی ستون زمان و ستون نماد می آید. من از lm() برای انجام مدل استفاده کردم. fit<-lm(price~factor(time) + factor(symbol)*factor(time) + 0, data=mydata) با این حال، این کار نمی کند زیرا ضرایب بسیار عجیبی برای من به دست می دهد که چیزی نمی گویند. من حدس میزنم که این اثر به نوعی با هم مطابقت داشت و نه فقط محصول مستقیم. من سعی کردم یک متغیر جدید با ضرب حاصلضرب فاکتورها و سپس قرار دادن آن در رگرسیون بسازم، اما کار نکرد زیرا r به من گفت که * در عملیات ممکن برای factor() وجود ندارد. بنابراین، چگونه می توانید دو عامل را در یک رگرسیون خطی ضرب کنید؟ کمک شما بسیار قابل تقدیر است، پیشاپیش از شما متشکرم. ویرایش: وقتی می گویم عجیب است، حدس می زنم که باید بیشتر بگویم نه آنچه را که می خواهم. من ضرایبی برای شرکت، سپس ضرایب برای زمان و سپس ضرایب برای شرکت و زمان دریافت می کنم. با این حال، من فقط میخواهم ضرایب شرکت و زمان بر مدل تأثیر بگذارد و در نهایت واقعاً علاقهمندم که این کار با تأثیرات درون روزی که با استفاده از متغیرهای ساختگی زمان تقریبی میشوند، چه میکند. اگر من اثرات متقابل شرکت، زمان و سپس شرکت و زمان را دریافت کنم، این بر ضریب اول تأثیر می گذارد، در حالی که فقط شرکت و زمان بر ضریب اول تأثیر می گذارد؟ | R: حاصل ضرب متغیرهای ساختگی هنگام استفاده از عامل در رگرسیون خطی |
54880 | من می خواهم نقص کد را با معیارهای پیچیدگی کد مانند نزدیکی مرتبط کنم. یکی از مدلهای رایج این است که آن را به عنوان یک فرآیند پواسون مشاهده کنیم، که در آن مدت زمان صرف کدنویسی میشود و چگالی تابعی از پیچیدگی کد است. من می توانم یک رگرسیون انجام دهم و مقادیر معناداری و غیره را بدست بیاورم. با این حال، تجسم نتایج برای من سخت است (و حتی برای همکارانی که تمایل کمتری به ریاضی دارند). آیا راه خوبی برای مشاهده این موضوع برای مشاهده مواردی مانند نقاط پرت، اگر روند خطی است و غیره وجود دارد؟ (پیوندها به بستههای R قدردانی میشوند.) برای مثال، میتوانم «نقص / زمان ~ پیچیدگی» را ترسیم کنم، اما این نسبتاً پر سر و صدا است و از آنجایی که «نقایص» گسسته و بسیار کوچک هستند، مشاهده روند دشوار است. چیزی که به آن فکر میکردم این بود که میتوانم دادهها را به چندک تقسیم کنم و سپس یک رگرسیون به ازای هر چندک انجام دهم و چگالیهای حاصل را رسم کنم - البته مطمئن نیستم چقدر معتبر است، به خصوص که دادههای من به طور معمول توزیع نمیشوند، بنابراین ممکن است مردم را در مورد اینکه یک کمیت چیست گمراه کنید. | تجسم خوب برای رگرسیون پواسون چیست؟ |
53281 | آیا روشی از لحاظ نظری درست برای انجام انتشار خطاها با آمار قوی وجود دارد؟ من سعی می کنم خطاهای ذاتی یک اندازه گیری را مشخص کنم و عدم قطعیت را از طریق محاسبات مربوط به آن تخمین منتشر کنم. در گذشته، من فرض می کردم که خطاهای من به طور معمول توزیع می شوند و سپس از انتشار عدم قطعیت استفاده می کنند. با این حال، این به وضوح یک فرض بد است (دادههای من متقارن هستند اما تضمین شدهاند که مقادیر پرت قابل توجهی دارند)، و من با استفاده از معیاری مانند انحراف مطلق میانه شیفتهام. آیا درست است که با MAD مانند انحراف معیار رفتار کنیم؟ آیا معیار دیگری وجود دارد که باید برای این برنامه استفاده کنم؟ | انتشار خطاهای با انحراف مطلق میانه از میانه؟ |
112420 | من در حال حاضر سعی می کنم به تنهایی یک رگرسیون لجستیک را با استفاده از توابع 'optim'، 'nlm' و غیره اجرا کنم. من گمان می کنم که تابع احتمال من ممکن است متفاوت باشد، اما نمی توانم محل ذخیره تابع احتمال logit را در glm پیدا کنم. کسی میدونه؟ با تشکر | در تابع glm برای رگرسیون لجستیک، تابع درستنمایی کجا ذخیره می شود؟ آیا در خانواده است؟ |
27991 | من سعی می کنم برنامه ای بنویسم که به طور خودکار شباهت های بین بردارها را گروه بندی کند. بردارها از مختصات نقطه ای تشکیل شده اند. به عنوان مثال (با فرض اینکه X، Y و Z عدد هستند): مجموعه داده 1: [1، 8، **X1**، **X2**، 6، **X3**، **X4**، 8 ، 5، 4، 9، 4، **Y1**، **Y2**، **Y3**، **Y4**، **Y5**، 1، 5، 7] مجموعه داده 2: [ **X1**، **X2**، **X3**، **X4**، 6، 3، 5، 4، 3، 6، **Y1**، * *Y2**، **Y3**، 7، **Y4**، **Y5**، 7، 3، 5، 7] مجموعه داده 3: [ **X3** ، 5، 6، 4، 3، 6، **X1**، **Y3**، 3، 5، 6، **X4**، 2، 6، 7، **X2**، **Y2 ** ، 5، 6، **X4**، **Y4** ] X1، X2، X3، و X4، و Y1، Y2، Y3، Y4، و Y5 بین مجموعه داده 1 و 2 کاملاً با یکدیگر مطابقت ندارند، اما بر خلاف مثال در مجموعه داده 3، در مجاورت بسیار نزدیک قرار دارند و به همان ترتیب هستند. آیا الگوریتمی وجود دارد که بتواند این نوع گروه بندی را انجام دهد. ? | ثبت شباهت بین بردارها با R |
60641 | من سعی می کنم شباهت بین دو سیگنال را اندازه گیری کنم، یعنی چقدر آنها یکسان هستند. یک همپوشانی کامل (دو خط که یک خط را تشکیل میدهند) باید به من مقدار 1 بدهد، هر چه فاصله بین خطوط بیشتر باشد و هر چه روند کلی کمتر شبیه باشد، مقدار باید به 0 نزدیکتر شود. من انحراف معیار را اندازهگیری کردهام. $\sigma$ و انواع مختلف همبستگی $r$ با استفاده از توابع MATLAB `std()`, `xcorr()` و corr2()`. آنها این ترفند را انجام ندادند، به عنوان مثال. $\sigma_{\phi_{A}}$ $>$ از $\sigma_{\phi_{B}}$ بود (شکل زیر را ببینید). من به استفاده از نوعی میانگین وزنی بین $\sigma$ و $r$ فکر می کردم. امکان دیگر اندازه گیری تفاوت بین نواحی زیر منحنی ها خواهد بود (اما در آن صورت نمودارهای متقاطع مختلف می توانند مساحت یکسانی داشته باشند). سوالات مرتبطی با این موضوع وجود دارد، اما آنها یا عبارتند از: (i) بحث در مورد مفهوم عمومی _شباهت_ یا (ii) پیشنهاد استفاده از xcorr() (انواع مختلف آن برای من کار نکردند).  | اندازه گیری شباهت دو سیگنال گذرا |
62642 | این در یک سوال امتحانی گذشته بود که با آن برخورد کردم. یک مدل خودرگرسیون مرتبه اول به یک سری زمانی از 50 مشاهدات برازش داده شده است که $\hat\mu = 15$ و $\hat\alpha =0.6$ را نشان می دهد. 12 خود همبستگی باقیمانده اول داده شد و انحراف استاندارد برآورد شده $r_k(\hat Z_t)=0.15 $ $ k=1,2...12.$ سوال بررسی کفایت مدل برازش شده بود. تنها آزمون کفایتی که به ما داده شد، آزمون Ljung-Box بود که فکر میکنم از همبستگیهای خودکار نمونه استفاده میکند، نه خود همبستگی باقیمانده. | چگونه می توان کفایت یک مدل سری زمانی را با استفاده از همبستگی های خودکار باقیمانده بررسی کرد؟ |
48143 | LogQ= a+bLogP+cLogI+dLogPm b= -2.174 c= 0.461 d= 1.909 تعیین کشش قیمتی تقاضا، کشش درآمدی و کشش قیمت متقاطع | حل لگاریتم با استفاده از متغیرها |
6067 | خوب، بنابراین فکر می کنم با در نظر گرفتن قانون کلی 20:1، نمونه مناسبی دارم: یک نمونه نسبتاً بزرگ (N=374) برای مجموع 7 متغیر پیش بینی کننده نامزد. مشکل من این است: از هر مجموعه ای از متغیرهای پیش بینی کننده که استفاده می کنم، طبقه بندی ها هرگز بهتر از ویژگی 100٪ و حساسیت 0٪ نمی شوند. هرچند رضایتبخش نباشد، با توجه به مجموعه متغیرهای پیشبینیکننده کاندید (که نمیتوانم از آن عدول کنم، این میتواند در واقع بهترین نتیجه ممکن باشد). اما، نمیتوانستم فکر نکنم که میتوانم بهتر عمل کنم، بنابراین متوجه شدم که دستههای متغیر وابسته کاملاً نابرابر متعادل هستند، تقریباً 4:1. آیا یک نمونه فرعی متعادل تر می تواند طبقه بندی ها را بهبود بخشد؟ | آیا یک نمونه نامتعادل هنگام انجام رگرسیون لجستیک اهمیت دارد؟ |
27999 | احتمالا یه سوال پیش پا افتاده ولی مدتیه که سرم رو دورش حلقه می کنم... یه نمونه کوچیک دارم (N=7) که تست رو در دو حالت انجام داد. هیچ فرضی در مورد عادی بودن نهایی جمعیت نمی توان داشت. من می خواهم آزمایش کنم که آیا تغییر شرایط به طور قابل توجهی بر نتایج آزمون ها در سراسر افراد تأثیر می گذارد یا خیر. در این مورد، آزمون t روی میانگین دو شرط در بین آزمودنی ها نباید اعمال شود. راست میگم؟ آیا آزمون Mann U-test یا Wilcoxon signed-test مناسب تر است؟ ویرایش: (من می دانم که این دو آزمون میانه های نتایج را با هم مقایسه می کنند) با تشکر | مقایسه میانگین و واریانس یک گروه در دو شرایط |
19011 | من داده های کوچک زیر را دارم: پدر <- c(NA، NA، NA، 1، 1، 1، 2، 2، 2، 3، 4) مادر <- c(NA، NA، NA، 2، 2، 1 , 1, 1, 3, 4, 4) idd <- c(1:11) yvar <- rnorm(11, 5, 2) xvar <- c(1،1،2، 1،2،1، 1،1، 2، 1،2) mydf <- data.frame (پدر، مادر، idd، yvar، xvar) نیاز به( خویشاوندی) kmat <- خویشاوندی( mydf$idd، mydf$ پدر، mydf$mother) 1 2 3 4 5 6 7 8 9 10 11 1 0.500 0.000 0.00 0.250 0.250 0.500 0.250 0.250 0.0000 0.1250 0.250 2 0.000 0.500 0.00 0.250 0.250 0.250 0.250 0.2500 0.1250 0.250 3 0.000 0.000 0.50 0.000 0.000 0.000 0.000 0.000 0.2500 0.2500 0.000 0.000 4 0.250 0.250 0.250 0.250 0.250 0.250 0.1250 0.2500 0.500 5 0.250 0.250 0.00 0.250 0.500 0.250 0.250 0.2250 0.2250 0.2250 0.250 0.1 0.500 0.000 0.00 0.250 0.250 0.750 0.250 0.250 0.0000 0.1250 0.250 7 0.250 0.250 0.00 0.250 0.250 0.250 0.250 0.1250 0.1250 0.250 8 0.250 0.250 0.00 0.250 0.250 0.250 0.250 0.500 0.1250 0.1250 0.250 0.250 0.250 0.250 0.250 0.125 0.000 0.125 0.125 0.5000 0.1875 0.125 10 0.125 0.125 0.25 0.250 0.125 0.125 0.125 0.125 0.1850.1850. 0.250 0.250 0.00 0.500 0.250 0.250 0.250 0.250 0.1250 0.2500 0.750 این نمونه ای از شجره نامه همزاد در گیاهانی است که هر چیزی می تواند پدر یا مادر یا بالعکس باشد. حتی یک فرد مجرد نیز می تواند هرمافرودیت (هم مادر و هم پدر) کم خود باشد. حتی در این شرایط ارتباط بین فرد 1 با فرد 1 باید 0.5 باشد. آیا راه درستی برای اصلاح این مشکل تخمین ماتریس خویشاوندی وجود دارد؟ برازش مدل مختلط با استفاده از تابع 'lmekin' از بسته خویشاوندی خطای زیر را می دهد: require(inship) model1 <- lmekin(yvar ~ xvar , random = ~ 1|idd, varlist=list(kmat), data = mydf) اخطار پیام: در coxme.varcheck(cluster, varlist, n, gvars, group, sparse, rescale, : مورب ماتریس واریانس ثابت نیست | چگونه می توان یک ماتریس رابطه بدون ثابت مورب در هنگام برازش مدل مخلوط در R ایجاد کرد؟ |
52736 | من با یک مجموعه داده کار می کنم، که برای حذف داده های نویز، میانگین خود نمونه را می گیرم و هر چیزی را بالاتر از میانگین آن برش می دهم. چیزی که در اینجا میخواهم بفهمم این است که آیا این نامی دارد که فکر نمیکنم به معنای فیلتر کردن باشد - اما دانستن اینکه این چه نوع فرآیند فیلترینگ است مفید خواهد بود زیرا باید آن را در یک مقاله توضیح دهم. چرا این کار را کردم یا این فقط حذف موارد دور از دسترس است؟ | حذف داده های بالاتر از میانگین |
112422 | من فایل CSV را می خوانم و مجموعه داده ای ایجاد می کنم Yourdata<-read.csv('C:/Work/mydat.csv') این دارای پنج ستون و نزدیک به 100 هزار ردیف است و من می خواهم فقط چند ردیف را انتخاب کنم. مثلاً، اگر من بخواهم فقط 1000 ردیف اول را انتخاب کنم، چگونه می توانم آن را در وکتور استخراج کنم تا پردازش بیشتری روی آن انجام دهم. | نحوه انتخاب هیچ ردیفی از Data frame |
41156 | اغلب، ما از داده هایی استفاده می کنیم که از برخی اندازه گیری ها به دست می آیند. این اندازهگیریها معمولاً دارای یک معیار اطمینان هستند که نشان میدهد ما تا چه اندازه در مورد اندازهگیری قابل اعتماد یا مطمئن هستیم. به عنوان مثال، ما اغلب فاصله های اطمینان مرتبط با نظرسنجی های مختلف را می بینیم. می خواستم بدانم آیا نظریه یا جبری در مورد ترکیب چند اندازه گیری و معیار اطمینان حاصل از کل وجود دارد؟ به عنوان مثال، اگر X را با فاصله اطمینان +-x٪، Y را با فاصله اطمینان +-y٪ اندازه گیری کنم، در مورد فاصله اطمینان X + Y چه می توانم بگویم؟ به طور مشابه، در مورد فواصل اطمینان برای سایر اپراتورها چه می توانیم بگوییم؟ آیا جبری برای این کار وجود دارد؟ | جبر برای اطمینان داده ها |
60643 | من به دنبال اطلاعاتی در مورد تفاوت بین رگرسیون دوجمله ای، دوجمله ای منفی و رگرسیون پواسون هستم و این که این رگرسیون برای کدام موقعیت ها مناسب تر است. آیا آزمایشاتی وجود دارد که بتوانم در SPSS انجام دهم که بتواند به من بگوید کدام یک از این رگرسیون ها برای شرایط من بهترین است؟ همچنین، چگونه می توانم یک دوجمله ای پواسون یا منفی را در SPSS اجرا کنم، زیرا هیچ گزینه ای مانند من در قسمت رگرسیون وجود ندارد؟ اگر لینک مفیدی دارید خیلی ممنون میشم. | تفاوت بین دوجمله ای، دوجمله ای منفی و رگرسیون پواسون |
113773 | من به دنبال یک کتاب درسی خوب برای یک ترم درس احتمال و آمار برای دانشجویان سال اول مهندسی کامپیوتر هستم (مثلاً بدون حساب دیفرانسیل و انتگرال). میشه پیشنهاد بدید حساب دیفرانسیل و انتگرال نباید پیش نیاز باشد: برنامه ما دارای احتمال و آمار در ترم اول سال اول است. یعنی دانش آموزان این درس را در کنار حساب دیفرانسیل و انتگرال می گذرانند. از این رو آنها حساب دیفرانسیل و انتگرال را نمی دانند. این امر بسیاری از کتاب های احتمالی و آمار عالی را رد می کند. بدون برنامه نویسی سطح بالا: حتی اگر دانشجویان ما دانشجوی مهندسی کامپیوتر هستند، برنامه نویسی نمی دانند. در صورت امکان کتاب مربوط به موارد استفاده مهندسان کامپیوتر باشد. من از سوالات مشابه کتاب خوب در این سایت مطلع هستم، اما فکر می کنم شرایط من آنقدر خاص است که بتوانم یک سوال دیگر بپرسم. | کتاب درسی خوب برای یک ترم احتمال و آمار برای مهندسی کامپیوتر سال 1 |
112423 | در مدل اثرات مختلط من یک اثر ثابت و دو اثر تصادفی (موضوع و زمان اندازهگیری) وجود دارد. fit <- lmer(DV ~ group + (1|موضوع) + (1|زمان)) اکنون برای برخی از DV ها واریانس و انحراف معیار برای زمان اثر تصادفی 0 است. در صفحات 10/11 کتاب او (lme4: Mixed-effects مدل سازی با R) داگلاس بیتس نوشت: > تخمین 0 برای σ به این معنی نیست که هیچ گونه تغییری بین > گروه ها وجود ندارد. (...) برآورد، σ1 = 0، به سادگی نشان می دهد که سطح تنوع > بین گروهی برای تضمین گنجاندن اثرات تصادفی در مدل کافی نیست. نکته مهمی که باید از این مثال صرف نظر کرد این است که باید اجازه دهیم تخمین مولفه های واریانس > صفر باشد. ما چنین مدلی را بهعنوان منحط توصیف میکنیم، به این معنا که > مطابق با یک مدل خطی است که در آن اثرات تصادفی مرتبط با Batch را حذف کردهایم. مدلهای منحط میتوانند و در عمل رخ میدهند. حتی زمانی که مدل نهایی برازش شده فرسوده نیست، باید چنین مدل هایی را در هنگام تعیین تخمین پارامترها از طریق بهینه سازی عددی مجاز کنیم. بنابراین من کاملاً درک نمی کنم که این برای من چه معنایی دارد. از طرفی به نظر می رسد که گنجاندن زمان به عنوان یک افکت تصادفی موجه نیست (برای تضمین استفاده از جلوه های تصادفی در مدل کافی نیست)، از سوی دیگر به نظر می رسد که برای واریانس/SD صفر بودن مشکلی ندارد. (به شرطی که درست تفسیر شود). آیا می توانید در تفسیر صحیح پاراگراف به من کمک کنید؟ | جلوه تصادفی با صفر SD در LMM |
62644 | آیا کسی هست که بتواند به من بگوید یا در مورد یافتن خطای نوع 1 برای کارآزمایی بالینی بیزی به من توضیح دهد. از 100 بیمار من به 59 بیمار موفق نیاز دارم تا از آستانه خلفی من فراتر بروند. من توانسته ام این کار را از طریق R انجام دهم اما اکنون در تلاش برای یافتن خطای احتمال نوع 1 برای این 59 موفقیت هستم. من می دانم که مقدار باید 0.044 ~ باشد، اما من مطمئن نیستم که چگونه این مقدار را پیدا کنم. هر کمکی لطفا | نوع 1 خطای آمار بیزی |
48140 | تا کنون، تست اجرا یا تست bds با دادههای i.d خوب عمل میکند، اما برای مجموعه دادههای مستقل اما **نه ** توزیعشده یکسان بر اساس تجربیات عملی من با آنها، اینطور نیست. آیا تست دیگری وجود دارد که ویژگی های خوبی در آزمایش این جریان داده های غیر i.d داشته باشد؟ | آزمایش برای سری های زمانی مستقل اما نه به طور یکسان؟ |
54882 | به دنبال برخی توصیه های کلی سری زمانی! من داده های عملکرد را در فواصل زمانی ثابت از یک سیستم مشترک با هدف بررسی تاثیر اشتراک گذاری بر عملکرد برشی خود از سیستم جمع آوری کرده ام. عملکرد همانطور که ادعا می شود باید در طول زمان ثابت باشد، اقدامات همسایه ها جدا از تأثیر بر عملکرد من مشاهده نمی شود. متأسفانه من نمیتوانم طرحهای زمانی جمعآوریشده (در مدت دو هفته) یا طرح تفاوتها را پست کنم زیرا تازه اینجا هستم. دلیلی وجود ندارد که باور کنیم این سری باید روندهای قطعی داشته باشد و اعتقاد اولیه من این است که یک مدل خوب P(t) = ثابت + تغییرات تصادفی خواهد بود، با این حال، سری عملکرد مطمئناً غیر ثابت به نظر می رسد (و تست KPSS را رد می کند. ثابت بدون روند) و همبستگی بسیار آهسته تحلیل می رود در حالی که pacf هیچ همبستگی غیر قابل توجهی را پس از 15 تاخیر نشان نمی دهد. با نگاهی به طرح زمانی من و سری های متفاوت، به نظر می رسد که واریانس در حال تغییر است. من در تجزیه و تحلیل سری های زمانی تازه کار هستم و از هر اشاره گر و آنچه که ممکن است جهت مفیدی برای تجزیه و تحلیل باشد قدردانی می کنم. درک من (که ممکن است اشتباه باشد) این است که واریانس غیر ثابت همراه با همبستگی سریال در یک سری باعث می شود روندهای محلی - روندهای تصادفی؟ آیا یک مدل ARCH/GARCH در اینجا قابل استفاده است یا باید ابتدا مدل های ARIMA را امتحان کنم؟ من علاقه کمتری به پیش بینی عملکرد آینده دارم و بیشتر علاقه مند به درک ساختار داده ها هستم. هر گونه کمک قدردانی! | توصیه عملی سری زمانی |
95774 | من به دنبال ابزارهایی برای **برازش خودکار مدل سری زمانی میانگین متحرک (MA)** به داده های خود در `R` هستم. من روش R:stats::ar را برای تطبیق یک مدل سری زمانی خودرگرسیون با داده ها می شناسم (به طور پیش فرض پیچیدگی را توسط AIC انتخاب می کنم) اما در یافتن معادل آن برای مدل MA ناکام هستم. روش armaFit وجود دارد اما نیاز به تعریف از قبل ترتیب مدل MA دارد. من می خواهم چیزی داشته باشم که آن را به طور خودکار انجام دهد. | یک مدل سری زمانی میانگین متحرک (MA) را به داده ها برازش دهید (R:stats::ar معادل) |
99421 | آیا اعتبار متقاطع فقط برای انتخاب مدل استفاده می شود یا می توانم از اعتبار سنجی متقاطع برای آزمایش دقت عملکرد یک شبکه عصبی استفاده کنم؟ | اعتبار سنجی متقاطع و عملکرد شبکه عصبی |
52731 | من سری قیمت دارم که همه ثابت هستند بدون اینکه تفاوتی در نظر بگیرند --> I(0). آیا هنوز هم می توانم یک مدل ECM برای آزمایش عدم تقارن انجام دهم؟ به عنوان مثال: Y= ثابت X; پسماندها را گرفته و این عبارت را به صورت منفی و مثبت (ECT+ و ECT-) جدا کنید. سپس: D.Y=cons LD.X LD.Y ECT- ECT+ آیا این برای متغیرهای I(0) درست است؟ | مدل تصحیح خطا (برای آزمایش عدم تقارن) با متغیرهای ثابت I(0). |
113775 | من همیشه بر این باور بودهام که ماتریس همبستگی رتبه اسپیرمن نیازی به مثبت بودن نیمه معین ندارد، زیرا همبستگیها به صورت زوجی تخمین زده میشوند، بنابراین همیشه این احتمال وجود دارد که چنین نباشد. با این حال، اخیراً عمیقتر به این موضوع نگاه کردهام و گیج شدهام، به خصوص پس از خواندن این: https://www.usenix.org/legacy/event/sysml07/tech/full_papers/sabato/sabato.pdf در صفحه # 4، قضیه 2 می گوید: _یک ماتریس همبستگی رتبه اسپیرمن PSD است_ **اثبات:** _همبستگی اسپیرمن یک همبستگی پیرسون برای رتبه ها اعمال شد. بنابراین ماتریس همبستگی رتبه اسپیرمن PSD_ است، بنابراین... آیا ماتریس همبستگی اسپیرمن می تواند نیمه معین مثبت نباشد؟ آیا نمونه متقابلی وجود دارد که مردم بدانند؟ یا اینکه تصور اینکه ماتریس همبستگی اسپیرمن می تواند قطعی غیر مثبت باشد، سوء تفاهم است؟ | آیا ماتریس همبستگی رتبه اسپیرمن مثبت است یا خیر؟ |
60648 | من سعی می کنم مصرف برق را در گیگاوات ساعت برای 2 سال آینده (از ژوئن 2013) با استفاده از R (بسته پیش بینی) پیش بینی کنم. برای این منظور من رگرسیون را با خطاهای ARIMA امتحان کردم. من مدل را با استفاده از تابع «auto.arima» برازش کردم، و از متغیرهای زیر در آرگومان «xreg» در تابع «forecast.Arima» استفاده کردم: \- روزهای درجه حرارت و سرمایش، \- ساختگی برای تمام 12 ماه و \- آدمک های متحرک تعطیلات (عید پاک و رمضان) در رابطه با مدل چند سوال دارم: 1) آیا استفاده از هر 12 آدمک برای فصلی بودن ماهانه صحیح است؟ از زمانی که من سعی کردم 11 را اضافه کنم، تابع خطا را نشان داد. تابع `Auto.arima` مدل ARIMA را برگرداند(0,1,2) 2) مدل ضرایب زیر را برگرداند (من همه آنها را مشخص نمی کنم زیرا ضرایب بسیار زیاد است): ma1 ma2 HDD CDD ژانویه فوریه مارس آوریل -0.52 -0.16 0.27 0.12 525.84 475.13 472.57 399.01 من در حال تلاش برای تعیین تأثیر جزء دما بر بار الکتریکی هستم. در درصد، (تفسیر ضرایب درست مانند رگرسیون معمول) مولفه های دما (`HDD`+`CDD`) 11.3% از مصرف برق را تشکیل می دهند. با توجه به اینکه مصرف برق بیشتر تحت تاثیر مولفه آب و هوا است این خیلی کم نیست؟ از سوی دیگر، با نگاهی به ضرایب آدمک ها، مشخص می شود که فصلی بودن بخش بیشتری از بار را به خود اختصاص می دهد. چرا این است؟ آیا مدل کاملاً نادرست است؟ من رگرسیون خطی را امتحان کردم، و مولفه دما 20٪ را تشکیل می دهد، اما هنوز هم درصد پایینی است. چرا این است؟ 3) بدیهی است که من در استفاده از forecast.Arima یا پارامترهای تابع نمودار اشتباه می کنم زیرا وقتی پیش بینی ها را رسم می کنم، تصویری از سری زمانی اصلی دریافت می کنم که با پیش بینی ها برای کل ادامه می یابد (ادغام می شود). دوره سری زمانی (از 2004 تا 2015). من نمی دانم چگونه این را بهتر توضیح دهم، سعی کردم عکس را بچسبانم، اما به نظر می رسد نمی توانم عکس ها را اینجا بچسبانم. | صحت رگرسیون با مدل خطاهای آریما و مسائل تفسیر ضرایب |
63590 | 1. از Applied Statistical Genetics with R توسط Foulkes (pFDR = نرخ کشف نادرست مثبت): > q-value به طور مشابه به عنوان بزرگترین کران پایینی $pFDR$> تعریف می شود که می تواند از رد آمار آزمون $T$ و یک نمونه $x$ با > $T(x)=t$ بر اساس منطقه رد $Γ$ در مجموعه رد تودرتو > مناطق. به طور رسمی، مقدار q نوشته می شود $$q(t) =\inf_{Γ :t∈Γ } [pFDR(Γ > )]$$ از آنجایی که $pFDR$ در اینجا دخالت دارد، باید چندین فرضیه صفر وجود داشته باشد، و متفاوت null ممکن است قوانین تست متفاوتی داشته باشد. اما در اینجا آیا فرض میشود که یک قانون آزمایشی مشترک $(T, Γ)$ برای همه تهیها وجود دارد؟ 2. از ویکی پدیا > q-value به عنوان آنالوگ FDR از p-value تعریف شده است. **Q-value > یک آزمون فرضیه فردی ** حداکثر FDR است که در آن آزمون > ممکن است معنی دار نامیده شود. یک رویکرد این است که به جای تعیین سطحی که در آن FDR کنترل شود، به طور مستقیم مقادیر q تخمین زده شود. * چرا در مورد ارزش q آزمون فرضیه **یک فرد** صحبت می کنیم؟ آیا مقدار q برای تهی های متعدد و قوانین تست آنها نیست؟ * آیا _maximum_ FDR باید حداقل FDR باشد؟ * یک رویکرد برآورد مستقیم مقادیر q به جای تعیین سطحی برای کنترل FDR است به چه معناست؟ یک رویکرد در تلاش برای حل چیست؟ 3. آیا من درست می گویم که pFDR به توزیع نمونه بستگی دارد و با آن تغییر می کند، بنابراین q-value هم هست؟ با تشکر و احترام! | مقدار q چگونه تعریف می شود؟ |
80572 | من علاقه مند به انجام یک متاآنالیز از تجزیه و تحلیل متغیرهای ابزاری از تعداد انگشت شماری از مطالعات مختلف هستم و از همه محققین مطالعه، مجموعه ای مشابه از نتایج مدل را درخواست می کنم. با این حال، در حال حاضر با Stata آشنا نیستم و خروجی «inregress» ایجاد میشود. آیا می توان از خروجی های جداگانه برای انجام یک متاآنالیز استفاده کرد؟ | استفاده از خروجی های مختلف در یک متاآنالیز؟ |
103261 | من سعی می کنم سه نمونه تکراری گرفته شده در زمان های مختلف را با هم مقایسه کنم تا ببینم آیا تکراری با تکرار دو و سه و ویزا verse تفاوت دارد یا خیر. علاقه من این است که ببینم آیا این سه تکرار یک جامعه را با فراوانی گونه های مشابه نشان می دهند یا نه؟ از مطالعهای که انجام دادهام، فکر میکنم که اندازهگیری مکرر آنالیز واریانس دو طرفه کار را برای من انجام میدهد، اما من کاملاً مطمئن نیستم که درست باشد؟ لطفاً پیوند دادههای من را با دنبال کردن پیوند مشاهده کنید: https://gist.github.com/plxsas/9ec2a528f94bd2dff46d لطفاً کسی میتواند به من در مورد آن و نحوه دستیابی به آن در R راهنمایی کند؟ | دو طرفه ANOVA اندازه گیری مکرر |
20414 | ما در حال راه اندازی یک آزمایش دستکاری در جنگل هستیم که در آن تأثیر مدیریت را بر تعدادی از شاخص های بهداشتی آزمایش خواهیم کرد. ما 1 عامل، 3 سطح، 3 پلات داریم که هر کدام 3 بار تکرار شده اند. طرح آزمایشی کاملا تصادفی است. نگرانی ما و دو سوال ما در مورد بهترین راه برای تخصیص سطوح عامل به طرح ها است. قطعهها در جنگل پراکنده شدهاند، اما ممکن است در مجاورت یکدیگر قرار داشته باشند و یک یا چند ضلع مشترک بین هر یک باشند. کاهش اندازه طرح یک گزینه نیست و نه افزایش تعداد تکرارها است. برای اطمینان از استقلال نمودارها، چند محدودیت برای تخصیص تصادفی سطوح به نمودارها قرار میدهیم تا اطمینان حاصل کنیم که سطوح فاکتورهای مختلف به نمودارهای مجاور تخصیص داده میشوند. **سوال اول** آیا فکر می کنید این سازش بین تصادفی سازی و پراکندگی باعث سوگیری تحلیل های بیشتر می شود؟ ما می خواهیم تضمین کنیم که شرایط اولیه نمودارها، تا آنجا که به متغیرهای پاسخ ما مربوط می شود، تا حد امکان مشابه هستند. ما اطلاعات کافی در مورد شرایط اولیه داریم و ممکن است قبل از شروع آزمایش، برابری یک متغیر پاسخ را برای هر ترکیبی از پیکربندی تخصیص سطح به نمودارها آزمایش کنیم. سپس میتوانیم پیکربندی سطوح را در نمودارهایی انتخاب کنیم که از آستانه معنیداری فراتر میرود (یا به سادگی مقدار _p_ را به حداکثر میرساند)، یا واریانس متغیر پاسخ توضیح داده شده توسط سطح عامل را به حداقل میرساند. **سوال دوم** تعادل صحیح بین تصادفی سازی و اطمینان از شرایط اولیه بین واحدهای آزمایشی کجاست؟ | تعادل بین تصادفی سازی، پراکندگی و حتی شرایط اولیه واحدهای آزمایشی |
67031 | من جستجو کردم، اما نمی توانم درک کنم: لطفا به یک مبتدی کمک کنید. 1) سناریو - از 10 نفر (نمونه تصادفی) 6 سوال پرسیده می شود. 6 سوال به 2 دسته تقسیم می شوند (یعنی 3 سوال دسته کلمات طولانی و 3 سوال دسته کلمات کوتاه) که متغیر مستقلی برای آزمایش اینکه آیا تفاوتی بین عملکرد دسته کلمات بلند و سوالات دسته کلمات کوتاه وجود دارد (بر اساس اثر طول کلمه بر طول حافظه برای حافظه کاری). بنابراین 10 آزمودنی بر اساس عملکرد کلمه بلند و عملکرد کلمه کوتاه امتیازات فردی دارند (همه از یک پرسشنامه پرسیده شده است). من ادامه می دهم و میانگین را برای همه موضوعات محاسبه می کنم: به عنوان مثال، میانگین کلمه بلند 1.3 و میانگین کلمه کوتاه 2.3 است. انحراف معیار گروه ها نیز محاسبه خواهد شد. 2) سوال 1. برای آزمایش اینکه آیا دو میانگین از یک گروه با نتایج بر اساس دسته بندی سوالات مختلف یک پرسشنامه منفرد که به طور کامل برای یک فرد اجرا شده است یا نه، آیا می توانم از آزمون t استفاده کنم تا مشخص کنم میانگین ها از نظر آماری متفاوت هستند (تمام مطالب I آیا صحبت در مورد دو نمونه متفاوت {معمولاً به عنوان نمونه مستقل}، یا یک نمونه منفرد اما تحت دو آزمایش جداگانه (یکی قبل از مداخله و سپس دیگری پس از مداخله) یافته اید، اما نمونه به عنوان وابسته خوانده می شود در مورد استفاده از آزمون t مطمئن نیستم زمانی که میانگین ها از یک پرسشنامه به دست می آیند و یک بار برای یک گروه اجرا می شوند. | آزمون t یا نه، مستقل یا نه |
60649 | سوال من با الگوریتم معروف داده کاوی Dynamic Time Warping که به نام DTW نیز شناخته می شود، مرتبط است. طبق ویکی پدیا، فاصله بین دو دنباله عنصر (i-th,j-th) ماتریس DTW است. اما در مقالات تحقیقی میبینم که برای طبقهبندی به دو مورد نیاز داریم که کمترین هزینه مسیر/مسیر تاب برداشتن را پیدا کنند، که مجموع تمام سلولهای این مسیر است (مطمئن نیست). آیا نمی توانیم فقط از مقدار DTW[i, j] استفاده کنیم؟ همچنین، من می بینم که بسیاری از افراد فاصله را بر یک ثابت تقسیم می کنند و می گویند این یک نرمال سازی است. چرا این کار را می کنند؟ | تاب خوردگی زمان پویا - چرا به کمترین هزینه نیاز داریم؟ |
112421 | من چهار ترانسکت (یا 6 بسته بسته به سایت) دارم که در 10 سایت تو در تو قرار گرفته اند، با داده های تکرار شده در طی 4 سال، با 5 بازدید ماهانه. پاسخ من داده های شمارش است و من از Poisson (و شاید Neg Bin) GLMM استفاده می کنم. آیا توصیه می شود ترانسکت ها را به عنوان یک اثر تصادفی در نظر بگیریم؟ آیا بهتر است به برهمکنش اثر تصادفی محل x ترانسکت نگاه کنیم یا حتی تعداد ترانسکتهای داخل یک سایت را به عنوان یک افست در نظر بگیریم؟ من سعی کردم مدلی را با اثر متقابل اثر تصادفی سایت x transect اجرا کنم، اما زمانی که متغیرهای کمکی را به مدل معرفی میکنم (که مربوط به ترانسکت هستند)، یک پیام NaN برای ارتباط بین شیب و قطع دریافت میکنم. چرا ممکن است این باشد؟ هر توصیه ای بسیار قدردانی می شود. متشکرم. | توصیه عوامل تصادفی تو در تو |
84218 | من یک مجموعه داده با حدود. در مجموع 13000 مورد و تقریباً 1000 پرونده نتیجه ای دارند که من علاقه مند به پیش بینی آن هستم (محکوم به حبس). من یک رگرسیون لجستیک در کل نمونه اجرا کردهام و این مدل در پیشبینی «حبس» وحشتناک است، اگرچه در پیشبینی «بدون حبس» بسیار خوب است. سعی کردم نمونهای تصادفی از پروندههای «غیر حبس» ترسیم کنم و آنها را با موارد «حبس» بپیوندم تا نمونه متعادلتری داشته باشم. وقتی تعداد موارد مشابهی داشته باشم (یعنی 50٪ حبس 50٪ بدون حبس) به پیش بینی بسیار خوبی از هر دو نتیجه می رسم. با این حال، وقتی تعداد موارد «غیر حبس» را دو برابر میکنم، پیشبینی کلی من افزایش مییابد، اما توانایی پیشبینی حبس بهویژه کاهش مییابد. استفاده از نمونه برای بهترین پیش بینی حبس معتبر است یا من به نحوی بر نتایج تأثیر می گذارم؟ آیا این واقعیت که مدل اولیه من در پیش بینی زندان ضعیف بود فقط به این معنی است که من مدل خوبی ندارم؟ (تشخیص به طور کلی نشان می دهد که عالی نیست اما خوب است). با تشکر | رگرسیون لجستیک و نسبت موارد به غیر مورد در نمونه |
63592 | از صفحه 17 برخی از اسلایدها، در مقایسه چندگانه، وقتی همه فرضیه های صفر درست نیستند، چرا تعداد موارد مثبت کاذب $V$ کمتر از تعداد مثبت گزارش شده $R$ است، یعنی $V <R$؟ هنوز هم ممکن است مثبت (های مثبت) واقعی وجود داشته باشد، درست است؟ | چرا تعداد FPها کمتر از موارد مثبت گزارش شده در این مورد است؟ |
78464 | من یک فیزیکدان هستم که چند سالی از آخرین دوره تحصیلی اش در آمار سپری شده است، بنابراین امیدوارم هنگام مقایسه برخی از داده هایی که اخیراً تولید کرده ام، توصیه هایی دریافت کنم. من این سوال را در وب سایت Mathematics Stack Exchange پرسیدم، اما هیچ پاسخی دریافت نکردم، بنابراین فکر کردم اینجا هم امتحان کنم. زمینه به شرح زیر است. من دو مدل نظری کمی متفاوت دارم که از آنها برای تولید دو مجموعه داده استفاده کردم (اعداد دارای قدرت تابشی در اتم های چند الکترونی برای انتقال های مختلف هستند، اما دقیقاً برای ریاضیات مرتبط نیستند). من همچنین مجموعهای از مقادیر «پذیرفتهشده» یا «ادبیات» مربوط به این انتقالها را دارم، و میخواهم ببینم کدام یک از دو مدل من نتایجی ایجاد میکند که به طور کلی/متوسط به مدل «پذیرفتهشده» نزدیکتر است. معیار مقایسه فعلی من خطای نسبی برای هر انتقال است (یعنی $\delta_{rel}=\frac{|T_{i,j}−A_j|}{A_j}$ که $T_{i,j}$ نظری من است نتیجه برای انتقال $j$ و مدل نظری $i$ و $A_{j}$ نتیجه پذیرفته شده برای انتقال $j$ است. واضح ترین مکان برای شروع به نظر می رسید. من اکنون درگیر این هستم که چگونه می توانم از این خطاهای نسبی معنایی به دست بیاورم. در حال حاضر، من فقط میانگین حسابی خطاهای نسبی را گرفتهام، اما شهودم به من میگوید این روش دقیق یا درستی در این مورد نیست. از آنچه به یاد دارم، هر خطای نسبی را می توان یک متغیر تصادفی مستقل در نظر گرفت. اگر مجذور تفاوت در صورتگر تفاوت نسبی خود را بگیرم، معتقدم که باید یک توزیع $\chi^2$ دریافت کنم. بنابراین، من دو نمونه از دو توزیع نظری $\chi^2$، یکی برای هر یک از مدلهایم، دارم. چگونه باید این دو توزیع را مقایسه کنم؟ دانش تست فرضیه من کمی زنگ زده است و به یاد ندارم که دو توزیع $\chi^2$ را با هم مقایسه کرده باشم. هر گونه توصیه یا نشانه ای مبنی بر اینکه آیا من درخت اشتباهی را پارس می کنم قدردانی خواهد شد. | مقایسه توزیع خطا برای تعیین اینکه کدام مدل نتایج بهتری را به همراه دارد |
62646 | من دادههایی درباره حجم نامههای ارسال شده توسط خانواده برای هفت گروه سنی، با دادههای 12 ساله برای هر گروه سنی دارم. من در ابتدا یک رگرسیون ساده روی هر گروه سنی به صورت جداگانه انجام دادم و متوجه شدم که باید عمیقتر بگردم. هدف من اکنون این است که داده ها را جمع آوری کنم (به من 84 مشاهده داده است) و سعی کنم برخی از اثرات دوره (یا اثرات سال، هر کدام را که ترجیح می دهید) شناسایی کنم. داده های تلفیقی من در حال حاضر به این شکل سازماندهی شده اند (PPHPY مخفف Pieces per Household Per Year است): گروه سنی سال PPHPY 1 2001 127.62 1 2002 144.47 1 2003 111.70 1 2004 95.96 196206 195.96 1 2006 139.91 1 2007 85.52 1 2008 75.43 1 2009 109.34 1 2010 53.16 1 2011 64.09 1 2012 50.94 2 2004 2004 122827. 2003 137.79. . . . . . . . . 7 2012 163.39 من برای اولین بار PPHPY را روی آدمکهای سال و سال پسرفت کردم (برای جلوگیری از چند خطی کامل، فاصله را 0 گذاشتم). این به من اثرات دوره را برای داده های انبوه داد (یعنی چیزی شبیه اثر دوره در تمام گروه های سنی، فکر می کنم). این به شکل زیر است: > ## با استفاده از factor() > YearDummy <- factor(YearVar) > > ## را بررسی کنید تا ببینید YearDummy واقعاً یک متغیر عامل است > > is.factor(YearDummy) [1] TRUE > > ## (...+0) تضمین می کند که رهگیری حذف شده است و بنابراین YearDummy1 در داخل باقی می ماند. ## یکی یا دیگری باید کم شود برای جلوگیری از چند خطی کامل > > LSDVYear <- lm(PPHPY ~ YearVar + YearDummy + 0, data=maildatapooled) > خلاصه (LSDVYear) فراخوانی: lm(فرمول = PPHPY ~ YearVar + YearDummy + 0، داده = maildapools میانه 3Q Max -99.658 -39.038 8.814 43.670 82.300 ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) YearVar 5.743e-02 9.851e-03 5.830 1.45e-07 *** YearDummy2001 1.099e+02 2.795e+01 3.930 0.000e-03 0.000Dummy2001 *** 2.796e+01 4.324 4.85e-05 *** YearDummy2003 7.791e+01 2.797e+01 2.786 0.006819 ** YearDummy2004 8.053e+01 **012.7970+02.797e YearDummy2005 6.887e+01 2.798e+01 2.461 0.016236 * YearDummy2006 6.572e+01 2.799e+01 2.348 0.021618 * YearDummy2007+20070.799 2.134 0.036210 * YearDummy2008 5.836e+01 2.800e+01 2.084 0.040696 * YearDummy2009 4.119e+01 2.801e+01 1.4471 701405. 3.056e+01 2.801e+01 1.091 0.278990 YearDummy2011 1.472e+01 2.802e+01 0.525 0.600951 YearDummy2012 NA NA NA NA Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 52.44 در 72 درجه آزادی چندگانه R-squared: 0.9316، R-squared تنظیم شده: 0.920 آمار: 81.71 در 12 و 72 DF، p-value: < 2.2e-16 چیزی که من میخواهم این است که جلوههای دوره را برای هر گروه سنی به صورت جداگانه حذف کنم. این چیزی است که من مطمئن نیستم چگونه تنظیم کنم. من امیدوار بودم که کسی بتواند به من کمک کند تا کدی در R ابداع کنم که اثرات دوره را برای _هر یک از هفت گروه سنی با استفاده از داده های تلفیقی حذف کند، و همچنین به من در درک مفهومی مشکل کمک کند. ویرایش: فراموش کردم اشاره کنم که میدانم باید یک اصطلاح تعاملی را در بر داشته باشم تا اجازه دهیم ضرایب در گروههای سنی متفاوت باشند. من فقط در ساختن عبارت تعامل مناسب و معادله رگرسیون در نتیجه مشکل دارم. ویرایش 2: من با دو مدل آمدم و آنها را اجرا کردم. من احساس کردم که این سوال در این مرحله تکامل یافته است و ممکن است مستحق یک پست جدید باشد که در اینجا یافت می شود. | رگرسیون سری زمانی تلفیقی در R |
20417 | من روی یک مطالعه مونت کارلو در مورد بوت استرپینگ در یک مدل AR(1) برای تکلیف خانه کار می کنم (من از Matlab استفاده می کنم). هدف این است که چیزی در مورد احتمالات رد تجربی بوت استرپ در این زمینه خاص بگوییم. با این حال، من با برخی از مشکلات محاسباتی مواجه شده ام. ابتدا مقداری زمینه فرض کنید یک رگرسیون $y_t = \gamma + \rho y_{t-1} + \varepsilon_t$ دارد و میخواهد فرضیه دو دنباله $\rho = \rho_0$ را توسط بوت استرپ آزمایش کند. برای انجام این کار، ابتدا رگرسیون را با مثلا OLS تخمین می زنیم و سپس از باقیمانده های بدست آمده $\hat \varepsilon_t$ و ضرایب $\hat \gamma, \; \hat \rho$ برای ساختن نمونه های بوت استرپ. با این حال، در این مورد، نمونه بوت استرپ باید به صورت بازگشتی ساخته شود. آنچه برای محاسبات بدتر است، باید این محاسبات را بارها با استفاده از مجموعه داده های شبیه سازی شده مختلف _and_ مقادیر مختلف $\rho$ تکرار کنم. (دلیل آن این است که به فرد اجازه می دهد تا حدی از سطح تجربی آزمون در مقادیر مختلف $\rho$ دریافت کند.) تا کنون من این کار را به روشی ساده و ساده انجام داده ام که فقط بسیاری از رگرسیون ها را تخمین می زند و نمونه های راه انداز را تولید می کند. ، و غیره. من توانستم تعداد زیادی حلقه را با استفاده از تابع «فیلتر» در هنگام تولید نمونههای بوت استرپ حذف کنم، اما باز هم زمانهای محاسباتی بسیار زیاد است. من آن را با بوت استرپ داخلی در gretl مقایسه کردم و چندین برابر کندتر است. (من میدانم که gretl به زبان C نوشته شده است، اما احساس میکنم که چیزی بیشتر از آن وجود دارد.) بنابراین، سؤال من این است: چه توصیهای کلی میتوانید برای پیادهسازی کارآمد بوت استرپینگ در یک زبان مبتنی بر ماتریس داشته باشید؟ آیا راههای هوشمندانهای برای جلوگیری از تخمین بسیاری از رگرسیونهای OLS و تولید نمونههای بوت استرپ وجود دارد؟ اگرچه من از Matlab برای محاسبات استفاده می کنم، اما اگر توصیه های کلی در مورد انجام این کار با R دارید، از همه کمک ها بسیار قدردانی می شود. همچنین، از آنجایی که این یک تکلیف است که باید انجام دهم، استفاده از کتابخانه های موجود واقعاً یک گزینه نیست. :) | چگونه بوت استرپ را به طور موثر در یک زبان مبتنی بر ماتریس پیاده سازی کنیم؟ |
78281 | کسی می تواند به من توضیح دهد که باند اطمینان در همبستگی چیست و اگر ضریب خودهمبستگی خارج از این خط باشد به چه معناست؟ به عنوان مثال در نمودار من، تاخیر 14 به طور قابل توجهی بالا است، به چه معناست؟  | نوار اطمینان در همبستگی |
99423 | من یک آماردان مبتدی هستم که از R استفاده می کنم. من یک BLR را برای تعیین احتمال وجود سایت های خوب یا بد برای ساخت یک ساختار اجرا می کنم. هر مکان دارای یک امتیاز ترکیبی است که از مقادیر شاخص ایجاد شده در مدل قبلی ایجاد شده است. وقتی BLR را اجرا میکنم، رهگیری و ضریب من به نظر میرسد نامناسب است. رهگیری مقدار -91.197 را ثبت می کند و ضریب آن 18.188 است. به همین ترتیب log-likelihood درست به نظر نمی رسد، زیرا -2.1503e-07 است. بنابراین هنگام محاسبه احتمال پیشبینیشده از Log Units و Raw Units، مقادیر بسیار پایینی مانند 1.024419e-166 دریافت میکنم. آیا کسی می تواند روشن کند که این موضوع چه می تواند باشد؟ آیا مجموعه داده بدی دارم؟ آیا از روش آماری اشتباهی استفاده می کنم؟ هر گونه کمکی بسیار قدردانی می شود. | رگرسیون لجستیک باینری - ارزش Log-Likelihood بسیار پایین |
52730 | من با یادگیری ماشین و این انجمن تازه کار هستم. من یک شک مبتدی در مورد داده های نامتعادل دارم. اینجاست: من یک کار طبقه بندی باینری دارم، که در آن بیشتر به طبقه بندی دقیق طبقه مثبت (که در جمعیت هدف در اقلیت است) علاقه مندم. برخلاف مشکل رایج **_not_** داشتن نمونه های کلاس مثبت (اقلیت) کافی در مجموعه آموزشی، مجموعه داده آموزشی من شامل کلاس مثبت در **_majority_** است. در اینجا ترکیب جمعیت هدف (که انتظار دارم در محیطی که طبقهبندی کننده/مدل من در آن مستقر میشود پیدا شود): * کلاس مثبت: ~ 35٪ * کلاس منفی: ~ 65٪ در اینجا ترکیب مجموعه آموزشی من است: * کلاس مثبت: ~ 95٪ * کلاس منفی: ~ 5٪ از آنجایی که ترکیب مجموعه آموزشی من به شدت با ترکیب جمعیت هدف متفاوت است، طبقه بندی خواهد شد الگوریتم هنگام طبقه بندی نمونه ها از جامعه هدف تعمیم نمی یابد؟ همانطور که قبلاً اشاره کردم، من بیشتر به طبقه بندی دقیق نمونه های کلاس مثبت علاقه مند هستم، که مجموعه آموزشی من به وفور دارد. من شرح زیر را در یک نشریه در مورد مجموعه داده های نامتعادل خواندم: هدف از یادگیری ماشینی این است که طبقه بندی کننده توزیع احتمال جمعیت هدف را تخمین بزند. از آنجایی که این توزیع ناشناخته است، سعی می کنیم توزیع جمعیت را با استفاده از توزیع نمونه تخمین بزنیم. آمار. به ما می گوید که تا زمانی که نمونه به صورت تصادفی ترسیم شود، می توان از توزیع نمونه برای تخمین توزیع جمعیت از جایی که رسم شده است استفاده کرد، بنابراین با یادگیری توزیع نمونه، می توانیم تقریبی توزیع هدف را بیاموزیم. از آنجایی که مجموعه داده آموزشی من می تواند **_not_** به عنوان یک نمونه تصادفی از توزیع هدف در نظر گرفته شود، آیا این بر قدرت تعمیم طبقه بندی کننده من تأثیر می گذارد؟ اگر چنین است، برای جلوگیری از این امر چه باید کرد؟ نمونه برداری بیش از حد / کمتر از حد؟ ماتریس هزینه؟ PS: من سعی کردم در پست های قبلی در مورد مسائل مشابه من جستجو کنم، اما همه آنها به مشکل نداشتن مثال های کافی برای طبقه اقلیت (که دقیقا برعکس سناریوی من است) پرداختند. پیشاپیش متشکرم -S | داده های عجیب و غریب نامتعادل |
54774 | فرهنگ لغت Merriam-Webster یک رویداد یا موقعیت _contingent_ را به صورت 1 تعریف می کند: احتمال وقوع اما قطعی نیست: ممکن است 2: از نظر منطقی ضروری نیست. به ویژه : تجربی 3 الف : اتفاق افتادن تصادفی یا علل غیرقابل پیش بینی ب : مشروط به اتفاق یا اثرات غیر قابل مشاهده : غیر قابل پیش بینی ج : برای استفاده در شرایطی که به طور کامل پیش بینی نشده است 4 : وابسته یا مشروط به چیز دیگری 5 : ضروری نیست : با انتخاب آزاد تعیین می شود . با توجه به اصطلاحات آماری کنونی، از آنجایی که جداول اقتضایی برای نشان دادن طیف وسیعی از داده ها در موقعیت های مختلف استفاده می شود، چرا آنها را می نامیم جداول احتیاطی؟ در کدام یک از معنی های پنج گانه فوق کلمه «احتمال» در این اصطلاح به کار رفته است؟ | در جدول احتمالی چه چیزی وجود دارد؟ |
113777 | اهمیت واقعی یک عبارت رهگیری در معادله رگرسیون چیست؟ اگر رگرسیورها متغییرهایی مانند سن، قد، وزن و جنسیت را شامل شود (1= مذکر، 0= زن)، آیا معادله باید یک ترم قطع داشته باشد؟ | اهمیت عبارت رهگیری در معادله رگرسیون |
67038 | من به تازگی یک نسخه از _ عناصر یادگیری آماری_ اثر هستی، تبشیرانی و فریدمن را دریافت کردم. در فصل 2 (نمای اجمالی یادگیری تحت نظارت) بخش 4 (نظریه تصمیم گیری آماری)، او مشتقاتی از تابع رگرسیون ارائه می دهد. > اجازه دهید $X \in \mathbb{R}^p$ یک بردار ورودی تصادفی با ارزش واقعی را نشان دهد، و > $Y\in\mathbb{R}$ یک متغیر خروجی تصادفی با ارزش واقعی، با توزیع مشترک > $Pr(X, Y) $. ما به دنبال یک تابع $f(X)$ برای پیش بینی $Y$ داده شده > مقادیر ورودی $X$ هستیم. این تئوری به یک تابع ضرر $L(Y,f(X))$ > برای جریمه کردن خطاها در پیش بینی نیاز دارد، و تا حد زیادی رایج ترین و راحت ترین آن، از دست دادن خطا مربع است: $L(Y,f(X))=( Y-f(X))^2$. این ما را به > معیاری برای انتخاب $f$، > > $$\begin{align*} EPE(f) &= E(Y-f(X))^2 \\\ &= \int [y - f( هدایت میکند x)]^2Pr(dx, > dy)\end{align*}$$ خطای پیشبینی مورد انتظار (مربع). من کاملاً تنظیم و انگیزه را درک می کنم. اولین سردرگمی من این است: منظور او $E[(Y - f(x))]^2$ است یا $E[(Y - f(x))^2]$؟ دوم، من هرگز علامت $Pr(dx,dy)$ را ندیده ام. کسی که معنی آن را دارد می تواند برای من توضیح دهد؟ آیا فقط این است که $Pr(dx) = Pr(x)dx$؟ افسوس که سردرگمی من به اینجا ختم نمی شود، > با شرطی کردن روی $X$، می توانیم $EPE$ را به صورت $$\begin{align*}EPE(f) = > E_XE_{Y|X}([Y-f(X)] بنویسیم. ^2|X)\end{align*}$$ من ارتباط بین این دو مرحله را از دست دادهام و با تعریف فنی تهویهسازی آشنا نیستم. اگر می توانم چیزی را روشن کنم به من بگو! فکر می کنم بیشتر سردرگمی من از نشانه گذاری ناآشنا ناشی شده است. من مطمئن هستم که اگر کسی بتواند این اشتقاق را به انگلیسی ساده تقسیم کند، آن را دریافت خواهم کرد. با تشکر stats.SE! | گیج شدن با استخراج تابع رگرسیون |
67036 | من یک سوال در مورد روش تتا در بسته پیش بینی در R داشتم. من سعی کردم از مثال AirPassenger با thetaf() استفاده کنم، اما فقط یک خط روند بدون فصلی در پیش بینی ارائه داد. آیا «thetaf()» فصلی بودن را شناسایی و پیشبینی میکند؟ این کد «R» است که من استفاده کردم: library(forecast) x.fit4 <- thetaf(AirPassengers, h=24) plot(x.fit4) | آیا thetaf() در بسته پیش بینی در R فصلی بودن را تشخیص می دهد؟ |
89091 | مثلاً اگر در فرمول رگرسیون جنسیت داشته باشم. اطلاعات من 90 مرد و 10 زن دارد. من می دانم که خوب نیست دو گروه اینقدر نامتعادل باشند. تخمین جنسیت دارای خطای استاندارد نسبی بزرگی خواهد بود. آیا جنبه منفی دیگری برای گنجاندن آن به عنوان متغیر توضیحی وجود دارد؟ اگر یک متغیر وابسته در رگرسیون لجستیک باشد چه؟ | اگر یک متغیر باینری بسیار نامتعادل باشد چه؟ |
78286 | متغیر وابسته نسبتی است به عنوان معیار مشارکت در یک آزمایش (سوالات پاسخ داده شده/سوالات پرسیده شده). متغیر مستقل یک مقیاس لیکرت 5 نقطه ای است که علاقه به آزمایش را نشان می دهد. چه نوع تحلیل رگرسیون در اینجا قابل استفاده است؟ | نسبت وابسته و مقیاس لیکرت 5 درجه ای مستقل، از چه رگرسیونی استفاده کنیم؟ |
62647 | فرض کنید من قوانین زیر را از یک مجموعه داده ایجاد می کنم: **قانون A:** اگر روزانه ورزش می کنید، بر اساس 100 مورد از داده ها، 70٪ شانس داشتن BMI زیر 28 دارید. **قانون B:** اگر کمتر از یک بار در هفته فست فود می خورید، بر اساس 10 مورد از داده ها، 90٪ شانس داشتن BMI زیر 28 دارید. چالش برای من این است که به نظر می رسد قانون B همبستگی قوی تری را بین یک عامل و BMI زیر 28 نشان می دهد، اما در موارد بسیار کمتری نسبت به قانون A مشاهده می شود و بنابراین واریانس بالاتری دارد. چگونه می توانم از نظر ریاضی تعیین کنم که کدام قانون مهم تر است؟ | تعیین اهمیت یک قانون |
68912 | من یک سوال دارم که ابتدا مدل MGARCH DCC را با مشخصات GARCH(1,1) برای همه معادلات اجرا کردم و به خوبی کار کرد. سپس، من می خواهم مدل MGARCH DCC را با مشخصات SAARCH(1) برای همه معادلات اجرا کنم. اما STATA میگوید: > گزینه saarch() مجاز نیست، نمیدانم چرا از آنجایی که earch برای مدلسازی تک متغیره GARCH برای متغیر 1 و 2 به خوبی کار میکرد. آیا کسی میتواند در این مورد به من کمک کند؟ خیلی ممنون! خروجی stata این است: mgarch dcc (var1 = , arch(1) saarch(1)) (var2 = , arch(1) saarch(1))، توزیع(t) گزینه saarch() مجاز نیست | چرا نمی توانم به سادگی گارچ نامتقارن را در تحلیل dcc گارچ چند متغیره اجرا کنم؟ |
62643 | من یک الگوریتم برای پر کردن مقادیر از دست رفته در لیست اعداد ایجاد کردم. من یک لیست برای مثال دارم [2,4,5,3,6,8,4,NaN,5,NaN,4,6,4,2,4,6,NaN.....]. خیلی خیلی بزرگتر بهش فکر کن من به دنبال ابزاری هستم که بتوانند همین کار را انجام دهند. آن مقادیر از دست رفته را پر کنید. اما نه به صورت تصادفی. در مورد من، من از یک شبکه عصبی برای یافتن محتمل ترین عدد برای قرار دادن در آنجا استفاده می کنم. من 90 درصد الگوریتم خود را درست می دانم و می خواهم آن را با ابزارهای دیگر در همان داده مقایسه کنم. آیا می توانید ابزاری را برای امتحان آن پیشنهاد دهید؟ | ابزارهایی برای پر کردن مقادیر از دست رفته در یک مجموعه داده |
78282 | در این مطالعه، افراد به طور مداوم در طول روز از طریق الکتروکاردیوگرافی (ECG) اندازه گیری می شوند. در طول روز، رویدادهای محرک خاصی به طور تصادفی رخ می دهند. هنگامی که تمام داده ها جمع آوری شد، رویدادهای محرک بررسی می شوند و هر بار که یک رویداد محرک رخ می دهد، ECG برای بررسی وجود یک وضعیت پزشکی خاص استفاده می شود. این بدان معناست که تعداد مشاهدات در هر موضوع متفاوت است. در مجموع $n=2240$ مشاهدات و $m=42$ افراد وجود دارد. تعداد مشاهدات در هر موضوع از 13 تا 216 متغیر است. این مطالعه قبلاً تجزیه و تحلیل شده است و من در تلاش برای درک نتایج هستم. برای تجزیه و تحلیل داده ها رگرسیون لجستیک با رهگیری تصادفی انتخاب شد. من از «glmer» از «lme4» در «R» برای بازتولید نتایج استفاده خواهم کرد. در اینجا $Y$ یک متغیر باینری 0/1 است و $X1، \ldots، X3$ متغیرهای مورد علاقه و `id` نشانگر موضوع است. اگر مدلی را فقط با یک متغیر برازش کنم این را دریافت می کنم: مدل ترکیبی خطی تعمیم یافته برازش بر اساس حداکثر احتمال ['glmerMod'] خانواده: دوجمله ای ( logit ) فرمول: Y ~ X1 + (1 | id) داده: داده ها AIC BIC logLik انحراف 1548.1535 1565.2962 -771.0768 1542.1535 اثرات تصادفی: نام گروه ها Variance Std.Dev. id (Intercept) 0.02596 0.1611 تعداد obs: 2240، گروهها: id، 42 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -2.1235717 0.0756041 -28.088 < 2e-16 *** X1 0.0007553 0.0001924 3.927 8.62e-05 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) X1 -0.166 آنچه می بینیم این است که واریانس اثر موضوع تصادفی 0.026 است. . کوچک است، اما برابر با صفر نیست. اگر دو متغیر کمکی دیگر اضافه کنم، دریافت میکنم: برازش مدل مختلط خطی تعمیمیافته با حداکثر احتمال ['glmerMod'] خانواده: دوجملهای ( logit ) فرمول: Y ~ X1 + X2 + X3 + (1 | id) داده: دادهها AIC BIC logLik انحراف 1514.2474 1542.8186 -752.1237 1504.2474 اثرات تصادفی: نام گروه ها Variance Std.Dev. id (Intercept) 1.021e-11 3.195e-06 تعداد obs: 2240، گروهها: id، 42 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -2.1770583 0.0727357 -29.931 < 2e-16 *** X1 0.0009218 0.0001914 4.816 1.46e-06 *** 788206 *** X2 -0. -6.043 1.51e-09 *** X3 0.0041024 0.0045297 0.906 0.365 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) X1 X2 X1 -0.229 X2 0.281 -0.131 X3 -0.044 0.01 از نظر فنی 0. چگونه می خواهم این را توضیح دهید؟ تعبیر من این است که با توجه به متغیرهای کمکی اضافه شده، تمام تغییرات در نظر گرفته شده است و تغییر دیگری برای موضوع خاصی باقی نمانده است. آیا این معقول است؟ اطلاعات اضافی در مورد متغیرهای کمکی: $X1$ و $X2$ اندازهگیریهای خاص ماشه (طول و شدت) هستند. مقدار آنها معمولاً برای رویدادهای محرک مختلف تغییر میکند. از این رو آنها برای هر اندازه گیری حتی برای یک موضوع متفاوت هستند. $X3$ سن موضوع است. | اثر تصادفی با 0 واریانس در GLMM |
60640 | نظر شما را در مورد چگونگی تحلیل پرسشنامه ارزیابی ریسک در پروژه های ساختمانی می خواهم. برای هر سوال، در مورد یک ریسک خاص برای پروژه، دو پاسخ وجود دارد: برآوردی برای احتمال وقوع ریسک (در مقیاس 1 تا 5) و یکی برای تاثیر تخمینی ریسک برای پروژه (همچنین). در محدوده 1-5). یک راه رایج برای ترکیب این دو مقدار، ضرب آنهاست. سپس، با توجه به ماتریس احتمال/تاثیر انتخاب شده (توسط سازمان)، می توانم تعیین کنم که کدام ترکیب احتمال و تاثیر منجر به طبقه بندی ریسک به عنوان ریسک بالا، ریسک متوسط یا خطر کم می شود. سپس می توانم از این پاسخ های کیفی برای تجزیه و تحلیل داده هایم استفاده کنم. با این حال، نمیخواهم اطلاعات مربوط به احتمال ریسک را از دست بدهم، زیرا ریسک طبقهبندی شده به عنوان بالا باید به گونهای متفاوت با آن برخورد شود، اگر این به جای تاثیر زیاد ناشی از احتمال زیاد باشد. تأثیر را نمی توان تغییر داد، اما ممکن است با انجام اقدامات مناسب، احتمال کاهش یابد. اگر بخواهم برای هر سوال یک پاسخ کیفی و کمی داشته باشم، ماتریس داده چه شکلی خواهد داشت؟ چه روش هایی را برای تحلیل پیشنهاد می کنید؟ | چگونه یک پرسشنامه ارزیابی ریسک را تجزیه و تحلیل کنیم که در آن هر ریسک از نظر احتمال و تأثیر رتبه بندی می شود؟ |
109537 | با مقایسه مدلهای تولید شده توسط nlrob با مدلهای تولید شده توسط nls، متوجه شدهام که حتی اگر مدلها تقریباً یکسان باشند، احتمال ورود مدلها گاهی بهطور قابلتوجهی متفاوت است، به عنوان مثال. (کد قابل تکرار در زیر): ضرایب (fit.nls) a b c 1.990388 -3.049477 1.019370 ضرایب(fit.nlrob) a b c 1.990650 -3.049251 1.019687  با این حال: logLik(fit.nls) 'log Lik.' 3.341953 (df=4) logLik(fit.nlrob) 'log Lik.' 5.114307 (df=4) با نگاهی به کد Loglik.nls، به نظر می رسد که این از استفاده از خط زیر برای به دست آوردن باقیمانده های مدل ناشی می شود: res <- object$m$resid() با استفاده از همان کد برای محاسبه احتمال log اما با در عوض، روش residuals() log-likelihood به دست آمده بسیار نزدیکتر به آنچه برای مدل nls تولید می شود، است: logLik.nlrob.method [1] 3.340076 مستندات nlrob به باقیمانده های مختلف مربوط می شود، با این حال من نمی دانم که آیا این مربوط به موارد فوق است: > residuals(.)، به طور پیش فرض نوع = response، مقدار را برمی گرداند. باقیمانده ها e_i، > تعریف شده در بالا به صورت e[i] = Y[i] - f(x[i]، تتا^). اینها با باقیماندههای استاندارد یا وزندار متفاوت هستند که، به عنوان مثال، فرض میشود که به طور عادی توزیع میشوند، و نسخهای از آن در مؤلفه working.residuals > برگردانده میشود. من با آمارهای قوی آشنا نیستم، بنابراین تعجب می کنم: 1. آیا احتمال گزارش متفاوت واقعاً تفاوت عمیق تری را بین مدل ها منعکس می کند؟ یا فقط یک تفاوت فنی ناشی از استفاده غیر استاندارد از تابع ()resid است؟ 2. فرض کنید من می خواهم بین مدل های nls و nlrob بر اساس معیار AIC یکی را انتخاب کنم. به خاطر سوال، فرض میکنم به اندازه کافی درباره مدل زیربنایی نمیدانم تا بتوانم در مورد احتمال موارد پرت چیزی بگویم. آیا باید از توابع استاندارد AIC/logLik برای آن استفاده کنم؟ یا باید از نسخه خودم، بر اساس تابع ()residuals به جای شی\$m\$resid() استفاده کنم؟ کد (در نظر گرفته شده برای جلسه تعاملی): library(robustbase) library(ggplot2) #generate data set.seed(1357) f <- function(x) 2*x*x-3*x+1 x=rnorm(50,0 ,2) df <- data.frame(x=x,y=f(x)+rnorm(length(x),0,0.3)) #fit fit.nls <- nls(y~a*I(x*x)+b*x+c,start=c(a=2,b=-3,c=1),data=df) fit.nlrob < - ضرایب nlrob(y~a*I(x*x)+b*x+c، start=c(a=2،b=-3،c=1)، داده=df)(fit.nls) ضرایب(fit.nlrob) #plot s <- data.frame(x=seq(0,2,by=0.1)) ggplot(data=s,aes(x=x)) + geom_line(aes(y=f( x),color=f(x))) + geom_line(aes(y=predict(fit.nls,s),color=nls)) + geom_line(aes(y=predict(fit.nlrob,s),color=nlrob)) #log likelihood logLik(fit.nls) logLik(fit.nlrob) #بیایید دو نسخه باقیمانده res.obj را با هم مقایسه کنیم - fit.nlrob$m$resid() res.method <- residuals(fit.nlrob) N <- length(res.obj) #همه وزن ها در هر دو مدل 1 هستند، بنابراین شرایط وزن لغو می شوند logLik.nlrob.obj <- -N * (log(2 * pi) + 1 - log(N) + log( sum(res.obj^2)))/2 logLik.nlrob.method <- -N * (log(2 * pi) + 1 - log(N) + log(sum(res.method^2)))/2 #این یکی با تابع اصلی logLik.nls logLik.nlrob.obj #یکسان است و این یکی بسیار نزدیک به fit.nls log likelihood logLik.nlrob.method است. | احتمال ورود (و AIC) مدل nlrob قوی با مدل استاندارد nls متفاوت است |
68911 | من دادههای مربوط به شار گاز را از قطعات خاکی که تحت 5 تیمار مختلف (D2، K2، M، N و O2) جمعآوری کردهام، که دارای محتوای رسی متغیر نیز بود. آزمایش در قالب طرح بلوک های کامل تصادفی در 4 تکرار اجرا شد. در هر کرت، دو اندازه گیری مجزا از شار انجام شد. 4 بلوک x 5 درمان x 2 اندازهگیری مکرر برای 40 مشاهده کل، من یک مدل خطی مخلوط با nlme ساختهام، و مقایسههای چندگانهای را با آزمون Tukey انجام دادهام، همانطور که در زیر نشان داده شده است. data.frame cum_fluxes را می توان از این آدرس دانلود کرد: https://www.dropbox.com/s/e58k4vdnevw2fsm/cum_fluxes require(multcomp) require(nlme) cum_fluxes <- dget(cum_fluxes) n2o_flux.lme(2_fluxlnme <_fluxlme ~ درمان * خاک رس + بلوک، تصادفی = ~1|نمونهبرداری فرعی، داده = cum_fluxes) aov.n2o <- anova(n2o_flux.lme) comp.treat <- glht(n2o_flux.lme, linfct=mcp(treatment=Tukey)) print(summary( comp.treat)) دو تا سوال دارم. از یک طرف، جدول ANOVA حاصل به این شکل است (اثر قابل توجه درمان با p = 0.0279): numDF denDF F-value p-value (Intercept) 1 20 14815.691 <.0001 درمان 4 7 5.281 0.01274 0.01270 clay بلوک 3 7 0.674 0.5951 درمان: خاک رس 4 7 0.810 0.5568 با این حال، ظاهراً هیچ تفاوت قابل توجهی هنگام در نظر گرفتن مقایسه زوجی از پنج تیمار وجود ندارد. آیا جایی اشتباه کردم یا نتایج را اشتباه تفسیر می کنم؟ دوم، زمانی که دستور glht() را اجرا میکنم، پیام هشدار زیر را دریافت میکنم: پیام هشدار: در mcp2matrix (model, linfct = linfct): تعاملات متغیر پیدا شده است - کنتراست پیشفرض ممکن است نامناسب باشد. برای برهمکنش بین یک متغیر کمکی (رگرسیور کمی - یعنی محتوای رس) و یک عامل (بنابراین، غیر موازی خطوط)، تفاوت بین دو سطح عامل به مقدار متغیر کمکی بستگی دارد. با این حال، من نمی توانم بفهمم که چگونه و به چه مقدار باید متغیر کمکی را هنگام مقایسه سطوح عامل تعیین کنم؟ | انجام مقایسههای چندگانه بر روی مدل مختلط خطی |
78289 | من در حال آماده شدن برای انجام یک مطالعه هستم و علاقه مند به استفاده از رویکرد شبکه عصبی هستم. می خواستم بدانم آیا راهی وجود دارد که بتوان حجم نمونه مورد نیاز را به طور تقریبی تعیین کرد؟ | حجم نمونه مدلسازی شبکه عصبی |
78280 | من داده های فعالیت کاربر در روز را به arima(1,0,1)x(1,0,0) برازش داده ام. این یک تناسب خوب است. اما آیا معنایی دارد؟ | آیا این مدل مفهومی دارد؟ |
78287 | با توجه به تمام ویژگیهای خوب مدلهای فضای حالت و KF، نمیدانم - **معایب** مدلسازی فضای حالت و استفاده از فیلتر کالمن (یا EKF، UKF یا فیلتر ذرات) برای تخمین چیست؟ بیایید روشهای مرسوم مانند ARIMA، VAR یا روشهای ad-hoc/heuristic را در نظر بگیریم. آیا کالیبراسیون آنها سخت است؟ آیا آنها پیچیده و سخت هستند که ببینیم چگونه تغییر در ساختار یک مدل بر پیش بینی ها تأثیر می گذارد؟ یا به بیان دیگر - مزایای ARIMA معمولی، VAR نسبت به مدلهای فضای حالت چیست؟ من فقط می توانم به _مزایای_ یک مدل فضای حالت فکر کنم: 1. به راحتی شکست های ساختاری، جابجایی ها، پارامترهای متغیر با زمان برخی از مدل های ایستا را کنترل می کند - فقط آن پارامترها را حالت های پویا یک مدل فضای حالت و مدل به طور خودکار تنظیم کنید. هرگونه تغییر در پارامترها؛ 2. به طور طبیعی داده های از دست رفته را کنترل می کند، فقط مرحله انتقال KF را انجام دهید و مرحله به روز رسانی را انجام ندهید. 3. این اجازه می دهد تا پارامترهای خود را در یک مدل فضای حالت تغییر دهید (کوواریانس نویزها و ماتریس های انتقال/مشاهده) بنابراین اگر مشاهدات فعلی شما از منبع کمی متفاوت از سایرین آمده است - می توانید به راحتی آن را در تخمین بگنجانید. بدون انجام کار خاصی؛ 4. با استفاده از ویژگیهای بالا، به راحتی میتوانید دادههای با فاصله نامنظم را مدیریت کنید: یا هر بار یک مدل را با توجه به فاصله بین مشاهدات تغییر دهید یا از فاصله زمانی منظم استفاده کنید و فواصل بدون مشاهدات را به عنوان دادههای گمشده در نظر بگیرید. 5. اجازه می دهد تا از داده ها از منابع مختلف به طور همزمان در یک مدل برای تخمین یک کمیت اساسی استفاده شود. 6. امکان ساخت یک مدل از چندین مؤلفه دینامیکی غیرقابل مشاهده قابل تفسیر و برآورد آنها را فراهم می کند. 7. هر مدل ARIMA را می توان به شکل فضای حالت نشان داد، اما فقط مدل های فضای حالت ساده را می توان دقیقاً به شکل ARIMA نشان داد. | معایب مدلهای فضای حالت و فیلتر کالمن برای مدلسازی سریهای زمانی چیست؟ |
109534 | من می خواهم ضرایب همبستگی را در یک جدول نمایش دهم (در حالت ایده آل - با مقدار p). با این حال، کد من دقیقاً همان مقادیر را برای هر دوره تولید می کند (بنابراین واضح است که چیزی اشتباه است). ممکن است راهنماییم کنید: #اول از همه، من جدول داده هایم را از فایل CSV خواندم: وارداتی <- read.table (file=/home/someone/data_for_R.csv, header=TRUE, sep='\t ', quote='\'', dec=',', fill=FALSE, comment.char=#, na.strings = NA, nrows = -1, skip = 0, check.names = TRUE, strip.white = FALSE, blank.lines.skip = TRUE) # تایپ: class(imported[[Period]]) تولید می کند: # [1] factor #Typing: سطوح (وارد شده[[دوره]]) تولید می کند: # [1] تابستان 2010 تابستان 2011 Winter 2010 Winter 2011 Winter 2012 xx <- imported[c(Period,Data1.MEANData2.MEAN)] نتیجه <- توسط(xx، xx$Period، تابع (x) {cor(xx$Data1.MEAN، xx$Data2.MEAN)}) result.dataframe <- as.data.frame(as.matrix(نتیجه)) result.dataframe$C <- rownames(نتیجه) **ویرایش:** کدی که فایل را از Github می خواند: library(RCurl) x <- getURL(https ://raw.githubusercontent.com/kedziorm/testowe/master/data_for_R.csv) وارد شده <- read.csv (text=x, header=TRUE, sep='\t', quote='\'', dec=',', fill=FALSE, comment.char=#, na.strings = NA، nrows = -1، skip = 0، check.names = TRUE، strip.white = FALSE، blank.lines.skip = TRUE) xx <- imported[c(Period, Data1.MEAN, Data2.MEAN)] نتیجه <- توسط(xx, xx$Period, function(x) {cor(xx$Data1.MEAN, xx$Data2.MEAN )}) result.dataframe <- as.data.frame(as.matrix(نتیجه)) result.dataframe$C <- rownames(نتیجه) **ویرایش:** بالاخره باید کار کند: x <- Period\tDate\tData1.MEAN\tData1.MEDIAN\tData2.MEAN\tData2.MEDIAN\tData3.MEAN\tData3.MEDIAN\nزمستان 2010\t26-03-2010\t0,3580917\t0,307479\t0,551191\t0,612853\t0,3476462\t0,3996462\nزمستان 2010\t26-04-2010\t0,3016958\t0,2643808\t0,417791\t0,393714\t0,2811050286\t0,3061050286\nتابستان 2010\t03-07-2010\t0,1916181\t0,1816603\t0,390925\t0,37385\t0,2183438286\t0,2923438286\nتابستان 2010\t04-07-2010\t0,2548711\t0,1738567\t0,4349834\t0,4957131\t0,2467746286\t0,3437746286\nزمستان 2011\t01-11-2010\t0,3393042\t0,2870481\t0,497295\t0,538132\t0,3210420857\t0,3690420857\nتابستان 2011\t04-06-2011\t0,222748\t0,2218226\t0,363823\t0,275725\t0,2309696\t0,2809696\nتابستان 2011\t05-06-2011\t0,241889\t0,1918457\t0,373566\t0,292997\t0,2306573429\t0,2966573429\nزمستان 2012\t07-11-2011\t0,2264874\t0,2601413\t0,373048\t0,274139\t0,2456219143\t0,2756219143\nزمستان 2012\t08-11-2011\t0,2414665\t0,2662565\t0,314382\t0,279857\t0,2348871429\t0,2598871429\nزمستان 2012\t09-11-2011\t0,2817838\t0,2325952\t0,376063\t0,468148\t0,254412\t0,287412\nزمستان 2012\t10-11-2011\t0,2476841\t0,2667485\t0,406902\t0,476582\t0,2632384571\t0,3632384571\n وارد شده (TR=خوانش شده، UE، TR=ext.x. sep='\t'، quote='\''، dec='،'، fill=FALSE، comment.char=#، na.strings = NA، nrows = -1، skip = 0، check.names = TRUE، strip.white = FALSE، blank.lines.skip = TRUE) xx <- imported[c(Period, Data1.MEAN, Data2.MEAN)] نتیجه <- توسط(xx, xx$Period, function(x) {cor(xx$Data1.MEAN, xx$Data2.MEAN )}) result.dataframe <- as.data.frame(as.matrix(نتیجه)) result.dataframe$C <- rownames(نتیجه) | ضریب همبستگی برای جدول داده ها |
78283 | من مجموعه داده ای از 17000 مورد در SPSS 21 دارم که با آن سعی می کنم رگرسیون خطی چندگانه را اجرا کنم. من باقیمانده های Studentised را در برابر مقادیر پیش بینی شده غیراستاندارد و همچنین در برابر هر پیش بینی کننده ای که در مدل گنجانده شده است رسم کرده ام و این نمودارها نشان دهنده درجه منصفانه چولگی و چند نقطه پرت ممکن است. متغیر نتیجه به خودی خود بسیار منحرف است، بنابراین من همچنین مدلی را بر اساس تبدیل Log10 از این دادهها برازش کردم که باقیماندههای غیرعادی کمتری (اگرچه اکنون کمی در جهت مخالف تغییر کرده است) تولید میکند. دادهها بهطور گسترده پاک شدهاند و من کاملاً مطمئن هستم که هیچیک از موارد پرت خطا نیستند. من مطمئن نیستم که چگونه ادامه دهم. در جایی خواندم که نرمال بودن باقیمانده ها تا زمانی که سایر مفروضات (اعتبار و خطی بودن) رعایت شوند، در واقع از اهمیت کمی برخوردار است. به خصوص با توجه به حجم نمونه بزرگ، آیا باید بیش از حد نگران غیرعادی بودن باقیمانده ها باشم؟ و اگر بخواهم از مدل بر اساس داده های تبدیل شده استفاده کنم، چگونه خروجی را به درستی تفسیر کنم؟ متشکرم | نرمال نبودن باقیمانده ها در رگرسیون خطی نمونه بسیار بزرگ در SPSS |
99422 | من چند مقاله جالب آنلاین در مورد این موضوع پیدا کردم، اما هیچ کدام که خیلی بریده و خشک به نظر نمی رسد. سوال من این است که یک پیشبینی دقیق پیشبینیکننده بر اساس پیشبینی اجزای تک تک اجزا، سپس جمع کردن (یا هر تابعی که شامل میشود) ارائه میکند ... در مقابل پیشبینی در سطح کل (که برخی روندها را از دست میدهد اما ممکن است واریانس کمتری داشته باشد) . مثالی که روی آن کار می کنم: سعی می کنم مخاطبین تلفن و ایمیل را پیش بینی کنم. منبع این تماسها مشتریانی است که محصولات نرمافزاری را سفارش میدهند و سپس مشکلات فنی یا پرداختی دارند یا آنچه که شما دارید. من میتوانم در پایینترین سطح، پیشبینی برای مخاطبین هر گروه نرمافزاری متفاوت داشته باشم (نرمافزار A الگوهای تماس بسیار متفاوتی نسبت به نرمافزار B دارد). همچنین میتوانم پیشبینیها را بین سفارشهای ثبتشده و نرخ تماس تقسیم کنم (ممکن است مخاطبین را ثابت ببینیم، اما سفارشها در حال افزایش هستند و نرخ تماس در حال کاهش است). همه اینها واقعاً به یک سؤال اشاره می کنند - من تمام داده های گرانول را دارم - آیا پیش بینی در سطح کل دقیق تر است (مجموع تماس های من در این ماه چقدر است؟) یا اینکه پیش بینی قسمت های تفکیک شده و سپس اضافه کردن آنها بهتر است؟ | دقت پیشبینی کل در مقابل تفکیک |
68910 | من یک متن دارم و برای هر کلمه متمایز تعداد دفعاتی که آن کلمه در متن ظاهر می شود را می شمارم. در برخی از متون، کلمات کمیاب بسیاری وجود دارد، بنابراین توزیع دارای یک دم طولانی از کلمات است که یک بار ظاهر می شوند. در متون دیگر، کلمات رایجی وجود دارد که معمولاً بیش از یک بار ظاهر می شوند، بنابراین «دم» کوتاهتر خواهد بود. اندازه گیری استانداردی که این تفاوت را توصیف می کند چیست؟ | روشی مختصر برای توصیف توزیع کلمات در یک متن |
54775 | تعداد معمولی ارزیابی هسته (بین دو بردار آموزشی) که در طول آموزش ماشین بردار پشتیبان (SVM) انجام می شود چقدر است؟ من این سوال را میپرسم زیرا باید تعیین کنم که چقدر به بهینهسازی هسته نیاز دارم تا امیدی به انجام آموزش در مدت زمان معقول داشته باشم. زمان محاسبه کرنل فعلی بسیار زیاد است (1+ ساعت)، اما جایی برای بهبود وجود دارد (با چندین مرتبه بزرگی). توجه: در یک کلاس حدود 60 هزار بردار و در کلاس دیگر 10 هزار بردار وجود دارد. | تعداد ارزیابی کرنل در آموزش SVM |
68913 | من تازه از R استفاده می کنم و به همین دلیل شک دارم. من یک جدول داده با اندازه گیری ترشح غدد جوجه ها در دو سن مختلف دارم، گاهی اوقات ما فقط به اندازه گیری نیاز داریم بنابراین متعادل نیست. همچنین معمولاً در هر لانه دو جوجه می گرفتیم اما گاهی اوقات فقط یک جوجه داریم. سوال من این است که آیا ترشح غده تحت تاثیر سن قرار می گیرد یا خیر، برای آن با توجه به مدل هایی که در اینترنت پیدا کردم، موارد زیر را انجام دادم و اگر درست است به من اطلاع دهید. ابتدا جدول داده ای که وارد کردم این خواهد بود: سن ترشح جوجه NEST 257 1 1.429 5 257 2 1.890 10 127 1 1.567 5 127 1 1.900 10 127 2 1.320 5 127 >002 NEST (NEST) > AGE = ضریب (سن) > کتابخانه (nlme) > lme (Secretion ~ AGE، تصادفی = 1 ~ | NEST) آیا مدل من درست است؟ | اقدامات مکرر نامتعادل |
48149 | من در حال خواندن مقاله ای هستم که در ANOVA با 4 متغیر مستقل بیان می کند که 4 اثر اصلی و 11 تعامل وجود خواهد داشت. می خواستم بدانم که چگونه عدد، 11 فعل و انفعال، به دست می آید؟ | تعداد تعاملات در ANOVA با 4 متغیر مستقل |
109283 | از آنجایی که دانت مقایسههای چندگانه را تصحیح میکند، فرض میکنم که p-value همیشه بالاتر از آزمون t دو نمونهای مستقیم است. به موقعیتی برخوردم که اینطور نبود. دلایل احتمالی چرا؟ مثال: library(multcomp) a1=data.frame(group=rep(c('a','b',' control','d'),each=3), y=c(13.3,13.8,13.6, 10.9،14.4،11.1،18.8،15.2،16.6،1.6،1.2،.9)) a1$group=relevel(a1$group,ref='control') fit=aov(y~group,data=a1) summary(fit) test.dunnett=glht(fit,linfct=mcp(group=Dunnett) ) خلاصه (test.dunnett) t.test(a1$y[a1$group=='control'],a1$y[a1$group=='a'])$p.value t.test(a1$y[a1$group==' control'],a1$y[a1$group=='b'])$p.value t.test(a1$y[a1$group=='control'],a1$y[a1$group=='d'])$p.value خروجی: Df Sum Sq میانگین مربع F مقدار Pr(>F) گروه 3 413.0 137.67 74.99 3.37e-06 *** باقیمانده 8 14.7 1.84 آزمونهای همزمان برای فرضیههای خطی عمومی مقایسههای چندگانه میانگینها: تضادهای دانت برازش: aov(فرمول = y ~ گروه، داده = a1) فرضیههای خطی: برآورد Std. خطای t مقدار Pr(>|t|) a - کنترل == 0 -3.300 1.106 -2.983 0.04298 * b - کنترل == 0 -4.733 1.106 -4.279 0.00704 ** d - کنترل == 0 -15.13 0.61 - 0.61 <4. *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر p تنظیم شده -- روش تک مرحله ای) [1] 0.08504438 [1] 0.03780491 [1] 0.03 The مقادیر p Dunnett (.04، 0.007، 0.001) در مقایسه با مقادیر p-test (0.085، 0.038، 0.003) کوچکتر هستند. | چرا مقادیر p دانت کوچکتر از مقادیر آزمون t دو نمونه ای است؟ |
78288 | من سعی می کنم یک متغیر (V) را به عنوان یک توزیع نرمال log مدل کنم. $$ V = \mu \cdot\eta\,, \ \text{where } \eta \text{ log normal است} $$ سپس $$ \ln V = ln(\mu) +\xi \\\\\ \\\\text{where} \ \ \ \xi \ \text{ is }\ N(0,\sigma^2) $$ V تابعی از ورودیهای باینری $x_i است، i\in(1,...,n)$ . من میخواهم مدل را به ورودیها وابسته کنم با این فرض که $\mu=\Pi{f_1(x_i)}$ و $\sigma=\Pi{f_2(x_i)}$ که $f_1(x_i)=c_i$ اگر $x_i=1$ یا 1 اگر $x_i=0$ و $f_2(x_i)=d_i$ اگر $x_i=1$ یا 1 وقتی $x_i=0$. هدف من بدست آوردن بهترین تخمین ها برای مقادیر $c_i,d_i $ با مجموعه ای از اندازه گیری $(V_i,\\{x_j\\}_{j\in(1,n)})$ است. احتمال log در این مورد به این صورت خواهد بود: $$ -\log L = \frac{1}{2}\left(\frac{\ln V - \Sigma \ln c_i}{\Pi{d_i}}\right )^2 + \log\sqrt{2\pi}\Pi{d_i} $$ بهترین راه برای مقابله با این مشکل چیست، برای حل و به دست آوردن بهترین مقادیر برای $c_i$ و پارامترهای $d_i$؟ اگر فرض کنم $\sigma$ تابعی از ورودی ها نیست، بلکه یک ثابت است، می دانم که می توانم مشکل را با یک رگرسیون الاستیک-نت خطی حل کنم، اما وقتی σ را به عنوان تابعی از ورودی های $x_i$ نیز در نظر بگیرم. من مطمئن نیستم که از کدام رگرسیون یا روش برای حل مشکل استفاده کنم؟ (از کجا بفهمم تابعی محدب است؟) | بهینه سازی یادگیری مدل لاگ نرمال |
20416 | من در واقع در حال نوشتن یک پیادهسازی از جنگلهای تصادفی هستم، اما معتقدم این سؤال مختص درختهای تصمیمگیری است (مستقل از RF). بنابراین زمینه این است که من یک گره در درخت تصمیم ایجاد می کنم و متغیرهای پیش بینی و هدف پیوسته هستند. گره دارای آستانه تقسیم برای تقسیم داده ها به دو مجموعه است و من یک پیش بینی جدید برای هر زیر مجموعه بر اساس میانگین مقدار هدف در هر مجموعه ایجاد می کنم. آیا این رویکرد صحیح است؟ دلیلی که میپرسم این است که هنگام پیشبینی متغیرهای _دودویی_، معتقدم رویکرد معمولی (درست؟) تقسیم دادهها به زیرمجموعههای 0 و 1 بدون در نظر گرفتن میانگین روی ردیفهای داده در هر زیر مجموعه است. تقسیمهای بعدی به زیرمجموعههای با دانهبندی ریزتر تقسیم میشوند و با گرفتن میانگین در هر تقسیم، تقسیمهای بعدی (درخت تصمیم را پایین بیاورید) بر روی متغیرهایی که اکنون پیوسته هستند به جای متغیرهای باینری (زیرا به جای مقادیر اصلی بر روی مقادیر خطای باقی مانده عمل میکنیم) عمل میکنند. اهداف). سوال جانبی: آیا تمایز بین این دو رویکرد (دودویی در مقابل پیوسته) قابل توجه است - یا آنها در واقع نتایج یکسانی برای یک درخت تصمیم کامل خواهند داشت؟ | چگونه باید تقسیم درخت تصمیم را هنگام پیشبینی متغیرهای پیوسته اجرا کرد؟ |
109288 | آیا نمودار مقادیر پیش بینی شده و اندازه گیری شده برای دو مدل به طور جداگانه در مقایسه آنها مفید خواهد بود؟ | مقایسه گرافیکی مدل های رگرسیون |
24211 | اگر من 232 نفر را از یک مجموعه 363 نفری بدون جایگزین انتخاب کنم، احتمال اینکه 2 نفر از لیست 12 نفری خاص در آن انتخاب باشند چقدر است؟ این یک قرعه کشی تصادفی برای یک مسابقه فوق العاده است که در آن 363 شرکت کننده برای 232 نقطه وجود داشت. این بحث وجود دارد که آیا این انتخاب علیه یک گروه 12 نفره مغرضانه بوده است. تلاش اولیه من برای محاسبه این بود که 232 انتخاب 363 انتخاب ممکن بود. تعداد ترکیب های هر یک از افراد از لیست دوازده نفری 1 انتخاب 12 + 2 انتخاب 12 + ... + 11 انتخاب 12 + 12 انتخاب 12 است. بنابراین 1 انتخاب 12 + 2 انتخاب 12 .... / 232 انتخاب 363 که در نهایت عدد بسیار پایینی است که به وضوح بسیار کم است. چگونه این را محاسبه کنم؟ | احتمال اینکه n نفر از لیست m نفر در یک انتخاب تصادفی x نفر از لیست y نفر باشند چقدر است؟ |
72633 | ما یک متغیر پاسخ $Y$ و یک پیش بینی $X$ داریم، و $n$ نمونه $(Y_1,X_1), \ldots, (Y_n, X_n)$ را از جمعیت مورد نظر برای انجام تحلیل رگرسیون می گیریم. تحت مفروضات یک مدل رگرسیون خطی ساده، سوال من یک سوال مفهومی است: واقعاً چگونه در مورد پاسخ واحد $i$th، $Y_i$ فکر می کنیم؟ آیا می گوییم که از سطح یا زیرجمعیت افراد با $ X = x_i $ گرفته شده است یا از کل جمعیت بیش از همه مقادیر X $؟ علاوه بر این، در حالی که فرض میکنیم که پاسخ $Y$ در هر زیرجمعیت تعریف شده توسط $X$ طبیعی است با واریانسهای مساوی، چگونه در مورد جمعیت کل که $Y_i$ از آن ترسیم شده است فکر میکنیم؟ | ترسیم داده ها از جمعیت برای تحلیل رگرسیون |
78284 | من داده ها را در R بارگذاری کردم و با استفاده از عملکرد GLM آن را نصب کردم. > fit.glm = glm(y~ aX+bZ+cW) سپس، نقطه برش را با استفاده از ابزار segmented R پیدا کردم. > o<-segmented(fit.glm,seg.Z=~X,psi= 10) اکنون نقطه برش و دو شیب مختلف X را دارم. > Call: segmented.glm(obj = fit.glm1, seg.Z = ~PTH، psi = 10) > > ضرایب معنی دار عبارات خطی: (برق) X Z W > > 19.43840 2.29574 0.08701 8.75784 > > نقطه شکست (های) تخمینی psi1.PTH : مجموع 3.4 مجموع > 8.5 پوچ)؛ 314 انحراف تهی باقیمانده: 17320 > انحراف باقیمانده: 7645 AIC: 1971 با این حال، من سعی می کنم ارزش y تخمینی دو مدل رگرسیون خطی را با استفاده از نتیجه تقسیم شده بدست آوریم. آیا با استفاده از R امکان پذیر است یا باید Z و W را با مقادیر میانگین Z و W جایگزین کنم و مقدار y را خودم محاسبه کنم؟ | مقدار «y» خاص را از رگرسیون چند متغیره تقسیمبندی شده با GLM بیابید |
83078 | از مجموع 50 مورد، 20 مورد درست وجود دارد، اگر به طور تصادفی 20 مورد را انتخاب کنم، احتمال انتخاب 11 مورد (یا بیشتر) از این موارد صحیح چقدر است؟ چگونه می توانم این کار را در R انجام دهم؟ من به استفاده از «binom.test()» فکر می کردم، اما این جایگزینی را فرض می کند، و سؤالات من شامل «عدم جایگزینی» هنگام انتخاب شماست. | احتمال انتخاب صحیح N از K از کل جمعیت X |
37955 | ## مشکل در رگرسیون معمولاً **میانگین مربع خطا** (MSE) را برای نمونه محاسبه میکند: $$ \text{MSE} = \frac{1}{n} \sum_{i=1}^n\left (g(x_i) - \widehat{g}(x_i)\right)^2 $$ برای اندازهگیری کیفیت یک پیشبین. در حال حاضر من روی یک مشکل رگرسیون کار می کنم که هدف آن پیش بینی قیمتی است که مشتریان مایل به پرداخت برای یک محصول با توجه به تعدادی از ویژگی های عددی هستند. اگر قیمت پیشبینیشده خیلی بالا باشد، هیچ مشتری محصولی را نمیخرد، اما ضرر پولی کم است، زیرا قیمت را میتوان به سادگی کاهش داد. البته نباید زیاد باشد زیرا ممکن است محصول برای مدت طولانی خریداری نشود. از طرفی اگر قیمت پیشبینیشده خیلی پایین باشد، محصول به سرعت و بدون امکان تعدیل قیمت خریداری میشود. به عبارت دیگر، الگوریتم یادگیری باید قیمتهای کمی بالاتر را پیشبینی کند که در صورت لزوم میتوان آنها را کاهش داد، نه اینکه قیمت واقعی را دست کم بگیرد که منجر به زیان پولی فوری میشود. ## سوال چگونه متریک خطا را طراحی می کنید که این عدم تقارن هزینه را در خود جای دهد؟ * * * ## راه حل ممکن یک روش برای تعریف تابع تلفات نامتقارن این است که به سادگی در یک وزن ضرب کنیم: $$ \frac{1}{n} \sum_{i=1}^n \left| \alpha - \mathbb{1}_{(g(x_i) - \widehat{g}(x_i)) < 0} \right|\cdot \left(g(x_i) - \widehat{g}(x_i)\ راست)^2 $$ با $\alpha \in (0,1)$ پارامتری است که می توانیم برای تغییر درجه عدم تقارن تنظیم کنیم. اینجا پیداش کردم به نظر می رسد این ساده ترین کار است، در حالی که ضرر درجه دوم را حفظ می کند. | چگونه یک تابع ضرر نامتقارن برای رگرسیون طراحی و پیاده سازی کنیم؟ |
109531 | من در حال خواندن کتابی به نام مقدمه ای بر یادگیری آماری: با برنامه های کاربردی در R هستم و در مورد مطالب داخل آن یک سوال دارم. من میدانم که میتوانیم مجموع مربعهای باقیمانده را با پیدا کردن تفاوت بین مقدار پاسخ مشاهدهشده $i^\text{th}$ و مقدار پاسخ $i^\text{th}$ که توسط مدل ما پیشبینی میشود، پیدا کنیم. به عبارت دیگر مجموع $(y_i - \hat{y}_i)^2$ برای هر نقطه داده نمونه که $\hat{y}_i$ پاسخ مورد انتظار مدل ما با استفاده از ثابتهای $β_0$ و $β_1$ است. . چیزی که من نمی توانم درک کنم این است که چگونه می توان از حساب دیفرانسیل و انتگرال برای یافتن کمینه کننده های $β_0$ (این در واقع منطقی است) و $β_1$ برای مدل استفاده کرد. به من گفته شد که برای رسیدن به این معادله که مینیمم کنندههایی را پیدا میکند، ما برای یافتن مینیمم تابع RSS با استفاده از مشتقات جزئی نیاز داریم که هم $β_0$ و هم $β_1$. با این حال من هیچ سرنخی برای انجام این کار ندارم، امیدوارم کسی با تجربه بیشتر بتواند آن را برای من بنویسد. در همین حال من مشتقات جزئی را بررسی می کنم تا این را بهتر درک کنم. در اینجا یک اسکرین شات از فرمول ارائه شده در کتاب برای یافتن مینیینه سازها آورده شده است:  | انتخاب $β_0$ و $β_1$ برای به حداقل رساندن مجموع باقیمانده مربع ها |
66348 | من امتحانی دادم که نظر داده شده این بود که پاسخ من به دو سوال خیلی کوتاه یا کم بود... (نمی دانم چه چیزی کم بود). دوست دارم یاد بگیرم و بفهمم. همانطور که به یاد میآورم فکر میکنم وقتی به پاسخهایم رسیدم از چیزی به نام ماشینحساب آنلاین برای مقادیر طبقهبندی استفاده کردم. سوالات امتحان عبارت بودند از: 1. دانش آموزانی که دو منطقه جغرافیایی مختلف را نمایندگی می کردند، یک آزمون امتحانی داشتند. * گروه 1 36 درست و 13 باطل داشت * گروه 2 29 درست و 19 باطل داشت آیا بین این گروه ها تفاوت معنی داری وجود دارد (05/0p<)؟ 2. اگر نتیجه مسابقه به این شکل باشد: * گروه 1 360 درست، 130 اشتباه * گروه 2 290 درست، 190 اشتباه آیا تفاوت معنی داری بین این گروه ها وجود دارد (05/0p<)؟ پاسخ های من این بود: 1. بله تفاوت معنی داری وجود دارد 2. خیر تفاوت معنی داری وجود ندارد. سوالات من از شما این است: * آیا پاسخ های من صحیح است؟ * و راه درست نشان دادن نحوه رسیدن به این/یا پاسخ صحیح (بدون استفاده از ماشین حساب) چیست؟ یعنی برای حل این نوع سوالات چه مراحلی باید طی کنم؟ اگر کسی وقت دارد این را برای من توضیح دهد بسیار سپاسگزارم. | تفاوت قابل توجه بین دو گروه در یک مسابقه درست / غلط |
81974 | من مجموعه داده ای دارم که شامل موارد زیر است: * تعداد موفقیت ها، $Y_i$ * طول مشاهده، $\text{length}_i$ * چند پیش بینی، $X_1، X_2، \text{etc}$ از آنجایی که شمارش ها مشاهده می شود در طول های مختلف به یک مدل نرخ نیاز دارم. برای رگرسیون پواسون، ما به این نتیجه می رسیم: $\log(\mu_i /\text{length}_i) = \beta_0 + \beta_1 X_1 +\beta_2X_2$ که سپس به صورت: $\log(\mu_i) = \ بازنویسی می شود. beta_0 + \beta_1 X_1 +\beta_2X_2 + \log(\text{length}_i)$ $\text{length}_i$ افست است و دارای ضریب ثابت 1 است. در R با استفاده از روش offset آن را مشخص می کنیم. چیزی شبیه به این: «مدل <- glm(Y ~ offset(log(LENGTH)) + x1 + x2، داده = داده، خانواده = «poisson»)» با این حال، زمانی که افست را به عنوان دارای یک افست مشخص کنم، نتایج پیشبینی بهتری دریافت میکنم. ضریب -0.5. یعنی: «مدل <- glm(Y ~ offset(-0.5 * log(LENGTH)) + x1 + x2، داده = داده، خانواده = «poisson»)» به این معنی است که میانگین به متغیرهای پیش بینی کننده مانند : $\log(\mu_i * \sqrt{\text{length}_i}) = \beta_0 + \beta_1 X_1 +\beta_2X_2$ چند سوال دارم: 1. چرا با استفاده از ضریب منفی نتایج بهتری میگیرم؟ 2. توضیح نظری ممکن برای جبران منفی چیست؟ 3. آیا باید مدل دیگری را امتحان کنم؟ | افست منفی در مدل های نرخ (پواسون یا دوجمله ای منفی). |
37950 | من میخواهم تفاوت میانگین یک متغیر پیوسته را بین چهار گروه (اسمی) در نمونه خود آزمایش کنم. متغیر 1 دارای توزیع بسیار اریب است. این آزمون همچنین باید برای سه متغیر پیوسته دیگر اصلاح شود که مطمئناً متغیرهای مخدوش کننده هستند در توضیح تفاوت های متغیر 1 بین چهار گروه. با تشکر فراوان | مناسب ترین تست برای این شرایط چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.