_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
114701 | من یک ANOVA مدل اثرات مختلط را با دو عامل ثابت (شرط، تکرار) و یک عامل تصادفی (موضوع) اجرا می کنم. پس از آن، یک آزمون مقایسه چندگانه توکی انجام می شود. اکنون میخواهم میانگین و خطاهای استاندارد (SEM) شرایط منفرد را در یک نمودار نوار خطا رسم کنم و مقادیر p را بین شرایط گزارش کنم. مشکل: در حالی که در آزمون Tukey، من تفاوت های قابل توجهی و SEM های غیر همپوشانی بین میانگین های خاص پیدا کردم، برای داده های واقعی/مشاهده شده من، نوارهای SEM با هم همپوشانی دارند. این در حال حاضر غیر منطقی است، زیرا معمولاً شما فرض می کنید که در مورد همپوشانی، ابزارها تفاوت قابل توجهی ندارند. سوال من اینه * چگونه داده ها را گزارش می کنید؟ آیا هنوز هم داده های مشاهده شده را با مقادیر p رسم می کنید و بیان می کنید که مقادیر p از مدل برآورد شده مشتق شده اند؟ یا میانگین های تخمینی و خطاهای استاندارد را رسم می کنید؟ متشکرم ویرایش: من نتایج مقایسههای چندگانه را برای یک مورد نمونه و همچنین میانگین مشاهدهشده و نمودار خطای استاندارد را اضافه میکنم در صورتی که این کمک کند.   | میلههای خطای استاندارد با هم همپوشانی دارند اما معنیدار هستند - میانگینهای حاشیهای تخمین زده شده در مقابل میانگینهای مشاهدهشده |
111423 | به عنوان عنوان، دو مجموعه داده دارم که یکسان هستند و آزمون t زوجی را با استفاده از R انجام دادم، مقدار p برای تفاوت تخمین زده شده (که اساساً 0 است) NaN است. من نمی دانم که آیا می تواند یک مقدار p نظری برای این مورد وجود داشته باشد. | اگر دو مجموعه داده یکسان باشند، مقدار p برای آزمون t زوجی چقدر است |
114709 | من دو مجموعه داده از دو ماشین در مورد cpu آنها دارم، حافظه برای n بازه زمانی. ماشین 1 = [(cpu1، mem1)، (cpu2، mem2)، (cpu3، mem3)، (cpu4، mem4)، .... (cpuN، memN)] ماشین 2 = [(cpu1، mem1)، (cpu2 , mem2), (cpu3, mem3), (cpu4, mem4), .... (cpuN, memN)] I باید دریابید که الگوی استفاده از (cpu، mem) در دو ماشین مختلف چقدر شبیه است. برای اینکه نتیجه بگیرم که هدف استفاده از دو ماشین چقدر شبیه است، هر تکنیک آماری یا تکنیک Ml که با مشکل من مناسب است. لطفا پیشنهاد دهید. ممنون از وقتی که گذاشتید. | مقایسه مجموعه داده ها از دو ماشین |
111422 | من در حال حاضر دکترای خود را در زیست شناسی محاسباتی در استنفورد می گذرانم. من دادههایی را که برای پاسخ دادن به سؤالهای مورد علاقهام نیاز دارم، دریافت میکنم. مجموعههای دادهها گاهی اوقات بزرگ هستند و حل این مشکلات بزرگ زمان بیشتری را میطلبد (گاهی چند روز). با این حال، من میپرسیدم که چگونه یادگیری ماشین در مجموعههای داده بسیار عظیم کار میکند؟ فرض کنید گوگل میخواهد $Ax = b$ را در جایی که $A$ دارای 10 میلیارد ردیف است، حل کند، یافتن هر شیب غیرممکن به نظر میرسد. اگر گوگل واقعاً این شبیهسازیها را تا زمانی که طول میکشد (معادل من چند روز) اجرا میکند، ممکن است راهحل قبل از رسیدن بیارزش باشد. این مشکل در حین آموزش شبکه های عصبی و یا اجرای روش های پیچیده تر برجسته می شود. راه حل های عملی برای این مشکل چیست؟ من عباراتی مانند ما نمونه های نماینده را انتخاب می کنیم... را دیده ام. به نظر من این یک بیانیه پوچ است زیرا زمانی که p >> n، هیچ چیز نماینده ای نیست زیرا سیستم ها کمتر تعیین شده اند. هر گونه کمک در مورد «نماینده» در این موارد نیز کمک خواهد کرد. | حل یک مشکل یادگیری ماشین عملی |
104684 | من موضوعات مشابهی را در انجمن پیدا کردم، اما به نظر می رسد هیچ کدام در مورد من صدق نمی کند، بنابراین تصمیم گرفتم این سوال را ارسال کنم. متغیر پاسخ من یک مقیاس لیکرت مرتب شده 1-4 است. از سه آزمودنی خواستم که کیفیت زبانی جملات را قبل و بعد از یک فرآیند بازنگری زبانی انجام شده روی جملات ارزیابی کنند. من تصمیم گرفتم که بهترین راه رو به جلو، تجزیه و تحلیل نمرات پست، داشتن پیش نمرات به عنوان پیش بینی کننده در رگرسیون ترتیبی است. از آنجایی که من سه نسخه از مقیاس (3 موضوع) دارم، اگر از تجزیه و تحلیل اثرات مختلط با تأثیر تصادفی موضوع استفاده کنم، در نهایت همان جمله را با امتیازهای قبلی متفاوت در داده ها (از موضوعات مختلف) خواهم داشت. منسجم به نظر نمی رسد آیا استفاده از میانگین ها (هم برای متغیر وابسته و هم برای پیش نمره) خوب است؟ من همچنان با متغیر وابسته به عنوان ترتیبی رفتار می کنم (اکنون با 9 سطح)، به جای اینکه 1-4 باشد، دارای دسته های متوسط است، مثلاً 1، 1.3، 1.6، 2... | آیا می توانم از میانگین های مقیاس لیکرت به عنوان متغیر وابسته در رگرسیون ترتیبی استفاده کنم؟ |
104689 | خروجی زیر داده می شود:  وظیفه این است که بگوییم کدام متغیر از بین متغیرهایی که از نظر آماری در 0.05 معنی دار هستند، بیشترین و کمترین را دارند. اهمیت نسبی در مدل برازش شده؟ **سوال اول**: فکر میکنم باید به قدر مطلق تخمینهای استاندارد شده نگاه کنم تا رتبهبندی تقریبی از اهمیت نسبی متغیرهای ورودی در مدل برازش شده را بدست بیاورم، درست است؟ **سوال دوم**: چگونه می توانم این مقادیر را محاسبه کنم؟ من در مورد تقسیم تخمین بر خطای استاندارد فکر کردم، به عنوان مثال. -0.9699/0.0385$ اما این برابر با -0.2074 نیست؟ | اهمیت نسبی متغیرها؟ |
60848 | من اخیراً از یکی از دوستان پرسیدم که خطای استاندارد قابل قبول برای یک ضریب در رگرسیون لجستیک شرطی چیست و پاسخ منطقی بستگی دارد را دریافت کردم. با دانستن اینکه هر مدل یا مطالعه متفاوت است، قاعده سرانگشتی برای حداقل خطای استاندارد برای ضرایب در رگرسیون لجستیک چیست؟ یک بار به من گفته شد 0.05 ... اما نتوانستم عبارات مشابهی را در دستگاه Google پیدا کنم. با تشکر | خطای استاندارد در رگرسیون لجستیک |
106261 | لطفاً کسی می تواند به من بگوید که چرا وقتی من از lme و lmer استفاده می کنم، نتایج مدل شیب تصادفی برای یک مجموعه داده متفاوت است. من ابتدا یک مدل رهگیری تصادفی را به صورت زیر با استفاده از lme و همچنین lmer mdl1<-lmer(yld.res ~ rain + (1|state),data=data) برازش کردم #مدل رهگیری تصادفی با استفاده از lmer mdl2<-lme(yld.res ~ rain,random= ~1|state,data=data) #مدل رهگیری تصادفی با استفاده از ضریب lme(mdl1) $state (Intercept) rain a -336.4329 0.2711834 b -294.2122 0.2711834 c -256.1548 0.2711834 d -263.4723 0.2711831 0.2711834 e -2118. -239.2984 0.2711834 coef(mdl2) (Intercept) rain a -336.4333 0.2711836 b -294.2125 0.2711836 c -256.1550 0.27111836 0.27121836 0.27118362474 - -217.1183 0.2711836 f -239.2986 0.2711836 همانطور که می بینید، هر دوی اینها نتایج یکسانی دارند اما وقتی سعی می کنم یک مدل شیب تصادفی را برازش کنم، هر دو نتایج متفاوتی می دهند: mdl3<-lmer(yld.res ~ rain + (rain|state| ),data=data) mdl4<-lme(yld.res ~ rain,random= ~rain|state,data=data) coef(mdl3) $state (Intercept) rain a -124.4119 0.09613782 b -126.0181 0.11115529 c -523346 0.65 -590.5186 - 0.65 0.35443209 e -477.2628 0.61681345 f -556.7407 0.65785116 coef(mdl4) (Intercept) rain a -16.09254 0.01476100 b 12.010 - 12.14 -761.00684 0.83513050 d -327.16451 0.35018331 e -451.16396 0.58277976 f -632.17825 0.74185372. پیام: پیامهای اخطار: 1: در checkConv(attr(opt، derivs)، opt$par، ctrl = control$checkConv، : مدل با max|grad همگرا نشد. = 1.30318 (tol = 0.002، جزء 1) 2: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل تقریباً غیرقابل شناسایی است: مقدار ویژه بسیار بزرگ - متغیرهای مقیاس مجدد؟؛ مدل است تقریباً غیرقابل شناسایی: نسبت مقدار ویژه - متغیرهای مقیاس مجدد من هستم؟ مطمئن نیستم که چرا این اتفاق می افتد از کدام مدل شیب تصادفی با lme یا lmer استفاده کنم؟ | تفاوت در نتایج مدل اثرات مختلط در بسته nlme و lme4 |
106191 | من در حال مطالعه تعریف اهرم هستم و آن را از نظر فرمول درک می کنم. با این حال، اگر من برای مثال طرحی مانند این داشته باشم، چگونه می توانم ببینم کدام یک از این نقاط دارای بالاترین اهرم است؟ مثلاً کدام یک در این طرح وجود دارد؟ | کدام یک از این نقاط در این طرح دارای بیشترین اهرم است و چرا؟ |
105085 | من با توزیع مجموع دو متغیر تصادفی وابسته کار می کنم. در مشکل من، دو رویداد مشاهده نشده X و Y وجود دارد که X قبل از Y است و Y تابعی از نتیجه X است، اما من فقط مجموع دو نتیجه را مشاهده می کنم، یعنی: $$Z=X+Y| X$$ $$Pr(Z=x)=\sum_{z=0}^xPr(X=z)*Pr(Y=x-z|X=z)$$ شبیه یک کانولوشن استاندارد است توزیع، با این تفاوت که Y و X مستقل نیستند. در مورد خاص من، X و Y توزیع پواسون دارند، که در آن میانگین Y تابعی افزایشی از مقدار نتیجه X است. من از یک فرم بسته برای نمایش PMF این توزیع بی اطلاع هستم، و بنابراین باید آن را مستقیماً از طریق مجموع فوق استخراج کرد. برای مشکل خاص خود، من باید هزاران بار PMF را محاسبه کنم، و به دنبال راه هایی برای کاهش بار محاسباتی انجام این کار هستم. به این ترتیب، من امیدوار بودم که کسی یا 1) بداند که آیا یک نمایش فرم بسته برای PMF وجود دارد یا خیر 2) از هر گونه تقریبی به PMF اطلاع داشته باشد هر گونه کمکی بسیار قدردانی خواهد شد. با تشکر | مجموع متغیرهای تصادفی پواسون وابسته |
93010 | هنگام یادگیری یک ماشین Bolzmann محدود با واگرایی متضاد $\mathbf{CD}_n$ برای $n>1$، آیا باید حالت های پنهان را در به روز رسانی هایی که در بین قرار دارند باینری کنیم؟ در Hinton's - 'A Practical Guide to Training Restricted Bolzmann Machines' دو توصیه متناقض ذکر شده است: > 3.1 بسیار مهم است که این حالت های پنهان را به جای استفاده از خود احتمالات، باینری کنیم. [...] برای آخرین به روز رسانی. از واحدهای پنهان، [...] از خود احتمال استفاده کنید > > 3.4 وقتی [واحدهای پنهان] توسط بازسازیها، همیشه از احتمالات بدون نمونهگیری استفاده کنید. به نظر می رسد نقل قول اول می گوید که به روز رسانی ها در وسط باید نمونه برداری (باینری سازی) انجام دهند، در حالی که به نظر می رسد دومی می گوید که نباید انجام دهند! کدام یک درست است؟ | واگرایی متضاد: باینری کردن حالت های پنهان |
106196 | اگر بخواهیم نرخ پذیرش را با جنسیت به عنوان متغیرهای توضیحی در دانشگاه خاصی مطالعه کنیم، به طور کلی نتایج را در هر بخش مستقل دسته بندی می کنیم. ما معمولاً فرض می کنیم که بین جنسیت و بخش همبستگی غیرمنفی وجود دارد. برای مدل رگرسیون لجستیک $logit(P(Y_i=1))=\mu_i+\beta x_i$، که در آن $x_i$ متغیر شاخص برای جنسیت است. هیچ ارتباطی بین جنسیت و بخش در مدل بالا وجود ندارد. چگونه همبستگی را در مدل بدون معرفی دو متغیر توضیحی زیاد، کمی کنیم؟ اگر به مدل لجستیک بالا پایبند باشیم، چرا میتوانیم تأثیر جنسیت را در میان بخشهای مختلف یکسان فرض کنیم؟ | رگرسیون لجستیک با پاسخ های خوشه ای اسمی |
26469 | در مدل رگرسیون فعلی من، یکی از متغیرهای توضیحی مورد نیاز من سرمایه (K) است. کشور مورد بررسی در اینجا ساحل عاج (غرب آفریقا) است و همانطور که قبلاً می دانید، یافتن داده برای اقتصادهای باز کوچک اغلب یک کار بسیار دشوار است. من توانستم دادههای «تشکیل سرمایه» را پیدا کنم، که اساساً اولین تفاوتهای ارزش واقعی سرمایه (dK) است، اما من باید نمودار را در سطوح (و نه فقط در تفاوتها) نشان دهم. واضح است که یافتن مقادیر واقعی فقط از اولین تفاوت ها غیرممکن است، اما ممکن است راهی برای داشتن نمودار دقیق مشابه با استفاده از تفاوت ها به عنوان پایه وجود داشته باشد. چگونه باید با استفاده از R این کار را انجام دهم؟ پاسخ شما بسیار قدردانی خواهد شد. | گرفتن نمودار زمانی در سطوح با استفاده از اولین تفاوت های یک سری زمانی در R |
3484 | من به دنبال آگهی های شغلی تحلیلگر بودم و یکی از رایج ترین نیازها تجربه SAS است. * مگر اینکه سازمان شما در حال حاضر از SAS استفاده کند، چگونه می توانید به عنوان یک کاربر SAS آموزش دهید؟ * چه زبان برنامه نویسی معادل SAS است که کارفرمایان ممکن است از پذیرش آن خوشحال شوند؟ | کسب تجربه SAS |
114702 | من یک متغیر با سه دسته مانند ازدواج/طلاق/بیوه دارم. شمارش ها عبارتند از: 40، 23، 7. من در این مورد از SPSS استفاده می کنم. من می دانم که چگونه تست chi_squared را برای این کار انجام دهم و نشان می دهد که شمارش ها برابر نیستند (این فرضیه صفر من است). و من باید نشان دهم که دسته اول بیشتر از دو دسته دیگر ظاهر می شوند. بنابراین سوال این است که چگونه می توانم چندین مقایسه را برای نسبت ها انجام دهم؟ منظور من چیزی شبیه به مقایسه نسبت ستون است (spss به دو متغیر نیاز دارد). | مقایسه نسبت ستون برای یک متغیر |
24919 | من دو متغیر مستقل پیوسته و یک متغیر وابسته باینری دارم، و میخواهم از رگرسیون با استفاده از همبستگی چند سریالی استفاده کنم، اما هیچ اطلاعاتی در مورد نحوه انجام این کار در R پیدا نمیکنم. میدانم که جایگزین استفاده از رگرسیون لجستیک است. اما مشکلی که من سعی در حل آن دارم ایجاب می کند که از همبستگی پلی سریال استفاده کنم. من به ویژه در مورد بدست آوردن باقیمانده های رگرسیون نگران هستم. هر گونه کمکی بسیار قدردانی خواهد شد. اگر نرم افزار دیگری را می شناسید که بتواند این رگرسیون را انجام دهد، من نیز دوست دارم در مورد آن بشنوم. | رگرسیون با استفاده از همبستگی های چند سریالی در R |
106264 | من دادههایی به شکل زیر دارم: روز کورتوز چولگی کل ورودیها 163 0.3.5 435670 من در حال تلاش برای مدلسازی رژیم ورودی بین رودخانه و مخزن هستم. برای انجام این کار، من به یک رژیم ورودی شبیه سازی شده بر اساس داده های مشاهده شده نیاز دارم. برنامه اولیه من این بود که توزیعی را بر اساس یک کشش و چولگی معین بسازم زیرا می توانم آن ها را به راحتی تصادفی کنم. ایده این بود که من میتوانم یک منحنی از آن دو نقطه داده و ناحیه زیر منحنی ایجاد کنم تا منحنیهای معتبری مشابه دادههای مشاهدهشده به من بدهد. منحنی حاصل باید چیزی شبیه به این باشد (اگرچه سال به سال تغییرات قابل توجهی وجود دارد):  من می توانم تغییرات روزانه را بعد از ایجاد منحنی بدون مشکل اضافه کنم (فکر می کنم). متأسفانه، من با ریاضیات و آماری که در اینجا در حال بازی هستند بسیار تازه کار هستم، و اکنون مطمئن نیستم که آیا می توان با این داده ها کاری انجام داد تا منحنی های ساختگی به من ارائه شود. آیا کسی روشی برای ایجاد منحنی به این روش می شناسد؟ از طرف دیگر، آیا روشهای دیگری وجود دارد که بتوانم با توجه به دادههای مختلف، از آنها برای همان اثر استفاده کنم؟ من همچنین داده هایی برای هر سال (مشاهده شده) به شکل زیر دارم: تاریخ ورودی 12-اکتبر- 2002 23000 با ورودی مشابه برای هر روز. پیشاپیش برای هر گونه بینش متشکریم! | آیا می توان یک منحنی با چولگی و کشیدگی مشخص ساخت؟ |
106269 | من روی یک پروژه سری زمانی کار می کنم که در آن فعالیت روزانه چیزی (بیایید آن را Y بنامیم) بر اساس داده های تاریخی سه ساله پیش بینی می کنم. من می دانم که Y تحت تأثیر جلوه های تقویم مانند تعطیلات قرار می گیرد (به عنوان مثال، در کریسمس کاهش می یابد). وقتی داده ها را تجزیه و تحلیل می کنم، می خواهم جلوه های تقویم را در نظر بگیرم. نحوه ایجاد متغیرهای ساختگی برای تعطیلات (به عنوان مثال، 1 برای کریسمس و 0 برای بقیه روزها) واضح است. با این حال، چگونگی ایجاد متغیرهایی که تأثیرات پیشروی و تأخیر روزهای مختلف تقویم را به حساب میآورند، چندان واضح نیست. این امر به ویژه مهم است زیرا چند روز مورد علاقه من (روزهایی که تعطیلات معمولی نیستند اما برای مطالعه من جالب هستند) احتمالاً اثرات قابل توجهی در سرب و/یا تاخیر دارند. به عنوان مثال، فعالیت باید در طول 30 روز (30 تخمین ساده بر اساس بررسی بصری داده ها است) تا یک روز تقویمی خاص مورد علاقه شروع به افزایش کند و برای یک روز تقویمی دیگر، فعالیت باید در آن روز افزایش یابد. و سپس چند هفته پس از آن بیدار بمانید، سپس به آرامی پایین بیایید. در این زمینه دو سوال دارم. یکی، آیا رویکرد آماری خوبی وجود دارد که بتوانم از آن برای تعیین تأثیر تأخیر و پیشروی روزهای تقویمی خاص استفاده کنم (یعنی به نظر می رسد چند روز در اطراف روز تقویمی مورد علاقه تحت تأثیر آن روز تقویمی قرار می گیرد)؟ آیا بسته منبع باز خاصی در پایتون یا R وجود دارد؟ دوم، متغیرهایی که دارای اثرات سرب و تاخیر هستند چگونه باید باشند؟ به عنوان مثال، آیا متغیری با اثر سرب که ایجاد میشود و سپس کاهش مییابد، به این صورت است: [0، 0، 0، 0، 1، 2، 3، 4، 5، 6، 0، 0، 0]؟ در اولین دور زدنم با این داده ها، از یک GBM با متغیرهایی استفاده کردم که جلوه های تعطیلات/تقویم را رمزگذاری می کنند. برای روزهای تقویمی که تأثیرات لید و تأخیر قابل توجهی دارند (تأثیرهایی که از طریق معاینه بصری و دانش دامنه شناسایی می شوند)، من فقط یک متغیر ایجاد کردم که تا آن روز تقویم چند روز باقی مانده است (به عنوان مثال، [4، 3، 2، 1، 0، 365، 364، 363، و غیره] این مدل نسبتاً خوب کار میکند، اما فکر میکنم که میتوانم آن را با بهبود نحوه نمایش اثرات تقویم بهبود بخشم. با تشکر یک دسته برای هر پاسخ. | چگونه میتوانید متغیرهایی را ایجاد کنید که تأثیر پیشروی و تأخیر تأثیرات تعطیلات / تقویم را در تجزیه و تحلیل سریهای زمانی منعکس میکنند؟ |
3489 | من یک سیستم بیومتریک دارم که توزیعی از امتیازات شبیه به توزیع گاوسی را ارائه می دهد (مشابه نمودار مثال در پیوند زیر: LINK). نقطه سردرگمی من این است که چگونه نرخ پذیرش نادرست را محاسبه می کنم. آستانه چگونه بر کل مشکل تأثیر می گذارد؟ | محاسبه نرخ پذیرش نادرست برای توزیع گاوسی نمرات |
65366 | من قبل از انجام رگرسیون، مقداری تحلیل تک متغیره روی یک متغیر انجام می دهم. به نظرم خیلی کج شده سه هیستوگرام از (1) متغیر اصلی هستند. (2) تبدیل log10 و (3) معکوس داده ها به توان 4.5. **چگونه باید متغیر را برای رگرسیون آماده کرد؟**  | چگونه می توان متغیرهایی را با چولگی ملایم برای رگرسیون چندگانه آماده کرد؟ |
30875 | من پنج افزودنی دارم که می توان آنها را با یک ماده شیمیایی مخلوط کرد. هر یک را می توان با درصد گسسته ای از 0.02٪ تا 0.22٪ از ماده شیمیایی (یعنی 0.02٪، 0.03٪، 0.04٪، ... 0.22٪) مخلوط کرد. هر افزودنی باید وجود داشته باشد، بنابراین حداقل 0.02٪ مخلوط شود. محدودیت این است که مجموع همه درصدها نمی تواند از 0.3٪ تجاوز کند، اما مجموع می تواند کمتر از آن باشد، تا زمانی که هر افزودنی وجود داشته باشد. بدون محدودیت پاسخ آسان است. اما نمیتوانم بفهمم چگونه تعداد ترکیبهایی را که از حداکثر مجاز بیشتر میشوند حذف کنم. اگر یک افزودنی با 0.22٪ مخلوط شود، چهار ماده دیگر باید هر کدام 0.02٪ باشند. با تشکر | محاسبه ترکیبات ممکن با محدودیت |
106198 | من یک رشته ریاضی هستم و یک برنامه MS در آمار را شروع می کنم. من یک رشته آمار در مقطع کارشناسی (مبانی توزیع، تخمین، آزمون فرضیه) را گذرانده ام اما هرگز یک دوره رسمی در رگرسیون را گذرانده ام. دورهای به نام «تحلیل واریانس در مدلهای طراحی آزمایشی» وجود دارد که موضوعات زیر را پوشش میدهد (توزیع نرمال چند متغیره؛ فرمهای درجه دوم؛ مدلهای خطی؛ تصادفی ساده، بلوکهای تصادفی، مربعهای لاتین، فاکتوریل، طرحهای بلوک ناقص متوازن، طرحهای بلوک ناقص متوازن. تجزیه و تحلیل کوواریانس؛ و تست های مقایسه چندگانه اولین دوره در رگرسیون آیا گذراندن این دوره طراحی exptl _قبل از اینکه دوره رگرسیون را بگذرانم خوب است یا بهتر است ابتدا در کلاس رگرسیون خطی شرکت کنم (بنابراین کلاس طراحی explt برای من منطقی تر خواهد بود)؟ با تشکر از شما، JZ | آیا گذراندن تحلیل واریانس در مدل های طراحی تجربی قبل از دوره رگرسیون اشکالی ندارد؟ |
24910 | مدتی است که در تلاش برای دریافت پاسخ بوده ام و هر بخش راهنما را جستجو کرده ام و سایر سایت های آمار را امتحان کرده ام. من یک پایان نامه دارم که باید به زودی آن را تکمیل کنم، اما یک مجموعه از داده ها به دلیل حجم نمونه کوچک به طور کامل از لیگ من خارج شده است. اساساً، من چهار مولد دارم (پرنده هایی با جوجه - زودرس تا بتوانند به بیرون دریچه نوک بزنند، مثلاً جوجه ها). من نسبت زمانی را که هر نوزاد یک روز در میان (تقریبا) تغذیه میکرد تا زمانی که پرواز کند اندازهگیری کردم. من سه مولد در جبهه اقیانوس و یک مولد در زیستگاه های گل و لای داشتم. هر نقطه داده در داخل یک نوزاد مستقل نیست، بنابراین تنها راه برای مقایسه نوزادان mf در برابر نوزادان OF از نظر زمان صرف شده برای تغذیه (و سایر رفتارها) استفاده از میانگین و استفاده از یک کروسکال-والیس یا یک است. - نمونه Wilcoxon (mu = میانگین برای نوزادان MF). البته نمونه آنقدر کوچک است که نمیتواند به اهمیت نزدیکتر برسد، حتی اگر یک الگوی واضح از تغذیه MF بیشتر باشد و وقتی به تمام نقاط داده نگاه میکنم کمتر دچار اختلال میشود. پیشنهاد شد که بتوانم از یک مدل اثرات مختلط استفاده کنم تا هر نقطه داده برای یک نوزاد قابل استفاده باشد و هر نوزاد یک بلوک در نظر گرفته شود. آن شخص ایده هایی را برای مدل ها تایپ کرد، اما هیچ کس نتوانست به من بگوید چگونه این کار را گام به گام انجام دهم و من واقعاً آنها را درک نمی کنم. من منبعی پیدا کردم که به من اجازه می دهد این کار را در Minitab انجام دهم (https://onlinecourses.science.psu.edu/stat502/node/72) اما وقتی آن را امتحان کردم به من گفت که نامتعادل است و فکر می کنم به این دلیل است که بلوک اول در یک درمان و سه بلوک دیگر در درمان دیگر است، اما هیچ تداخلی با هیچکدام وجود ندارد. مسئله دیگر این است که اکنون ممکن است متوجه شده باشم که مدل ها چه کاری انجام می دهند، فکر می کنم آنها فقط سعی می کنند دلایلی را توضیح دهند که چرا همه چیز همانطور که هست است، اما هنوز هم می خواهم بتوانم بگویم که MF به طور قابل توجهی بیشتر از OF نوزادان تغذیه می کند. نوزاد MF کمتر دچار اختلال می شود. مدل فقط سعی میکند دلایلی را توضیح دهد که چرا بهجای اینکه تفاوتهای قابلتوجهی داشته باشند (که من واقعاً سعی میکنم بفهمم همین است). اگر راه سادهتری برای مقایسه دو گروهی که دادههای مستقل و غیرمستقل دارند وجود داشته باشد، بسیار ممنون میشوم. من در واقع به استفاده از یک همبستگی دو سریال نقطه ای با استفاده از میانگین با MF با کد 0 و OF با کد 1 فکر کردم. کار می کند اما آیا معتبر است؟ (http://faculty.vassar.edu/lowry/pbcorr.html) آیا کسی وجود دارد که بتواند در این مورد به من کمک کند؟ من در حال رسیدن به ضرب الاجل خود هستم و می دانم که اگر فقط می توانستم این قسمت را انجام دهم، بقیه چیزها خوب است. من هم دانشجوی خارجی هستم و استادم گفته است که نمی تواند در راه دور به من کمک کند. من همچنین نرخ فلاش در مقابل تعداد روزهای هچ شدن دارم. میخواستم ببینم آیا پرندگان احتمال کمتری دارند که لانهشان را نزدیکتر به بیرون بیاورند، بنابراین از همبستگی استفاده کردم. من داده هایی برای 7 لانه دارم و هر نقطه داده را رسم کردم (n=77). مسئله دوباره این است که همه نقاط مستقل نیستند، اما من باید میزان فلاش را برای سن لانه نشان دهم (و همه لانه ها در یک سن اندازه گیری نشده اند). آیا باید یک همبستگی برای هر لانه انجام دهم و سپس راهی وجود دارد که آنها را با هم ترکیب کنم تا یک مقدار p به من بدهد یا باید آن را همانطور که هست رها کنم؟ خیلی ممنون ببخشید اگر سوالاتم طولانی شد. راشل | مسئله مدل اثرات مختلط و سوال همبستگی. ناامید شدن |
104352 | من در زمینه استفاده از آمار بسیار تازه کار هستم و در مورد اینکه از چه آزمایشی برای تجزیه و تحلیل داده های خود استفاده کنم تردید داشتم. بنابراین من مجموعه ای از افراد دارم. من این افراد را برای یک فعالیت خاص در طی 3-4 روز مشاهده کرده ام. اکنون می خواهم بگویم که فعالیت این افراد در طول روز ثابت می ماند. من از آزمون Kruskal-Wallis استفاده کردم تا نشان دهم که مقادیر در روزهای مختلف تفاوت معنی داری ندارند. اما من باید کار بیشتری انجام دهم، یعنی نشان دهم که فعالیت هر فرد در طول دوره مشاهده کمابیش ثابت می ماند. آیا کسی ایده ای در مورد اینکه از چه آزمون آماری برای این کار استفاده کنم دارد؟ | آزمایش برای نشان دادن ثبات در رفتار در یک دوره مشاهده |
106197 | این سوال به مشکل حداقل مربعات تعمیم یافته مربوط می شود. بردارها و ماتریس ها با پررنگ نشان داده می شوند. **محل**. اجازه دهید $N,K$ اعداد صحیح داده شود، با $K \gg N > 1$. جابجایی ماتریس $\mathbf{A}$ با $\mathbf{A}^T$ نشان داده خواهد شد. فرض کنید مدل آماری زیر $$ (*) \quad \mathbf{y} = \mathbf{Hx + n}، \quad \mathbf{n} \sim \mathcal{N}_{K}(\mathbf{0) دارد }، \mathbf{C}) $$ که در آن $\mathbf{y} \in \mathbb{R}^{K \times 1}$ هستند مشاهده پذیرها، $\mathbf{H} \in \mathbb{R}^{K \times N}$ یک ماتریس با رتبه کامل شناخته شده است، $\mathbf{x} \in \mathbb{R}^{N \times 1}$ یک بردار قطعی از پارامترهای ناشناخته است (که می خواهیم تخمین بزنیم) و در نهایت $\mathbf{n} \in \mathbb{R}^{K \times 1}$ یک بردار اختلال (نویز) با ماتریس کوواریانس شناخته شده (معین) $\mathbf{C} \in \mathbb{R}^{K \times K}$ است. تخمین حداکثر احتمال (ML) $\mathbf{x}$ که با $\hat{\mathbf{x}}_{ML}$ نشان داده میشود، با $$ (1) \quad \hat{\mathbf{ ارائه میشود. x}}_{ML} = (\mathbf{H}^T \mathbf{C^{-1}} \mathbf{H})^{-1} \mathbf{H}^T \mathbf{C}^{-1} \mathbf{y} $$ و این نیز فرمول استاندارد حداقل مربعات خطی تعمیم یافته (GLLS) است. فرمول استاندارد حداقل مربعات معمولی (OLS) را برای یک مدل خطی در نظر بگیرید، یعنی $$ (2) \quad \hat{\mathbf{x}}_{OLS} = (\mathbf{H}^T \mathbf{H })^{-1} \mathbf{H}^T \mathbf{y} $$ به عنوان آخرین یادداشت در مورد نمادگذاری، $\mathbf{I}_K$ ماتریس هویت $K \times K$ و $\mathbf{O}$ ماتریسی از همه صفرها (با ابعاد مناسب) است. * * * اکنون، برای مسئله در دست، فرض کنید که $\mathbf{C}^{-1} = \mathbf{I}_K + \mathbf{X}$، جایی که $\mathbf{X} \in \mathbb {R}^{K \times K}$ یک ماتریس متقارن و معکوس است (و برای اینکه فرمالیسم منطقی باشد، $\mathbf{X}$ چنین است که $\mathbf{I}_K + \mathbf{X}$ معکوس است و معکوس آن مثبت قطعی است). در این مورد، می توان ثابت کرد (با استفاده از لم وارونگی _ماتریس_ ) که $$ (3) \quad (\mathbf{H}^T \mathbf{C^{-1}} \mathbf{H})^{-1 } \mathbf{H}^T \mathbf{C}^{-1} = (\mathbf{H}^T \mathbf{H})^{-1} \mathbf{H}^T + \mathbf{Q} $$ جایی که عبارت برای ماتریس $\mathbf{Q} \in \mathbb{R}^{N \times K}$ را می توان یافت (من آن را در اینجا حذف می کنم). حالا بالاخره **گزاره 1**. _اگر $\mathbf{H}^T\mathbf{X} = \mathbf{O}_{N,K}$، معادله $(1)$ در معادله $(2)$ منحط می شود، یعنی هیچ تفاوتی وجود ندارد بین GLLS و OLS_. اثبات صریح است و معتبر است حتی اگر $\mathbf{X}$ مفرد باشد. حال سوال من این است **_سوال_**: _آیا معادله ای شبیه معادله می تواند. $(3)$ (که یک عبارت OLS را از جمله دوم جدا می کند) زمانی نوشته می شود که $\mathbf{X}$ یک ماتریس منفرد باشد؟_ من علاقه ای به شکل بسته $\mathbf{Q ندارم }$ وقتی $\mathbf{X}$ مفرد است. اما من علاقه مند به درک مفهوم فراتر از این عبارت هستم: نقش واقعی $\mathbf{Q}$ چیست؟ در کدام فضا کار می کند؟ من این مشکل را در طول یک پیادهسازی عددی پیدا کردم که در آن OLS و GLLS تقریباً یکسان عمل میکنند (مدل واقعی $(*)$ است)، و نمیتوانم بفهمم که چرا OLS کاملاً کمتر از حد بهینه نیست. من این را کمی غیر شهودی یافتم، زیرا شما چیزهای بیشتری در GLLS می دانید ($\mathbf{C}$ را می دانید و از آن استفاده کامل می کنید، چرا OLS نمی کند)، اما اگر برخی شرایط وجود داشته باشد، این به نوعی بی فایده است. ملاقات کرد. این شرایط چیست؟ به عنوان نکته پایانی، من نسبتاً تازه وارد دنیای حداقل مربعات هستم، زیرا معمولاً در چارچوب ML (یا در موارد دیگر MMSE) کار می کنم و هرگز جنبه های عمیق GLLS در مقابل OLS را مطالعه نکرده ام، زیرا در مورد من، آنها فقط مراحل میانی در طول استخراج MLE برای یک مسئله معین هستند. اگر سوال، به نظر شما، کمی خیلی گسترده است، یا اگر چیزی وجود دارد که من از قلم افتاده ام، لطفاً می توانید با دادن منابع به من در جهت درست راهنمایی کنید؟ ترجیحاً کتابهای معروفی که با علامت استاندارد نوشته شدهاند. | حداقل مربعات تعمیم یافته در مقابل حداقل مربعات معمولی تحت یک مورد خاص |
106190 | ما نسبت شانس را در رگرسیون لجستیک برای دقت پیشبینی یک آزمون دریافت میکنیم. چگونه یک نسبت شانس را از ترکیب بیش از 1 آزمون در پیش بینی نتیجه بدست آوریم؟ چگونه داده ها را برای دریافت این در spss وارد کنیم؟ | چگونه می توان نسبت شانس را هنگام ترکیب چندین تست در رگرسیون لجستیک در spss بدست آورد؟ |
106266 | **تنظیم متغیر ابزاری معمولی** به دنبال تخمین ثابت $\beta$ از $$ y = \alpha + \beta x + \epsilon $$ است که در آن $cor(x,\epsilon) \neq 0$، در حالت تک متغیره، بدون از دست دادن کلیت، با ابزارسازی با متغیری $z$ که با $y$ همبستگی ندارد مشروط به $x$ (محدودیت حذف). $\hat\beta_{IV} = (Z'X)^{-1}Z'y$. همچنین میتوان آن را بهعنوان حداقل مربعات دو مرحلهای و غیره برانگیخت. در حالت چند متغیره، فرد معمولاً حداقل به اندازه متغیرهای درونزا به ابزار نیاز دارد. ** من یک مورد تا حدودی عجیب و غریب دارم که شامل گرهها در یک شبکه است. $y_i$ یک نتیجه برای گره $i$ است و $x_i$ یک پیش بینی درون زا $y_i$ است. من یک $z_i$ دارم که به طور تصادفی اختصاص داده شده است، و $x_i$ را پیشبینی میکند اما $y_i$ را پیشبینی نمیکند، مگر از طریق تاثیر آن روی $x_i$. وقتی در نظر بگیرم که $y$ توسط برخی از $f(x_{-i})$ (یعنی: مقادیر $x$ در سایر گرهها) نیز پیشبینی میشود، دشوار میشود. مدل مرحله اول چیزی شبیه $$ x_i = f(z_i) + \eta_i $$ است که $cor(z,\eta) = 0$ مرحله دوم که به صورت حداقل مربعات دو مرحله ای نشان داده می شود، چیزی شبیه $$ y_i است. = \alpha + \beta_1\hat x_i + \beta_2 \hat u_i + \epsilon_i $$ که در آن $u_i = f(x_{-i},D_{-i})$ -- اساساً تابعی از $x$های $i$های نزدیک و فاصله آنها $D$. بنابراین، $\hat u$ است $f(\hat x_{-i},D_{-i})$ بنابراین، من متغیرهای درون زا بیشتری نسبت به ابزار دارم، اما متغیرهای درون زا من همه از یک متغیر درون زا مشتق شده اند. که برای آن یک ساز دارم. **سوال من**: آیا مرحله دوم من شناسایی نشده است؟ یا فقط شناسایی شده؟ و چرا؟ | بیش از یک تابع از یک متغیر درون زا ابزاری واحد -- آیا مدل هنوز شناسایی نشده است؟ |
96060 | من چند سوال در مورد رویکرد نظری اطلاعات به مدلسازی خطی دارم: 1. چرا فقط از باقیمانده ها به جای احتمال استفاده نمی شود؟ 2. آیا می توان از متغیرهای مشابه با زیرمجموعه های مختلف داده برای ساخت بهترین مدل استفاده کرد؟ 3. آیا می توان از متغیرهای مشابه با توزیع خطاهای مختلف (به عنوان مثال پواسون، دو جمله ای منفی) برای ساخت بهترین مدل استفاده کرد؟ 4. آیا می توان از متغیرهای مشابه با تبدیل های مختلف (مثلاً جذر، log) برای ساختن «بهترین مدل» استفاده کرد؟ 5. آیا می توان تعاملاتی را در مدل های نامزدی که در مدل جهانی گنجانده نشده اند، گنجاند؟ | انتخاب مدل نظری اطلاعات |
104356 | من می خواهم از یک طبقه بندی کننده kNN استفاده کنم. مجموعه داده های من بسیار کوچک است و شامل 2 کلاس است که هر کدام حدود 200 نمونه دارند. من باید k را با استفاده از روش اعتبارسنجی متقاطع تخمین بزنم. از چند نمونه می توانم برای یافتن بهترین k استفاده کنم؟ | اندازه نمونه برای تخمین بهترین k در kNN |
9605 | من علاقه مند به استفاده از آزمون ضرایب مک کینون برای ارزیابی میانجی هستم. آیا راه سریعی برای انجام این محاسبات و تعیین اهمیت بر اساس آمار به دست آمده وجود دارد؟ | محاسبه آزمون توزیع تجربی مک کینون برای آزمایش میانجیگری |
102684 | آیا کلاس های آنلاین MOOC یا دیگر (رایگان/ارزان) برای آمارهای پیشرفته وجود دارد؟ من به سطح بالا در مقطع کارشناسی یا کارشناسی ارشد مقدماتی فکر می کنم. مواردی مانند مدل های سری زمانی، تحلیل عاملی، MLE، آمار بیزی و غیره. | MOOC یا کلاس آنلاین دیگر برای آمارهای پیشرفته؟ |
104682 | من 2 نمونه جمعیت دارم که میخواهم ارزیابی کنم که آیا جمعیتشناسی قابل مقایسه دارند یا خیر. راه درست برای آزمایش این که شامل ترکیبات چند متغیره است چیست؟ یعنی میخواهم بررسی کنم که هر دو مجموعه داده دارای موارد زیر هستند: * نسبت مردان یکسان * نسبت سنی یکسان [0-18] * همان نسبت مردان [0-18] و غیره. در اینجا نمونهای از دادهها آورده شده است. در حالت ایدهآل، من میخواهم آزمایش را در R.  انجام دهم. | چگونه می توان آزمایش کرد که آیا دو جمعیت دارای جمعیتی یکسان هستند؟ |
72275 | من سیگنالهای الکتریکی را از انسانها اندازهگیری میکنم که آنها را در دو دسته مختلف A و B قرار دادهام. میخواهم بدانم که آیا تفاوتی بین این دو گروه وجود دارد یا خیر. کل حجم نمونه من $N = 14$ است (هفت آزمودنی در هر دو گروه). حالا من یک کاری به سیگنال ها انجام می دهم و در آخر برای هر موضوع یک عدد می گیرم. چگونه می توان بررسی کرد که آیا دو گروه از نظر آماری متفاوت هستند؟ به من توصیه شد که یک تست جایگشت (چگونه؟) انجام دهم زیرا من چیزی در مورد توزیع اعدادی که مقایسه می کنم نمی دانم. منطقی است؟ | آیا خوب است که در اینجا معنیداری آماری را با استفاده از آزمون جایگشت آزمایش کنیم؟ |
113282 | من نگران استفاده صحیح از دو یا چند رهگیری تصادفی در یک مدل لاجیت مختلط ساده با اثر تصادفی و اثر ثابت (مدل رهگیری تصادفی) هستم. $$Y_{ij} = a_i + B X_{ij} + e_{ij}$$ $a_i$ یک اثر تصادفی است، $a_i= a + u_j$. $X_{ij}$ بردار متغیرهای توضیحی است. $β$ بردار پارامترهای ثابت است. همه مراجعی که من دیده ام فقط از یک گروه ($j$) برای مثال استفاده می کنند، اما برخی از راهنماهای 'lme4' وجود دارند که از بیش از یک گروه استفاده می کنند. برای هر کمکی متشکرم | از چند رهگیری تصادفی استفاده کنیم؟ |
113280 | من در حال حاضر سعی می کنم یک مدل تجزیه و تحلیل بقا را تطبیق دهم. پس از مطالعه چندین کتاب، هنوز با مفاهیم نظری اجرای تحلیل بقا بر روی داده هایی که فقط شامل مرگ و میر هستند، برخورد نکرده ام. به عنوان مثال، معمولاً برخی از دادهها، مانند آنچه در اینجا توضیح داده شده است: http://www.utdallas.edu/~pkc022000/6390/SP06/NOTES/hmohiv.txt دارای یک متغیر سانسورکننده است که اگر بیمار در طول مدت فوت کرده باشد، مقدار 1 را اختصاص میدهد. مطالعه، و 0 اگر بیمار در طول مدت مطالعه فوت نکرده باشد. با این حال، من داده هایی دارم که **همه** را به عنوان مرده ثبت می کند. سایر افرادی که به طور نامحدود زنده مانده اند در مجموعه داده گنجانده نشده اند و من نمی توانم آن را به دست بیاورم زیرا اکنون کاملاً از بین رفته است. در این مورد، آیا از لحاظ نظری منطقی است که برای هر مشاهده یک متغیر سانسورکننده 1 قرار دهیم؟ متشکرم | اگر من فقط به داده هایی دسترسی داشته باشم که همه افراد در یک مطالعه را به عنوان مرده ثبت می کند، آیا هنوز می توانم تجزیه و تحلیل بقا را اجرا کنم؟ |
41129 | من یک سوال در مورد تفسیر ضرایب یک تعامل بین متغیر پیوسته و طبقه ای دارم. در اینجا مدل من است: model_glm3=glm(cog~lg_hag+race+pdg+sex+as.factor(educa)+(lg_hag:as.factor(educa))، data=base_708) ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 21.4836 2.0698 10.380 < 2e-16 *** lg_hag 8.5691 3.7688 2.274 0.02334 * raceblack -8.47415-8.47415 -8.47415 -4.6.6.1. *** racemexican -3.0483 1.7073 -1.785 0.07469. racemulti/other -4.6002 2.3098 -1.992 0.04687 * pdg 2.8038 0.4268 6.570 1.10e-10 *** sexfemale 4.5691 1.1203 4.05educ-205. 13.8266 2.6362 5.245 2.17e-07 *** as.factor(educa)3 21.7913 2.4424 8.922 < 2e-16 *** as.factor(educa)4 19.0179 2.741-2.541 *** as.factor(educa)5 23.7470 2.7406 8.665 < 2e-16 *** lg_hag:as.factor(educa)2 -21.2224 6.5904 -3.220 0.00135 ** lg_hag:38. 6.1255 -3.234 0.00129 ** lg_hag:as.factor(educa)4 -8.5502 6.6018 -1.295 0.19577 lg_hag:as.factor(educa)5 -17.2230 (educa)5 -17.2230 1 -2007 s 6.07 معادله مدل به این صورت است: E[cog] = a + b1(lg_hag) + b2(educa2*lg_hag) + b3(educa3*lg_hag) + b4(educa4*lg_hag) + b5(pdg، در مرکز) + سایر کووارها، که در آن b1 = تفاوت در چرخ دنده با lg_hag بالاتر در بین کمترین میزان تحصیلات (کد 1) b1 + b2 = تفاوت در cog با lg_hag بالاتر در میان تحصیلات متوسط (کد شده به عنوان 2) b1 + b3 = تفاوت در cog با lg_hag بالاتر در بین تحصیلات عالی (کد شده به عنوان 3) b1 + b3 = تفاوت در cog با lg_hag بالاتر در میان تحصیلات بسیار عالی ( کد شده به صورت 4) b5 = تفاوت در cog با هر واحد افزایش در pdg سوال من این است: اگر تفسیر من درست است، چگونه می توان اعتماد ایجاد کرد فواصل برای هر تخمین اثر تعاملات (به عنوان مثال: b1+b2) از فواصل اطمینان b1 و b2. خیلی ممنون از پاسخ های شما یوسف | تفسیر ضرایب یک تعامل بین متغیر طبقه ای و پیوسته |
107477 | این سوال از یک تازه کار گیج است. من یک مجموعه داده دارم که در آن هر نقطه در یک فضای دو بعدی قرار دارد که توسط دو هدف (مثلا X و Y) تعریف شده است. میخواهم مجموعهای از نقاط را از این فضا مشخص کنم که فاصله آنها از X و y حداقل باشد. کارآمدترین / ساده / هدفمندترین رویکرد برای رسیدن به این هدف چیست؟ من با خوشهبندی k-means شروع کردم اما در نهایت به مواد مرتبط با بهینهسازی چندهدفه، خوشهبندی چندهدفه، مجموعه خوشهبندی و غیره پرداختم. اما آیا راهی برای شناسایی خوشه ها با استفاده از معیارهای خارجی مانند فاصله یک عضو خوشه از X و Y بالا وجود دارد؟ تبرها؟ آیا روشهای چندهدفه بیش از حد عمل خواهند کرد؟ آیا روش های پیشرفته بدون مزاحمت هستند؟ آیا این روش ها می توانند با مجموعه داده ای که از قبل وجود دارد کار کنند؟ رهبری در جهت درست بسیار قدردانی خواهد شد. متشکرم. | از چه روشی برای شناسایی خوشه استفاده کنیم؟ |
107953 | چرا SAS تصادفی و تکراری هر دو یک نتیجه را ایجاد می کنند؟ کسی میتونه این رو با جزئیات توضیح بده؟ برای مثال: proc mixed data=test; class variable1 ..... variableN; نتیجه مدل=متغیر1+...+متغیرN; رهگیری تصادفی/ موضوع=نوع خوشه=cs; اجرا؛ proc مخلوط داده=آزمون; class variable1 ..... variableN; نتیجه مدل=متغیر1+...+متغیرN; تکرار/ موضوع=نوع خوشه=cs; اجرا؛ چرا هر دو برنامه نتیجه یکسانی دارند؟ | چرا «تصادفی» و «تکرار» در مدلهای ترکیبی در SAS هر دو نتیجه یکسانی دارند؟ |
106192 | من در حال تلاش برای برازش این مدل هستم: $P = C_0 + C_1*U^r$ با توجه به بردارهای شناخته شده مشاهدات $P$ و $U$، می خواهم مقادیر را برای $C_0$، $C_1$ و $r$ برازش کنم. . چگونه می توانم این را در R مناسب کنم؟ یا ترجیحا GSL در C؟ آیا ممکن است؟ | برازش پارامتر غیرخطی |
104686 | من در حال انجام تجزیه و تحلیل داده ها با مجموعه داده ای از 11795 نقطه داده (با 88 ویژگی) هستم. 85% (9973 امتیاز) از این نقاط داده مربوط به نقاط داده متعلق به کلاس 1 است، 5% (589 امتیاز) متعلق به کلاس 2 و 10% (1233 امتیاز) متعلق به کلاس 3 است. من سعی می کنم یک مدل از آن بسازم. این داده برای پیش بینی کلاس نقاط داده جدید. من شروع به تعجب کردم که اگر مدل خود را با استفاده از این مجموعه داده بسازم، آیا به نفع نقاط داده کلاس 1 است؟ آیا تشخیص کلاس های فرکانس پایین برای مدل دشوار خواهد بود؟ به طور کلی چگونه می توان با مجموعه داده های نامتعادل مانند آنچه من دارم مقابله کرد؟ ممنون از هر راهنمایی =) P.S. من از روشهای k-نزدیکترین همسایه و رگرسیون خطی منظم استفاده میکنم. | نحوه برخورد با داده های نامتعادل |
113288 | آیا نقش/قدرت متغیرهای پنهان/مخفی در مدلهای گرافیکی و سایر مدلهای یادگیری ماشین (مانند مدلهای معادلات ساختاری) رفتار رسمی دارد؟ به عنوان مثال، ماشین محدود بولتزمن یک مدل گرافیکی است که یک نمایش فشرده از توزیع احتمال $x$ است، اما به عنوان یک توزیع مشترک با یک متغیر پنهان $h$ مدلسازی میشود (یعنی ما $p(x، h)$ به جای $p(x)$). چرا $p(x,h)$ قدرتمندتر از یک نمایش مناسب برای $p(x)$ است؟ | نقش/هدف متغیرهای پنهان در مدل های گرافیکی چیست؟ |
108806 | در R زمانی که یک مدل خطی را تنظیم می کنیم، با استفاده از تابع «NeweyWest» در بسته «ساندویچ» راهی برای محاسبه خطای استاندارد قوی newey وجود دارد، اما اگر یک مدل پروبیت دارید چگونه می توانید این کار را انجام دهید؟ هر تابعی وجود دارد که باید برای ایجاد یک برنامه. با تشکر | خطاهای استاندارد قوی نیوی وست در مدل پروبیت |
24912 | با توجه به $p_{ij}=\frac{|A_i|+|A_j|}{|A_i\cup A_j|}$ برای مجموعه $A_i$,$A_j$ $\forall i\not=j ,\forall i \ در \left \\{ 1,2...n \right \\} $ و با توجه به این واقعیت که $|A_i \cap A_j|>0$ برای همه $A_i,A_j$: واضح است که $p_{ij}$ > 1. $p_{ij}\in\mathbb{R}^+، \forall i,j$ و $|A_i|\in\mathbb{ Z}^+$ متغیرهای تصادفی هستند (کاردینالیته های مشاهده شده در مجموعه های محدود متغیرهای تصادفی هستند). $p_{ij}'s$ از یک نمونه مشاهده شده $|A_i|$,$|A_j|$ و کاردینالیته های $|A_i \cap A_j|، |A_i \cup A_j|، \forall i,j محاسبه می شود. دلار نیز شناخته شده اند. خواص: از آنجا که، $|A_i|+|A_j| >|A_i|\cup |A_j|$, $$\frac{|A_i|+|A_j|+\epsilon}{|A_i\cup A_j|+\epsilon}<\frac{|A_i|+|A_j|} {|A_i\cup A_j|};\forall \epsilon>0$$ یعنی برای مقادیر ثابت $|A_i|$ بیشتر از $|A_j|$ همیشه به $p_{ij}'s$ کوچکتر و مقادیر کوچکتر $|A_j|$ منجر به $p_{ij}'s$ بیشتر خواهد شد، همانطور که برای $|A_i|$ ثابت، صورت و مخرج به همان مقدار کم یا زیاد می شوند. همچنین، $max(p_{\mathbb{.}j})$ برای ستونهای مختلف $j$ میتواند متفاوت باشد. زمینه آماری کاربردی (a): هرچه مقدار $p_{ij}'s$ در یک ستون $p$ در مقایسه با ستون $q$ بزرگتر باشد، باعث می شود باور کنیم که مجموعه $p$ بهتر از مجموعه $q$ صرفا در یک وقتی می گویم بهتر سناریوی اعمال می شود. زمینه آماری کاربردی (ب): اینها کمی شبیه به این مثال کاربردی هستند: من در آزمون ریاضی 96/100 میگیرم و برادرم 450/500 میگیرد. چه کسی بهتر عمل کرد؟ اگر نسبت های مشاهده شده به ترتیب با اندازه های نمونه 100، 500 دو جمله ای در نظر گرفته شوند، راه هایی برای انجام این کار وجود دارد. در اینجا، اندازه نمونه ما در مخرج ثابت است، برخلاف مثال من که مخرج یک متغیر تصادفی است. اکنون برای تجزیه و تحلیل ستونهای ماتریس $P$، با ورودیهای $p_{ij}$، مسئله اصلی این است که محدوده مقادیر در ستونهای مختلف یکسان نیست. چگونه می توانم ستون ها را تغییر دهم/(همچنین ممکن است عادی سازی کنم) به گونه ای که همه آنها در یک محدوده ثابت [l,u] باشند و همچنین ورودی های ستون های مختلف به جای مقیاس بندی ستون های جداگانه باید در نظر گرفته شوند. این ممکن است نیاز به تغییر تعریف من از $p_{ij}$ داشته باشد یا ممکن است نیاز به تغییراتی در ستونهای گرفته شده با هم داشته باشد - یا هر دو. همچنین، اگر این جهت را ترجیح میدهید، میتوانید فرضیات توزیعی را بیش از $|A_i|$-دریافت کنید. | عادی سازی/مقایسه - زمانی که کاردینالیته مشاهده شده یک متغیر تصادفی است، در مجموعه های محدود |
18991 | سیستم معادلات را در نظر بگیرید: $$\begin{align} 2000 &= \frac{2T}{\chi^2_{2n+2}(1-\alpha)} \\\ 2370&= \frac{2T}{\ chi^2_{2n}(\alpha)} \\\ \end{align}$$ که در آن $\alpha = 0.90$، $n$ یک درجه است آزادی، و $T$ یک زمان تجمعی از تجربه است. چگونه $n$ و $T$ را محاسبه کنم؟ مشکل این است که چگونه $\chi^2_{2n+2}(1-\alpha)$ و $\chi^2_{2n}(\alpha)$ را برای یک سیستم معادلات واضح جایگزین کنیم. من سعی کردم توزیع کای دو را با توزیع نرمال استاندارد تقریب کنم، اما راه حلی پیدا نکردم. چگونه از این سیستم $n$ و $T$ را محاسبه کنیم؟ | حل یک سیستم معادله شامل توزیع کای اسکوئر |
102680 | من یک نظرسنجی دارم که جنسیت یک فرد (M/F)، منطقه جغرافیایی (غرب، شرق، غرب میانه، جنوب) و چند متغیر جمعیت شناختی دیگر را به همراه دوجین سوال میپرسم که در آنها میتوانند مخالف / کمی مخالف / کمی موافق / موافق باشند. دادهها به من داده شد و هر کسی که روی دادهها کار کرده است، پاسخها را به یک مخالف/موافق ساده تغییر داده است. من علاقه مندم که آیا افراد با جنسیت / منطقه / متغیر جمعیتی مختلف تفاوت هایی در پاسخ ها دارند یا خیر. به عنوان مثال، Q1 می تواند چیزی شبیه به شما اغلب استرس دارید و پاسخ ها موافق یا مخالف هستند. من می خواهم بدانم که آیا جنسیت با موافقت یا مخالفت با Q1 مرتبط است یا خیر. تحلیلی که به من پیشنهاد شد این بود که مجموعه ای از جداول احتمالی برای هر ترکیبی از متغیرهای جمعیت شناختی و سوالات بسازم. به عنوان مثال: جنسیت در مقابل Q1، منطقه در مقابل Q1، جنسیت در مقابل Q2 و غیره. سپس از آزمون دقیق فیشر یا آزمون کای دو استقلال در هر یک از جداول احتمالی استفاده می کنم. جدول مثال: > > Q1: موافقم مخالفم > مرد 10 30 > زن 15 32 > من دوجین سوال و حداقل 4 متغیر جمعیت شناختی دارم. اگر بخواهم همه ترکیب ها را انجام دهم، باید حداقل 96 تست مجذور کای انجام دهم. بدیهی است که این مسئله چندین تست را نیز به همراه دارد. به عنوان یک مسیر جایگزین، یکی از همکاران من رگرسیون لجستیک را با مدل زیر پیشنهاد کرد: > پاسخ به سؤال ~ جنسیت + منطقه + سایر متغیرهای جمعیتی + تعاملات. این بدان معناست که مدلهای کمی کمتر را نصب میکنند، اما با آزمایشهای متعدد همچنان همان مشکل را خواهند داشت. من هنوز باید یک رگرسیون لجستیک را برای هر سوال تنظیم کنم. همچنین موضوع تفسیرپذیری وجود دارد: توضیح نتایج یک آزمون کای اسکوئر بسیار ساده تر از توضیح رگرسیون لجستیک است. کدام تکنیک ارجح است؟ آیا راه بهتری برای مدیریت این داده ها وجود دارد؟ در هر صورت، چگونه باید با آزمایش چندگانه رفتار کنم؟ | آزمایش چندگانه: جدول احتمالی یا رویکرد رگرسیون لجستیک برای بررسی؟ |
105086 | من باید یک اسکریپت با استفاده از MATLAB بنویسم که داده های من را طبقه بندی کند. داده های من شامل 1051 صفحه وب (ردیف) و 11000+ کلمه (ستون) است. 230 سطر اول در مورد درس علوم کامپیوتر (با برچسب 1+) و 821 سطر باقیمانده نه (با برچسب -1) هستند. من قصد دارم چند قسمت از این ردیف ها را خودم برچسب گذاری کنم. سپس SVM سطرهای بدون برچسب باقی مانده را برچسب گذاری می کند. متوجه شدم که میتوانم مشکلم را با استفاده از متدهای «svmtrain()» و «svmclassify()» MATLAB حل کنم. ابتدا باید SVMStruct را ایجاد کنم. SVMStruct = svmtrain(Training,Group) سپس باید از Group = svmclassify(SVMStruct,Sample) استفاده کنم اما نکته این است که من نمی دانم 'Training' و 'Group' چیست. برای «گروه» Mathworks میگوید: > متغیر گروهبندی، که میتواند یک بردار طبقهبندی، عددی یا منطقی، یک بردار سلولی رشتهها، یا یک ماتریس کاراکتری باشد که هر ردیف نشاندهنده یک برچسب کلاس است. هر عنصر از گروه گروه مربوط به ردیف > آموزش را مشخص می کند. گروه باید آموزش را به دو گروه تقسیم کند. گروه دارای > همان تعداد عناصری است که ردیفهای موجود در Training وجود دارد. svmtrain هر > NaN، رشته خالی، یا «undefined» را در Group به عنوان یک مقدار گمشده در نظر می گیرد و ردیف مربوطه Training را نادیده می گیرد. و برای 'آموزش' گفته می شود که: > ماتریس داده های آموزشی، که در آن هر ردیف مربوط به یک مشاهده یا > تکرار و هر ستون مربوط به یک ویژگی یا متغیر است. svmtrain > NaN ها یا رشته های خالی در Training را به عنوان مقادیر گم شده در نظر می گیرد و ردیف های مربوطه > گروه را نادیده می گیرد. میخواهم بدانم چگونه میتوانم دادههایم را در «آموزش» و «گروه» بکارم؟ من به یک نمونه کد (حداقل) نیاز دارم. | چگونه داده هایی را که باید برای تابع svmtrain() در متلب پیاده سازی کنیم؟ |
2602 | اغلب بخشهایی از ماتریسهای همبستگی مالی را میبینم که از نظر آماری تفاوت معناداری با صفر ندارند. گاهی اوقات، این همبستگیها تأثیر ملموسی بر نتایج دارند - همبستگیهای کم منجر به مزایای تنوع بالا میشود. همچنین، علامت همبستگی می تواند نتایج را منحرف کند. آیا مناسب می دانید که این همبستگی ها را برابر با صفر قرار دهید تا حداقل از جهت گیری خلاص شوید و در صورت لزوم، مقادیر ویژه منفی که ممکن است در اثر چنین اصلاحاتی به وجود آیند، رفع شوند؟ | چگونه با همبستگی هایی برخورد کنیم که از نظر آماری تفاوت معنی داری با صفر ندارند؟ |
113284 | سلام می خواستم بدونم که آیا می توانیم مشکل برچسب نویز را با رویکرد نیمه نظارت شده مقایسه کنیم؟ همچنین آیا مقاله ای در مورد یادگیری با برچسب های پر سر و صدا وجود دارد؟ هر کمکی قابل تقدیر است. | برچسب پر سر و صدا به عنوان نیمه نظارت شده |
105556 | من برای هر یک از دو حالت چندین دنباله دارم. من می خواهم یک HMM را با اینها آموزش دهم تا وضعیت دنباله های ناشناخته را پیش بینی کند. در اینجا یک مثال برای این مشکل آورده شده است: حالت های <- c(خوب، بد) good_obs<- list(c(a, b, c) ,c(a،b c، c) ,c(a،c،c) ) bad_obs<- list(c(d،b،c) ,c(b ج، ج، الف) ,c(c،c،a) ,c(c،c،a،a) )known_obs<- list(c(d,b, c) ,c(c،a) ,c(c،c،c،a) ,c(c،a،a) ) پس راه استفاده از hmm چیست <\- initHMM (حالت ها، نمادها) و baumWelch (هوم، مشاهده)؟ | روش آموزش مدل مارکوف پنهان در R با توالی های متعدد |
106199 | من نمی توانم قضیه زیر را تأیید کنم. شایدم دارم کار اشتباهی میکنم ولی نمیدونم چیه؟! علاوه بر این، من در مورد معنای یک ماتریس ثابت در قضیه مطمئن نیستم. قضیه: cov(AX)=Acov(X)A' اگر A یک ماتریس ثابت باشد. (A' به معنی جابجایی A، یعنی A^T است) مثال: A (10x5): 0.8727 0.7145 0.9147 0.6370 0.9760 0.8241 0.6210 0.0735 0.73318 0.73318 0.10. 0.9865 0.6090 0.7693 0.1135 0.9563 0.2369 0.5369 0.9876 0.7349 0.4313 0.9650 0.1657 0.4418 0.4418 0.7849 0.7876 0.5974 0.7669 0.4247 0.6411 0.9335 0.5238 0.9153 0.2126 0.6212 0.6423 0.3651 0.9752 0.5092 0.63920.6179 0.1673 0.8009 0.4691 0.4420 0.6289 0.3132 X (5x5): 0.6635 0.6323 0.5883 0.9362 0.0998 0.8298 0.3132 0.3786 0.3778 0.8553 0.6836 0.4701 0.5723 0.6803 0.0065 0.8085 0.1542 0.5780 0.7653 0.6389 0.9297 0.1418 0.1418 0.018 0.085x): 2.5820 2.8701 1.5202 2.3352 1.5188 1.2083 1.5127 0.9452 1.7493 0.9079 2.5253 2.7069 1.5259 2.3559 2.3556 1.9482 0.8562 1.3768 0.9861 1.9542 1.8325 1.1795 1.7078 1.0380 1.9469 2.2502 1.1887 1.9111 1.9111 1.1204 1.124 1.2045 1.7985 1.3707 1.8312 2.0105 0.9173 1.3278 1.0287 1.2828 1.7403 0.9404 1.7555 1.2554 1.2554 1.5049 1.504 1.7633 1.0443 cov(X) 5x5: 0.1190 -0.0345 0.0457 0.0139 -0.0482 -0.0345 0.0429 -0.0316 -0.0557 -0.00415 0.00415 - 0.00415 - 0.00415 0.0563 -0.0132 0.0139 -0.0557 0.0563 0.1175 0.0102 -0.0482 0.0015 -0.0132 0.0102 0.1009 cov(AX) (5229/8) (5229/8: 70) 0.1011 0.0827 0.1984 0.1960 0.0916 0.1063 0.0874 0.0988 0.0916 0.0576 0.0745 0.0455 0.1013 0.1015 0.1014 0.1014 0.0618 0.0827 0.0874 0.0455 0.0618 0.0510 اما A*cov(X)*A' (10x10): 0.2195 0.12119 0.20872 0.077985 0.077985 0.077985 0.0514 0.11964 0.14558 0.15641 0.12119 0.09362 0.12556 -0.0017266 0.10372 0.08966 0.081364 0.034694 0.034694 0.034694 0.034694 0.034694 0.02020202094 0.12556 0.20256 0.057506 0.15142 0.15574 0.15915 0.10193 0.14583 0.1577 0.077985 -0.0017265 0.0017265 0.051150151501. 0.059279 0.089875 0.099947 0.026385 0.015011 0.15076 0.10372 0.15142 0.015719 0.12378 0.1104560.11292. 0.10669 0.12511 0.16413 0.08966 0.15574 0.059279 0.11292 0.12295 0.12914 0.090107 0.10648 0.10648 0.10648 0.11292 0.11292 0.15915 0.089875 0.10434 0.12914 0.14732 0.11382 0.11134 0.11072 0.11964 0.034694 0.10193 0.10193 0.0101050.0994 . 0.15641 0.11002 0.1577 0.015011 0.12511 0.11599 0.11072 0.057124 0.12169 0.13273 | چرا cov(AX)=A cov(X) A' |
105080 | من سعی داشتم یک مدل پواسون در OpenBUGS با کدهای زیر بسازم: model{ for(i in 1:N){ Y[i]~dpois(mu[i]) log(mu[i]) <- b[1 ]+b[2]*SU_WI[i]+b[3]*VMT[i] } برای (j در 1:3){ b[j]~dnorm(0,0.001) } } وقتی این کدها را در OpenBUGS اجرا میکنم، فایل log موارد زیر را نشان میدهد: > متأسفیم مشکلی در فرآیند Updater.Mode در ماژول رخ داد > UpdaterRejection آیا میتوانید به من کمک کنید تا این مشکل را حل کنم؟ من همچنین باید یک مدل خرابی چند متغیره (3 متغیر وابسته) در OpenBUGS با 5 متغیر مستقل بسازم که در آن خرابی ها رویدادهای گسسته هستند (توزیع شده توسط پواسون). آیا می توانید چند کد نمونه برای ساخت چنین مدلی به من بدهید؟ | رد به روز رسانی ماژول |
33412 | با توجه به مقداری داده $y$، وابسته به پارامتر $\theta$، مقداری چگالی $p(\theta | y)$ دارم. اکنون میخواهم استنباط کنم که چه مقدار $\theta$ به احتمال زیاد $y$ منشا گرفته است. یکی از امکانهای انجام این کار، محاسبه برآورد MAP $\theta$ است. با این حال، میخواستم بدانم آیا راههای دیگری برای یافتن نامزدهای $\theta$، ترجیحاً در یک محیط بیزی وجود دارد؟ | جایگزین های برآوردگر MAP |
20920 | من در حال شبیه سازی یک سیستم برای محاسبه میانگین معیار قابلیت اطمینان سیستم خود هستم. بنابراین، من آزمایشهای $n$ را انجام میدهم که در هر آزمایش کل سیستم را شبیهسازی میکنم. سپس من میانگین این $n$ نتایج را می گیرم. اکنون این کار را با $n=10,100,1000,\dots$ انجام می دهم. هر بار ضریب تغییرات ($CV$) را نیز محاسبه می کنم. متوجه شدم که $n=10$ یک $CV$ کمتر از $n=100$ می دهد. اهمیت این نتیجه چیست؟ یعنی همگرا نیست؟ برای به دست آوردن نتیجه ای که تقریباً برابر با مقدار واقعی است، باید چند آزمایش انجام دهم. | تفسیر ضریب تغییرات برای یک سیستم |
113286 | من سعی میکنم مدل توزیع گونههایم را با نرخ مکانهای کشفشده/پیشبینیشده ارزیابی کنم. به عنوان مثال، مدل من در یک آستانه اعلام شده 50 سلول مناسب شبکه را پیش بینی می کند. سپس، پس از بررسی های میدانی، جمعیت های جدیدی را در 20 شبکه از آنها کشف می کنم. مقدار به سادگی 20/50 خواهد بود. چگونه می توانم این شاخص را صدا کنم؟ داشتم به حساسیت ذاتی یا نرخ کشف واقعی فکر می کردم. هر پیشنهادی؟ پیشاپیش ممنون | نرخ کشف واقعی یا حساسیت ذاتی؟ |
105557 | من به تازگی شروع به یادگیری در مورد MCMC کرده ام (با استفاده از PyMC)، و به نظر می رسد چکشی است که می تواند برای حل یک کلاس بزرگ از مسائل استنتاج و بهینه سازی استفاده شود. در حالی که میدانم روشهای بسیار برتری برای حل مسائل LP وجود دارد (مانند الگوریتمهای نقطه داخلی)، آیا میتوان از MCMC برای حل یک مسئله LP تصادفی استفاده کرد؟ منظور من از تصادفی، برای مثال، توزیعهای روی ضرایب و یا محدودیتها، و گرفتن یک احتمال پسین در راهحل است که نشاندهنده میزان خوب بودن راهحل است: * عدم قطعیت در ضرایب/قیود * عدم قطعیت در جواب (با توجه به اینکه MCMC تخمینی به شما می دهد) من با PyMC بیشتر آشنا هستم، بنابراین می دانم که آیا مطالبی در مورد حل LP وجود دارد (یا مسائل بهینه سازی عمومی) با PyMC یا کتابخانه های مشابه. به عنوان مثال: \begin{equation*} \begin{array}{rrl} \mathbf{x}^* = \underset{\mathbf{x}}{\text{arg}\;\text{min}} & c_1x_1 -3x_2\\\ \mbox{s.t.} & -x_1 +x_2 & \le b_1 \\\ & x_1، x_2 و \geq 0 \end{آرایه} \end{معادله*} و کجا: * $c_1 \sim N(2,0.5)$ * $b_1 \sim N(0,3)$ هدف محاسبه $pdf\mathbf(x است ^*) = \text{p}(x_1, x_2)$ من پیشینه ای در MRF و مدل های گرافیکی به طور کلی دارم، بنابراین معتقدم می توانم از پتانسیل PyMC برای حل مشکل استفاده کنم. مشکل آیا نمونههای شناختهشدهای وجود دارد که از «پتانسیلها» برای ایجاد مشکل گرافیکی مشابه آنچه در بالا توضیح داده شد استفاده میکند؟ | برنامه نویسی تصادفی با MCMC |
113289 | من چندین سؤال نظرسنجی دارم که به پاسخدهندگان اجازه میدهد سه گزینه برتر خود را از میان مجموعهای از پاسخهای بالقوه انتخاب کند - اساساً «مهمترین، دومین و سومین مهمترین چیست». این باعث میشود که من یک سوال ترتیب رتبهای حاوی چندین مقدار گمشده داشته باشم، زیرا بیش از سه گزینه برای انتخاب وجود دارد. من از برخی از روش های سنتی تجزیه و تحلیل برای رتبه بندی (مثلاً Wilcoxon، Spearman، Friedman Test، و غیره) آگاه هستم، اما معتقدم که همه اینها مستلزم رتبه بندی هر گزینه هستند، نه فقط یک n ام برتر. آیا پیشنهادی در مورد بهترین روش برای تجزیه و تحلیل این نوع داده ها وجود دارد؟ | تجزیه و تحلیل ترتیب رتبه با مقادیر از دست رفته |
33414 | من از بسته ROCR استفاده می کنم و می خواستم بدانم چگونه می توان منحنی ROC را برای مدل `knn` در R رسم کرد؟ آیا راهی برای ترسیم همه چیز با این بسته وجود دارد؟ من نمی دانم چگونه از تابع پیش بینی ROCR برای knn استفاده کنم. این مثال من است، من از مجموعه داده ایزوله از مخزن UCI استفاده می کنم که در آن ویژگی کلاس را به y تغییر نام دادم: cl <- factor(isolet_training$y) knn_isolet <- knn(isolet_training, isolet_testing, cl, k=2, prob=TRUE) اکنون سوال من این است که چه استدلال هایی برای انتقال به تابع پیش بینی ROC وجود دارد. من 2 گزینه زیر را امتحان کردم که کار نمی کنند: library(ROCR) pred_knn <- prediction(knn_isolet$y، cl) pred_knn <- prediction(knn_isolet$y، isolet_testing$y) | منحنی ROC برای مدل knn |
99111 | من می خواهم بتوانم ماتریس انتقال یک مدل مارکوف را به حاشیه ببرم. هدف بدست آوردن احتمال نهایی در مورد تعداد حالت های لازم برای توضیح داده ها است. چیزی که بتواند راه حل تحلیلی ارائه دهد، بهترین خواهد بود، اما از آنجایی که من تازه وارد این مشکل هستم، بنابراین هر مرجع، توصیه یا توصیه ای پذیرفته می شود. | ماتریس های قبل از انتقال زنجیره مارکوف |
92230 | من می خواهم تابع توزیع احتمال را برای سناریوی زیر پیدا کنم، شبیه به روش تطبیقی کامپیوتری (IRT) است. | استفاده از توزیع بتا برای محاسبه متغیرهای پنهان |
32992 | با توجه به دو تخمین روند خطی $m_1$، $m_2$، با خطاهای مربوطه $e_1$، $e_2$، چگونه می توانم تعیین کنم که آیا دو تخمین روند در خطاها یکسان هستند؟ **ویرایش:** هر دو تخمین از رگرسیون خطی مشتق شده اند. دو سری زمانی هر دو از اندازهگیریهای زیربنایی یکسانی مشتق شدهاند، اما به روشهای مختلف از قبل پردازش شدهاند. من عادی بودن را فرض می کنم. | چه زمانی دو تخمین روند در خطاها یکسان هستند؟ |
20921 | فرض کنید یک مطالعه انتخاب پارامتر را در محیطی با نقاط داده نه چندان زیاد انجام می دهید. دادههای موجود را به مجموعههای آموزشی و آزمایشی تقسیم میکنید و قصد دارید مدل آینده را در یک مجموعه اعتبارسنجی جداگانه تأیید کنید. شما تمام اکتشافات خود را روی مجموعه آموزشی انجام می دهید و زمانی که از پارامترهای انتخاب شده راضی هستید، یک مدل به دست می آورید و آن را روی مجموعه تست آزمایش می کنید. گاهی اوقات شما مدل خود را با توجه به نتایج مجموعه آزمایش تنظیم می کنید، اما این تنظیم ها را به حداقل می رسانید. اکنون شما آماده هستید که مدل خود را منتشر کنید و آن را با استفاده از یک مجموعه داده اعتبارسنجی خارجی تأیید کنید. آیا با استفاده از ترکیب آموزش و مجموعه تست، مدل را مجدداً آموزش میدهید (مجدداً پارامترها را کالیبره کنید)، یا به آنچه دارید پایبند میمانید؟ | با داده های آزمایشی خود چه می کنید؟ |
102681 | آیا می توان الگوریتم تشخیص ناهنجاری ساخت تا بتوان کاربر واقعی را از خزنده ها/عنکبوت ها با اطمینان بالا متمایز کرد؟ من به داده های ردیابی کاربر دسترسی دارم که در آن اطلاعات مربوط به جلسه مشتری، آدرس IP و مشتری آب و هوا می تواند جاوا اسکریپت را پردازش کند. بر اساس آن دادهها، میتوانم محاسبه کنم که مشتری چند صفحه را بازدید کرده است و آنتروپی زمان بین درخواستها چقدر است. من همچنین میدانم که کدام جلسات تبدیل شده است که میتوانم از دادههای غیرعادی من برای آموزش استفاده کنم. به طور خلاصه من 3 ویژگی دارم که فکر می کنم می توانم استفاده کنم: - تعداد درخواست ها - *آنتروپی محاسبه شده بر اساس زمان صرف شده در هر صفحه - می توانم JS را اجرا کنم آیا ویژگی های ممکن یا بهتر دیگری وجود دارد که بتوان از آن استفاده کرد؟ آیا این مشکل با یادگیری ماشینی قابل حل است؟ خزندههای `*` معمولاً زمان زیادی را در صفحه صرف نمیکنند، بنابراین زمان بین درخواستها با فواصل مشابه بسیار کوتاه خواهد بود. این مقدار آنتروپی کوچکی می دهد. بازدیدکنندگان واقعی الگوی تصادفی بیشتری تولید می کنند. | استفاده از یادگیری ماشین برای تشخیص کاربران از خزنده ها |
99117 | اصل تطابق امتیاز گرایش، همانطور که من متوجه شدم، به شرح زیر است: شما می خواهید میانگین اثر درمانی (ATE) یک درمان را بر روی برخی از نتایج تخمین بزنید. با این حال، اگر شما به سادگی تفاوت بین میانگین نتیجه گروههای تحت درمان و درمان نشده را محاسبه کنید، اگر عواملی که بر متغیر نتیجه تأثیر میگذارند در وهله اول بر احتمال دریافت درمان نیز تأثیر بگذارند، این ممکن است یک برآورد مغرضانه از ATE باشد. تطبیق امتیاز تمایل این مشکل را با تطبیق مشاهدات درمان شده و درمان نشده با احتمالات مشابه دریافت درمان (از طریق رگرسیون لجستیک وضعیت درمان روی متغیرهای کمکی) به حداقل می رساند و سپس ATE را به عنوان میانگین تفاوت در نتایج در بین جفت های همسان تخمین می زند. تا اینجای کار خیلی خوبه؟ این از نظر مفهومی خوب به نظر می رسد، اما جایی که من مشکل دارم این است که ببینم چگونه مکانیک واقعی به نتایج متفاوتی برای تخمین ATE منطبق می شود. برای نشان دادن: فرض کنید چهار نفر، $X_a، X_b، Y_a، Y_b$، که $X$ نشان می دهد که فرد درمان را دریافت نکرده است، $Y$ نشان می دهد که فرد درمان را دریافت کرده است، $a$s مشابه هستند. مقادیر کمکی به یکدیگر، و $b$s دارای مقادیر متغیر کمکی مشابه با یکدیگر هستند. و فرض کنید $F(^*)$ نتیجهای را نشان میدهد که برای آن تلاش میکنید اثر درمان را تخمین بزنید. شما ابتدا ATE را ساده لوحانه تخمین می زنید و به تفاوت ساده در میانگین نتیجه درمان شده و میانگین نتیجه درمان نشده نگاه می کنید. تخمین ساده ATE: $\frac{F(Y_a)+F(Y_b)}2 - \frac{F(X_a)+F(X_b)}2$ در مرحله بعد، ابتدا ATE را با تطبیق در امتیاز تمایل تخمین می زنید. همانطور که گفته شد، زیرنویسی که هر فرد را نمایه می کند، مقادیر کمکی را منعکس می کند، و بنابراین پس از اجرای رگرسیون لجستیک (با نادیده گرفتن مسائل مربوط به اندازه نمونه)، متوجه می شویم که $X_a$ و $Y_a$ امتیازهای تمایل مشابهی به یکدیگر دارند، در حالی که $X_b$ و $Y_b$ امتیازهای گرایش مشابهی به یکدیگر دارند. ما به بررسی میانگین تفاوت بین این جفتهای همسان میپردازیم. تخمین مشابه ATE: $\\{[F(Y_b)-F(X_b)] + [F(Y_a)-F(X_a)]\\}/2$ **مشکل این است که هم تخمین ساده ATE و هم تخمین ATE همسان از نظر ریاضی معادل هستند!** اکنون مطمئن هستم که در فرمول بندی تخمین ATE منطبق اشتباه کرده ام. سوال من این است که کجا اشتباه کردم؟ P.S: میدانم که تطبیق امتیاز تمایل میتواند برای حذف مشاهداتی که مطابقت مناسبی ندارند نیز استفاده شود، اما میخواهم این مورد را نادیده بگیرم زیرا درک من از تطبیق امتیاز تمایل این است که باید به تخمینی متفاوت از یک تخمین سادهلوح منجر شود. تخمین حتی اگر همه مشاهدات مطابقت داشته باشند. | تطبیق امتیاز تمایل - چگونه مکانیک ها به نتیجه ای متفاوت از نتایج بی همتا منجر می شوند؟ |
24002 | فقط یه سوال کلی آیا پیاده سازی های غیرخطی SVM (هسته ای) خوبی وجود دارد که شامل یک جزء منظم سازی باشد (مانند $L_1$، SCAD و غیره)؟ من به اطراف نگاه کردم، اما در همه جا تعداد زیادی بیت و کدهای مختلف به زبان های مختلف وجود دارد. من مواردی را در R دیده ام، اما به نظر می رسد که اکثر پیاده سازی های منظم SVM از یک هسته خطی استفاده می کنند. هر گونه افکار پیشنهادی استقبال می شود. با تشکر از همه! | اجرای SVM منظم غیر خطی |
20929 | من می خواهم با اجرای یک مدل arimax روی داده های خود پیش بینی کنم. داده ها مانند: Value1، Flag1، Flag2، .................، FlagN Value2، Flag1، Flag2، .............. ..., FlagN Value3, Flag1, Flag2, ................., FlagN Value4, Flag1, Flag2, .............. ..., FlagN Value5, Flag1, Flag2, ................., FlagN .... ValueM, Flag1, Flag2, .................، FlagN بنابراین، وقتی میخواهم یک پیشبینی جدید انجام دهم، مقادیر پرچم را به مدل ارائه میدهم، سپس آن میتواند مقدار پیشبینی را به من بدهد؟ چگونه می توانم داده های ورودی را آماده کنم؟ تابع R مناسب و روش مناسب فراخوانی چیست؟ | تابع R Arimax |
113637 | من باید با انتخاب یک سطح معنیداری، دو کمیت را که معمولاً با عدم قطعیت اندازهگیری مربوطه توزیع میشوند (با قانون انتشار خطا کمی) مقایسه کنم. چگونه می توانم مقایسه بین دو گروه را بدون از دست دادن اطلاعات در مورد اندازه گیری انجام دهم؟ و برای سه یا چند گروه؟ متشکرم | دو معیار را با عدم قطعیت اندازه گیری مقایسه کنید |
99113 | من در حال خواندن مقاله ای هستم که هدف آن بهینه سازی تابع زیر است:  $h()$ یک تابع ضرر است و $\lambda$ یک پارامتر منظم سازی است. ایده در $h()$ این است که هرگاه $p_l-p_d > 0$ باشد، $h()$ یک جریمه خواهد داد. اکنون راه اصلی برای بهینه سازی این تابع، محاسبه گرادیان تابع و سپس استفاده از گرادیان نزول است. سپس فرد فقط مقادیر گرادیان ها را به روز می کند تا زمانی که شرط پایان در نزول گرادیان معتبر شود. اما سوال من این است: آیا نقش پارامتر تنظیم در اینجا از بین نمی رود؟ زیرا وقتی گرادیان تابع را محاسبه می کنید، پارامتر منظم سازی از معادله گرادیان محو می شود. در اینجا مشتق جزئی تابع از مقاله است:  بنابراین چیزی که من نمی فهمم فقط نقش پارامتر تنظیم است. . امیدوارم اگر بتوانید آن را روشن کنید. | نقش پارامتر تنظیم در هنگام بهینه سازی یک تابع |
108790 | من سعی می کنم فرمول توزیع شرطی یک متغیر را در شبکه بیزی استخراج کنم: $$p(x_j|x_{-j})=p(x_j|x_{pa(j)})\prod_{k\in ch(j)}p(x_k|x_{pa(k)})$$ من جداسازی D و اینکه چرا این متغیرها تنها درگیر هستند را میدانم، اما به نظر نمیرسد که حق اشتقاق به ویژه، انتگرال در مخرج باید به 1 ارزیابی شود، و من نمی دانم چرا. به هر حال، این تلاش من است: $$p(x_j|x_{-j})=\frac{p(x)}{p(x_{-j})}=\frac{\prod_i p(x_i|x_{pa (i)})}{\int \prod_i p(x_i|x_{pa(i)})dx_j} $$ $$=\frac{p(x_j|x_{pa(j)})\prod_{i\neq j} p(x_i|x_{pa(i)})}{\prod_{k\neq j, k\ notin ch(j)} p(x_k|x_{pa(k)})\int p(x_j|x_{pa(j)})\prod_{l\in ch(j)}p(x_l|x_{pa(l)})dx_j}$$ $$ \frac{p(x_j|x_{pa(j)})\prod_{k\in ch(j)}p (x_k|x_{pa(k)})}{\int p(x_j|x_{pa(j)})\prod_{l\in ch(j)}p(x_l|x_{pa(l)})dx_j}$$ برای به دست آوردن پاسخ درست، انتگرال باید برابر با 1 باشد، اما من نمیدانم چرا باید اینطور باشد. | مشتق توزیع مشروط مارکوف |
113965 | یک سیستم طبقه بندی چهار دسته برای افراد مبتلا به اچ آی وی وجود دارد که مراحل 1، 2، 3 و 4 را نشان می دهد که مراحل بالاتر نشان دهنده بیماری پیشرفته تر است. تعداد سلول ها یک متغیر پیوسته است و شما علاقه مند به مقایسه میانگین تعداد سلول ها در مراحل مختلف هستید. سوال من این است که اگر مراحل را به صورت اسمی یا ترتیبی در نظر بگیرم چگونه مدل تغییر می کند؟ امیدوارم توضیحات من در زیر درست باشد. از چه آزمونی می توانم استفاده کنم تا ببینم استفاده از یک رابطه ترتیبی مناسب است یا اینکه ببینم آیا یک مدل تناسب بهتری دارد؟ اولین فکر من این بود که به ارزش $R^2$ نگاه کنم، اما این خیلی ساده به نظر می رسد. **مدل اسمی:** $E(Y)=b_0+b_1X_1+b_2X_2+b_3X_3$، با X_1، X_2، X_3$ همه نشانگر مراحل مختلف هستند. مرحله 1 مرحله مرجع است به طوری که $E(Y)=b_0$ برای مرحله 1، $E(Y)=b_0+b_1$ برای مرحله 2 و غیره **مدل معمولی:** آیا اساساً مراحل را به عنوان یک متغیر پیوسته؟ $E(Y)=b_0+b_1X_1$، که در آن $X_1$ شامل مراحل است: مرحله 1=1، مرحله 2=2 و غیره. | در نظر گرفتن داده های دسته بندی به عنوان اسمی یا ترتیبی؟ |
113860 | من مدلی دارم که تابع log likelihood، گرادیان log درست نمایی و Hessian احتمال log را می دانم. برای داده های داده شده می توانم MLE را با استفاده از یک بهینه ساز عمومی (Nelder-Mead) محاسبه کنم. چگونه خطای استاندارد MLE را محاسبه کنم (یا تخمین بزنم)؟ اگر نرم افزار موجودی وجود داشته باشد که این کار را آسان کند، البته بهتر است. | نحوه محاسبه (یا تخمین عددی) خطای استاندارد MLE |
20926 | من جدول Chi-squared ارائه شده در 100 آزمون آماری (ویرایش سوم، 2006) توسط Gopal K. Kanji را که بخشی از آن در زیر بازتولید شده است، زیر سوال می برم.  به طور خاص، من فکر می کنم سطح اهمیت دو طرفه و یک طرفه در سمت راست باید 0.02 و 0.01 باشد، به جای 0.01 و 0.005 (بازیابی سازگاری با مقادیر زیر، و همچنین منظم تر کردن پیشرفت از چپ به راست). آیا کسی می تواند یک تایید مستقل بدهد؟ (ویرایش: که اکنون در نظرات انجام می شود). آیا کسی با دسترسی به نسخه 1995 می تواند بگوید که آیا جدول مشابه است؟ (ویرایش: این مرجع در W. Killmann, W. Schindler، پیشنهادی برای: کلاس های عملکردی برای مولد اعداد تصادفی، نسخه 2.0، 18 سپتامبر 2011 استفاده شده است، و در این زمینه، سمت راست ترین ستون در آن جدول Chi-squared مرتبط است. ). | آیا در این جدول Chi-squared منتشر شده خطایی وجود دارد؟ |
33411 | بیایید فرض کنیم میخواهم یک طبقهبندیکننده ساده باینری بیز با کلاسهای $y_0، y_1$ و $n$-dmensional classifier آموزش دهم. برای این کار باید احتمالات شرطی $P(x_i | y_j) $ را برای همه جفتهای $i,j$ محاسبه کرد. هنگامی که توزیع گسسته است، بسیار ساده است، اما فرض کنیم باید تابع چگالی احتمال پیوسته را برازش کنم. فرض کنید من توزیعهای گاوسی و پواسون را در نظر میگیرم و میخواهم احتمال بیشتری را انتخاب کنم (از اصل ML استفاده کنید). چگونه می توانم انتخاب کنم که کدام توزیع مناسب تر است و پارامترهای ($\lambda، \mu، \sigma)$ برای آن توزیع ها چه باید باشد؟ | چگونه توزیع و پارامترهای توابع چگالی احتمال پیوسته را در بیز ساده با استفاده از حداکثر احتمال انتخاب کنیم؟ |
99118 | با خواندن چند پست، هنوز نتوانستم پاسخی برای سوالم پیدا کنم. من در تلاش برای بررسی تأثیر متغیر C بر روی یک مجموعه داده طولی هستم. من دو مدل خطی اثر مختلط ارائه شده در زیر دارم: `A.lme <- lme(A ~ B + C، داده = داده 1، تصادفی = ~ 1 | id)` `B.lme <- lme( A~ B*C, data = data1، random = ~ 1 | من فقط می خواهم مطمئن شوم که این دو را به درستی تفسیر می کنم. من معتقدم برای بررسی متغیر C، باید «B.lme» را تجزیه و تحلیل کنم. B نشان دهنده زمان است در حالی که A نشان دهنده سلول های ایمنی در بدن است در حالی که C نشان دهنده وضعیت عفونت ویروسی است. خلاصه و آنووا برای B.lme نشان میدهد که C هیچ تأثیر قابلتوجهی بر روی بریدگی و شیب ندارد، همانطور که در زیر آورده شده است: > خلاصه (B.lme) مدل اثرات مختلط خطی متناسب با دادههای REML: data1 AIC BIC logLik 4238.806 4270.106 -2113.403 Random اثرات: فرمول: ~1 | id (Intercept) Residual StdDev: 0.9242001 0.9692625 اثرات ثابت: A ~ C + B + C: B Value Std.Error DF t-value p-value (Intercept) -3.0675750 0.6212130 - 0.6212130 6.008 - 1108. 0.7364624 0.6264595 244 1.175595 0.2409 B 0.2200117 0.1988966 1118 1.106161 0.2689 C:B 0.0131214360 0.065696 0.9476 همبستگی: (Intr) C B C -0.992 B -0.849 0.842 C:B 0.844 -0.844 -0.994 باقیمانده های استاندارد شده درون گروهی: حداقل Q1 Med Q3 حداکثر -8.5119724 -8.511924 0.05365992 0.47695927 7.43457534 تعداد مشاهدات: 1366 تعداد گروه ها: 246 anova(B.lme) numDF denDF F-value p-value (Intercept) 1 1118 2010 810 <4. 3.7171 0.0550 B 1 1118 117.6260 <.0001 B:C 1 1118 0.0043 0.9476 وقتی نگاه دقیق تری به A.lme داشتم، خلاصه/anova نشان می دهد که متغیر C قابل توجه است. >summary(A.lme) مدل اثرات مختلط خطی متناسب با REML داده: data1 AIC BIC logLik 4235.429 4261.517 -2112.715 اثرات تصادفی: فرمول: ~1 | id (Intercept) Residual StdDev: 0.9228998 0.9690801 جلوه های ثابت: A ~ B + C Value Std.Error DF t-value p-value (Intercept) -3.1021904 0.3332309 11094 -930.1119. 0.2330059 0.0214786 1119 10.848303 0.0000 C 0.7713974 0.3352298 244 2.301100 0.0222 همبستگی: (Intr) 71 B -0.01 استاندارد شده باقیماندههای درون گروهی: حداقل Q1 Med Q3 حداکثر -8.51328019 -0.38179254 0.05385169 0.47724088 7.43658227 تعداد مشاهدات: 1366 تعداد گروهها: 246 F-246 anova p-value (Intercept) 1 1119 813.4873 <.0001 B 1 1119 116.1162 <.0001 C 1 244 5.2951 0.0222 سؤال من این است که کدام یک از این دو مدل برای بررسی C به عنوان همواری مناسب تر است؟ سوال دوم من این است که اهمیت p-value C در A.lme چقدر مهم است - به نظر می رسد این به من نشان می دهد که C تأثیر قابل توجهی بر شیب و قطع دارد اما وقتی با B (C:B) ترکیب نمی شود. آیا می توانم با خیال راحت نتیجه بگیرم که C در B.lme مهم نیست؟ من از بسته nlme در R استفاده می کنم. از هرگونه کمکی بسیار قدردانی می شود. | بررسی متغیرهای کمکی در مدل اثر مختلط |
33418 | چگونه می توانم مربع را از نقطه ای که در آن ترک کرده ام کامل کنم، و آیا این تا اینجا درست است؟ من یک پیشینی معمولی برای $\beta$ به شکل $p(\beta|\sigma^2)\sim \mathcal{N}(0,\sigma^2V)$ دارم، برای دریافت: $p(\beta| \sigma^2)=(2\pi\sigma^2V)^\frac{p}{2}\exp[-\frac{1}{2\sigma^2}\beta^T\beta]$ کجا $\beta^T\beta$ $\sum\limits_{i=1}^p \beta_i^2$ است. احتمال من دارای یک توزیع نرمال برای نقاط داده y به شکل $p(y|\beta,\sigma^2)\sim\mathcal{N}(B\beta،\sigma^2I) $p(y| \بتا،\sigma^2)=(2\pi \sigma^2V)^\frac{n}{2}\exp[-\frac{1}{2\sigma^2}({\bf y}-{\bf B}{\bf \beta})^ T({\bf y}-{\bf B}{\bf \beta})]$ (توجه داشته باشید که $\beta$ نیز یک ماتریس/بردار است، \bf کار نمیکند.) برای گرفتن پستی من برای $\beta$ من موارد بالا را ترکیب کردم، فقط قسمت های نمایی را گرفتم، و سپس گسترش دادم تا به دست آید: $\exp[-\frac{1}{2\sigma^2}({\bf y}^T{\bf y }-{\bf y}^T{\bf B}\بتا-\بتا{\bf B}^T{\bf y}-\beta^T{\bf B}^T{\bf B}\beta)]\exp[-\frac{1}{2\sigma^2}({\bf \beta}^T{\bf B})]$. من عبارت $({\bf y}^T{\bf y})$ را حذف کردم، زیرا تابعی از $\beta$ نیست. قرار دادن یک عبارت بدون نمایی: $-\frac{1}{2\sigma^2}(-{\bf y}^T{\bf B}\beta-\beta{\bf B}^T{\ bf y}-\beta^T{\bf B}^T{\bf B}\beta+{\bf \beta}^T{\bf B})$. من می دانم که باید اصطلاحات مشابه را ترکیب کنم و به شکل توزیع نرمال چند متغیره قرار بگیرم، چیزی که هدف من است، اما مطمئن نیستم که چگونه این کار را انجام دهم؟ احتمالاً باید یک عبارت اضافی به عبارت اضافه کنم تا آن را به شکل صحیح درآورم؟ توجه: این یک تکلیف نیست، یک پروژه است، اما دانش کار بیزی من اصلا خوب نیست و بنابراین باید کار را درک کنم. من قصد دارم پس از وارد شدن به فرم چند متغیره، $\beta$ و سپس $\sigma^2$ را ادغام کنم. | چگونه مربع را با احتمال عادی و قبل عادی کامل کنم؟ |
113869 | در زیر خروجی ای را که از Stata برای مدل پروبیت سفارش داده شده ضمیمه کردم. آیا کسی می تواند به من کمک کند تا با استفاده از نتیجه زیر یک مدل بنویسم. متغیر پاسخ من فقط 4 مقدار دارد (1،2،3،4) چگونه از این مقادیر «cut1»، «cut2»، «cut3» استفاده کنیم؟ و خروجی این مدل چیست؟ من قبلاً اثرات حاشیه ای را نیز محاسبه کرده ام. . oprobit $ylist $xlist تکرار 0: احتمال ثبت = -160.49925 تکرار 1: احتمال ورود به سیستم = -100.40021 تکرار 2: احتمال ورود به سیستم = -98.813294 تکرار 3: احتمال log = -98.808725 -98.808725 رگرسیون پروبیت مرتب شده تعداد obs = 116 LR chi2(7) = 123.38 Prob > chi2 = 0.0000 احتمال ورود = -98.808725 شبه R2 = 0.3844 ------------------------------------------------ ------------------------------- گروه | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] ----------------------------------------------- --------------------------------- croparaa | -.0044757 .0446911 -0.10 0.920 -.0920686 .0831172 extendmatch | .0005474 .0008678 0.63 0.528 -.0011535 .0022484 yph | .0014538 .0002664 5.46 0.000 .0009316 .001976 f | .1608188 .0261527 6.15 0.000 .1095605 .2120771 rgrades | .1679009 .0337117 4.98 0.000 .1018272 .2339746 fids | -.0122489 .0106266 -1.15 0.249 -.0330766 .0085788 تورن | -.0020711.000774 -2.68 0.007 -.0035881 -.0005541 ------------------------------------------------- ------------------------------- /برش1 | 2.527195 .7611804 1.035309 4.019081 /cut2 | 3.953545 .810334 2.365319 5.54177 /cut3 | 5.20216 .8543101 3.527744 6.876577 -------------------------------------------- ------------------------------------ احتمالات حاشیه نیز محاسبه شد. | چگونه مدل پروبیت مرتب شده را تفسیر کنیم؟ |
102689 | من با تحلیل هایی که باید انجام دهم مشکل دارم. من یک سری پسرفت دارم. برخی از پیش بینی کننده های این رگرسیون مقوله ای با سطوح چندگانه هستند. من رگرسیون های خطی و لجستیکی را انجام دادم و با توجه به عوامل مختلف، خط پایه را برای این دسته انتخاب کردم. مشکل این است که همکاران من نه تنها برای تقابل عوامل با یک خط مبنا، بلکه یک تقابل دوتایی نیز درخواست کردند. مانند شما، این آزمایش برای انجام یک آزمون تعقیبی برای ANOVA استفاده می شود (آنها در زمینه رگرسیون و مزایای آن بسیار جدید هستند). چگونه باید به این موضوع نزدیک شوم؟ من به چند راه حل فکر کردم: * زیرمجموعه: این زیرمجموعه ای است که داده ها شامل دو عامل در زمان می شود و بنابراین رگرسیون را یک بار در هر زیر مجموعه تکرار می کند. * تقسیم: تقسیم ستون دسته در یک ستون برای هر فاکتور و قرار دادن 0 و 1 به عنوان سطوح. علاوه بر این، این رویکرد میتواند به دو روش انجام شود: * قرار دادن تمام ستونهای جدید در رگرسیون (با توجه به اینکه آنها متقابلاً منحصر به فرد هستند). * قرار دادن یک ستون در زمان، ضرب رگرسیون. با توجه به صحت آماری و حجم کار، کدام رویکرد را پیشنهاد می کنید؟ به خصوص، تفاوت مفهومی بین این سه روش چیست؟ خیلی ممنون | رویکرد به آزمون تعقیبی برای عوامل در یک رگرسیون (در R) |
24003 | من یک مجموعه داده با 43422 مشاهده و یک متغیر وابسته سانسور شده چپ (در 0) دارم. از $n$ مشاهدات، 42536 مورد سانسور چپ و 886 سانسور نشده است. من قصد دارم این را با یک مدل Tobit تجزیه و تحلیل کنم و متوجه شدم که سه پیاده سازی مختلف در R وجود دارد (AER، VGAM و censReg). بدون فکر کردن به یک مدل، تصمیم گرفتم در برابر چند متغیر دیگر در مجموعه داده رگرسیون کنم تا احساسی برای ارائه داشته باشم. مدل مزخرف است، اما موضوع نباید این باشد. با کمال تعجب، پاسخهای بسیار متفاوتی برای یک مدل برای اجرای «AER» و «VGAM» توبیت دریافت میکنم و «censReg» هرگز برنمیگردد. بنابراین من دوباره در Stata امتحان کردم، که حداقل پاسخ های معقولی را ارائه می دهد (صحت تأیید نشده است). سوال من این است که چه چیزی می تواند باعث شود که پیاده سازی های AER، VGAM و CensReg این گونه رفتار کنند؟ آیا ممکن است مدل من خیلی سانسور شده باشد؟ | رگرسیون های توبیت شکسته |
99115 | من یک تابع هزینه دارم که آن را کمینه میکنم که معنای خاصی فراتر از یک مقدار کوچکتر که نشاندهنده مجموعه مطلوبتری از پارامترها است، ندارد. از زمانی که سؤال اصلی را پست کردم، به ذهنم خطور کرد که احتمالاً میتوانم تابع هزینه را به صورت ترکیبی از احتمالات بنویسم - اگرچه امیدوار بودم که سؤال را تا حد ممکن با توجه به تابع هزینه عمومی نگه دارم. هدف از بهینه سازی یافتن بهترین طراحی آشکارساز نوری است. پارامترهای رایگان مختلفی در کمینه سازی وجود دارد مانند آرایش عنصر آشکارساز، عدم وجود پیکسل در هر آشکارساز و غیره. کمینه سازی تابع هزینه (و برازش داده های تجربی) با استفاده از یک کمینه ساز BFGS انجام شد. در طول ارزیابی تابع هزینه برای یک مجموعه معین از پارامترها، تعدادی مدل برای شبیه سازی آشکارساز که از مقادیر پارامتر تعیین شده از آزمایش استفاده می کند، ارزیابی می شود. به عنوان مثال، یک آزمایش احتمال شلیک پیکسل آشکارساز را در حضور نور (به اصطلاح نویز تاریک) اندازه گیری کرد. چنین رویدادهایی تقریباً کاملاً پواسون در دمای ثابت توزیع می شوند، بنابراین من به دنبال ثابت فروپاشی بودم. اینها با استفاده از روش MLE (گاوسی، پواسون و دو جمله ای - بسته به موقعیت) به مدل برازش شدند. به این ترتیب من عدم قطعیت های همبسته کامل را برای پارامترهای برازش دارم (من فرض می کنم مدل ها مستقل هستند). آیا به هر حال بتوانم این عدم قطعیت را در تابع هزینه خود ایجاد کنم؟ آیا این بخشی از چیزی است که می توان بهینه سازی قوی نامید؟ با تشکر | استفاده از عدم قطعیت های مدل در بهینه سازی |
4364 | یک توزیع گاوسی استاندارد شده در $\mathbb{R}$ را می توان با دادن صراحت چگالی آن تعریف کرد: $$ \frac{1}{\sqrt{2\pi}}e^{-x^2/2}$$ یا عملکرد مشخصه آن همانطور که در این سوال یادآوری شد، همچنین تنها توزیعی است که میانگین و واریانس نمونه برای آن مستقل هستند. سایر توصیفات جایگزین شگفت انگیز معیارهای گاوسی که می دانید چیست؟ تعجب آورترین پاسخ را می پذیرم :) | شگفتانگیزترین توصیف توزیع گاوسی (عادی) چیست؟ |
105550 | فرض کنید من دو نمونه دارم: A B C D 100 5 17 12 #<- روش 1 90 2 4 15 #<- روش 2 و می خواهم مقایسه کنم تا آزمایش کنم که آیا روش 1 با روش 2 متفاوت است یا خیر. با این حال، مشاهدات در نمونه ها با هم گره خورده اند، بگویید «100» و «90» از همان بازار «A» آمده اند. راه درست تست این چیست؟ من کاملاً مطمئن هستم که همه چیز را با هم جمع کنید و یک آزمون t یا آزمون من ویتنی U را انجام دهید راه حلی نیست. | تست اهمیت بین دو نمونه زمانی که موقعیت ها اهمیت دارند |
68206 | من بیشتر به دنبال پاسخی اساسی (اما همچنین آماری) هستم. اگر در مدل خالی (فقط رهگیری) تغییرپذیری در سطح 2 وجود نداشته باشد، آیا همچنان باید HLM فقط به این دلیل که داده ها از نظر تئوری تو در تو هستند اعمال شود (کارکنان در تیم ها)؟ آیا یک مدل خطی در این مورد کافی است؟ اگر پاسخی برای من دارید ممنون میشم یک مرجع کتابشناختی هم داشته باشید. | آیا اثرات تصادفی در صورت عدم وجود تنوع بین گروه ها توجیه می شود؟ |
9033 | با مرور برخی یادداشتهای قدیمی خود، فرمولی پیدا کردم که هدفش آماری به نظر میرسید، اما منشأ و کاربرد آن را فراموش کردهام که بنویسم. میپرسم آیا کسی ممکن است این یکی را به خاطر بسپارد: \begin{align*} -N-\frac1{N}\sum_{j=1}^N (2j-1)(A_j+B_j), \end{align*} جایی که \begin{align*} A_j=\ln\left(\frac{1}{2}+\int_{\bar{x}}^{x_j} \exp\left(-\frac{(t-\bar{x})^2}{2s^2}\right)\mathrm{dt}\right) \end{align*} و \begin{align*} B_j=\ln\left(\frac{1}{2}-\int_{\bar{x}}^{x_{N-j+1}} \exp\left(-\frac{(t-\bar{x})^2}{2s^2}\right)\mathrm{dt}\right) \end{align*} and where $x_j,\quad j=1\dots N$ داده داده می شود، $\bar{x}$ میانگین و $s$ انحراف استاندارد است. کسی میتونه کمک کنه؟ | شناسایی فرمول آماری |
9038 | من از مجموعه داده های ENSO از مجموعه داده های مرجع آماری NIST به عنوان آزمونی برای کد رگرسیون غیرخطی استفاده می کنم. داده ها اختلاف فشار اتمسفر متوسط ماهانه بین جزیره ایستر و داروین است که شاخص نوسان جنوبی (SOI) نامیده می شود. در آزمون، داده ها با سه سیکل سینوسی برازش داده می شوند (مانند این). من در مورد نوسانات جنوبی کنجکاو شدم و شروع به جستجوی داده های SOI بیشتر کردم. من یاد گرفتم که چند روش مختلف برای محاسبه SOI وجود دارد، اما هیچ یک از منابع دیگری که پیدا کردم (به عنوان مثال در اینجا) اعداد یکسانی را در NIST StRD نمیدهند. مرجعی در مجموعه داده وجود دارد، _روشهای عددی و نرمافزار_ توسط Kahaner، Moler و Nash، که در آن فقط دریافتم که دادهها مربوط به سالهای 1962-1975 هستند. بنابراین سوال من واقعاً در مورد آمار نیست: چگونه مجموعه داده ENSO با داده های SOI از منابع دیگر مرتبط است. | منبع داده های ENSO از NIST |
114937 | من دو تخمین را با نتایج زیر انجام دادم:  * _خط آبی:_ نتیجه یک رگرسیون خطی ساده روی داده های نمایش داده شده امتیاز ($\حدود $ حقیقت). * _خط قرمز:_ نتیجه یک تخمین با داده های مختلف. چگونه می توانم خوب بودن تخمین _قرمز_ (در مقایسه با _آبی_) را ارزیابی کنم؟ | خوب بودن دو تخمین را با هم مقایسه کنید |
37865 | من نمی دانم که آیا یک راه ساده برای تشخیص نقاط پرت وجود دارد؟ برای یکی از پروژههایم، که اساساً رابطهای بین تعداد دفعاتی که پاسخدهندگان در یک هفته در فعالیت بدنی شرکت میکنند و تعداد دفعاتی که در یک هفته بیرون از خانه (فست فود) میخورند، همبستگی بود، من یک نمودار پراکنده ترسیم کردم و به معنای واقعی کلمه حذف کردم. نقاط داده ای که شدید بودند. (نقشه پراکنده همبستگی منفی را نشان داد.) این بر اساس قضاوت ارزش بود (بر اساس نمودار پراکندگی که در آن این نقاط داده به وضوح شدید بودند). من هیچ آزمایش آماری انجام ندادم. من فقط نمی دانم که آیا این روش درستی برای برخورد با موارد پرت است؟ من داده های 350 نفر را دارم، بنابراین از دست دادن (مثلا) 20 نقطه داده برای من نگران کننده نیست. | آیا راه ساده ای برای تشخیص نقاط پرت وجود دارد؟ |
79233 | من باید مدلهای رگرسیون لجستیک را به مجموعه دادهای برسانم که در آن آلودگی (حال/غیاب) متغیر وابسته و همسایگی (سه عامل: غنی، فقیر، بسیار ضعیف) متغیر مستقل من است. به گفته یک بازبینی کننده که (همانطور که من) در آمار به خوبی مسلط نیست، یک مشکل بالقوه با داده های من این است که متغیر همسایگی دارای حجم نمونه کاملاً نابرابر توزیع شده برای هر عامل است، به طوری که: غنی = 853 فقیر = 100 بسیار فقیر = 131 بازبین پیشنهاد کرد که به طور تصادفی زیرمجموعه گروه غنی قرار گیرد تا نمونه ای از حدود 100 نمونه را دریافت کند و سپس با این ادعا روبرو شود. فرض حجم نمونه تقریباً مساوی بین گروهها در یک متغیر. به دلیل فرضیه ای که در پشت مطالعه ما وجود دارد، من باید «غنی» را به عنوان مقوله مرجعی قرار دهم تا دو مورد باقی مانده را با آن مقایسه کنم. آیا پیشنهاد بازبین ثابت شده است؟ AFAIK، در رگرسیون لجستیک، اگر دو دسته متغیر مستقل نامتعادل یا حتی پراکنده باشند، هیچ گونه نقض فرضی وجود ندارد و حتی اگر متغیر وابسته باشد، هیچ گونه فرضی نقض نمی شود. | توزیع نامتعادل حجم نمونه بین گروه ها در رگرسیون لجستیک: آیا باید نگران بود؟ |
24009 | در اینجا توضیحی درباره نحوه محاسبه NPS آمده است: http://en.wikipedia.org/wiki/Net_promoter_score من علاقه مندم که دو امتیاز خالص پروموتر را آزمایش کنم تا مشخص کنم که آیا آنها از نظر آماری متفاوت هستند یا خیر. من یک پاسخ عالی برای محاسبه حاشیه خطا برای NPS خواندم (لینک زیر را ببینید)، اما واقعاً علاقه مندم که آزمایش کنم تا ببینم بین دو نمره تفاوت وجود دارد یا خیر، زیرا گمان میکنم که نتایج ما آنقدرها متفاوت نباشد. از سالی به سال دیگر همانطور که به نظر می رسد. چگونه می توانم حاشیه خطا را در نتیجه NPS (امتیاز خالص پروموتر) محاسبه کنم؟ آیا این اصلا امکان پذیر است؟ من میدانم که آزمون t معمولاً برای آزمایش اینکه آیا دو مجموعه رکورد متفاوت از نظر آماری متفاوت هستند استفاده میشود. اما آیا می توان نمرات خالص پروموتر را با آزمون t یا آزمون فرضیه های دیگر آزمایش کرد؟ هر ایده ای که داشته باشید کمک بزرگی خواهد بود. متشکرم | چگونه می توانم یک آزمون t (یا آزمون فرضیه دیگری) را روی نتایج NPS (نمره خالص پروموتر) انجام دهم؟ |
4367 | من معتقدم $p[x]$ یک توزیع احتمال است، که در آن \begin{equation} p[x] = \frac{1}{\pi (1+x^2)} \end{equation} در همه جا مثبت است و به 1 در $-\infty، \infty$ ادغام می شود. میانگین از نظر تقارن 0 است، حتی اگر ادغام $xp[x]$ در $-\infty، \infty$ همگرا نمی شود. این مشکوک است زیرا $p[x]$ قرار است یک توزیع احتمال باشد، اما منطقی است زیرا $xp[x]$ $O(1/x)$ است که به واگرایی معروف است. مشکل بزرگتر در محاسبه انحراف استاندارد است. از آنجایی که $x^2 p[x]$ نیز واگرا می شود، زیرا $x^2 p[x]$ $O(1)$ است. اگر این یک توزیع احتمال نیست، چرا که نه؟ اگر هست آیا انحراف معیار آن بی نهایت است؟ اگر کمک کند، تابع توزیع تجمعی $\arctan[x]/\pi$ است. کسی اشاره کرد که این ممکن است یک توزیع گاما باشد، اما برای من روشن نیست. | آیا یک توزیع احتمال می تواند انحراف معیار بی نهایت داشته باشد؟ |
33419 | فرض کنید یک رگرسیون اجرا می کنید (Y = Beta_0 + Beta_1 + GDP + ...)، و ضریب تخمینی برای GDP 6- با خطای استاندارد = 4 بدست می آورید. حجم نمونه را 250 فرض کنید. چگونه به سوال پاسخ می دهید. : > احتمال اینکه ضریب واقعی (جمعیت) تولید ناخالص داخلی > بیشتر از +1 باشد چقدر است؟ به طور معمول، ما یک فرضیه صفر ایجاد می کنیم که ضریب واقعی برابر با صفر است و رد/رد نکردن - آزمون اهمیت - با این حال، این رویکرد مستقیماً به سوالی که در بالا مطرح کردم پاسخ نمی دهد. تمام مقادیر p از یک آزمون معناداری تنها زمانی مرتبط هستند که شما برای اولین بار فرض کنید که فرضیه صفر درست است، که من نمیخواهم انجام دهم. هر کد/همه کد خوش آمدید. | احتمال اینکه اثر واقعی بیشتر از z باشد چقدر است؟ |
113862 | هنگام ساخت یک تابع هسته برای یک رگرسیون-فرآیند گاوسی، از خودم میپرسم که آیا تابع هسته مجاز است اطلاعاتی از اندازهگیریها داشته باشد؟ اگر کمی کلی تر بپرسم، اثبات شرایط مرسر برای یک هسته چقدر مهم است؟ با احترام دامیان | آیا یک تابع هسته برای رگرسیون GP می تواند از اطلاعات اندازه گیری استفاده کند؟ |
108793 | من روی به دست آوردن یک مدل خودرگرسیون برداری پایدار (VAR) برای مجموعه دادهام متشکل از 3 متغیر وابسته مختلف کار کردم. سپس سعی کردم هر یک از متغیرها را پیش بینی کنم. همانطور که به نمودارهای پیش بینی نگاه کردم، متوجه شدم که خروجی مدل VAR فقط یک خط مستقیم برای پیش بینی و همچنین بازه های اطمینان بالا و پایین (CIs) است. آیا این چیزی است که از خروجی های VAR انتظار می رود؟ یا باید خط پیش بینی منحنی بیشتری وجود داشته باشد؟ | مدل VAR و پیش بینی |
108242 | من حدود 1000 نمونه مصرف برق روزانه برای یک ساختمان دارم. من میخواهم یک پیشبینیکننده بر اساس تعدادی ورودی قابل مشاهده بسازم، از جمله: * دمای روزانه (پیوسته) * ساعات نور خورشید (پیوسته) * دوشنبه، سهشنبه، ... (دودویی) * تعطیلات_یا آخر هفته (دودویی) ... و شاید یکی دو نفر دیگر من _بعضی_ بینش در مورد داده ها دارم. برای مثال، یک نمودار معمولی مصرف در مقابل دما، با نادیده گرفتن همه ورودیهای دیگر، یک شکل معمولی دارد که توسط برق آماده به کار دیکته میشود و با افزایش دما به دلیل HVAC افزایش مییابد (یعنی تابع خطی نیست):  مسلماً من با آمارهای پیشرفته و ML تازه کار هستم، اما من از یادگیری آنچه برای حل مشکل لازم است ترسی نداشته باشید. با این حال، چیزی که من می خواهم از آن اجتناب کنم، رفتن بیش از حد در مسیر الگوریتمی اشتباه است. با خواندن برخی از متون، این تصور را دریافت کردم که استفاده از رگرسیون بردار پشتیبان با تابع پایه شعاعی برای هسته، رویکرد معقولی خواهد بود. اما آیا باید در حال بررسی تکنیک های رگرسیون یا سایر تکنیک های یادگیری ماشین باشم؟ | چه مدلی برای پیشبینی مصرف الکتریکی با توجه به متغیرهای مستقل متعدد (عمدتاً) مناسب است؟ |
67185 | بسیاری از متغیرهای موجود در دادههایی که من روزانه استفاده میکنم دارای فیلدهای خالی هستند که برخی از آنها دارای معنی هستند (مثلاً یک پاسخ خالی برای متغیری که با نسبت حسابهای رضایتبخش به حسابهای کل سر و کار دارد، بنابراین فرد هیچگونه ندارد. در صورتی که در این ستون پاسخی نداشته باشند، حساب می کنند، در حالی که پاسخ 0 به این معنی است که فرد هیچ حساب رضایت بخشی ندارد). در حال حاضر، این رکوردها در تجزیه و تحلیل رگرسیون لجستیک گنجانده نمی شوند، زیرا دارای مقادیر گمشده برای یک یا چند فیلد هستند. آیا راهی برای گنجاندن این رکوردها در مدل رگرسیون لجستیک وجود دارد؟ من میدانم که میتوانم این فیلدهای خالی را با مقداری اختصاص دهم که در محدوده دادهها نباشد (مثلاً اگر به متغیر نسبت بالا برگردیم، میتوانیم از 9999 یا -1 استفاده کنیم، زیرا این مقادیر در مقادیر گنجانده نشدهاند. محدوده یک متغیر نسبت (0 تا 1)). من فقط کنجکاو هستم که بدانم آیا راه مناسب تری برای انجام این کار وجود دارد یا خیر. هر کمکی بسیار قدردانی می شود! با تشکر | تخصیص مقادیر به داده های از دست رفته برای استفاده در رگرسیون لجستیک باینری در SAS |
33415 | من سعی میکنم تابع چگالی دیریکله را با دادههای نمونه و بردار آلفای تخمینی با استفاده از R در پایتون (rpy2) تغذیه کنم، اما خطای دریافتی را متوجه نشدم: >>> q['dirichlet2b'] = DirichletReg .ddirichlet(np.asarray(mySample)،np.asarray(listOfAlphas)، log=False، sum_up=True) خطا در rowSums(alpha): 'x' باید یک آرایه با حداقل دو بعد Traceback (آخرین تماس اخیر): فایل <stdin>، خط 1، در <module> فایل /usr/ lib/python2.7/dist-packages/rpy2/robjects/functions.py، خط 82، در بازگشت __call__ super(SignatureTranslatedFunction, self).__call__(*args, **kwargs) فایل /usr/lib/python2.7/dist-packages/rpy2/robjects/functions.py، خط 34، در __call__ res = super(function , self).__call__(*new_args, **new_kwargs) rpy2.rinterface.RRuntimeError: خطا در rowSums(alpha): 'x' باید آرایه ای با حداقل دو بعد باشد. = نادرست)`. اجرای آن اینجاست. از مستندات: > آلفا پارامترهای توزیع دیریکله. می تواند یک بردار (یک مجموعه از پارامترها برای همه مشاهدات) یا یک ماتریس (مجموعه پارامترهای مختلف > برای هر مشاهده) باشد، جزئیات را مشاهده کنید. مشاهدات اگر آلفا یک ماتریس است، یک مجموعه کامل از پارامترهای آلفا باید برای هر مشاهده ارائه شود. بنابراین در آزمایشی که من اجرا می کنم، این مقادیر دو متغیر است: >>> mySample [0.23947368421052631، 0.29122807017543861، 0.13596491228070176، 0.242417] listOfAlphas [0.96321625726816873، 0.010664397021223898، 0.0073408705340313662، 0.011574312890446362، 0.011574312890446362] برای تغذیه تابع چگالی دیریکله دقیقاً چه چیزی لازم است؟ | پارامترهای ورودی در تابع چگالی دیریکله |
108246 | برای نزدیک شدن به راه حل نیاز به راهنمایی دارم. سوال اینجاست. زمینه و هدف: رشد باکتریهای Gb به 4 عامل W، X، Y، Z وابسته است که W و X --- میتوانند هر عدد صحیحی از 10- تا 140+ داشته باشند. Y --- می تواند یک یا چند مقدار از لیست {forest, industri, Community} باشد Z --- یک متغیر بولی است. بله/خیر. Gb --- به صورت اتفاق افتادن یا عدم رشد باکتری بیان می شود، یعنی بله/خیر از آنجایی که رشد تابعی از زمان است، پارامترهای W,X,Y,Z می توانند به هر یک از چند روشی که رشد باکتری را تسهیل می کند رفتار کنند. به عنوان مثال، از روز 1 تا 9، چهار پارامتر ایده آل بودند و در روز 10، یک یا همه چهار پارامتر برای رشد باکتری مناسب نبودند، حتی در آن زمان Gb می تواند در روز 14 بله باشد. من در حال جمع آوری مجموعه داده هایی هستم که بسیار زیاد است، بنابراین من به راحتی می توانم مجموعه S را پیدا کنم: {S1 ,S2..,Sn,..) که در آن Sx: f(W,X,Y,Z, day1..14} که ثابت شده است برای رشد باکتری ها مفید است برای پیدا کردن الگوهای مشابه W,X,Y,Z که منجر به Gb=YES در تمام مجموعه داده ها شد وابسته یعنی تاثیرگذارترین پارامتر را پیدا کنید. | تشخیص الگو و تاثیرگذارترین پارامتر |
91953 | سی دی اف تجربی تخمینی از سی دی اف است. چه نوع روش تخمینی (مانند روش گشتاورها، MLE، ...) cdf تجربی را می سازد؟ آیا cdf تجربی یک تخمین ناپارامتریک است؟ آیا برآوردهای ناپارامتریک روش های ساخت متفاوتی با MOM، MLE و دیگران دارند؟ برای مثال، pmf تجربی یک توزیع گسسته با مقدار محدود توسط MLE ساخته شده است. اما این یک مورد خاص است و تمام ماجرا نیست. علاوه بر این، یک cdf تجربی نیست بلکه یک pmf تجربی است. | چه روش استنباطی CDF تجربی را تولید می کند؟ |
108796 | چرا پس از پیشبینی یک مدل ARIMA، پیشبینی فواصل پیشبینی گستردهای دارد که برخلاف برخی از مدلهای سری زمانی دیگر مانند VAR است؟ | پیش بینی مدل ARIMA |
113631 | من از تعمیم انباشته (روپرت 1992) برای ترکیب چندین (8) یادگیرنده پایه ناهمگن برای رگرسیون استفاده می کنم. آنچه من از شبه کدها می فهمم که 1. آموزش 8 یادگیرنده در 8 نمونه از داده ها D با استفاده از اعتبار سنجی متقاطع کنار گذاشته شود. 2. فراگیران را روی مجموعه جدیدی از داده ها آزمایش کنید و پیش بینی های سطح 0 را دریافت کنید. سطح 0 برای تشکیل فراداده برای سطح 1 4. از یک فراگیرنده برای آموزش بر روی فراداده استفاده کنید و سپس از آن برای پیش بینی در مجموعه تست استفاده کنید I am new در مورد موضوع ممکن است کاملاً در اشتباه باشم. اما با توجه به درک من یک سوال دارم. اگر دادههای متا را به مجموعههای آموزشی و آزمایشی تقسیم کنم، نمونههای تولید شده توسط پیشبینی با زبانآموزان پایه فردی در سطح 0 یکسان نخواهد بود، پس چگونه پیشبینی را از زبانآموزان پایه و پیشبینی الگوریتم گروهی را مقایسه کنم. | الگوریتم مجموعه تعمیم انباشته برای رگرسیون |
113868 | من از الگوریتم بهینهسازی برای یافتن بهترین ساختار + ورودیهای شبکه عصبی «الگو» در «MATLAB R2014a» با استفاده از «اعتبارسنجی متقاطع 10 برابری» استفاده میکنم. وزن شبکه عصبی خود را کجا باید مقداردهی کنم؟ *Position_1(rng,configure,randperm?)* for i=1:number_of_loops *Position_2(rng,configure,randperm?)* - تکرار اعتبارسنجی متقاطع برای i=1:number_of_kfolds *Position_3(rng,configure,randperm?)* - پایان پایان حلقه اعتبارسنجی متقاطع من اعتبارسنجی متقاطع 5 برابری را تکرار می کنم (به دلیل انتخاب تصادفی اعتبار سنجی متقاطع) تا خروجی های مطمئن تری (میانگین خروجی های شبکه عصبی) داشته باشد. کدام قسمت برای مقداردهی اولیه وزن برای شبکه عصبی (Position_1، Position_2 یا Position_3) بهتر است و چرا؟ در اینجا بحثی وجود دارد که ممکن است به شما کمک کند: Classification+ Optimization Mathworks Community ما باید تابع rng را در موقعیت مناسبی قرار دهیم تا طراحی و خطاهای بی طرفانه داشته باشیم. موقعیت مناسب برای این عملکرد کجاست؟ همانطور که می دانید ما این کدها را به عنوان تابع هزینه الگوریتم بهینه سازی می نامیم که بهترین ترکیب نورون ها، لایه ها و ورودی ها را جستجو می کند، بنابراین فکر می کنم راه حل منطقی این است که در تمام فراخوانی تابع هزینه با بهینه سازی فقط باید یک ساختار rng داشته باشیم. الگوریتم اما با آن نمیتوانیم تمام فضا را جستجو کنیم (ممکن است برخی از وزنها یا شاخصهای اولیه برای قطار/آزمون/ اعتبارسنجی ضعیف باشند و آن را در همه سیستمها تغییر نمیدهیم. شما چیست؟ توصیه بر اساس پیوند بالا این است که راه حل اصلاح شده من این است که rng در موقعیت 1 و مقدار اولیه وزن (پیکربندی) در موقعیت 3 وجود دارد. بهتر از حذف rng از همه سیستم است، اما آیا الگوریتم بهینه سازی می تواند توابع هزینه را با هم مقایسه کند؟ زیرا مولد اعداد تصادفی متفاوت فراخوانی هزینه کل (وزن ها و شاخص های مختلف قطار/آزمون/ اعتبارسنجی) اما مولد تصادفی یکسان در هر فراخوانی تابع هزینه توسط الگوریتم بهینهسازی (حلقههای تابع هزینه) در نهایت از همه مدلهایی از تابع بهترین هزینه استفاده میکنیم که با الگوریتم بهینهسازی بهعنوان یک بسته («تعداد_حلقهها*تعداد_کفولد مدلها») و میانگین بین خروجیها برای دادههای خارج از نمونه استفاده میکنیم؟ مجموعه ای از مدل ها نه تنها ساختارها. نظر شما در مورد این چیست؟ ** _بنابراین به طور خلاصه باید موقعیت «پیکربندی» را برای مقدار دهی اولیه وزن شبکه عصبی، «rng» برای مولد اعداد تصادفی (که آن را در هر فراخوانی تابع هزینه ذخیره و بازیابی می کنیم) و «index=randperm(تعداد_نمونه ها)» را برای اعتبار متقاطع (بعد از آن ما آن را برای آموزش/تست/ اعتبارسنجی در حلقه داخلی جدا میکنیم)._ | یافتن بهترین ساختار شبکه عصبی و ورودی ها با استفاده از الگوریتم بهینه سازی و اعتبارسنجی متقابل |
9036 | با استفاده از R، متوجه شدم که اگر از «fisher.test()» با داده های خام (به عنوان فاکتور) در مقابل جدول احتمالی استفاده کنم، نتایج متفاوتی دریافت می کنم. مستندات بیان میکنند که «fisher.test(x,y)» یک جدول احتمالی را از «x، y» با در نظر گرفتن آنها بهعنوان عوامل محاسبه میکند. مثال من یک تمرین آماری پایه است: مقایسه تقسیم جنسیت در گروه دارونما با گروه آزمایش. مثال من برای اجرای fisher.test روی فاکتورها: > expData <- data.frame(Placebo=factor(c(Y, Y, Y, Y, N, N N، N))، جنسیت = عامل (c(F، F، F، M، M، M، M، F)) ) > expData Placebo جنسیت 1 Y F 2 Y F 3 Y F 4 Y M 5 N M 6 N M 7 N M 8 N F > fisher.test(expData[expData$Placebo==Y,Gender], expData[expData$Placebo==N,Gender]) Fisher's Exact تست داده های شمارش داده ها: expData[expData$Placebo == Y، جنسیت] و expData[expData$Placebo == N, Gender] p-value = 0.25 فرضیه جایگزین: نسبت شانس واقعی برابر با 1 95 درصد فاصله اطمینان نیست: 0.00000 13.00002 تخمین نمونه: نسبت شانس 0 مثال من برای ساختن یک جدول احتمالی نشان دهنده داده های بالا و اجرای «fisher.test» در آن: > احتمالی <- ماتریس(c(3،1،1،3)،nrow=2، dimnames = list(tx=c(Placebo،Exper)، جنسیت=c(F،M)) ) > جنسیت اقتضایی tx F M دارونما 3 1 Exper 1 3 > fisher.test(contingency) آزمون دقیق فیشر برای داده های شمارش داده ها: احتمال p-value = 0.4857 فرضیه جایگزین: نسبت شانس واقعی برابر با 1 95 درصد فاصله اطمینان نیست: 0.2117329 621.9337505 تخمین نمونه: نسبت شانس 6.408309 آیا من از «fisher.test» به روش اشتباه استفاده می کنم؟ یا شاید جدول اضطراری خود را اشتباه درست کنم؟ | در R، اگر از بردارها در مقابل جدول احتمالی استفاده کنم، fisher.test نتایج متفاوتی را برمیگرداند |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.