_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
60163
چگونه می‌توانم داده‌های حضور/غیاب را که درباره تذهیب‌ها در یک نسخه خطی قرون وسطایی جمع‌آوری کرده‌ام، به بهترین وجه تجزیه و تحلیل کنم؟ من نقوش فردی را در سرفصل‌های فصل شناسایی کرده‌ام و صفحه‌گسترده‌ای ایجاد کرده‌ام که برای هر کدام 1 یا 0 دارد (در مجموع 37 موتیف وجود دارد). دست‌کم 4 نفر روی دست‌نوشته کار می‌کردند، که از موتیف ساده‌ای که در تمام صفحات تجزیه‌وتحلیل دیده می‌شود مشخص است. من PCA را انجام دادم و نقاط داده را با این متغیر کنترل کد رنگی کردم، و به نظر می رسد که وجود/عدم وجود این موتیف های دیگر تا حدی با آن ارتباط دارد. به این فکر می‌کردم که تحلیل هم‌روندی مسیر بعدی برای کاوش خواهد بود، اگرچه مشتاق بودم هر تکنیک آماری دیگری را که ممکن است برای این نوع داده‌ها مفید باشد بیاموزم. آیا مشکلاتی وجود دارد که باید از آن آگاه باشم یا بسته های R وجود دارد که مردم توصیه کنند؟ به طور خاص، من می خواهم بفهمم که کدام موتیف با هر یک از 4 هنرمند مرتبط است. در صورت امکان، من همچنین می‌خواهم این احتمال را در نظر بگیرم که شباهت‌ها می‌تواند از مدل‌های مشترکی که هنرمندان به آن نگاه می‌کردند نیز منتج شود. به طور خاص، من یک تحلیل همبستگی با استفاده از روش پیرسون در صفحات ایجاد شده توسط یکی از چهار هنرمند انجام داده ام. چگونه می توانم نزدیک ترین همبستگی ها را از چارچوب داده به دست آمده پیدا کنم، و چگونه می توانم تعیین کنم که آیا آنها از نظر آماری معنی دار هستند؟
تجزیه و تحلیل داده های حضور/غیاب برای تاریخ هنر
104437
همبستگی خودکار $r_Y(\tau) = E[Y(t)Y(t+\tau)]$ را با $Y(t) = \int_{-\infty}^{\infty} h(t-u) x( u)$ و $X$ یک WSS، فرآیند ارگودیک من همیشه دریافت می کنم: $h(t)* h(t+\tau) * r_X(\tau)$ (با $*$ پیچیدگی) ## رویکرد من (پس از ضرب) $\int h(t-u) ( \int h(t+\tau -u')r_X(u'-u) \text{d}u' ) \text{d}u $ انتگرال داخلی تعریف کانولوشن است، بنابراین $= \int h(t-u) (h(t+\tau)*r_x(t+\tau-u) ) \text{d}u$ این دوباره یک انتگرال کانولوشن با متغیر زمان t می دهد. بنابراین، $= h(t)* h(t+\tau) * r_X(\tau) $ ## راه حل صحیح: $ r_X(\tau) * h(\tau) * h(-\tau) $ ## سوال من چه غلطی می کنم؟
خودهمبستگی انتگرال کانولوشن
99922
من در تلاش برای درک معنای توزیع تهی در Fisher Exact Test هستم. فرض کنید من یک جدول احتمالی دارم: Stat1 Stat2 Group1 18 2 Group2 3 40 اگر بخواهم بدانم «Stat1» به میزان قابل توجهی در «گروه1» غنی شده است، آیا باید از آزمون دوطرفه استفاده کنم؟ آیا ممکن است که آزمون دو طرفه به من این احتمال را بدهد که «Stat1» در «گروه2» غنی شده است (جایگزین دیگری برای فرضیه صفر)؟
تفاوت بین تست دقیق فیشر دو طرفه و یک طرفه چیست؟
113032
من با رفتار ks.test (آمار بسته) گیج شده ام. مستندات: مقادیر p دقیق برای مورد دو نمونه در صورت یک طرفه بودن یا در حضور گره ها موجود نیست. من می‌پرسم که آیا سیاه (آزمایش) و قرمز (کنترل) از تابع توزیع یکسانی پیروی می‌کنند بدون اینکه تابع توزیع زیربنایی را بدانند. در دستان من مقادیر دقیق p در صورت یک طرفه بودن و در حضور بند (طبق پیام هشدار) محاسبه می شود. اما مقدار p دو طرفه فقط < 2.2e-16 است اما دقیقا گزارش نشده است. در صورت تمایل می توانید داده ها را به صورت .Rda دانلود کنید (طول بردار ~ 9000): https://www.dropbox.com/s/xl29jvpurkbwqpm/black.Rda?dl=0 https://www.dropbox.com/ s/5biptm1xet36v3v/red.Rda?dl=0 مثال: ks.test (مشکی، قرمز) دو نمونه داده های آزمون کولموگروف-اسمیرنوف: سیاه و قرمز D = 0.0731، p-value < 2.2e-16 فرضیه جایگزین: ks.test دو طرفه (سیاه، قرمز)$p.value [1] 0 Warnmeldung: # به معنای پیام هشدار در ks.test(سیاه، قرمز): im Falle von Bindungen sind die p-Werte approximativ # Bindungen به معنی پیوندهای ks.test (سیاه، قرمز، جایگزین = g)$p.value # مطابق انتظار نیست [1] 1.235537e-23 Warnmeldung: در ks.test(سیاه، قرمز، جایگزین = g) : im Falle von Bindungen sind die p-Werte approximativ ks.test (سیاه، قرمز، جایگزین=l)$p.value [1] 0.0005651143 Warnmeldung: در ks.test (سیاه، قرمز، جایگزین = l): im Falle von Bindungen sind die p-Werte approximativ ks.boot (بسته Matching) را امتحان کردم که ادعا می کند برای دو کار می کند. نمونه با پیوندها آزمایش می کند و حتی زمانی که توزیع های مورد مقایسه کاملاً پیوسته نیستند پوشش صحیحی ارائه می دهد. همین داستان من مقادیر p دقیق را فقط برای شرایط یک طرفه دریافت می کنم. برای نمونه: ks.boot (مشکی، قرمز، جایگزین = l) $ks.boot.pvalue [1] 0.001 $ks دو نمونه داده‌های آزمون کولموگروف-اسمیرنوف: Tr و Co D^- = 0.0275، p-value = 0.0005651 فرضیه جایگزین: CDF x کمتر از y $nboots [1] 1000 قرار دارد attr(class) [1] ks.boot آیا جمله p-values ​​دقیق برای حالت دو نمونه در دسترس نیست، اگر یک طرفه باشد یا در صورت وجود کراوات اشتباه متوجه شدم؟ من فکر کردم معنی این است: مقدار p دقیقی وجود ندارد اگر یک طرفه باشد یا ... آیا مقادیر p ks.test (دو نمونه، یک طرفه) صحیح هستند؟ از نظر ارائه مقادیر دقیق p، ks.boot برتری نداشت. لطفا کسی میتونه در این مورد نظر بده؟ ممنون هرمان
ks.test و ks.boot - مقادیر دقیق p و پیوندها
102876
من مطالعه ای را در برخی از بیماران انجام دادم که شامل: 1. سن 2. جنسیت 3. مدت زمان 4. برخی از آزمایشات پزشکی 5. پیش. و پرسشنامه پس از 6. نتایج پس از آزمون من بیماران را بر اساس مدت زمان شکایت به دو گروه تقسیم کردم، باید این دو گروه را با هم مرتبط کنم تا ارزیابی کنم که آیا این تفاوت در مدت زمان در نتایج آزمایش و عملکرد بیماران نقش دارد یا خیر. چگونه آنها را هماهنگ کنم لطفا؟
در تجزیه و تحلیل داده ها در SPSS به کمک نیاز دارید
60160
من به دنبال نمونه ای از نوع آموزشی هستم که نمونه برداری گام به گام فرآیند را از یک مدل سلسله مراتبی ساده نشان دهد. به عنوان مثال، من سعی می کنم توزیع p را در آزمایش برنولی مطالعه کنم که در آن مجموعه ای از 10 داده / مشاهدات ('h[i]') دارم. model { p ~ dunif( 0, 1 ) for( i in 1 : 10) { h[i] ~ dbern( p ) } } من نمی دانم چگونه WinBUGS (یا نمونه های مشابه) نمونه های صحیح را برای مقادیر «p» با توجه به «h1-10» من. آیا مقاله یا مقاله ای وجود دارد که این را توضیح دهد؟
به دنبال نمونه گام به گام نمونه برداری از DAG در مدل بیزی هستید
3630
من سعی می‌کنم یک تابع وابسته به مسیر، $f(r_t)$ را بر اساس فرآیند Cox-Ingersoll-Ross ارزیابی کنم: $dr_t = \theta (\mu - r_t)dt + \sigma \sqrt r_t dW_t$ توسط مونت کارلو شبیه سازی آیا کسی می‌تواند تکنیک‌های کاهش واریانس مؤثری را که می‌تواند در این فرآیند استفاده شود، پیشنهاد و توضیح دهد؟ به عنوان مثال نمونه‌گیری مهم، نمونه‌برداری طبقه‌ای و غیره. * * * _سوال اصلی_: آیا کسی از تکنیک‌های کاهش واریانس پیشرفته (یعنی نمونه‌گیری اهمیت یا نمونه‌گیری طبقه‌ای) برای شبیه‌سازی فرآیند کاکس-اینگرسول-راس آگاه است؟ در حالت ایده‌آل، من می‌خواهم در صورت موجود بودن، اجرای ملموسی ببینم... با احترام
CIR فرآیند کاهش واریانس
102872
در حال حاضر به دنبال روش هایی برای محاسبه نوعی شاخص حساسیت قیمت برای مشتریان یک فروشگاه اینترنتی بر اساس سوابق خرید هستم. من ادبیات زیادی پیدا کرده‌ام که در آن از داده‌های تابلویی برای محاسبه کشش‌های قیمت برای یک محصول خاص (دسته) ابتدا استفاده شده است، و سپس یک مدل رگرسیون برای تعیین ویژگی‌های تأثیرگذار (مانند درآمد بالا، ...) استفاده شده است. سوال من این است که آیا رویکردی برای استخراج حساسیت قیمت (یا معیار مشابه) در سطح مشتری/محصول (رده) بر اساس داده‌های خرید تاریخی وجود دارد؟
تعیین حساسیت های قیمت مشتری با تاریخچه خرید ماینینگ
106362
من به دنبال راه هایی برای آزمایش اثرات مزیت تجمعی در مجموعه داده های طولی هستم (تصویر را ببینید) ![مثال مجموعه داده](http://i.stack.imgur.com/W3LQ2.jpg) حدس می زنم مجموعه داده ها اساساً شبیه به این است: http://www.caldercenter.org/whatis.cfm، اما به طور دقیق، ارقام، سهام علامت گذاری شده هفتگی از مجموعه ثابتی از محصولات هستند. مجموعه داده کامل شامل نزدیک به 25000 محصول است که طی 76 هفته ردیابی شده اند. آنچه من می خواهم بررسی کنم این است: 1. آیا نرخ رشد در سهم علامت گذاری شده تابعی از مقادیر فعلی سهم علامت گذاری شده است یا خیر. 2. آیا مزایای کوچک در مراحل اولیه در طول زمان بزرگتر می شوند. من تسلط اولیه بر SPSS و روش هایی مانند همبستگی و رگرسیون را دارم و ایده های تقریبی مانند مثال دارم. برای هر هفته به صورت دستی همبستگی بین سهم علامت گذاری شده (انباشته شده) و سهم مشخص شده هفته بعد را اندازه گیری کنید، اما من کاملا مطمئن هستم که رویکردهای مناسب تر وجود دارد. لطفاً کسی می تواند آنقدر مهربان باشد که مرا به مسیرهای احتمالاً مفید راهنمایی کند؟
روش‌هایی برای اندازه‌گیری اثرات گلوله برفی در یک مجموعه داده طولی کامل.
96164
کاربران طبق فرآیند پواسون با نرخ $\lambda$ وارد می شوند. اگر هر کاربر سوم حذف شود، آیا کاربران باقیمانده یک فرآیند پواسون با نرخ $2\lambda/3$ تشکیل می دهند؟ اگر هر کاربر دیگری حذف شود، آیا کاربران باقی مانده یک فرآیند پواسون با نرخ $\lambda/2$ تشکیل می دهند؟ و غیره..؟
ورود پواسون
99074
من سعی می کنم زیرجمعیت های داده را در مجموعه ای از داده ها شناسایی کنم. مشکل این است که داده ها ممکن است بیش از یک زیرجمعیت داشته باشند و جمعیت های فرعی ممکن است به طور معمول توزیع نشوند. به عنوان مثال، داده ها می توانند به این شکل باشند... ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/98yw9.png) محور Y تعداد و محور X مقدار است . آنچه من می خواهم این است که تعداد زیرجمعیت ها و مقادیر اوج آنها را تعیین کنم. زبان برنامه نویسی که من بیشتر با آن آشنا هستم پایتون است، با این حال، روش های من موفقیت آمیز نبوده است. مشکل ساز می شود زیرا در مثالی که نشان دادم یک زیرجمعیت با دو قله وجود دارد. روش من به دنبال قله‌ها و دره‌ها است، بنابراین در این مثال سه زیرجمعیت را شناسایی می‌کند، حتی اگر در واقع دو جمعیت وجود داشته باشد. من با آمار تازه کار هستم، بنابراین می‌خواستم بدانم آیا کسی در اینجا می‌تواند راهی برای شناسایی زیرجمعیت‌های داده‌ها پیشنهاد کند.
چگونه می توانم تعداد توزیع ها را در مجموعه ای از داده ها تشخیص دهم؟
113692
آیا روش استانداردی برای آزمایش اینکه آیا دو بردار با توزیع **گسسته** یکسان در R رسم شده اند وجود دارد؟ چیزی شبیه تست کولموگروف-اسمیرنوف، اما برای توزیع های گسسته. فکر می‌کنم آزمون کای دو نمونه‌ای مناسب باشد. آیا بسته ای آن را ارائه می دهد؟ من نمی توانم «chisq.test» را برای من کار کند.
تست یکسانی توزیع گسسته
21808
* ** _پیشینه:_ *** من در حال انجام یک مطالعه آکادمیک هستم که ماهیت اکتشافی بیشتری دارد (مشاور من نمی خواست هیچ فرضیه ای را ایجاد کنم). بنابراین، کتاب‌ها را خواندم و مصاحبه‌هایی انجام دادم تا فهرست بزرگی از مواردی را که مردم احساس می‌کنند برای موضوع مورد مطالعه مهم و تأثیرگذار هستند، جمع‌آوری کنم. از آن لیست، من آنها را به سوالاتی تبدیل کردم که در یک نظرسنجی بپرسم که تعداد پاسخ های خوبی دریافت کردم (n>500). نظرسنجی 50 سوالی شامل لیستی از 35 مورد است که مردم فکر می کنند برای موضوع مهم هستند و 15 سوال جمعیت شناختی در مورد پاسخ دهنده. * ** _مشکل من:_ *** حالا در انتخاب تحلیل های صحیح مشکل دارم. آنچه من می خواهم به آن برسم این است که از طریق تجزیه و تحلیل داده ها، مدلی ارائه کنم که شامل تمام مواردی است که افراد برای موضوع مورد مطالعه مهم می دانند. اما در عین حال، مشاور من از من نمی‌خواهد که آیتم‌های نظرسنجی را خیلی کم کنم زیرا احساس می‌کند همه موارد در نظرسنجی مهم هستند، بلکه بر اساس مواردی که پاسخ‌دهندگان به عنوان مهم نشان داده‌اند (متوسط ​​امتیاز بالایی دارند). ?)، آنها را با هم گروه بندی کنید تا فاکتورهایی را در یک مدل تشکیل دهند (بدون کاهش داده های زیاد) و به دنبال هر رابطه ای بگردید. من مطمئن نیستم که کدام نوع تحلیل برای این کار مناسب باشد. تا اینجا فکر می‌کنم نوع تحلیل اشتباهی را انتخاب کرده‌ام، بنابراین از کمکی قدردانی می‌کنم. پس از مطالعه تحلیل‌های بالقوه مناسب برای مطالعاتی که فرضیه ندارند، یک تحلیل تأییدی اصلی در مورد سؤالات غیردموگرافیک انجام دادم و آنها را به 4 عامل تبدیل کردم. اما با انجام این کار، حدود 10 مورد غیر جمعیتی حذف شدند. مشاور من اکنون از من می‌پرسد که آیا PCA بهترین تحلیل برای انتخاب است، زیرا او دید که اکثر نمره‌های میانگین برای همه سؤال‌ها بالا هستند (حدود 3-4 از 5) بنابراین او فرض کرد که همه آنها مهم هستند و باید همه باشند. در یک مدل گنجانده شده است. من معتقدم آنچه او می خواهد تمام سوالات با میانگین نمره بالا است که نشان می دهد پاسخ دهنده احساس می کند مهم است باید واقعاً در مدل نگه داشته شود و نباید از مدل حذف شود. _در نهایت، من به دنبال پیشنهاداتی هستم که چه تحلیل هایی برای نتیجه ای که می خواهم به آن دست یابیم مناسب است... برای ایجاد مدلی که شامل تمام مواردی باشد که افراد از نظرسنجی مهم می دانند (و اگر میانگین امتیاز باشد هر گونه نشانه ای، تعداد بسیار بالایی از آیتم ها امتیاز 3-4 از 5 را در لیکرت دارند)_ از هر پیشنهادی ممنونم.
مشکل در توسعه یک مدل برای یک مطالعه اکتشافی (PCA EFA)
69636
\-----ویرایش: ببخشید، وقتی سوالم را نوشتم تا حدودی عجله داشتم. اجازه دهید آن را دوباره بیان کنم. من قصد دارم یک تجزیه و تحلیل ANOVA ترکیبی متشکل از یک DV اندازه‌گیری‌های مکرر و یک بین آزمودنی‌های IV (یک متغیر طبقه‌بندی که دارای سه شرط است) انجام دهم. برای نتیجه‌گیری درست، ابتدا می‌خواهم با در نظر گرفتن نمرات استاندارد شده برای هر متغیری که متغیر RM را تشکیل می‌دهد، مشخص کنم که آیا در امتیازات RM موارد پرت وجود دارد یا خیر و ببینم آیا انحراف معیار +/-3 را پیدا می‌کنم یا خیر. با این حال، طبق درک من، این مقادیر استاندارد شده به میانگین وابسته هستند، که انتظار دارم ممکن است در هر شرایط متفاوت باشد. بنابراین، چگونه باید نمرات استاندارد شده خود را تعیین کنم؟ آیا باید از فیلترها برای تعیین امتیاز در هر شرط استفاده کنم یا می توانم آنها را در هر سه شرط محاسبه کنم؟ من هر دو را امتحان کرده‌ام و تفاوت وجود دارد، برخی از مقادیر وقتی در همه شرایط تجزیه و تحلیل می‌شوند روی 3SD لبه‌دار می‌شوند، اما وقتی امتیازات را در هر شرط محاسبه می‌کنم (یا برعکس) به حالت پرت تبدیل می‌شوند. در مورد منابع دیگرم، من در حال حاضر نمونه ای در دسترس ندارم، اما وقتی دیروز به این موضوع نگاه کردم، عمدتاً توضیحاتی پیدا کردم که بیان می کرد نمرات SD باید برای DV و هر متغیر بالا محاسبه شود |+/-3| پرت است. البته این را از قبل می دانم و به من کمکی نمی کند که به سوالم پاسخ دهم. امیدوارم الان کمی واضح تر بشه * * * متاسفم اگر این سوال قبلا پرسیده شده و پاسخ داده شده است اما سعی کردم آن را جستجو کنم اما نتوانستم پاسخ قانع کننده ای پیدا کنم. من قصد دارم یک ANOVA ترکیبی را با اندازه گیری های مکرر و یک متغیر طبقه بندی انجام دهم و می خواهم مقادیر پرت را در متغیرهای وابسته (اندازه گیری های مکرر) بررسی کنم. با این حال، مطمئن نیستم که آیا باید مقادیر پرت را در هر یک از متغیرهای RM بررسی کنم (نمرات استاندارد شده برای همه متغیرهای RM را تعیین کنم و در هر یک از آنها در همه شرایط به نقاط پرت نگاه کنم)، یا اینکه آیا باید داده های خود را در نظر بگیرم. بر اساس هر شرط (تنظیم و استفاده از یک فیلتر در هر شرایط، و سپس برای بررسی نقاط پرت در متغیرهای هر شرط). در توضیحات کلی در مورد نقاط پرت، من فقط نمونه هایی را پیدا کردم که در آنها کل متغیر به طور همزمان در نظر گرفته شده است و هیچ شرطی در آن بحث نشده است، بنابراین امیدوارم کسی بتواند به من کمک کند. خیلی ممنون
تشخیص پرت در شرایط چندگانه؟
38926
> **تکراری احتمالی:** > چه نمونه هایی وجود دارد که در آن یک بوت استرپ ساده لوح از کار می افتد؟ شاید این سوال کمی نرم باشد، اما فکر می کنم ممکن است پاسخ سختی داشته باشد. اگر فلسفی‌تر شد، آن را به بحث یا CW منتقل کنید. من یک دانشمند کامپیوتر هستم و شاید به دلیل ضرب المثل قدیمی در مورد اینکه چگونه چیزها وقتی چکش را در دست می گیرید ظاهر می شوند، بوت استرپینگ طبیعی ترین راه حل برای تقریباً هر مشکلی است که در آزمایش فرضیه می بینم. به عنوان مثال، امروز، در حین پاسخ دادن به یک سوال اینجا در CV، حتی بوت استرپ را برای آنچه واقعاً فقط یک وضعیت آزمون t ساده بود (بدون توجه به چیزی که به چه چیزی کاهش می‌یابد) پیشنهاد کردم. این من را به چند سوال سوق داد: اول، آیا دلیلی برای اجتناب از تقویت غیر از تمایل به پنهان کردن سهوی فرضیات در مورد داده ها یا توزیع های اساسی وجود دارد؟ یعنی **آیا دلایل دیگری برای جلوگیری از بوت استرپ وجود دارد به غیر از اینکه «به خودت شلیک کنی راحت تر است.»؟** دوم، شاید از نظر فلسفی تر، در بسیاری از زمینه ها، از جمله حوزه های من، آمارهای بد زیادی مشاهده می شود. . من کنجکاو هستم که آیا برای فردی که با تحصیلات آماری کمی کار می‌کند، راحت‌تر است که با استفاده از متداول‌ترین روش‌های آزمایش فرضیه‌ها یا استفاده از راه‌اندازی، چیزها را از بین ببرد. بدیهی است که شکستن روش‌های مرسوم سخت‌تر است به این معنا که مفروضات به وضوح بیان شده‌اند، اما در تجربه من، مردم اغلب حروف ریز را نمی‌خوانند و به هر حال فرضیات را نادیده می‌گیرند. **در صورتی که فردی کورکورانه هر روشی را برای داده‌ها اعمال می‌کند، آیا فکر می‌کنید در مقایسه با استفاده از روش‌های متداول استنتاج بدون توجه به فرضیات اساسی، احتمال بیشتری دارد که با استفاده از bootstrapping نتیجه‌گیری بدی کند؟**
چه زمانی باید از Bootstrapping اجتناب کرد؟
113035
چگونه ثابت می کنید که $X_n - E[X_n] = O_p(\sqrt{Var(X_n)})$ در کتاب درسی من استفاده شده است و من نمی دانم آنها آن را از کجا می آورند.
اثبات واریانس مجانبی
99075
با آزمون t-test زوجی دریافتم که شرکت کنندگان در مورد یک دستاورد تیمی بیشتر از موفقیت فردی ابراز غرور کردند. آنچه اکنون می خواهم بررسی کنم این است که آیا این تفاوت بین غرور ارتباطی در مورد یک دستاورد تیمی و یک دستاورد فردی برای هندی ها در مقایسه با آمریکایی ها بزرگتر است یا خیر. من یک نمونه متشکل از 148 هندی و 268 آمریکایی دارم. همه شرکت‌کنندگان باید غرور ارتباطی خود را نسبت به یک دستاورد تیمی و یک دستاورد فردی نشان می‌دادند (بنابراین، طراحی درون موضوعی است). کدام آزمون را اجرا کنم؟ من در مورد محاسبه یک متغیر جدید فکر کردم که به عنوان غرور ارتباطی نسبت به یک دستاورد تیمی محاسبه می شود - غرور ارتباطی نسبت به یک دستاورد فردی. بعد باید تعیین کنم که آیا اینها با هم فرق دارند، اما نمی دانم چگونه!؟
چگونه فرضیه خود را آزمایش کنم؟
113031
در یادداشت‌های سخنرانی CS294A، اندرو نگ (در مورد رمزگذارهای خودکار) می‌نویسد: «معمولاً کاهش وزن برای اصطلاحات بایاس اعمال نمی‌شود... با این حال، اعمال کاهش وزن در واحدهای بایاس معمولاً تنها تفاوت کوچکی با شبکه نهایی ایجاد می‌کند». آیا دلیل خاصی وجود دارد که برای آن ما نباید کاهش وزن را در شرایط تعصب اعمال کنیم؟ آیا باعث کاهش عملکرد شبکه می شود؟
NN: آیا باید کاهش وزن را برای سوگیری اعمال کنیم؟
86956
در حال حاضر، من از یک شبکه عصبی برای طبقه‌بندی داده‌ها در یکی از سه گروه استفاده می‌کنم (یک تابع فعال‌سازی لجستیک در همه گره‌ها به جز گره‌های خروجی استفاده می‌شود). من می توانم شبکه عصبی را به دو روش آموزش دهم: 1) برای هر مشاهده $X_{i}$ می توانم یک متغیر خروجی $O_{i}$ داشته باشم که می تواند سه مقدار داشته باشد: $1،2، $ یا $3$. یا، 2) برای هر مشاهده $X_{i}$ من می توانم سه متغیر خروجی $O_{i1}، O_{i2}$، و $O_{i3}$ داشته باشم که بر اساس مقادیر $0$ یا $1$ می گیرند. برچسب کلاس برای آن مشاهده چیست. بنابراین برای مثال، اگر مشاهده $i$ متعلق به کلاس 2 باشد، $O_{i2}$ خواهد بود $1$، در حالی که $O_{i1}$ و $O_{i3}$ $0$ خواهد بود. آیا دو رویکرد فوق معادل هستند؟ آیا یکی بهتر از دیگری است؟ آیا دلایل نظری وجود دارد که باور کنیم یکی باید نتایج بهتری نسبت به دیگری داشته باشد؟
هنگام استفاده از شبکه عصبی برای طبقه بندی بیش از دو کلاس، بهتر است چندین گره خروجی (یکی برای هر کلاس) داشته باشیم یا یک گره خروجی؟
9662
من 3 گروه مختلف دارم: A، B، و C: * A (دارای یک وضعیت پزشکی است) دارای 30 ورودی است * B (یک وضعیت پزشکی دیگر) دارای 31 ورودی است * C (گروه کنترل) دارای 55 ورودی است. مجموعه ای از متغیرها من می خواهم ارزیابی کنم که آیا از نظر آماری تفاوت معنی داری در خطر ابتلا به یک بیماری خاص بین: * گروه A و C * گروه B و C * گروه B و A وجود دارد یا خیر، همچنین، همه گروه ها باید برای سایر عوامل خطر شناخته شده تنظیم شوند.
چگونه می توان خطر افتراقی بیماری را در سه گروه پس از تطبیق با سایر عوامل خطر ارزیابی کرد؟
9663
اگر یک آیتم از توزیع نرمال پیروی کند، میانگین نیز از توزیع نرمال پیروی می کند. حداقل و حداکثر چطور؟
توزیع مقادیر افراطی
105477
چند وقت پیش، وقتی در کلاس طبقه‌بندی الگو شرکت کردم، «مفهوم» به‌عنوان تجزیه و تحلیل متمایز چندگانه معرفی شد: شما می‌خواهید داده‌های خود را در یک زیرفضا (اگر علاقه‌مند به کاهش ابعاد هستید) که تفکیک بهتری بین کلاس‌های مختلف ایجاد می‌کند (به عنوان مثال. ، در یک کلاس نظارت شده با چندین کلاس برچسب گذاری شده). فکر می‌کنم تکنیک را درک کرده‌ام و به نوعی به تجزیه و تحلیل مؤلفه‌های اصلی مربوط می‌شود - با این تفاوت که شما 2 ماتریس پراکندگی دارید: ماتریس پراکندگی در داخل و ماتریس پراکندگی برای بین کلاس‌ها... به هر حال، بعدها که من بودم. در تلاش برای کنکاش در موضوعات مرتبط با ماشین، به طور تصادفی با اصطلاحات تحلیل تشخیص خطی (LDA) و مقیاس‌سازی چند بعدی (MS) برخورد کردم و من هستم. تعجب می کنم که چگونه آن ها به هم مرتبط هستند. اگر به درستی متوجه شده باشم، می توانید اساساً با 2 دسته شروع کنید \- تجزیه و تحلیل تشخیصی خطی \- تجزیه و تحلیل متمایز درجه دوم که پیچیدگی مسئله را توصیف/دسته بندی می کند. و اگر من از تحلیل متمایز چندگانه (MDA_ صحبت کنم، اساساً برمی‌گردد به اینکه هر کلاس چند بعد دارد!؟ اساساً، آن MDA زیرمجموعه‌ای از LDA و QDA است!؟ و مقیاس‌گذاری چند بعدی بیشتر شبیه یک دسته فوق‌العاده است، جایی که این فقط به فرآیند مقیاس بندی یک فضای ویژگی چند بعدی اشاره دارد، به عنوان مثال، از طریق MDA یا PCA و غیره!؟
تجزیه و تحلیل تفکیک چندگانه، تجزیه و تحلیل تشخیص خطی، و مقیاس بندی چند بعدی - چگونه آنها به هم مرتبط هستند؟
21809
لطفا نادانی من را ببخشید، اما... من مدام خود را در موقعیتی می یابم که در آن با یکسری داده های جدیدی که موفق به پیدا کردن آن شدم مواجه هستم. این داده ها معمولاً چیزی شبیه این به نظر می رسد: تاریخ شماره 1 شماره 2 رده 1 رده 2 20120125 11 101 سگ قهوه ای 20120126 21 90 گربه سیاه 20120126 31 134 گربه قهوه ای (...) معمولاً در نگاه اول می گویم که آیا واقعاً نمی توانم روندی در اینجا وجود داشته باشد. همبستگی بین ستون های مختلف ممکن است خیلی مهم نباشد، اما اگر مجبور نباشم به صورت دستی یک نمودار برای هر ترکیب ممکن از ستون ها/رده ها ایجاد کنم، خوشحال می شوم. آیا ابزاری وجود دارد که جدولی از داده‌ها را به همراه اطلاعاتی که ستون‌ها باید به‌عنوان اعداد، تاریخ و دسته‌ها در نظر گرفته شوند را بپذیرد و سپس به رسم نمودار ادامه دهد: * همبستگی بین هر دو ستون عددی * همبستگی بین هر دو ستون عددی، با جداگانه خطوط روند برای هر دسته * هر ستون عددی به عنوان یک سری زمانی، * هر ستون عددی به عنوان یک سری زمانی، جدا شده بر اساس دسته بندی، * و غیره. سر و صدا در حالت ایده‌آل، این ابزار می‌تواند نمودارها را با همبستگی نمره‌گذاری کند و در پایان نمایش اسلایدی را که با بالاترین امتیازات شروع می‌شود، نمایش دهد. این یک نگاه اول بسیار ناقص، اما مفید به مجموعه داده خواهد بود. پس؟ آیا ابزاری وجود دارد که همه برای این کار از آن استفاده کنند و من در مورد آن اطلاعی ندارم، یا این چیزی است که ما باید بسازیم؟
اولین نگاه سریع به یک مجموعه داده
24870
فرض کنید می خواهیم دمای ($1$ = گرم، $0$ = سرد) 5 منطقه را در بازه های زمانی زیر مدل سازی کنیم: 1 ماه، 6، ماه و 4 سال. فرض کنید یک متغیر پیش‌بینی‌کننده X$ باشد (میزان جنگل‌زدایی، 1 = زیاد، 0 = بسیار کم). آیا در مدل سازی اثر اصلی (جنگل زدایی) باید زمان را به عنوان پیش بینی در نظر بگیریم؟
اینکه آیا زمان را به عنوان متغیر کمکی در تجزیه و تحلیل اندازه‌گیری‌های مکرر لحاظ کنیم
112348
من یک مدل رگرسیون لجستیک را در R با استفاده از داده‌های مضاعف ایجاد شده با استفاده از Amelia II اجرا می‌کنم که سپس با استفاده از Zelig آن را تحلیل می‌کنم. من می‌خواهم بتوانم برخی از معیارهای تناسب را گزارش کنم (مانند نسبت احتمال، شبه مربع R، Hosmer-Lemeshow)، اما هیچ کدام در خروجی پیش‌فرض Zelig ارائه نشده است و من نتوانستم آن را بفهمم. راهی برای استخراج هرکدام از شی «zelig()». آیا هنگام استفاده از مجموعه داده‌های مضاعف منتسب، معیارهای خوبی باید به طور متفاوتی محاسبه شوند؟ آیا بسته های R وجود دارد که قادر به انجام این کار باشد؟ من به چندین بسته نگاه کرده ام که معیارهای خوبی را ارائه می دهند، مانند pscl، اما آنها فقط روی اشیاء glm کار می کنند، نه اشیاء MI که هنگام استفاده از Amelia و Zelig ایجاد می شوند. پیشاپیش از کمک شما متشکرم!
اندازه‌گیری‌های برازش با استفاده از داده‌های مضاعف در Zelig
113963
من از infer.net برای پیاده سازی یک مدل شبکه بیزی پویا استفاده می کنم. هر گره در هر لایه به تمام گره های لایه قبلی وابسته است (ما می خواهیم wji را آموزش دهیم، وزن یال های بین هر گره j از سطح قبلی (زمان t-1) تا گره i در سطح فعلی (زمان t)). مقادیر گره با yi (مقدار گره i) نشان داده می شود. وابستگی یک تابع پیچیده است مانند: yi(t) = y(t-1).(1-alpha.deltaT) + بتا. 1 / (1 + exp(-WeightedSigma)) WeightedSigma = Sigma (Wij * yj(t)) اکنون می‌خواهم یک گره فاکتور در پیاده‌سازی گراف فاکتوری خود در infer.NET قرار دهم. من نمی دانم چگونه باید چنین گره فاکتور و ارسال پیام آن را پیاده سازی کنم. من خیلی گیج شدم لطفاً کسی می تواند در این مورد به من کمک کند؟ من قدردان هر کمکی هستم. با تشکر
محاسبه پیام های EP در نمودار عاملی
24875
من روی مسئله Lasso و انتخاب پارامتر تنظیم بهینه با رویه $k$-fold کار می کنم، مثلاً $k=10$. از آنجایی که این رویه بر زیرنمونه گیری تصادفی متکی است، هر بار که این روش را تکرار می کنم، مقدار پارامتر بهینه تغییر می کند. به عنوان مثال، می توان آن را 0.32، سپس 0.41، سپس 0.29، و غیره. 2. چگونه خطای استاندارد را برای استفاده از یک قانون استاندارد محاسبه کنم؟
انتخاب پارامتر بهینه با k- برابر مکرر
52079
در ابتدا این تصور را داشتم که مدل‌های متغیر پنهان و مدل‌های گرافیکی در مجموع چیزهای متفاوتی هستند، اما پس از خواندن برخی مقالات در مورد مدل‌های کلاس قبلی، به نظر می‌رسد که آنها بیشتر از آنچه فکر می‌کردم اشتراک دارند. به عنوان مثال، در هر دو مورد، مشخصات احتمالات مشروط وجود دارد. آیا تفاوتی بین این دو وجود دارد؟ چگونه می توانم اینها را نسبت به یکدیگر ببینم؟
مدل متغیر پنهان و مدل های گرافیکی
92709
فرض کنید من یک پواسون GLM را برای مدل‌سازی نرخ‌ها به صورت زیر نصب کرده‌ام: > fit.1=glm(response~X1+X2+ offset(log(population)),family=poisson,data=...) می‌توانم نرخ‌های تخمینی را با با استفاده از دو مقدار جدید برای X1 و X2 و جمعیت=1 به شرح زیر: >new.data=data.frame(X1=new.X1,X2=new.X2,population=1) >estimated.rates=predict(fit.1,newdata=new.data,type=response) زیر بخش زیر 13.4.5 در مقدمه ای بر تحلیل رگرسیون خطی، ویرایش پنجم، سپس با استفاده از انحراف باقیمانده ها را دوباره بررسی می کنم. 'qqnorm' و دریافتند که حتی تقریباً به طور معمول توزیع نشده اند. بنابراین برای اصلاح مدل خود، از تبدیل جعبه و کاکس (لامبدا) برای بهبود مدل استفاده کردم و یک مدل شبه پواسون جدید نصب کردم: > fit.2=glm(I(response^lambda)~X1+X2+ offset(log( جمعیت))،family=quasipoisson,data=...) من دوباره می توانم نرخ ها را مشابه قبل تخمین بزنم: > تخمین زده شده.rates.2=predict(fit.2,newdata=new.data,type=response) estimated.rates.2 در مقیاس پاسخ تبدیل شده است (با استفاده از تبدیل کادر و cox). آیا می‌توان نرخ‌های «rates.estimated.2» را به مقیاس اصلی تبدیل کرد (یعنی مشابه «estimated.rates»)؟
نرخ تبدیل برگشتی در پواسون GLM با تبدیل جعبه و کاکس
106369
لطفاً به این سوال در مورد بحث بدون ناهار رایگان Duda، Hart و Stork مراجعه کنید. سلام به همه، من در درک توضیح قضیه NFL در Duda، Hart و Stork مشکل داشتم. مسائل من همان است که در مرجع بالا مطرح شد. من هم جواب رو خوندم ولی هنوز مشکلات زیر رو دارم. معادله (1) در کتاب برای من منطقی است. می گوید که میزان خطای مورد انتظار برای یک الگوریتم یادگیری با توجه به مجموعه آموزشی این است: \begin{equation} \mathcal{E}[E|\mathcal{D}] = \sum_{h,F}\sum_{x \notin \mathcal{D}} P(x)[1-\delta(F(x)،h(x)]P(h|\mathcal{D})P(F|\mathcal{D}) \end{equation} (در واقع، من معتقدم که $P(x)$ باید $P(x|x \notin \mathcal{D})$ باشد، اما این تفاوتی در اثبات نخواهد داشت.) حالا، همانطور که در متن گفته شد، $P(h|\mathcal{D})$ احتمال این است که الگوریتم تابع فرضیه $h$ را ایجاد کند، بنابراین فقط با یک تغییر جزئی نماد، می‌توانیم بنویسیم خطای مورد انتظار برای الگوریتم $k$ این است: \begin{equation} \mathcal{E}_k[E|\mathcal{D}] = \sum_{h,F} \sum_{x \notin \mathcal{D}} P (x)[1-\delta(F(x)،h(x)]P_k(h|\mathcal{D})P(F|\mathcal{D}) \end{equation} بنابراین خطای شرطی برای الگوریتم $k$، تابع هدف $F$، \begin{equation} \mathcal{E}_k[E|F, \mathcal{D}] = \sum_{h} است. \sum_{x \notin \mathcal{D}} P(x)[1-\delta(F(x)،h(x)]P_k(h|\mathcal{D}) \end{equation} اکنون، متن بیان می‌کند که خطای طبقه‌بندی خارج از مجموعه آموزشی مورد انتظار زمانی که تابع واقعی $F(x)$ باشد و احتمال Kامین الگوریتم یادگیری کاندید $P_k(h(x)|\ باشد. mathcal{D})$ توسط \begin{equation} \mathcal{E}_k[E|F,n] = \sum_{x \notin \mathcal{D}} داده می‌شود P(x)[1-\delta(F(x),h(x)]P_k(h(x)|\mathcal{D}) \end{equation} چیزی که من نمی فهمم این است: در مورد از یک الگوریتم تصادفی، توابع فرضی زیادی $h$ وجود دارد که می تواند توسط الگوریتم $k$ تولید شود. اما در معادله بالا، فقط یک $h(x)$ ظاهر می‌شود و هیچ جمع‌بندی بیش از $h \in \mathcal{H}$ وجود ندارد. معادله ماقبل آخر در بالا راه بهتری برای توصیف خطای طبقه‌بندی الگوریتم $k$ داده شده با $F$ به نظر می‌رسد. به همین دلیل است که من با نویسنده سوال فوق الذکر (مخصوصاً شماره 1 و 2 او) موافق هستم. اگر معادله موجود در متن صحیح است، پس کدام $h$ است؟ کسی ایده ای دارد؟ من باید چیزی را از دست بدهم. با تشکر
دودا، هارت، لک لک بدون بحث ناهار رایگان
105475
آیا راهی برای تخمین معادله ARMA با استفاده از تابع «lm()» در R بدون استفاده از «arima()» وجود دارد؟
تخمین معادله ARMA با استفاده از lm() در R
24877
من و دوستانم فقط کمی بحث کردیم که آیا رویدادها مستقل هستند یا وابسته هستند اگر هیچ نتیجه مشترکی نداشته باشند. من فکر می کردم که آنها باید مستقل باشند. وقتی دو رویداد مستقل هستند، آنگاه $P(A)=P(A\mid B)$. آیا اطلاعات ارائه شده در سوال برای اثبات این موضوع کافی است؟ اگر به عنوان نمودار ون به آن نگاه کنید، اگر بین A و B همپوشانی وجود نداشته باشد، آنها مستقل هستند. اما دوستم مخالفت کرد و گفت این بستگی به فضای نمونه دارد. بنابراین فرض کنید ما دو رویداد داریم: $P(A)=6/12$، $P(A\mid B)=2/4$، و $P(B)=4/12$، سپس آشکارا $P( A\mid B)$ برابر است با $P(A)$. اما برای من چیزی اینجا بوی ماهی می دهد. می دانم که این بیشتر یک سوال تصادفی است تا یک سوال آماری، اما شاید کسی بتواند کمک کند.
وقتی دو رویداد $A$ و $B$ هیچ نتیجه مشترکی ندارند
24876
من نمی دانم که آیا این یک سوال مناسب است یا خیر. من داده های 2 گروه خنثی و مثبت را دارم. در اینجا داده ها چگونه به نظر می رسند A 02.840 00.960 00.950 00.995 00.995 00.602 1 B 04.730 01.000 01.000 00.999 01.000 01.090 01.090 01.090 C 00.078 00.987 00.000 0 D NULL 01.000 01.000 00.010 00.675 00.451 1 E 00.530 01.000 00.022 00.022 00.230 00 ستون نام اولین رکورد است. و آخرین ستون کلاس/گروه آن است. شش ستون در وسط ویژگی هایی هستند که برخی از آنها ممکن است NULL باشند. با دانشی که سال ها پیش مطالعه کردم، ابتدا ANN و SVM را امتحان خواهم کرد. اما مطمئن نیستم که در مسیر درستی هستم یا نه. بنابراین نمی دانم کسی اینجا می تواند مرا راهنمایی کند.
بهترین روش آموزشی برای رکوردهای 15-30k با 5-12 ویژگی برای طبقه بندی داده ها در 2 گروه چیست؟
78189
من به دنبال مقاله ای هستم که امیدوارم وجود داشته باشد، اما نمی دانم وجود دارد یا خیر. این می‌تواند مجموعه‌ای از مطالعات موردی، و/یا استدلالی از تئوری احتمال باشد، در مورد اینکه چرا استفاده از داده‌های مقطعی برای استنتاج/پیش‌بینی تغییرات طولی ممکن است چیز بدی باشد (یعنی لزوماً چنین نیست، اما می‌تواند باشد). من این اشتباه را از چند جهت بزرگ دیده‌ام: استنباط‌هایی صورت گرفت که چون افراد ثروتمند در بریتانیا بیشتر سفر می‌کنند، پس با ثروتمندتر شدن جامعه، کل جمعیت بیشتر سفر می‌کنند. این استنباط برای مدت طولانی - بیش از یک دهه - نادرست بود. و یک الگوی مشابه با مصرف برق خانگی: داده های مقطعی نشان دهنده افزایش های بزرگ با درآمد است که در طول زمان آشکار نمی شود. چیزهای مختلفی در جریان است، از جمله اثرات همگروهی و محدودیت‌های طرف عرضه. داشتن یک مرجع واحد که مطالعات موردی را مانند آن گردآوری کرده باشد بسیار مفید خواهد بود. و/یا از نظریه احتمال برای نشان دادن اینکه چرا استفاده از داده های مقطعی برای استنتاج/پیش بینی تغییرات طولی می تواند بسیار گمراه کننده باشد استفاده کرد. آیا چنین کاغذی وجود دارد و اگر وجود دارد چیست؟
چرا استفاده از داده های مقطعی برای استنتاج/پیش بینی تغییرات طولی یک چیز بد است؟
24879
لطفا، این شاید یک سوال فراآماری باشد، اما اجازه دهید این را بپرسم. برای پاسخ به این سؤال به یک ریاضیدان چه می‌گویید: «به چند مثال اشاره کنید که شرکت‌های بیمه یا بانک‌ها چه نوع تجزیه و تحلیل داده‌ها را انجام می‌دهند؟» چیزی a la آنها مجموعه ای از ادعاها را دارند و میانگین را محاسبه می کنند.... (بدیهی است یک مثال احمقانه).
چه چیزی را تحلیل می کنند
102875
من کمی در اطراف جستجو کردم، اما در یافتن پاسخی برای سوال خاص خود که خیلی فنی نیست مشکل دارم. من می‌خواهم این احتمال را پیش‌بینی کنم که برای یک سری زمانی معین در نقطه عطفی قرار داریم - که به طور دلخواه تعریف شده است. من داده‌های تاریخی دارم که از آن‌ها برخی زمان‌ها را تعیین کرده‌ام که «نقاط عطف» هستند (1 برای بله، 0 برای خیر) و فهرستی از رگرسیون‌ها دارم که در واقع داده‌هایی برای آنها دارم. از این رو، من می‌خواهم الف) از یک مدل پروبیت یا لاجیت برای تخمین ضرایب روی رگرسیون‌هایی که دارم استفاده کنم و ب) از مقادیر آینده (یا خارج از نمونه) برای این رگرسیون‌ها برای پیش‌بینی/پیش‌بینی شانسی که در آن قرار داریم استفاده کنم. یک نقطه عطف در حال حاضر چیزی که من با آن مشکل دارم قرار دادن سری های زمانی و تجزیه و تحلیل پروبیت است. من تماس می‌دهم: glm (فرمول = چرخش ~ . - تاریخ، خانواده = دوجمله‌ای (پیوند = probit)، داده = d1) من می‌خواهم از عملکرد پیش‌بینی برای بدست آوردن یک سری زمانی از احتمالات استفاده کنم. دو فکر پایانی 1. من قبلاً آمار زیادی انجام نداده ام، بنابراین می خواهم از برخی مشکلات اجتناب کنم. تعریف من از نقطه عطف از این جهت مشخص است که برای بیش از 123 مشاهده ماهانه (تاریخی) تنها 4 مورد این معیار را برآورده می کنند. آیا این مانع از توانایی مدل پروبیت برای کارکرد موثر می شود، آیا باید هر یک از این نقاط را در یک محدوده بالشتک کنم (یعنی هر بار به اضافه یا منهای 2 نقطه عطف فعلی من به 1 تغییر می کند). 2. آیا روش های بهتری برای پیش بینی باینری وجود دارد؟ من متوجه شدم که در پیش بینی میانگین ضربات بیس بال، یک توزیع بتا برای مدل سازی پیشین ها و به روز رسانی استفاده می شود. آیا راه منطقی برای وارد کردن این موضوع وجود دارد؟
ترسیم یک سری زمانی پروبیت در R
9666
ساعت کامپیوتری جدید من با سرعتی کار می کند که در طول زمان به صورت پلکانی تغییر می کند، حتی پس از تنظیم آن از طریق نرم افزار Linux adjtimex. در اینجا نموداری از تغییر در رانش تجمعی ساعت برای هر یک از حدود 1700 نمونه گرفته شده در هر 10000 ثانیه است، با تعدادی از نقاط از دست رفته و نقاط پرت زمانی که من از شبکه خارج بودم و ntpdate کار نمی کرد. به عنوان مثال در اوایل، ساعت در هر 10000 ثانیه حدود 0.09 ثانیه افزایش یافت (9ppm). ![clock-rate.png](http://bcn.boulder.co.us/~neal/media/images/clock-rate.png) من به دنبال چند توابع کتابخانه هوشمند هستم که بتواند به طور خودکار آنچه را که من می دانم شناسایی کند. «حالت‌های» آماری مختلف این مجموعه داده را فراخوانی می‌کنیم - یعنی یک حالت در وسط وجود دارد که y برای مدت طولانی حدود 0.02- است، سپس حالت دیگری نزدیک به 0.09 است. در اوایل و یکی در 0.202 در پایان. اکثر کدهایی که برای یافتن حالت داده‌ها دیده‌ام، با اعداد صحیح و داده‌های گسسته سروکار دارند، اما همانطور که می‌بینید، مقادیر ممیز شناور بسیار نامرتب دارد. در هر صورت، در حالت ایده‌آل، خلاصه‌ای را می‌خواهم که به طور خودکار حالت‌هایی را که در بالا شناسایی کرده‌ام پیدا کند، و همچنین برای هر یک انحراف استاندارد به من بدهد. نقاط شروع/توقف برای هر حالت برای اعتبار اضافی. کد پایتون ترجیح داده می شود.
شناسایی حالت ها در داده های ممیز شناور
99072
من یک جدول احتمالی دارم که از مشاهدات خارج از نمونه محاسبه شده است. در برخی موارد همه کلاس‌ها در خارج از نمونه نمایش داده نمی‌شوند و بنابراین ظاهر نمی‌شوند. من می‌خواهم جدول احتمالی را وادار کنم که صفرها را برای کلاس‌هایی که خارج از نمونه نیستند گزارش کند. چگونه می توانم آن را به طور موثر انجام دهم. به عنوان مثال جدول احتمالی من x z x 1 2 y 1 3 z 2 2 است اما می خواهم شبیه x y z x 1 0 2 y 1 0 3 z 2 0 2 باشد.
جدول اضطراری اجباری برای گزارش کلاس های ارائه نشده
78184
احتمال log به شرح زیر است: $nln\beta + (-\beta-1)\sum ln(x_i)$ با تقسیم احتمال ورود بر n، $ln\beta + \frac{(-\beta-1)} {n}\sum ln(x_i)$ با استفاده از این دو احتمال log، من همان برآوردگر MLE را دریافت کردم که $\frac{n}{\sum است ln (x_i)}$. با این حال، من با ویژگی های مجانبی متفاوت گیج شدم. برای لاگ احتمال اول، ماتریس اطلاعات $\beta^2/n$ است، برای دومی به سادگی $\beta^2$ است. من درک می کنم که صرفاً به دلیل جبر، نتایج متفاوت خواهد بود. اما من می‌خواهم ویژگی آماری را بفهمم: چرا این دو MLE برای دو لگاریتم احتمال واریانس مجانبی متفاوتی دارند؟ تفاوت با این واقعیت که log-likelihood بر $n$ تقسیم شده است چگونه ارتباط دارد؟
برآوردگر MLE - تقسیم احتمال ورود بر n نتیجه متفاوتی می دهد
113962
من در حال حاضر مقاله دیبولد و لی در سال 2006 را می خوانم: پیش بینی ساختار اصطلاحی بازدهی دولت در جایی که نویسندگان با مدل های AR(1) ولو ساده بر روی داده های کاملاً ثابت سازگار هستند. چرا این کار در شرایط خاص مجاز است؟ و عواقب / پیامدهای انجام این کار چیست؟ با تشکر
مدل‌های AR بر روی داده‌های غیر ثابت
105478
آیا فرآیند عادی سازی/استانداردسازی ویژگی باید قبل یا بعد از فرآیند انتخاب ویژگی انجام شود؟
عادی سازی/استانداردسازی ویژگی قبل یا بعد از انتخاب ویژگی؟
107853
من می خواهم فراوانی ریتوییت ها را بین 2 گروه با اندازه نابرابر مقایسه کنم. من تعداد کل توییت ها و تعداد بازتوییت ها را برای هر کاربر دریافت کرده ام. من امیدوار بودم که صفحه وب R Cookbook کمک کند، اما به نظر می رسد آزمایش های ارائه شده در آنجا برای اندازه گیری های مکرر و اندازه نمونه برابر برای دو گروه مناسب تر است: http://www.cookbook-r.com/Statistical_analysis/Frequency_tests/ من خواهم بود. از راهنمایی در مورد اینکه از چه آزمایشی در اینجا استفاده کنم سپاسگزارم. مجموعه داده من کمی شبیه این است: userid tweetCount ReTweetcount Group 1 45 3 A 2 100 25 A 3 23 0 B
تفاوت در فرکانس در دو گروه با اندازه نابرابر
41197
> **تکراری احتمالی:** > محاسبه انحراف استاندارد جدید با استفاده از انحراف استاندارد قدیمی پس از > تغییر در مجموعه داده من واریانس نمونه n نمونه و میانگین آن و خود n را می دانم. اکنون می خواهم یک نمونه دیگر اضافه کنم تا n + 1 داشته باشم. آیا راهی وجود دارد که چگونه نمونه را بدون محاسبه مجدد کل ترم اضافه کنم؟ (کارآمد محاسباتی). تقریب هم خوب خواهد بود.
به روز رسانی واریانس نمونه، نمونه به نمونه
113968
فرض کنید من یک مجموعه داده با چندین متغیر پیوسته و طبقه بندی دارم، و می خواهم شناسایی کنم که چه متغیرهایی (مقادیر یا ویژگی های این متغیرها) ممکن است باعث افزایش یکی از متغیرهای پیوسته شوند. چگونه می توانم این مشکل را مدل کنم؟ چندین رویکرد به ذهن می رسد (به عنوان مثال **رگرسیون لجستیک**، **ANOVA**، **درخت تصمیم**) اما اکثر آنها (همه؟) نیاز دارند که یک **شرط** را روی متغیر هدف خود تعریف کنم و بنابراین آن را به یک متغیر **مقوله** تبدیل کنید و/یا مشکل را به عنوان یک **مشکل طبقه بندی** در نظر بگیرید. اما اگر متغیر **وابسته** من یک متغیر پیوسته باشد و من به دنبال ویژگی های متغیرهای مستقل (مستمر و طبقه ای) باشم که باعث می شود متغیر وابسته من افزایش یابد چه؟ آیا **رگرسیون خطی** بهترین کاری است که می توانم انجام دهم؟ اگر هدف من یافتن **محدوده**های پیش بینی کننده هایی باشد که از نظر آماری با افزایش متغیر وابسته من همبستگی دارند، چه؟ چه **مدل**هایی برای این مشکل در دسترس دارم و مهمتر از همه، چه **سوالاتی** باید در مورد مشکل از خودم بپرسم تا مدل مناسب را شناسایی کنم؟
شناسایی عواملی که باعث افزایش یک متغیر می شود
113697
من دو IV دارم که در 0.979 (Pearson) و 0.919 (Kendall's) همبستگی بالایی با یکدیگر دارند. IV1: کیفیت پاسخ IV2: کیفیت مشاوره فنی حجم نمونه: 252 با توجه به شباهت در عبارت IV ها، آیا می تواند به این معنی باشد که پاسخ دهندگان تفاوتی بین دو اندازه گیری درک نمی کنند؟ آیا رها کردن یکی از موارد مناسب است؟
موارد بسیار مرتبط را حذف کنید؟
8526
من یک سوال نسبتاً اساسی در مورد تجزیه و تحلیل مؤلفه های اصلی احتمالی دارم، که اکنون سعی می کنم آن را برای یک مشکل دنیای واقعی اعمال کنم. در PPCA، فرض مهم این است که فرآیند تولید مشاهدات در $R^n$ $t=Wx +\sigma^2\epsilon$ است، که در آن x iid گاوسی استاندارد در $R^q$ (با $q است. \le n$) و $\epsilon$ بردارهای استاندارد گاوسی iid در $R^n$ هستند. نویسندگان دریافتند که راه‌حل MLE $\hat W=U_q (\Lambda_q - \sigma^2 I)^{1/2}$ است، که در آن $\Lambda_q$ ماتریس مورب $q$ بزرگترین مقادیر ویژه است. ماتریس کوواریانس تجربی، و $U_q$ زیر ماتریس بردارهای ویژه مربوطه است، و $\sigma^2$ میانگین است مقادیر ویژه کوچکتر باقی مانده (به بخش 3.2 مقاله مرتبط مراجعه کنید). سوال من ساده است. ماتریس کوواریانس $C=WW'+\sigma^2 I$ است. با اتصال مستقیم نتیجه بالا، $\hat C=U_q\Lambda_q U_q$ را به دست می آوریم (شرایط $\sigma^2$ لغو می شوند). آیا این می تواند درست باشد؟ ماتریس کوواریانس دارای کمبود رتبه است. آیا من چیزی را از دست داده ام؟
سوال در مورد تحلیل مولفه اصلی احتمالی
105471
من مدلی را در حوزه فرکانس برازش می کنم و تناسب من به این صورت است: ![Model fit](http://s3.postimg.org/8aop8zepv/fit.jpg) همانطور که می بینید، تابع مدل مناسب نیست داده ها به طور کامل، به خصوص در فرکانس های بالاتر. بنابراین، من باقیمانده ها را بررسی کردم و دریافتم که یک چند جمله ای درجه اول عبارت گم شده در تابع مدل است. چیزی که بیشتر نگران من است این است که واریانس داده ها با فرکانس کاهش می یابد. چه پیامدهایی بر تحلیل من دارد؟ (به نظر می رسد که نگاه کردن به همبستگی خودکار باقیمانده ها نیز چندان مفید نیست.) هر ایده ای بسیار مفید خواهد بود.
انحراف استاندارد غیر ثابت در باقیمانده ها
68099
من تعدادی دانه در فواصل مختلف افتاده ام. اگر مدلی مناسب باشد، باید بدانم کدام مدل با این داده ها مطابقت دارد. مدل‌های مختلفی برای برازش این داده‌ها استفاده شده است: نمایی منفی، ویبول، لگ نرمال. من باید بدانم که چگونه همه آنها را در R قرار دهم، از 0 شروع کنیم و داده ها را تولید کنم. من فقط توانستم مدل نمایی مجانبی 2 پارامتری را برازش کنم، اما نمی‌دانستم به کدام پارامتر نگاه کنم یا ایجاد کنم تا بدانم آیا تناسب خوبی دارد یا خیر. اطلاعات مستقیماً از اکسل من این است: Distancia (فاصله) 5.4 9.69 11.32 12.84 12.98 14.92 17.76 17.94 17.96 22.17 61.37 63.18 87.88 112.29 116.29 45.23 141.2 Abundancia (تعداد) 1 2 9 49 24 0 18 3 5 3 10 0 3 0 7 9 6 3
برازش مدل های مختلف به داده های من در R
68090
فرض کنید من یک مجموعه داده دارم که از مخلوطی از گاوسیان نمونه برداری شده است: $$ X \sim \sum_i w_i \mathcal{N}(\mu_i, \Sigma_i)$$ از نظر فنی، می‌توانم X$ را در مرکز و سپس سفید کنم تا آن را میانگین و کوواریانس واحد صفر دارد. اما چیزی در مورد آن فرآیند به‌طور رضایت‌بخشی بیش از حد ساده‌شده به نظر می‌رسد: برای مثال، اگر میانگین‌های مخلوط در امتداد یک نیم‌دایره مرتب شوند، به‌گونه‌ای که هیچ ارزشی در X$ واقعاً در میانگین کلی نمونه رخ ندهد، چه؟ به نظر می رسد این موردی است که سفید کردن واقعاً معنایی جهانی ندارد. با این حال، تنها با توجه به یک مجموعه داده، می توان از نظر تئوری ترکیبی از مدل گاوسی را در آن قرار داد و سپس از کوواریانس های تخمین زده شده برای سفید کردن نقاط در مناطق محلی فضای داده استفاده کرد. سوال من این است که آیا این روند قبلاً به نوعی با نامی رسمی شده است که من هنوز به آن برخورد نکرده ام؟ اصلا معنی داره؟ برای کسب اطلاعات بیشتر در مورد سفید کننده موضعی باید از چه مراجع خوبی استفاده کنم؟
سفید کردن مخلوطی از گاوسیان
114220
ما با داده های پانل کار می کنیم. اما ما می خواهیم فقط قسمت مقطعی داده های پانل را مطالعه کنیم. بنابراین، لطفاً کسی می تواند به من بگوید که چگونه هر نوع تبدیل داده را انجام دهم تا بتوانم واریانس سری زمانی را از داده های پانل حذف کنم؟ متشکرم.
حذف واریانس سری زمانی از داده های پانل
67244
فرض کنید من رفتار کاربران را هنگام بازدید از یک وب سایت ردیابی کردم. به طور مفصل حرکتی را که از کدام سایت به سایت کلیک می کنند در وب سایت دنبال می کنم. بنابراین من تاپل های زیادی با (userID، سایت، زمان) دارم. اکنون می خواهم تجسم کنم که آیا الگوها یا خوشه هایی برای حرکت وجود دارد یا خیر. فرض کنید اکثر کاربران گام به گام از طریق وب سایت کلیک می کنند، و گروه دیگری از سایت 1 و سپس سایت 2 بازدید می کنند، سپس به 1 و سپس به 2 و سپس به سایت 3 برمی گردند. از چه روشی می توانم برای طبقه بندی رفتار استفاده کنم؟ a<-as.POSIXlt(2013-07-01 00:30:00) b<-as.POSIXlt(2013-07-29 00:30:00) aI<-as.numeric(a) bI <-as.numeric(b) بار<-sample(seq(aI,bI,by=2)،10000) t<-sort(times) class(t)<-c(POSIXt,POSIXct) id<-seq(1,10050,20) userID<-1 for(i در 1:200){ userID<- c(userID,sample(id[i]:id[i+1],50,replace=T)) } userID<-userID[1:10000] جنبش<-list(LETTERS[1:20],c(A، B، A، B، C، D، E، F، G، H، I) ,c(A، B، C، B، C، D، E، D، C، D E) ,c(C،B، C، D، E، F، G، H، I، I)) site<-character(10000 ) for(i در منحصر به فرد(userID)){ p<-sample(movement,1)[[1]] site[userID==i]<-p[1:length(userID[userID==i])] } table<-data.frame(userID=userID,site=site,time=t)
روش پیدا کردن الگو
67245
بر اساس یک سوال قبلی، کلاس ها را طوری متعادل کردم که اعداد در هر دو کلاس تقریباً مشابه باشند. جنگل تصادفی نتیجه بعدی را می دهد: > print(rFresult) فراخوانی: randomForest(فرمول = finresfh ~ .، داده = rFdatasubset، اهمیت = TRUE) نوع جنگل تصادفی: طبقه بندی تعداد درختان: 500 تعداد متغیرهای امتحان شده در هر تقسیم: 14 برآورد OOB از میزان خطا: 35.53٪ ماتریس سردرگمی: 1 2 class.error 1 1852 627 0.2529246 2 1022 1140 0.4727105 پیش بینی در مجموعه قطار جدایی کامل را برخلاف ماتریس سردرگمی نشان می دهد: > tab <- table(probability=round(predict(rFresult,datastaub) type=prob)[,2],1), TRUE_status=rFdatasubset$finresfh) > برگه TRUE_status probability 1 2 0.1 978 0 0.2 1447 0 0.3 54 0 0.7 0 65 0.8 0.301 0.3015 احتمال برای آزمودنی ها در کلاس 2 تخمین زده می شود. جدول احتمال به معنی تعداد آزمودنی هایی با سطح احتمال پیش بینی شده دارای وضعیت TRUE معین است. آیا کسی می تواند توضیح دهد که چرا احتمالات تخمین زده شده یک جدایی کامل اما نتیجه کاملاً متفاوت را در جدول سردرگمی نشان می دهند؟
ماتریس سردرگمی جنگل تصادفی با احتمالات پیش‌بینی‌شده در داده‌های قطار مطابقت ندارد
68852
سلام و ممنون از هر گونه کمکی که در زیر آمده است، این یک سوال نسبتاً پیچیده است، بنابراین من سعی خواهم کرد آن را به صورت کاملاً ابتدایی بپرسم. من اطلاعاتی در مورد فراوانی 99 گونه مختلف از گونه‌های بی‌مهرگان کلان دهانه رودخانه و محتوای گل رسوب (0-100%) دارم که در آن هر مشاهده به‌دست آمد. من در مجموع 1402 مشاهده برای هر گونه دارم (یعنی یک مجموعه داده عظیم). در اینجا زیرمجموعه ای از داده های خام برای یک گونه وجود دارد تا به شما ایده ای از داده هایی که با آنها کار می کنم ارائه دهد (اگر 10 امتیاز شهرت داشتم، نموداری از داده های خام واقعی را آپلود می کردم: فراوانی: 10،14،10،3،3،3،3،4،5،5،0،0،0،0،0،0،0،0،0،0،0،0،6،6، 6,0,0,0,0,12,0,0,0,34,0,0% گل: 0.9،4،2،10،13،14،6،5،5،7،22،27،34،37،47،58،54،70،54،80،90،65،56،7،8، 34,67,54,32,1,57,45,49,4,78,65,45,35 هدف اولیه تحقیق من تعیین محدوده % گل و لای بهینه (به عنوان مثال 15 - 45 %) و محدوده گل توزیعی (به عنوان مثال 0 - 80%) برای هر یک از 99 گونه بی مهرگان همانطور که می بینید، داده های فراوانی برای گونه های فوق حاوی تعداد قابل توجهی است اگر چه این به طور قابل توجهی هر نوع مدلی را که من روی داده اجرا می کنم (یعنی GLM، GAM) منحرف می کند، حتی اگر مدل کنم. تنها با داده های غیرصفر، مدل برای گونه های خاص به خوبی با داده ها مطابقت ندارد، بنابراین، سوال من این است: بهترین و قوی ترین راه برای تعیین محدوده گل بهینه و توزیع چیست. با توجه به اینکه پاسخ ها بین گونه ها به طور قابل توجهی متفاوت است؟
تعیین محدوده بهینه و توزیع از فراوانی گونه ها در مقابل داده های گرادیان محیطی
107852
بهینه سازی محدودیت $\text{argmin}_{\beta}(f(\beta)+\lambda g(\beta))$ را در نظر بگیرید آیا کسی می تواند $\beta(\lambda)$ را تعریف کند. یعنی چه رابطه ای بین $\lambda$ و $\beta$ وجود دارد؟
بهینه سازی محدودیت
113966
من مقاله زیر را می خوانم: http://www-biba.inrialpes.fr/Jaynes/cc07s.pdf و به نظر نمی رسد بفهمم که جینز چگونه (P2) و زیر را استخراج می کند (به طور خاص log حسابی log[f(x) /f(0)]....) آیا کسی می تواند به من کمک کند؟
اشتقاق جینز از هرشل-مکسول برای توزیع عادی
78180
فرض کنید من دو آزمایش از یک نوع دارم، جایی که چیزی x برابر در یک مکان و y بار در مکان دیگر اندازه‌گیری می‌کنم، آیا جستجوی وابستگی در مقادیر بین این دو آزمایش فایده‌ای دارد؟ در صورت اهمیت، در اندازه نمونه تفاوت وجود دارد و هر دو نمونه توزیع تقریباً نرمال دارند. به عنوان مثال، اگر بخواهم طول مردم در آسیا و طول مردم در اروپا را اندازه‌گیری کنم، می‌توانم یک آزمون فرضیه صفر H0 را بررسی کنم «طول متوسط ​​آسیایی‌ها از میانگین طول اروپایی‌ها کوچکتر است». این یک مطالعه معتبر است. با این حال، عجیب به نظر می رسد که تعجب کنیم که آیا طول اروپایی ها می تواند تحت تأثیر طول آسیایی ها باشد. به هر حال، طول می تواند تحت تأثیر عوامل بالقوه دیگری مانند غذا، آب و هوا، ژن ها و ... باشد، اگر جمعیت جهان ناگهان هورمون های رشد را دریافت کند، میانگین طول هم آسیایی ها و هم اروپایی ها احتمالاً افزایش می یابد. احمقانه به نظر می رسد که تصور کنیم طول اروپایی ها به دلیل افزایش طول آسیایی ها افزایش یافته است. اروپایی‌ها به همراه آسیایی‌ها حجمشان را افزایش دادند، اما نه به دلیل یک نتیجه مستقیم. آیا صرفاً ارزش این را دارد که در نظر بگیریم که آیا دو متغیر در صورت داشتن مقادیر جفتی (مانند سن و وزن) هر نوع وابستگی دارند؟ اگر نه، قدم منطقی بعدی برای آزمایش وابستگی چیست؟ من همچنین متوجه شده ام که نمی توانم هیچ نوع آزمون همبستگی را انجام دهم زیرا هیچ مقدار جفتی ندارم. آیا می توانم به عنوان یک نتیجه فوری فرض کنم که دو متغیر من وابستگی خطی ندارند؟ من خودم سعی کردم پاسخ را پیدا کنم، اما تست ها و چیزهای زیادی وجود دارد که باید از آنها آگاه بود. برای یک تازه کار کمی سخت می شود.
وابستگی بین دو آزمایش مستقل بی معنی است؟
30202
من یک نمونه‌گر گیبس را برای توزیع پسین Wishart معکوس چندمتغیره با گام انتساب داده‌های گمشده اجرا می‌کنم. من سعی می کنم بررسی کنم که آیا گام من برای شبیه سازی ماتریس های کوواریانس از Inverse-Wishart همگرا است یا خیر. چگونه در مورد آن اقدام کنم؟ در MCMC من معمولا تست تشخیصی Gelman-Rubin را انجام می دهم. متشکرم
تست همگرایی در نمونه‌گیر گیبس
99071
من از OpenANN برای آموزش یک شبکه عصبی با یک لایه پنهان و یک لایه خروجی softmax با آنتروپی متقاطع به عنوان تابع خطا استفاده می کنم. برای کاربرد من، به نظر می رسد الگوریتم گرادیان مزدوج در مقایسه با LBFGS الگوریتم عملکرد خوبی باشد. تصویر زیر خطای آموزشی و خطای اعتبارسنجی برای یک پیکربندی شبکه عصبی (20 ورودی، 4 نورون پنهان، 12 خروجی) را نشان می‌دهد. آیا این طبیعی است که CG در طول تمرین دارای اسپک در عملکرد باشد، و اگر چنین است، چه توضیحی برای اسپک وجود دارد؟ سنبله ها فقط برای CG و نه برای LBFGS و LMA ظاهر می شوند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EOY6Z.png)
شبکه عصبی: اسپک با استفاده از گرادیان مزدوج
67249
رگرسیون خطی ساده در متلب. با p-values ​​من مشکلی وجود دارد. Stata گزارش می دهد که مقادیر p باید 0.000 و 0.207 باشد، در حالی که کد من گزارش می دهد که آنها باید 0.0001 و 0.2988 باشند. تمام آمارهای دیگر مانند خروجی Stata است. لطفا به من کمک کنید تا خطای راه هایم را ببینم. % تعداد مشاهدات n = 10; x = [1.0000، 0.4617; ... 1.0000, 0.7532; ... 1.0000, 0.2145; ... 1.0000, 0.5573; ... 1.0000, 0.5586; ... 1.0000, 0.4195; ... 1.0000, 0.4890; ... 1.0000, 0.9292; ... 1.0000, 0.2540; ... 1.0000, 0.7025]; y = [108.3156; ... 103.0389; ... 170.0043; ... 167.9905; ... 185.0679; ... 190.1774; ... 135.8128; ... 125.5962; ... 146.6757; ... 143.1218]; % محاسبه ضرایب بتا = (x'*x)\x'*y % محاسبه باقیمانده u = y - x*beta; % محاسبه مجموع مربعات باقیمانده s_2 = (n-2)\u'*u; % محاسبه t-statistics design = s_2*inv(x'*x); % محاسبه خطاهای استاندارد stn_err = [sqrt(design(1,1));sqrt(design(2,2))] %calculate t-statistics t_stat(1,1) = sqrt(design(1,1))\( بتا (1،1) - 0)؛ t_stat(2،1) = sqrt(طراحی(2،2))\(بتا(2،1) - 0); t_stat %calculate p-statistics p_stat(1,1) = tpdf(t_stat(1,1),n-2) + tpdf(-t_stat(1,1),n-2); p_stat(2,1) = tpdf(t_stat(2,1),n-2) + tpdf(-t_stat(2,1),n-2); p_stat
چرا مقادیر p من با Stata متفاوت است؟
107851
من می‌خواهم یک رگرسیون OLS روی داده‌های سری زمانی با استفاده از خطاهای استاندارد مقاوم ناهمگونی انجام دهم. تا اینجای کار می توانم به این برسم: مدل <- lm(I(y[2:T] - y[1:T-1]) ~ y[1:T-1]) رگرسیون <- coeftest(model, vcov =vcovHC(model, type = HC0)) از نظر بیسکالی به نظر می رسد که این کار کار می کند، اما زمانی که عبارت intercept را در فرمول رگرسیون حذف می کنیم، به عنوان مثال مدل <- lm(I(y[2:T] - y[1:T-1]) ~ 0 + y[1:T-1]) برای همه مقادیر به جز تخمین NA به دست می دهد، بنابراین من نمی توانم آمار t متمایز را محاسبه کنم . من برای هر گونه راهنمایی در مورد حل این مشکل سپاسگزار خواهم بود.
رگرسیون خطی با استفاده از خطاهای استاندارد مقاوم ناهمگونی در R
35983
من مجموعه‌ای از مشاهدات دارم که به $N_1(x_1,x_2,x_3,x_4)$ تبدیل می‌شوند که در آن $x_1,...,x_4$ نشان‌دهنده 4 پارامتر مرتبط با هر نقطه است. به عنوان مثال، داده‌های مشاهده شده به این صورت است: #x1 x2 x3 x4 # <-- مشاهده 1.2 0.5 46 10 # <-- 1 0.2 8.9 20 13 # <-- 2 0.8 4.5 18 9 # <-- 3 ... 0.2 4.3 55 7 # <-- N1 من هم 2 مدل A و B دارم، که سعی در بازتولید آن مجموعه مشاهدات دارند. با انجام این کار، هر مدل به ترتیب به من امتیاز $NA(x_1,x_2,x_3,x_4)$ و $NB(x_1,x_2,x_3,x_4)$ می دهد: #x1 x2 x3 x4 # <-- Model A 3.2 45 65 6 # <-- 1 0.2 8.9 20 14 # <-- 2 0.1 3.3 14 11 # <-- 3 ... 0.6 3.9 34 3 # <-- NA و #x1 x2 x3 x4 # <-- مدل B 1.3 0.7 23 5 # <-- 1 1.0 7.4 17 9 # <-- 2 0.3 5.2 8 3 # <-- 3 ... 0.4 6.1 43 4 # <-- NB **مهم**: N1، NA و NB ** لزوماً مساوی نیستند و **هیچ** مطابقت 1:1 بین نقاط مشاهده شده و مدل شده وجود ندارد. آن را به عنوان ابری از نقاط در یک فضای 4 بعدی در نظر بگیرید. برای تعیین کمیت ** کدام مدل بهترین مجموعه مشاهده شده من را بازتولید می کند، کدام آمار را باید اعمال کنم؟
مشاهده در مقابل مدل در فضای N بعدی
3390
بسط Cornish-Fisher راهی برای تخمین چندک های توزیع بر اساس گشتاورها ارائه می دهد. (از این نظر، من آن را مکملی برای گسترش اج‌ورث می‌دانم که تخمینی از توزیع تجمعی بر اساس لحظه‌ها ارائه می‌دهد.) من می‌خواهم بدانم در چه موقعیت‌هایی بسط Cornish-Fisher برای کار تجربی بر کمیت نمونه یا بالعکس چند حدس: 1. از نظر محاسباتی، لحظه های نمونه را می توان به صورت آنلاین محاسبه کرد، در حالی که تخمین آنلاین چندک های نمونه دشوار است. در این مورد، C-F برنده است. 2. اگر کسی توانایی پیش‌بینی لحظه‌ها را داشت، C-F به او اجازه می‌داد تا از این پیش‌بینی‌ها برای تخمین چندک استفاده کند. 3. بسط C-F احتمالاً می تواند تخمین هایی از چندک های خارج از محدوده مقادیر مشاهده شده ارائه دهد، در حالی که کمیک نمونه احتمالاً نباید برآورد کند. 4. من از نحوه محاسبه فاصله اطمینان حول تخمین چندک ارائه شده توسط C-F آگاه نیستم. در این مورد، کمیت نمونه برنده است. 5. به نظر می رسد که بسط C-F نیاز به تخمین چند ممان بالاتر از یک توزیع دارد. خطاهای این تخمین ها احتمالاً به گونه ای ترکیب می شوند که بسط C-F خطای استاندارد بالاتری نسبت به چندک نمونه دارد. هر کسی دیگر؟ آیا کسی تجربه استفاده از این دو روش را دارد؟
چرا از بسط Cornish-Fisher به جای Sample Quantile استفاده کنید؟
3395
من در حال حاضر روی مدلی کار می کنم که دو پارامتر را می گیرد و یک آمار اندازه گیری تولید می کند. آن را به صورت Z = f(X,Y) در نظر بگیرید. Z ماتریسی از آمار من است و من در حال ایجاد نمودار سطحی آن در متلب هستم. اساساً من به دنبال روشی ریاضی/تحلیلی برای تعیین صاف بودن یا ناهمواری سطح آن هستم. آیا مقادیر بزرگ تمایل دارند با هم خوشه شوند یا در سراسر ماتریس پراکنده هستند؟ - این سوال من است. اصولاً مقادیر ماتریس من چقدر با هم مخلوط شده اند؟ من باید مدل را روی مجموعه‌های پارامترهای مختلف اجرا کنم و می‌خواهم بتوانم به صورت تحلیلی تعیین کنم که کدام یک از سطوح من صاف‌ترین است، بیشترین خوشه‌بندی مقادیر بزرگ را دارد و در حالت ایده‌آل، هیچ مقادیر منفی ندارد. هر گونه کمکی بسیار قدردانی خواهد شد و لطفا در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید. به سلامتی
صافی یک سطح
104988
من می بینم که هر دو تابع بخشی از روش های داده کاوی مانند Gradient Boosting Regressors هستند. من می بینم که آنها اشیاء مجزا هستند. اما به طور کلی رابطه بین هر دو چگونه است؟
تفاوت بین تابع ضرر و تابع تصمیم چیست؟
30200
من با فایل‌های CSV حاوی داده‌های 10 دقیقه‌ای دمای چند سال ایستگاه کار می‌کنم و معمولاً محاسباتی را انجام می‌دهم: میانگین، میانگین، همبستگی بین دو ایستگاه، همبستگی در فصول مختلف، همبستگی‌های روز/شب، ... برنامه‌نویسی می‌کنم. این محاسبات با استفاده از پایتون ساده یا Microsoft Excel VBA، با استفاده از حلقه ها و محاسبات ساده انجام می شود. کدنویسی خیلی سخت نیست، اما نمی‌دانم آیا کتابخانه پایتون یا هر محیط برنامه‌نویسی دیگری وجود دارد که به من در صرفه‌جویی در زمان و خطوط کد کمک کند. من در مورد ScyPy و R شنیده ام و اگر بتوانید تجربه ای در مورد این ابزارها به اشتراک بگذارید بسیار سپاسگزار خواهم بود. پیشاپیش از شما بسیار سپاسگزارم.
بهترین زبان برنامه نویسی برای مدیریت سری های زمانی کدام است؟
67242
ما می دانیم که تبدیل غیر صفر قابل اندازه گیری یک دنباله وابسته وابسته است. می‌خواهم بپرسم آیا یک تبدیل غیر صفر قابل اندازه‌گیری دنباله‌ای که تفاوت مارتینگل نیست، تفاوت مارتینگل نیست؟
تبدیل تفاوت مارتینگل
113960
PredictionIO خوب است که برای کشف محتوا و توصیه کافی باشد، اما به نظر می رسد از طبقه بندی پشتیبانی نمی کند. سپس باید از ابزار دیگری و سپس Prediction IO برای سرور پیش بینی خود استفاده کنم. آیا جایگزین های خوبی می شناسید؟ من Google Prediction Server، Azure ML، BigML را می شناسم و به دنبال جایگزین های بیشتری برای مقایسه آنها هستم. بهترین :)
ابزارهای متن باز جایگزین برای PredictionIO چیست؟
30204
من یک رگرسیون را اجرا می کنم که در آن بازده سهام را در بازده بازار رگرسیون می کنم. تاریخ خاصی در نمونه من وجود دارد که در آن رویدادی رخ داده است. من معتقدم که اثر این رویداد فقط در آن تاریخ باقی خواهد ماند. من می‌خواهم ضرایب مدل من عاری از این اثر باشد، زیرا می‌خواهم پیش‌بینی کنم که اگر این رویداد رخ نمی‌داد، بازده چه خواهد بود. من به این فکر می کنم که برای آن تاریخ یک ساختگی وارد کنم (یعنی برای آن تاریخ یک و برای بقیه نمونه صفر است). آیا این روش مناسبی برای رسیدگی به این موضوع است؟ متشکرم.
رگرسیون با ساختگی فقط برای یک تاریخ خاص
99699
چگونه می توانم یک متغیر وابسته تبدیل شده (ریشه چهارم) را با تغییر برخی از متغیرهای پیش بینی آن تفسیر کنم؟ در مطالعه خود، متغیر وابسته خود را به ریشه 4، $Y^\frac{1}{4}$، و یکی از متغیرهای پیش بینی خود را به $\ln(X)$ تبدیل کردیم. چگونه آن را تفسیر کنم؟
تفسیر متغیرهای وابسته و مستقل تبدیل شده
76058
وقتی تفاوت مدل تفاوت ها را با دو دوره زمانی تخمین می زنم، مدل رگرسیون معادل a خواهد بود. $Y_{ist} = \alpha +\gamma_s*Treatment + \lambda d_t + \delta*(Treatment*d_t)+ \epsilon_{ist}$ * که در آن $Treatment$ یک ساختگی است که اگر مشاهده باشد برابر با 1 است از گروه درمان * و $d$ یک ساختگی است که برابر با 1 در دوره زمانی پس از انجام درمان است بنابراین معادله برابر است مقادیر زیر * گروه کنترل، قبل از درمان: $\alpha$ * گروه کنترل، بعد از درمان: $\alpha +\lambda$ * گروه درمان، قبل از درمان: $\alpha +\gamma$ * گروه درمان، بعد از درمان: $\alpha+ \ gamma+ \lambda+ \delta$ بنابراین، در یک مدل دو دوره ای، تفاوت در تخمین اختلاف $\delta$ است. اما اگر بیش از یک دوره قبل و بعد از درمان داشته باشم در مورد $d_t$ چه اتفاقی می افتد؟ آیا هنوز از یک ساختگی استفاده می کنم که نشان دهد یک سال قبل یا بعد از درمان است؟ یا به جای آن، بدون مشخص کردن اینکه آیا هر سال متعلق به دوره قبل یا بعد از درمان است، ادک سالانه اضافه کنم؟ مانند این: ب. $Y_{ist} = \alpha +\gamma_s*Treatment + yeardummy + \delta*(Treatment*d_t)+ \epsilon_{ist}$ یا می‌توانم هر دو را شامل شود (یعنی $yeardummy +\lambda d_t$)؟ ج. $Y_{ist} = \alpha +\gamma_s*Treatment + yeardummy + \lambda d_t + \delta*(Treatment*d_t)+ \epsilon_{ist}$ در نتیجه، چگونه می توانم تفاوت در مدل تفاوت ها را با چند زمان مشخص کنم دوره های (a، b یا c)؟
تعیین تفاوت در مدل تفاوت ها با دوره های زمانی متعدد
4267
من اخیراً کتاب اسکیلی کورن در مورد تجزیه ماتریس را خواندم و کمی ناامید شدم، زیرا مخاطبان کارشناسی را هدف قرار داده بود. من می‌خواهم (برای خودم و دیگران) کتاب‌شناسی کوتاهی از مقالات ضروری (بررسی‌ها، اما همچنین مقالات پیشرفت) در مورد تجزیه ماتریس گردآوری کنم. چیزی که من در درجه اول در ذهن دارم چیزی در SVD/PCA (و انواع قوی/ پراکنده) و NNMF است، زیرا آنها بیشترین استفاده را دارند. آیا همه شما توصیه / پیشنهادی دارید؟ من از پاسخ های خود عقب نشینی می کنم تا تعصبی به پاسخ ها ندهم. من می خواهم هر پاسخ را به 2-3 مقاله محدود کنم. P.S.: من به این دو تجزیه به عنوان پرکاربردترین _در تحلیل داده ها اشاره می کنم. البته QR، Cholesky، LU و Polar در تحلیل عددی بسیار مهم هستند. گرچه تمرکز سوال من این نیست.
مقالات ضروری در مورد تجزیه ماتریس
108380
آیا کسی می تواند کتابخانه ای را برای کارهای داده کاوی سری زمانی به غیر از مدل سازی پیش بینی و تجزیه و تحلیل آماری توصیه کند؟ به نظر می رسد تعدادی برای این اهداف وجود دارد (به عنوان مثال، گرتل)، اما هیچ چیز برای وظایف: * طبقه بندی * خوشه بندی * جستجوی بعدی * تشخیص ناهنجاری * کشف موتیف * نمایه سازی نمی توانم اولین کسی باشم که می خواهم استفاده کنم، به عنوان مثال، iSAX، اما گوگل چیزی جز یک کتابخانه جاوا پیدا نکرده است. پیوند به هر چیزی که می تواند با C/C++، پایتون یا جولیا ارتباط برقرار کند، به ویژه مورد استقبال قرار می گیرد، اما هر کمکی قابل قدردانی است. اطمینان از اینکه چنین کتابخانه ای وجود ندارد نیز مفید خواهد بود، زیرا می دانم که نوشتن آن اتلاف وقت نخواهد بود...
کتابخانه داده کاوی سری زمانی؟
68091
من می خواهم شهود بهتری برای تابع هزینه یک مسئله بهینه سازی داشته باشم. تابع هزینه به تعدادی آرگومان با ارزش واقعی بستگی دارد. من می خواهم بدانم که آیا تابع هزینه محدب است یا خیر. بدیهی است که من می توانم تابع هزینه را برای 2 آرگومان در یک طرح سه بعدی تجسم کنم. من این کار را برای همه جفت‌های آرگومان انجام دادم و معلوم شد که تابع هزینه برای همه این جفت‌ها محدب است. حالا می‌خواهم بدانم: آیا این نشان می‌دهد که تابع هزینه نیز به صورت سراسری محدب است؟
آیا توابع هزینه جفتی محدب نیز به صورت سراسری محدب هستند؟
92476
من از طرح آزمایشی Box-Behnken استفاده کرده ام. من یک مدل درجه دوم کامل دارم. با این حال، من مجبور شدم پاسخ را تغییر دهم، $Y$ تا مدل متناسب شود. من این کار را با استفاده از تبدیل Box-Cox با $\lambda=0.5$ انجام دادم. به عنوان مثال، یکی از رگرسیون ها به این صورت است: $$Y = 1.28 - 0.008X_1-0.025X_2-0.05X_3-0.13X_1^2-0.01X_2^2-0.006X_3^2\\\ +0.02X_1X_2-0.05X_1X_3+0.09X_2X_3$$ چگونه شرایط را تفسیر کنم؟
چگونه تبدیل Box-Cox را تفسیر کنیم
108381
ReLU دارای محدوده [0، +Inf) است. بنابراین، هنگامی که به یک مقدار فعال سازی z=0/1 می رسد که توسط ReLU یا softplus تولید می شود، مقدار تلفات با آنتروپی متقابل محاسبه می شود: loss = -(x*ln(z)+(1-x)*ln(1-z )) به NaN تبدیل می شود. همانطور که می دانم، متغیرهای من در نوع theano.tensor اجرا می شوند که پس از تعریف قابل تغییر نیستند. بنابراین، من نمی توانم به سادگی مقادیر z را که 0/1 هستند به مقداری تقریبی (مانند 0.001/0.999) تغییر دهم. چگونه بدون جایگزینی آنتروپی متقاطع توسط MSE از این وضعیت آزار دهنده جلوگیری کنیم؟
چگونه از NaN در استفاده از ReLU + Cross-Entropy اجتناب کنیم؟
78187
من یک مجموعه داده دارم که ANOVA اندازه گیری های تکراری یک طرفه را روی آن اجرا کرده ام. افرادی که با آنها کار می‌کنم علاقه‌مندند پاسخ دهند که چقدر تغییر واقعی در یک اندازه‌گیری باید اتفاق بیفتد تا آن تغییر از نظر آماری معنی‌دار در نظر گرفته شود. بنابراین روش اندازه‌گیری کوچک‌ترین تفاوت قابل تشخیصی که من استفاده کرده‌ام، از تجزیه و تحلیل آماری زیستی زار، ویرایش پنجم 2010 است: $$ \delta = \sqrt{\frac{2ks^{2}\phi^{2}}{n} } $$ (معادله (10.34) در کتاب زر). بنابراین اگر بتوانیم سطح معنی‌داری، سطح توان، اندازه نمونه را مشخص کنیم و تخمینی برای $\sigma^{2}$ داشته باشیم، می‌توانیم برای $\delta$ حل کنیم. ($k= p-1$، $n=$اندازه نمونه، $s^{2}$= برآورد $\sigma^{2}$، و $\phi^{2}$ مقدار بحرانی برای اهمیت خاص و سطح قدرت). نکته خوب در مورد حداقل تفاوت قابل تشخیص (MDD) این است که در واحدهای مورد مطالعه ما قرار دارد. بنابراین من دو سوال دارم. یک: آیا MDD تنها گزینه ای است که تعیین می کند چه مقدار از تغییر باید برای تشخیص تفاوت رخ داده باشد؟ من فقط با MDD در کتاب زار و با افرادی که با آنها کار می کنم برخورد کرده ام. سوال اصلی. نمونه گیری برای این مجموعه داده سازگار نبوده است. در اینجا نمودار زیرمجموعه ای از مجموعه داده است. (با عرض پوزش از استفاده از پیوند URL برای تصویر. بسیار بزرگ است و من نمی توانم بفهمم که چگونه بدون ایجاد مجدد آن برای این سوال، آن را کوچک کنم.) راه خوبی برای اندازه گیری تأثیر شدت نمونه گیری چیست؟ به عنوان مثال، اگر بگوییم حجم کل نمونه ما ثابت است اما به جای داشتن نمونه ای که مانند واقعیت نوسان دارد، هر 7 سال یک نمونه ثابت داشته باشیم، چه نوع تغییری در MDD ایجاد می کند؟ تنها راهی که من برای آزمایش این فکر کرده ام این است که به طور سیستماتیک نمونه های یک ساله را رها کنم و ببینم که چگونه بر MDD تأثیر می گذارد. اگرچه این باعث نمی شود که حجم نمونه ثابتی داشته باشیم... این سوال بسیار پیچیده تر از آن چیزی است که من امیدوار بودم! من به دنبال هر گونه راهنمایی یا ورودی در مورد این دو سوال هستم. هر گونه کمکی بسیار قدردانی خواهد شد. اگر چیز دیگری از دست داده ام یا گیج کننده است، لطفاً به من اطلاع دهید. من معمولا ANOVA را در SAS انجام می دهم و MDD را با استفاده از R محاسبه می کنم.
نحوه کمی کردن شدت نمونه برداری برای ANOVA اندازه گیری های مکرر
4261
این به سوال قبلی من مربوط می شود که پاسخ های زیادی دریافت نکرد، شاید به این دلیل که خیلی واضح و خوب نوشته نشده بود. امیدوارم این بار دقیق تر باشم و از کمک های بسیار قدردانی شما بهره مند شوم. من در حال تجزیه و تحلیل نتایج یک آزمایش بیولوژیکی هستم. نتایج به عنوان یک مقدار واحد (عدد صحیح غیر منفی) در هر موقعیت ژنومی داده شده است. من به دره ها یا حداقل های محلی بیش از این سری از ارزش ها علاقه مند هستم. مایلم نرخ مثبت کاذب را کنترل کنم و برای هر حداقل محلی اهمیت پیدا کنم. من می‌توانم داده‌های خامی را که برای تولید داده‌ها استفاده شده‌اند، به هم بزنم. بنابراین کاری که من انجام می‌دهم این است که داده‌های خام را به هم بزنم، سری جدید مقادیر را ایجاد کنم، همه حداقل‌های محلی را جستجو کنم و مقادیر آنها را حفظ کنم. حالا من چیزی شبیه به این دارم: data_set local_minima_values ​​============================= true_data 4 9 1 27 12 0 0 0 2 5 32 0 1 5 70 2 sim_1 14 25 94 59 32 sim_2 52 0 14 74 82 12 54 ... توجه داشته باشید که تعداد حداقل های محلی به طور طبیعی بین شبیه سازی ها متفاوت است. بنابراین، ایده من این بود که یک ECDF را برای هر شبیه‌سازی محاسبه کنم و سپس آن ECDFها را در یک «میانگین ECDF» که فرضیه صفر را نشان می‌دهد، ترکیب کنم. سپس، من می‌توانم یک مقدار p برای هر حداقل محلی از داده‌های واقعی تعیین کنم و ببینم که چقدر مهم است (شگفت‌انگیز). سوالات من این است: 1. آیا این منطقی است؟ 2. چگونه می توانم یک ECDF متوسط ​​ایجاد کنم؟ من نمی توانم فقط مقادیر تمام شبیه سازی ها را با هم ادغام کنم و برای این مجموعه ادغام شده ECDF بدست بیاورم، زیرا تعداد حداقل های یافت شده در هر شبیه سازی متفاوت است، و فکر می کنم همه شبیه سازی ها باید سهم یکسانی در میانگین ECDF داشته باشند، یا من هستم اشتباه است؟ 3. چگونه باید تعداد شبیه سازی ها را در نظر بگیرم؟ با تشکر، دیو p.s. من با R کار می کنم.
آیا باید از ECDF متوسط ​​استفاده کنم؟
35984
می خواهم بدانم چگونه پارامترهای مدل GBM را تنظیم می کنید؟ 1) می توانم پارامترها را به صورت متوالی بهینه کنم. در ابتدا، با استفاده از یک مقدار بزرگ برای انقباض و تعداد کمی تکرار (برای محاسبه سریعتر)، سعی می کنم n.minobsinnode، interaction.depth، bag.fraction و غیره را بهینه کنم. سپس با استفاده از این پارامترها، skrinkage را مقیاس می کنم. برای کاهش ارزش و یافتن تعداد بهینه درختان. 2) همه در همان زمان، با استفاده از تن از شبیه سازی سناریو. به عنوان مثال، آیا ممکن است interaction.depth بهینه مقادیر متفاوتی برای انقباض 0.01 و 0.001 داشته باشد؟ اگر بله، اصلاح برخی از پارامترها برای بهینه سازی بقیه خوب نیست...
استراتژی برای تنظیم پارامترهای GBM
108387
من در وب و این انجمن ها جستجو کردم اما موضوعی شبیه مشکل من پیدا نکردم. اگر چیزی را از دست دادم، می خواهم پیشاپیش عذرخواهی کنم. مشکل من اینه من یک احتمال p داده شده توسط یک آژانس خارجی و تعداد موفقیت n از یک منبع داده متعلق به من را دارم. من به کل جمعیت N و فاصله اطمینان N علاقه مند هستم. زمینه: من می دانم با استفاده از داده های سال 2013 برای یک آژانس اتوبوس خاص چند مسافر وجود دارد (مانند: من داده های (خرد) آن شرکت خاص را دارم). فرض: این n من است. من همچنین از ارقام حمل‌ونقل (از یک آژانس خارجی) می‌دانم که این شرکت اتوبوس‌رانی در سال 2013 30 درصد سهم بازار (بر حسب مسافران اندازه‌گیری شده) داشت. فرض: این صفحه من است. این فرض، مفروضات دیگری را به همراه دارد، که خوب است. حال سوال این است: در مجموع چند مسافر وجود داشته است (با فرض اینکه این را نمی توان از ارقام حمل و نقل برداشت کرد)؟ یعنی N چیست و فاصله اطمینان 95% اطراف N چقدر است؟ بنابراین سوالات من این است: 1) آیا می توانم فقط از رابطه استفاده کنم: p=n/N، بنابراین تخمین نقطه ای برای N این است: N=n/p؟ من چنین فرض می کنم. 2) آیا می توانم فقط از بازه کلپر-پیرسون برای محاسبه بازه ای برای p استفاده کنم، سپس از آن برای رسیدن به بازه ای برای N استفاده کنم؟ 3) کران پایین 95% را برای p=plb فرض کنید. آیا کران 95% پایین تر برای N سپس n/plb است؟ همان منطق برای کران بالای 95٪. 4) هنگام محاسبه بازه کلپر-پیرسون، آیا می توانم فقط از n=n، p=p، N=n/p استفاده کنم؟ 5) اگر هر یک از پاسخ های سوالات 2-4 من خیر است، پس روش صحیح چیست؟ من متوجه شدم که با استفاده از این رویکرد، N لزوما یک عدد صحیح نیست. آیا این مشکل دارد؟
فاصله اطمینان برای N، بر اساس دو جمله ای
102720
من همیشه در مورد چگونگی تفسیر صحیح نتایج PCA سردرگم بوده ام. داده های من به این شکل است و یک جدول بزرگ با بیش از 5 میلیون سطر و 12 ستون است. (چند خط اول همه 0...) هر ستون برای فردی است که بیش از 5 میلیون مشاهده (اعداد) دارد. > head(data) YC1CO YC1LI YC4CO YC4LI YC5CO YC5LI YM1CO YM1LI YM3CO YM3LI f1 0 0 0 0 0 0 0 0 0 0 f2 0 0 0 0 0 0 0 0 0 0 0 f3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 f5 0 0 0 0 0 0 0 0 0 0 f6 0 0 0 0 0 0 0 0 0 0 سپس PCA را با استفاده از prcomp در R اجرا کردم: pca<-prcomp(data,scale=T ,center=T) خروجی ها عبارتند از: pca$rotation: > pca$rotation PC1 PC2 PC3 PC4 PC5 PC6 YC1CO 0.2888377 -0.1511474 0.354970405 -0.14922899 0.29263063 -0.42756650 YC1LI 0.2887845 0.2887845 0.2887845 0.288310405 0.28910405 -0.11867753 0.10465221 0.32239652 YC4CO 0.2888937 -0.1073097 0.376083559 -0.16145206 0.28844683 0.28844683 - 0.198 0.198 LI 0.28844683 - 0.193 0.1073097 0.2899107 0.032538093 -0.10721970 0.11537841 0.19513249 YC5CO 0.2885639 -0.2200563 0.393267987 - 0.116 -0.393267983 -0.116 0.20303762 YC5LI 0.2887792 0.2926729 0.010423117 -0.11994739 0.12149153 0.31232174 YM1CO 0.2889248381860860. 0.12858598 0.04456687 -0.19313330 YM1LI 0.2891586 0.2571790 -0.112257791 0.05154060 -0.01859997 - 0.01859997 0.01859993 -0.02520. -0.5242998 -0.631712144 -0.47494155 0.05150495 0.08749259 YM3LI 0.2891991 0.2441790 -0.131464167 0.006 - 0.131464167 0.006 -0.03534204 YM5CO 0.2881663 -0.3741525 -0.033566125 0.75538412 0.17427960 0.33801997 YM5LI 0.28863566125 - 0.288638413416. 0.27066649 -0.33590255 -0.57941556 PC7 PC8 PC9 PC10 PC11 YC1CO 0.658953472 -0.0032299313 0.19565297 0.0280301618 0.0288301618 0.075935158 0.7256745487 0.10496762 -0.36161999 -0.17252148 YC4CO -0.733333390 0.0315817680 0.21602856 0.21602856 0.05879949 YC4LI 0.050613636 -0.0400665068 -0.25306478 0.74445447 -0.38210226 YC5CO 0.040387219 - 0.040387219 -0.0101010101069 -0.010106 0.04776528 0.03597253 YC5LI 0.040072049 -0.6856737279 0.16012889 -0.41945134 -0.17527656 YM1CO -0.063340.085165 -0.78767928 -0.33407254 -0.22202704 YM1LI -0.004723194 -0.0087215382 -0.16061437 0.06378812 0.58203292704M 0.58203292704M -0.0019793258 0.06649693 0.05308833 0.01803736 YM3LI -0.006287346 -0.0087025271 -0.14028837 0.03028837 0.030239698 0.048983778 0.0009123461 0.21714944 0.10450049 0.01040703 YM5LI -0.081931860 0.0139306658 0.26453206 0.26453206 -0.34310790 PC12 YC1CO -0.005335094 YC1LI 0.007632148 YC4CO -0.006459107 YC4LI -0.012083181 YC5CO 0.0028613309 YC501000000 YC5CO. 0.007425773 YM1LI 0.682200634 YM3CO 0.007334849 YM3LI -0.730105933 YM5CO 0.004956218 YM5LI 0.032252049 خلاصه PC2(pca) PC4 PC5 PC6 PC7 انحراف استاندارد 3.4418 0.20675 0.13369 0.11872 0.11105 0.10690 0.10325 نسبت واریانس 0.9872 0.00356 0.001010.00109. 0.00095 0.00089 نسبت تجمعی 0.9872 0.99072 0.99221 0.99338 0.99441 0.99536 0.99625 PC8 PC9 PC10 PC10 PC11 PC12 PC11 PC12 انحراف استاندارد 0.99221. 0.09215 0.08375 نسبت واریانس 0.00084 0.00081 0.00080 0.00071 0.00058 نسبت تجمعی 0.99709 0.99791 0.99891 0.99809 0.99891 > 2001 0. pca$sdev^2 [1] 11.845894818 0.042746822 0.017872795 0.014093498 0.012331364 [6] 0.011428471 0.01066018 0.009777983 0.009582267 [11] 0.008490902 0.007013259 من فقط مقادیر pca$rotation بالا را برای PC1 و PC2 گرفتم و آن را رسم کردم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zkjYI.png) و biplot >biplot(pca) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur. com/h0N18.png) من چند سوال خاص دارم و واقعا ممنون می شوم اگر بتوانید برای درک موضوع به من کمک کنید نظر بدهید. 1. بر اساس نسبت واریانس، می دانم که PC1 تقریباً تمام واریانس را توضیح می دهد. من اینجا یک سوال دارم، آیا اصلاً مقادیر محور x و y در اینجا مهم هستند؟ مقادیر PC1 بسیار نزدیکتر از مقادیر PC2 هستند، اگرچه PC1 PC غالب است. 2. آیا می توانم تفاوت بین نقاط YC1CO، YC4CO، YC5CO و YM1CO، YM3CO، YM5CO را ببینم که PC1 را درایو می کنند؟ 3. فکر اولیه نشان دادن روابط بین 12 فرد (YC1CO و غیره) و دیدن اینکه آیا آنها از eac خوشه یا جدا می شوند یا خیر بود.
مشکل با PCA در R (واریانس توضیح داده شده مشکوک بالا)
103450
این ممکن است در Mathematics یا Philosophy StackExchanges مناسب‌تر باشد، زیرا فکر می‌کنم اساساً با مشکل منطقی روبرو هستم، اما ابتدا آن را در اینجا مطرح می‌کنم تا از ارسال متقابل اجتناب کنم. من دو نظرسنجی دارم - نظرسنجی A و نظرسنجی B. می‌خواهم یافته‌های نظرسنجی A را در مقابل نظرسنجی B تأیید کنم. من یک شاخص دارم: میانگین وعده های غذایی که در روز در خانواده خورده می شود. نظرسنجی A سؤال را به دو سؤال فرعی تقسیم می‌کند: 1. وعده‌های غذایی متوسط ​​روزانه در خانواده 2. میانگین وعده‌های غذایی روزانه برای کودکان (سنین 6 ماه تا 5 سال) اکنون، (1) می‌تواند ابرمجموعه (2) باشد، اما نه لزوما. بچه ها ممکن است با والدینشان غذا بخورند، بنابراین به اندازه والدینشان. بچه ها ممکن است کمتر از والدینشان غذا بخورند. بچه ها ممکن است بیشتر بخورند - مثلاً اگر والدین یک وعده غذایی را کنار بگذارند تا به کودکشان غذا بدهند. برخی از خانواده ها ممکن است بچه نداشته باشند. بنابراین من آن را به‌عنوان یک نمودار ون تصور می‌کنم، که در آن حباب «بچه‌ها» کوچک (بسیار زیاد) با حباب بزرگ «خانگی» همپوشانی دارد، اما ممکن است به طور کامل در آن قرار نگیرد. نظرسنجی B، در عوض، این را به سه سؤال فرعی تقسیم می‌کند: 1. میانگین وعده‌های غذایی روزانه برای بزرگسالان 2. میانگین وعده‌های غذایی روزانه برای کودکان (سن 6 ماه تا 5 سال) 3. میانگین وعده‌های غذایی روزانه برای کودکان (سنین 5 سال تا 13 سال) اینجا تمیزتر به نظر می رسد. اینها سه گروه متمایز هستند (در حال حاضر این واقعیت را نادیده می گیرند که هر دو (2) و (3) می توانند کودکان 5 ساله را دستگیر کنند). من می‌خواهم آزمون‌های t را بر روی میانگین‌های نظرسنجی، مثلاً میانگین وعده‌های غذایی روزانه برای خانواده، و میانگین وعده‌های غذایی روزانه برای کودکان (۶ ماه تا ۵ سال) انجام دهم. اما من مطمئن نیستم که چگونه می توانم این مجموعه های مختلف را از یکدیگر ترکیب و جدا کنم تا آنها را با هم مقایسه کنم.
اجرای آزمون t بر روی مجموعه های مختلف (زیر؟) [منطق نظرسنجی]
103456
فرض کنید IID متغیرهای تصادفی $X_1,\dots,X_n$ با توزیع $\mathrm{Ber}(\theta)$ داریم. ما نمونه ای از $X_i$ را به روش زیر مشاهده می کنیم: اجازه دهید $Y_1,\dots,Y_n$ متغیرهای تصادفی $\mathrm{Ber}(1/2)$ مستقل باشند، فرض کنید که همه $ X_i$ و $Y_i$ مستقل هستند و اندازه نمونه $N=\sum_{i=1}^n Y_i$ را تعیین می کنند. $Y_i$ نشان می دهد که کدام یک از $X_i$ ها در نمونه قرار دارند، و ما می خواهیم کسر موفقیت ها در نمونه تعریف شده توسط $$ Z = \begin{cases} \frac{1}{N را مطالعه کنیم. }\sum_{i=1}^n X_i Y_i & \text{if}\quad N > 0\, , \\\ 0 & \text{if} \quad N = 0 \, . \end{cases} $$ برای $\epsilon>0$، می‌خواهیم یک کران بالایی برای $\mathrm{Pr}\\!\left(Z \geq \theta + \epsilon\right)$ پیدا کنیم که به صورت تصاعدی کاهش می‌یابد. با $n$. نابرابری هوفدینگ به دلیل وابستگی بین متغیرها بلافاصله اعمال نمی شود.
کران بالای نمایی
108385
من می خواهم قدرت دو توزیع را محاسبه کنم که poisson هستند که $n_1$ بزرگ است و $n_2$ اندازه متوسط ​​است. من از فرمول ارائه شده توسط کریشنامورتی و تامسون برای آزمون C استفاده کرده ام (به زیر مراجعه کنید). $$\sum^\infty_{k_1=0}\sum^\infty_{k_2=0}\frac{e^{-n_1\lambda_1}(n_1\lambda_ 1)^{k_1}}{k_1!}\frac{e^{-n_2\lambda_2}(n_2\lambda_2)^{k_2}}{k_2!}I[P(X_1\geq k_1|k_1+k_2, p(\lambda_1/ \lambda_2))\leq\alpha]$$ با این حال، با بزرگ شدن $n_1$ یا $n_2$، تابع نمایی به $0$ می‌رود که باعث می‌شود مجموع احتمالات را بیشتر در نظر بگیریم. بی معنی آیا به هر حال می توانم توان را با داشتن یک نمونه بزرگ ناهموار محاسبه کنم؟ خیلی ممنون از کمک شما
تست قدرت پواسون با حجم نمونه بزرگ
67240
من علاقه مندم که آیا همبستگی سه متغیر چیزی است یا نه، و اگر چیست، این چه خواهد بود؟ _ضریب همبستگی لحظه محصول پیرسون_ $$\frac{\mathrm{E}\\{(X-\mu_X)(Y-\mu_Y)\\}}{\sqrt{\mathrm{Var}(X)\mathrm{Var }(Y)}}$$ اکنون سوال برای 3 متغیر: آیا $$\frac{\mathrm{E}\\{(X-\mu_X)(Y-\mu_Y)(Z-\mu_Z)\\}} {\sqrt{\mathrm{Var}(X)\mathrm{ Var}(Y)\mathrm{Var}(Z)}}$$ چیزی؟ در R چیزی قابل تفسیر به نظر می رسد: > a <- rnorm(100); b <- rnorm(100); c <- rnorm(100) > mean((a-mean(a)) * (b-mean(b)) * (c-mean(c))) / (sd(a) * sd(b) * sd (ج)) [1] -0.3476942 ما معمولاً به همبستگی بین 2 متغیر با توجه به مقدار متغیر سوم ثابت نگاه می کنیم. کسی میتونه شفاف سازی کنه؟
همبستگی پیرسون 3 متغیر
104985
من می خواهم اثر یک درمان را بر روی نمونه های بیمارم توسط MANOVA در R تجزیه و تحلیل کنم. من 3 سطح پروتئین مختلف را برای بیماران تحت درمان و درمان نشده اندازه گیری می کنم. اکنون می‌خواهم تأثیر درمان خود را بر روی کل اندازه‌گیری‌های پروتئینی مختلف و نه هر کدام به‌صورت جداگانه (به نوعی جمع‌بندی آنها با هم) تجزیه و تحلیل کنم. مفروضات MANOVA چیست و چگونه باید آن را در مجموعه داده خود در R اعمال کنم؟ یک خط نمونه از مجموعه داده من: نمونه درمانی CD13 CD68 AT11 0.065 0.82 0.488 + sample2 0 1.58 0.47 - من حدود 30 تکرار برای هر گروه بیمار تحت درمان و درمان نشده دارم. با تشکر
مفروضات MANOVA چیست و چگونه باید آن را در R اعمال کنم؟
79273
من مجموعه داده های خود را به چهار دسته تقسیم کرده ام اما یکی از آنها فقط دارای چهار نقطه داده در آن است. من تست‌های نرمال بودن K-S را روی سه دسته دیگر اجرا کرده‌ام که هر کدام نرمال هستند و وقتی مجموعه داده‌ها به چهار تقسیم نشده است نیز طبیعی است. برای این دسته چهارم، آیا آن را نرمال فرض کنم و یک تحلیل پارامتریک اجرا کنم یا فرض کنم غیر نرمال است و یک تحلیل ناپارامتریک اجرا کنم؟ این یکی از بسیاری از محاسباتی است که من روی همان روش با استفاده از آزمون K-S برای نرمال بودن انجام داده‌ام، اما آیا تغییر ناگهانی به آزمایش Shapiro-Wilk برای این تحلیل برای من ناسازگار است؟
حجم نمونه کوچک و آزمون کولموگروف-اسمیرنوف
68549
من در حال انجام یک آزمایش فیزیکی هستم که در آن تنظیم نادرست اجتناب‌ناپذیر احتمالاً خطاهایی در وارونگی داده‌های مدل ایجاد می‌کند. بیایید یک رابطه خطی بین داده $\mathbf d$ و مدل $\mathbf m$ را به صورت زیر فرض کنیم: $$\mathbf d = \mathbf W \mathbf m، $$ که در آن $\mathbf W$ عملگر است (که تنظیمات را رمزگذاری می کند از آزمایش فیزیکی من). وارونگی خطی استاندارد مدل $$\mathbf m = \mathbf {C_m}^{-1} \mathbf W^\prime \mathbf {C_d}^{-1} \mathbf d$$ را با کوواریانس داده $\mathbf به دست می‌دهد. {C_d}$ و کوواریانس مدل $$\mathbf {C_m} = \left( \mathbf W^\prime {\mathbf {C_d}^{-1}} \mathbf W \right)^{-1}.$$ تاکنون، خیلی خوب است. عملگر $\mathbf W = \mathbf W (\mathbf p)$، با این حال، به صورت غیر خطی به پارامتر $\mathbf p$ بستگی دارد، اما یک خطی سازی، مثلاً $$\mathbf V = \dfrac {\ جزئی \mathbf W} {\ جزئی \mathbf p} \mathbf {p_0},$$ جایی که $\mathbf {p_0}$ پارامتر a-priori شناخته شده (اندازه گیری شده) است، انجام خواهد داد. حالا چطوری از اینجا ادامه بدم؟ این است که چگونه می توانم برای هر گونه عدم قطعیت پارامتر (کوچک) در وارونگی مدل و کوواریانس مدل حساب کنم؟
کوواریانس خلفی برای وارونگی خطی
111864
در مورد برخی از داده ها به کمک نیاز دارم. من یک شاخص عملکرد و یک مقیاس لیکرت دارم. آیا منطقی خواهد بود که به هر دسته در مقیاس لیکرت خود مقداری اختصاص دهم (مثلاً: «واقعاً آسان=5، آسان=4، متوسط=3، سخت=2، واقعاً سخت=1») و این مقدار را در مقدار ضرب کنم. فراوانی مشاهده و سپس میانگین را برای هر آیتم بگیرید تا احساسی در مورد میانگین درک سختی داشته باشید. سپس من همبستگی پیرسون را بین این مقدار جدید و شاخص واقعی عملکرد خود کاملاً بررسی خواهم کرد. می‌خواهم بدانم آیا سختی واقعی و درک سختی با هم متفاوت است؟ به عبارت دیگر، می‌خواهم بدانم که آیا سؤالات آسان آسان و سؤالات دشوار دشوار تلقی می‌شوند؟ من نمی دانم که آیا این نوع دستکاری با مقیاس لیکرت مجاز است یا خیر.
آیا می توانم مقیاس لیکرت خود را به اعداد تبدیل کنم و سپس میانگین بگیرم تا بدانم آیا بین دو متغیر همبستگی وجود دارد یا خیر؟
68543
من می خواهم مجموعه ای از سری های زمانی 512 را خوشه بندی کنم. سری های زمانی دارای فواصل نمونه برداری 1 روز در یک دوره زمانی 5 ساله هستند. بنابراین، هر سری زمانی از حدود 1800 نمونه تشکیل شده است. با این حال، بسیاری از نمونه ها صفر هستند. بنابراین، سوال من این است: آیا خوب است نمونه‌ها را در فواصل نمونه‌برداری بزرگ‌تر جمع کنیم، مثلاً؟ روزها یا حتی سالها، با وجود از دست دادن اطلاعاتی که با تجمیع همراه است؟ آیا تجمیع نوعی از دستکاری داده ها نیست؟ اگر نه، چگونه واحد زمانی مناسب را برای تجمیع انتخاب کنم؟
جمع‌آوری نمونه‌ها برای خوشه‌بندی سری‌های زمانی
91329
من نیاز به پیاده سازی مدل خودرگرسیون برداری فضایی توسعه یافته در _Beenstock، M. و D. Felsenstein دارم. 1386. خودرگرسیون های برداری فضایی. تحلیل اقتصادی فضایی 2 (2): 167-196_. آیا در نرم افزاری بسته ای برای تخمین این مدل وجود دارد؟ اگر نه، چه راهی بهتر است؟ من از توجه تشکر می کنم!
مدل خودرگرسیون برداری فضایی
67241
من در اینترنت به دنبال بسته‌های R گشته‌ام تا فواصل اطمینان را برای میانگین توزیع پواسون با استفاده از روش‌های مختلفی که پاتیل و کولکارنی در مقاله‌شان «مقایسه بازه‌های اطمینان برای میانگین پواسون: برخی جنبه‌های جدید» ذکر کرده‌اند، محاسبه کنم. جلد 10، نه 2، ژوئن 2012، ص 211-227. من در بسته R، 'exactci'، روتین poisson.exact را پیدا کردم که چند روش را ارائه می دهد. در بسته epitools R pois.exact، pois.daly، pois.yar و pois.approx وجود دارد. در بسته R 'stats' poisson.test وجود دارد که از روش Clopper Pearson برای فاصله اطمینان میانگین استفاده می کند. اما علاوه بر اینها، من به دنبال روش‌هایی بودم که فاصله اطمینان باریک‌تر باشد، یعنی مشابه روش‌هایی که برای تخمین بازه‌ای نسبت‌های دوجمله‌ای بیان شد، همانطور که در مقاله آگرستی و کول بیان شد، «تقریبا بهتر از دقیق برای تخمین بازه ای نسبت های دوجمله ای عامر. آمار می 1998، ج. 52، شماره 2 صص 119-126. و با خواندن مقالات مشابه با موارد بالا در مورد توزیع پواسون، مشخص شد که برای بررسی خوب فواصل اطمینان، روش نمره و انواع آن باید گنجانده شود. این روش ها هستند که به نظر می رسد هنوز در هیچ بسته R گنجانده نشده اند؟ نزدیکترین چیزی که من پیدا کردم یک بسته R در فواصل تحمل بود ('Tolerance'). من ادعا نمی کنم که در مورد تمایز بین CI و TI کاملاً روشن هستم، اما فکر می کنم دومی تضمین می کند که چیزی (مثلاً طول اندازه گیری شده یک قطعه) در آن بازه تا یک سطح احتمال معین قرار می گیرد، اما با CI ما هستیم بیانیه ای مبنی بر اینکه میانگین در بازه ای تا سطح معینی از احتمال قرار دارد. آیا بسته R وجود دارد که محاسبه CI را برای توزیع پواسون با استفاده از این روش های تقریبی انجام دهد (اما نه فاصله معمولی تقریباً)؟ با تشکر
فواصل اطمینان برای میانگین روش های توزیع پواسون 9-19 کدگذاری شده به عنوان بسته R
91328
من پس از انجام اقدامات مکرر در $i$ فردی، یک پاسخ مداوم $Y_{ij}$ دارم. در مجموع من $Y_{ij}$ را 5 بار (j=1..5) تحت انواع مختلف حرکت سوژه اندازه می‌گیرم: still1، still2، تکان دادن سر، تکان دادن و آزاد. من همچنین میزان حرکت هر سوژه را در هر یک از این انواع حرکت اندازه‌گیری می‌کنم و این متغیر ($m_{ij}$) بر اساس نوع حرکت افزایش می‌یابد (کم در ثابت، بیشتر در تکان دادن، بیشتر در تکان دادن و بیشتر در حرکت آزاد) . اکنون هنگام مقایسه $Y$ در بین انواع حرکت (آزمایش زوجی) متوجه می شوم که $Y_{ij}$ به طور قابل توجهی در انواع مختلف متفاوت است، اما این می تواند به سادگی ناشی از شدت حرکت باشد تا نوع حرکت. هنگام اجرای یک مدل جلوه‌های ترکیبی ساده روی همه داده‌ها: $Y_{ij} = b_i + \beta_0 + \beta_1 * m_{ij} + e_{ij}$ (با وقفه به‌عنوان اثر تصادفی) وابستگی بسیار قوی به $Y$ در $m$. نشان دادن آن حرکت، $Y$ را به خوبی توضیح می دهد. حالا چگونه می توانم آزمایش کنم که آیا نوع حرکت واقعاً مهم است یا خیر؟ من به این دو مدل فکر کردم ($nod_{ij}$، $shake_{ij}$ و $free_{ij}$ متغیرهای باینری هستند که نوع حرکت را تعیین می‌کنند): $Y_{ij} = b_i + \beta_0 + \beta_1 m_{ij} + \beta_2 nod_{ij} + \beta_3 (nod_{ij} \ m_{ij}) + \beta_4 shake_{ij} + \beta_5 (shake_{ij} \ m_{ij}) + \beta_6 free_{ij} + \beta_7 (رایگان_{ij} \ m_{ij}) + e_{ij}$ و مدل دیگری که $\beta_2 را حذف می‌کند، \ شرایط beta_4$ و $\beta_6$. دلیل حذف آنها این است که باید یک وقفه واحد برای $m=0$ مستقل از نوع حرکت وجود داشته باشد (زیرا حرکت صفر وجود دارد، بنابراین نوع مهم نیست) 1.) آیا وقتی شرایط تعاملی دارم، همیشه باید وقفه‌های نوع حرکت (شرایط $\beta_2، \beta_4$ و $\beta_6$) را اضافه کنم؟ کسی به من گفت که آنها باید همیشه درج شوند، اما به نظر می رسد اینجا چندان منطقی نیست. 2.) در هر یک از مدل‌ها، اکنون می‌توانم آزمایش کنم که آیا تأثیر شدت حرکت در هر نوع حرکت به طور مستقل وجود دارد یا خیر (مستقل عبارت‌های تعامل $\beta_3، \beta_5$ و $\beta_7$ را آزمایش می‌کنم). و به نظر من اینها به جز در نوع هنوز ($\beta_1$) مهم هستند. این به من می گوید که علاوه بر هر کاری که نوع حرکت انجام می دهد، شدت حرکت چیزهای زیادی را توضیح می دهد، درست است؟ با این حال، من نمی دانم که آیا نوع حرکت اصلاً چیزی را توضیح می دهد یا خیر. 3.) برای آزمایش آن، باید شرایط تعامل (دو به دو) را با هم مقایسه کنم و اساساً مثلاً $\beta_5 - \beta_7$ را آزمایش کنم. این به من می گوید، اگر بسته به نوع حرکت، شیب های مختلفی داشته باشم، درست است؟ 4.) تا اینجا خوب است، اما من تفاوت شرایط تعامل را تنها در یکی از دو مدل (یکی کامل با همه رهگیری ها) قابل توجه می دانم. مدل ساده شده (و به نظر من با معنی تر) اهمیتی را نشان نمی دهد. بنابراین من فکر می کنم بسیار مهم است که بفهمیم از چه مدلی برای تفسیر این نتایج استفاده کنیم. هر کمکی بسیار قدردانی می شود.
نحوه ترکیب متغیرهای کمکی گروه متغیر زمانی در مدل اثرات مختلط خطی
108382
آیا کسی می تواند با این تقریب به من کمک کند: > وقتی $m$ واقعاً بزرگ می شود، $\dfrac{r}{m}$ بسیار کوچک می شود و بنابراین > $\log\left(1+\dfrac{r}{m}\ سمت راست) \sim \dfrac{r}{m}$. من نمی دانم چگونه $\log\left(1+\dfrac{r}{m}\right)$ تقریباً برابر با $\dfrac{r}{m}$ شد؟ لطفا شفاف سازی کنید
تقریب گزارش
104980
من با SEM مشکلی دارم که ادعا می‌کند در جایی که واقعاً باید برای کوواریانس‌های گمشده آزمایش کند، اشباع شده است. مواردی که «2» در پشت دارند عبارت‌های ربعی هستند SEM1 = «d_birds ~ Q1 + MAT + MAP + TS + VelT + SamplingEffort + NetworkSize + plantp+ MAP2 + TS2 + PS2 Q1 ~ MAT + MAP + TS + VelT + SamplingEffort + NetworkSize + P MAP2 + TS2 + PS2 وقتی آن را با استفاده از R اجرا می کنم کد: SEM1fit = sem (SEM1، داده = td، fixed.x = T) خلاصه (SEM1fit) به من می گوید که مدل با df=0 اشباع شده است و بنابراین هیچ آزمون مجذور کای نیز انجام نمی شود. این را نمی‌فهمم، زیرا من هیچ کوواریانسی در مدل وارد نمی‌کنم (یعنی به عنوان یک عبارت ثابت = 0) سؤال من در این مورد: • آیا فکر می‌کنید اگر مدل را بر اساس مربع R و تخمین‌ها (که داده شده است) قرار دهم هنوز آموزنده است. توسط خروجی SEM) یا راه بهتری برای تجزیه و تحلیل داده ها وجود دارد با احترام
مدل معادلات ساختاری اشباع شده
79270
آیا یک آزمون آماری استاندارد کم و بیش برای بررسی اینکه آیا یک مجموعه داده چند متغیره از یک توزیع گاوسی چند متغیره ترسیم شده است یا خیر وجود دارد؟ فکر می کنم بتوانم بردار میانگین تجربی و ماتریس کوواریانس را محاسبه کنم و سپس از آنها برای محاسبه احتمال استفاده کنم، اما آیا راه بهتری وجود دارد؟ با تشکر فراوان
تست استاندارد برای گاوسی چند متغیره؟
35366
می‌خواهم بدانم آیا کسی می‌داند چگونه نتایج «arima» را برای محاسبه مقادیر گمشده در دوره مشاهده اعمال کند. من به دنبال چیزی شبیه به «forecast.arima()» هستم که مقادیر را بر اساس نتایج «arima» پیش‌بینی می‌کند. آیا کسی تجربه ای در استفاده از داده های منابع دیگر کامل اما با دقت کمتر برای جایگزینی مقادیر از دست رفته دارد؟ آیا تجزیه هر دو مجموعه داده با استفاده از 'stl' و محاسبه مجدد مقادیر جدید با استفاده از داده های مشاهده امکان پذیر است؟ من سال‌هاست که از مشاهدات آب و هوایی روزانه استفاده می‌کنم، اگرچه برخی از داده‌های گمشده بین مشاهدات است، همچنین بازه‌های زمانی زیادی بدون هیچ مشاهده‌ای دارم.
درون یابی مقادیر از دست رفته با استفاده از نتایج تولید شده توسط arima
4262
من فرآیندی دارم که هر ثانیه آمار را از یک سیستم سرور به یک فایل در این قالب می نویسد: label1 label2 label3 344 666 787 344 849 344 939 994 344 تعدادی مقادیر مختلف وجود دارد که برای آنها به نمودار نیاز دارم و هر مقدار اضافه می شود. در هر ثانیه به انتهای فایل بروید. من به دنبال راهی خوب برای نشان دادن این اعداد به صورت گرافیکی هستم، ترجیحاً برنامه ای که هر ثانیه به طور خودکار به روز می شود و نمودارهای مختلف را نشان می دهد. آیا کسی می تواند چنین برنامه ای را برای مک معرفی کند؟ ترجیحا رایگان :)
نمودارسازی داده های بلادرنگ از یک فایل متنی
103453
چگونه می توانم همبستگی خودکار مرتبه اول فرآیند $x_t = \delta + \phi x_{t-1} + \eta_t$ را محاسبه کنم؟ آیا کسی می تواند به من نکاتی بدهد؟ من این را امتحان کردم: $E(\delta + \phi x_{t-1} + \eta_t - \frac{\delta}{1- \phi})(\delta + \phi x_{t-2} + \eta_ {t-1} - \frac{\delta}{1- \phi})$. اما چگونه می توانم برای مثال $E(x_{t-1}x_{t-2})$ را اینجا محاسبه کنم؟ با تشکر
همبستگی خودکار مرتبه اول یک فرآیند AR خاص
108386
من مقدار _r_ پیرسون را بین دو متغیر در SPSS محاسبه کرده ام. حجم نمونه 81 است. مقدار _r_ -.21 است. مقدار _p_ 0.06 است. وقتی فواصل اطمینان 95% را با استفاده از bootstrapping با 2000 نمونه محاسبه می‌کنم و گزینه بایاس تصحیح شده شتاب (BCa) علامت زده می‌شود، فواصل اطمینان [0.36-، 0.04-] را دریافت می‌کنم (شامل 0 نمی‌شود)، که نشان می‌دهد در واقع نتیجه قابل توجه است. در _p_ < 0.05. چگونه اختلاف بین مقدار _p_ و فواصل اطمینان را توضیح دهم؟ من فواصل اطمینان را دوباره با درصد به جای بررسی BCa محاسبه کردم و فواصل اطمینان [009/0.378- [-.378] (شامل 0 می شود)، که برای من منطقی تر است. چگونه می توانم ناسازگاری ظاهری بین مقدار _p_ و فواصل اطمینانی را که هنگام استفاده از روش BCa به دست آوردم توضیح دهم؟ یک مسئله ثانویه این است که چگونه این نتیجه (BCa) را در سبک APA گزارش کنم.
SPSS: r پیرسون معنی دار نیست اما فواصل اطمینان شامل 0 نمی شود
67247
بر اساس نتایج مدل نول، برخی از محققان واریانس منتسب به سطح گروه و سطح فردی را با استفاده از خروجی مؤلفه واریانس محاسبه می‌کنند، در حالی که برخی دیگر پیشنهاد می‌کنند که نمرات انحراف معیار را انتخاب کنند. آیا در نحوه محاسبه ICC اتفاق نظر وجود دارد؟
نحوه تقسیم بندی واریانس توضیح داده شده در سطح گروهی و فردی