_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
107810
|
من واقعاً با آمار و R تازه کار هستم و گمان می کنم چیزی واضح را از دست داده ام. من مجموعهای از عضویتها را دارم که همه آنها بعد از یک مقطع زمانی (شش ماه پیش) شروع میشوند. من درخواست خود را انجام دادهام تا تعداد روزهای عضویت تا امروز را تخمین بزنم و آنهایی را که هنوز ادامه دارند بهعنوان سانسور شده مشخص کنند. من نمودار خود را از روی داده ها انجام داده ام بنابراین حداکثر عدد 180 روز است و میزان بقا به مدت 180 روز به صفر می رسد. آیا این بهترین راه برای بررسی این داده ها است؟ من در مورد بهترین رویکرد کمی مطمئن نیستم. این الگوریتم بقای کاپلان است. با توجه به اینکه تعداد زیادی از عضویت ها در حال انجام هستند/سانسور می شوند باید احتمال 180 روز صفر باشد.
|
تجزیه و تحلیل بقا چرا احتمال به صفر می رسد
|
37522
|
از آنجایی که میانگین باقیمانده ها باید نزدیک به صفر باشد و با محاسبات من نتیجه زیر را به دست می دهد: > mean(resid(trees.lm) [1] -3.065293e-17 آیا این درست است که شرط کنیم که میانگین نزدیک به صفر باشد؟ سوال دوم من به شرح زیر است: در حالی که من با مجموعه داده های قمار در کلاس خود کار می کنم، باید همبستگی باقیمانده ها را با چگونه می توانم محاسبه را تنظیم کنم.
|
شروع با تجزیه و تحلیل باقیمانده ها در رگرسیون خطی
|
26252
|
## سناریو: یک عبارت را در نظر بگیرید، به عنوان مثال. این فیلم یک اکشن است سپس اجازه دهید مردم به آن رای دهند. 1-5 که در آن 1 عملی نیست، 3 برخی عمل و 5 عمل خالص است. ## سوال چگونه می توان صحت بیانیه نتیجه رای گیری را تعیین کرد؟ 1000 رای که در آن 900 عدد 5 است بسیار دقیق است، اما 1000 رای با 500 رای 1 و 500 رای 5 چندان دقیق نیست. همچنین 3 رای و هر 5 رای چندان دقیق نیست. اساساً میزان قطعیت یک شی از یک دسته خاص را از رأی کاربران تعیین کنید. من در توضیح ایده خود مشکل دارم، اما هر سوالی دارید بپرسید و سعی می کنم توضیح دهم
|
چگونه می توان صحت یک جمله را تعیین کرد؟
|
52890
|
من در حال بررسی یک اختلاف رایج بین خودگزارشهای زن و مرد در یک نظرسنجی در مورد تجربیات جنسی هستم. به طور کلی، زنان 2/3 نرخ بالاتر از مردان گزارش می دهند. من نظرسنجی را اصلاح کردهام و اکنون باید بفهمم که آیا اختلاف بین نرخ گزارشدهی مردان و زنان ممکن است تغییر کرده باشد یا خیر. زن و مرد هر کدام هر دو نسخه (تغییر یافته و اصلی) نظرسنجی مربوط به جنسیت را پر می کنند. بنابراین، چیزی که میخواهم مقایسه کنم، تفاوت بین نمرات تفاوتهای مرد و زن در نظرسنجی اصلی و تفاوتهای مرد و زن در نظرسنجی جدیدتر/تغییر شده است. از چه آزمون آماری خاصی می توانم در اینجا استفاده کنم؟
|
مقایسه امتیازات تفاوت بین 2 گروه در 2 شرایط
|
37526
|
من با استفاده از تابع گروه در TraMineR مشکل دارم. من مجموعه داده ای دارم که حاوی داده های املایی است، بنابراین چندین ردیف در هر مورد. من همچنین داده های جمعیت شناختی در هر مورد، در یک ردیف در هر مورد دارم. من اینها را با هم ادغام میکنم و در نهایت به دادههایی میرسم که یک متغیر جمعیتی در هر ردیف دارند، بنابراین چندین ردیف در هر مورد. نمونه ای از این داده ها می تواند این باشد: id startmin stopmin فعالیت educ4 4 1 20 work HS 4 20 40 play HS 8 1 15 sleep College 8 15 40 work College من می توانم داده های توالی را از این بسازم، اما وقتی سعی می کنم با استفاده از طرحی اجرا کنم دستور گروه seqiplot(atus.seq, group = atus.seqdata$educ4, border=NA, withlegend=right, cex.plot=.55) به من می گوید: >خطا: گروه باید یک مقدار برای هر ردیف در شی دنباله داشته باشد. من این را با مثال دادههای mvad در کتابچه راهنمای آموزشی کار کردهام، اما به نظر نمیرسد که نمیتوانم آن را با گروهها کار کنم، چه به دادههای جمعیتی اصلی، دادههای ادغامشده، یا سعی در ارسال آن کنم. متغیرهای کمکی بر اساس seqformat و seqdef. ایده ها؟
|
مشکلات گروه ها در Traminer
|
26256
|
تفاوت مرکزی روشی برای تقریب عددی مشتق یک تابع نمونه برداری شده در فواصل گسسته است. در R، یکی انجام می دهد: n<-100 y<-cumsum(rnorm(n)) y_p[1]<-diff(y[1:2]) for(i در 2:(n-1)) y_p[ i]<-diff(y[c(i-1,i+1)])/2 y_p[n]<-diff(y[c(n-1,n)]) سوال من این است که آیا این عملگر معکوس پذیرفته شده است؟ (ترجیحا به صورت شبه کد برای جلوگیری از ابهام) بهترین،
|
معکوس عملگر اختلاف مرکزی
|
2169
|
من سعی می کنم خطای استاندارد اندازه گیری ریسک طیفی نمونه را محاسبه کنم، که به عنوان معیاری برای ریسک پرتفوی استفاده می شود. به طور خلاصه، یک اندازه گیری ریسک طیفی نمونه به صورت $q = \sum_i w_i x_{(i)}$ تعریف می شود، که $x_{(i)}$ آمار سفارش نمونه است، و $w_i$ دنباله ای از یکنواخت غیر یکنواخت است. افزایش وزن های غیر منفی که مجموعاً به $1 می رسد. من می خواهم خطای استاندارد $q$ را محاسبه کنم (ترجیحاً از طریق بوت استرپ نباشد). من چیز زیادی در مورد تخمینگرهای L نمیدانم، اما به نظر من $q$ نوعی تخمینگر L است (اما با محدودیتهای اضافی که روی وزنهای $w_i$ اعمال میشود)، بنابراین احتمالاً این مشکلی است که به راحتی قابل حل است. . **ویرایش**: به ازای سؤال @srikant، باید توجه داشته باشم که وزنهای $w_i$ توسط کاربر _ پیشینی_ انتخاب میشوند و باید مستقل از نمونههای x$ در نظر گرفته شوند.
|
چگونه خطای استاندارد برآوردگر L را محاسبه کنیم؟
|
101029
|
زمانی که بین دو متغیر مستقل تعاملی وجود دارد، در تفسیر نمودارهای تعامل مشکل دارم. نمودارهای زیر از این سایت هستند: در اینجا $A$ و $B$ متغیرهای مستقل و $DV$ متغیر وابسته هستند. سوال: تعامل و اثر اصلی $A$ وجود دارد، اما هیچ اثر اصلی $B$ وجود ندارد من می بینم که ارزش $A$ بالاتر، مقدار $DV$ بالاتر است، مشروط بر اینکه B در $B_1$ باشد در غیر این صورت، $DV$ بدون توجه به مقدار $A$ ثابت است. بنابراین، یک تعامل بین $A$ و $B$ و اثر اصلی $A$ وجود دارد (زیرا $A$ بالاتر منجر به $DV$ بالاتر می شود، ثابت نگه داشتن $B$ در $B_1$). همچنین، میتوانم ببینم که سطوح مختلف $B$ به سطوح مختلف $DV$ منجر میشوند که ثابتهای $A$ را نگه میدارند. بنابراین، تأثیر اصلی B وجود دارد. اما ظاهراً چنین نیست. بنابراین، این باید به این معنی باشد که من به اشتباه طرح تعامل را تفسیر می کنم. من چه غلطی می کنم؟ من طرح 6-8 را به اشتباه تفسیر می کنم. منطقی که من برای تفسیر آنها استفاده کردم، همان منطقی است که در بالا استفاده کردم، بنابراین اگر خطای بالا را بدانم، باید بتوانم بقیه را به درستی تفسیر کنم. در غیر این صورت این سوال را به روز می کنم.
|
کمک به تفسیر طرح تعامل؟
|
37527
|
من سعی می کنم یک نسبت دو جمله ای p را مثلاً از نمونه ای از دو جمله ای ها تخمین بزنم. k موضوع وجود دارد. در ارتباط با هر موضوع یک اندازه نمونه $n_i$ و تعداد $x_i$ از آیتم ها وجود دارد که در آن $x_i$ به صورت دو جمله ای $(p, n_i)$ توزیع می شود. می توانم فرض کنم که اندازه های نمونه تابعی از $p$ نیستند. در شرایط نمونهگیری، واحد نمونهگیری موضوع است، نه تعداد اقلام $x_i$. من می خواهم p را تخمین بزنم و یک فاصله اطمینان برای آن ارائه کنم. آیا باید $$\hat{p}=\frac{\sum_i x_i}{\sum_i n_i}$$ را بگیرم یا باید میانگین میانگین خوشه را بگیرم؟ $$ \frac{1}{k} \sum_i \frac{x_i}{n_i}$$ و چگونه باید انحراف معیار را تخمین بزنم؟
|
نسبت و واریانس را در یک طراحی خوشه دو جمله ای ساده تخمین بزنید
|
37523
|
من در حال خواندن مقاله ای هستم که به بررسی همبستگی بین دو متغیر X و Y می پردازد. معمولاً اگر نمودار پراکندگی چیزی شبیه به این را نشان دهد، می توانیم ادعا کنیم که همبستگی قوی بین X و Y وجود دارد. Y | | o | o o | o | o o | o | o | o +--------------------->X مورد زیر چطور؟ Y | o o | o o | o oo | o o | oo o | o o | o o | o oo o oo o o o o o oo +--------------------->X x1 x2 اساساً، نمودار پراکندگی خوشه بندی قوی و خوشه هایی را در اطراف چند نقطه داده در امتداد X نشان می دهد. محور، به عنوان مثال x1 و x2. **این نشان دهنده چه نوع خاصیت آماری است؟**
|
چگونه می توان الگوهای زنجیره مانند را در داده های دو متغیره به صورت آماری توصیف کرد؟
|
79955
|
دقیقاً تفاوت بین رمزگشایی و امتیاز چیست؟ اسناد در این مورد بسیار پراکنده به نظر می رسد. حدس من این است که: رمزگشایی احتمال بهترین توالی حالت ها را برای یک دنباله مشاهده نشان می دهد. امتیاز مجموع احتمالات تمام توالی های حالت را برای یک دنباله مشاهده نشان می دهد. آیا این درست است؟ یعنی رمزگشایی احتمال ویتربی است در حالی که امتیاز احتمال رو به جلو است. پیشاپیش ممنون
|
Scikit-Learn GaussianHMM رمزگشایی در مقابل امتیاز
|
79957
|
سعی می کنم یک مطالعه موردی کوچک در 24 ساعت + تغییر انجام دهم. برای مجموعه داده، من از GHTorrent.org استفاده می کنم. یک فرض کلی در مورد کار مجازی این است که رسانه های غنی تر منجر به بهره وری بیشتر می شود. من تصمیم گرفتم روی GitHub تمرکز کنم و تأثیرات @منشن ها را در حل مشکل بررسی کنم. فرضیه من این است که ذکرها با زمان کوتاهتری برای حل مشکل مرتبط هستند. برای اینکه ببینم آیا این درست است، میتوانم نگاهی به زمان باز شدن یک موضوع، زمان بسته شدن آن، و تقسیم تعداد ذکر بر تعداد نظرات داشته باشم. آیا این منطقی به نظر می رسد؟ من دانشجوی سال آخر کارشناسی ارشد هستم و این برای یک تکلیف کوچک است تا ما را با نوشتن مقالات علمی آشنا کند. هر توصیه ای بسیار قابل تقدیر است.
|
آیا مطالعه کمی خود را در GitHub درست انجام می دهم؟
|
79951
|
من با مشکل طبقه بندی متن روبرو هستم. جایی که باید برچسب ها را به یک سند اختصاص دهم. مقدار تگ هایی که باید اختصاص دهم از 1 تا 5 متغیر است. من تا حدودی در حال مبارزه با این مشکل هستم. آنچه من سعی کردم این بود که هر ترکیبی از برچسب ها را با LabelEncoder() از scikit-learn رمزگذاری کنم، آن را به عنوان یک مشکل رگرسیون قاب کردم، زیرا این رمزگذاری برچسب به من کلاس های زیادی داد. با این حال، از آنجایی که نمی توانم کل مجموعه قطار را در حافظه جا بدهم، فقط می توانم در قسمت کوچکی از مجموعه قطار تمرین کنم. آزمون بسیار بزرگتر از قسمتی از مجموعه قطار است که من رگرسور خود را روی آن آموزش می دهم. در نتیجه، برآوردگر من در مجموعه آزمایشی واقعا ضعیف عمل می کند. در اعتبار سنجی متقاطع، رگرسیون در واقع نتایج معقولی ارائه می دهد، این برای من نشانه ای است که قاب بندی این مسئله به عنوان یک مشکل رگرسیونی مشکل اصلی نیست. من مطمئن نیستم که چگونه باید ادامه دهم. آیا باید این را به عنوان یک مشکل طبقه بندی در نظر بگیرم؟ آیا باید از رمزگذاری متفاوتی برای برچسب های خود استفاده کنم؟ یا باید به سادگی راهی برای آموزش طبقه بندی کننده خود بر روی نمونه های بیشتری پیدا کنم؟
|
اختصاص تگ به اسناد
|
4954
|
من سعی می کنم پارامترهای یک توزیع نرمال دو بعدی را با استفاده از نمونه گیری گیبس تخمین بزنم. در حالی که تبدیل معادله خلفی برای بردار میانگین به یک تابع عادی تک بعدی برای نمونهبرداری بسیار آسان بود، من نمیتوانم برای سیگما (کوواریانس) همین کار را انجام دهم. آیا باید از توزیع Wishart مانند قبل استفاده کنم و سپس قسمت خلفی را به یک تابع گامای تک بعدی تبدیل کنم؟
|
بیان پسین برای نمونه گیری گیبس
|
3291
|
فرض کنید برای ساختن یک کتابخانه (بسیار) کوچک از کتاب های آمار، 200 دلار آمریکا در اختیار دارید. انتخاب های شما چه خواهد بود؟ شما ممکن است حمل و نقل رایگان از آمازون را فرض کنید، و هر متن آزادانه ای که از اینترنت در دسترس است، بازی منصفانه است، اما فرض کنید برای چاپ 5 سنت برای هر صفحه هزینه کنید. (من از نامه ای از کتاب های دوور الهام گرفتم، اما بیشتر پیشنهادات آنها کمی قدیمی به نظر می رسد)
|
ساخت کتابخانه آماری، با محدودیت کوله پشتی
|
3296
|
من یک مجموعه داده بسیار بزرگ دارم (~ 300 مورد با ~40 ویژگی پیوسته، دارای برچسب باینری) که از آن برای ایجاد چندین مدل پیش بینی جایگزین استفاده کردم. برای انجام این کار، مجموعه به زیر مجموعه های آموزشی و اعتبار سنجی (به ترتیب 60:40٪) تقسیم شد. من متوجه شده ام که چندین نمونه (هم در آموزش و هم در زیر مجموعه های اعتبار سنجی) وجود دارد که توسط همه یا اکثر مدل های جایگزینی که من آزمایش می کنم به اشتباه طبقه بندی می شوند. من گمان می کنم که چیز خاصی در مورد این نمونه های مشکل سازی وجود دارد. دستورالعمل های کلی برای کشف دلایل احتمالی در پس رفتار نادرست مدل ها در نمونه های خاص چیست؟ **به روز رسانی 1** من از رگرسیون لجستیک برای این کار استفاده می کنم. انتخاب پارامتر با جستجوی جامع ترکیبی از حداکثر 4 پیش بینی با اعتبار متقاطع 10 برابری انجام می شود. شایان ذکر است که مقادیر P که توسط مدل برای نمونههای طبقهبندی اشتباه محاسبه میشود، معمولاً با آستانه طبقهبندی پیشفرض 0.5 بسیار متفاوت است. به عبارت دیگر، نه تنها مدل در مورد آن موارد اشتباه است، بلکه در مورد خودش نیز بسیار مطمئن است **به روز رسانی 2 -- کاری که قبلا انجام داده ام** موافقم که بینش از حوزه مطالعه بسیار مهم است، اما تا به امروز ما داریم نتوانست چیز قابل توجهی کشف کند. همچنین، من سعی کردم نمونه های بد را از مجموعه آموزشی حذف کنم و مجموعه اعتبار سنجی و الگوریتم انتخاب پارامتر را دست نخورده نگه دارم. این منجر به عملکرد بهتر در مجموعه آموزشی (به طور طبیعی) شد، اما همچنین عملکرد در مجموعه اعتبار سنجی را به طور قابل توجهی بهبود بخشید. آیا این نشان می دهد که نمونه های بد در واقع بد بودند؟
|
برخورد با نمونه های «مشکل ساز».
|
3294
|
من به دنبال منابعی (آموزش ها، کتاب های درسی، پخش اینترنتی و غیره) هستم تا در مورد زنجیره مارکوف و HMM ها بیاموزم. سابقه من به عنوان یک زیست شناس است و در حال حاضر در یک پروژه مرتبط با بیوانفورماتیک هستم. همچنین، برای داشتن درک کافی از مدلها و HMMهای مارکوف، پیشزمینههای ریاضی لازم چیست؟ من با استفاده از گوگل به اطرافم نگاه می کردم، اما تا کنون هنوز یک آموزش مقدماتی خوب پیدا نکرده ام -- اما مطمئن هستم که کسی اینجا بهتر می داند :).
|
منابع یادگیری زنجیره مارکوف و مدل های مخفی مارکوف
|
79959
|
من نمی دانم چگونه می توانم بفهمم این سوال چه می پرسد، و نه چگونه تلاش کنم آن را حل کنم... شرکت پولک گزارش داد که میانگین سنی یک خودرو در جاده های ایالات متحده در سال اخیر 7.5 سال بوده است. فرض کنید توزیع سنی خودروها در جاده های ایالات متحده تقریباً به شکل زنگ است. اگر 95 درصد سنین بین 1 سال تا 14 سال باشد، انحراف معیار سن خودرو چقدر است؟ من میتوانم واریانس را محاسبه کنم، اما N را نمیدانم. مطمئن نیستم که بخش 95 درصد برای هر کدام از آنها وجود دارد یا با آن چه کار کنم. این از نظر فنی یک سوال تکلیف نیست، اما در یک امتحان عملی است. من واقعاً در مورد چگونگی حل این موضوع کمک می خواهم، جمله بندی من را به هم ریخته است.
|
مبارزه با مشکل ساده انحراف معیار
|
77220
|
من یک سری زمانی $X_t$ (نشان داده شده در زیر) با ساختار شکست دارم. تست ثابت «kpss.test()» می گوید که ریشه واحد دارد. چگونه این را توضیح دهیم؟ چرا $X_t$ ریشه واحد دارد؟ مطمئناً در میانگین ثابت نیست، بنابراین غیر ثابت است. اما من نمی توانم غیر ثابت بودن آن را به مفهوم ریشه واحد ربط دهم. x=c(rnorm(1000,0,1),rnorm(1000,10,1)) kpss.test(x) مقدار $p$-مقدار آزمون 0.01 است، بنابراین ما فرضیه صفر یک فرآیند ثابت را رد می کنیم. . به عنوان مثال، پیاده روی تصادفی یک ریشه واحد دارد اما در میانگین ثابت است. پس آیا رابطه ای بین ریشه واحد و ثابت در میانگین وجود دارد؟ نظری در این مورد دارید؟ 
|
چگونه این فرآیند ریشه واحد را توضیح دهیم؟
|
79954
|
من از تابع پایه شعاعی و شبه معکوس برای آموزش نورون ها و سپس آزمایش آن استفاده کردم. همه چیز اینجا کار می کند. اما من خواندم که می توانم به جای استفاده از شبه معکوس از روش نزول گرادیان استفاده کنم که گاهی ممکن است انجام آن سخت باشد (ممکن است حافظه اش تمام شود، ممکن است محاسبه بیش از حد طول بکشد). اما من اینجا چند چیز را نمی فهمم. فرض کنید من این داده را دارم: $x = [-1، -0.75، -0.5، -0.25، 0، 0.25، 0.5، 0.75، 1]$y = [-1 -0.75، -0.5-، -0.25، 0 ، 0.25، 0.5، 0.75، 1] $y$ با استفاده از این تابع محاسبه می شود: $y_i(f(x_i))= 1/(1+x_i^2)$ $N$ - تعداد واحدهای قطار (یا عناصر) $m_1$ - تعداد مراکز. سپس تابع $Phi$ را محاسبه می کنم: $t_j = -1 + (j - 1) g$ $gamma = -m_1/4$ $Phi = exp(gamma(abs(x - t_j)));$ سپس $ را پر می کنم G$ با ردیف (یا بردار) $Phi$ و سپس از $G$ برای محاسبه بردار $w$ مانند: $w = G^+y$ که در آن $G^+ = (G'G)^-1G'$ این به اصطلاح شبه معکوس است. اما در: http://www.ideal.ece.utexas.edu/~gjun/ee379k/html/regression/online_regression/page1.html پیشنهاد می کند از روش نزول گرادیان با چیزی شبیه به: $E_w[t] = 1/ استفاده کنید. 2(y - w[t]Phi(x))^2 $dE_w[t] =(y - w[t]^T Phi(x)(-Phi(x)))$ $w[t+1] = w[t] - n*dE_w[t]$ آیا کسی میتواند توضیح دهد که چگونه میتوانم به درستی شبه معکوس را با نزول گرادیان تغییر دهم؟ همچنین وزن اولیه چقدر باید باشد؟ مانند شبه معکوس، همه وزنها را در آنجا میگیرید، اما با نزول گرادیان، نمیدانم وزن اول چه چیزی باید باشد. آیا باید حداقل خطا را تعریف کنم، بنابراین یادگیری باید با رسیدن خطا به آن سطح متوقف شود؟ اگر بتوانید از این داده ها مثال matlab ارائه دهید، حتی بهتر است.
|
RBF - روش نزول گرادیان به جای روش شبه معکوس؟
|
106038
|
می دانم که احتمالاً این سؤالی است که بارها پرسیده شده است، اما من پاسخی دقیق و ساده ندیده ام. چگونه مدل پیشبینی مناسب را برای یک سری زمانی با بازرسی بصری نمودارهای ACF و PACF برآورد میکنید؟ کدام یک، ACF یا PACF، به AR یا MA می گوید (یا هر دو را؟) کدام بخش از نمودارها بخش فصلی و غیر فصلی یک ARIMA فصلی را به شما می گوید؟ به عنوان مثال این توابع را در نظر بگیرید:  آنها ACF و PCF یک سری تغییر شکل لاگ را نشان می دهند که دو بار متفاوت شده است، یکی تفاوت ساده و دیگری فصلی . چگونه آن را مشخص می کنید؟ چه مدلی با آن مناسب تر است؟ پیشاپیش متشکرم **ویرایش:** داده های خام اضافه شده داده های اصلی: اینجا داده های تبدیل شده را ثبت کنید: اینجا **ویرایش:** توابع ACF و PACF تصحیح شده (توابع قبلی بیش از حد متمایز شده بودند)
|
ضرایب ARMA را از طریق بازرسی ACF و PACF برآورد کنید
|
14788
|
من اطلاعاتی در مورد دو فرآیند دارم، که در آن فرآیند عناصر را به سطل های مرتب شده اختصاص می دهد. من علاقه مند به آزمایش برای توافق بین فرآیندها هستم. بهترین راه برای انجام این کار (کد R) چیست؟ در اینجا داده های ساختگی با شمارش برای 2 فرآیند و 4 دسته است. من با کاپا وزنی آشنا نیستم (که بعضی ها آن را به عنوان آزمونی برای استفاده از آن استدلال کرده اند) - بنابراین اگر درست است، کسی می تواند روش استفاده از این روش را توضیح دهد؟  ویرایش: علاوه بر این سوال، من کد R زیر را دارم. آیا این درست است و آیا این ارزش حاکی از توافق است؟ جدول<-ماتریس(c(35,2,10,7,6,15,8,6,4,5,12,8,1,0,0,5),4,4, byrow=TRUE) Kappa( table,weights=Fleiss-Cohen) با نتیجه: مقدار ASE Unweighted 0.3630137 0.06201821 Weighted 0.3854999 0.09886236
|
توافق رده سفارش داد
|
14034
|
من دریافتم که یادگیری نحوه کار MCMC و HMM با نوشتن کد نمونه های ساده به بهترین شکل ممکن انجام شد. اکنون میخواهم یاد بگیرم که **جنگلهای تصادفی** چگونه کار میکنند، اما تبدیل متون نظری و شبه کدها به اسکریپتهای واقعی (خوب... حداقل برای من) آنقدرها هم پیش پا افتاده نیست. آیا کسی می تواند من را به مثال های ساده ای از جنگل های تصادفی راهنمایی کند؟ من بسته R و غیره را می شناسم (و قبلاً از آن استفاده کرده ام) اما به جای یک رابط واقعاً ترجیح می دهم کدی از یک مثال خاص داشته باشم که بتوانم از آن تقلید کنم تا یاد بگیرم چگونه جنگل های تصادفی ساخته می شوند.
|
اجرای نمونه جنگل تصادفی
|
33425
|
من یک درخت رگرسیون برای تعیین سود سهام شرکت ها با سود سهام به عنوان تعیین کننده و 13 متغیر پیش بینی می سازم. برای بررسی صحت درخت، از مقادیر RMSE استفاده میکنم که با استفاده از یک مجموعه نمونه تصادفی محاسبه شدهاند. مشکل این است که مقادیر RMSE من **بزرگ** است زیرا محدوده سود سهام (تعیین کننده) بسیار زیاد است. می خواستم بدانم که آیا باید تعیین کننده یا شاید همه داده های ورودی را مقیاس کنم؟ اگر دادهها را مقیاسبندی کنم، RMSE کوچکتری دریافت میکنم، اما خواندن درخت دشوار است، زیرا دارای مقادیر مقیاسشده است. با تشکر
|
آیا باید داده ها را برای یک درخت رگرسیون مقیاس کنم، زمانی که تعیین کننده محدوده بزرگی را پوشش می دهد؟
|
4959
|
اگر $X_i$ به صورت نمایی توزیع شود $(i=1,...,n)$ با پارامتر $\lambda$ و $X_i$ از یکدیگر مستقل باشند، انتظار $$ \left(\sum_{i) چیست =1}^n {X_i} \right)^2$$ بر حسب $n$ و $\lambda$ و احتمالاً ثابت های دیگر؟ **توجه:** این سوال در http://math.stackexchange.com/q/12068/4051 پاسخ ریاضی گرفته است. خوانندگان نیز نگاهی به آن خواهند انداخت.
|
چگونه انتظار $\left(\sum_{i=1}^n {X_i} \right)^2$ را محاسبه میکنید؟
|
14033
|
این سوال ممکن است خیلی ساده لوحانه باشد، اما من باید این نکته را درک کنم. فرض کنید من یک نظرسنجی برای یک محصول برای 1000 نفر انجام دادم و داده ها را برای جنبه های مختلف آن جمع آوری کردم. فرض کنید دسته بندی ها X1، X2، X3، X4، X5 و X6 هستند. بنابراین، اکنون من 6 متغیر دارم. می خواهم نوع توزیع نمونه را بدانم. سوال من این است که چگونه می توان از توزیع این نمونه مطلع شد.
|
چگونه توزیع نمونه را بر اساس نظرسنجی شامل شش متغیر تعیین کنیم؟
|
37388
|
رابطه بین (اول) جزء(های) اصلی و ماتریس همبستگی یا میانگین همبستگی داده ها چیست؟ برای مثال، در یک کاربرد تجربی مشاهده میکنم که میانگین همبستگی تقریباً با نسبت واریانس اولین مؤلفه اصلی (اولین مقدار ویژه) به واریانس کل (مجموع همه مقادیر ویژه) یکسان است. آیا رابطه ریاضی وجود دارد؟ در زیر نمودار نتایج تجربی آمده است. در جایی که همبستگی میانگین همبستگی بین بازده مؤلفه شاخص سهام DAX محاسبه شده در پنجره غلتکی 15 روزه است و واریانس توضیح داده شده سهم واریانس توضیح داده شده توسط اولین مؤلفه اصلی است که در پنجره غلتکی 15 روز نیز محاسبه می شود. آیا می توان این را با یک مدل عامل خطر رایج مانند CAPM توضیح داد؟ 
|
رابطه بین PC 1 و میانگین همبستگی زوجی چیست؟
|
57371
|
در یک آزمون دو طرفه، فرض کنید که آمار آزمون $T(X)$ انتخاب شده است و توزیع $T(X)$ تحت فرض صفر نیز به عنوان $F$ شناخته شده است. بگذارید سطح معنی داری $\alpha$ باشد. من می توانم دو روش مختلف برای تعیین منطقه رد ارائه کنم: 1. $\{|T(x) - \mu| > c\}$. $\mu$ میانگین توزیع $F$ از $T(X)$ زیر صفر است و $c$ با حل $$\inf_{c \geq 0} c$$ با $$P_{ تعیین میشود. T(X) \sim F} (|T(X) - \mu| > c) \leq \alpha.$$ بنابراین ناحیه رد در حدود $\mu$ متقارن است. 2. $\{T(x) > c_1\} \cup \{T(x) <c_2\}$. $c_1$ و $c_2$ با حل $$\inf_{c_1 \in \mathbb R} c_1$$ با $$P_{T(X) \sim F} تعیین میشوند (T(X) > c_1) \leq \alpha/2$$ و $$\sup_{c_2 \in \mathbb R} c_2$$ مشروط به $$P_{T(X) \sim F} (T(X) < c_2) \leq \alpha/2.$$ بنابراین ناحیه رد به طور مساوی $\alpha$ را به دو طرف تقسیم می کند. **سوالات:** 1. آیا من درست می گویم که وقتی توزیع صفر $F$of $T(X)$ حول میانگین $\mu$ متقارن باشد، این دو روش موافق هستند و ممکن است وقتی $F$ نباشد موافق نباشند. در اطراف $\mu$ متقارن نیستید؟ 2. میخواستم بدونم این دو روش چه مزایا و معایبی داره؟ کدام یک و چه زمانی توصیه می شود؟ 3. آیا در برخی کتاب های درسی از هر دو روش استفاده می شود؟ اگر بله، مراجع؟ 4. چند روش دیگر برای تست های دو طرفه چیست؟ به عنوان مثال، آیا میتوانیم روش دوم را با تقسیم دلخواه $\alpha$ به طور ناموزون به دو طرف تعمیم دهیم؟ 5. رابطه بین ناحیه رد در تست و فاصله اطمینان را در نظر بگیرید. آیا مباحث فوق در مورد فواصل اطمینان نیز صدق می کند؟ با تشکر و احترام!
|
روش های مختلف تعیین ناحیه رد آزمون دو طرفه
|
2167
|
ترفند هسته در چندین مدل یادگیری ماشین (مانند SVM) استفاده می شود. برای اولین بار در مقاله مبانی نظری روش تابع بالقوه در یادگیری تشخیص الگو در سال 1964 معرفی شد. تعریف ویکی پدیا می گوید که روشی برای استفاده از الگوریتم طبقه بندی کننده خطی برای حل یک مسئله غیرخطی > با ترسیم نقشه است. مشاهدات غیر خطی اصلی در فضایی با ابعاد بالاتر، جایی که متعاقباً از طبقهبندیکننده خطی استفاده میشود. این > یک طبقه بندی خطی در فضای جدید معادل طبقه بندی غیرخطی > در فضای اصلی ایجاد می کند. یک مثال از مدل خطی که به مسائل غیر خطی بسط داده شده است، هسته PCA است. آیا ترفند هسته می تواند برای هر مدل خطی اعمال شود یا محدودیت های خاصی دارد؟
|
استفاده از ترفند هسته در روش های خطی؟
|
106035
|
من از شما کمک می خواهم زیرا مطمئن نیستم که آیا روشی که استفاده می کنم صحیح است یا خیر. من دو مدل M1 و M2 دارم و برای هر کدام ده نمونه (عضو گروه) دارم. برای هر مدل، میانگین خروجی همه اعضای داخل گروه را محاسبه میکنم. سپس من همبستگی بین میانگین این مجموعه و مشاهدات را محاسبه می کنم (28 نمونه زمانی). میخواهم بدانم که آیا تفاوت بین دو همبستگی، یعنی دو مدل، معنیدار است، یعنی به دلیل تفاوت بین پارامترها و ساختار دو مدل است. من از روش بوت استرپ استفاده می کنم. برای هر تکرار: 1. من دو مجموعه جدید را با نمونهگیری مجدد با جایگزینی از 10+10 نمونه اولیه ایجاد میکنم. 2. میانگین گروه جدید و همبستگیها را با مشاهدات محاسبه میکنم. بردار تفاوت های همبستگی را دارم که برای بدست آوردن صدک های 5-95 درصد استفاده می کنم. سپس بررسی میکنم که آیا تفاوت اصلی (واقعی) در محدوده صدک است یا خارج. تمام داستان همین است. از شما برای هر نظر در مورد آن سپاسگزارم.
|
استفاده از بوت استرپ برای مقایسه دو همبستگی مجموعه
|
33606
|
اگر بخواهم در آینده دانشمند داده باشم، آیا کسی می تواند **سایت ها/کتاب ها/دوره ها** و چیزهای خوب دیگری را برای یادگیری به من راهنمایی کند؟ با تشکر P.S: من تحلیل های آماری و R/Matlab/Excel/SAS را در سطوح مختلف می دانم، اما می خواهم مهارت های خود را در آن افزایش دهم.
|
دانشمند داده: چگونه شروع کنیم؟
|
38721
|
فرض کنید $X,A,B,C,D$ متغیرهای سری زمانی باشند و کوواریانس بین هر دو جفت از اینها مشخص است. فرض کنید می خواهیم $\textrm{cov}(X,aA + bB + cC + dD)$ را پیدا کنیم که در آن $a,b,c,d$ ثابت هستند. آیا راهی برای انجام این کار بدون گسترش $E[(X-E[X])(aA+......)]$ وجود دارد؟
|
کوواریانس یک متغیر و ترکیب خطی سایر متغیرها
|
33422
|
داده ها در دو تکرار بیولوژیکی با دو تکرار فنی، هر کدام اندازه گیری می شوند. * هر متغیر ممکن است فقط در یک یا چند تکرار شناسایی شود، در بقیه به طور تصادفی گم شده در نظر گرفته می شود. * هر متغیر در هر آزمایش با صفر (فقدان) تا ده ها نقطه داده اندازه گیری می شود. * هر اندازه گیری با واریانس تخمینی خود همراه است. سؤال برای هر متغیر (که حداقل یک بار شناسایی شده است): آیا میانگین آن از 0 انحراف دارد؟ می توانیم فرض کنیم که داده ها به طور معمول توزیع شده اند. آزمون مناسبی برای اعمال تصادفی بودن این داده ها در سطوح مختلف چیست؟
|
اندازه گیری های مکرر با مقادیر از دست رفته
|
14781
|
من مجموعه داده ای از 11000+ آیتم مجزا دارم که هر کدام در مقیاس اسمی توسط حداقل 3 ارزیاب مختلف در Mechanical Turk آمازون طبقه بندی شده اند. 88 ارزیاب مختلف قضاوت هایی را برای این کار ارائه کردند، و هیچ رتبه دهنده ای بیش از 800 قضاوت را تکمیل نکرد. بیشتر به طور قابل توجهی کمتر از آن ارائه می شود. سوال من این است: میخواهم مقداری از قابلیت اطمینان بین ارزیابها را برای رتبهبندیها محاسبه کنم، چیزی بهتر از یک نگاه ساده به اجماع. با این حال، من معتقدم که Fleiss Kappa، که معیاری است که من بهتر می دانم، به گروه ثابتی از ارزیاب ها برای کل مجموعه موارد نیاز دارد، و بنابراین من نمی توانم از Fleiss Kappa برای بررسی IRR با داده های خود استفاده کنم. آیا این درست است؟ آیا روش دیگری وجود دارد که بتوانم استفاده کنم؟ هر توصیه ای بسیار قدردانی خواهد شد!
|
قابلیت اطمینان بین ارزیاب با بسیاری از ارزیاب های غیر همپوشانی
|
37386
|
من گمان می کنم که یک سری از دنباله های مشاهده شده یک زنجیره مارکوف هستند... $$X=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A & C\\ B& A& A&C & A&D &A\\ \vdots& \vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B&C&A&D & A & B & E\\ \end{array}\right)$$ اما چگونه میتوانم بررسی کنم که آنها واقعاً به ویژگی بدون حافظه $$P(X_i=x_i|X_j=x_j) احترام میگذارند؟$$ یا حداقل ثابت کنید که آنها در طبیعت مارکوف هستند؟ توجه داشته باشید که اینها دنباله هایی هستند که به صورت تجربی مشاهده شده اند. هر فکری؟ **ویرایش** فقط برای اضافه کردن، هدف مقایسه مجموعه ای از دنباله های پیش بینی شده از موارد مشاهده شده است. بنابراین ما قدردانی خواهیم بود که نظرات خود را در مورد بهترین روش مقایسه اینها ارائه دهید. **ماتریس انتقال مرتبه اول $$M_{ij}=\displaystyle \frac{x_ij}{\sum^mx_{ik}}$$** که در آن m=A..E $$ M=\left(\begin را نشان میدهد {array}{c c c c c c c} 0.1834& 0.3077 & 0.0769& 0.1479 & . 0.3357 & 0.1818\\ 0.2458 & 0.1788& 0.1173 & 0.1788 & 0.2793\end{array}\right)$$ **مقادیر ویژه M** $$E =\left(\begin{آرایه 7}c5cc c.4. & -0.4219 & -0.2343 - 0.0421i & -0.2343 + 0.0421i\\ 0.4472 & 0.7838 & -0.4211 & -0.4479 - 0.2723i & -0.2723i & -0.4479 -0.4479 & 0.4479 + 0.0421 &\ 0.20 0.3725 & 0.6323 & 0.6323 \\ 0.4472 & 0.0010 - و 0.7089 & 0.2123 - 0.0908i & 0.2123 + 0.0908i\\ 0.4472 & 0.02 + 0.4474 & 0.02 0.3881i & 0.2546 - 0.3881i\\ \end{آرایه}\right)$$ **بردارهای ویژه M** $$V =\left(\begin{array}{c c c c c c c} 1.0000 & 0 & 0 & 0 & 0 \\ 0 & -0.2283 & 0 & 0 & 0 \\ 0 & 0 & 0.1344 & 0 & 0\\ 0 & 0 & 0 & 0.1136 - 0.0430i & 0 \\ 0 & 0 & 0 & 0 & 0.1136 + 0.0430i\\ \end{آرایه}\راست)$$
|
ویژگی بدون حافظه زنجیره مارکوف را بررسی کنید
|
106036
|
دو مدل خطی ساده را در نظر بگیرید. $y_{1j}=\alpha _1+\beta_{1}x_{1j}+\epsilon_{1j}$ و $y_{2j}=\alpha _2+\beta_{2}x_{2j}+\epsilon_{2j} $ , $ j=1,2,...,n>2$ جایی که $ \epsilon_{ij}$~$N(0,\sigma^2)$ I دو سوال دارید 1) نشان دهید که نقطه ای در محور x که در آن دو خط تلاقی می کنند با $x_0$=${\alpha_1-\alpha_2}\over \beta_2-\beta_1$ داده می شود. ^2$ و $x_0$ برای سوال 1) کاری که من انجام دادم این بود که دو خط را در $x_0،y_0$ intersect I $x_0,y_0$ را جایگزین دو معادله کردم. اما پس از آن چه اتفاقی برای شرایط خطا می افتد. آیا می توانم فرض کنم که خطاهای تخمین $x_0,y_0$ از هر دو معادله یکسان باشد؟ برای 2) $y_{ij}$ دارای توزیع نرمال است. من $E(y_{1,j})$ و $E(y_{2,j})$ را جداگانه محاسبه کردم. آیا می توانم بگویم که $E(X_{1j})$ =$E(X_{2j})$ و $E(y_{1,j})$ = $E(y_{2,j})$. بدین ترتیب من $E(y_{ij})$=${\beta_2\alpha_1-\beta_1\alpha_2}\over\beta_2-\beta_1$ را به دست آوردم به طور مشابه $V(y_{ij})=\sigma^2$ سپس مشترک تابع چگالی احتمال برای $y_{ij}$ $\prod_{i=1}^2\prod_{j=1}^n است $1\over\sqrt {2\pi\sigma^2}$$ e^{{-(y_{ij}-\mu})^2} / 2\sigma^2$ جایی که $\mu=$${ \beta_2\alpha_1-\beta_1\alpha_2}\over\beta_2-\beta_1$. آیا این یک p.d.f مشترک صحیح برای y است؟ آیا $x_0$ نیز توزیع عادی دارد. **$V(x_0)=0$** است. من نمیدانم چگونه میتوان **MLE را برای $x_0$** بدست آورد. لطفا کسی میتونه کمکم کنه تا این کار رو انجام بدم
|
برآوردگرهای حداکثر درستنمایی در رابطه با مدل های خطی
|
37389
|
من در حال انجام تحقیقی برای اعتبارسنجی پرسشنامه جدیدی هستم که دارای 156 گویه است که در 12 مقیاس تقسیم شده است. من یک تحلیل عاملی را در سطح مقیاس اجرا کرده ام که دو سازه خوب (منطبق با نظریه) به من می دهد. با این حال، معلم من اصرار دارد که این خوب نیست، زیرا به گفته او باید یک تحلیل عاملی اکتشافی در سطح آیتم انجام دهم. من این کار را انجام دادم و 43 عامل پیدا کردم (فقط چند مقدار در این جدول بزرگ دارای مقدار مربع مطلق بزرگتر از 0.4 هستند که مقداری است که فیلد (2005) به عنوان معنی دار پیشنهاد می کند. آیا ممکن است هنگام اجرای چنین تحلیلی با یک پرسشنامه با بیش از 100 آیتم، تجزیه و تحلیل عاملی واقعاً آنقدر مناسب نیست. 275-289) از آنجایی که این پرسشنامه ای است که با بودجه زیادی برای تحقیق تهیه شده است و در حال حاضر هیچ گونه تحلیل عاملی روی گویه ها انجام نشده است، بلکه چندین تحلیل عاملی بعدی انجام شده است نویسندگان دیگر نیز مقیاسهایی را گنجاندهاند (نه آیتمها).
|
چه زمانی انجام تحلیل عاملی در سطح آیتم ها در مقابل سطح مقیاس در پرسشنامه جدید مناسب است؟
|
108909
|
من باید LCL95٪ و UCL95٪ را با استفاده از روش دقیق Land محاسبه کنم. من LCL و UCL را برای این توزیع لگ نرمال با استفاده از تکنیک دیگری محاسبه کردم و نمی توانم چیزی برای رویه Land's Exact پیدا کنم. «مجموعه دادههای من x = {0.043، 0.236، 0.057، 0.016}» این چیزی است که من امتحان کردم y = میانگین ln{x} s^2 = انحراف استاندارد ln{x} `o = exp(y + s^2 /2 +- (z*(sqrt(s^2/n + s^4/2(n-1)))` و دریافت کردم UCL:2.98 و LCL: 0.139 اما پاسخ با استفاده از زمینها دقیقاً UCL95%:11.6 و LCL95%: 0.039 است: «میانگین: 0.088» «انحراف استاندارد: 0.1» «میانگین هندسی: 0.05Geometric»: انحراف استاندارد: 3.04` «میانگین حسابی تخمینی با استفاده از MVUE: 0.085» «صدک 95: 0.343» «حد بالای تحمل: 16.8» «میانگین ln{x} = -2.898» «انحراف استاندارد ln{x} = 1.112» میتواند به من کمک کند هنگام استفاده از روش دقیق لند، الگوریتمی را برای فرمول ترسیم کنید؟
|
حد اطمینان پایین و بالایی در میانگین حسابی تخمین زده شده با استفاده از دقیق لند
|
83574
|
آیا راهی برای تخمین بایاس تخمین بتا در یک مدل رگرسیون خطی زمانی که مقادیر بتای واقعی ناشناخته هستند وجود دارد؟ معیار شناخته شده میانگین مربع خطا (MSE) برای تعیین کمیت عملکرد برآوردگرهای بایاس مختلف استفاده می شود، اما برای محاسبه بایاس باید بدانید که مقدار صحیح بتاها چقدر باید باشد. $MSE= var^2 +bias^2$ وقتی نمی دانید مقدار صحیح چیست چه کاری می توانید انجام دهید؟ نمیدانم که آیا میتوانید از مقدار OLS به عنوان یک پروکسی استفاده کنید (چون بیطرفانه است)؟ با این حال، موقعیتهایی که احتمالاً در آنها تخمینگرهای مغرضانه مورد استفاده قرار میگیرند، همان موقعیتهایی هستند که OLS در آنها احتمالاً با مشکل مواجه میشود، فقط تعجب کردم که آیا روشهای دیگری برای تخمین سوگیری وجود دارد؟
|
برآورد سوگیری در یک مدل رگرسیون خطی
|
38727
|
هدف: من میخواهم تفاوت بین تیمارهای آزمایشی را همزمان با کنترل یک متغیر کمکی پیوسته در رگرسیون پواسون بهصورت بصری به تصویر بکشم. در آزمایش خود به دنبال توضیح تعداد گونه های حشره روی گیاهان (غنای) با فاکتور تیمار 3 سطحی و اندازه گیاه به عنوان یک متغیر پیوسته هستم. مدل من این است: glm (غنی ~ tmnt + اندازه، خانواده = سم) علاوه بر این، من فاکتور درمانی خود را برای مقایسه درمان های 1 و 2 با درمان 3 با استفاده از کد زیر کد کنتراست کرده ام: 1.2vs3 <- cbind(1vs2.3=c( 1،1،2)، 2vs3=c(-1،1،0)) تضادها (tmnt) <- 1vs2.3 (با این حال، فکر نمیکنم طرح کدگذاری کنتراست من برای سوال من در اینجا تفاوتی ایجاد کند.) من به دنبال ایجاد نمودار نواری از غنای گونهای در بین تیمارها هستم - در حالی که متغیر کمکی را کنترل میکنم. در رگرسیون چندگانه با خطاهای گاوسی و _دو_ متغیر پیوسته، می توان با ترسیم نمودارهای باقیمانده زیر، یک نمودار جزئی ایجاد کرد: contRes، richRes) و دو مدل زیر تخمین پارامترهایی را برای اثر درمان ایجاد می کنند که یکسان هستند: lm(rich ~ cont + size) lm(richRes ~ contRes) با این حال، من نمی دانم چگونه مقادیر را برای ترسیم اثر یک عامل در هنگام کنترل یک متغیر کمکی استخراج کنم، و همچنین فکر می کنم که خطاهای پواسون همه چیز را پیچیده تر می کند. . من فکر کردم که می توانم به سادگی باقیمانده های مدل کامل فاقد tmnt را بگیرم و آنها را در برابر tmnt به این صورت رسم کنم: richRes <- residuals(glm(rich~ size, family=poisson) plot(tmnt, richRes) که کار می کند، اما مدل ها: glm (rich ~ tmnt + اندازه، خانواده = poisson) lm (richRes ~ tmnt، Family=poisson) تخمینهای پارامتری متفاوتی ارائه میدهد، بنابراین چیزی کاملاً درست نیست، لطفاً کسی میتواند روشی را به من ارائه دهد که به من امکان دهد تا تفاوت بین و واریانس در درمانها (نوارهای خطا) را دقیقاً منعکس کند. رگرسیون کامل پواسون، به عنوان مثال، در نظر گرفتن اندازه، در اینجا برخی از داده های ساخته شده برای بازی وجود دارد، اگر اینطور انتخاب کنید، این متغیرها در کد من قرار می گیرند (به استثنای موارد). set.seed(8082) rich <- rpois(50, 10) tmnt <- as.factor(c(rep(1, 25), rep(2, 25)) set.seed(8083) size <- rnorm( 50، 10، 3) set.seed(8084) cont <- rnorm(50, 10, 3)
|
تصویری بصری از درمان های تجربی در (پواسون) ANCOVA؟
|
18208
|
من در تعجب هستم که چگونه می توان خطاهای استاندارد ضریب یک رگرسیون را هنگام استفاده از تابع نمایش در R تفسیر کرد. برای مثال در خروجی زیر: lm(فرمول = y ~ x1 + x2، داده = sub.pyth) coef.est coef. se (Intercept) 1.32 0.39 x1 0.51 0.05 x2 0.81 0.02 n = 40، k = 3 باقیمانده sd = 0.90، R-Squared = 0.97 آیا خطای استاندارد بالاتر حاکی از اهمیت بیشتر است؟ همچنین برای انحراف استاندارد باقیمانده، مقدار بالاتر به معنای گسترش بیشتر است، اما مربع R تناسب بسیار نزدیکی را نشان می دهد، آیا این یک تناقض نیست؟
|
چگونه خطاهای استاندارد ضریب را در رگرسیون خطی تفسیر کنیم؟
|
38724
|
اگر $x$ و $y$ دو سری باشند، آیا رابطه ای بین $\sum{(x,y)}$ وجود دارد که بتوان آن را بر حسب میانگین این دو بیان کرد. به طور خاص، میخواهم بدانم آیا هر نوع رابطهای بین $\sum(x,y)$ و $\sum{(\bar{x}, \bar{y})}$ وجود دارد یا خیر.
|
مجموع (XY) بر حسب Xbar و Ybar
|
37385
|
من از 20 متغیر برای استخراج 4 عامل در تحلیل عاملی استفاده کرده ام. اکنون میخواهم از عوامل استخراجشده (نمرات عاملی) بهعنوان IV بر روی متغیر نتیجه استفاده کنم. علاوه بر این، من می خواهم 4 متغیر دیگر را به عنوان IV در رگرسیون قرار دهم که در تحلیل عاملی استفاده نشده اند. این بدان معناست که من می خواهم 4 عامل و 4 متغیر (از خارج از FA) را به عنوان IV در یک DV رگرسیون کنم. آیا از نظر آماری مشکلی در آن وجود دارد؟ ثانیاً اگر بخواهم رگرسیون جداگانه ای روی DV دیگری با استفاده از 2 فاکتور (نمرات عاملی) و 3 متغیر دیگر به عنوان IV اجرا کنم، آیا مشکلی وجود دارد؟ فقط برای دانستن، اگر به جای آن، 4 جزء را از یک PCA (تجزیه و تحلیل اجزای اصلی) استخراج کنم، پاسخ همان دو سوال چه خواهد بود؟ برای هر کمکی ممنونم
|
درباره رگرسیون برخی از متغیرها به همراه برخی عوامل در یک DV پس از تحلیل عاملی
|
82072
|
یک کوزه دارای 50 گلوله 1 تا 50 عددی است که روی آن عدد مشخصی نوشته شده است. باب، صاحب کوزه، هر روز یک توپ را به طور تصادفی (با احتمال مساوی) از شیشه بیرون می آورد و دوباره می گذارد. Q1. به طور متوسط چند روز طول می کشد تا همه 50 توپ بیرون بیایند؟ (توجه داشته باشید که همان توپ را می توان در بیش از یک روز برداشت) Q2. فرض کنید 3 ماه پس از شروع باب این فعالیت، چند توپ متمایز توسط باب خارج شده است؟
|
احتمال کوزه حاوی توپ از نوع سوال با جایگزینی
|
57372
|
این یک سوال بسیار ساده است اما من نتوانستم پاسخ روشنی برای آن پیدا کنم. من داده هایی از یک آزمایش رفتاری دارم که تحت دو شرایط (A و B) انجام شده است. در هر شرایط، هر آزمایش می تواند یکی از دو نتیجه (صحیح یا خطا) را داشته باشد. علاوه بر این، آزمایش را روی بسیاری از موضوعات تکرار کردم. اگر فقط کارآزماییهای صحیح را در نظر بگیرم، میدانم که برای برخی از آزمودنیها پاسخ به طور قابلتوجهی در طول A بیشتر از آن در زمان B است، و برای سایر آزمودنیها تأثیر معکوس است. این اثر برای سوژه های فردی کاملاً قوی است و من متقاعد شده ام که واقعی است. فقط این است که جهت می تواند به هر طرف برود. من علاقه مند به بیان عبارتی مانند: پاسخ در آزمایش های صحیح در شرایط A و B به طور قابل توجهی متفاوت است، اما این اثر برای آزمایش های خطا کاهش می یابد (یا وجود ندارد، یا معکوس می شود). این می تواند بیانیه ای در مورد هر موضوع جداگانه یا جمعیت باشد. مشکل اینجاست: وقتی مشخص کنم که آیا A یا B برای هر موضوعی بر اساس آزمایشهای صحیح بزرگتر است، مطمئن هستم که تأثیر آن روی آزمایشهای خطا کمتر میشود، صرفاً به دلیل رگرسیون به میانگین. یعنی حتی اگر آزمایشهای صحیح و آزمایشهای خطا در واقع یکسان باشند، اگر جهت اثر را بر اساس آزمایشهای صحیح انتخاب کنم، در آزمایشهای خطا کمتر خواهد بود. ابتدا می خواهم بشنوم که آیا فکر می کنید این موضوع واقعاً نگران کننده است یا خیر. ثانیاً من علاقه مند هستم که در مورد آن چه کاری باید انجام دهم. این به نظر من یک مشکل تضاد برنامه ریزی شده است اگرچه من هرگز این کار را انجام نداده ام. من فکر می کنم چیزی شبیه به abs (A_hit - B_hit) > abs (A_error - B_error) باشد. یک مشکل این است که من معمولاً دوست دارم از آزمون U Mann-Whitney برای دادههایم استفاده کنم، زیرا خیلی عادی نیست، اما اگر تنها ابزارهای این مشکل بر فرض عادی بودن تکیه میکنند، مایلم اجازه بدهم که لغزش پیدا کند.
|
چگونه در یک مقایسه ساده از بازگشت به میانگین جلوگیری کنیم
|
108906
|
من چهار مدل تو در تو دارم. هر کدام از آنها از مجموعه داده های مختلف آموخته اند. اکنون میخواهم این مدلها را با هم مقایسه کنم. معمولاً افراد سعی میکنند آمار F را محاسبه کنند. اما برای مورد من، کمی سختتر است، زیرا هر یک از این مدلها از دادههای متفاوتی میآیند. آیا کسی ایده ای دارد که چگونه می توانم در این مورد مدل ها را با هم مقایسه کنم؟
|
چگونه می توان مدل های تودرتو را که هر یک از آنها از مجموعه داده های مختلف می آیند مقایسه کرد؟
|
113494
|
آیا کسی می تواند من را در جهت درست برای درمان مشکل زیر راهنمایی کند؟ من تصور می کنم این باید یک مشکل نسبتاً رایج در آمار پزشکی باشد... با توجه به دو متغیر تصادفی دو جمله ای $X_1\sim Bin(n_1,\pi_1)$ و $X_2\sim Bin(n_2,\pi_2)$ من به دنبال توزیع پسین $\pi_1-\pi_2$. در صورتی که این برای ساده کردن تقریب ها مرتبط باشد، در مشکل من هر دو $\pi$ تقریباً 2٪ هستند، تفاوت آنها حدود 0.1٪ است. هر دو $n$ از مرتبه 1000 $ هستند.
|
توزیع خلفی تفاوت متناسب دو متغیر دو جمله ای
|
37383
|
من از بسته np در R با دستور 'npregiv' استفاده می کنم. این برنامه در نسخه بتا است، و من نمیتوانم ordered(var) را روی یکی از ابزارهایم فراخوانی کنم (مطمئنم یک اشکال در برنامه وجود دارد، فایل راهنما میگوید این مجاز است). متغیر مورد نظر تعداد نوع خاصی از مؤسسات در یک منطقه است و همه مناطق در بازه [0،13] قرار دارند. اگر «ordered()» را صدا نکنم، عواقب آن چیست؟ در یک تنظیم پارامتری، این سوال مطرح است که آیا افزایش های متغیر ترتیبی خطی هستند یا خیر - من مطمئن نیستم که چگونه این را در تنظیم رگرسیون غیر پارامتری تفسیر کنم. در غیر این صورت میتوانم «factor()» را صدا بزنم و متغیر را به شاخصی مبنی بر وجود یا عدم وجود مؤسسه در یک منطقه خاص تبدیل کنم، اما سپس اطلاعات را دور میریزم.
|
متغیرهای خطی و ترتیبی در تنظیمات ناپارامتریک
|
34877
|
آیا این توزیع احتمال نامی دارد؟ $$f_a(x) dx = \frac{a}{e^a-(a+1)} \left(e^{a x} - 1\right) dx, \quad 0 \le x \le 1.$ $ ویرایش: من می خواهم $a$ مثبت باشد. من فکر نمی کنم این چیزی باشد که معمولاً توزیع نمایی کوتاه نامیده می شود. ویرایش 2: در اینجا یک مثال است که در آن $a=2$ است. ویرایش 3: به نظر می رسد این یک توزیع بی نام است.
|
نام توزیعی که پشتیبانی آن (0،1) و هسته pdf آن exp(ax) - 1 است چیست؟
|
18206
|
من چهار حرف دارم: A B C D، باید تمام ترکیبات را در نوع زیر محاسبه کنم: A - B A - C A - D A - BC A - BD A - CD A - BCD AB - C AB - CD AB - D ABC - D به عنوان شما می توانید ببینید که هیچ حرفی تکرار نمی شود چپ - راست، اگر حرف در سمت چپ باشد، دیگر در سمت راست تکرار نمی شود. من به یک روش برای تولید همه آن ترکیبات ممکن نیاز دارم. **AND** ترتیب ترکیب ها مهم نیست، اگر از ABC استفاده کنم به ترکیب های دیگر با CBA یا BAC نیازی ندارم، همانطور که می بینید نوشتم: A - BC و **NOT** A - CB در واقع . من به تمام ترکیباتی نیاز دارم که 4 حرف بدون تکرار همان حرف در سمت چپ و راست ایجاد کنند. کسی میتونه کمکم کنه؟
|
چگونه تمام ترکیبات را در R محاسبه کنیم؟
|
34874
|
پس از تلاش برای تولید یک مدل ترکیبی خطی، من با مقدار زیادی ناهمگونی مواجه شدم. lme1 <- lme(Average.payoff ~ Game + Type + Others.Type + Game:Type + Game:Others.Type + Type:Others.Type, random=~1|موضوعات, روش = REML, data=Subjectsm1) عبارت پاسخ Average.payoff پیوسته است، در حالی که همه متغیرهای توضیحی باینری هستند. هنگامی که به اعتبارسنجی نگاه می کنم، به وضوح می توانم ببینم که گسترش باقیمانده ها با مقادیر برازش بزرگتر کاهش می یابد. به طور متناوب تصمیم گرفتم ببینم اگر فقط با استفاده از «gls()» مناسب باشم چه اتفاقی می افتد. gls1 <- gls(Average.payoff ~ Game + Type + Others.Type + Game:Type + Game:Others.Type + Type:Others.Type، متد=REML، data=Subjectsm1) anova(lme1، gls1) # # مدل df AIC BIC logLik Test L.Ratio p-value # lme1 1 9 67.81805 81.28662 -24.90902 # gls1 2 8 66.14661 78.11867 -25.07330 1 vs 2 0.3285588 0.5665 همانطور که می بینید مدل «gls()» بهتر از «gls()» است. با وجود اینکه از طراحی آزمایشی میدانم که افکتهای تصادفی دارم، آیا اگر تناسب بدون آنها بهتر است، آنها را از مدل حذف کنم؟
|
آیا باید جلوه های تصادفی را نگه دارم یا حذف کنم؟
|
113497
|
من میخواهم از مدلهای پنهان مارکوف برای مشکل برچسبگذاری دنبالهای بدون نظارت استفاده کنم. با توجه به ویژگی های دامنه برنامه من (تشخیص کنش های گفتگو در مکالمات)، می خواهم از انتشار چندگانه برای هر حالت (یعنی ویژگی های متعدد) استفاده کنم. بنابراین، از نظر گرافیکی، مدل به این صورت خواهد بود:  هم حالت های پنهان و هم متغیرهای مشاهده گسسته هستند. احتمالات انتشار $P(O_{ij} \ | \ S_i)$ مستقل فرض میشود و از طریق توزیعهای طبقهبندی استاندارد مدلسازی میشود. سوال من این است: آیا ابزار یا الگوریتمی در دسترس عموم وجود دارد که به من اجازه دهد پارامترهای این نوع HMM با انتشار چندگانه را از طریق یک نوع Baum-Welch یاد بگیرم؟ از آنچه که من جمع آوری کردم، به نظر می رسد که تنها نوع انتشار چندگانه که توسط ابزارهای کلاسیک HMM پشتیبانی می شود، گاوسی های چند متغیره هستند، اما من چیزی در مورد توزیع های طبقه بندی مستقل از نوع بالا پیدا نکردم. البته، میدانم که میتوانم با در نظر گرفتن هر مشاهده بهعنوان بردار مقادیر (که هر بعد در این بردار مربوط به یک ویژگی خاص است) و تخمین احتمالات انتشار در این فضای برداری از طریق کلاسیک Baum-Welch، مشکل را دور بزنم. اما این باعث ایجاد تعداد زیادی پراکندگی داده های غیر ضروری می شود. کسی پیشنهادی برای حل این مشکل داره؟ من مطمئن هستم که من اولین کسی نیستم که سعی کردم از HMM برای یادگیری بدون نظارت با چندین ویژگی استفاده کنم! (یا شاید باید از نوع دیگری از مدل استفاده کنم؟ من استفاده از CRF ها را نیز در نظر گرفتم، اما به نظر می رسد این مدل ها برای مشکلات یادگیری بدون نظارت اعمال شوند).
|
مدلهای پنهان مارکوف با انتشار چندگانه در هر حالت
|
34873
|
آزمایش من یک طرح بلوک کاملا تصادفی است. هدف این است که بفهمیم آیا یک متغیر بین گونههای $a$, $b$, $c$ متفاوت است یا خیر. اندازه گیری 2 بار (ژوئن، جولای) در هر سال (2011، 2012) انجام شد. می خواستم بدانم که آیا ANOVA اندازه گیری های مکرر روش صحیحی برای استفاده است؟ اگر اینطور است، لطفاً به من کمک کنید تا سینتکس آنالیز ANOVA و post hoc را بنویسم؟ داده های من مانند زیر است: dat <- read.table(text = گونه های بلوک سال متغیر زمانی a 1 2011 ژوئن 1 a 2 2011 ژوئن 2 a 3 2011 ژوئن 3 b 1 2011 ژوئن 4 b 2 2011 ژوئن 5 b 3 2011 ژوئن 6 c 1 2011 ژوئن 7 c 2 2011 ژوئن 8 ج 3 2011 ژوئن 9 a 1 2011 ژوئیه 10 a 2 2011 ژوئیه 11 a 3 2011 ژوئیه 12 b 1 2011 ژوئیه 13 b 2 2011 ژوئیه 14 b 3 2011 ژوئیه 15 c 1 2011 ژوئیه 16 ژوئیه c 1 2011 ژولای 16 c a 1 2012 ژوئن 19 a 2 2012 ژوئن 20 a 3 2012 ژوئن 21 b 1 2012 ژوئن 22 b 2 2012 ژوئن 23 b 3 2012 ژوئن 24 c 1 2012 ژوئن 25 c 2 2012 ژوئن 25 c 2 2012 ژوئن 27 2012 ژوئن 2012 ژوئیه 28 a 2 2012 ژوئیه 29 a 3 2012 ژوئیه 30 b 1 2012 ژوئیه 31 b 2 2012 ژوئیه 32 b 3 2012 ژوئیه 33 c 1 2012 ژوئیه 34 c 2 2012 ژوئیه 35 ژوئیه c 3 2012 header=
|
آیا ANOVA اندازه گیری های مکرر روش صحیحی برای داده های من است؟
|
85807
|
چه چیزی باعث ایجاد انگیزه، توجیه، و ایجاد تفاوت بین توزیعهای گامبل، فریشه و وایبول میشود؟ نظر Glen_b نشان می دهد که آنها توزیع هایی برای مقادیر شدید تولید شده توسط انواع مختلف توزیع در دنباله های IID هستند. آن انواع مختلف چیست؟ [ویرایش شده در پاسخ به نظر Glen_b.] با خیال راحت مرا به منابع دیگر راهنمایی کنید. [زمینه: من تازه شروع به یادگیری کمی نظریه ارزش افراطی کرده ام (بیشتر با کار کردن در بخش های اولیه Reiss & Thomas's _Statistical Analysis of Extreme Values_ 2nd ed.). من تعاریف ریاضی توزیعهای گامبل، فریشه و وایبول کاملاً پارامتری شده را میدانم، اینکه چگونه میتوان همه آنها را بهعنوان موارد خاصی از توزیع ارزش افراطی تعمیمیافته در نظر گرفت، و اینکه برای برخی از ترکیبهای پارامتر، توزیع فرشت یا وایبول میتواند نزدیک به یک گامبل باشد. توزیع من سعی میکنم در سطح مفهومیتری نسبت به تفاوتهای این توزیعها بینشی پیدا کنم.] [من دلیلی برای شک ندارم که Glen_b درست میگوید، اما در هر صورت، در اینجا بخشهایی از سؤال اصلی وجود دارد که دیگر مرتبط به نظر نمیرسند: مثالهای دنیای واقعی یا زمینههای ریاضی وجود دارد که به ایجاد انگیزه کمک میکند، برای مثال، استفاده از توزیع فریشه در مقابل توزیع گامبل؟ (ر.ک. انتشار ذرات رادیواکتیو به عنوان انگیزه برای توزیع پواسون). (ر.ک. توزیع پواسون به عنوان حد یک توزیع دوجمله ای.) یک سوال بسیار مرتبط: چرا ترجیح می دهید مقادیر افراطی را با یکی از سه توزیع دیگر مدل کنید (به غیر از اینکه صرفاً فکر کنید که داده ها شبیه آنها هستند؟ آیا با یک توزیع مناسب تر است)؟]
|
انگیزه مفهومی یا ریاضی برای سه نوع توزیع ارزش شدید؟
|
18203
|
این یک سوال طولانی است اما من سعی می کنم تصویر را ترسیم کنم. من از مدل سازی معادلات ساختاری با استفاده از نرم افزار Amos برای مطالعه روابط بین مغز و رفتار استفاده می کنم. من سه نوع شرط دارم - 1، 2، 3 (برای سادگی). در هر شرط، 2 متغیر دارم که به صورت دو طرفه به هم متصل هستند. متغیرها (مناطق مغز) در شرایط یکسان هستند اما همبستگی بین 2 متغیر برای هر شرایط متفاوت است. در یک مدل انباشته، من اتصالات بین 1 و 2 را به صورت زوجی مقایسه می کنم. در یک مدل جداگانه، 1 و 3 را مقایسه می کنم. از آنجایی که بتاها ضرایب همبستگی نیمه جزئی هستند، باید مقادیر مشابهی را برای مقایسه 1 (1 و 2) بدست بیاورم. ) و 2 (1 و 3) برای شرط 1 اما اینها متفاوت هستند. من واریانس یا باقیمانده خطا را برای هر متغیر در یک شرایط خاص اصلاح می کنم. من بتای مشابهی دریافت نمیکنم، میپرسم علت این امر چیست؟
|
آیا ضرایب مسیر (بتا) برای شرایط یکسان در مقایسه مدلها باید در مدلسازی معادلات ساختاری برابر باشد؟
|
113491
|
من با آواز پرندگان کار می کنم. یک آهنگ از پارامترهای صوتی بسیاری تشکیل شده است [بالاترین فرکانس (هرتز)، فرکانس پایین تر (هرتز)، پهنای باند (هرتز)، مدت زمان (ها)، تعداد نت ها، و پسر در...] ** من علاقه مند به کاوش در رابطه بین فاصله جغرافیایی و آواز پرندگان، برای دیدن اینکه آیا الگوی تنوع در این رابطه وجود دارد یا نه. هر پارامتر و سپس یک ماتریس عدم تشابه برای هر پارامتر اندازه گیری شده با استفاده از فاصله اقلیدسی تولید کرد. سپس برای هر پارامتر یک تست Mantel انجام دادم، با استفاده از ماتریس فاصله جغرافیایی بین نقاط نمونه گیری و ماتریس فاصله بین مقادیر نمونه برداری شده در هر نقطه برای یک پارامتر صوتی معین. **سوال من این است: آیا این تجزیه و تحلیل داده ها درست است؟ برخی از این پارامترها با هم مرتبط هستند (مانند تعداد نت ها و مدت آهنگ و فرکانس بالا با پهنای باند)، بنابراین آیا من درگیر مشکل وابستگی و تکرار شبه هستم؟**
|
استفاده از Mantel برای کشف رابطه بین فاصله جغرافیایی و یک کاراکتر چند متغیره
|
113490
|
من یک سری زمانی دارم (در زیر نشان داده شده است) که از سنسوری می آید که کالیبراسیون آن در اواسط سال گذشته تغییر کرده است. به عنوان بخشی از این تغییر، خواندن سنسور از واریانس (یا نوسانات) مشاهدات افزایش یافت، اگرچه در واقع، این نوسانات قبل از تغییر در کالیبراسیون رخ داد، اما به طور کامل شناسایی نشد. از آنجایی که دادههایی که حسگر تشخیص میدهد بسیار فصلی است (در هر دو سطح هفتگی و سالانه)، من میخواهم با استفاده از سطح جدید کالیبراسیون، پیشبینی دقیقی از میزان قرائتهای آینده ایجاد کنم. من نمیخواهم دادههای قبل از کالیبراسیون را حذف کنم، زیرا ما فقط کمی بیشتر از یک سال داده جمعآوری کردهایم. من تبدیلهای سنتی (مانند Box-Cox) و تجزیه فصلی را با استفاده از «stl()» در بسته «پیشبینی» R امتحان کردهام، اما تبدیل این مشکل واریانس را حل نمیکند، زیرا واریانسهای مختلفی در همان سطح دادهها وجود دارد. (مثلاً در 0.0). آیا تکنیک های دیگری وجود دارد (که در زبان برنامه نویسی R موجود است) که به من امکان می دهد داده های قبل از اواسط سال 2013 را برای مطابقت با واریانس داده هایی که بعدا می آیند تغییر دهم؟ 
|
تبدیل سری های زمانی برای جبران تغییر واریانس
|
113492
|
من اغلب از وزن های نمونه با Libsvm برای مشکلات طبقه بندی استفاده می کنم. http://www.csie.ntu.edu.tw/~cjlin/libsvmtools/#weights_for_data_instances آیا کسی جزئیات الگوریتمی را میداند که هنگام استفاده از وزن نمونه در libsvm پیادهسازی میشود؟ الگوریتم استاندارد یادگیری مدل SVM وزن های مساوی را به تمام نمونه های آموزشی و در نتیجه به خطا در نمونه های آموزشی اختصاص می دهد. من معتقدم که الگوریتمی که Libsvm استفاده می کند متفاوت خواهد بود. پس از جستجوی آنلاین، من برخی از مقالات را پیدا می کنم که کار مشابهی را انجام می دهند. به عنوان مثال [1] اما من باید با کسی که ممکن است در این مورد مطمئن باشد تأیید کنم. با تشکر ps: من همچنین این سوال را در stackoverflow ارسال کرده ام. در صورت دریافت پاسخ در آنجا به روز می شود. [1] یانگ، زولی، چینگ سونگ و یو وانگ. یک ماشین بردار پشتیبانی وزنی برای طبقه بندی داده ها. مجله بین المللی تشخیص الگو و هوش مصنوعی 21.05 (2007): 961-976.
|
وزن نمونه در libsvm/liblinear
|
33601
|
با توجه به چند اندازه گیری که با اجرای یک آزمایش به دست می آورم، باید این واقعیت را بیان کنم که آنها تا حدی مشابه هستند. بنابراین، من ضریب تغییرات آنها را محاسبه کردم، یعنی stdev/mean. این یک نمونه است: 3.76025 2.98375 3.78946 3.72195 3.11426 3.60366 و CV = 10.12% حالا من گیج شدم، نمی دانم چگونه این عدد را تفسیر کنم، واضح است که هر چه کمتر بهتر است، اما چه چیزی کم است؟ _به عنوان مثال، 20 درصد به پایین کم در نظر گرفته می شود؟ در اینجا تعدادی دیگر از نتایج من است: http://pastebin.com/raw.php?i=sg5S05rM من هزاران خط از این قبیل دارم، و تنها چیزی که می خواهم بگویم این است که اعداد درون هر خط همیشه کم و بیش مشابه هستند. آیا باید از معیار دیگری استفاده کنم؟
|
چگونه می توان تغییرات را در یک آزمایش کمیت کرد؟
|
113978
|
من یک مجموعه داده آزمایشی کوچک حاوی اندازهگیریهای تجربی برای 12 نمونه، 4 پیشبینیکننده عددی و 1 متغیر نتیجه عددی دارم. هدف این است که قبل از تصمیم گیری در مورد اینکه آیا جمع آوری داده های بیشتر ارزش دارد یا خیر، اولین تخمین تقریبی در مورد میزان قابل پیش بینی متغیر نتیجه با استفاده از یک یا چند پیش بینی کننده از 4 پیش بینی به دست آوریم. با تابع lm در R، اگر فقط بهترین پیشبینیکننده را در مدل لحاظ کنم، یک تناسب خطی با p <0.05 به دست میآورم. با این حال، با توجه به اینکه این فقط دادههای آزمایشی با حجم نمونه بسیار کوچک است، و همه زیرمجموعههای 2^4-1 = 15 مورد آزمایش قرار گرفتهاند، آیا تنظیم p-value برای بهترین پیشبینیکننده برای آزمایش فرضیههای چندگانه کافی است (مثلاً با استفاده از تنظیمات بنجامینی-هخبرگ) برای کسب اطمینان در این مدل؟ آیا منطقی است که از هر تکنیک مدل سازی دیگری برای به دست آوردن اطمینان بیشتر مبنی بر اینکه داده ها دارای محتوای اطلاعات پیش بینی کننده قابل توجهی هستند استفاده شود (رویکردهای غیرخطی به احتمال زیاد منجر به تطبیق بیش از حد در چنین مجموعه داده کوچکی می شود، اما شاید مدل های خطی دیگر، به عنوان مثال رگرسیون خطی. ، SVM خطی، هنوز هم می تواند آموزنده باشد) - یا به دلیل بدتر شدن مشکل آزمایش چندگانه، این کار ارزشی ندارد؟ با تشکر فراوان از پیشنهادات شما
|
تجزیه و تحلیل رگرسیون برای مجموعه داده با تعداد کمی پیش بینی و نمونه های کمی
|
47465
|
من یک طبقه بندی کننده ساده بیز با دو کلاس (هدف و غیر هدف) و توزیع برای تعدادی ویژگی دارم (برای هر دو کلاس یکسان). من می دانم که برخی از ویژگی ها بیشتر یا کمتر به دقت طبقه بندی کلی کمک می کنند. من می توانم از واگرایی KL برای اندازه گیری به دست آوردن اطلاعات از توزیع ویژگی ها استفاده کنم، اما چگونه می توانم از آن برای وزن دادن به ویژگی ها استفاده کنم؟ بگویید من ویژگی های f1 و f2 را دارم. من یک مقدار KL برای دو ویژگی و کلاس دارم. $KL(f_1، C_1)، KL(f_2، C_1)$ $KL(f_1، C_2)، KL(f_2، C_2)$ از اینجا کجا بروم؟
|
چگونه می توانم از واگرایی KL برای ویژگی های وزن استفاده کنم؟
|
103128
|
من این لینک را خوانده ام. همبستگی پیرسون یا اسپیرمن با داده های غیر عادی من نمی توانم در مورد پست اصلی نظر بدهم. بنابراین من اینجا می پرسم: دو متغیر دارم **به طور معمول توزیع نمی شوند**. من روشهای مختلفی را برای محاسبه متغیرهای اول در قالبهای مختلف پیادهسازی میکنم و همبستگی پیرسون را بین متغیرهای اول و دوم محاسبه میکنم. 1. اگر همبستگی پیرسون محاسبه شده توسط روش A، بسیار بیشتر از روش B است. آیا می توانم بگویم روش A بهتر از روش B است؟ 2. اگر همبستگی پیرسون بین دو متغیر **نه** با توزیع نرمال بسیار زیاد باشد، برای مثال 0.8. آیا می توانم بگویم این دو متغیر به صورت خطی مرتبط هستند؟ 06-12-14:50 جزئیات بیشتر این پروژه من برای اندازه گیری ارتباط حسی بین مترادف ها است. جملات حاوی آن مترادف ها را استخراج می کنم، کلمات مجاور ظاهر شده در آن جملات را با روش های مختلف به بردارها منتقل می کنم (مانند TF-IDF، با استفاده از PMI برای انجام دادن). انتخاب ویژگی)، فاصله کسینوس بین بردارهای مختلف را محاسبه کنید. اینها اولین متغیرها هستند. متغیرهای دوم، ارتباط حسی از این مقاله (صفحه 628) روبنشتاین، هربرت، و جان بی. گودناف هستند. همبستگی های متنی مترادف. ارتباطات ACM 8.10 (1965): 627-633.
|
وقتی دو متغیر با استفاده از همبستگی پیرسون به طور نرمال توزیع نمی شوند، مشکل چیست؟
|
47463
|
من یک سوال دارم. > در آزمون t دو نمونه ای، یک فاصله اطمینان برای $\mu_2-\mu_1$ بر اساس آزمون فرضیه $H_0 ساخته شده است: \mu = \mu_0$ در مقابل $H_{a}: > \mu \neq \mu_0 دلار؟
|
فاصله اطمینان برای آزمون t نمونه 2
|
47462
|
من یک سوال تو در تو با اندازه گیری های مکرر دارم. من 20 نفر دارم که در 5 خانواده دسته بندی شده اند. برای هر فرد در روزهای بعدی قبل، حین و بعد از درمان، در مجموع 6 اندازه گیری برای هر فرد انجام می شود (در روزهای 1 و 2 قبل از درمان، در روزهای 4 و 5 در طول درمان، و روزهای 7 و 8 پس از درمان. درمان). من قبلاً از مدلی با سطح ترکیبی قبل، حین و پس از درمان استفاده کردم که به این صورت بود: lme(log(X)~t1+t2، تصادفی=~1|خانواده/شرکت کننده، داده=داده) که در آن t1 = -1 «برای پیشدرمان» و «t2 = 1» برای پس از درمان، این به من اجازه داد تا شیبهای «t1» و «t2» را برای ارزیابی اثر درمان تفسیر کنم. چگونه اقدامات مکرر را در قبل، حین و پس از درمان ترکیب کنم؟ تجسم داده ها نشان می دهد که بین این اندازه گیری ها در روزهای بعدی همبستگی وجود دارد و ممکن است روندی وجود داشته باشد (یک افزایش جزئی). هر گونه پیشنهاد در مورد برنامه نویسی در R بسیار قدردانی خواهد شد!
|
تجزیه و تحلیل اندازه گیری های مکرر تو در تو
|
34870
|
من چند سوال در مورد استفاده از CATPCA در SPSS دارم. امیدوارم پاسخ به این سوالات برای دیگرانی که قصد کار روی آن را دارند نیز مفید باشد. 1) در داده های من (در این داده ها می خواهم یک CATPCA را اجرا کنم)، چند متغیر وجود دارد که به نسبت هستند. اما CATPCA مقادیر کمتر از 1 را گم شده در نظر می گیرد. بنابراین، من قصد داشتم متغیرهای مقیاس را که به نسبت در 10 دسته هستند (یعنی 0.00-0.10، 0.10-0.20، ...، 0.90-1.00) دوباره کدگذاری کنم. اگر این کار را انجام دهم، پس کدام سطح بهینه مقیاس بندی را باید انتخاب کنم؟ ترتیبی؟ 2) به غیر از متغیرهایی که به تناسب هستند، متغیرها به صورت دستهبندی (هم نوع بله-نه و هم از نوع ترتیبی) با حداکثر 4 دسته هستند. بنابراین، اگر متغیرهای نوع نسبت را به 10 دسته تقسیم کنم، آیا مشکلی پیش خواهد آمد؟ یا به نظر شما باید آنها را به 5 دسته تقسیم کنم (یعنی 0.00-0.20، 0.20-0.40، ...، 0.80-1.00)؟ 3) متغیرهای نوع بله-خیر من به صورت 0-1 کدگذاری می شوند. برای جلوگیری از در نظر گرفتن 0 به عنوان گمشده، من قصد دارم آنها را به عنوان 1-2 مجدداً رمزگذاری کنم. در حال حاضر، برای مطالعه من، بله به معنای خوب و نه به معنای بد / نه خوب است. بنابراین، کدام سطح مقیاس بندی بهینه را باید برای آنها انتخاب کنم؟ ترتیبی یا اسمی؟ 4) اگر کمیت یکسان برای دسته های مختلف یک متغیر ترتیبی باشد چه باید کرد؟ آیا باید دسته ها را ادغام کنیم یا از سطوح مختلف مقیاس بندی بهینه استفاده کنیم؟ 5) من در واقع 4 عامل مرتبط با پرسشنامه داشتم. بنابراین، حدس میزنم باید از 4 بعد در محلول استفاده کنم. اما چگونه می توانم گروه بندی متغیرها (بارگذاری نمودار) را با این 4 بعد تجسم کنم؟ من در واقع باید بدانم که کدام بعد به کدام عامل تعلق دارد. چگونه این را بررسی کنم؟ 6) چه زمانی از اسمی چندگانه به عنوان سطح مقیاس بندی بهینه استفاده می کنیم؟ هر نمونه؟
|
درباره استفاده از CATPCA
|
85806
|
احتمال اینکه جرم رادیواکتیو خاصی در یک بازه زمانی یک دقیقه ای هیچ ذره ای ساطع نکند 0.1353 است. میانگین تعداد ذرات منتشر شده در دقیقه چقدر است؟ از موارد فوق من توانستم استنباط کنم که P(X>=1) 1 - 0.1353 = 0.8647 است. 0.8647 احتمال گسیل شدن حداقل 1 ذره در یک دقیقه. من مطمئن نیستم که چگونه میانگین تعداد ذرات در دقیقه را محاسبه کنم.
|
توزیع پواسون
|
6891
|
من یک سری اندازه گیری دارم که در آن چیزی نمونه برداری می شود و در دسته 1 یا 2 قرار می گیرد. من برای هر مجموعه اندازه گیری 3x2x3 فاکتور دارم و هر مجموعه اندازه گیری به طور مستقل 3 بار انجام می شود. یک آزمون آماری خوب برای بررسی اثرات ترکیبی هر یک از عوامل، هم به طور مستقل و هم به صورت تعاملی با یکدیگر چیست؟
|
یک آزمون آماری خوب برای تکرارهای مستقل چیست؟
|
15781
|
من شبیه سازی های زمان بندی را روی کامپیوتر اجرا می کردم. همانطور که اغلب با مواردی مانند این با تاخیر کم انجام می شود، من بلوک مربوطه را در یک حلقه $k$ بار اجرا می کردم و سپس کل زمان را بیش از $k$ (متوسط زمان) ثبت می کردم. من این مورد را 100$ بار به ترتیب برای $k=10000$ و $k=100000$ تکرار کردم و میانگین و انحراف استاندارد را برای هر دو مجموعه از نقاط داده 100$ محاسبه کردم (بنابراین میانگین نمونه ای از میانگین و انحراف استاندارد است). متوجه شدم که این خطای استاندارد نمونه در واقع برای مورد $k=100000$ بزرگتر از مورد $k=10000$ بود. من این را بسیار گیجکننده دیدم زیرا به این فکر میکنم که تخمینگر میانگین نمونه به صورت $\sigma/ \sqrt{n}$ توزیع شده است. بنابراین من این را به این معنا در نظر گرفتم که قرعهکشیها (یعنی هر اجرا از بلوک مربوطه) i.i.d نبودند. با فکر کردن به این موضوع، به این نتیجه رسیدم که بارگذاری های مختلف سیستم در رایانه و همچنین تغییرات در حافظه پنهان به دلیل تغییر متن و آنچه که نه می تواند به این معنی باشد که نقشه ها به احتمال زیاد به طور یکسان توزیع نمی شوند. من به این فکر کردم که از یک تست دویدن نیز برای تست استقلال استفاده کنم، اما زمان کافی برای اندازهگیری وضوح برای مشاهده دقیق تکرارهای فردی ندارم، اگرچه معتقدم استقلال کمتر از فرض توزیع شده یکسان است. در هر صورت، با توجه به این مشکل، من مطمئن نیستم که چگونه از نقطه نظر آماری هنگام تلاش برای ارائه یک معیار تأخیر ارزش کیفی اقدام کنم. (به نظر می رسد اگر میانگین جمعیتی وجود نداشته باشد، میانگین نمونه هیچ نکته ای ندارد؟) شاید این موضوعی است که فقط عملکرد نسبی ممکن است مفید باشد؟ (یعنی A به طور متوسط دو برابر سریعتر از B است، اما واقعاً نمی توان چیزی در مورد B گفت زیرا تاخیر متوسط آن به دلیل عدم کنترل محیط به خوبی تعریف نشده است) یا آیا ابزاری آماری (تخمین کننده، آزمایش یا تنظیم) وجود دارد که بتواند در چنین شرایطی ساخته شود؟
|
آیا آمار یا رویکرد کیفی مفیدی برای میانگین نمونه بد رفتار وجود دارد؟
|
83579
|
من یک کار طبقه بندی متن کوتاه چند کلاسه با یک چروک جزئی دارم: همچنین می خواهم تشخیص دهم که متون به خوبی با هیچ یک از کلاس ها مطابقت ندارند. من سعی کردم این کار را با اضافه کردن متون نامرتبط به یک کلاس جداگانه و یادگیری یک SVM انجام دهم، اما تاکنون موفقیت چندانی نداشته است. جای تعجب نیست، زیرا 1) روش های بسیار زیادی وجود دارد که ممکن است متن ها با کلاس های من مطابقت نداشته باشند، و 2) اگر از مثال های زیادی برای کلاس غیر مرتبط استفاده کنم، الگوریتم به سادگی یاد می گیرد که (تقریبا) همیشه آن را برگرداند (و نمونه برداری مجدد این را به مشکل قبلی کاهش می دهد). یعنی این یک نسخه چند کلاسه از مشکل است که توسط SVM های یک کلاس حل شده است. آیا راه حل های استاندارد وجود دارد؟ ویرایش: من یک راه حل ممکن را ارائه کرده ام (اما هنوز آن را اجرا یا آزمایش نکرده ام). مرحله 1: طبقهبندیکننده تک کلاسی که در اتحاد کلاسهای من آموخته شد (یعنی طبقهبندی بین متون مرتبط و نامربوط). مرحله 2: طبقه بندی معمول چند کلاسه اگر مرحله 1 بگوید که مربوط است.
|
طبقه بندی متن چند طبقه با کلاس منفی
|
83576
|
من یک ویژگی x دارم که از آن برای پیش بینی احتمال y استفاده می کنم. * * * **برخی پیشینه در مورد (x,y)** نمی توانم زیاد وارد جزئیات شوم، اما امیدوارم موارد زیر برای توضیح اینکه x و y چیست کافی باشد، حداقل از نظر مفهومی _[مربع و دایره ها نیستند برچسب واقعی که من با آن کار می کنم]_: **y** y احتمال اینکه یک تصویر از کلاس 0 یا 1 باشد، با: * کلاس 0 به این معنی است که تصویر دارای یک _مربع_ است. * کلاس 1 به این معنی است که تصویر حاوی یک _دایره_ است. 100 نفر تصاویر آموزشی را تماشا کردند و آنها را طبقه بندی کردند. y احتمال نتیجه است، بنابراین y=0 به این معنی است که قطعا یک مربع وجود دارد، y=1 به این معنی است که قطعا یک گرد وجود دارد. **x** x یک ویژگی است که از تصاویر به دست میآید، با _ تلاش برای تطبیق آنها با مدلی از یک دایره_ و محاسبه خطا. بنابراین برای مثال وقتی x بسیار کم است، احتمال دایره بودن تصویر زیاد است (نسبت). * * * plot(x,y)  x,y (1000 مقدار برای هر کدام) در اینجا جایگذاری شده است: http://tny .cz/c320180d با استفاده از میانگین(y) به عنوان پیش بینی، **RMSE = 0.285204**: N = طول(x) میانگین = mean(y) RMSE = sqrt( 1/N * sum ( (متوسط-y)^2 ) ) RMSE [1] 0.285204 سپس با استفاده از رگرسیون خطی در log(x)، می توانم **RMSE = را کمی بهبود بخشم. 0.2694513**: log_x = log(x) plot(log_x,y) lm.result = lm(formula = y ~ log_x) abline(lm.result، col=blue) # خیلی خوب کار نمی کند. ) prediction_linear_regression = linear_prediction$fit RMSE_linear_regression = sqrt( 1/N * sum ( (prediction_linear_regression-y)^2 ) ) RMSE_linear_regression [1] 0.2694513  آیا RMSE می تواند باشد بیشتر بهبود یافته است؟ چه چیزی را باید امتحان کنم؟
|
آیا می توانم بر اساس این ویژگی RMSE را بیشتر کاهش دهم؟
|
85804
|
زمینه: من در حال ارائه یک ارائه برای همکاران در محل کار در مورد آزمایش فرضیه هستم، و بیشتر آن را به خوبی درک می کنم، اما یک جنبه وجود دارد که من خودم را درگیر می کنم و سعی می کنم آن را درک کنم و برای دیگران توضیح دهم. این چیزی است که فکر میکنم میدانم (لطفاً اگر اشتباه است تصحیح کنید!) * آماری که اگر واریانس مشخص بود نرمال خواهد بود، اگر واریانس ناشناخته است از توزیع $t$ پیروی کنید * CLT: توزیع نمونهگیری میانگین نمونه تقریباً نرمال است. برای $n$ به اندازه کافی بزرگ (می تواند $30 $ باشد، می تواند تا $300 $ برای توزیع های بسیار اریب باشد) * توزیع $t$ را می توان برای درجات آزادی عادی در نظر گرفت $> 30$ شما از آزمون $z$ استفاده می کنید اگر: 1. جمعیت نرمال و واریانس شناخته شده (برای هر اندازه نمونه) 2. جمعیت نرمال، واریانس ناشناخته و $n>30$ (به دلیل CLT) 3. جمعیت دوجمله ای، $np>10$, $nq>10$ شما از آزمون $t$-test استفاده می کنید اگر: 1. جمعیت نرمال، واریانس ناشناخته و $n<30$ 2. دانشی در مورد جمعیت یا واریانس ندارید و $n<30$، اما دادههای نمونه طبیعی به نظر میرسند / تستها را گذرانده و غیره را میگذرانند، بنابراین جمعیت را میتوان نرمال فرض کرد، بنابراین من باقی میمانم: * برای نمونههای $>30$ و $<\حدود 300$(?)، هیچ اطلاعی در مورد جمعیت و واریانس شناخته شده / ناشناخته. بنابراین سؤالات من این است: 1. در چه حجم نمونه میتوانید فرض کنید (که در مورد توزیع یا واریانس جامعه اطلاعاتی ندارید) که توزیع نمونهگیری میانگین نرمال است (یعنی CLT شروع به کار کرده است) زمانی که توزیع نمونهگیری غیرعادی به نظر میرسد؟ من می دانم که برخی از توزیع ها به $n> 300$ نیاز دارند، اما به نظر می رسد برخی منابع می گویند که هر زمان که $n>30$ بود از تست $z$-تست استفاده کنید... 2. برای مواردی که در مورد آنها مطمئن نیستم، فرض می کنم که به آنها نگاه می کنم. داده ها برای عادی بودن حال، اگر دادههای نمونه طبیعی به نظر میرسند، آیا از آزمون-z$-$ استفاده میکنم (از آنجایی که جمعیت را نرمال فرض میکنیم، و از آنجایی که $n>30$ است)؟ 3. در مورد جایی که داده های نمونه برای مواردی که در مورد آنها مطمئن نیستم طبیعی به نظر نمی رسند چطور؟ آیا شرایطی وجود دارد که شما همچنان از آزمون $t$-test یا $z$-test استفاده کنید یا همیشه به دنبال تبدیل / استفاده از آزمون های ناپارامتریک هستید؟ من میدانم که به دلیل CLT، در مقداری $n$ توزیع نمونهبرداری میانگین به حالت عادی تقریبی میکند، اما دادههای نمونه به من نمیگویند که این مقدار $n$ چیست. دادههای نمونه میتواند غیر عادی باشد در حالی که میانگین نمونه از یک / $t$ عادی پیروی میکند. آیا مواردی وجود دارد که شما میتوانید از یک آزمون ناپارامتریک تبدیل یا استفاده کنید، در حالی که در واقع توزیع نمونهگیری میانگین نرمال بود / t$ اما نمیتوانید بگویید؟
|
انتخاب بین $z$-test و $t$-test
|
47464
|
من یک مدل تودرتو با اثرات زیر دارم * ثابت شد: درمان ها * تصادفی: Experiment_date من از «lme()» برای مدل کردن داده mod1 استفاده کردم <- lme(N_cells ~treatments-1, random=~1|experiment_date, method='ML سپس میخواهم تمام درمانهای دیگر را با کنترل (که در «درمانها» در «mod1» گنجانده شده است) مقایسه کنم. پس از مقدار زیادی جستجو در اطراف، تصمیم گرفتم از «glht()» از بسته multcomp استفاده کنم (پیشنهاد دیگری دارید؟). lvl.treatments=table(درمان) K = contrMat(lvl.treatments,type='Dunnett',base=1) mc<-glht(mod1, linfct=mcp(درمان=K), جایگزین='بزرگتر') اما من خطای زیر را دریافت کرد: > خطا در contr.treatment(n = 0L): درجه آزادی کافی برای define > کنتراست ها من سعی کردم پارامتر df را با استفاده از `modelparm()` استخراج کنم، اما تابع نمی تواند در lme اعمال شود > خطا در UseMethod(modelparm): هیچ روش قابل اجرا برای 'modelparm' > اعمال شده بر روی یک شی از کلاس lme درجه آزادی اثر ثابت 194 بود. من سعی کردم عدد را در `glht()` مشخص کنم، اما همان خطا را دریافت کردم. به عنوان درجات آزادی کافی برای تعریف تضادها وجود ندارد. آیا کسی می داند چه اتفاقی می افتد و چگونه می توانم مشکل را حل کنم؟ خیلی ممنون
|
سوالاتی در مورد تابع glht برای مقایسه برنامه ریزی شده
|
17301
|
این در واقع بخشی از یک مشکل از _All of Statistics_ است: $X_1, X_2, \ldots, X_n \sim \text{Uniform}(0, \Theta)$. و $Y = \text{Max}\{X_1،\ldots، X_n\}$. اگر به شما داده شود که $Y > c$، آیا می توانید احتمال $\Theta>1/2$ را تخمین بزنید؟ البته اگر $c\ge1/2$ احتمال 100% است. هر گونه اشاره یا جهت قدردانی می شود. BTW، آیا جایی هست که بتوانم پاسخی برای کتاب _همه آمار_ پیدا کنم؟ واقعا کتاب خوبی است با این تفاوت که هیچ راه حلی برای مشکلات، حتی بخشی از آنها وجود ندارد.
|
تخمین کران بالای توزیع یکنواخت از حداکثر نمونه
|
83571
|
من سعی می کنم با یک سری طولانی از داده های مربوط به جزر و مد به یک تابع سینوسی تطبیق دهم. من می خواهم در محور y ارتفاع جزر و مد (از $ - $ 2 متر تا 5 متر) و در محور x زمان بر حسب ساعت 24 ساعت باشد. نمی دانم چگونه این کار را انجام دهم. من میخواهم موج سینوسی را تنظیم کنم، و پریود من در واقع هر شش ساعت یکبار است، زمانی که جزر و مد از جزر و مد به جزر تغییر میکند. من 4 اندازه در روز به شرح زیر دارم: بالا 18h31 2.8 کم 12h37 1.1 زیاد 06h02 3.0 کم 00h07 1.0 کد من برای لحظه به نظر می رسد که با داده های 1 روز امتحان شده است: y <- c(3.2,0.9,3.0,0.9) t <- seq(3,21,6) #sequence از 3 تا 21 با یک گام هر 6 ساعت و اکنون من به سادگی می خواهم یک موج سینوسی $y(t) = A \sin(\omega t + \phi)+C$ را با چهار مجهول $A، \omega، \phi$ و $C$ به آن. #تلاش برای تنظیم امگا روی 6 رزولوشن <- nls(y ~ A*sin(omega*t+phi)+C, data=data.frame(t,y), start=list(A=1,omega=6, phi=1,C=1)) co <- coef(res) fit <- function(x, a, b, c, d) {a*sin(b*x+c)+d} # نتیجه نمودار نمودار(x=t، y=y) منحنی(fit(x، a=co[A]، b=co[omega]، c=co[phi]، d=co[C ])، add=TRUE،lwd=2، col=steelblue)
|
داده های جزر و مد را بر روی یک تابع سینوسی قرار دهید
|
83573
|
من برای آوردن عنوان مشکل داشتم، بنابراین امیدوارم بتوانم آن را در اینجا بهتر توضیح دهم. من روی یک مشکل طبقه بندی کار می کنم و در حال انجام چند پیش تحلیل متغیرها هستم. من به دنبال چند راه خوب برای تجسم توزیع متغیر هدف در هر متغیر مستقل هستم. به عنوان مثالی برای متغیرهای طبقهبندی میتوانم به نموداری مانند این نگاه کنم، تصویر سمت چپ ایدهای از توزیع دستههای مختلف ارائه میدهد، در حالی که یکی در سمت راست نشان میدهد که B نسبت بسیار بیشتری از متغیر هدف دارد.  اگر بخواهم همین کار را برای یک متغیر عددی انجام دهم، باید متغیر را بن کنم و چیزی شبیه به زیر دریافت کنم. در اینجا نمونهای از برخی دادههای عددی، دادههای یکسان با اندازههای سطل مختلف آورده شده است.  این به خوبی نیست... به این خوبی نیست زیرا binning بسیار دلخواه است و هر ستون آنقدرها هم واضح نیست دقیقا یک دسته متفاوت به نظر می رسد اندازه های مختلف سطل داستان های متفاوتی را بیان می کند. آیا راههای خوبی برای تجسم متغیرهای عددی برای دریافت نمای کلی مشابه بدون نیاز به بن کردن وجود دارد؟
|
تجزیه و تحلیل یک طرفه متغیرهای پیوسته برای طبقه بندی (Visualizing)
|
6896
|
### زمینه من دو مجموعه داده دارم که میخواهم آنها را با هم مقایسه کنم. هر عنصر داده در هر دو مجموعه یک بردار حاوی 22 زاویه است (همه بین $-\pi$ و $\pi$). زوایا مربوط به یک پیکربندی ژست انسانی مشخص است، بنابراین یک ژست با 22 زاویه مشترک تعریف می شود. آنچه من در نهایت سعی می کنم انجام دهم این است که نزدیک بودن دو مجموعه داده را تعیین کنم. بنابراین برای هر ژست (بردار 22 بعدی) در یک مجموعه، میخواهم نزدیکترین همسایه آن را در مجموعه دیگر پیدا کنم و برای هر یک از نزدیکترین جفتها یک نمودار فاصله ایجاد کنم. ### سوالات * آیا می توانم به سادگی از فاصله اقلیدسی استفاده کنم؟ * برای معنی دار بودن، فرض می کنم که متریک فاصله باید به صورت زیر تعریف شود: $\theta = |\theta_1 - \theta_2| \quad mod \quad \pi$ که $|...|$ مقدار مطلق و mod مدول است. سپس با استفاده از 22 تتا به دست آمده، می توانم محاسبه فاصله اقلیدسی استاندارد، $\sqrt{t_1^2 + t_2^2 + \ldots + t_{22}^2}$ را انجام دهم. * آیا این درست است؟ * آیا متریک فاصله دیگری مانند chi-square یا Bhattacharyya یا متریک دیگری مفیدتر است؟ اگر چنین است، لطفاً در مورد دلیل آن اطلاعاتی ارائه دهید.
|
بهترین اندازه گیری فاصله برای استفاده
|
15784
|
من می خواهم یک تجزیه و تحلیل چند متغیره در سطح فردی در سطوح کوچکی از تجمع جغرافیایی (مناطق جمع آوری سرشماری استرالیا) انجام دهم. واضح است که سرشماری در این سطوح کوچک از تجمع به دلایل حفظ حریم خصوصی در دسترس نیست، بنابراین من در حال بررسی گزینه های دیگر هستم. تقریباً همه متغیرهای مورد علاقه دسته بندی هستند. من دو مجموعه داده در اختیار دارم: * نمونه سرشماری 1٪ در سطح بسیار بیشتری از تجمع فضایی در دسترس است (منطقه ای با جمعیت ~ 190000 نفر و تفکیک فضایی وسیعی از جمعیت). * جداول فراوانی برای متغیرهای مورد علاقه من در سطح منطقه کوچک (500 ناحیه کوچک، میانگین pop = 385، sd = 319، میانه = 355). چگونه می توانم از این دو مجموعه داده برای شبیه سازی توزیع جمعیت در سطح منطقه کوچک که تا حد امکان به جمعیت واقعی منطقه کوچک نزدیک است استفاده کنم؟ قدردانی می کنم که ممکن است روش های معمولی برای انجام این کار وجود داشته باشد. اگر چنین است اشاره به یک کتاب درسی یا مقالات مجلات مرتبط بسیار قدردانی خواهد شد.
|
چگونه می توانم ریزداده های سرشماری را برای مناطق کوچک با استفاده از نمونه ریزداده 1% در مقیاس بزرگ و آمار کل در مقیاس منطقه کوچک شبیه سازی کنم؟
|
6899
|
Kavosh یک بسته اخیر است که برای کشف موتیف شبکه طراحی شده است. برای مقایسه، کاوش مجموعه ای از شبکه های مشابه را با استفاده از فرآیند MCMC تولید می کند. شبکه های مورد نظر نمودارهای جهت دار بدون حلقه یا لبه های متعدد هستند. شبکه های _Similar_ دارای مجموعه راس یکسان و درجات و درجه های یکسان هستند. در حالت ایدهآل، میخواهیم بهطور تصادفی از مجموعه نمودارهای مشابه نمونهبرداری کنیم. همانطور که متوجه شدم، برنامههای تشخیص موتیف شبکه معمولاً از یک فرآیند سوئیچینگ به خوبی مطالعه شده استفاده میکنند: دو یال جهتدار (a,c) و (b,d) را بهطور تصادفی یکنواخت بگیرید، سپس با (a,d) و (b,c) جایگزین کنید. ). اگر یک حلقه یا چند لبه تشکیل شد، رد کنید. (به عنوان مثال به http://arxiv.org/abs/cond-mat/0312028 مراجعه کنید) با قضاوت از روی کد منبع، به نظر می رسد کاوش این روند را به روش زیر سرعت می بخشد. برای همه رئوس v انجام دهید: * اجازه دهید a=v. * b یک راس تصادفی b<>a است. * c یک همسایه تصادفی خارج از a است. * d یک همسایه تصادفی خارج از c است. و مانند قبل، لبه های (a,c) و (b,d) را با (a,d) و (b,c) جایگزین کنید. اگر یک حلقه یا چند لبه تشکیل شد، رد کنید. کل این فرآیند را سه بار تکرار کنید (بنابراین میتوان تا 3 | V| سوئیچ در مجموع اعمال کرد که |V| تعداد رئوس است). [به دلایلی من مطمئن نیستم، دو مرحله آخر نیز تا سه بار تکرار میشوند.] > **سوال**: چه تأثیراتی را میتوان در نتیجه این تغییر > مشاهده کرد؟ چقدر باید نگران این تغییر بود؟ مقاله کاوش چیز زیادی در مورد آن نمی گوید: > در رویکرد ما، شبیه به مدل تصادفی Milo [17،18] عملیات سوئیچینگ > روی لبه های شبکه ورودی به طور مکرر اعمال می شود، تا زمانی که شبکه به خوبی تصادفی شود.
|
کاوش از فرآیند سوئیچینگ متفاوتی در MCMC خود استفاده می کند. چقدر باید نگران باشم؟
|
83577
|
من یک اپیدمیولوژیست هستم که سعی می کنم GEE ها را به منظور تجزیه و تحلیل مناسب یک مطالعه کوهورت (با استفاده از رگرسیون پواسون با پیوند گزارش، برای تخمین ریسک نسبی) درک کنم. من چند سوال در مورد همبستگی کاری دارم که میخواهم شخص آگاهتر آنها را روشن کند: (1) اگر اندازهگیریهای مکرر در یک فرد داشته باشم، آیا معمولاً منطقیتر است که ساختاری مبادلهپذیر فرض کنیم؟ (یا اگر اندازه گیری ها روندی را نشان می دهند، خودرگرسیون است)؟ در مورد استقلال چطور - آیا مواردی وجود دارد که بتوان برای اندازه گیری های یک فرد استقلال را فرض کرد؟ (2) آیا راهی (به طور منطقی ساده) برای ارزیابی ساختار مناسب با بررسی داده ها وجود دارد؟ (3) متوجه شدم که هنگام انتخاب یک ساختار مستقل، همان تخمینهای نقطهای (اما خطاهای استاندارد کمتر) را با اجرای یک رگرسیون ساده پواسون (با استفاده از R، تابع 'glm()' و 'geeglm()' از بسته دریافت میکنم. geepack). چرا این اتفاق می افتد؟ من میدانم که با GEEها شما یک مدل میانگین جمعیت را تخمین میزنید (برخلاف موضوع خاص) بنابراین باید همان تخمین نقطهای را فقط در مورد رگرسیون خطی بدست آورید. (4) اگر گروه من در مکانهای متعددی باشد (اما یک اندازهگیری برای هر فرد)، آیا باید یک رابطه مستقل یا یک همبستگی کاری قابل مبادله را انتخاب کنم، و چرا؟ یعنی افراد هر سایتی هنوز از هم مستقل هستند درسته؟؟ بنابراین برای یک مدل موضوعی خاص، به عنوان مثال، من سایت را به عنوان یک اثر تصادفی مشخص می کنم. با این حال، با GEE، استقلال و مبادله تخمین های متفاوتی ارائه می دهند و من مطمئن نیستم که کدام یک از نظر مفروضات اساسی بهتر است. (5) آیا GEE میتواند یک خوشهبندی سلسله مراتبی 2 سطحی، یعنی یک گروه چند سایتی با اندازهگیریهای مکرر برای هر فرد را مدیریت کند؟ اگر بله، چه چیزی را باید بهعنوان متغیر خوشهبندی در `geeglm()` مشخص کنم و اگر به عنوان مثال استقلال برای سطح اول (سایت) و مبادله یا Autoregressive برای سطح دوم فرض شود، چه همبستگی کاری باید باشد. سطح (انفرادی)؟ میدانم که اینها چند سؤال هستند، و برخی از آنها ممکن است نسبتاً ابتدایی باشند، اما هنوز برای من (و شاید دیگر تازهکاران؟) درک کردن آنها بسیار دشوار است. بنابراین، هر گونه کمکی بسیار و صمیمانه قدردانی می شود، و برای نشان دادن این موضوع، من یک جایزه را آغاز کرده ام.
|
GEE: انتخاب ساختار همبستگی کاری مناسب
|
6897
|
در اینجا مثال من است. فرض کنید یک مشخصه را با استفاده از دو روش مختلف (a و b) ارزیابی می کنیم و می خواهیم بررسی کنیم که آیا هر دو روش به یک شکل عمل می کنند یا خیر. همچنین می دانیم که این دو معیار از دو گروه مختلف ثبت شده اند و مقادیر میانگین برای هر یک از این گروه ها بسیار متفاوت است. مجموعه داده های ما می تواند به صورت زیر باشد: گروه <- c(22،34،56،62،27،53) b <- c(42.5،43،58.6،55،31.2،51.75) <- factor(c(1 ,1,2,2,1,2), labels=c('بد','خوب')) dat <- data.frame(a, b, group) ارتباط بین a و b را می توان به صورت زیر محاسبه کرد: lm1 <- lm(a ~ b، data=dat) خلاصه (lm1) فراخوانی: lm(فرمول = a ~ b، داده = dat) باقیمانده ها: 1 2 3 4 5 6 -13.810 - 2.533 -3.106 8.103 7.541 3.806 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) -25.6865 19.7210 -1.302 0.2627 b 1.4470 0.4117 3.514 0.0246 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 9.271 در 4 درجه آزادی، R-squared چندگانه: 0.7554، R-squared تنظیم شده: 0.6942 F-آمار: 12.35 در 1 و 4 DF، p-value: 0.02457 همانطور که می بینیم ارتباط بالایی بین هر دو معیار وجود دارد. با این حال، اگر برای هر گروه به طور جداگانه تحلیل یکسانی انجام دهیم، این ارتباط از بین می رود. lm2 <- lm(a ~ b، داده=dat، زیرمجموعه=dat$class=='bad') خلاصه (lm2) فراخوانی: lm(فرمول = a ~ b، داده = dat، زیرمجموعه = dat$group == بد) باقیمانده ها: 1 2 5 -6.0992 5.8407 0.2584 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (برق) 22.9931 35.1657 0.654 0.631 b 0.1201 0.8953 0.134 0.915 خطای استاندارد باقیمانده: 8.449 در 1 درجه آزادی quared چندگانه R.60,ju1 R-squared: -0.9646 F-statistic: 0.01801 در 1 و 1 DF، p-value: 0.915 و، lm3 <- lm(a ~ b، data=dat، زیر مجموعه=dat$class=='good') خلاصه ( lm3) فراخوانی: lm(فرمول = a ~ b، داده = dat، زیر مجموعه = dat$group == خوب) باقیمانده ها: 3 4 6 -2.394 5.047 -2.652 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (برق) 34.9361 70.4238 0.496 0.707 FIV 0.4003 1.2761 0.314 0.806 خطای استاندارد باقیمانده: 6.184 در 1 درجه آزادی چندگانه R-09، 1 درجه آزادی، 1 درجه آزادی چندگانه R-09. R-squared: -0.8208 F-آمار: 0.09841 در 1 و 1 DF، p-value: 0.8065 چگونه باید ارتباط بین دو روش را ارزیابی کنیم؟ باید فاکتور گروه را در نظر بگیریم؟ شاید این یک سوال پیش پا افتاده باشد، اما من در مورد نحوه برخورد با این مشکل تردید دارم.
|
اگر همبستگی بین دو متغیر تحت تأثیر یک عامل باشد، چگونه باید این همبستگی را ارزیابی کنم؟
|
103126
|
من در حال یادگیری رگرسیون ریج هستم، بنابراین به صورت تمرینی آن را در متلب پیاده سازی می کنم. با این حال، من در یافتن ساختاری از داده ها که در آن رگرسیون رج بهتر از حداقل مربعات معمولی عمل می کند، مشکل دارم. با خواندن دریافتم که داده هایی که خطی هستند اغلب بهتر است منظم شوند. با این حال، زمانی که من این را در کد زیر پیادهسازی کردم، حداقل مربعات فقط یک رگرسیون خطی را به خوبی انجام میدهد (بهترین پارامتر لامبدا در محدوده e-10 است، تقریباً وجود ندارد!). متلب به من می گوید که X در هنگام استفاده از تابع ساخته شده برای حداقل مربعات دارای رتبه ناقص است (رتبه = 2)، اما هنوز هم عملکرد خوبی دارد؟ میخواستم بدانم آیا کسی میداند چرا این کار به این صورت انجام میشود، آیا دادههای من ممکن است به اندازه کافی خطی نباشند که تفاوت عملکرد واقعی را نشان دهد، یا من چیزی را اشتباه متوجه شدهام؟ % تولید داده. روشن؛ Nt = 100; X(:,1) = randn(Nt,1); X(:,2) = 2*X(:,1) + 6; X(:,3) = 12*X(:,2) + 16; p=[0.74،3،4.5]; y = X*p' + randn(Nt,1); ٪ حداقل مربع; pLS = X\y; %pLS = pinv(X'*X)*(X'*y); nmseN = sum((X*pLS-y).^2)/length(y)/var(y); ٪ تیخونوف; lspace = logspace(-10,-1,1000); bestNMSE = inf; bestLambda = -1; I = چشم (اندازه (X, 2)); برای lambda=1:length(lspace) prLS = pinv(X'*X + lspace(lambda)*(I'*I))*(X'*y); nmse = sum((X*prLS-y).^2)/length(y)/var(y); اگر nmse<bestNMSE bestNMSE=nmse; bestLambda=lspace(lambda); انتهای انتهای prLS = pinv(X'*X + bestLambda*(I'*I))*(X'*y); nmseR = sum((X*prLS-y).^2)/length(y)/var(y);
|
چرا وقتی چند خطی وجود دارد، حداقل مربعات مانند رگرسیون پشته عمل می کند؟
|
112721
|
من از شبکه های تراکم مخلوط برای پیش بینی تابع چگالی احتمال استفاده کرده ام. من نمی دانم چگونه می توانم ریشه میانگین مربعات خطا (RMSE) پی دی اف پیش بینی شده را در متلب محاسبه کنم. با تشکر
|
نحوه محاسبه ریشه میانگین مربعات خطا (RMSE) برای تابع چگالی احتمال پیش بینی شده (PDF) در Matlab
|
112720
|
از من خواسته شد که یک داده غیر پیش پاافتاده (n برابر =/1) را توضیح دهم که در آن اهرم ها برای سؤال تجزیه QR برابر هستند. کسی میتونه کمک کنه
|
نمونه ای از داده های غیر پیش پا افتاده که در آن اهرم ها همه برابر هستند
|
103787
|
من از $r = \mu \ln(1 - n)$ برای بدست آوردن اعداد شبه تصادفی از یک توزیع نمایی استفاده کرده ام که $\mu$ میانگین توزیع و $n$ یک عدد شبه تصادفی از 0 تا است. 1. حالا من می خواهم همین کار را انجام دهم، اما از توزیعی استفاده کنم که پارامتر مقیاس دارد. آیا می توانم به سادگی نتیجه معادله فوق را مقیاس کنم؟ همچنین، چرا منبع من استفاده از $\ln(1 - n)$ را توصیه می کند؟ آیا $\ln(n)$ عملاً یکسان نیست؟ با تشکر
|
عدد تصادفی از توزیع نمایی با پارامتر مقیاس
|
103124
|
این نسخه نمایشی قابلیت DBN ها را برای مرتبط کردن روش های ورودی مختلف (تصاویر ارقام و برچسب ها) نشان می دهد. با بستن یک مدالیت در لایه بالایی، شبکه می تواند دیگری را از طریق نمونه برداری (گیبس) استنباط کند. بنابراین RBM سطح بالا به عنوان یک حافظه ارتباطی کار می کند. در این ویدیو هینتون چیزی شبیه این می گوید: با تنظیم یک نورون برچسب در لایه بالایی، مدل انرژی این رقم را کاهش می دهد و آن را برای تمام کلاس های دیگر افزایش می دهد. این یک دره ایجاد می کند که تمام ارقام پذیرفته شده در آن قرار دارند. به نظر نمی رسد این نوع ارتباط با RBM من کار کند وقتی که به جای برچسب، داده های پیوسته را تغذیه می کنم. به نظر میرسد که روش نمونهگیری گیبس، که من برای استنباط سایر روشها از آن استفاده میکنم، در حداقلهای محلی گیر میکند و نمیتواند در _دره_ سمت راست مستقر شود. من گمان میکنم که بستن دادههای پیوسته در ورودی لایه بالایی، همان نوع _ravines را ایجاد نمیکند که برای استنتاج دادههای صحیح مورد نیاز است. سؤالات من این است: 1. آیا یک DBN/RBM این قابلیت را دارد که مثلاً تصاویر را با یک روش پیوسته دیگر مرتبط کند؟ این نوعی رگرسیون به روشی بدون نظارت/تداعی است. 2. اگر چنین است، آیا به انواع دیگری از واحدهای پنهان مانند واحدهای خطی اصلاح شده یا واحدهای گاوسی نیاز دارم یا باید با واحدهای پنهان باینری معمولی امکان پذیر باشد؟ امیدوارم مشخص باشد که برای رسیدن به چه چیزی تلاش می کنم. لطفاً بپرسید که آیا چیزی هنوز مشخص نیست.
|
انواع مختلف داده های پیوسته را با ماشین های محدود بولتزمن مرتبط کنید
|
97731
|
**سلام**، قبل از هر چیز باید اعتراف کنم که من آمارگیر نیستم و بنابراین بدم نمیآید که پاسخ کمی صریحتر از آن چیزی باشد که معمولاً در میان آماردانان وجود دارد. ## زمینه برای پیش بینی انرژی های الگوهای دلخواه یک سیستم فیزیکی خاص، من تصمیم گرفتم از کد MAPS استفاده کنم (همانطور که در این مقاله به تفصیل توضیح داده شده است). این کد به طور مکرر مجموعه داده ای از انرژی های شناخته شده_$E_i$ را می سازد که متغیر _وابسته_ را ارائه می کند. اینها باید با متغیرهای _مستقل_ توضیح داده شوند که با اصطلاح همبستگی $\langle \prod_{j \in \alpha^\prime}\sigma_j \rangle_{\alpha^\prime}$ (که $\in هستند) توضیح داده شوند. \left[-1,1\right]$) به طور میانگین روی همه «خوشهها» $\alpha^\prime$ که به طور متقارن معادل هستند یک خوشه خاص $\alpha$ که در یک برش خاص گنجانده شده است. مجموعه همه «خوشهها» $\alpha$ موجود در بسط خوشه، برش را با محدود کردن $\sum_\alpha$ تعریف میکنند. به این ترتیب، هر انرژی از یک ساختار که به طور کامل توسط $\vec{\sigma}_i$ توضیح داده شده است، یک ردیف به مشکل کمک میکند، مطابق $$ E_i = E\left\lbrace\vec{\sigma}_i\right\rbrace = \ sum\limits_\alpha J_\alpha m_\alpha \langle \prod_{j \in \alpha^\prime}\sigma_j \rangle_{\alpha^\prime}، $$ طوری که $J_\alpha m_\alpha$ مجموعه ضرایب _رگرسیون_ باشد. همانطور که مقاله فوق الذکر توضیح می دهد، برای جلوگیری از تطبیق بیش از حد با مجموعه محدود انرژی های شناخته شده ما، (نسخه وزنی) امتیاز اعتبارسنجی متقاطع که توسط $$ CV^2 = \frac{1}{n}\sum\limits_{i داده می شود. =1}^n\left(\frac{E_i - \hat E_i}{1-X_{i\cdot}\left(X^TX\right)^{-1}X_{i\cdot}^T}\right)^2 $$ برای اندازهگیری/به حداکثر رساندن مقدار محاسبه میشود/حداقل میشود قدرت پیش بینی کوتاهی در اینجا، $\hat E_i$ تخمین $E_i$ با استفاده از یک برش خاص است، و $X$ ماتریس رگرسیون $n\times c$ برای $n$ انرژی ها/ساختارهای شناخته شده (ردیف ها) و همبستگی های $c$ شان است. / خوشه ها (ستون ها). ## مشکل با این حال، اضافه کردن مکرر ساختارها و آزمایش برشها منجر به سیستمی میشود که اغلب به طرز مشکوکی (مانند اکثر موارد کوتاهسازی آزمایششده) $CV^2 \rightarrow \infty$ زیرا $X_{i\cdot}\ به دست میآید. چپ (X^TX\right)^{-1}X_{i\cdot}^T \rightarrow 1$ در مشارکت از چندین ساختار مختلف i. به نوعی، به نظر میرسد که $X$ در نقطهای متعامد میشود، به این معنا که $X^TX = \lVert X_{i\cdot} \rVert^2\cdot\mathbb{1}$، اما من موفق نمیشوم حس واقعی آن در حال حاضر ## سوال(های) حال، من فرض میکنم که قدرت پیشبینی یک برش داده شده به روش مفیدی با چنین امتیاز CV واگرا تخمین زده نمیشود و من گمان میکنم که دلیل آماری عمیقتری برای این اتفاق وجود داشته باشد. بنابراین میخواهم بپرسم: * آیا چنین امتیاز CV واگرا چیزی از نظر آماری مهم را نشان میدهد و اگر چنین است، آن چه خواهد بود؟ * آیا راه دیگری برای دسترسی به قدرت پیش بینی یک برش غیر از نمره CV وجود دارد؟ * * * لطفاً یک ماتریس رگرسیون مشکل ساز $X \in \left[-1,1\right]^{71\times 15}$ و بردار متغیر وابسته مربوطه را پیدا کنید $\vec{E} \in \mathbb{R} ^{71\times 1}$ اینجا. در صورتی که اطلاعات اضافی مورد علاقه در پست بالا وجود نداشته باشد، لطفاً از من دریغ نکنید - من با کمال میل آنها را ارائه خواهم کرد. پیشاپیش از شما بسیار سپاسگزارم
|
مشکل اعتبارسنجی متقاطع دنیای واقعی
|
103129
|
من سعی میکنم بفهمم رهگیری گزارششده وقتی از «arima()» با «xreg=» استفاده میکنم چه چیزی را نشان میدهد. مستندات می گوید: اگر عبارت xreg گنجانده شود، یک رگرسیون خطی (با یک عبارت ثابت اگر include.mean درست است و هیچ تفاوتی وجود ندارد) با یک مدل ARMA برای عبارت خطا برازش داده می شود. بنابراین من انتظار دارم که رهگیری نشان داده شده از رگرسیون با استفاده از «xreg=» به عنوان متغیرهای X، قبل از اینکه هر مدل arima روی آن باقیمانده ها انجام شود، حاصل شود. با این حال، من سعی کردم با انجام رگرسیون با «lm()» این را دوبار بررسی کنم و وقفه حاصل از آن با آنچه از «arima()» گزارش شده مطابقت ندارد (اگرچه ضریب شیب بسیار نزدیک است). در اینجا مثال من است: set.seed(456) v = rnorm(100,1,1) x = cumsum(v) ; x = as.xts(ts(x)) # Fit AR(1) پس از برداشتن روند زمانی (معروف به دریفت) model5 = arima(x, order=c(1,0,0), xreg=1:length (x)، include.mean=TRUE) # ضرایب: # ar1 intercept 1:length(x) # 0.8995 0.8815 1.1113 # s.e. 0.0422 1.6193 0.0265 # دوبار بررسی MyTime = 1:length(x) model5_Part1 = lm (x ~ MyTime ) # ضرایب: # (Intercept) MyTime # 1.856 1.096 رهگیری ها مطابقت ندارند، بنابراین من نمی دانم چه چیزی از رهگیری منطبق است. آریما با xreg. توجه داشته باشید که مثال نشان داده شده بر اساس مسئله 2 است که در اینجا نشان داده شده است http://www.stat.pitt.edu/stoffer/tsa3/Rissues.htm همچنین توجه داشته باشید که این مشکل خاصی برای مدل سازی دریفت نیست. در اینجا مثال دیگری وجود دارد که در آن علاوه بر عدم تطابق وقفه، حتی ضریب شیب روی متغیر xreg=` با آنچه از استفاده از `lm()` نشان داده شده است مطابقت ندارد. این مثال ربطی به دریفت ندارد و از مجموعه داده خودروها به گونه ای استفاده می کند که گویی داده های سری زمانی هستند. data(cars) cars = as.xts(ts(cars, start=c(1980,1), freq=12) model6 = arima(cars$speed, xreg=cars$dist, order=c(1,0, 0)، include.mean=TRUE) # ضرایب: # ar1 intercept dist # 0.9979 15.2890 -0.0172 # s.e. 0.0030 10.5452 0.0055 model6_Part1 = lm(cars$speed ~ cars$dist) # ضرایب: # (Intercept) cars$dist # 8.2839 0.1656 وقفه ها مطابقت ندارند، ضریب شیب مطابقت ندارد.
|
رهگیری R در آریما با xreg
|
103127
|
من از پکیج e1071 در R برای پیش بینی رگرسیون SVM استفاده کردم و همین تست را در C# libsvm امتحان کردم و نتایج متفاوتی گرفتم. تمام پارامترها (گاما، هزینه، eps) و همچنین روش مقیاسبندی یکسان است. میانگین اختلاف پیشبینیها حدود 0.015 (850 نمونه آزمایش) است. آیا این یک تفاوت معقول است؟ دلیلش چی میتونه باشه؟
|
نتایج متفاوت در libsvm و R برای پیشبینی رگرسیون
|
112726
|
من به دنبال یک مقاله تحقیقاتی هستم که اساساً یک مدل مارکوف پنهان را توصیف می کند که دارای مشاهدات متعدد است و برخی مشاهدات که وابستگی های شرطی دارند. به عنوان مثال، لطفاً شکل زیر را در نظر بگیرید که دو حالت پنهان را با 5 متغیر مشاهده شده نشان می دهد. در اینجا متغیر obs5 به والد obs1-obs4 وابسته است. من از HMM هایی آگاه هستم که دارای یک سطح از متغیرهای مشاهده شده هستند. با این حال، من نمی توانم ادبیاتی را پیدا کنم که ساختار مدل گرافیکی زیر را داشته باشد. بنابراین سوال من این است که آیا آثار/مقاله های تحقیقاتی وجود دارد که چنین HMM ها را مدل کند؟ 
|
مدل مارکوف پنهان با مشاهدات مشروط
|
85805
|
من سعی میکنم بفهمم که آیا آزمونهای نوع ارزش در معرض خطر (VaR، یک کمیت) میتوانند پیشبینی نقطه مورد انتظار (انتظارات بالاتر از یک چندک) را که از یک نوع مدل ایجاد میشود دقیق در نظر بگیرند یا خیر. من کنجکاوی خود را از این نقل قول از یک سند توسط کمیته بازل استوار می کنم: > اینکه آیا بک آزمون های تخصصی ES خوب هستند یا نه، یک گزینه ساده > همیشه در دسترس است: در طول یک محاسبه ES، VaR در همان زمان می تواند به عنوان یک > تولید شود. -محصول با تلاش اضافی کم می توان این > VaR را با روش های سنتی بک تست کرد. اگر VaR رد شود، محاسبه ES > مربوطه به سختی می تواند درست باشد. از آنجایی که میتوان کسری مورد انتظار را بهعنوان میانگین تمام تخمینهای ارزش در معرض خطر بیش از یک سطح ریسک تعریف کرد، این منطق را میتوان به این صورت تعمیم داد: اگر احتمال میرود که کسری مورد انتظار درست باشد، میتوانیم برخی از آنها را تأیید کنیم. برآوردهای ارزش در معرض خطر که در کسری مورد انتظار گنجانده شده است. اگر آنها پذیرفته شوند، ما اعتماد به برآورد کسری مورد انتظار را افزایش داده ایم. فرض کنید من چنین تستی به نام X دارم. سوال من اکنون این است که اگر بخواهم کیفیت تستم را با توجه به دانشم تست کنم، می توان از شبیه سازی مونت کارلو برای تعیین توان X استفاده کرد، اما آیا ابزارهای آماری وجود دارد/ رویه هایی که می تواند به من بگوید آیا X می تواند چیزی در مورد کمبود مورد انتظار به من بگوید؟
|
اعتبارسنجی آزمون های آماری برای ارزش در معرض خطر و کسری مورد انتظار
|
71439
|
مدل رگرسیون پانل من به شرح زیر است: $$Y_{it}=PS_{it}+PF_{it}+EF_{it}+ \mathbf X_{it}+e_{it}$$ Where * $i$ : کشور , * $t$ : سال، * $Y_{it}$ : تولید ناخالص داخلی سرانه، * $PS_{it}$ : ثبات سیاسی، * $PF_{it}$ : آزادی سیاسی، * $EF_{it}$ : آزادی اقتصادی، * $e_{it}$ : عبارت خطا. متغیرهای مستقل دیگری نیز در معادله وجود دارد ($\mathbf X_{it}$). سوال من این است که ما معمولاً ثابت بودن را برای دادههای سری زمانی بررسی میکنیم و میخواهم بدانم آیا باید ثابت بودن را برای کیس دادههای پانل بررسی کنم؟ در ادامه توضیح میدهم که در تحلیل خود از شاخص کل آزادی اقتصادی بنیاد میراث و شاخص آزادی سیاسی خانه آزادی به عنوان متغیر مستقل استفاده میکنم. آیا باید هر دو شاخص ثابت را هم بررسی کنم؟
|
بررسی ثابت بودن
|
77877
|
من باید تناوب حالات زنجیره را تعیین کنم و فکر می کنم که زنجیره غیر پریودیک است اما نمی دانم چگونه آن را استدلال کنم. آیا درست است و شاید محاسبه ای وجود دارد که بتوانم آن را ثابت کنم؟ من همچنین فکر می کنم که حالت یک می تواند نقطه 2 داشته باشد زیرا فقط در مضرب دو حرکت قابل بازدید است. آیا این استدلال درست است؟ برای تعیین توزیع ثابت آیا ابتدا باید زنجیره را به حالت های 2، 5، 6 کاهش داد؟ بدون چنین کاهشی نمی توانم معادلات متعادل را حل کنم؟ آیا کسی می تواند در مورد مشکلاتی که در بالا توضیح داده شد به من کمک کند؟  
|
تناوب و توزیع ثابت یک زنجیره مارکوف
|
77876
|
من از مقیاس گذاری روی ویژگی های یک مدل استفاده کرده ام که شامل 40 ویژگی (همه ستون ها عدد هستند) و یک متغیر خروجی باینری است. این مسابقه Kaggle در اینجا است که من ویژگیها را با فرض اینکه عملکرد بهتری ارائه میدهد مقیاسبندی کردهام، اما با یک SVM هسته rbf، دقت با CV 10 برابری از 0.92 به 0.87 کاهش یافت. [توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fqoB6.png)  آنچه من می خواهم بدانم این است که چرا مقیاس بندی عملکرد طبقه بندی کننده را کاهش می دهد؟ من هیچ بحثی ندیدم که به این نوع نتیجه اشاره کند.
|
چرا ویژگی های مقیاس بندی عملکرد SVM را کاهش می دهد؟
|
71435
|
من یک مشکل رگرسیون با متغیرهای 5-6k دارم. من داده های خود را به 3 مجموعه غیر همپوشانی تقسیم می کنم: آموزش، اعتبار سنجی و آزمایش. من فقط با استفاده از مجموعه آموزشی تمرین میکنم و با انتخاب مجموعهای از 200 متغیر متفاوت برای هر مدل، مدلهای رگرسیون خطی مختلفی تولید میکنم (من حدود 100 هزار زیر مجموعه را امتحان میکنم). من یک مدل را به عنوان $\min(R^2_{\text{Training Data}}, R^2_{\text{Validation Data}})$ نمره می دهم. با استفاده از این معیار، در نهایت یک مدل را انتخاب می کنم. به نظر می رسد که مدل انتخاب شده دارای $R^2$ بسیار مشابه در آموزش و داده های اعتبار سنجی است. با این حال، وقتی این مدل را روی داده های آزمایشی امتحان می کنم، R^2$ دلار بسیار کمتری دارد. بنابراین به نظر می رسد که من به نحوی در مورد داده های آموزشی و اعتبارسنجی بیش از حد مناسب هستم. آیا ایده ای در مورد اینکه چگونه می توانم مدل قوی تری داشته باشم؟ من سعی کردم اندازه داده های آموزشی را افزایش دهم، اما این کمکی نکرد. من به کوچک کردن اندازه هر زیر مجموعه فکر می کنم. من سعی کردم از قاعدگی استفاده کنم. با این حال، مدلهایی که با استفاده از کمند یا توری کشسان به دست میآورم، در مقایسه با مدلی که با انجام رویکرد انتخاب زیرمجموعه به دست میآورم، R^2$ در مجموعه آموزشی و همچنین مجموعه اعتبارسنجی کمتری دارند. بنابراین، من این مدلها را در نظر نمیگیرم، زیرا فرض میکنم که اگر مدل A هم در مجموعه آموزشی و هم در مجموعه اعتبارسنجی بهتر از مدل B عمل کند، مدل A به وضوح بهتر از مدل B است. من بسیار کنجکاو خواهم بود اگر شما با این موافق نیست در یک یادداشت مرتبط، آیا فکر میکنید $R^2$ معیار بدی برای انتخاب مدلهای من است؟
|
برخورد با عملکرد خوب در آموزش و داده های اعتبار سنجی، اما عملکرد بسیار بد در آزمایش داده ها
|
71434
|
من واقعاً میتوانم از آزمون آماری برای حل مشکل زیر استفاده کنم: من سه گونه مختلف دارم: A، B و C. من همپوشانی کمی گونههای A و B را به ترتیب با همپوشانی کمی مقایسه کردم. گونه C (با استفاده از آزمون فیشر برای هر یک از دو مقایسه بین گونه ها). به منظور مشخص تر بودن: وقتی گونه A با گونه C مقایسه می شود، مقدار p برابر 4.2e-08 دریافت می کنم (همپوشانی 17؛ 13 مخصوص A؛ 25 خاص برای گونه C) هنگامی که گونه B ' با 'گونه C' مقایسه می شود، من یک مقدار p 0.014 دریافت می کنم (همپوشانی 7؛ 11 مخصوص B؛ 35 خاص برای گونه C). اکنون میخواهم تعیین کنم که آیا گونه A از نظر همپوشانی، گونه C را به طور قابل توجهی بیشتر از گونه B تقلید یا تکرار می کند. من فرض می کنم که مقایسه مستقیم بین مقادیر p (از دو آزمایش فیشر) کافی نیست. بنابراین سوال من این است که از کدام تست می توانم برای رفع مشکلم استفاده کنم؟ بازدیدها بسیار قدردانی می شوند.
|
بررسی کنید که آیا یک همپوشانی به طور قابل توجهی بزرگتر از همپوشانی مرتبط دیگر است یا خیر
|
71433
|
من به طور کامل توسط یک سری منابع آنلاین در مورد این موضوع گیج شده ام. من واقعاً می خواهم توضیح ساده ای در مورد تفاوت های بین رویکردهای مولد و افتراقی و اینکه کارکردهای تمایز در همه اینها کجاست. من بهویژه از هر توضیح یا اشارهای به منبعی بدون هیچ یک از توضیح استاندارد «مدلهای مولد دادههای تصادفی بر اساس توزیع...» را قدردانی میکنم. درک این توضیح برای کسی که با این حوزه ناآشنا نیست بسیار مبهم است و به خصوص این توضیح انگیزه استفاده از مدل های مولد در مقابل تبعیض را توصیف نمی کند.
|
تفاوت بین مدل های احتمالی مولد، افتراقی و توابع تمایز؟
|
71438
|
ما یک چارچوب داده 524*40 از پاسخها به پرسشنامه مقیاس لیکرت (7 دسته پاسخ در 40 مورد) داریم. ما می خواهیم IRT چند بعدی اکتشافی را با استفاده از روش MHRM برای شناسایی ساختار نهفته انجام دهیم. هنگامی که mirt را اجرا می کنیم (SAQdata3, 4, روش = 'MHRM') پیغام خطای زیر را دریافت می کنیم: مرحله 1: چرخه = 1، Log-Lik = -46764.0، حداکثر تغییر = 0.2500 مرحله 1: چرخه = 2، Log-Lik = -45091.4، حداکثر تغییر = 0.2500 خطا در solve.default(ave.h, grad): سیستم از نظر محاسباتی مفرد است: شماره شرط متقابل = 7.06167e-20 ما می دانیم که مشکلی در روش بهینه سازی به دلیل ساختار داده ها وجود دارد، اما دقیقاً مشخص نیست که چه چیزی اشتباه است و اگر راهی برای رفع آن وجود دارد؟
|
خطای محاسباتی منفرد با استفاده از بسته MIRT
|
34120
|
من می خواهم یک ROC برای الگوریتم تشخیص خود ترسیم کنم که برای تشخیص ویژگی های تصویر استفاده می شود. من از الگوریتم مثبت درست، مثبت کاذب و منفی کاذب به دست آورده بودم. در مورد من منفی واقعی وجود ندارد. من الگوریتم را برای 6 تصویر اجرا کرده بودم، بنابراین 6 عدد TP، FP و FN دریافت کردم. با این چگونه می توانم منحنی ROC را رسم کنم. آستانه 1 TP FP FN 1066 70 116 1176 67 201 890 42 129 1040 69 74 677 88 94 1284 73 123 آستانه 2 TP FP FN 45121 4526 4514 62 304 23 56 170 39 23 310 31 74 من با R تازه کار هستم، بنابراین باید بدانم چگونه آن را در R رسم کنم؟
|
چگونه منحنی ROC را با TP، FP و FN به تنهایی با آستانه های مختلف رسم کنیم؟
|
77878
|
من در درک مفهوم و اشتقاق احتمال داده های کوتاه شده کمی مشکل دارم. به عنوان مثال، اگر من بخواهم تابع درستنمایی را بر اساس نمونه ای از یک توزیع پیدا کنم، اما هنگام گرفتن نمونه از توزیع، مقادیر کوتاه شده را مشاهده می کنم (که در آن یک برش $M$ وجود دارد، یعنی هر $x_ {i}>M$ به صورت $M$ ثبت میشود: $ x_{1}، x_{2}، M، x_{3}، M، x_{4}، x_{5}، ...، x_{10}$ که تعداد مقادیر $M$ $m$ است. سپس، فرضاً احتمال داده می شود: $L(x;\theta) = \prod_{i=1}^{10}f(x_{i};\theta)*[P(X>M)]^{ m}$ من بسیار قدردان توضیح/اثباتی در مورد اینکه چرا چنین است، مهم است که چرا عامل دوم همینطور است. در صورت امکان به صورت شهودی و ریاضی. پیشاپیش خیلی ممنون
|
تابع احتمال داده های کوتاه شده
|
77873
|
چگونه (1.4) را در زیر محاسبه می کنید؟ از توزیع خودهمبستگی های باقیمانده در مدل های سری زمانی میانگین متحرک خودرگرسیون-یکپارچه (Box and Pierce 1970):  http: //www.jstor.org/stable/2284333
|
واریانس خودهمبستگی باقیمانده نمونه؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.