_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
52781
من روی تست مشترک با استفاده از Stata کار می کنم. آزمون از فرم استاندارد «آزمون F» نیست: «y = a*x1 + b*x2» و آزمایش اینکه آیا «a=b=0» است یا خیر. در عوض، آزمون به این شکل است: «y1 = a*x» و «y2=b*x» و آزمایش اینکه آیا «a=b=0.» چگونه آن را در «Stata» انجام دهیم؟
آزمون برابری ضرایب دو معادله مختلف در Stata
21872
من سعی می کنم تعیین کنم که آیا بین دو سؤال نظرسنجی در مورد اثربخشی یک انجمن آنلاین موضوعی خاص وابستگی وجود دارد یا خیر. اولین سوال نظرسنجی می پرسد که کاربر چقدر سوالات یا نظرات خود را ارسال می کند. سوال دوم نظرسنجی می پرسد که آیا شرکت در جامعه اعتماد کاربر را در آن حوزه موضوعی افزایش می دهد یا خیر. فکر می کنم باید از آزمون Chi-Square برای استقلال استفاده کنم. با این حال، من مطمئن نیستم که چگونه آن را محاسبه کنم، به خصوص با توجه به گزینه های پاسخ. گزینه های پاسخ احتمالی برای سوال 1 عبارتند از: 1. هرگز 2. 1-5 در هر ماه 3. 6-10 در هر ماه 4. 11+ در هر ماه و برای سوال 2 عبارتند از: 1. کاملا مخالف 2. مخالف 3. نه موافق و نه مخالف 4. موافق 5. کاملا موافق آیا آزمون Chi-Square برای استقلال آزمون صحیحی است و اگر بنابراین، چگونه از آن در برابر داده ها استفاده کنم؟ آیا داده ها نیاز به گروه بندی دارند؟ به عنوان مثال، آیا باید پاسخ های سوال 1 را در یک انتخاب دودویی از هرگز ارسال نکنید یا گاهی پست کنید؟ ممنون از کمک و تخصص شما ==== سوالات بیشتر * من به راحتی می توانم عدد مشاهده شده را از داده های نظرسنجی برای هر مقطع به دست بیاورم (مثلاً کاملاً مخالفم و هرگز، موافقم و 1 تا 5 بار و غیره). اما شماره مورد انتظارم را کجا پیدا کنم؟ * آیا من 1 تا 5 بار، 5 تا 10 بار، و 11 یا بیشتر را با هرگز مقایسه می کنم (هرگز مقدار پایه یا مورد انتظار نیست)؟
چگونه تشخیص دهیم که آیا دو سوال نظرسنجی مستقل هستند؟
62921
من دو متغیر باینری اصلی غیر معنی‌دار در مدل رگرسیون لجستیک دودویی خود دارم، اما تعامل آنها معنی‌دار است. متغیرها در مرکز قرار دارند و هیچ چند خطی وجود ندارد (همه VIF ها حدود 1.0 هستند). متغیرهای اصلی غیر معنادار هستند، اما اثر متقابل آنها وجود دارد. من می خواهم آن تعامل قابل توجه دو تخمین غیر معنی دار را تفسیر کنم. چیزی شبیه به این خواهد بود: **اثر** متغیر A در سطح 1 متغیر B (B1) کمتر قابل مشاهده است و در سطح دوم B (B2) بیشتر قابل مشاهده است. یا همین را می توانم در مورد کمتر دیده شدن **اثر** B در A1 و بیشتر در A2 بگم... با این حال مشکل اینجاست که نه اثر A قابل توجه است و نه تاثیر B! بنابراین تفسیر فوق، اگرچه به ظاهر صحیح است، اما ناسازگار یا عجیب به نظر می رسد. (چگونه یک اثر غیر معنی دار قرار است توسط متغیر دیگر تقویت شود؟)... **در یک فکر دوم**، به نظر می رسد که در واقع امکان پذیر است. به عنوان مثال، اگر موارد با B2 را از نمونه خود حذف کنم، اکنون اثر A در نمونه قابل توجه است (این موارد B2 در نمونه است که اجازه نمی دهد A به عنوان معنی دار ظاهر شود)... در حال حاضر در ذهن من است، اما آیا شما هنوز چیزی غیر از تفسیر بالا در ذهن دارید؟ خیلی ممنون
چگونه می توان تعامل معنادار دو پیش بینی کننده اصلی غیر معنی دار را تفسیر کرد؟
55877
در مشخصات مدل زیر، که یک رگرسیون لجستیک 2 سطحی تصادفی است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/j5NZ0.png) آیا دو واحد سطح پایین تر ($i$) ) با مقدار یکسان $x_{1ij}$ و در همان واحد سطح بالاتر ($j$) اما با مقادیر متفاوت برای $y_{ij}$ همان پیش‌بینی شده است $\pi_{ij}$؟
تفسیر احتمالات از یک رگرسیون لجستیک مدل مختلط
14660
من در تلاش برای درک استفاده (و سوء استفاده) از این دو معیار پاسخ هستم. هنگام مقایسه اثر یک درمان با کنترل: * یک رویکرد محاسبه اثر نسبی درمان است: $$E_1 = \frac{X_T - X_C}{X_C}$$ * رویکرد دیگر محاسبه نسبت پاسخ درمان به پاسخ کنترل: $$E_2 = \frac{X_T}{X_C} = E_1 + 1.$$ آیا این شاخص ها نام دارند؟ معانی آنها چگونه متفاوت است؟ آیا شرایط خاصی وجود دارد که در آن یکی به دیگری ترجیح داده شود؟ * * * _توجه: این سوال از نسخه اصلی اصلاح شده است، امیدوارم با حذف جزئیات خاص مطالعه، وضوح ارائه شود._
$\frac{X_T-X_C}{X_T}$ در مقابل $\frac{X_T}{X_C}$ به عنوان معیار اثر درمان؟
102756
اگر تعداد کمی مشاهدات (حدود 5) در یک نمونه داشتم و انحراف معیار جامعه نامشخص بود، چه آزمایشی می‌توان انجام داد تا ببینیم که آیا مقدار یکی از مشاهدات تفاوت معنی‌داری با میانگین دارد؟ نمونه ای از این امر می تواند آزمایش این باشد که آیا یک داور از 5 داور در یک مسابقه امتیازی به طور قابل توجهی متفاوت از سایر داوران می دهد یا خیر.
آیا می توانید آزمایش کنید که آیا یک قاضی امتیازهای متفاوتی با سایر داوران می دهد؟
83433
من می‌خواهم بپرسم فواصل پیش‌بینی بلندمدت (چند قدم جلوتر) چگونه با تابع «predict.Arima» در R محاسبه می‌شود. من به‌ویژه به مدل‌های ARIMA، مدل‌های SARIMA و به مدل‌های ARIMA با رگرسیور خارجی (شامل آرگومان xreg علاقه‌مندم). => رگرسیون با خطاهای ARIMA)
فواصل پیش بینی پیش بینی می کنند.آریما ر
60697
به عنوان بخشی از تحقیقات ریاضی خود، سعی می کنم ترافیک شهرم را مدل کنم. من داده های شمارش جریان ترافیک را از بزرگراه ها و جاده های شهر جمع آوری کرده ام. من از مدل پواسون برای توزیع استفاده می کنم. داده‌هایی که من جمع‌آوری کردم گاهی در آزمون مجذور کای مردود می‌شوند. در این شرایط، کدام مدل / اضافه دیگر را پیشنهاد می کنید؟ من می خواهم اساساً محدودیت های یک مدل خاص در ترافیک سنگین را نیز بیان کنم و بهترین نوع مدل را برای جریان های ترافیکی مختلف نتیجه گیری کنم. * داده های من 13 درجه آزادی دارند. مقدار chi-square خیلی بزرگ می شود - حدود 3000 در این مورد چه کاری باید انجام دهم؟
برازش داده ها به پواسون
105408
وضعیتی را در نظر بگیرید که در آن n مورد باید به زیر مجموعه های مجزا $k < n$ تقسیم شوند. ضرایب چند جمله ای تعداد پارتیشن‌های متمایز را ارائه کنید که $n_1$ آیتم‌ها در گروه $1$، $n_2$ در گروه $2$، قرار دارند. . . ، $n_k$ در گروه $k$ قرار دارند. ** ثابت کنید که تعداد کل پارتیشن‌های مجزا برابر است با $k^n$** از اینکه از هیچ نماد نمادین استفاده نکردم عذرخواهی می‌کنم، هنوز نمی‌دانم چگونه این کار را انجام دهم. من فرض می‌کنم برای بدست آوردن سمت چپ معادله، یعنی $(x+y)^n$، باید از ضریب دو جمله‌ای استفاده کنیم. بنابراین اساساً به اثبات $x+y = k$ خلاصه می شود.
تمرین در احتمال
14664
من می خواهم درصدهای زیر را با هم مقایسه کنم: a<-c(0.59،0.60،0.55،0.55،0.60،0.58،0.67،0.68) b<-c(0.16،0.21،0.26،0.53،0.84،0.89،0.84،.0. * مقادیر a احتمالاتی هستند که با آنها محاسبه می شوند قاعده bayes * مقادیر «b» تعداد نمونه‌هایی از کل «t.test(a,b)» است که انجام دادم. آیا این مناسب است؟ اگر نه چگونه می توانم این دو را با هم مقایسه کنم؟ به روز رسانی: به جای بررسی تفاوت در میانگین، آیا می توان به ارزش مکاتبات بر اساس مقدار نگاه کرد؟ به عنوان مثال 0.59 را با 0.16، سپس 0.6 را به 0.21 و غیره مقایسه کنید
آیا مقایسه میانگین ها با استفاده از آزمون t که در آن داده های خام درصد هستند مناسب است؟
58967
من دوباره در مورد همبستگی ها سوال دارم. من یک متغیر دوگانه دارم که می‌خواهم با استفاده از ضریب همبستگی دوتایی نقطه‌ای، آن را با دیگری (متریک) مرتبط کنم. من یک نتیجه غیر قابل توجه دریافت می کنم (n=28). اما نگرانی من این است که یکی از متغیرها تقریباً هیچ تغییری در مقادیر ندارد: 27 مشاهده $1$، 1 مشاهده $0$ است! به عبارت دیگر، مهم نیست که متغیر 2 چه مقداری داشته باشد، متغیر 1 تقریباً در همه موارد مقدار 1 را دارد. آیا این می تواند دلیل معنی دار نبودن یک همبستگی باشد؟
همبستگی معنی دار نیست زیرا واریانس کافی وجود ندارد؟
14667
چندین کران بالایی ساده و پرکاربرد در دم توزیع فوق هندسی وجود دارد، از جمله $P(X > E[X]+tn) <= e^{-2t^{2}n}$، که در آن X فوق هندسی با پارامترهای N، M و n. (ابر هندسی نمونه برداری از یک جامعه را توصیف می کند، N اندازه جامعه است، M تعداد آیتم های جالب است، n اندازه نمونه ای است که می کشیم، و X تعداد آیتم های جالب در نمونه است. ) این مقاله سرگرم کننده خلاصه خوبی است: > متیو اسکالا. نابرابری‌های دم فرا هندسی: پایان دادن به جنون، 2009. به نظر می‌رسد یک دست نوشته منتشر نشده است، اما در http://ansuz.sooke.bc.ca/professional/hypergeometric.pdf موجود است، با این حال، من نتوانستم یک نسخه ساده پیدا کنم. و کران پایینی نسبتاً تنگ در همان احتمال دم. کسی یکی را می شناسد؟
کران پایین برای دم توزیع فراهندسی
57438
من در یادگیری ماشین جدید هستم و سعی می کنم از scikit-learn(sklearn) برای مقابله با یک مشکل طبقه بندی استفاده کنم. هم **DecisionTree** و هم **SVM** می توانند یک طبقه بندی کننده برای این مشکل آموزش دهند. من از «sklearn.ensemble.RandomForestClassifier» و «sklearn.svm.SVC» برای جا دادن همان داده های آموزشی استفاده می کنم (حدود 500000 ورودی با 50 ویژگی در هر ورودی). _RandomForestClassifier_ با یک طبقه بندی کننده در حدود یک دقیقه بیرون می آید. _SVC_ بیش از 24 ساعت استفاده می کند و همچنان به کار خود ادامه می دهد. چرا **SVC** اینقدر ناکارآمد عمل می کند؟ آیا مجموعه داده برای **SVC** خیلی بزرگ است؟ آیا **SVC** برای چنین مشکلی مناسب نیست؟ پیشاپیش متشکرم
چرا svm به اندازه درخت تصمیم روی همان داده ها خوب نیست؟
102759
همانطور که می‌دانم، یک شبکه عصبی مصنوعی پرسپترون/تک لایه با تابع فعال‌سازی لجستیک سیگموئید همان مدل رگرسیون لجستیک است. هر دو مدل با این معادله ارائه می‌شوند: $F(x) = \frac{1}{1-e^{-\beta X}}$ الگوریتم یادگیری پرسپترون آنلاین و مبتنی بر خطا است، در حالی که پارامترهای رگرسیون لجستیک می‌توانند با استفاده از انواع الگوریتم های دسته ای، از جمله گرادیان نزول و BFGS با حافظه محدود، یا یک الگوریتم آنلاین، مانند تصادفی، یاد گرفته شود. شیب نزول آیا تفاوت دیگری بین رگرسیون لجستیک و پرسپترون سیگموئید وجود دارد؟ آیا باید انتظار داشت که نتایج یک رگرسیور لجستیک آموزش دیده با نزول گرادیان تصادفی مشابه پرسپترون باشد؟
تفاوت بین رگرسیون لجستیک و پرسپترون
58962
من در حال ساخت یک مدل رگرسیون چندگانه - پیچیده در یک تابع - با یک متغیر وابسته و ده ها متغیر مستقل هستم. دلیل ساختن یک تابع این است که باید این تحلیل را با تقریباً 75 مجموعه داده مختلف انجام دهم. چالش این است که متغیرهای مستقل زمانی که از نظر زمانی با تاخیر مواجه می شوند با متغیر وابسته ارتباط بهتری دارند. متأسفانه، همه تأخیرهای زمانی برای هر متغیر یکسان نیستند و من می‌خواهم ترکیب بهینه تأخیرهای زمانی را برای هر متغیر تعیین کنم در حالی که بهینه‌ترین مقدار تنظیم‌شده R^2 را برای مدل رگرسیون چندگانه دریافت می‌کنم. علاوه بر این، پس از ساختن یک مدل اولیه، سعی می‌کنم با استفاده از تابع «step(modelbase,direct=both)» مدل را کاهش دهم. در رویکردی که من در حال حاضر دارم، تمام متغیرهای مستقل را با همان تعداد هفته با تاخیر زمانی مواجه می کنم. این منجر به بهترین مدل ممکن می شود که در آن همه متغیرهای مستقل دارای تأخیر زمانی یکسانی هستند، اما من معتقدم (با یک فرضیه معتبر که از این موضوع حمایت می کند) زمانی که ما تاخیر زمانی را برای هر متغیر مستقل متفاوت کنیم، مدل بهتری وجود دارد. سوال من این است که بهترین استراتژی برای تعیین بهترین مدل مناسب بدون افزایش تعداد گزینه ها چیست. اگر بخواهم بین 0 تا 20 هفته تاخیر زمانی در گام های هفتگی برای 12 متغیر مستقل تعیین کنم، به سرعت در تلاش برای یافتن یک تطابق بین 4.096e+15 متغیرها (=20^12) هستم. من می‌توانم مشکل را با استراتژی زیر کاهش دهم: با یافتن بهترین مدل متناسب با یک متغیر مستقل در زمان‌های متفاوت شروع کنید. مرحله دوم اضافه کردن یک متغیر مستقل دوم با وقفه های زمانی مختلف و یافتن بهترین مدل با دو متغیر مستقل است که در آن دومی در وقفه های زمانی مختلف امتحان می شود در حالی که اولی ثابت نگه داشته می شود. سپس یک متغیر سوم اضافه کنید که با ثابت نگه داشتن دو متغیر اول، رویکرد مشابه دوم را برای آن در نظر می گیریم و متغیر سوم را با تاخیرهای زمانی متفاوت تغییر می دهیم. چیزی به من می گوید که این استراتژی ممکن است رویکرد مناسبی باشد، اما چیزی که ممکن است یک مدل کلی بهتر نیز وجود داشته باشد که شامل متغیرهای نه بهینه برای هر متغیر مستقل منفرد باشد. آیا کسی وجود دارد که در مورد چگونگی مقابله با این چالش روشن کند؟
استراتژی ساخت بهترین برازش مدل رگرسیون چندگانه با متغیرهای تاخیر زمانی
110288
من به چیزی برخورد کردم که من را به نوعی گیج کرده است، امیدوارم کسی بتواند به من کمک کند. من یک ANOVA مختلط با یک فاکتور درون آزمودنی ها با دو سطح «زمان» و یک فاکتور بین آزمودنی ها «گروه» انجام دادم. این مقایسه بین یک گروه مثبت و یک گروه منفی در نمرات قبل و بعد تمرین بود. نتایج یک اثر اصلی معنی‌دار را نشان داد اما اثر متقابل معنی‌داری نداشت. شاید باید در آنجا توقف می کردم، اما برای هر گروه تست های t وابسته جداگانه انجام دادم. اینها نشان داد که نمرات یک گروه تغییر معنی داری داشته است اما نمرات گروه دیگر تغییر نکرده است. پس الان دیگه نمیفهمم آیا اثر متقابل معنی‌دار نشان‌دهنده این نیست که تغییری در نمرات وجود دارد و این تغییر تحت تأثیر گروه قرار گرفته است (که کاهش نمرات بین گروه‌ها تفاوت معنی‌داری دارد)؟ از آنجایی که هیچ تعامل معنی‌داری وجود نداشت، آیا نباید تغییرات مشابهی را در هر دو گروه (یا هر دو معنی‌دار یا نه) پیدا کنم؟ خوب، امیدوارم که این آسان تر از آن چیزی باشد که در حال حاضر به نظرم می رسد، مرسی دواونس. اس.
ANOVA مختلط اثر متقابل معنی داری را نشان نداد، اما عمق را نشان داد. آزمون t تنها برای یکی از گروه ها تأثیر معنی داری نشان داد
58964
می خواستم بدانم آیا ابزاری مانند R وجود دارد که بتوان از آن برای شناسایی فرآیند ARIMA با مقدار صحیح استفاده کرد؟ من می دانم که با استفاده از بسته پیش بینی در R می توانیم فرآیند ARIMA را شناسایی کنیم، آیا بسته ای برای ایناریما وجود دارد؟ متشکرم
شناسایی فرآیند ARIMA با ارزش صحیح، INARIMA
112004
من سعی می کنم تأثیر اشباع واحد پنهان (خروجی 0 و 1 را برای سیگموید، و نه زیاد در بین) بر عملکرد آموزش شبکه عصبی تجزیه و تحلیل کنم، و از نظر تئوری کمی احساس می کنم گیر کرده ام: چه کسی می گوید اشباع لزوماً است. یک چیز بد؟ ایده این است که یک واحد اشباع نمی تواند تفاوت زیادی بین الگوها ایجاد کند. با این حال، این تنها در صورتی درست است که واحد مقدار یکسانی را برای همه سیگنال‌هایی که دریافت می‌کند، خروجی دهد. اگر واحد فقط باینری شود چه؟ البته مجموعه ای از واحدهای باینری ظرفیت اطلاعاتی کمتری نسبت به مجموعه ای از توابع غیرخطی پیوسته دارند... اما شاید واحدهای باینری (اشباع شده) همچنان جایگاهی داشته باشند و لزوما نباید حذف شوند؟ نظر شما در مورد خطرات اشباع چیست؟ و... آیا درمان های استانداردی به جز منظم سازی وجود دارد؟
آیا اشباع NN همیشه بد است؟
14665
من می خواهم بفهمم ارزش بالقوه مادام العمر یک مشتری بر اساس الگوهای خرید آنها با محصولات ما چقدر است. من داده های تراکنشی دارم که به من می گوید مشتری چه چیزی را خریده است، چه زمانی و چقدر هزینه کرده است. یک مشتری ممکن است یک عمر مانند این داشته باشد: ماه 1: مجوز خرید 300 دلار در ماه 3: 400 دلار مجوز خرید B ماه 12: 150 دلار تمدید یک ماه 15: مجوز تمدید نکنید B ماه 24: مجوز را تمدید نکنید A مجوزها وجود ندارد مانده تا تمدید شود...دیگر مشتری نیستید؟ ارزش کل طول عمر: 850 دلار مشتریان می توانند هر تعداد مجوز که می خواهند خریداری کنند و برنامه تمدید می تواند از ماهانه به سالانه متفاوت باشد. چیزی که من به آن علاقه مندم پیدا کردن یک الگوریتم طبقه بندی مناسب برای متمایز ساختن آن دسته از مشتریانی است که به احتمال زیاد تمدید نمی کنند در مقایسه با مشتریانی که تمایل دارند. به عنوان مثال، اگر شخصی برای دو سال متوالی تمدید کند، آیا در صورت خرید محصول متفاوتی نسبت به کسی که فقط یک بار آن را تمدید کرده است، احتمال تمدید آن بیشتر است؟ می‌دانم که برای یک الگوریتم طبقه‌بندی به نوعی مقدار «خروجی» برای آموزش نیاز دارم. من نمی دانم که آیا می توانم از مقدار طول عمر کل به عنوان این مقدار خروجی استفاده کنم یا مقداری از آن را. در حالت ایده‌آل، چیزی که من می‌خواهم روشی است که بتواند همه این متغیرها را در نظر بگیرد و آنها را به درستی وزن کند. SVG ها، Naive Bayes، K-Means همگی به ذهنم می رسند، اما من به اندازه کافی با آنها آشنا نیستم تا بدانم از کدام یک استفاده کنم یا چگونه آنها را به درستی اعمال کنم. اگر کسی بتواند من را در مسیر درست راهنمایی کند، واقعا ممنون می شوم.
روش مناسب برای محاسبه ارزش طول عمر مشتری چیست؟
44429
من در دریافت تمام ترکیبات از مجموعه داده خود با مشکل مواجه هستم. برای انجام این کار به پیشنهادات و راهنمایی شما نیاز دارم. من یک فایل دارم که ستون اول آن شامل مناطق است و فایل پنج ستون دیگر نشان می دهد که آیا یک رویداد الزام آور رخ می دهد یا نه. منطقه TF1 TF2 TF3 TF4 TF5 Reg1 8 0 4 9 11 Reg2 2 0 0 4 0 Reg3 0 8 9 0 3 Reg4 6 82 8 0 4 در اینجا رایج ترین ترکیب TF1، TF3، TF4، TF3، TF5 و TF2 است. ، TF5. . من یک فایل از 1700 منطقه (ردیف) و 25 رویداد (ستون) الزام آور دارم. چگونه می توانم با مقداری امتیاز مرتبط برای هر ترکیب به نتیجه دلخواهم نزدیک شوم. متشکرم.
ترکیبات محاسباتی
27826
نمونه‌های iid را از یک تابع توزیع ثابت $F(x)$ در نظر بگیرید و میانه آن را در نظر بگیرید. حال میانه دیگری را از نمونه‌های iid در نظر بگیرید که در آن نیمی از $F_1(x)$ و نیمی دیگر از $F_2(x)$ با $F_1(x)+F_2(x)=2F(x)$ برای همه گرفته شده است. x$. کدام میانه واریانس بیشتری دارد؟
واریانس میانه از توزیع مخلوط
27821
اگر تا به حال موردی وجود داشته است که این موضوع روشن شود، مشکل مونتی هال است. حتی پل اردوس بزرگ نیز فریب این مشکل را خورد. سوال من که پاسخ دادن به آن ممکن است دشوار باشد این است که احتمال اینکه ما بتوانیم به پاسخی آنقدر مطمئن باشیم که با استدلال شهودی دریافت کنیم و در عین حال آنقدر اشتباه باشیم، چیست؟ قانون بنفورد در مورد ارقام اول و پارادوکس زمان انتظار نمونه های معروف دیگری از این دست هستند.
چرا نمی توانیم به شهود خود با احتمال اعتماد کنیم؟
112001
داشتم می خواندم: یک مشکل بالقوه از این واقعیت ناشی می شود که خطای اندازه گیری (نمونه گیری) مرتبط با رگرسیون بتا ممکن است به صورت مقطعی متفاوت باشد. این ممکن است ناهمگونی را معرفی کند که باعث تخمین ضرایب ناکارآمد (هر چند بی طرفانه) می شود. چرا خطای «نمونه‌گیری» اندازه‌گیری منجر به ناهمسانی می‌شود؟
خطای نمونه گیری اندازه گیری و ناهمواری
38601
من به دنبال اجرای LDA هستم. من در مورد این یکی، MALLET می دانم اما به زبان جاوا کدگذاری شده است و من به عملکرد بیشتری نیاز دارم. کسی میتونه به من مرجعی بده؟
اجرای تخصیص دیریکله نهفته
112008
من می خواهم یک GLM با متغیر پیوسته و متغیر طبقه ای به عنوان عوامل ثابت انجام دهم. برای مثال وزن پیش بینی شده بر اساس قد و جنسیت. از آنچه به نظر می رسد، گزینه GLM تک متغیره در SPSS فقط به متغیرهای طبقه بندی شده به عنوان عوامل ثابت اجازه می دهد و نه متغیر پیوسته. اگر به جای آن یک رگرسیون خطی انجام دهم، برعکس است: نمی‌توانم متغیر مقوله‌ای را به عنوان یک IV داشته باشم، فقط پیوسته است. لطفا کمک کنید!
مدل خطی عمومی (GLM) با متغیر پیوسته و متغیر طبقه ای (SPSS)
14661
من مدل پروبیت زیر را دارم: داده کتابخانه (خارجی) کتابخانه (MASS) <- read.dta (Braith_statecap_JPR.dta) داده <- داده[data$year > 1959،] model1 <- glm(allons3 ~ confbord + rpc + confbord_rpc + neeighlgdp + polity2l + polity2sq + lgdp96l + lnpop + postcoldw + peceall، داده = داده، خانواده = دو جمله ای (پیوند = probit)) داده ها به همراه یک فایل stata do را می توانید در: مجله تحقیقات صلح: Bratithwaite دریافت کنید. : Braithwaite2010 در مقاله ای که داده ها از آن گرفته شده است، نویسنده اثرات عبارت تعامل در مدل را شبیه سازی می کند. عبارت confbord_rpc، ضرب از قبل انجام شده است). confbord یک متغیر ساختگی است و rpc از 0 تا 7 متغیر است. او ابتدا اثرات را با confbord که روی 0 تنظیم شده است، و rpc از 0 تا 7 (هر چیز دیگری با میانگین ثابت نگه داشته می‌شود) محاسبه می‌کند. سپس اثرات را از همان مدل‌ها کم می‌کند که confbord در 1 ثابت نگه داشته شده است. این رویه من این را با استفاده از کد زیر تکرار کرده ام: #شبیه سازی ضرایب بر اساس مدل بتا <- coef(model1) covvar <- summary(model1)$cov.unscaled coefs.sim <- mvrnorm(10000، بتا، covvar) #let rpc ثابت confbord را در 0 تغییر می دهد و سایر متغیرها را با میانگین ثابت <- 1 confbord تغییر می دهد. <- 0 rpc <- seq(0,7,1) ncivwar_rpc <- ncivwar * rpc neeighlgdp <- 8.077 polity2l <- -0.4691 polity2sq <- 56.51 lgdp96l <- 8.123 <- post col.allw0p 16.14 #آنها را در یک ماتریس به هم متصل کنید effect0 <- cbind(constant,ncivwar,rpc, ncivwar_rpc, neighlgdp, polity2l, polity2sq, lgdp96l, lnpop, postcoldw,peelecall) #برای به دست آوردن اثرات matriefficient matrixal با ماتریس ماتریس مولتی جین نتایج 0 <- coefs.sim %*% t(effects0) #بررسی هر اثر حاشیه ای روی CDF نرمال استاندارد شده، برای به دست آوردن نتایج احتمالات پیش بینی شده0 <- اعمال (نتایج 0,1:2، تابع(x) pnorm(x)) #انجام رویه مشابه برای confbord در 1 ثابت <- 1 confbord <- 1 rcp <- seq(0,7,1) ثابت می ماند ncivwar_rpc <- ncivwar * rpc neeighlgdp <- 8.077 polity2l <- -0.4691 polity2sq <- 56.51 lgdp96l <- 8.123 lnpop <- 9.028 postcoldw <- <16 اثرات صلح <- <16 همه. cbind(constant,ncivwar,rpc, ncivwar_rpc, neiglgdp, polity2l, polity2sq, lgdp96l, lnpop, postcoldw, peaceall) results1 <- coefs.sim %*% t(effects1) results1 <- اعمال (نتایج1,1) x) pnorm(x)) # را کم کنید احتمالات تخمین زده شده از یکدیگر نتایج <- results1 - results0 # نمودار نتایج x <- seq(0,7,1) به معنی <- اعمال (نتایج،2، میانگین) sdUpper <- اعمال (نتایج،2، تابع(x) quantile (x، 0.975)) sdLower <- اعمال (نتایج، 2، تابع (x) quantile (x، 0.025)) نمودار (x,means, ylim = c(-1,.2), type = l) خطوط(x,sdUpper, lty = 2) خطوط(x,sdLower, lty = 2) خطوط(x,rep(0 ,8)، col = قرمز) مشکل این است که با این روش من تأثیر بسیار کمتری نسبت به گزارش نویسنده در مقاله می‌گیرم (شکل 1)، آیا کسی می‌تواند متوجه اشتباه من شود؟
اثرات حاشیه ای پروبیت را با یک اصطلاح تعاملی شبیه سازی کنید
83436
من چهار متغیر در مجموعه داده‌ام دارم: یک حجم (عددی) و سه متغیر عامل: سیگاری (بله/خیر)، ورزش (بله/نه) و مرگ (بله/خیر). می‌خواهم تأثیر عامل مرگ بر حجم را بفهمم. با این حال، از نظر تئوری، حجم ها تحت تأثیر دو متغیر عامل دیگر نیز قرار می گیرند. من مدل زیر را امتحان کردم: lm(حجم^(1/3)~مرحوم+سیگاری+ورزش) و عوامل سیگاری و ورزش معنی دار بود در حالی که عامل مرگ معنی دار نبود. با این حال، من دیده ام که برخی از افراد چنین مشاهداتی (سیگاری ها و ورزشکاران) را حذف کرده اند، در حالی که اعتقاد بر این است که آنها تأثیر قابل پیش بینی دارند. من آن را نیز امتحان کردم، با کاهش داده هایم به حدود 2/3، و سپس با بقیه مشاهدات، تنها عامل مرگ معنی دار بود. حال، چه رویکردی را باید برای این کار اتخاذ کنم و چرا؟ با تشکر
کنترل برای یا حذف در مدل خطی
14832
من سعی می کنم با استفاده از برنامه R یاد بگیرم که چگونه یک توزیع احتمال را به بردار داده تطبیق دهم، اما توزیع های احتمال بالقوه زیادی برای استفاده وجود دارد! بنابراین سوال من این است که چگونه بهترین توزیع را برای داده های خود پیدا کنم و چگونه ثابت کنم که توزیع مناسبی را انتخاب کرده ام؟ آیا می توانم مقادیر AIC را برای مجموعه کاملی از توزیع های مختلف بدست بیاورم؟ داده ها داده های مشاهده ای تعداد زنبورهایی است که از گل ها بازدید می کنند. هر گونه تعداد معینی بازدید دارد، از این رو فرکانس های متفاوتی دارد. هدف یافتن بهترین توزیع برای توصیف بازدید زنبور عسل است، نشان می دهد که من توزیع مناسب را انتخاب کرده ام و سپس از آن توزیع برای نمونه برداری تصادفی برای مجموعه ای از شبیه سازی ها استفاده می کنم. در اینجا داده ها به نظر می رسد، این بردار مشاهدات شمارش است. صفر باد شده است، با توزیع دم بلند (شاید دوجمله ای منفی با باد صفر؟). i.vec=c(0,63,1,4,1,44,2,2,1,0,1,0,0,0,1,0,0,3,0,0,2, 0,0,0,0,0,2,0,0,0,0,0,0,0,0,0,0,0,0,6,1,11,1,1,0,0, 0،2) و در اینجا برخی از پارامترهای اساسی وجود دارد که من محاسبه کرده ام من از انحراف استاندارد برای سیگما استفاده می کنم و فی نسبت صفرها در داده ها است. m=mean(i.vec) #[1] 3.040816 sig=sd(i.vec) #[1] 10.86078 tab<-table(i.vec) zero.prop<-as.numeric(tab[1])/ sum(as.numeric(tab)) #[1] 0.6122449 همانطور که می بینید، انحراف معیار بسیار بیشتر است از میانگین، و من نسبت بسیار بالایی از صفر دارم.
برازش توزیع احتمال به داده های بادشده صفر در R
27829
در تصویر داده شده می توانید نموداری با نوارهای خطا با طول های مختلف در هر سمت بالا و پایین مشاهده کنید. میله‌ها با محاسبه «خطای استاندارد» یک بار برای «همه نقاط بالای» مقدار میانگین و یک بار برای «خطای زیر» ایجاد شدند. ![http://i.stack.imgur.com/cVlJg.png](http://i.stack.imgur.com/Sq6yW.png) از آنجایی که اطلاعات در مورد این روش بسیار کم است، از خودم می پرسم استفاده از آنها صحیح است یا فقط عبارت اشتباهی است (خطای استاندارد پایین/بالا) که من استفاده کردم؟ و در نهایت معنای آنها چیست؟
خطای استاندارد بالا/پایین منطقی است؟
110289
من به دنبال متنی هستم که به کسی که در عمل از GLM استفاده می کند کمک کند تا با GAM آشنا یا راحت باشد. کتاب درسی آنلاین یا فیزیکی خوب است. من به عنوان یک کارآموز به این موضوع نزدیک می‌شوم، بنابراین عملی را به نظری ترجیح می‌دهم، اما مطمئن هستم که پیش‌زمینه‌ای برای هضم یک متن نظری‌تر را دارم، اگر اتفاقاً ارزش خاصی داشته باشد. من هم تقریباً به طور انحصاری از R استفاده می کنم. اگر متون/آموزش‌های R گرا را می‌شناسید واقعاً قدردانی می‌کنیم. ممنون اریک
متن مقدماتی برای GAM
112007
من در حال انجام مطالعه ای بر روی 3 دارو هستم که پاسخ را قبل از درمان مقایسه می کنم. هدف من این است که بدانم آیا این داروها موثر هستند و کدام یک بهتر است. من از آزمون های غیر پارامتری استفاده کردم زیرا نتایج به طور معمول توزیع نشده و غیر قابل تبدیل بودند. دو دارو با تفاوت معنی‌دار در آزمون امضای Wilcoxon مؤثر بودند و داروی سوم تفاوت معنی‌داری نشان نداد. با این حال، هنگام مقایسه پس نتایج با استفاده از آزمون کروسکال-والیس، تفاوت معنی داری مشاهده نشد و پیش نتایج نیز با استفاده از آزمون کروسکال-والیس، تفاوت معنی داری را بین این گروه ها نشان داد. چرا اینطور است؟ آیا تست های اشتباهی را انتخاب کردم؟
چرا از آزمون رتبه امضا شده ویلکاکسون و آزمون کروسکال-والیس نتایج متناقضی دریافت می کنم؟
83439
به نظر من این درست است: **لما**. فرض کنید $\ell(x,\theta)$ یک تابع درستنمایی (به اندازه کافی منظم) است. سپس $$\frac{\partial^2\left(\log \ell(x,\theta)\right)}{\partial \theta \partial x}\ge0$$ معادل ویژگی نسبت درستنمایی یکنواخت است. **اثبات**. (فقط دستکاری نمادین.) زیرنویس های $x$ نشان دهنده مشتق جزئی w.r.t هستند. x$. $$\frac{\partial}{\partial \theta}\left(\frac{\ell_x(x,\theta)}{\ell(x,\theta)}\right) \ge0$$ $$\Updownnarrow $$ $$\forall x,\forall \theta_1 > \theta_0,\intop_{\theta_0}^{\theta_1}\frac{\partial}{\partial \theta}\left(\frac{\ell_x(x,\theta)}{\ell(x,\theta)}\right) \mathrm{d}\theta \ge0$$ $$\Updownarrow$$ $$ \ell_x(x,\theta_1)\ell(x,\theta_0)-\ell_x(x,\theta_0)\ell(x,\theta_1) \ge0$$ $$\Updownarrow$$ $$\frac{\partial}{\partial x}\left(\frac{\ell(x,\theta_1)}{\ell(x,\theta_0)}\right)\ge0 , \mathrm{QED}.$$ با فرض اینکه این درست باشد، تصور می‌کنم کسی قبلاً آن را ثابت کرده است. کسی مرجعی داره؟
ویژگی نسبت احتمال یکنواخت: اثبات من را بررسی کنید. همچنین، چه کسی آن را اول ثابت کرد؟
795
من داده هایی دارم که توسط شخص دیگری گردآوری شده است که در آن میانگین امتیازات در طول زمان محاسبه شده است - میانگین ها بین 0-100 است. نمرات اصلی در بسیاری از موارد دارای مقادیر منفی هستند و میانگین نیز منفی بوده است، میانگین خام از 30- تا 90 متغیر است. این نرمال سازی چگونه انجام می شود؟ با تشکر
عادی سازی سری ها
83386
من برای دوره ای که در حال انجام آن هستم، مطالعه بیشتری انجام داده ام و این را دیدم. کسی میتونه برام توضیح بده لطفا _یک سری زمانی ممکن است چندین الگوی مؤلفه را نشان دهد. رگرسیون با متغیرهای ساختگی چه تفاوتی با رگرسیون با متغیرهای عقب افتاده دارد؟ این 2 رویکرد چگونه با این الگوهای مؤلفه برخورد می کنند؟
متغیرهای ساختگی / عقب مانده و الگوهای مؤلفه در تحلیل رگرسیون
14830
کدام صحیح تر است؟ * فرضیه صفر را بپذیرید؛ یا * فرضیه صفر را رد نکنید آیا واقعاً معنای جداگانه ای وجود دارد که من در اینجا گم کرده ام؟
اصطلاحات آزمون فرضیه در اطراف صفر
112009
من در حال انجام تحقیق در مورد توسعه حق الزحمه حسابرسی در سال 2005-2012 هستم. من می خواهم ببینم آیا روند نزولی یا صعودی در آنها وجود دارد. من یک متغیر شمارش سالها ساخته ام (2005=1 2012=8) و اکنون باید از آن در رگرسیون چندگانه استفاده کنم تا روند کارمزدها را ببینم. می دانم چگونه رگرسیون چندگانه را انجام دهم اما با متغیر count در SPSS چه کار کنم؟ ممنون میشم اگه کسی بتونه در این مورد کمک کنه
شمارش متغیر به عنوان متغیر کنترل در رگرسیون در SPSS
15131
به بیان ساده: آیا تفاوتی در رویکردهای بیزی و مکرر در تحلیل داده های اکتشافی وجود دارد؟ من هیچ سوگیری ذاتی در روش‌های EDA نمی‌دانم زیرا هیستوگرام یک هیستوگرام است، یک نمودار پراکنده یک نمودار پراکنده است، و غیره، و همچنین نمونه‌هایی از تفاوت‌ها در نحوه آموزش یا ارائه EDA (با نادیده گرفتن مقاله نظری خاص توسط A. Gelman) پیدا نکرده‌ام. . در نهایت، من به CRAN نگاه کردم، داور همه چیزها: من بسته های متناسب با رویکرد بیزی را پیدا نکردم. با این حال، من فکر کردم که CV ممکن است چند نفر داشته باشد که می توانند این موضوع را روشن کنند. چرا باید تفاوت هایی وجود داشته باشد؟ برای شروع: 1. هنگام شناسایی توزیع های قبلی مناسب، آیا نباید این موضوع را به صورت بصری بررسی کرد؟ 2. زمانی که داده ها را خلاصه می کنید و پیشنهاد می کنید از یک مدل مکرر یا بیزی استفاده کنید، آیا EDA نباید به کدام سمت بروید؟ 3. این دو رویکرد تفاوت های بسیار واضحی در نحوه رسیدگی به مدل های مخلوط دارند. شناسایی اینکه یک نمونه احتمالاً از ترکیبی از جمعیت ها می آید، چالش برانگیز است و به طور مستقیم با روش مورد استفاده برای تخمین پارامترهای مخلوط مرتبط است. 4. هر دو رویکرد شامل مدل های تصادفی هستند و انتخاب مدل با درک داده ها انجام می شود. داده های پیچیده تر یا مدل های پیچیده تر نیاز به زمان بیشتری در EDA دارند. با چنین تمایزاتی بین مدل‌های تصادفی یا فرآیندهای تولید، تفاوت‌هایی در فعالیت‌های EDA وجود دارد، بنابراین آیا نباید تمایزاتی ناشی از رویکردهای تصادفی مختلف وجود داشته باشد؟ توجه 1: من به فلسفه های هیچ یک از اردوگاه ها توجهی ندارم - من فقط می خواهم به هر شکافی در جعبه ابزار و روش های EDA خود بپردازم.
آیا تفاوت هایی در رویکردهای بیزی و مکرر به EDA وجود دارد؟
80529
من با رگرسیون (خودرگرسیون برداری) تازه کار هستم و اخیراً با مشکل زیر مواجه شدم: 1. اگر از متغیرهای وابسته و مستقل خام برای انجام رگرسیون استفاده کنم، آزمون R^2$، DW-d و خطای استاندارد تخمین برای هر متغیر وابسته بسیار خوب است. $R^2$ بالاتر از $95\%$ است. 2. با این حال، هنگامی که متغیرهای وابسته و مستقل به صفر میانگین و متغیر واحد نرمال می شوند (ستون نرمال شده)، این معیارها بدتر می شوند. $R^2$ از 60\%-90\%$ متغیر است. پس بعد از اینکه داده ها را عادی کردم چه اتفاقی افتاد؟
نرمال کردن به صفر میانگین و واریانس واحد قبل از رگرسیون
798
من علاقه مندم که تا آنجا که می توانم روشی بهینه برای تعیین تعداد سطل در هیستوگرام پیدا کنم. داده‌های من باید حداکثر بین 30 تا 350 شی باشد، و به‌ویژه سعی می‌کنم آستانه‌گذاری را اعمال کنم (مانند روش Otsu) که در آن اشیاء خوب، که باید تعداد کمتری داشته باشم و باید بیشتر پراکنده شوند، از جدا می‌شوند. بد اشیاء، که باید از نظر ارزش متراکم تر باشند. یک مقدار مشخص برای هر شی امتیاز 1-10 دارد. من 5-10 شی با امتیاز 6-10 و 20-25 شی با امتیاز 1-4 داشتم. من می‌خواهم یک الگوی باینینگ هیستوگرام پیدا کنم که به طور کلی به چیزی مانند روش Otsu اجازه می‌دهد تا از اشیاء با امتیاز پایین فاصله بگیرد. با این حال، در اجرای Otsu که من دیدم، اندازه bin 256 بود، و اغلب من نقاط داده بسیار کمتری نسبت به 256 دارم، که به نظر من نشان می دهد که 256 عدد bin خوبی نیست. با داده‌های کم، چه رویکردهایی را باید برای محاسبه تعداد سطل‌های استفاده کنم؟
محاسبه تعداد بهینه bin ها در یک هیستوگرام برای n، که در آن n بین 30-350 است.
83387
من چند توضیح در مورد الگوریتم EM خوانده ام (به عنوان مثال از تشخیص الگوی بیشاپ و یادگیری ماشین و از اولین دوره آموزشی راجر و جرولامی در مورد یادگیری ماشین). اشتقاق EM خوب است، من آن را درک می کنم. من همچنین می‌دانم که چرا الگوریتم چیزی را پوشش می‌دهد: در هر مرحله ما نتیجه را بهبود می‌دهیم و احتمال با 1.0 محدود می‌شود، بنابراین با استفاده از یک واقعیت ساده (اگر تابعی افزایش یابد و محدود شود سپس همگرا شود) می‌دانیم که الگوریتم به همگرا می‌شود. برخی راه حل با این حال، چگونه بفهمیم که حداقل محلی است؟ در هر مرحله ما فقط یک مختصات را در نظر می گیریم (متغیر پنهان یا پارامتر)، بنابراین ممکن است چیزی را از دست بدهیم، مانند اینکه حداقل محلی نیاز به حرکت همزمان توسط هر دو مختصات دارد. من معتقدم این مشکل مشابه کلاس کلی الگوریتم های تپه نوردی است که EM نمونه ای از آن است. بنابراین برای یک الگوریتم کلی تپه نوردی، این مشکل را برای تابع f(x,y) = x*y داریم. اگر از نقطه (0، 0) شروع کنیم، تنها با در نظر گرفتن هر دو جهت به طور همزمان می توانیم از مقدار 0 به سمت بالا حرکت کنیم.
چرا الگوریتم حداکثرسازی انتظارات تضمین شده است که به حداقل، حتی محلی همگرا شود؟
100800
به عنوان یک مبتدی در یادگیری ماشینی (ML) و هوش مصنوعی (AI)، من اینجا هستم تا برخی از نشانگرهای الگوریتم کلی را در مورد سوال زیر بپرسم، که آن را به یک سوال بسیار عمومی ساده کرده ام. من یک مدل $M$ دارم که با چند پارامتر $p_1, p_2, \dots,p_n$ تعریف شده است. اکنون می‌خواهم $M$ را بهینه کنم، به عنوان مثال، با تنظیم کردن $p_1، p_2، \dots،p_n$، یک مقدار دارایی $M$ را به حداکثر برسانم. من به دنبال الگوریتم‌هایی هستم که در طول مسیر خوب و بد را «یاد بگیرند» و در پایان راه‌حل بهینه را پیدا کنند. یکی از الگوریتم های مشابه در ذهن من الگوریتم ژنتیک در هوش مصنوعی است، اما به دلایلی نمی توانم از آن استفاده کنم. بنابراین من اینجا هستم تا برخی از نشانگرهای الگوریتم را در ML دریافت کنم، امیدوارم.
ML و AI - توصیه الگوریتم برای بهینه سازی با تنظیم پارامترها؟
83381
بگویید من یک رگرسیون خطی ساده با مقادیر مشاهده شده y _y = a + bx_ دارم، سپس 1000 شبیه سازی دارم که به وسیله آنها _y_ را به طور تصادفی ایجاد کردم. (مساله تغییر _y_ نیست، من _y_ را از طریق یک مدل جداگانه تولید کردم.) برای هر شبیه سازی، تخمین مستقلی از _b_ دارم. هدف من این است که آزمایش کنم آیا برآورد واقعی من برای _b_ با _b's_ شبیه سازی شده من متفاوت است یا خیر. به طور معمول، من آزمایش می‌کنم که آیا _b_ در بازه اطمینان 95 درصدی 1000 _b's_ شبیه‌سازی شده قرار می‌گیرد یا خیر. با این حال، هر برآورد _b_ خطای استاندارد خود را دارد. چگونه این را در نظر بگیرم؟ من یک نشریه دیدم که تعداد شبیه‌سازی‌هایی را که دارای _b_ +/i 95% CI هستند که با 95% CI از _b_ از داده‌های مشاهده‌شده همپوشانی دارد، ارائه می‌کرد. آیا این روش استاندارد ارائه نتایج است؟ همچنین، اگر بخواهم نتایج (رابطه x-y) را به صورت گرافیکی نشان دهم چه می شود؟ از چه چیزی برای فاصله اطمینان 95 درصد شیب شبیه سازی ها استفاده کنم؟ متشکرم
مقایسه داده های شبیه سازی شده و واقعی
15130
من یک سوال در مورد تست های زوجی و غیر زوجی دارم. من تفاوت بین هر دو آزمون را می دانم. من از R برای تست Wilcoxon استفاده می کنم. تست من یک تست زوجی است، اما X و Y طول یکسانی ندارند و R خطا می دهد. نمی‌خواهم/فکر می‌کنم باید از تست بدون جفت استفاده کنم. مثلا من سوژه ای دارم که هر ساعت یک عدد کوکی درست می کند. من از نوعی درمان خاص برای افزایش استقامت استفاده می کنم. قبل از درمان او فقط می تواند 4 ساعت کار کند (بعد از روز خسته می شود) و مقداری کلوچه تولید می کند. بعد از درمان در هر ساعت کوکی های بیشتری تولید می کند و 7 ساعت بدون خستگی کار می کند. X شامل تعداد یا کوکی ها برای هر ساعت قبل از درمان و Y حاوی تعداد کوکی های بعد از درمان است. X شامل 4 مقدار و Y شامل 7 مقدار است. حالا اگر بخواهم از Paired Test استفاده کنم، R خطا می دهد. چه کار کنم؟ آیا راه حل یا توضیحی برای چنین شرایطی وجود دارد؟ آیا می توانم فقط NA NA را اضافه کنم؟ **این فقط یک مثال است لطفا به اشتباه در مثال اشاره نکنید، فقط برای مثال زدن است.** ممنون. ## EDIT اینجا اسکریپت R اصلی است که من از someData استفاده می کنم <- read.csv(file=cookie_data.csv,head=TRUE,sep=,) wilcox.test(someData$X, someData$Y, paired= درست) داده های نمونه: X,Y 2,3 3,2 3,3 2,2,3,7,2 وقتی از این اسکریپت استفاده می کنم، R این کار را انجام می دهد هیچ خطایی نده با این حال، هنگامی که من مقداری ازData$X را چاپ می کنم، 4 مقدار را چاپ می کند و پس از آن شروع به نوشتن NA NA NA می کند. متوجه شدم R به طور خودکار مقادیر خالی را با NA پر می کند. این اسکریپت به من مقدار p می دهد اما نمی دانم درست است یا نه.
چگونه می توان یک تست زوجی انجام داد در حالی که برخی از موارد جفت ندارند؟
790
من به یک مقاله علمی نگاه می کنم که در آن یک اندازه گیری منفرد با استفاده از میانگین لگاریتمی محاسبه می شود > 'نقاط سه گانه برای تولید یک سیگنال با گرفتن > میانگین لگاریتمی نقاط قابل اطمینان ترکیب شدند' **چرا میانگین لگاریتمی را انتخاب کنید؟** آیا نویسندگان فرضی در مورد توزیع اساسی دارند؟ این چیزی است که ... ورود به سیستم عادی؟ آیا آنها چیزی را انتخاب کرده اند که فکر می کنند معقول است ... یعنی بین میانگین و میانگین هندسی؟ هر فکری؟
چرا (یا چه زمانی) از log-mean استفاده کنیم؟
83383
من داده‌های فروش دارم که اوج فروش بالایی را در ماه دسامبر به دست آورده‌ام، که من آن‌ها را به‌گونه‌ای غیرفصلی‌کردم که هیچ قله‌ای وجود نداشته باشد. سپس روش Holt-Winter را نیز در فروش به کار بردم. سپس داده‌های فروش غیرفصلی را با نتایج Holt - Winter با در نظر گرفتن میانگین بین این دو ترکیب کردم. اوج‌ها همانطور که انتظار می‌رفت به من مقادیر کوچک‌تری نسبت به واقعیات قبلی‌ام برای آن دوره‌ها می‌دهند، اما من در مورد آن خیلی اذیت نمی‌شوم زیرا در جایی که به دلیل کمبود موجودی، افت زیادی در فروش دارم، پیش‌بینی‌های خوبی دریافت می‌کنم که شکاف‌های فروش را برطرف می‌کند. این چیزی است که من به دنبال آن هستم و قله ها با بالاترین ارزش تاریخ برای آن نقطه جایگزین خواهند شد. اما می خواهم بدانم آیا این روش روشی مناسب برای انجام پیش بینی است؟ آیا روش من مشکلی دارد یا کسی در گذشته کاری مشابه انجام داده است. به عبارت دیگر داده های فروش تجزیه شده را با داده های فروش تجزیه نشده ترکیب کنید.
از فروش غیرفصلی استفاده کنید و آن را با روش پیش بینی دیگری برای پیش بینی فروش ترکیب کنید
77934
آیا مرجعی می شناسید (به صورت رایگان در وب موجود است) که در آن تست نسبت درستنمایی برای آزمایش ویژگی مارکوف اعمال شود؟ تنظیم یک زنجیره مارکوف گسسته قابل مشاهده مستقیم با ماتریس های انتقال داده شده است. کاربرد بتن مدلی برای انتقال رتبه اعتباری است. برخی از آزمون‌های آماری در این مقاله ویژگی‌های سری زمانی یک سیستم رتبه‌بندی بر اساس نسبت‌های مالی اعمال شده‌اند، اما جزئیات بسیار کمی وجود دارد. ارزیابی اموال مارکوف توسط فرانک بیکنباخ و اکهارت بود نمونه ای برای آزمایش اموال مارکوف است اما پشت دیوار پرداخت است. ویرایش: آزمون عینی این است: فرضیه صفر: انتقال رتبه‌بندی به توزیع‌های رتبه‌بندی گذشته بستگی ندارد. فرضیه جایگزین: انتقال رتبه‌بندی به توزیع‌های رتبه‌بندی گذشته (به معنای زنجیره مارکوف مرتبه اول) بستگی دارد.
استفاده از آزمون نسبت درستنمایی برای آزمایش ویژگی مارکوف
77930
اجازه دهید $B(t)$ یک حرکت براونی باشد. نشان دهید که فرآیندهای زیر حرکات براونی روی $[0,T]$ 1) $X(t)=-B(t)$ هستند. 2) $X(t)=B(T-t)-B(T)$، که در آن $T\lt \infty$; 3) $X(t)=cB\left(\frac{t}{c^2}\right)$; 4) $X(t)=tB(\frac{1}{t})$, $t>0$ ,$X(0)=0$. با تشکر برای کمک.
من می خواهم برخی از ویژگی های حرکت براونی را نشان دهم
86876
ما در تلاش هستیم تا یک مخزن داده برای ذخیره مجموعه داده ها از منابع مختلف طراحی کنیم، به گونه ای که بتوان آنها را به راحتی در ارائه داده های آنلاین استفاده کرد. این مخزن داده بخشی از وب سایتی خواهد بود که گزارش ها و داده های علمی در مورد سلامت عمومی را بررسی، تفسیر و بحث می کند. هدف آن دانشمندان، کارشناسان پزشکی و سیاست گذاران است. یکی از جنبه های برجسته سایت، تجسم داده ها خواهد بود: نمودارها و نقشه ها. داده های مورد استفاده در تجسم ها باید به صورت جدولی ارائه شوند و همچنین برای دانلود در دسترس باشند. ما در نظر داریم از یک کتابخانه جاوا اسکریپت برای نمودارها استفاده کنیم، احتمالا نمودارهای بالا. نقشه ها احتمالاً عمدتاً تصاویری با ناحیه کلیک هستند، اما برخی از ابزارهای سایت سرور ممکن است برای نقشه های خاص استفاده شوند. داده‌هایی که ما استفاده می‌کنیم، از سازمان‌های دیگر، در قالب داده‌های پایگاه داده و فایل‌های ASCII جمع‌آوری می‌شوند، یا گاهی اوقات به سادگی از مطالعات علمی کپی می‌شوند. ما در نظر داریم در آینده به منابع داده باز پیوند دهیم. پیش از این، ما یک مدل داده عمومی ایجاد کرده‌ایم که در آن هر مجموعه داده در قالب یکسان ذخیره می‌شد: یک مجموعه داده به یک متغیر مرتبط بود و برای هر اندازه‌گیری ابعاد زیر در دسترس بود: دوره، منطقه، سن، جنس و اجتماعی اقتصادی. وضعیت، همه آنها به صورت اختیاری در یک مجموعه داده وجود دارد. در نهایت، اندازه گیری ها به عنوان اعداد ممیز شناور ذخیره شدند. به عنوان مثال، مرگ و میر ناشی از بیماری های عروق کرونر قلب را در نظر بگیرید. یک رکورد در مجموعه داده، تعداد مطلق مرگ و میر در سال 2014 برای مردان هلندی در گروه سنی 65 تا 75 سال خواهد بود. داده های متا که مجموعه کامل، مقادیر دامنه خاصی از یک دامنه یا رکوردهای فردی را توصیف می کند، پشتیبانی می شود. مقادیر دامنه، مانند 2011، male و 65-75 بین مجموعه داده ها به اشتراک گذاشته شد. این امکان جستجو در میان مجموعه داده‌ها را فراهم کرد و تا حدی ترکیب مجموعه‌های داده‌های مختلف را در یک تجسم تسهیل کرد. با این حال، این مدل داده به آماده‌سازی گسترده داده‌ها قبل از وارد شدن نیاز داشت، از جمله تغییر محور و نگاشت مقادیر دامنه. جنبه دیگر نسخه سازی مجموعه داده ها بود. در برخی موارد، باید از جدیدترین داده های موجود استفاده شود، در موارد دیگر، باید از یک مجموعه ثابت استفاده شود، حتی اگر داده های جدیدتری در مخزن بارگذاری شود. در آن صورت، هر تصویرسازی به یک نسخه خاص مرتبط است. این نسخه تنها در صورتی ارتقا می یابد که متن همراه با تجسم بازبینی و به روز شود. نمودار روندی را تصور کنید که در آن سال های اخیر روند جدیدی را نشان می دهد. این داده‌های جدیدتر فقط زمانی نشان داده می‌شوند که ویرایشگر آن روند را تحلیل کرده باشد. بنابراین، این موضوع خیلی مربوط به مجموعه داده های بزرگ نیست، بلکه بیشتر مربوط به تعداد زیادی مجموعه داده های متنوع است. ویژگی ها: * وجود اقدامات مختلف. گاهی اوقات، بیش از یک معیار وجود داشت، به عنوان مثال یک عدد مطلق و همچنین یک درصد یا یک نرخ استاندارد یا فواصل محرمانه. * سطوح مختلف تجمع در ابعاد: سال، ماه، روز. گروه‌های سنی 5 ساله یا 0-65/65+ و غیره. باید بتوان این موارد را در ارائه های جدولی با نمادهای پاورقی که به توضیحات مرتبط هستند نشان داد. * نسخه سازی مجموعه داده ها، که در آن نسخه های جدیدتر مقادیر را حذف، تصحیح و/یا اضافه می کنند. * تجمع ممکن است بی اهمیت باشد یا نباشد. برای اعداد مطلق، تجمیع یک جمع است. این به راحتی انجام می شود و پشتیبانی خواهد شد. برای نرخ های استاندارد، تجمیع پیچیده و خارج از محدوده مخزن است. در چنین حالتی، مجموع از پیش تجمیع‌شده باید به مجموعه داده اضافه شود تا بتوان حاشیه‌ها را در ارائه‌های جداول متقابل نشان داد. این مجموع باید از اعداد پایه قابل تشخیص باشد، زیرا باید امکان حذف آنها از تجسم وجود داشته باشد. نمودار میله‌ای پشته‌ای را در طول سال‌ها تصور کنید که در آن مجموعه‌ها گروه‌های سنی هستند. کل در تمام سنین نباید در نوارهای انباشته گنجانده شود. * ما باید بتوانیم داده های استفاده شده در ارائه ها را به منبع اصلی ردیابی کنیم تا بتوانیم توضیح دهیم که از کجا آمده اند. بنابراین در حالت ایده آل، در هیچ کجای جریان کار، داده ها نباید کپی و پیست شوند و یا به صورت دستی ویرایش شوند. در بالای مخزن داده، یک سازنده ارائه وجود خواهد داشت. این آهنگساز باید بتواند از مخزن پرس و جو کند. این پرسش‌ها باید در حالت ایده‌آل از انتخاب‌هایی که ویرایشگر انجام می‌دهد ایجاد شوند: فیلتر کردن، انتخاب ابعاد به‌عنوان محور x، سری و غیره. پیوند دادن به نسخه جدیدتر مجموعه داده‌ها باید بدون تعریف مجدد کامل ارائه پشتیبانی شود. در این مرحله، ما در نظر داریم از مجموعه‌های داده بزرگ‌تر با یک مدل داده اختصاصی، و نوعی آداپتور برای سازنده ارائه پشتیبانی کنیم، عمدتاً برای جلوگیری از مشکلات مختلف در واردات مجموعه‌های داده در یک مدل عمومی. آیا کسی این سناریو را می شناسد و پیشنهاداتی در مورد بهترین شیوه ها یا شاید حتی یک راه حل خارج از جعبه دارد؟
آیا پیشنهادی برای ذخیره مجموعه داده های متنوع برای تجسم آنلاین دارید؟
71577
من سعی می‌کنم اشتقاق **logit/probit** را که توسط فینی معرفی شده است، با استفاده از داده‌های نمونه از http://dge.stanford.edu/SCOPE/SCOPE_12/SCOPE_12.html، فصل 6 پیاده‌سازی کنم (این لینک به یک فایل pdf است. صفحه 130، جدول 6.3. نتایج مشابه هستند اما یکسان نیستند. فینی LD50 = 4.85 را محاسبه کرد. این کد منبع و خروجی برنامه R من است: # Finney, 1952 dosis <- c(2.6,3.8,5.1,7.7,10.2) nges <- c(50,48,46,49,50) nok <- c (6،16،24،42،44) edx <- تابع (دوز=NA، nges=NA، nok=NA، lk='logit') { require(MASS) # weights w طبق Finney 1952: p <- nok/nges q <- 1-p w <- nges*p*q # logit/probit model edx.data <- data. فریم (دوز، نگس، نوک) glm.logit <- glm(cbind(nok،nges-nok) ~ dosis، family=binomial(lk), data=edx.data, weights=w) # محاسبه داده EDx r <- dose.p(glm.logit,p=seq(0.1,0.9,0.2)) # خلاصه آماری d <- data.frame(x=c(NA,NA,NA,NA)) نام ردیف (d) <- c('Deg. آزادی'، 'انحراف'، '1-chi.square'، 'تفاوت قابل توجه بین برازش ها و مشاهدات') d$x[1] <- df.residual(glm.logit) d$x[2] <- انحراف( glm.logit) d$x[3] <- 1-pchisq(d$x[2],d$x[1]) d$x[4] <- ifelse(d$x[3]>0.05,'No','Yes') # چاپ جداول داده print(edx.data) writeLines('') print(r) writeLines('') print(d) return( glm.logit) } g <- edx(dosis=dosis، nges=nges، nok=nok، lk='logit') خروجی عددی به شرح زیر است: dosis nges nok 1 2.6 50 6 2 3.8 48 16 3 5.1 46 24 4 7.7 49 42 5 10.2 50 44 Dose SE p = 0.1: 1.171955 0.22512512 = 0.22512512 p 0.12064635 p = 0.5: 5.148754 0.09792762 p = 0.7: 6.682294 0.13521132 p = 0.9: 9.125553 0.24565236 x درجه. آزادی 3 انحراف 33.3237083095658 1-chi.square 2.75205023214653e-07 تفاوت معنی داری بین برازش ها و مشاهدات بله بنابراین، LD50 طبق این برنامه R برابر با 149/5 خواهد بود (در مقابل 4.85 محاسبه شده توسط F.85). اینجا چه اشکالی دارد؟ برای هر کمکی از شما بسیار متشکرم!
محاسبه مدل های log-logit یا log-probit با توجه به Finney با استفاده از R
27827
من اغلب با داده های نظرسنجی کثیف سروکار دارم که قبل از انجام هر گونه آماری نیاز به پاکسازی زیادی دارد. من قبلاً این کار را به صورت دستی در اکسل انجام می دادم، گاهی اوقات با استفاده از فرمول های اکسل، و گاهی اوقات ورودی ها را یک به یک بررسی می کردم. من شروع به انجام بیشتر و بیشتر از این کارها با نوشتن اسکریپت هایی برای انجام آنها در R کردم که بسیار سودمند بود (مزایای آن شامل داشتن سابقه کارهای انجام شده، احتمال کمتر اشتباه و امکان استفاده مجدد از کد در صورت داده ها است. مجموعه به روز می شود). اما هنوز هم انواعی از داده ها وجود دارد که من در مدیریت کارآمد آنها مشکل دارم. برای مثال: > d <- data.frame(موضوع = c(1,2,3,4,5,6,7,8,9,10,11), + hours.per.day = c(1 ، 2 ساعت، 2 ساعت، 2 ساعت، 3 ساعت، 1-2، 15 دقیقه، 30 دقیقه، چند ساعت، 1 ساعت و 30 دقیقه، 1 ساعت در هفته)) > د ساعت موضوع در روز 1 1 1 2 2 2 ساعت 3 3 2 ساعت 4 4 2 ساعت 5 5 3 ساعت 6 6 1-2 7 7 15 دقیقه 8 8 30 دقیقه 9 9 چند ساعت 10 10 1 ساعت 30 دقیقه 11 11 1 ساعت در هفته «hours.per.day» میانگین است تعداد ساعت‌هایی که در روز صرف یک فعالیت خاص می‌شود، اما آنچه ما داریم دقیقاً همان چیزی است که موضوع نوشته شده است. فرض کنید من تصمیم می‌گیرم که با پاسخ‌های مبهم چه کار کنم، و متغیر مرتب «hours.per.day2» را به صورت زیر می‌خواهم. ساعت موضوعی.در روز ساعت.در روز2 1 1 1 1.0000000 2 2 2 ساعت 2.0000000 3 3 2 ساعت 2.0000000 4 4 2hr 2.0000000 5 5 3 ساعت 3.0000000 3.0000000 7 7 15 دقیقه 0.2500000 8 8 30 دقیقه 0.5000000 9 9 چند ساعت 1000) و با علم به اینکه آزمودنی ها آزادند هر چیزی را که دوست دارند بنویسند، بهترین راه برای نزدیک شدن به این موضوع چیست؟
چگونه می توانم داده ها را با فرمت ناسازگار در R پاک کنم؟
78119
من 10 iid r.v دارم. با توزیع برنولی با $X_{i} = 1$ برای نتیجه مثبت. به من $\sum_{i=1}^{10} X_i= 1$ داده شده است و باید یک فاصله اطمینان 99٪ دو طرفه برای $\theta$ پیدا کنم. بنابراین $\alpha = 0.01$ و $z_{\alpha/2} = 2.575$ بر اساس توزیع نرمال استاندارد. واریانس $\sigma^{2} = \hat{\theta}(1-\hat{\theta})$ داده می شود، با $\theta = 1/10$ از اطلاعات داده شده. فاصله اطمینان این است: $$ \left(\hat{\theta} - z_{\alpha/2}\frac{\sigma}{\sqrt{n}}، \hat{\theta} + z_{\alpha/ 2}\frac{\sigma}{\sqrt{n}}\right) $$ بنابراین فاصله اطمینان من $(-0.143، 0.343)$ است. آیا من جایی در محاسبه به هم ریخته ام؟ من مطمئن نیستم که این فاصله اطمینان به من چه می گوید... شاید حجم نمونه خیلی کوچک است که واقعاً نمی توان اطلاعات مفیدی در مورد $\theta$ بدست آورد؟
فاصله اطمینان با نقطه پایان منفی به چه معناست؟
83438
هنگام مطالعه بخش تحلیل مداخله سری های زمانی، یک سوال در رابطه با توضیحات زیر دارم. نمودار زیر چندین الگوی پاسخ را برای تابع مرحله $S_t^T$ و تابع پالس $P_t^T$ تعریف می کند. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0ti2n.png) تابع step و تابع پالس به صورت ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur) .com/dEq0B.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pI0vb.png) با توجه به الگوهای بالا، عملکرد فرم (13.1.4) در نمودار زیر ادعا شده است که معادل آن (در نمودار زیر با رنگ زرد مشخص شده است). به همین ترتیب، معادله (13.1.5) معادل معادله دیگری است که با رنگ زرد مشخص شده است. من نمی دانم چگونه این رابطه معادل را استخراج کنم. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Fky7K.png)
یک سوال در مورد مدل سازی انتقال برای تجزیه و تحلیل مداخله داده های سری زمانی
82316
من مطمئن نیستم که عنوان مناسب برای سوال من چیست، بنابراین آماده پیشنهاد/اصلاح هستم. حالا سوال: * من یک سری روزانه $X_t, t=1,...,T$ نیز سری $Y_t, t=1,...,T$ مشاهده کردم. * هدف من استفاده از $X$ برای پیش بینی $Y$ در آینده است. به طور خاص، من $X_t، t=T+k،...،T+K$ را مشاهده می کنم که در آن $k$ می تواند بزرگ باشد. من دیگر $Y_t$ را مشاهده نخواهم کرد. اما من می خواهم آن را تخمین بزنم. * بنابراین من یک رگرسیون را با خطای ARIMA با استفاده از $(X,Y)_t,t=1,...,T$ برازش کردم. (این با استفاده از بسته پیش بینی انجام می شود.) * سوال این است، (الف) از آنجایی که داده های جدید تا مدتی بعد ارائه نمی شوند ($k$ بزرگ است)، آیا هیچ پیش بینی هنوز معتبر است؟ (ب) حتی اگر معتبر باشد، چگونه می توانم پیش بینی کنم؟ آیا از $t=T+1$ شروع کنم و به سمت $t=T+k$ بروم؟ این ناکارآمد به نظر می رسد زیرا من به $t=T+1،...،T+k$ اهمیتی نمی دهم. علاوه بر این، این واقعاً ممکن نیست زیرا $X$ در طول آن دوره شکاف مشاهده نمی‌شود. (فکر می‌کنم می‌توان استدلال کرد که شما می‌توانید X$$ را با استفاده از مدل دیگری برای پر کردن شکاف پیش‌بینی کنید، اما این هنوز هم مشکل را حل نمی‌کند. که پیش‌بینی چیزهایی است که من به آنها اهمیت نمی‌دهم، چه رسد به بخش (الف) سؤال من) بنابراین، چه باید بکنم؟ P.S. اطلاعات اضافی می توانیم فرض کنیم که $T$ آنقدر بزرگ است که هر دوره را چندین بار پوشش دهد.
مدل پیش‌بینی اکنون توسعه یافته است، اما فقط بعداً استفاده می‌شود، آیا هنوز معتبر است؟
83382
من می خواهم اهمیت یک پیش بینی کننده خاص مورد علاقه را در یک رگرسیون دریافت کنم. نمونه داده IID نیست. نمونه شامل دو نمونه فرعی است. جفت دوقلو و تک قلو. بنابراین برای به دست آوردن یک تخمین قوی از اهمیت، می توانم به دو روش برای نمونه فکر کنم. (1) نمونه یکی از هر جفت دوقلو را با تمام تک قلوها ترکیب کنید، (2) نمونه یکی از هر جفت دوقلو را با نمونه گیری از تک قلوها با جایگزینی ترکیب کنید. کدام راه مناسب تر است؟ یا راه مناسب تری وجود دارد؟ من هم روی داده‌هایم امتحان کردم و هم آمار F آنووا را بین مدل‌های دارای پیش‌بینی‌کننده علاقه و بدون آن (تکرار 1000 بار) ثبت کردم. هیستوگرام (1) طبیعی تر به نظر می رسد و هیستوگرام (2) دارای انحراف مثبت است. یک آزمون F بر روی میانگین آماره F البته منجر به (2) می شود که یک آماره F بالاتر و در نتیجه مقدار P کمتری ارائه می دهد. این ممکن است یک سوال ساده لوحانه باشد، اما من از پیوندهایی به ادبیات آمار قدردانی می کنم.
بوت استرپ یک نمونه با فرآیند تولیدی مختلط
78118
در یک دوره آزاد، میانگین مربع با استفاده از متغیر عامل توضیح داده شد. فرض کنید مدل خطی شما y = b0 + b1*I{x == A} + b2*I{x == B} است که در آن A، B متغیرهای فاکتور هستند. به نظر می رسد میانگین مربع b1 = Mean{(y - Mean(y))^2 | x==A} / Mean{(y - Mean(y))^2} که به این معنی است: انحراف بین طبقاتی / انحراف همه اما برای متغیرهای کمی، معنی Mean Sq چیست؟ امیدوارم سوال رو واضح توضیح داده باشم...
منظور از Mean Sq برای متغیرهای کمی در AOV چیست؟
80227
من یک انحراف معیار محاسبه شده، میانگین و تعداد عناصر در لیست دارم. برای هر ورودی عددی جدید به فهرست، باید انحراف استاندارد جدید را با استفاده از داده های ورودی قدیمی و جدید محاسبه کنم. من نحوه انجام کار را در کاغذ گیر کرده ام، بنابراین پیاده سازی کد من نیز انجام می شود. چگونه می توانم انحراف استاندارد جدید را پس از انجام ورودی جدید فرموله کنم؟ آنچه من دارم؛ * میانگین فعلی * std فعلی * # عناصر در لیست شبه کد. برای هر داده جدید، x1 انحراف std جدید را برمی گرداند
چگونه می توان انحراف استاندارد جدید را برای داده های جدید از داده های قدیمی پیدا کرد؟
82311
فرض کنید پایگاه داده‌های $A$ و $B$، و جمعیتی از کاربران $\left\\{u_1,\ldots,u_n\right\\}$ دارید. شما در حال ساخت یک نمودار شبکه اجتماعی $\left\\{u_1,\ldots,u_n\right\\}$ هستید. از پایگاه داده A، یک ویژگی وزن لبه $a(i,j)$ دریافت می کنید که کاربر $i$ را به کاربر $j$ متصل می کند. از پایگاه داده B، وزن لبه مشابه $b(i,j)$ را دریافت می کنید. شما می خواهید یک شبکه واحد بسازید که همه این داده ها را در خود جای دهد. من می توانم به چند راه برای انجام این کار فکر کنم. 1. یال های $a$ و $b$ را جداگانه رفتار کنید، یک مولتی گراف بسازید... 2. دو وزنه یال را به نحوی با هم ترکیب کنید. فرض کنید وزن لبه‌های $e(i,j) = a(i,j) + \alpha b(i,j)$ را تعریف می‌کنید و $\alpha$ یک پارامتر است. من بیشتر به روش $2$ علاقه مند هستم، اما این امکان را در نظر بگیرید که $1$ می تواند به خوبی کار کند. آیا راهی برای بهینه سازی انتخاب $\alpha$ وجود دارد؟ یک ایده می تواند این باشد: یک زیرمجموعه کوچک از لبه ها را بردارید، و سپس سعی کنید مکان آنها را پیش بینی کنید (مثلاً با استفاده از رویکرد خوشه بندی/مثلث)، یا برازش یک مقدار احتمال در جایی که لبه های حذف شده هستند.
چگونه می توانید یک شبکه اجتماعی را به صورت تجربی از چندین منبع داده بسازید؟
15139
> نخ آینه ای در Mathoverflow. (من با فرآیندهای پواسون تازه کار هستم، بنابراین اگر اصطلاحات من نادرست است، لطفاً ویرایش کنید.) این یک مورد خاص از مشکلی است که من روی آن کار می کنم. به امید شهودی که به فرآیند پواسون چند بعدی تعمیم یابد. زمینه تقریبی توزیعی است که توسط $\arg\min$ یک فرآیند (غیر پواسون) در قضیه 1 این مقاله تعریف شده است. **تنظیم**: یک فرآیند پواسون در $[0,\infty)$، با نقاط $\\{ \Gamma_k\\}_{k=1}^\infty$, $\Gamma_k=E_1+\cdots+ در نظر بگیرید E_k$، $E_i\stackrel{iid}{\sim}\rm{نمایی}(1)$. $u=\inf\\{t:1\le\sum_{k=1}^\infty \mathbb 1(\Gamma_k\le t)\\}$ را در نظر بگیرید، که $1(\cdot)$ تابع نشانگر است. (اگر درست یک، اگر نادرست صفر باشد). در این مورد خاص، $u=\Gamma_1=E_1$، و بنابراین $u\sim\rm{Exp}(1)$. ما یک راه حل شکل بسته برای $u$ داریم، و دو لحظه اول (مرکزی) $\mathbb E(u)=1$ و $\rm{Var}(u)=1$ هستند. **سوال**: آیا می توانیم $\mathbb E(u)=1$ و $\rm{Var}(u)=1$ _بدون_ را با استفاده از شکل بسته $u$ استخراج کنیم؟ (در مشکل کلی من، هیچ فرم بسته ای وجود ندارد.) بنابراین ما می دانیم $u=\inf\\{t:1\le\sum_{k=1}^\infty \mathbb 1(\Gamma_k\le t)\ \}$، اما نمی‌توانیم فقط از $u=\Gamma_1$ برای محاسبه لحظه‌ها استفاده کنیم. **یادداشت ها/افکارها**: به عنوان یادآوری، میانگین اندازه گیری فرآیند پواسون در نظر گرفته شده $m(A)=\lambda(A)$ است، که در آن $\lambda$ اندازه گیری Lebesgue است (به عنوان مثال، $\lambda([ a,b])=b-a$; این بدان معنی است که تعداد نقاط مورد انتظار در هر بازه ای برابر با طول بازه است. همچنین، احتمال وقوع یک رویداد در $[t,t+dt]$$dt$ است زیرا نرخ در اینجا یک است. همچنین به طور بالقوه مفید است: معیار شمارش تصادفی $\hat N(t)=\sum_{k=1}^\infty 1(\Gamma_k\le t)$ را تعریف کنید. سپس، $\mathbb E(\hat N(t))=\lambda([0,t])=t$، و $u=\inf\\{t:1\le \hat N(t)\\ }$. برای اولین لحظه، متوجه شدم که در این مورد، $\inf\\{t:1\le \mathbb E(\hat N(t))\\}=\inf\\{t:1\le t\ \}=1=\mathbb E(u)$. یعنی حل $u$ پس از وصل کردن میانگین اندازه‌گیری، اتفاقاً میانگین $u$ را به دست می‌دهد. این به نظر من به‌عنوان _not_ به طور کلی درست بود: $\mathbb E(u(X))\ne u(\mathbb E(X))$. اما ممکن است برخی از ویژگی‌های فرآیند پواسون و/یا خصوصیات $u$ به این معنی باشد که $u$ یک تابع «خطی» فرآیند است، بنابراین این _is_ به طور کلی در اینجا صادق است؟ برای لحظه دوم هیچ پیشرفتی نداشتم. سعی کردم به انتظار $\mathbb E\left[(u-\mathbb E(u))^2\right]=\mathbb E[(u-1)^2]$ فکر کنم، اما نمی‌دانم چگونه می‌توانم بدون تقلب آن را دریافت کنید همچنین تعجب کردم که آیا واریانس فرآیند وجود دارد، اگر رویکرد پلاگین برای لحظه اول معتبر باشد. اما اساسا گیر کرده است. در آخر، $\rm{Var}(u)$ یا $\mathbb E(u^2)$ کافی است، زیرا $\rm{Var}(u)=\mathbb E(u^2)-(\ mathbb E(u))^2$.
لحظات عملکرد فرآیند پواسون
31765
من آزمایشی را برای مطالعه اثرات مشترک سختی و قلیاییت (متغیرهای مستقل، IV) بر تولید مثل (تعداد فرزندان، متغیر وابسته، DV) کک‌های آبی انجام دادم، اما مطمئن نیستم که چه آزمون آماری برای تجزیه و تحلیل داده‌ها مناسب است. اول، من مطمئن نیستم که آیا هر دو IV مستقل هستند یا خیر. آنها اغلب در آبهای طبیعی همبستگی دارند، بنابراین من آنها را در آزمایشاتم خود همبسته نگه داشتم (همبستگی مثبتی دارند). با این حال، من آنها را به طور مستقل دستکاری کردم (با افزودن نمک های مختلف به آب). ممکن است بگویم آنها مستقل هستند اما خود همبسته هستند؟! پس آیا آنها واقعاً مستقل هستند؟ سوال دوم: چگونه داده ها را تجزیه و تحلیل کنیم؟ طراحی فاکتوریل نیست: من 4 سطح سختی، 4 سطح قلیائیت را آزمایش کردم (این 16 آب می دهد، اما من فقط 10 آب را آزمایش کردم). از نظر گرافیکی، داده ها برهمکنش بین سختی و قلیائیت را در تولید مثل موجودات نشان می دهد، اما من نمی توانم آن را آزمایش کنم. با فرض برآورده شدن مفروضات ANOVA، آیا می توانم از ANOVA استفاده کنم؟ من ابتدا به انجام ANOVA به دنبال روش GLM و استفاده همزمان از سطح سختی و سطح قلیایی به عنوان فاکتورهای ثابت فکر کردم (اگرچه در نتیجه تکنیک اندازه گیری تا حدودی متفاوت هستند). اما به من گفته شد که ANOVA (GLM) را برای سطح سختی و به طور جداگانه برای سطح قلیایی انجام دهم، اما دلیل آن را نمی‌دانم. به هر حال، چگونه باید داده ها را تجزیه و تحلیل کنم؟
استقلال متغیرها و ANOVA
82314
من یک مدل 2SLS اجرا کردم. مقدار $\chi^2$ در جدول خروجی به ما چه می گوید؟ همچنین، هنگام آزمایش درون زایی تحت $H_0$: متغیرها برونزا هستند Durbin $p=.25$ Hausman $p=.34$ چگونه می توان اینها را تفسیر کرد؟
تحلیل مدل حداقل مربعات دو مرحله ای
34044
در یک مطالعه مشترک، ارزیابی بیش از 6 ویژگی محصول در یک زمان برای پاسخ دهندگان دشوار است. اغلب این از طریق استفاده از تجزیه و تحلیل پیوسته تطبیقی ​​(ACA) حل می شود، که در آن پرسشنامه برای هر پاسخگوی فردی در حین انجام نظرسنجی اصلاح می شود. در ACA، نیازی به نمایش مشخصات کامل - یعنی تمام ویژگی‌ها - هر محصول نیست. پروفایل های جزئی نشان داده شده است. یک مطالعه می تواند حداکثر 30 ویژگی را شامل شود، اما هرگز از پاسخ دهندگان خواسته نمی شود که بیش از 5 ویژگی را در یک زمان در نظر بگیرند. با این حال، برای انجام ACA، تا آنجا که من در حال حاضر از آن اطلاع دارم، باید نظرسنجی توسط یک میزبان نظرسنجی بسیار گران قیمت (به عنوان مثال 10000 دلار) میزبانی شود. سوال من این است که آیا می توان Conjoint پروفایل جزئی را بدون استفاده از ACA انجام داد؟
آیا یک مطالعه مشترک مبتنی بر انتخاب باید مشخصات کامل داشته باشد؟
72217
من از حدود 200 متغیر برای مقایسه 2 جمعیت، گروه A و گروه B استفاده می‌کنم. در اینجا نمایشی از شکل داده‌ها ارائه شده است. A 2 0.78 8 132 A 1 0.55 7 178 A 0 0.35 7 240 A 0 0.36 7 205 A 0 0.3 6 137 A Var1 VarA VarT Var3 گروه 5 0.24 10 205 B 8 0.76 8 794 120. 203 B 5 0.52 11 215 B 2 0.63 14 224 B 1 0.46 12 211 B 2 0.64 1 212 B 6 0.55 7 134 B 5 0.78 7 222 B 5 0.78 7 222 B 1 0.46 12 B 2 داده ها ستون به ستون (به عنوان مثال VarT از گروه A با VarT از گروه B). من در R کار می‌کنم. آزمایش‌های فاصله آماری (مانند واگرایی کولبک-لایبلر، کرامر-فون میزس، فاصله باتاچاریا و آزمون کولموگروف-اسمیرنوف) را در این مورد مفید یافتم. مشکلی که من دارم این است که نمی توانم تصمیم بگیرم از کدام تست استفاده کنم، ترجیحات بین این تست ها چیست؟ متاسفانه من نتوانستم مقایسه ای بین این تست ها پیدا کنم. داده های من فقط عددی هستند و مقادیر NA ندارند و بسیار متغیر هستند. جهت گیری به سمت روش های دیگر برای آزمایش همپوشانی بین 2 توزیع در هر متغیر مورد استقبال قرار می گیرد. با تشکر فراوان،
آزمون های آماری فاصله
31769
حضور (یا احساس بهتر حضور، یعنی میزانی که فرد احساس می‌کند که یک تجربه واسطه‌ای واقعاً واسطه نیست) متغیری است که تعیین آن بسیار دشوار است و این سؤال که چگونه آن را اندازه‌گیری کنیم به شدت در جامعه مربوطه مورد بحث است. یک بحث خاص مربوط به اعتبار پرسشنامه های استاندارد خود گزارشی است که برای سنجش حس حضور آزمودنی استفاده می شود. در یک آزمایش بین افراد، افراد یک کار جستجو را در یک دفتر واقعی یا مجازی انجام دادند. سپس حس حضور خود را در مجموعه ای از پرسشنامه های استاندارد ارزیابی کردند. شرکت کنندگان در شرایط مجازی احساس حضور مشابهی را نسبت به شرکت کنندگان در شرایط دنیای واقعی گزارش کردند. در حالی که نویسندگان تنها به این نتیجه می‌رسند که پرسشنامه‌های حضور باید یک «آزمون واقعیت» را پشت سر بگذارند تا مفید باشند، من شخصاً فکر می‌کنم که نتایج ممکن است در آزمایش درون آزمودنی‌ها متفاوت باشد. حضور چنان مفهومی ذهنی و انتزاعی برای افراد عادی است که بعید می دانم احساس حضور سوژه A در شرایط X به طور معناداری با احساس حضور سوژه B در شرایط Y مقایسه شود، اما شرط X به یک سوژه چارچوب مرجع می دهد. در صورتی که آزمودنی در معرض هر دو قرار گیرد، شرایط Y را ارزیابی کنیم (توجه داشته باشید، IMO این مستلزم این است که حضور تنها می تواند معیاری برای تفاوت های نسبی بین شرایط در نظر گرفته شود تا مقیاس مطلق). این تا حدودی با این واقعیت اثبات می شود که پاسخ های پرسشنامه های حضور دارای واریانس بسیار بالا هستند. من قبلاً یک آزمایش (که دارای چهار شرط مختلف است) به عنوان آزمایش درون آزمودنی با استفاده از 48 موضوع و متعادل کردن ترتیب شرایط در بین آزمودنی ها طراحی کرده ام. سپس به این فکر کردم که آیا می توانم فرض خود را با داده هایم آزمایش کنم. بنابراین من به تجزیه و تحلیل داده‌هایم به عنوان داده‌های درون آزمودنی فکر می‌کنم (یعنی با استفاده از یک ANOVA با اندازه‌گیری‌های مکرر) و همچنین اولین شرطی را که هر آزمودنی در معرض آن قرار می‌گیرد در نظر بگیرم و به سادگی با آن زیرمجموعه داده‌ها طوری رفتار کنم که گویی از یک بین آمده است. -آزمودنی ها با این حال، من متعجبم که آیا این یک رویکرد آماری معتبر است و چه آزمون آماری مناسب خواهد بود، به جای اینکه به سادگی بیان کنم، برای مثال، در تحلیل درونی، شرط X با شرط Y متفاوت بود، در حالی که در بین آن، چنین نبود. به‌عنوان مثال، آیا استفاده از _mean برای شرط X با استفاده از درون داده‌ها و _mean برای شرط X با استفاده از بین داده‌ها (برای هر چهار شرایط) به‌عنوان فاکتورهایی برای ANOVA معتبر است تا ببینیم آیا میانگین یک شرط برای یک درون و یک تفاوت قابل‌توجهی دارد یا خیر. بین آزمودنی ها آزمایش؟ توجه: من به طور بالقوه می توانم موضوعات بیشتری را اضافه کنم که فقط در معرض یک شرط قرار می گیرند تا تعداد نقاط داده موجود برای تجزیه و تحلیل درون و بین آزمودنی ها برابر شود، اما ترجیح می دهم تجزیه و تحلیل را فقط روی موضوعات اصلی انجام دهم، به عنوان (الف) آزمایش بسیار طولانی و دست و پا گیر است، و (ب) من در واقع امیدوار بودم که نگه داشتن یک مجموعه از موضوعات برای هر دو تجزیه و تحلیل به من نشان قوی تری از صحت فرضیه من بدهد، زیرا هر گونه تغییرپذیری را حذف می کند. به دلیل اینکه برخی از موضوعات در یک مجموعه داده ظاهر می شوند اما در مجموعه دیگر وجود ندارند.
داده های درون موضوعی را به عنوان داده های بین موضوعی تجزیه و تحلیل کنید
103391
توزیع تجربی من به این صورت است: من یک شاخص ژنتیکی تثبیت در جمعیت ها را محاسبه کرده ام که FST نام دارد. مقادیر من حداکثر مقدار یک را دارند. این به من توزیع تجربی مقادیر FST را برای نشانگرهای هر کروموزوم می دهد. اکنون، فهرستی از نشانگرها دارم که می‌خواهم بدانم آیا آنها در دم 5 درصدی توزیع تجربی من قرار می‌گیرند یا خیر. این بسیار ساده به نظر می رسد، اما من فکر کردم از آنجایی که تمام مقادیر داده را دارم، می توانم 5 درصد را با گفتن اینکه از 100 5 دارم محاسبه کنم، بنابراین چند عدد از تعداد مقادیر FST مرتب شده من است. به نظر شما این رویکرد درستی است یا من خیلی ساده فکر می کنم؟ پیشاپیش از شما متشکرم، بهترین، لوسیا
دم های شدید توزیع را محاسبه کنید
77936
من می خواهم یک مدل لوجیت چندسطحی سلسله مراتبی پیچیده را با ساختار فضایی تخمین بزنم. مدل یک مدل دو سطحی است. من 20 منطقه (سطح بالا) دارم که شامل چندین ناحیه (سطح پایین) است. متغیر وابسته رشد اشتغال در سطح منطقه است. مدل لاجیت چند سطحی باید حداقل شامل سه متغیر در سطح بالا و هشت متغیر در سطح پایین باشد. من کمی نگران این هستم که حجم نمونه من برای چنین مدل پیچیده ای برای تخمین نقطه ای قابل اعتماد و خطاهای استاندارد بسیار کوچک است. دو گزینه وجود دارد: 1. انتخاب مناطق بزرگتر که داده های مرتبط بیشتری برای آنها در دسترس است، در نتیجه: 20 منطقه با تعداد ناحیه در هر منطقه از 3 تا 40 متغیر است (میانگین تعداد مناطق در هر منطقه: 13) 2.) انتخاب مناطق کوچکتر منطقه، که منجر به: 20 منطقه با تعداد ناحیه در هر منطقه از 8 تا 400 متغیر است (تعداد متوسط مناطق در هر منطقه: 60) من دوست دارم از مناطق بزرگتر استفاده کنم، زیرا داده های بیشتری در دسترس است. آیا حجم نمونه برای مدل چندسطحی خیلی کوچک است؟ در ادبیات این موضوع بحث برانگیز است. برخی از نویسندگان می گویند که شما به حداقل 50 گروه با تعداد متوسط ​​50 عضو در هر گروه در یک مدل چند سطحی با داده های دوگانه نیاز دارید. دیگر ادعا می کنند که حداقل 20 گروه با حداقل 5 عضو در هر گروه کافی است. آیا آزمونی برای حداقل حجم نمونه برای مدل های چند سطحی وجود دارد (به هر حال من از R استفاده می کنم)؟ آیا یک رویکرد MCMC به من کمک می‌کند تا تخمین‌های قابل اعتمادتری ارائه کنم؟ خارج از موضوع: آیا کسی سعی کرده است جلوه های فضایی (تأخیر فضایی یا خطای مکانی) را در مدل های چند سطحی بگنجاند؟ آیا این امکان پذیر است؟ پیشاپیش ممنون
مدل چند سطحی و حجم نمونه
47250
احتمالاً یک سؤال اساسی است، اما در اینجا آمده است: * فرض کنید ما 1000 نفر داریم که به یک نظرسنجی پاسخ می دهند (500 مرد، 500 زن) * پاسخ دهندگان می توانند یک سری از صفحات را لایک کنند. * هر پاسخ دهنده می تواند هر تعداد صفحه را که می خواهد لایک کند. ممکن است هرگز چیزی را دوست نداشته باشید. * برای صفحه 1، 200 مرد آن را لایک کرده و 150 زن آن را لایک کرده اند. * برای صفحه 2، 300 زن آن را لایک کرده و 50 مرد آن را لایک کرده اند. * برای صفحه 3، 4 زن آن را لایک کرده و 1 مرد آن را لایک کرده است. سوال کلی من این است: برای سناریوهای پاسخ کوچک (به عنوان مثال، صفحه 3)، حداقل حجم نمونه قبل از اینکه بتوانم واقعاً در مورد علاقه عمومی مرد/زن نتیجه‌گیری کنم چقدر است؟ من می توانم یک z-score را محاسبه کنم، اما مطمئن نیستم که این جمعیت فرعی را در نظر بگیرد (ممکن است در این مورد گیج شده باشم). من می دانم که تعریف من از اهمیت به میزان خطا و اطمینانی که می توانم تحمل کنم بستگی دارد، اما فرض کنیم فاصله اطمینان استاندارد (95٪) باشد.
حداقل حجم نمونه
88291
از عناصر یادگیری آماری، در صفحه 49 (در زمینه رگرسیون حداقل مربعات)، مجموعه اطمینان تقریبی (در تصویر نشان داده شده است) برای بردار پارامتر $\beta$ داده شده است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Xx4Ak.png) من می‌خواهم این را در R پیاده‌سازی کنم. با این حال، نمی‌دانم چگونه $\beta$ را به عنوان موضوع، یعنی. نمی‌توانم مجموعه اطمینان را به شکل زیر بسازم $$\beta \leq \hat{\sigma}^2 \chi^2_{p+1} \times something$$ واقعاً نمی‌دانم چگونه شرایط را دوباره مرتب کنم (از اعتماد به نفس تنظیم شده از تصویر). کسی میتونه لطفا اینجا کمکم کنه؟
ساخت مجموعه اطمینان تقریبی برای پارامتر بردار بتا در رگرسیون حداقل مربعات
88523
سوال تکلیف سلام، من یک سوال تکلیف ساده دارم که می پرسد: _می دانیم که وقتی نمونه برداری می کنیم، با احتمال مساوی از یک جمعیت محدود {x1, x2,..., xN} **بدون جایگزینی**، یک تصادفی ساده بدست می آوریم. نمونه به جای یک نمونه تصادفی (iid). فرض کنید X1,...,Xn (n < N) نمونه بدست آمده باشد. در کلاس ادعا می شود که X1،...، Xn_، اگرچه دیگر مستقل نیستند، اما همچنان به طور یکسان بر اساس pmf توزیع می شوند: f(x) = _1/N، اگر x = xi، برای برخی از 1 <= i <= N; 0، برای همه x های دیگر._ _ انتخاب اول X1 بدیهی است که از این توزیع پیروی می کند. نشان دهید که گزینه دوم X2 نیز بر اساس f(x) توزیع شده است._ کار من: من در مورد متغیرهای تصادفی قابل تعویض تحقیق کردم. فکر من این است که اگر بتوانم دنباله متغیرهای تصادفی X1،... را نشان دهم، Xn قابل مبادله است، پس هر کدام از Xi ها می توانند اولین متغیر تصادفی در دنباله باشند. بنابراین، هر Xi از f(x) پیروی می کند. سوال من: مطمئن نیستم که به درستی بفهمم قابل تعویض بودن یعنی چه؟ همچنین، من مطمئن نیستم که چگونه می توانید به درستی ثابت کنید که این دنباله قابل تعویض است. من واقعاً از هرگونه راهنمایی در مورد آن استقبال می کنم. متشکرم.
توزیع یک نمونه تصادفی ساده
88524
من با R بسیار بی تجربه هستم و فقط پیشینه محدودی در اکسل دارم اما داده هایی دارم که برای اجرای یک رگرسیون غیر خطی چندگانه با آنها نیاز دارم. بهترین راه برای انجام این کار چیست؟ با R یا Excel؟ از چه دستوراتی استفاده کنم؟
چگونه یک رگرسیون غیرخطی چندگانه را در اکسل یا R اجرا کنیم؟
78113
آیا کسی می تواند مقداری کد یا الگوریتم اکتاو/متلب را برای پیش پردازش عکسی که از یک رقم دست نویس از دوربین موبایل گرفته شده است به اشتراک بگذارد. پس از پیش پردازش، داده ها باید ویژگی های مشابه تصاویر رقمی مجموعه داده های MNIST داشته باشند. من یک شبکه عصبی دارم که با استفاده از مجموعه داده MNIST آموزش دیده است. اکنون می‌خواهم اجرای خود را با گرفتن تصاویر رقمی دست‌نویس با استفاده از دوربین تلفن و ذخیره آن در رایانه‌ام آزمایش کنم. من می خواهم این تصویر را به عنوان ورودی برای آزمایش پیاده سازی شبکه عصبی خود ارائه دهم. پیشاپیش ممنون!!
تست تولید داده برای تشخیص دست خط شبکه عصبی
31768
فرض کنید من یک مجموعه داده $x_1، \ldots، x_n$ دارم و یک توزیع نرمال، نمایی و یکنواخت برای آنها قرار می دهم. تابع برازش دسته ای از آمارهای مربوط به تناسب را نشان می دهد، به عنوان مثال. AIC، BIC، chi-square، Kolmogorov-Smirnov، و غیره. من سعی می‌کنم کسی را متقاعد کنم که AIC در اینجا مناسب نیست، زیرا بسته به توزیع‌ها، احتمال ورود به سیستم متفاوت و گاهی اوقات تعداد پارامترهای متفاوتی داریم. من مقدار p آزمون کولموگروف-اسمیرنوف را برای مقایسه برازش ها ترجیح می دهم. آیا رویکرد من موجه است؟ چگونه می توانم همکارم را متقاعد کنم که AIC در اینجا مشکلی ندارد (او دوست دارد یک مقاله ذکر شده یا چیزی معادل آن را ببیند)؟ پیشاپیش متشکرم **ویرایش:** به طور خاص، این مقاله به من نشان داده شد: http://www.vosesoftware.com/whitepapers/Fitting%20distributions%20to%20data.pdf من نمی دانم در این مورد چه بگویم. صفحه 4 ایرادات chi-squared، Kolmogorov-Smirnov و غیره را فهرست می کند و صفحه 5 و 6 AIC را می ستاید. آیا او درست است؟
آیا مقایسه توزیع های نصب شده با AIC اشکالی ندارد؟
88526
بیایید بگوییم که داده ها در یک برنامه ایراد دارند. خطاها در روشی از برنامه بذر می شوند. فرض کنید می توانم تمام ایرادات برنامه را پیدا کنم. اما، به دلیل هزینه یافتن همه آنها، می خواهم از عیوب نمونه برداری کنم. مشکل این است که چگونه حداقل اندازه نمونه را تخمین بزنیم. متغیر مستقل نام متدها در برنامه است. و متغیر وابسته تعداد خطاها با توجه به هر روش است. من هیچ ایده ای برای تعیین حجم نمونه ندارم زیرا متغیر مستقل مقوله ای است. یک ایده ممکن این است که فرض کنیم توزیع نرمال است و اندازه نمونه را بر اساس فواصل اطمینان تخمین بزنیم. اما نمی‌دانم که چگونه میانگین و واریانس نمونه را برای متغیر طبقه‌ای بدست آوریم. می خواهم بدانم آیا ایده بهتر یا راه حل معمولی برای این مشکل وجود دارد؟
برآورد حداقل حجم نمونه زمانی که متغیر مستقل مقوله ای باشد
77939
من می خواهم یک رگرسیون ساده را تخمین بزنم. من 20 مشاهده و 10 پارامتر رگرسیون دارم. درجات آزادی برای بدست آوردن تخمین نقطه ای قابل اعتماد و مقادیر p بسیار کوچک است. من عبارت زیر را یافتم: یکی دیگر از مزایای تخمین MCMC مشکل درجه آزادی است. در تخمین حداکثر احتمال، اگر تعداد پارامترها در مقایسه با مشاهده بزرگ باشد، مدل ناپایدار می شود و نتیجه به دست آمده قابل اعتماد نخواهد بود. اما اگر از تخمین MCMC استفاده کنیم، برای مثال، تعداد پارامترهایی که باید تخمین زده شوند بزرگتر از n است، لازم نیست نگران باشیم. که شماره مشاهده است. (برآورد مدل سوئیچینگ مارکوف با استفاده از نمونه گیری گیبس با نرم افزار محاسباتی آماری R) آیا استنتاج بیزی (MCMC) از رگرسیون مشکل من را حل می کند؟ یا اینکه بیانیه فقط در مورد خاص مدل سوئیچینگ مارکوف صادق است؟
MCMC و درجه آزادی (تعداد کمی از مشاهدات)
103392
فرض کنید من یک DB دارم که مقادیر کلیدی زیر در آن وارد شده است (در آن دنباله تصادفی) {16, 32, 256, 2, 8, 64, 4, 1, 128, 512} با فرض مرتب شدن مقادیر هنگام درج ( به عنوان مثال، درخت $B^x$)، سریعترین راه برای حفظ **مدل در حال اجرا** از داده ها چیست؟ ### آنچه من می خواهم: یک مدل در حال اجرا تابعی است که رکوردی را ارائه می دهد که در آن یک عنصر خاص پیدا می شود. از آنجایی که DB $A$ چیزی شبیه به رکورد است: |000|001|002|003|004|005|006|007|008|009| ارزش: | 1| 2| 4| 8| 16| 32| 64|128|256|512| از آنجایی که داده ها را می توان به طور بهینه با $2^x$ ترسیم کرد، یک مدل $\frac{\log(x)}{\log(2)}$ خواهد بود. اگر بخواهیم به دنبال 334 بگردیم، انتظار می‌رود که قیمت آن در $\frac{\log(334)}{\log(2)}=8.38$ باشد. ### چیزی که تا کنون داشته ام: بهترین راه حلی که تاکنون داشته ام این است که یک superDB کوچکتر $S$ را حفظ کنم که هر $n$th عنصر را نگه می دارد و به صورت خطی بین آنها درون یابی می کند. فرض کنید $n=3$ سپس $S$ مانند رکورد باشد: |000|001|002|003| موقعیت:|000|003|006|009| ارزش: | 1| 8| 64|512| سپس اگر می‌خواهیم موقعیت $i$=334 را پیدا کنیم، ابتدا در $S$ تا $ \mathbb{value}> i$ جستجو می‌کنیم و موقعیت رکورد $k$ را علامت‌گذاری می‌کنیم. سپس موقعیت مورد انتظار $$(i-[(k-1)\rightarrow\mathbb{value}])* \frac{[(k)\rightarrow\mathbb{value}]-[(k-1)\ خواهد بود rightarrow\mathbb{value}]}{[(k)\rightarrow\mathbb{position}]-[(k-1)\rightarrow\mathbb{position}]} + (k-1)\rightarrow \mathbb{position} $$ بنابراین k=3. (334-65)*((9-6)/(64-512))+6 = 7.80133928571، اما این به وضوح اشتباه است زیرا رکورد '008' آشکارا بزرگتر از 334 است، بنابراین نمی تواند کمتر از آن باشد. * $+$ محاسباتی غیر فشرده (1 ضرب، 1 ​​تقسیم، 4 معرف) * $+$ خطا هرگز بزرگتر از $n$ نیست. * خطای $-$ می تواند تقریباً $n$ در داده های کج باشد. * $-$ نیاز به جستجوی اولیه دارد * $-$ بدترین سناریوی هیچ سودی به همراه ندارد. یک گزینه ممکن است این باشد که مقادیر مرجع جدید را بر اساس خطا در SuperDB درج کنید، و برخی از آنها را زمانی که خطا کم است حذف کنید، اگر برای مثال اگر $1-\frac{f(k, k-1)}{f(k+1 باشد. , k-1)}< \mathbb{allowed \, error}$، سپس رکورد $k$ می‌تواند از $S$ حذف شود و اگر $\frac{\mathbb{به دنبال \ باشد، یک رکورد درج شود. from}( f(k, k-1) )}{n}> \mathbb{allowed \, error}$ برای ساخت مدلی بهتر از سیستم. در ترکیب با موارد فوق، شاید بتوان از درون یابی پارامتری (بزیر، درجه دوم، دایره ای، و غیره) استفاده کرد، که با این حال با معایب افزایش سربار همراه است. راه بهتری برای این کار چیست؟
مدل معکوس ساخت سریع رویه ای
31492
من سعی می کنم یک لاجیت بیزی روی داده های اینجا اجرا کنم. من از «bayesglm()» در بسته «arm» در R استفاده می کنم. کدنویسی به اندازه کافی ساده است: df = read.csv(http://dl.dropbox.com/u/1791181/bayesglm.csv، هدر =T) مدل کتابخانه (بازو) = bayesglm (PASS ~ SEX + HIGH، خانواده = دوجمله ای (link = logit)، data=df) `summary(model)` خروجی زیر را به دست می دهد: ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (برق) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 0.09363 0.257 0.797 HIGH -0.27503 -0.27503 0.03521-1-4. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 2658.2 در 1999 درجه آزادی انحراف باقیمانده: 3 در 2594. 2000 درجه آزادی AIC: 2600.3 لطفاً مرا در این مورد راهنمایی کنید. می‌دانم که این کد از یک پیشین بسیار ضعیف استفاده می‌کند (چون من ابزار قبلی را مشخص نمی‌کنم) بنابراین اگر از «glm()» به جای «bayesglm()» استفاده کنم، خروجی عملاً یکسان خواهد بود. اما خروجی باید همچنان در روح بیزی باشد، درست است؟ مقادیر $p$-values ​​و $z$-values ​​در اینجا چیست؟ آیا اینها ابزار استنباط فراوانی نیستند؟ آیا آنها در اینجا تفسیر متفاوتی دارند؟
به من کمک کنید تا $p$-values ​​را در بیزی glm درک کنم
86269
من در کلاس مدل های خطی خود یاد گرفتم که اگر دو پیش بینی همبستگی داشته باشند و هر دو در یک مدل گنجانده شوند، یکی ناچیز خواهد بود. به عنوان مثال، اندازه یک خانه و تعداد اتاق خواب ها را با هم مرتبط فرض کنید. هنگام پیش‌بینی هزینه یک خانه با استفاده از این دو پیش‌بینی‌کننده، می‌توان یکی از آنها را حذف کرد زیرا هر دو اطلاعات یکسانی را ارائه می‌دهند. به طور شهودی، این منطقی است، اما من چند سؤال فنی تر دارم: 1. این تأثیر چگونه خود را در مقادیر p ضرایب رگرسیون نشان می دهد، زمانی که فقط یک یا هر دو پیش بینی کننده را در مدل شامل می شود؟ 2. چگونه واریانس ضرایب رگرسیون با گنجاندن هر دو پیش بینی کننده در مدل یا فقط داشتن یکی تحت تأثیر قرار می گیرد؟ 3. چگونه می توانم بدانم که مدل کدام پیش بینی کننده را انتخاب می کند که دارای اهمیت کمتری باشد؟ 4. چگونه تنها یک یا شامل هر دو پیش بینی کننده، مقدار/واریانس هزینه پیش بینی شده من را تغییر می دهد؟
تأثیر پیش‌بینی‌کننده‌های همبسته در مدل رگرسیون چندگانه چیست؟
72213
وقتی کمی با تجسم رگرسیون خطی زنده در http://www.geogebratube.org/student/m28709 بازی می‌کردم، متوجه شدم که نقطه در انتهای محدوده X تأثیر زیادی بر شیب خط رگرسیون دارد. آیا روش پذیرفته‌شده‌ای برای دادن وزن بسته به مختصات X برای کاهش تأثیر نقاط پرت احتمالی در مرز محدوده X وجود دارد؟ یا شاید روش دیگری؟
وابستگی رگرسیون خطی به نقاط پایانی؟
103937
مجموعه داده‌ای را در نظر بگیرید که من مجموعه‌ای از آزمایش‌های مستقل را روی متغیرهای مختلف (غیر مستقل) انجام دادم و چندین مقدار p را به‌دست آوردم. من تعداد تست های مستقل را $n$ تخمین زدم و مقادیر p به دست آمده را با استفاده از تصحیح Sidak یا Bonferroni تصحیح کردم. حال اجازه دهید بگوییم من برای یکی از اینها یک نتیجه بسیار مهم به دست آوردم و یک مجموعه داده گسترده به دست آوردم تا نتیجه بگیرم که آیا همبستگی معنادار است یا خیر. تعداد تست‌های مستقلی که باید برای تصحیح این مجموعه داده بزرگ‌تر، $n$ یا $n+1$ استفاده کنم، چقدر است؟
تصحیح آزمایش چندگانه هنگام تأیید همبستگی با یک مجموعه داده گسترده
4766
SVD تصادفی یک ماتریس را با استخراج اولین k مقادیر/بردارهای مفرد با استفاده از پیش‌بینی‌های تصادفی k+p تجزیه می‌کند. این به طرز شگفت انگیزی برای ماتریس های بزرگ کار می کند. سوال من مربوط به مقادیر تکی است که از الگوریتم خارج می شود. چرا اگر SVD کامل را انجام دهید، مقادیر با مقادیر k-مفرد اول برابر نیستند؟ در زیر یک پیاده سازی ساده در R دارم. هر گونه پیشنهادی در مورد بهبود عملکرد قابل قدردانی خواهد بود. rsvd = تابع(A، k=10، p=5){ n = nrow(A) y = A %*% ماتریس(rnorm(n * (k+p))، nrow=n) q = qr.Q( qr(y)) b = t(q) %*% A svd = svd(b) list(u=q %*% svd$u، d=svd$d، v=svd$v) } > set.seed(10) > A <- ماتریس(rnorm(500*500)،500500) > svd(A)$d[1:15] [1] 44.94307 44.48235 43.78984 43.78984 43.78984 43.78984 43.78984 43.78984. 43.15066 42.79720 42.54440 42.27439 42.21873 41.79763 41.51349 41.48338 41.35024 41.18068 41.18068 > rsvd, 5] 34.83741 33.83411 33.09522 32.65761 32.34326 31.80868 31.38253 30.96395 30.79063 30.34387 30.34387 30.095 30.34387 30.96395 29.12612 27.61804 B <- ماتریس(rnorm(500*50)،500500 # rank 50 > rsvd(B,10,5)$d [1] 86.48035 83.02114 81.03984.81.03984.81.03985. 76.10945 74.47357 74.08382 [9] 72.85898 72.06897 69.59526 67.70750 66.53867 62.96446 61.50838 (B) 5/5 دلار 92.44779 91.47689 88.71948 88.08170 87.24533 85.13312 84.14741 83.71757 [9] 82.80832 81.43039 80.43005 80.43032 78.87421 78.33509 77.38431 همانطور که Joris اشاره کرد، من این را در stackoverflow نیز ارسال کرده ام. می توانید گفتگوی جالب را در اینجا بیابید http://stackoverflow.com/questions/4224031/randomized-svd-singular-values ​​همچنین مقاله مربوطه توسط مارتینسون و همکاران را ببینید: الگوریتم تصادفی برای تجزیه ماتریس ها
SVD تصادفی و مقادیر منفرد
88294
من جمعیتی 709 نفری دارم و می توانم یک نمونه طبقه بندی شده واقعاً تصادفی بکشم. وقتی اندازه نمونه را تعیین کردم، نحوه انجام بخش طبقه بندی شده را درک می کنم. یک محاسبه نشان داد که برای اطمینان 95 درصد به 196 مورد نیاز دارم. با توجه به اینکه من با تحلیل محتوا کار می کنم، سوابق زیادی برای بررسی وجود دارد. آیا کسی می تواند محاسبه کند که برای اطمینان 95٪ به 196 مورد ($n=196$) از N=709$ نیاز است؟ آیا راه دیگری (غیر از تغییر فاصله اطمینان) برای کاهش حجم نمونه مورد نیاز وجود دارد؟
چه اندازه نمونه نیاز دارم؟
108313
من ساختارهای داده زیر را دارم و می‌خواهم نظر شما را بدانم که کدام مدل‌های رگرسیون مناسب‌تر هستند (و در R موجود هستند) مدل 1: \- 20000 مورد \- تو در تو در 500 واحد فضایی (فقط تغییرات رهگیری مورد نیاز است) \- پاسخ متغیر سانسور شده است (فقط مقادیر >1) ممکن است \- 10 متغیر مستقل (فقط اثرات اصلی خطی مورد نیاز است) مدل 2: \- 20000 مورد \- تو در تو در 500 واحد فضایی (فقط تغییرات رهگیری مورد نیاز است) \- متغیر پاسخ در 3 کلاس طبقه بندی می شود که کلاس 1 < کلاس 2 < کلاس 3 \- 10 متغیر مستقل (فقط اثرات اصلی خطی مورد نیاز است)
کدام مدل رگرسیون: داده های تودرتو، سانسور شده
78116
من سعی می کنم y را پیش بینی کنم: از متغیر x1,x2,x3,.....x1000 می گوییم معادله ای شبیه به y = intercept + aX1 + bX2 + cX3 + ... zX1000 اکنون می خواهم فقط معنی دار را انتخاب کنم X چگونه می توانم مفهوم کاهش ابعاد مانند PCA را در مدل خود اعمال کنم؟ یکبار متوجه شدم که فقط 3 جزء وجود دارد (P1 P2 P3) که می تواند 95٪ توضیح دهد - چگونه می توانم واقعاً این را به مدل اعمال کنم؟ کسی می تواند این را برای من توضیح دهد؟
چگونه PCA را با رگرسیون اعمال کنیم؟
33899
با استفاده از مجموعه داده های 209 کشور، من یک رگرسیون اثرات ثابت را برای کشورهای غیر OECD اجرا کردم. وقتی متغیرهایم را خلاصه می‌کنم، همه متغیرهای مجموعه داده را به من می‌دهد، اما من فقط به خلاصه‌ای از متغیرهایی نیاز دارم که در رگرسیون اثرات ثابت من استفاده شده‌اند. به عنوان مثال، وقتی اثرات ثابت را اجرا می‌کنم، تعداد گروه‌ها 138 است. بنابراین، کل مشاهدات من برای یک متغیر باید 138 ضرب در 26 سال (1980-2006)، که فقط 3588 مشاهده است. چگونه می توانم از Stata بخواهم این را تولید کند؟
خلاصه کردن متغیرهای اثرات ثابت در Stata
91829
می خواستم بدانم آیا کسی کار مربوط به مدل های سوئیچینگ مارکوف و به طور دقیق تر که توزیع عبارات خطا را تغییر می دهد می شناسد؟ من مقداری ادبیات برای میانگین شرطی، واریانس، و درجات آزادی پیدا کرده ام، اما نمی توانم چیزی برای توزیع های مختلف پیدا کنم. با تشکر
مدل توزیع مارکوف-سوئیچینگ
41409
من مجموعه ای از اسناد تصویری دارم. من کلمات کلیدی متنی را از این تصاویر با استفاده از OCR استخراج می کنم تا هر تصویر را به عنوان کیسه ای از کلمات نشان دهم (برداری که هر مقدار تعداد وقوع یک کلمه در سند است). سپس می توانم یک الگوریتم طبقه بندی یا خوشه بندی را روی مجموعه داده به دست آمده اعمال کنم. با این حال، این نمایش برداری به عنوان کیسه کلمات تنها در صورتی امکان پذیر است که من کل مجموعه اسناد را داشته باشم (تا بتوانم کل واژگان، یعنی همه کلمات را داشته باشم). چگونه می توانم این کار را انجام دهم (یعنی کیسه کلمات خود را استخراج کنم) اگر در یک پیکربندی آنلاین هستم (با استفاده از یک خوشه بندی آنلاین) که اسناد یک به یک در دسترس هستند (برای یک جریان داده) و هر سند باید به محض پردازش شود. در دسترس است؟
کیسه ای از کلمات در یک پیکربندی آنلاین، برای طبقه بندی / خوشه بندی
88297
هنگام تجسم داده های یک بعدی، معمولاً از تکنیک تخمین تراکم هسته برای محاسبه پهنای مخزن انتخاب نادرست استفاده می شود. وقتی مجموعه داده تک بعدی من دارای عدم قطعیت های اندازه گیری است، آیا روش استانداردی برای ترکیب این اطلاعات وجود دارد؟ به عنوان مثال (و اگر درک من ساده است مرا ببخشید) KDE یک نمایه گاوسی را با توابع دلتای مشاهدات در هم می آمیزد. این هسته گاوسی بین هر مکان مشترک است، اما پارامتر گاوسی $\sigma$ می تواند برای مطابقت با عدم قطعیت های اندازه گیری تغییر کند. آیا روش استانداردی برای انجام این کار وجود دارد؟ من امیدوارم که مقادیر نامشخص را با هسته های گسترده منعکس کنم. من این را به سادگی در پایتون پیاده‌سازی کرده‌ام، اما روش یا تابع استانداردی برای انجام این کار نمی‌دانم. آیا در این تکنیک مشکلی وجود دارد؟ توجه داشته باشم که نمودارهای عجیب و غریبی ارائه می دهد! به عنوان مثال ![مقایسه KDE](http://i.stack.imgur.com/kuaHG.png) در این مورد، مقادیر پایین دارای عدم قطعیت های بزرگ تری هستند، بنابراین تمایل به ارائه هسته های پهن پهن دارند، در حالی که KDE بیش از حد وزن پایین ( و مقادیر نامشخص).
تخمین چگالی هسته شامل عدم قطعیت ها
31495
من یک ANOVA دو طرفه انجام دادم. من یک گروه کنترل و 2 گروه آزمایش دارم. یک گروه آزمایشی یک استراتژی و گروه دیگر نوع دیگری از استراتژی را دریافت کردند. حالا می خواهم بدانم کدام استراتژی تاثیر بهتری روی گروه داشته است. کدام جدول در ANOVA دو طرفه به من کمک می کند تا بفهمم کدام استراتژی تأثیر بهتری داشته است؟ (از پیش آزمون و پس آزمون استفاده کردم)
مقایسه دو گروه آزمایش و یک گروه درمانی با استفاده از آنالیز واریانس
103939
در مقاله معروف 1938 (توزیع نمونه بزرگ از نسبت درستنمایی برای آزمایش فرضیه های ترکیبی، Annals of Mathematical Statistics، 9:60-62)، ساموئل ویلکس توزیع مجانبی 2$ \ برابر LLR$ (نسبت احتمال ورود به سیستم را به دست آورد. ) برای فرضیه های تو در تو، با این فرض که فرضیه بزرگتر به درستی مشخص شده است. توزیع محدود $\chi^2$ (chi-squared) با $h-m$ درجه آزادی است که $h$ تعداد پارامترها در فرضیه بزرگتر و $m$ تعداد پارامترهای آزاد در فرضیه تودرتو است. . با این حال، ظاهراً کاملاً شناخته شده است که این نتیجه زمانی که فرضیه ها به درستی مشخص نشده باشند (یعنی زمانی که فرضیه بزرگتر توزیع واقعی داده های نمونه گیری نیست) برقرار نیست. کسی میتونه توضیح بده چرا؟ به نظر من اثبات Wilks هنوز باید با تغییرات جزئی کار کند. این بر نرمال بودن مجانبی تخمین حداکثر درستنمایی (MLE) تکیه دارد، که هنوز در مدل‌های نادرست وجود دارد. تنها تفاوت ماتریس کوواریانس نرمال چند متغیره محدود کننده است: برای مدل هایی که به درستی مشخص شده اند، ما می توانیم ماتریس کوواریانس را با ماتریس اطلاعات فیشر معکوس $J^{-1}$ تقریب بزنیم، با تعیین نادرست، می توانیم از تخمین ساندویچی استفاده کنیم. ماتریس کوواریانس ($J^{-1} K J^{-1}$). زمانی که مدل به درستی مشخص شده باشد، مورد دوم به معکوس ماتریس اطلاعات فیشر کاهش می‌یابد (از $J = K$). AFAICT، اثبات Wilks اهمیتی نمی‌دهد که تخمین ماتریس کوواریانس از کجا می‌آید، تا زمانی که ما یک ماتریس کوواریانس مجانبی معکوس‌پذیر از نرمال چند متغیره برای MLEها داریم ($c^{-1}$ در مقاله Wilks).
چرا اثبات 1938 Wilks برای مدل‌های نادرست کار نمی‌کند؟
77069
من روی یک پروژه نهایی برای کلاسم کار می کنم و با گذشت زمان آن را بر اساس قیمت دارایی انجام می دهم. سوال علمی که می خواهم بپرسم این است که آیا می توان قیمت دارایی x را با عدم قطعیت کوچک به طور منطقی پیش بینی کرد تا با استفاده از سقوط قبلی همان دارایی، سقوط آینده را پیش بینی کرد؟ آیا این امکان پذیر است؟ این برای کلاس سری زمانی کالج من است. من از R استفاده خواهم کرد.
پیش بینی تحلیل سری های زمانی با حباب های دارایی
88295
من به دنبال چند پیشنهاد در مورد اینکه چه روش هایی برای آموزش یک مجموعه داده با چولگی بالا در کلاس های نتیجه مناسب است، هستم. نسبت کلاس 0: کلاس 1 حدود 20:1 است و من به دنبال به حداکثر رساندن دقت برای شناسایی نتایج کلاس 1 هستم. این شبیه به موضوعاتی است که اغلب مورد بحث قرار می گیرد مانند تشخیص سرطان. من قبلاً از روش‌هایی استفاده کرده‌ام، اما سعی می‌کنم منبع/پیشنهاد جامعی را پیدا کنم که با روش‌های مختلف برای این موارد صحبت کند. نمونه هایی از نحوه اعمال آنها در R (بسته ها و غیره) یا با caret مفید خواهد بود. این یک مجموعه داده پراکنده با حدود 100 هزار نمونه است که 5000 نمونه متعلق به کلاس 1 و بقیه به کلاس 0 است. هر نمونه حدود 20 ویژگی دارد و شامل مقادیر تهی است، با تشکر.
یادگیری ماشینی با کلاس های کج در R
86844
اجازه دهید $U_1=(X_1,Y_1)^T,\dots,U=(X_n,Y_n)^T$ i.i.d باشد. کپی از $U=(X,Y)^T\sim N_2(0,\Sigma)$ که در آن $$ \Sigma= \begin{pmatrix} \sigma^2 & \rho\sigma\tau \\\ \rho\ sigma\tau & \tau^2 \end{pmatrix} $$ به طوری که \begin{equation} \sum_{i=1}^n\min\\{U_iU_i^T,c\\} \end{equation} معکوس است که $\min\\{A,c\\}$ نشان دهنده ماتریس با عنصر $\ است. min\\{a_{ij},c\\}$. $c>0$ را داده و \begin{equation} را تعریف کنید b=\frac{\sum_{i=1}^n\max\\{-c,\min\\{X_iY_i,c\\}\\}}{\left(\sum_{i=1}^n \min\\{X_i^2,c\\}\sum_{i=1}^n\min\\{Y_i^2,c\\}\right)^{1/2}}. \end{equation} مشکل این است که چگونه ثابت کنیم \begin{equation} -E(\min\\{\sigma\tau Z^2,c\\})\leq b\leq E(\min\\{ \sigma\tau Z^2,c\\})، \end{equation} که در آن $Z$ توزیع استاندارد نرمال است. من نمی دانم چگونه می توانم این مشکل را شروع کنم. هر توصیه ای؟
نابرابری در متغیر نرمال دو متغیره
81810
> اجازه دهید $X_1, ... , X_n$ iid متغیرهای تصادفی معمولی توزیع شده باشد $N(\mu, > \sigma^2)$, $\mu \in \Bbb{R}$, $ \sigma^2 > 0 $. > > الف) یک آزمون یکنواخت قدرتمند با سطح اهمیت $\alpha$ > برای آزمایش $H_0 طراحی کنید: \sigma^2 = \sigma^2_0$ در مقابل $H_1: \sigma^2 > \sigma^2_0$. > > ب) برای قدرت آزمون فرمولی ارائه دهید. اجازه دهید $\sigma^2_1 > \sigma^2_0$. $\Lambda = \frac{L(\sigma^2_0)}{L(\sigma^2_1)}$ = $\frac{(\frac{1}{\sqrt{2\pi}})^n (1 /\sigma^2_0)^{n/2} e^{-\sum (X_i - \mu)^2/\sigma^2_0}}{(\frac{1}{\sqrt{2\pi}})^n (1/\sigma^2_1)^{n/2} e^{-\ مجموع (X_i - \mu)^2/\sigma^2_1}} \leq k$ برای مقداری $k < 1$. $\ به معنای e^{\frac{-\sum (X_i - \mu)^2}{2\sigma^2_0} + \frac{\sum (X_i - \mu)^2}{2\sigma^2_1} } \leq (\frac{\sigma^2_0}{\sigma^2_1})^{n/2}k$ اجازه دهید $k_1 = (\frac{\sigma^2_0}{\sigma^2_1})^{n/2}k$. ما $ \frac{-\sum (X_i - \mu)^2}{2\sigma^2_0} + \frac{\sum (X_i - \mu)^2}{2\sigma^2_1} \leq \ داریم ln(k_1)$ $\implies \sum (X_i - \mu)^2[\frac{1}{2\sigma^2_1} - \frac{1}{2\sigma^2_0}] \leq \ln(k_1)$ $\به معنای \sum (X_i - \mu)^2 \geq \ln(k_1)[\frac{1}{2\ sigma^2_1} - \frac{1}{2\sigma^2_0}]^{-1}$\implies \frac{\sum (X_i - \mu)^2}{\sigma^2_0} \geq \ln(k_1)[\frac{1}{2\sigma^2_1} - \frac{1}{2\sigma^2_0}]^{-1 }(\frac{1}{\sigma^2_0})$. اجازه دهید $k_2 = \ln(k_1)[\frac{1}{2\sigma^2_1} - \frac{1}{2\sigma^2_0}]^{-1}(\frac{1}{\sigma ^2_0})$. می دانیم که $\frac{\sum (X_i - \mu)^2}{\sigma^2_0}$ دارای مربع کای با n درجه آزادی است. بنابراین $k_2$ را انتخاب می کنیم به طوری که $P_{H_0}( \frac{\sum (X_i - \mu)^2}{\sigma^2_0} \geq k_2) = \alpha$ b) $P_{H_1}( \frac{\sum (X_i - \mu)^2}{\sigma^2_0} \geq k_2)$ $= 1 - \int^{k_2}_0$$(\frac{1}{\Gamma(n/2)2^{n/2}})x^{n/2-1}e^{-x/2} dx $. آیا پاسخ های من صحیح است؟ پیشاپیش ممنون
طراحی قدرتمندترین تست یکنواخت
81083
چگونه فرآیند ثابت را با استفاده از مثال‌های واقعی به زبان انگلیسی ساده برای فردی بدون پیش‌زمینه ریاضی توصیف می‌کنید؟ مخاطبان هدف بزرگسالانی هستند که هوش معقول دارند، اما بیشتر آنها سال ها، اگر نگوییم دهه ها، از مدرسه خارج شده اند.
فرآیند ثابت به زبان انگلیسی ساده
4762
برخی از گوگل نشان دادند که انجام آزمون F برای عدم تناسب در SPSS چندان پیش پا افتاده نیست. به نظر می رسد برای انجام این کار باید SPSS را فریب داد. برای مثال این را ببینید. آیا کسی می تواند منبع اطلاعات بهتری را در مورد چگونگی انجام این کار پیشنهاد کند؟ من SPSS 16 دارم. البته می دانم که با استفاده از R می توان آن را به راحتی انجام داد اما من به روش SPSS علاقه مند هستم. با تشکر
آزمون F برای عدم تناسب در SPSS
108318
من می خواهم یک مدل پیش بینی برای پیش بینی قیمت یک ماده خام کشاورزی ایجاد کنم. سری زمانی برای قیمت و تولید این ماده اولیه و همچنین قیمت نفت گرفتم. فکر می‌کنم می‌خواهم آن را با VECM مدل‌سازی کنم، اما من تازه شروع به استفاده از R کردم. 1) چگونه از R برای ایجاد چنین مدلی استفاده کنم؟ من شروع به نگاهی به بسته vars کردم اما مطمئن نیستم که چگونه از آن استفاده کنم... 2) اطلاعاتی که من برای تولید دارم سالانه ارائه می شود در حالی که اطلاعات مربوط به قیمت ها ماهانه داده می شود. چگونه می توانم از هر دو نوع داده استفاده کنم، با توجه به این واقعیت که می خواهم اطلاعات بیشتر ممکن را داشته باشم (و در نتیجه داده های ماهانه را نگه دارم)؟ پیشاپیش ممنون
پیش بینی قیمت کالاهای کشاورزی با R
10355
این یک سؤال کاملاً اساسی است زیرا من تازه وارد آمار هستم، اما امیدوارم کسی بتواند کمک کند! من اندازه نمونه 30000 رکورد دارم و تا کنون 6500 مورد بررسی شده است تا ببینیم آیا خطایی وجود دارد - از این 6500، 1124 مورد خطا دارند. کاری که من می‌خواهم انجام دهم موارد زیر است: 1) ببینید چه تعداد رکورد را باید بررسی کنم تا 97٪ از تمام رکوردهای خطا را پیدا کنم (این یک مقدار عمداً ثابت است) 2) با بررسی 6500 رکورد تعیین کنید که آیا در واقع به اندازه کافی بررسی شده است که همه (97٪ از کل) موارد خطا را پیدا کرده است. سوال من شبیه سوالی است که در اینجا یافت می شود، اما به اندازه کافی متفاوت است که من در مورد نحوه اعمال آن مطمئن نباشم! TIA، و امیدوارم که منطقی باشد! داوین **ویرایش برای گنجاندن داده های نمونه** داده های مورد نظر را می توانید در اینجا بیابید:
اندازه نمونه برای یافتن همه مقادیر خطا مورد نیاز است
103931
من سعی می کنم الزاماتی را که باید در هنگام ساخت یک مدل مارکوف پنهان روی داده ها اعمال شود، شرح دهم. آیا داده ها باید با الزامات یک زنجیره مارکوف مطابقت داشته باشند؟ یعنی آیا باید حالت های گسسته و متوالی، توزیع احتمال ثابت هر حالت و ویژگی های IID داشته باشد؟ الزامات زنجیره مارکوف دقیقا چیست؟
الزامات داده برای ساخت HMM
47253
من در حال خواندن فصل آمارهای مکرر از کتاب کوین مورفی _ یادگیری ماشینی - یک دیدگاه احتمالی _ هستم. بخش راه انداز به این شرح است: > بوت استرپ یک تکنیک ساده مونت کارلو برای تقریبی نمونه گیری > توزیع است. این به ویژه در مواردی مفید است که برآوردگر یک تابع > پیچیده از پارامترهای واقعی است. > > ایده ساده است. اگر پارامترهای واقعی $θ^∗$ را می دانستیم، می توانستیم > بسیاری (مثلا $S$) مجموعه داده های جعلی، هر کدام به اندازه $N$، از توزیع واقعی، > $x_i^s \sim p (·| θ تولید کنیم. ^∗ )$، برای $s = 1 : S، i = 1 : N$. سپس می‌توانیم تخمین‌گر خود را از هر نمونه محاسبه کنیم، $\hat{\theta^s}=f (x^s_{1:N})$ و از توزیع تجربی نمونه‌های به‌دست‌آمده به عنوان تخمین خود از نمونه‌گیری استفاده کنیم. توزیع از آنجایی که $\theta$ ناشناخته است، ایده > **راه‌انداز پارامتری** این است که نمونه‌ها را با استفاده از $\hat{\theta}(D)$ > تولید کنیم. > > یک جایگزین، به نام **بوت استرپ ناپارامتریک**، نمونه برداری از > $x^s_i$ (با جایگزینی) از داده های اصلی $D$ و سپس محاسبه توزیع القایی > مانند قبل است. برخی از روش‌ها برای افزایش سرعت راه‌انداز زمانی که در مجموعه داده‌های عظیم اعمال می‌شود در (Kleiner et al. 2011) مورد بحث قرار گرفته‌اند. * **1**. متن می گوید: > اگر پارامترهای واقعی $\theta^*$ را می دانستیم ... می توانستیم تخمینگر خود را محاسبه کنیم > از هر نمونه، $\hat{\theta^s}$... اما چرا از تخمینگر استفاده کنم از هر نمونه اگر **از قبل** پارامترهای واقعی $\theta^*$ را بدانم؟ * **2**. همچنین، تفاوت بین توزیع تجربی و توزیع نمونه در اینجا چیست؟ * **3**. در نهایت، من تفاوت بین بوت استرپ **پارامتری** و **ناپارامتریک** را از این متن کاملاً درک نمی کنم. هر دوی آنها $\theta$ را از مجموعه مشاهدات $D$ استنتاج می کنند، اما تفاوت دقیقاً چیست؟
سوالات در مورد بوت استرپ پارامتریک و ناپارامتریک
77061
فرض کنید $X_1، \ldots، X_n$ یک نمونه تصادفی از یک توزیع نرمال با میانگین $\theta$ و واریانس $1$ هستند. حداکثر تخمین‌گر احتمال $\theta$ را با محدودیت $\theta \geq 0$ پیدا کنید. من MLE را زمانی پیدا کردم که هیچ محدودیتی برای $\theta$ وجود نداشت. $$L(\theta|\mathbf{x})=(2\pi)^{-n/2} \text{exp}\Big(-\frac{1}{2}\sum_{i=1} ^{n}(x_i-\theta)^2 \Big)$$ افتراق $L(\theta|\mathbf{x})$ با توجه به تتا، و قرار دادن آن برابر با صفر $$\sum_{i=1}^{n}(x_i-\theta)=0 به دست می‌دهد \theta=\frac{1}{n}\sum_{i=1}^{n}x_i =\bar {x}$$ مشتق دوم منفی است، بنابراین MLE $\theta$ $\hat{\theta}=\bar{X}$ است. چگونه می توانم محدودیت $\theta \geq 0$ را وارد کنم.
MLE در یک فضای پارامتر محدود
81819
مجموعه ای از $M$ مشاهدات چند بعدی را در نظر بگیرید $X=\\{x_i\\}_{i=1..M}$ برای $x_i\in\mathbb{R}^N$، و $c_{ij} را تعریف کنید. $ ضریب همبستگی پیرسون بین $x_i$ و $x_j$ باشد. آیا یک عبارت ساده یا تقریب مفید برای میانگین همبستگی پیرسون دوتایی $C=\frac{1}{M^2}\sum_{ij}c_{ij}$ وجود دارد؟ از طرف دیگر، آیا عبارت ساده‌ای برای اندازه‌گیری دیگر وجود دارد که از نظر روحی شبیه به «همبستگی زوجی میانگین پیرسون» باشد، که ممکن است متفاوت از $C$ در بالا تعریف شود؟ (اگر $c_{ij}$ فاصله اقلیدسی مربع بود، پس ما $C=2Var(X)$ داشتیم و بنابراین نمی‌دانم که آیا نتیجه مشابهی برای همبستگی پیرسون وجود دارد یا خیر.) با تشکر!
میانگین همبستگی پیرسون زوجی