_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
52781
|
من روی تست مشترک با استفاده از Stata کار می کنم. آزمون از فرم استاندارد «آزمون F» نیست: «y = a*x1 + b*x2» و آزمایش اینکه آیا «a=b=0» است یا خیر. در عوض، آزمون به این شکل است: «y1 = a*x» و «y2=b*x» و آزمایش اینکه آیا «a=b=0.» چگونه آن را در «Stata» انجام دهیم؟
|
آزمون برابری ضرایب دو معادله مختلف در Stata
|
21872
|
من سعی می کنم تعیین کنم که آیا بین دو سؤال نظرسنجی در مورد اثربخشی یک انجمن آنلاین موضوعی خاص وابستگی وجود دارد یا خیر. اولین سوال نظرسنجی می پرسد که کاربر چقدر سوالات یا نظرات خود را ارسال می کند. سوال دوم نظرسنجی می پرسد که آیا شرکت در جامعه اعتماد کاربر را در آن حوزه موضوعی افزایش می دهد یا خیر. فکر می کنم باید از آزمون Chi-Square برای استقلال استفاده کنم. با این حال، من مطمئن نیستم که چگونه آن را محاسبه کنم، به خصوص با توجه به گزینه های پاسخ. گزینه های پاسخ احتمالی برای سوال 1 عبارتند از: 1. هرگز 2. 1-5 در هر ماه 3. 6-10 در هر ماه 4. 11+ در هر ماه و برای سوال 2 عبارتند از: 1. کاملا مخالف 2. مخالف 3. نه موافق و نه مخالف 4. موافق 5. کاملا موافق آیا آزمون Chi-Square برای استقلال آزمون صحیحی است و اگر بنابراین، چگونه از آن در برابر داده ها استفاده کنم؟ آیا داده ها نیاز به گروه بندی دارند؟ به عنوان مثال، آیا باید پاسخ های سوال 1 را در یک انتخاب دودویی از هرگز ارسال نکنید یا گاهی پست کنید؟ ممنون از کمک و تخصص شما ==== سوالات بیشتر * من به راحتی می توانم عدد مشاهده شده را از داده های نظرسنجی برای هر مقطع به دست بیاورم (مثلاً کاملاً مخالفم و هرگز، موافقم و 1 تا 5 بار و غیره). اما شماره مورد انتظارم را کجا پیدا کنم؟ * آیا من 1 تا 5 بار، 5 تا 10 بار، و 11 یا بیشتر را با هرگز مقایسه می کنم (هرگز مقدار پایه یا مورد انتظار نیست)؟
|
چگونه تشخیص دهیم که آیا دو سوال نظرسنجی مستقل هستند؟
|
62921
|
من دو متغیر باینری اصلی غیر معنیدار در مدل رگرسیون لجستیک دودویی خود دارم، اما تعامل آنها معنیدار است. متغیرها در مرکز قرار دارند و هیچ چند خطی وجود ندارد (همه VIF ها حدود 1.0 هستند). متغیرهای اصلی غیر معنادار هستند، اما اثر متقابل آنها وجود دارد. من می خواهم آن تعامل قابل توجه دو تخمین غیر معنی دار را تفسیر کنم. چیزی شبیه به این خواهد بود: **اثر** متغیر A در سطح 1 متغیر B (B1) کمتر قابل مشاهده است و در سطح دوم B (B2) بیشتر قابل مشاهده است. یا همین را می توانم در مورد کمتر دیده شدن **اثر** B در A1 و بیشتر در A2 بگم... با این حال مشکل اینجاست که نه اثر A قابل توجه است و نه تاثیر B! بنابراین تفسیر فوق، اگرچه به ظاهر صحیح است، اما ناسازگار یا عجیب به نظر می رسد. (چگونه یک اثر غیر معنی دار قرار است توسط متغیر دیگر تقویت شود؟)... **در یک فکر دوم**، به نظر می رسد که در واقع امکان پذیر است. به عنوان مثال، اگر موارد با B2 را از نمونه خود حذف کنم، اکنون اثر A در نمونه قابل توجه است (این موارد B2 در نمونه است که اجازه نمی دهد A به عنوان معنی دار ظاهر شود)... در حال حاضر در ذهن من است، اما آیا شما هنوز چیزی غیر از تفسیر بالا در ذهن دارید؟ خیلی ممنون
|
چگونه می توان تعامل معنادار دو پیش بینی کننده اصلی غیر معنی دار را تفسیر کرد؟
|
55877
|
در مشخصات مدل زیر، که یک رگرسیون لجستیک 2 سطحی تصادفی است:  آیا دو واحد سطح پایین تر ($i$) ) با مقدار یکسان $x_{1ij}$ و در همان واحد سطح بالاتر ($j$) اما با مقادیر متفاوت برای $y_{ij}$ همان پیشبینی شده است $\pi_{ij}$؟
|
تفسیر احتمالات از یک رگرسیون لجستیک مدل مختلط
|
14660
|
من در تلاش برای درک استفاده (و سوء استفاده) از این دو معیار پاسخ هستم. هنگام مقایسه اثر یک درمان با کنترل: * یک رویکرد محاسبه اثر نسبی درمان است: $$E_1 = \frac{X_T - X_C}{X_C}$$ * رویکرد دیگر محاسبه نسبت پاسخ درمان به پاسخ کنترل: $$E_2 = \frac{X_T}{X_C} = E_1 + 1.$$ آیا این شاخص ها نام دارند؟ معانی آنها چگونه متفاوت است؟ آیا شرایط خاصی وجود دارد که در آن یکی به دیگری ترجیح داده شود؟ * * * _توجه: این سوال از نسخه اصلی اصلاح شده است، امیدوارم با حذف جزئیات خاص مطالعه، وضوح ارائه شود._
|
$\frac{X_T-X_C}{X_T}$ در مقابل $\frac{X_T}{X_C}$ به عنوان معیار اثر درمان؟
|
102756
|
اگر تعداد کمی مشاهدات (حدود 5) در یک نمونه داشتم و انحراف معیار جامعه نامشخص بود، چه آزمایشی میتوان انجام داد تا ببینیم که آیا مقدار یکی از مشاهدات تفاوت معنیداری با میانگین دارد؟ نمونه ای از این امر می تواند آزمایش این باشد که آیا یک داور از 5 داور در یک مسابقه امتیازی به طور قابل توجهی متفاوت از سایر داوران می دهد یا خیر.
|
آیا می توانید آزمایش کنید که آیا یک قاضی امتیازهای متفاوتی با سایر داوران می دهد؟
|
83433
|
من میخواهم بپرسم فواصل پیشبینی بلندمدت (چند قدم جلوتر) چگونه با تابع «predict.Arima» در R محاسبه میشود. من بهویژه به مدلهای ARIMA، مدلهای SARIMA و به مدلهای ARIMA با رگرسیور خارجی (شامل آرگومان xreg علاقهمندم). => رگرسیون با خطاهای ARIMA)
|
فواصل پیش بینی پیش بینی می کنند.آریما ر
|
60697
|
به عنوان بخشی از تحقیقات ریاضی خود، سعی می کنم ترافیک شهرم را مدل کنم. من داده های شمارش جریان ترافیک را از بزرگراه ها و جاده های شهر جمع آوری کرده ام. من از مدل پواسون برای توزیع استفاده می کنم. دادههایی که من جمعآوری کردم گاهی در آزمون مجذور کای مردود میشوند. در این شرایط، کدام مدل / اضافه دیگر را پیشنهاد می کنید؟ من می خواهم اساساً محدودیت های یک مدل خاص در ترافیک سنگین را نیز بیان کنم و بهترین نوع مدل را برای جریان های ترافیکی مختلف نتیجه گیری کنم. * داده های من 13 درجه آزادی دارند. مقدار chi-square خیلی بزرگ می شود - حدود 3000 در این مورد چه کاری باید انجام دهم؟
|
برازش داده ها به پواسون
|
105408
|
وضعیتی را در نظر بگیرید که در آن n مورد باید به زیر مجموعه های مجزا $k < n$ تقسیم شوند. ضرایب چند جمله ای تعداد پارتیشنهای متمایز را ارائه کنید که $n_1$ آیتمها در گروه $1$، $n_2$ در گروه $2$، قرار دارند. . . ، $n_k$ در گروه $k$ قرار دارند. ** ثابت کنید که تعداد کل پارتیشنهای مجزا برابر است با $k^n$** از اینکه از هیچ نماد نمادین استفاده نکردم عذرخواهی میکنم، هنوز نمیدانم چگونه این کار را انجام دهم. من فرض میکنم برای بدست آوردن سمت چپ معادله، یعنی $(x+y)^n$، باید از ضریب دو جملهای استفاده کنیم. بنابراین اساساً به اثبات $x+y = k$ خلاصه می شود.
|
تمرین در احتمال
|
14664
|
من می خواهم درصدهای زیر را با هم مقایسه کنم: a<-c(0.59،0.60،0.55،0.55،0.60،0.58،0.67،0.68) b<-c(0.16،0.21،0.26،0.53،0.84،0.89،0.84،.0. * مقادیر a احتمالاتی هستند که با آنها محاسبه می شوند قاعده bayes * مقادیر «b» تعداد نمونههایی از کل «t.test(a,b)» است که انجام دادم. آیا این مناسب است؟ اگر نه چگونه می توانم این دو را با هم مقایسه کنم؟ به روز رسانی: به جای بررسی تفاوت در میانگین، آیا می توان به ارزش مکاتبات بر اساس مقدار نگاه کرد؟ به عنوان مثال 0.59 را با 0.16، سپس 0.6 را به 0.21 و غیره مقایسه کنید
|
آیا مقایسه میانگین ها با استفاده از آزمون t که در آن داده های خام درصد هستند مناسب است؟
|
58967
|
من دوباره در مورد همبستگی ها سوال دارم. من یک متغیر دوگانه دارم که میخواهم با استفاده از ضریب همبستگی دوتایی نقطهای، آن را با دیگری (متریک) مرتبط کنم. من یک نتیجه غیر قابل توجه دریافت می کنم (n=28). اما نگرانی من این است که یکی از متغیرها تقریباً هیچ تغییری در مقادیر ندارد: 27 مشاهده $1$، 1 مشاهده $0$ است! به عبارت دیگر، مهم نیست که متغیر 2 چه مقداری داشته باشد، متغیر 1 تقریباً در همه موارد مقدار 1 را دارد. آیا این می تواند دلیل معنی دار نبودن یک همبستگی باشد؟
|
همبستگی معنی دار نیست زیرا واریانس کافی وجود ندارد؟
|
14667
|
چندین کران بالایی ساده و پرکاربرد در دم توزیع فوق هندسی وجود دارد، از جمله $P(X > E[X]+tn) <= e^{-2t^{2}n}$، که در آن X فوق هندسی با پارامترهای N، M و n. (ابر هندسی نمونه برداری از یک جامعه را توصیف می کند، N اندازه جامعه است، M تعداد آیتم های جالب است، n اندازه نمونه ای است که می کشیم، و X تعداد آیتم های جالب در نمونه است. ) این مقاله سرگرم کننده خلاصه خوبی است: > متیو اسکالا. نابرابریهای دم فرا هندسی: پایان دادن به جنون، 2009. به نظر میرسد یک دست نوشته منتشر نشده است، اما در http://ansuz.sooke.bc.ca/professional/hypergeometric.pdf موجود است، با این حال، من نتوانستم یک نسخه ساده پیدا کنم. و کران پایینی نسبتاً تنگ در همان احتمال دم. کسی یکی را می شناسد؟
|
کران پایین برای دم توزیع فراهندسی
|
57438
|
من در یادگیری ماشین جدید هستم و سعی می کنم از scikit-learn(sklearn) برای مقابله با یک مشکل طبقه بندی استفاده کنم. هم **DecisionTree** و هم **SVM** می توانند یک طبقه بندی کننده برای این مشکل آموزش دهند. من از «sklearn.ensemble.RandomForestClassifier» و «sklearn.svm.SVC» برای جا دادن همان داده های آموزشی استفاده می کنم (حدود 500000 ورودی با 50 ویژگی در هر ورودی). _RandomForestClassifier_ با یک طبقه بندی کننده در حدود یک دقیقه بیرون می آید. _SVC_ بیش از 24 ساعت استفاده می کند و همچنان به کار خود ادامه می دهد. چرا **SVC** اینقدر ناکارآمد عمل می کند؟ آیا مجموعه داده برای **SVC** خیلی بزرگ است؟ آیا **SVC** برای چنین مشکلی مناسب نیست؟ پیشاپیش متشکرم
|
چرا svm به اندازه درخت تصمیم روی همان داده ها خوب نیست؟
|
102759
|
همانطور که میدانم، یک شبکه عصبی مصنوعی پرسپترون/تک لایه با تابع فعالسازی لجستیک سیگموئید همان مدل رگرسیون لجستیک است. هر دو مدل با این معادله ارائه میشوند: $F(x) = \frac{1}{1-e^{-\beta X}}$ الگوریتم یادگیری پرسپترون آنلاین و مبتنی بر خطا است، در حالی که پارامترهای رگرسیون لجستیک میتوانند با استفاده از انواع الگوریتم های دسته ای، از جمله گرادیان نزول و BFGS با حافظه محدود، یا یک الگوریتم آنلاین، مانند تصادفی، یاد گرفته شود. شیب نزول آیا تفاوت دیگری بین رگرسیون لجستیک و پرسپترون سیگموئید وجود دارد؟ آیا باید انتظار داشت که نتایج یک رگرسیور لجستیک آموزش دیده با نزول گرادیان تصادفی مشابه پرسپترون باشد؟
|
تفاوت بین رگرسیون لجستیک و پرسپترون
|
58962
|
من در حال ساخت یک مدل رگرسیون چندگانه - پیچیده در یک تابع - با یک متغیر وابسته و ده ها متغیر مستقل هستم. دلیل ساختن یک تابع این است که باید این تحلیل را با تقریباً 75 مجموعه داده مختلف انجام دهم. چالش این است که متغیرهای مستقل زمانی که از نظر زمانی با تاخیر مواجه می شوند با متغیر وابسته ارتباط بهتری دارند. متأسفانه، همه تأخیرهای زمانی برای هر متغیر یکسان نیستند و من میخواهم ترکیب بهینه تأخیرهای زمانی را برای هر متغیر تعیین کنم در حالی که بهینهترین مقدار تنظیمشده R^2 را برای مدل رگرسیون چندگانه دریافت میکنم. علاوه بر این، پس از ساختن یک مدل اولیه، سعی میکنم با استفاده از تابع «step(modelbase,direct=both)» مدل را کاهش دهم. در رویکردی که من در حال حاضر دارم، تمام متغیرهای مستقل را با همان تعداد هفته با تاخیر زمانی مواجه می کنم. این منجر به بهترین مدل ممکن می شود که در آن همه متغیرهای مستقل دارای تأخیر زمانی یکسانی هستند، اما من معتقدم (با یک فرضیه معتبر که از این موضوع حمایت می کند) زمانی که ما تاخیر زمانی را برای هر متغیر مستقل متفاوت کنیم، مدل بهتری وجود دارد. سوال من این است که بهترین استراتژی برای تعیین بهترین مدل مناسب بدون افزایش تعداد گزینه ها چیست. اگر بخواهم بین 0 تا 20 هفته تاخیر زمانی در گام های هفتگی برای 12 متغیر مستقل تعیین کنم، به سرعت در تلاش برای یافتن یک تطابق بین 4.096e+15 متغیرها (=20^12) هستم. من میتوانم مشکل را با استراتژی زیر کاهش دهم: با یافتن بهترین مدل متناسب با یک متغیر مستقل در زمانهای متفاوت شروع کنید. مرحله دوم اضافه کردن یک متغیر مستقل دوم با وقفه های زمانی مختلف و یافتن بهترین مدل با دو متغیر مستقل است که در آن دومی در وقفه های زمانی مختلف امتحان می شود در حالی که اولی ثابت نگه داشته می شود. سپس یک متغیر سوم اضافه کنید که با ثابت نگه داشتن دو متغیر اول، رویکرد مشابه دوم را برای آن در نظر می گیریم و متغیر سوم را با تاخیرهای زمانی متفاوت تغییر می دهیم. چیزی به من می گوید که این استراتژی ممکن است رویکرد مناسبی باشد، اما چیزی که ممکن است یک مدل کلی بهتر نیز وجود داشته باشد که شامل متغیرهای نه بهینه برای هر متغیر مستقل منفرد باشد. آیا کسی وجود دارد که در مورد چگونگی مقابله با این چالش روشن کند؟
|
استراتژی ساخت بهترین برازش مدل رگرسیون چندگانه با متغیرهای تاخیر زمانی
|
110288
|
من به چیزی برخورد کردم که من را به نوعی گیج کرده است، امیدوارم کسی بتواند به من کمک کند. من یک ANOVA مختلط با یک فاکتور درون آزمودنی ها با دو سطح «زمان» و یک فاکتور بین آزمودنی ها «گروه» انجام دادم. این مقایسه بین یک گروه مثبت و یک گروه منفی در نمرات قبل و بعد تمرین بود. نتایج یک اثر اصلی معنیدار را نشان داد اما اثر متقابل معنیداری نداشت. شاید باید در آنجا توقف می کردم، اما برای هر گروه تست های t وابسته جداگانه انجام دادم. اینها نشان داد که نمرات یک گروه تغییر معنی داری داشته است اما نمرات گروه دیگر تغییر نکرده است. پس الان دیگه نمیفهمم آیا اثر متقابل معنیدار نشاندهنده این نیست که تغییری در نمرات وجود دارد و این تغییر تحت تأثیر گروه قرار گرفته است (که کاهش نمرات بین گروهها تفاوت معنیداری دارد)؟ از آنجایی که هیچ تعامل معنیداری وجود نداشت، آیا نباید تغییرات مشابهی را در هر دو گروه (یا هر دو معنیدار یا نه) پیدا کنم؟ خوب، امیدوارم که این آسان تر از آن چیزی باشد که در حال حاضر به نظرم می رسد، مرسی دواونس. اس.
|
ANOVA مختلط اثر متقابل معنی داری را نشان نداد، اما عمق را نشان داد. آزمون t تنها برای یکی از گروه ها تأثیر معنی داری نشان داد
|
58964
|
می خواستم بدانم آیا ابزاری مانند R وجود دارد که بتوان از آن برای شناسایی فرآیند ARIMA با مقدار صحیح استفاده کرد؟ من می دانم که با استفاده از بسته پیش بینی در R می توانیم فرآیند ARIMA را شناسایی کنیم، آیا بسته ای برای ایناریما وجود دارد؟ متشکرم
|
شناسایی فرآیند ARIMA با ارزش صحیح، INARIMA
|
112004
|
من سعی می کنم تأثیر اشباع واحد پنهان (خروجی 0 و 1 را برای سیگموید، و نه زیاد در بین) بر عملکرد آموزش شبکه عصبی تجزیه و تحلیل کنم، و از نظر تئوری کمی احساس می کنم گیر کرده ام: چه کسی می گوید اشباع لزوماً است. یک چیز بد؟ ایده این است که یک واحد اشباع نمی تواند تفاوت زیادی بین الگوها ایجاد کند. با این حال، این تنها در صورتی درست است که واحد مقدار یکسانی را برای همه سیگنالهایی که دریافت میکند، خروجی دهد. اگر واحد فقط باینری شود چه؟ البته مجموعه ای از واحدهای باینری ظرفیت اطلاعاتی کمتری نسبت به مجموعه ای از توابع غیرخطی پیوسته دارند... اما شاید واحدهای باینری (اشباع شده) همچنان جایگاهی داشته باشند و لزوما نباید حذف شوند؟ نظر شما در مورد خطرات اشباع چیست؟ و... آیا درمان های استانداردی به جز منظم سازی وجود دارد؟
|
آیا اشباع NN همیشه بد است؟
|
14665
|
من می خواهم بفهمم ارزش بالقوه مادام العمر یک مشتری بر اساس الگوهای خرید آنها با محصولات ما چقدر است. من داده های تراکنشی دارم که به من می گوید مشتری چه چیزی را خریده است، چه زمانی و چقدر هزینه کرده است. یک مشتری ممکن است یک عمر مانند این داشته باشد: ماه 1: مجوز خرید 300 دلار در ماه 3: 400 دلار مجوز خرید B ماه 12: 150 دلار تمدید یک ماه 15: مجوز تمدید نکنید B ماه 24: مجوز را تمدید نکنید A مجوزها وجود ندارد مانده تا تمدید شود...دیگر مشتری نیستید؟ ارزش کل طول عمر: 850 دلار مشتریان می توانند هر تعداد مجوز که می خواهند خریداری کنند و برنامه تمدید می تواند از ماهانه به سالانه متفاوت باشد. چیزی که من به آن علاقه مندم پیدا کردن یک الگوریتم طبقه بندی مناسب برای متمایز ساختن آن دسته از مشتریانی است که به احتمال زیاد تمدید نمی کنند در مقایسه با مشتریانی که تمایل دارند. به عنوان مثال، اگر شخصی برای دو سال متوالی تمدید کند، آیا در صورت خرید محصول متفاوتی نسبت به کسی که فقط یک بار آن را تمدید کرده است، احتمال تمدید آن بیشتر است؟ میدانم که برای یک الگوریتم طبقهبندی به نوعی مقدار «خروجی» برای آموزش نیاز دارم. من نمی دانم که آیا می توانم از مقدار طول عمر کل به عنوان این مقدار خروجی استفاده کنم یا مقداری از آن را. در حالت ایدهآل، چیزی که من میخواهم روشی است که بتواند همه این متغیرها را در نظر بگیرد و آنها را به درستی وزن کند. SVG ها، Naive Bayes، K-Means همگی به ذهنم می رسند، اما من به اندازه کافی با آنها آشنا نیستم تا بدانم از کدام یک استفاده کنم یا چگونه آنها را به درستی اعمال کنم. اگر کسی بتواند من را در مسیر درست راهنمایی کند، واقعا ممنون می شوم.
|
روش مناسب برای محاسبه ارزش طول عمر مشتری چیست؟
|
44429
|
من در دریافت تمام ترکیبات از مجموعه داده خود با مشکل مواجه هستم. برای انجام این کار به پیشنهادات و راهنمایی شما نیاز دارم. من یک فایل دارم که ستون اول آن شامل مناطق است و فایل پنج ستون دیگر نشان می دهد که آیا یک رویداد الزام آور رخ می دهد یا نه. منطقه TF1 TF2 TF3 TF4 TF5 Reg1 8 0 4 9 11 Reg2 2 0 0 4 0 Reg3 0 8 9 0 3 Reg4 6 82 8 0 4 در اینجا رایج ترین ترکیب TF1، TF3، TF4، TF3، TF5 و TF2 است. ، TF5. . من یک فایل از 1700 منطقه (ردیف) و 25 رویداد (ستون) الزام آور دارم. چگونه می توانم با مقداری امتیاز مرتبط برای هر ترکیب به نتیجه دلخواهم نزدیک شوم. متشکرم.
|
ترکیبات محاسباتی
|
27826
|
نمونههای iid را از یک تابع توزیع ثابت $F(x)$ در نظر بگیرید و میانه آن را در نظر بگیرید. حال میانه دیگری را از نمونههای iid در نظر بگیرید که در آن نیمی از $F_1(x)$ و نیمی دیگر از $F_2(x)$ با $F_1(x)+F_2(x)=2F(x)$ برای همه گرفته شده است. x$. کدام میانه واریانس بیشتری دارد؟
|
واریانس میانه از توزیع مخلوط
|
27821
|
اگر تا به حال موردی وجود داشته است که این موضوع روشن شود، مشکل مونتی هال است. حتی پل اردوس بزرگ نیز فریب این مشکل را خورد. سوال من که پاسخ دادن به آن ممکن است دشوار باشد این است که احتمال اینکه ما بتوانیم به پاسخی آنقدر مطمئن باشیم که با استدلال شهودی دریافت کنیم و در عین حال آنقدر اشتباه باشیم، چیست؟ قانون بنفورد در مورد ارقام اول و پارادوکس زمان انتظار نمونه های معروف دیگری از این دست هستند.
|
چرا نمی توانیم به شهود خود با احتمال اعتماد کنیم؟
|
112001
|
داشتم می خواندم: یک مشکل بالقوه از این واقعیت ناشی می شود که خطای اندازه گیری (نمونه گیری) مرتبط با رگرسیون بتا ممکن است به صورت مقطعی متفاوت باشد. این ممکن است ناهمگونی را معرفی کند که باعث تخمین ضرایب ناکارآمد (هر چند بی طرفانه) می شود. چرا خطای «نمونهگیری» اندازهگیری منجر به ناهمسانی میشود؟
|
خطای نمونه گیری اندازه گیری و ناهمواری
|
38601
|
من به دنبال اجرای LDA هستم. من در مورد این یکی، MALLET می دانم اما به زبان جاوا کدگذاری شده است و من به عملکرد بیشتری نیاز دارم. کسی میتونه به من مرجعی بده؟
|
اجرای تخصیص دیریکله نهفته
|
112008
|
من می خواهم یک GLM با متغیر پیوسته و متغیر طبقه ای به عنوان عوامل ثابت انجام دهم. برای مثال وزن پیش بینی شده بر اساس قد و جنسیت. از آنچه به نظر می رسد، گزینه GLM تک متغیره در SPSS فقط به متغیرهای طبقه بندی شده به عنوان عوامل ثابت اجازه می دهد و نه متغیر پیوسته. اگر به جای آن یک رگرسیون خطی انجام دهم، برعکس است: نمیتوانم متغیر مقولهای را به عنوان یک IV داشته باشم، فقط پیوسته است. لطفا کمک کنید!
|
مدل خطی عمومی (GLM) با متغیر پیوسته و متغیر طبقه ای (SPSS)
|
14661
|
من مدل پروبیت زیر را دارم: داده کتابخانه (خارجی) کتابخانه (MASS) <- read.dta (Braith_statecap_JPR.dta) داده <- داده[data$year > 1959،] model1 <- glm(allons3 ~ confbord + rpc + confbord_rpc + neeighlgdp + polity2l + polity2sq + lgdp96l + lnpop + postcoldw + peceall، داده = داده، خانواده = دو جمله ای (پیوند = probit)) داده ها به همراه یک فایل stata do را می توانید در: مجله تحقیقات صلح: Bratithwaite دریافت کنید. : Braithwaite2010 در مقاله ای که داده ها از آن گرفته شده است، نویسنده اثرات عبارت تعامل در مدل را شبیه سازی می کند. عبارت confbord_rpc، ضرب از قبل انجام شده است). confbord یک متغیر ساختگی است و rpc از 0 تا 7 متغیر است. او ابتدا اثرات را با confbord که روی 0 تنظیم شده است، و rpc از 0 تا 7 (هر چیز دیگری با میانگین ثابت نگه داشته میشود) محاسبه میکند. سپس اثرات را از همان مدلها کم میکند که confbord در 1 ثابت نگه داشته شده است. این رویه من این را با استفاده از کد زیر تکرار کرده ام: #شبیه سازی ضرایب بر اساس مدل بتا <- coef(model1) covvar <- summary(model1)$cov.unscaled coefs.sim <- mvrnorm(10000، بتا، covvar) #let rpc ثابت confbord را در 0 تغییر می دهد و سایر متغیرها را با میانگین ثابت <- 1 confbord تغییر می دهد. <- 0 rpc <- seq(0,7,1) ncivwar_rpc <- ncivwar * rpc neeighlgdp <- 8.077 polity2l <- -0.4691 polity2sq <- 56.51 lgdp96l <- 8.123 <- post col.allw0p 16.14 #آنها را در یک ماتریس به هم متصل کنید effect0 <- cbind(constant,ncivwar,rpc, ncivwar_rpc, neighlgdp, polity2l, polity2sq, lgdp96l, lnpop, postcoldw,peelecall) #برای به دست آوردن اثرات matriefficient matrixal با ماتریس ماتریس مولتی جین نتایج 0 <- coefs.sim %*% t(effects0) #بررسی هر اثر حاشیه ای روی CDF نرمال استاندارد شده، برای به دست آوردن نتایج احتمالات پیش بینی شده0 <- اعمال (نتایج 0,1:2، تابع(x) pnorm(x)) #انجام رویه مشابه برای confbord در 1 ثابت <- 1 confbord <- 1 rcp <- seq(0,7,1) ثابت می ماند ncivwar_rpc <- ncivwar * rpc neeighlgdp <- 8.077 polity2l <- -0.4691 polity2sq <- 56.51 lgdp96l <- 8.123 lnpop <- 9.028 postcoldw <- <16 اثرات صلح <- <16 همه. cbind(constant,ncivwar,rpc, ncivwar_rpc, neiglgdp, polity2l, polity2sq, lgdp96l, lnpop, postcoldw, peaceall) results1 <- coefs.sim %*% t(effects1) results1 <- اعمال (نتایج1,1) x) pnorm(x)) # را کم کنید احتمالات تخمین زده شده از یکدیگر نتایج <- results1 - results0 # نمودار نتایج x <- seq(0,7,1) به معنی <- اعمال (نتایج،2، میانگین) sdUpper <- اعمال (نتایج،2، تابع(x) quantile (x، 0.975)) sdLower <- اعمال (نتایج، 2، تابع (x) quantile (x، 0.025)) نمودار (x,means, ylim = c(-1,.2), type = l) خطوط(x,sdUpper, lty = 2) خطوط(x,sdLower, lty = 2) خطوط(x,rep(0 ,8)، col = قرمز) مشکل این است که با این روش من تأثیر بسیار کمتری نسبت به گزارش نویسنده در مقاله میگیرم (شکل 1)، آیا کسی میتواند متوجه اشتباه من شود؟
|
اثرات حاشیه ای پروبیت را با یک اصطلاح تعاملی شبیه سازی کنید
|
83436
|
من چهار متغیر در مجموعه دادهام دارم: یک حجم (عددی) و سه متغیر عامل: سیگاری (بله/خیر)، ورزش (بله/نه) و مرگ (بله/خیر). میخواهم تأثیر عامل مرگ بر حجم را بفهمم. با این حال، از نظر تئوری، حجم ها تحت تأثیر دو متغیر عامل دیگر نیز قرار می گیرند. من مدل زیر را امتحان کردم: lm(حجم^(1/3)~مرحوم+سیگاری+ورزش) و عوامل سیگاری و ورزش معنی دار بود در حالی که عامل مرگ معنی دار نبود. با این حال، من دیده ام که برخی از افراد چنین مشاهداتی (سیگاری ها و ورزشکاران) را حذف کرده اند، در حالی که اعتقاد بر این است که آنها تأثیر قابل پیش بینی دارند. من آن را نیز امتحان کردم، با کاهش داده هایم به حدود 2/3، و سپس با بقیه مشاهدات، تنها عامل مرگ معنی دار بود. حال، چه رویکردی را باید برای این کار اتخاذ کنم و چرا؟ با تشکر
|
کنترل برای یا حذف در مدل خطی
|
14832
|
من سعی می کنم با استفاده از برنامه R یاد بگیرم که چگونه یک توزیع احتمال را به بردار داده تطبیق دهم، اما توزیع های احتمال بالقوه زیادی برای استفاده وجود دارد! بنابراین سوال من این است که چگونه بهترین توزیع را برای داده های خود پیدا کنم و چگونه ثابت کنم که توزیع مناسبی را انتخاب کرده ام؟ آیا می توانم مقادیر AIC را برای مجموعه کاملی از توزیع های مختلف بدست بیاورم؟ داده ها داده های مشاهده ای تعداد زنبورهایی است که از گل ها بازدید می کنند. هر گونه تعداد معینی بازدید دارد، از این رو فرکانس های متفاوتی دارد. هدف یافتن بهترین توزیع برای توصیف بازدید زنبور عسل است، نشان می دهد که من توزیع مناسب را انتخاب کرده ام و سپس از آن توزیع برای نمونه برداری تصادفی برای مجموعه ای از شبیه سازی ها استفاده می کنم. در اینجا داده ها به نظر می رسد، این بردار مشاهدات شمارش است. صفر باد شده است، با توزیع دم بلند (شاید دوجمله ای منفی با باد صفر؟). i.vec=c(0,63,1,4,1,44,2,2,1,0,1,0,0,0,1,0,0,3,0,0,2, 0,0,0,0,0,2,0,0,0,0,0,0,0,0,0,0,0,0,6,1,11,1,1,0,0, 0،2) و در اینجا برخی از پارامترهای اساسی وجود دارد که من محاسبه کرده ام من از انحراف استاندارد برای سیگما استفاده می کنم و فی نسبت صفرها در داده ها است. m=mean(i.vec) #[1] 3.040816 sig=sd(i.vec) #[1] 10.86078 tab<-table(i.vec) zero.prop<-as.numeric(tab[1])/ sum(as.numeric(tab)) #[1] 0.6122449 همانطور که می بینید، انحراف معیار بسیار بیشتر است از میانگین، و من نسبت بسیار بالایی از صفر دارم.
|
برازش توزیع احتمال به داده های بادشده صفر در R
|
27829
|
در تصویر داده شده می توانید نموداری با نوارهای خطا با طول های مختلف در هر سمت بالا و پایین مشاهده کنید. میلهها با محاسبه «خطای استاندارد» یک بار برای «همه نقاط بالای» مقدار میانگین و یک بار برای «خطای زیر» ایجاد شدند.  از آنجایی که اطلاعات در مورد این روش بسیار کم است، از خودم می پرسم استفاده از آنها صحیح است یا فقط عبارت اشتباهی است (خطای استاندارد پایین/بالا) که من استفاده کردم؟ و در نهایت معنای آنها چیست؟
|
خطای استاندارد بالا/پایین منطقی است؟
|
110289
|
من به دنبال متنی هستم که به کسی که در عمل از GLM استفاده می کند کمک کند تا با GAM آشنا یا راحت باشد. کتاب درسی آنلاین یا فیزیکی خوب است. من به عنوان یک کارآموز به این موضوع نزدیک میشوم، بنابراین عملی را به نظری ترجیح میدهم، اما مطمئن هستم که پیشزمینهای برای هضم یک متن نظریتر را دارم، اگر اتفاقاً ارزش خاصی داشته باشد. من هم تقریباً به طور انحصاری از R استفاده می کنم. اگر متون/آموزشهای R گرا را میشناسید واقعاً قدردانی میکنیم. ممنون اریک
|
متن مقدماتی برای GAM
|
112007
|
من در حال انجام مطالعه ای بر روی 3 دارو هستم که پاسخ را قبل از درمان مقایسه می کنم. هدف من این است که بدانم آیا این داروها موثر هستند و کدام یک بهتر است. من از آزمون های غیر پارامتری استفاده کردم زیرا نتایج به طور معمول توزیع نشده و غیر قابل تبدیل بودند. دو دارو با تفاوت معنیدار در آزمون امضای Wilcoxon مؤثر بودند و داروی سوم تفاوت معنیداری نشان نداد. با این حال، هنگام مقایسه پس نتایج با استفاده از آزمون کروسکال-والیس، تفاوت معنی داری مشاهده نشد و پیش نتایج نیز با استفاده از آزمون کروسکال-والیس، تفاوت معنی داری را بین این گروه ها نشان داد. چرا اینطور است؟ آیا تست های اشتباهی را انتخاب کردم؟
|
چرا از آزمون رتبه امضا شده ویلکاکسون و آزمون کروسکال-والیس نتایج متناقضی دریافت می کنم؟
|
83439
|
به نظر من این درست است: **لما**. فرض کنید $\ell(x,\theta)$ یک تابع درستنمایی (به اندازه کافی منظم) است. سپس $$\frac{\partial^2\left(\log \ell(x,\theta)\right)}{\partial \theta \partial x}\ge0$$ معادل ویژگی نسبت درستنمایی یکنواخت است. **اثبات**. (فقط دستکاری نمادین.) زیرنویس های $x$ نشان دهنده مشتق جزئی w.r.t هستند. x$. $$\frac{\partial}{\partial \theta}\left(\frac{\ell_x(x,\theta)}{\ell(x,\theta)}\right) \ge0$$ $$\Updownnarrow $$ $$\forall x,\forall \theta_1 > \theta_0,\intop_{\theta_0}^{\theta_1}\frac{\partial}{\partial \theta}\left(\frac{\ell_x(x,\theta)}{\ell(x,\theta)}\right) \mathrm{d}\theta \ge0$$ $$\Updownarrow$$ $$ \ell_x(x,\theta_1)\ell(x,\theta_0)-\ell_x(x,\theta_0)\ell(x,\theta_1) \ge0$$ $$\Updownarrow$$ $$\frac{\partial}{\partial x}\left(\frac{\ell(x,\theta_1)}{\ell(x,\theta_0)}\right)\ge0 , \mathrm{QED}.$$ با فرض اینکه این درست باشد، تصور میکنم کسی قبلاً آن را ثابت کرده است. کسی مرجعی داره؟
|
ویژگی نسبت احتمال یکنواخت: اثبات من را بررسی کنید. همچنین، چه کسی آن را اول ثابت کرد؟
|
795
|
من داده هایی دارم که توسط شخص دیگری گردآوری شده است که در آن میانگین امتیازات در طول زمان محاسبه شده است - میانگین ها بین 0-100 است. نمرات اصلی در بسیاری از موارد دارای مقادیر منفی هستند و میانگین نیز منفی بوده است، میانگین خام از 30- تا 90 متغیر است. این نرمال سازی چگونه انجام می شود؟ با تشکر
|
عادی سازی سری ها
|
83386
|
من برای دوره ای که در حال انجام آن هستم، مطالعه بیشتری انجام داده ام و این را دیدم. کسی میتونه برام توضیح بده لطفا _یک سری زمانی ممکن است چندین الگوی مؤلفه را نشان دهد. رگرسیون با متغیرهای ساختگی چه تفاوتی با رگرسیون با متغیرهای عقب افتاده دارد؟ این 2 رویکرد چگونه با این الگوهای مؤلفه برخورد می کنند؟
|
متغیرهای ساختگی / عقب مانده و الگوهای مؤلفه در تحلیل رگرسیون
|
14830
|
کدام صحیح تر است؟ * فرضیه صفر را بپذیرید؛ یا * فرضیه صفر را رد نکنید آیا واقعاً معنای جداگانه ای وجود دارد که من در اینجا گم کرده ام؟
|
اصطلاحات آزمون فرضیه در اطراف صفر
|
112009
|
من در حال انجام تحقیق در مورد توسعه حق الزحمه حسابرسی در سال 2005-2012 هستم. من می خواهم ببینم آیا روند نزولی یا صعودی در آنها وجود دارد. من یک متغیر شمارش سالها ساخته ام (2005=1 2012=8) و اکنون باید از آن در رگرسیون چندگانه استفاده کنم تا روند کارمزدها را ببینم. می دانم چگونه رگرسیون چندگانه را انجام دهم اما با متغیر count در SPSS چه کار کنم؟ ممنون میشم اگه کسی بتونه در این مورد کمک کنه
|
شمارش متغیر به عنوان متغیر کنترل در رگرسیون در SPSS
|
15131
|
به بیان ساده: آیا تفاوتی در رویکردهای بیزی و مکرر در تحلیل داده های اکتشافی وجود دارد؟ من هیچ سوگیری ذاتی در روشهای EDA نمیدانم زیرا هیستوگرام یک هیستوگرام است، یک نمودار پراکنده یک نمودار پراکنده است، و غیره، و همچنین نمونههایی از تفاوتها در نحوه آموزش یا ارائه EDA (با نادیده گرفتن مقاله نظری خاص توسط A. Gelman) پیدا نکردهام. . در نهایت، من به CRAN نگاه کردم، داور همه چیزها: من بسته های متناسب با رویکرد بیزی را پیدا نکردم. با این حال، من فکر کردم که CV ممکن است چند نفر داشته باشد که می توانند این موضوع را روشن کنند. چرا باید تفاوت هایی وجود داشته باشد؟ برای شروع: 1. هنگام شناسایی توزیع های قبلی مناسب، آیا نباید این موضوع را به صورت بصری بررسی کرد؟ 2. زمانی که داده ها را خلاصه می کنید و پیشنهاد می کنید از یک مدل مکرر یا بیزی استفاده کنید، آیا EDA نباید به کدام سمت بروید؟ 3. این دو رویکرد تفاوت های بسیار واضحی در نحوه رسیدگی به مدل های مخلوط دارند. شناسایی اینکه یک نمونه احتمالاً از ترکیبی از جمعیت ها می آید، چالش برانگیز است و به طور مستقیم با روش مورد استفاده برای تخمین پارامترهای مخلوط مرتبط است. 4. هر دو رویکرد شامل مدل های تصادفی هستند و انتخاب مدل با درک داده ها انجام می شود. داده های پیچیده تر یا مدل های پیچیده تر نیاز به زمان بیشتری در EDA دارند. با چنین تمایزاتی بین مدلهای تصادفی یا فرآیندهای تولید، تفاوتهایی در فعالیتهای EDA وجود دارد، بنابراین آیا نباید تمایزاتی ناشی از رویکردهای تصادفی مختلف وجود داشته باشد؟ توجه 1: من به فلسفه های هیچ یک از اردوگاه ها توجهی ندارم - من فقط می خواهم به هر شکافی در جعبه ابزار و روش های EDA خود بپردازم.
|
آیا تفاوت هایی در رویکردهای بیزی و مکرر به EDA وجود دارد؟
|
80529
|
من با رگرسیون (خودرگرسیون برداری) تازه کار هستم و اخیراً با مشکل زیر مواجه شدم: 1. اگر از متغیرهای وابسته و مستقل خام برای انجام رگرسیون استفاده کنم، آزمون R^2$، DW-d و خطای استاندارد تخمین برای هر متغیر وابسته بسیار خوب است. $R^2$ بالاتر از $95\%$ است. 2. با این حال، هنگامی که متغیرهای وابسته و مستقل به صفر میانگین و متغیر واحد نرمال می شوند (ستون نرمال شده)، این معیارها بدتر می شوند. $R^2$ از 60\%-90\%$ متغیر است. پس بعد از اینکه داده ها را عادی کردم چه اتفاقی افتاد؟
|
نرمال کردن به صفر میانگین و واریانس واحد قبل از رگرسیون
|
798
|
من علاقه مندم که تا آنجا که می توانم روشی بهینه برای تعیین تعداد سطل در هیستوگرام پیدا کنم. دادههای من باید حداکثر بین 30 تا 350 شی باشد، و بهویژه سعی میکنم آستانهگذاری را اعمال کنم (مانند روش Otsu) که در آن اشیاء خوب، که باید تعداد کمتری داشته باشم و باید بیشتر پراکنده شوند، از جدا میشوند. بد اشیاء، که باید از نظر ارزش متراکم تر باشند. یک مقدار مشخص برای هر شی امتیاز 1-10 دارد. من 5-10 شی با امتیاز 6-10 و 20-25 شی با امتیاز 1-4 داشتم. من میخواهم یک الگوی باینینگ هیستوگرام پیدا کنم که به طور کلی به چیزی مانند روش Otsu اجازه میدهد تا از اشیاء با امتیاز پایین فاصله بگیرد. با این حال، در اجرای Otsu که من دیدم، اندازه bin 256 بود، و اغلب من نقاط داده بسیار کمتری نسبت به 256 دارم، که به نظر من نشان می دهد که 256 عدد bin خوبی نیست. با دادههای کم، چه رویکردهایی را باید برای محاسبه تعداد سطلهای استفاده کنم؟
|
محاسبه تعداد بهینه bin ها در یک هیستوگرام برای n، که در آن n بین 30-350 است.
|
83387
|
من چند توضیح در مورد الگوریتم EM خوانده ام (به عنوان مثال از تشخیص الگوی بیشاپ و یادگیری ماشین و از اولین دوره آموزشی راجر و جرولامی در مورد یادگیری ماشین). اشتقاق EM خوب است، من آن را درک می کنم. من همچنین میدانم که چرا الگوریتم چیزی را پوشش میدهد: در هر مرحله ما نتیجه را بهبود میدهیم و احتمال با 1.0 محدود میشود، بنابراین با استفاده از یک واقعیت ساده (اگر تابعی افزایش یابد و محدود شود سپس همگرا شود) میدانیم که الگوریتم به همگرا میشود. برخی راه حل با این حال، چگونه بفهمیم که حداقل محلی است؟ در هر مرحله ما فقط یک مختصات را در نظر می گیریم (متغیر پنهان یا پارامتر)، بنابراین ممکن است چیزی را از دست بدهیم، مانند اینکه حداقل محلی نیاز به حرکت همزمان توسط هر دو مختصات دارد. من معتقدم این مشکل مشابه کلاس کلی الگوریتم های تپه نوردی است که EM نمونه ای از آن است. بنابراین برای یک الگوریتم کلی تپه نوردی، این مشکل را برای تابع f(x,y) = x*y داریم. اگر از نقطه (0، 0) شروع کنیم، تنها با در نظر گرفتن هر دو جهت به طور همزمان می توانیم از مقدار 0 به سمت بالا حرکت کنیم.
|
چرا الگوریتم حداکثرسازی انتظارات تضمین شده است که به حداقل، حتی محلی همگرا شود؟
|
100800
|
به عنوان یک مبتدی در یادگیری ماشینی (ML) و هوش مصنوعی (AI)، من اینجا هستم تا برخی از نشانگرهای الگوریتم کلی را در مورد سوال زیر بپرسم، که آن را به یک سوال بسیار عمومی ساده کرده ام. من یک مدل $M$ دارم که با چند پارامتر $p_1, p_2, \dots,p_n$ تعریف شده است. اکنون میخواهم $M$ را بهینه کنم، به عنوان مثال، با تنظیم کردن $p_1، p_2، \dots،p_n$، یک مقدار دارایی $M$ را به حداکثر برسانم. من به دنبال الگوریتمهایی هستم که در طول مسیر خوب و بد را «یاد بگیرند» و در پایان راهحل بهینه را پیدا کنند. یکی از الگوریتم های مشابه در ذهن من الگوریتم ژنتیک در هوش مصنوعی است، اما به دلایلی نمی توانم از آن استفاده کنم. بنابراین من اینجا هستم تا برخی از نشانگرهای الگوریتم را در ML دریافت کنم، امیدوارم.
|
ML و AI - توصیه الگوریتم برای بهینه سازی با تنظیم پارامترها؟
|
83381
|
بگویید من یک رگرسیون خطی ساده با مقادیر مشاهده شده y _y = a + bx_ دارم، سپس 1000 شبیه سازی دارم که به وسیله آنها _y_ را به طور تصادفی ایجاد کردم. (مساله تغییر _y_ نیست، من _y_ را از طریق یک مدل جداگانه تولید کردم.) برای هر شبیه سازی، تخمین مستقلی از _b_ دارم. هدف من این است که آزمایش کنم آیا برآورد واقعی من برای _b_ با _b's_ شبیه سازی شده من متفاوت است یا خیر. به طور معمول، من آزمایش میکنم که آیا _b_ در بازه اطمینان 95 درصدی 1000 _b's_ شبیهسازی شده قرار میگیرد یا خیر. با این حال، هر برآورد _b_ خطای استاندارد خود را دارد. چگونه این را در نظر بگیرم؟ من یک نشریه دیدم که تعداد شبیهسازیهایی را که دارای _b_ +/i 95% CI هستند که با 95% CI از _b_ از دادههای مشاهدهشده همپوشانی دارد، ارائه میکرد. آیا این روش استاندارد ارائه نتایج است؟ همچنین، اگر بخواهم نتایج (رابطه x-y) را به صورت گرافیکی نشان دهم چه می شود؟ از چه چیزی برای فاصله اطمینان 95 درصد شیب شبیه سازی ها استفاده کنم؟ متشکرم
|
مقایسه داده های شبیه سازی شده و واقعی
|
15130
|
من یک سوال در مورد تست های زوجی و غیر زوجی دارم. من تفاوت بین هر دو آزمون را می دانم. من از R برای تست Wilcoxon استفاده می کنم. تست من یک تست زوجی است، اما X و Y طول یکسانی ندارند و R خطا می دهد. نمیخواهم/فکر میکنم باید از تست بدون جفت استفاده کنم. مثلا من سوژه ای دارم که هر ساعت یک عدد کوکی درست می کند. من از نوعی درمان خاص برای افزایش استقامت استفاده می کنم. قبل از درمان او فقط می تواند 4 ساعت کار کند (بعد از روز خسته می شود) و مقداری کلوچه تولید می کند. بعد از درمان در هر ساعت کوکی های بیشتری تولید می کند و 7 ساعت بدون خستگی کار می کند. X شامل تعداد یا کوکی ها برای هر ساعت قبل از درمان و Y حاوی تعداد کوکی های بعد از درمان است. X شامل 4 مقدار و Y شامل 7 مقدار است. حالا اگر بخواهم از Paired Test استفاده کنم، R خطا می دهد. چه کار کنم؟ آیا راه حل یا توضیحی برای چنین شرایطی وجود دارد؟ آیا می توانم فقط NA NA را اضافه کنم؟ **این فقط یک مثال است لطفا به اشتباه در مثال اشاره نکنید، فقط برای مثال زدن است.** ممنون. ## EDIT اینجا اسکریپت R اصلی است که من از someData استفاده می کنم <- read.csv(file=cookie_data.csv,head=TRUE,sep=,) wilcox.test(someData$X, someData$Y, paired= درست) داده های نمونه: X,Y 2,3 3,2 3,3 2,2,3,7,2 وقتی از این اسکریپت استفاده می کنم، R این کار را انجام می دهد هیچ خطایی نده با این حال، هنگامی که من مقداری ازData$X را چاپ می کنم، 4 مقدار را چاپ می کند و پس از آن شروع به نوشتن NA NA NA می کند. متوجه شدم R به طور خودکار مقادیر خالی را با NA پر می کند. این اسکریپت به من مقدار p می دهد اما نمی دانم درست است یا نه.
|
چگونه می توان یک تست زوجی انجام داد در حالی که برخی از موارد جفت ندارند؟
|
790
|
من به یک مقاله علمی نگاه می کنم که در آن یک اندازه گیری منفرد با استفاده از میانگین لگاریتمی محاسبه می شود > 'نقاط سه گانه برای تولید یک سیگنال با گرفتن > میانگین لگاریتمی نقاط قابل اطمینان ترکیب شدند' **چرا میانگین لگاریتمی را انتخاب کنید؟** آیا نویسندگان فرضی در مورد توزیع اساسی دارند؟ این چیزی است که ... ورود به سیستم عادی؟ آیا آنها چیزی را انتخاب کرده اند که فکر می کنند معقول است ... یعنی بین میانگین و میانگین هندسی؟ هر فکری؟
|
چرا (یا چه زمانی) از log-mean استفاده کنیم؟
|
83383
|
من دادههای فروش دارم که اوج فروش بالایی را در ماه دسامبر به دست آوردهام، که من آنها را بهگونهای غیرفصلیکردم که هیچ قلهای وجود نداشته باشد. سپس روش Holt-Winter را نیز در فروش به کار بردم. سپس دادههای فروش غیرفصلی را با نتایج Holt - Winter با در نظر گرفتن میانگین بین این دو ترکیب کردم. اوجها همانطور که انتظار میرفت به من مقادیر کوچکتری نسبت به واقعیات قبلیام برای آن دورهها میدهند، اما من در مورد آن خیلی اذیت نمیشوم زیرا در جایی که به دلیل کمبود موجودی، افت زیادی در فروش دارم، پیشبینیهای خوبی دریافت میکنم که شکافهای فروش را برطرف میکند. این چیزی است که من به دنبال آن هستم و قله ها با بالاترین ارزش تاریخ برای آن نقطه جایگزین خواهند شد. اما می خواهم بدانم آیا این روش روشی مناسب برای انجام پیش بینی است؟ آیا روش من مشکلی دارد یا کسی در گذشته کاری مشابه انجام داده است. به عبارت دیگر داده های فروش تجزیه شده را با داده های فروش تجزیه نشده ترکیب کنید.
|
از فروش غیرفصلی استفاده کنید و آن را با روش پیش بینی دیگری برای پیش بینی فروش ترکیب کنید
|
77934
|
آیا مرجعی می شناسید (به صورت رایگان در وب موجود است) که در آن تست نسبت درستنمایی برای آزمایش ویژگی مارکوف اعمال شود؟ تنظیم یک زنجیره مارکوف گسسته قابل مشاهده مستقیم با ماتریس های انتقال داده شده است. کاربرد بتن مدلی برای انتقال رتبه اعتباری است. برخی از آزمونهای آماری در این مقاله ویژگیهای سری زمانی یک سیستم رتبهبندی بر اساس نسبتهای مالی اعمال شدهاند، اما جزئیات بسیار کمی وجود دارد. ارزیابی اموال مارکوف توسط فرانک بیکنباخ و اکهارت بود نمونه ای برای آزمایش اموال مارکوف است اما پشت دیوار پرداخت است. ویرایش: آزمون عینی این است: فرضیه صفر: انتقال رتبهبندی به توزیعهای رتبهبندی گذشته بستگی ندارد. فرضیه جایگزین: انتقال رتبهبندی به توزیعهای رتبهبندی گذشته (به معنای زنجیره مارکوف مرتبه اول) بستگی دارد.
|
استفاده از آزمون نسبت درستنمایی برای آزمایش ویژگی مارکوف
|
77930
|
اجازه دهید $B(t)$ یک حرکت براونی باشد. نشان دهید که فرآیندهای زیر حرکات براونی روی $[0,T]$ 1) $X(t)=-B(t)$ هستند. 2) $X(t)=B(T-t)-B(T)$، که در آن $T\lt \infty$; 3) $X(t)=cB\left(\frac{t}{c^2}\right)$; 4) $X(t)=tB(\frac{1}{t})$, $t>0$ ,$X(0)=0$. با تشکر برای کمک.
|
من می خواهم برخی از ویژگی های حرکت براونی را نشان دهم
|
86876
|
ما در تلاش هستیم تا یک مخزن داده برای ذخیره مجموعه داده ها از منابع مختلف طراحی کنیم، به گونه ای که بتوان آنها را به راحتی در ارائه داده های آنلاین استفاده کرد. این مخزن داده بخشی از وب سایتی خواهد بود که گزارش ها و داده های علمی در مورد سلامت عمومی را بررسی، تفسیر و بحث می کند. هدف آن دانشمندان، کارشناسان پزشکی و سیاست گذاران است. یکی از جنبه های برجسته سایت، تجسم داده ها خواهد بود: نمودارها و نقشه ها. داده های مورد استفاده در تجسم ها باید به صورت جدولی ارائه شوند و همچنین برای دانلود در دسترس باشند. ما در نظر داریم از یک کتابخانه جاوا اسکریپت برای نمودارها استفاده کنیم، احتمالا نمودارهای بالا. نقشه ها احتمالاً عمدتاً تصاویری با ناحیه کلیک هستند، اما برخی از ابزارهای سایت سرور ممکن است برای نقشه های خاص استفاده شوند. دادههایی که ما استفاده میکنیم، از سازمانهای دیگر، در قالب دادههای پایگاه داده و فایلهای ASCII جمعآوری میشوند، یا گاهی اوقات به سادگی از مطالعات علمی کپی میشوند. ما در نظر داریم در آینده به منابع داده باز پیوند دهیم. پیش از این، ما یک مدل داده عمومی ایجاد کردهایم که در آن هر مجموعه داده در قالب یکسان ذخیره میشد: یک مجموعه داده به یک متغیر مرتبط بود و برای هر اندازهگیری ابعاد زیر در دسترس بود: دوره، منطقه، سن، جنس و اجتماعی اقتصادی. وضعیت، همه آنها به صورت اختیاری در یک مجموعه داده وجود دارد. در نهایت، اندازه گیری ها به عنوان اعداد ممیز شناور ذخیره شدند. به عنوان مثال، مرگ و میر ناشی از بیماری های عروق کرونر قلب را در نظر بگیرید. یک رکورد در مجموعه داده، تعداد مطلق مرگ و میر در سال 2014 برای مردان هلندی در گروه سنی 65 تا 75 سال خواهد بود. داده های متا که مجموعه کامل، مقادیر دامنه خاصی از یک دامنه یا رکوردهای فردی را توصیف می کند، پشتیبانی می شود. مقادیر دامنه، مانند 2011، male و 65-75 بین مجموعه داده ها به اشتراک گذاشته شد. این امکان جستجو در میان مجموعه دادهها را فراهم کرد و تا حدی ترکیب مجموعههای دادههای مختلف را در یک تجسم تسهیل کرد. با این حال، این مدل داده به آمادهسازی گسترده دادهها قبل از وارد شدن نیاز داشت، از جمله تغییر محور و نگاشت مقادیر دامنه. جنبه دیگر نسخه سازی مجموعه داده ها بود. در برخی موارد، باید از جدیدترین داده های موجود استفاده شود، در موارد دیگر، باید از یک مجموعه ثابت استفاده شود، حتی اگر داده های جدیدتری در مخزن بارگذاری شود. در آن صورت، هر تصویرسازی به یک نسخه خاص مرتبط است. این نسخه تنها در صورتی ارتقا می یابد که متن همراه با تجسم بازبینی و به روز شود. نمودار روندی را تصور کنید که در آن سال های اخیر روند جدیدی را نشان می دهد. این دادههای جدیدتر فقط زمانی نشان داده میشوند که ویرایشگر آن روند را تحلیل کرده باشد. بنابراین، این موضوع خیلی مربوط به مجموعه داده های بزرگ نیست، بلکه بیشتر مربوط به تعداد زیادی مجموعه داده های متنوع است. ویژگی ها: * وجود اقدامات مختلف. گاهی اوقات، بیش از یک معیار وجود داشت، به عنوان مثال یک عدد مطلق و همچنین یک درصد یا یک نرخ استاندارد یا فواصل محرمانه. * سطوح مختلف تجمع در ابعاد: سال، ماه، روز. گروههای سنی 5 ساله یا 0-65/65+ و غیره. باید بتوان این موارد را در ارائه های جدولی با نمادهای پاورقی که به توضیحات مرتبط هستند نشان داد. * نسخه سازی مجموعه داده ها، که در آن نسخه های جدیدتر مقادیر را حذف، تصحیح و/یا اضافه می کنند. * تجمع ممکن است بی اهمیت باشد یا نباشد. برای اعداد مطلق، تجمیع یک جمع است. این به راحتی انجام می شود و پشتیبانی خواهد شد. برای نرخ های استاندارد، تجمیع پیچیده و خارج از محدوده مخزن است. در چنین حالتی، مجموع از پیش تجمیعشده باید به مجموعه داده اضافه شود تا بتوان حاشیهها را در ارائههای جداول متقابل نشان داد. این مجموع باید از اعداد پایه قابل تشخیص باشد، زیرا باید امکان حذف آنها از تجسم وجود داشته باشد. نمودار میلهای پشتهای را در طول سالها تصور کنید که در آن مجموعهها گروههای سنی هستند. کل در تمام سنین نباید در نوارهای انباشته گنجانده شود. * ما باید بتوانیم داده های استفاده شده در ارائه ها را به منبع اصلی ردیابی کنیم تا بتوانیم توضیح دهیم که از کجا آمده اند. بنابراین در حالت ایده آل، در هیچ کجای جریان کار، داده ها نباید کپی و پیست شوند و یا به صورت دستی ویرایش شوند. در بالای مخزن داده، یک سازنده ارائه وجود خواهد داشت. این آهنگساز باید بتواند از مخزن پرس و جو کند. این پرسشها باید در حالت ایدهآل از انتخابهایی که ویرایشگر انجام میدهد ایجاد شوند: فیلتر کردن، انتخاب ابعاد بهعنوان محور x، سری و غیره. پیوند دادن به نسخه جدیدتر مجموعه دادهها باید بدون تعریف مجدد کامل ارائه پشتیبانی شود. در این مرحله، ما در نظر داریم از مجموعههای داده بزرگتر با یک مدل داده اختصاصی، و نوعی آداپتور برای سازنده ارائه پشتیبانی کنیم، عمدتاً برای جلوگیری از مشکلات مختلف در واردات مجموعههای داده در یک مدل عمومی. آیا کسی این سناریو را می شناسد و پیشنهاداتی در مورد بهترین شیوه ها یا شاید حتی یک راه حل خارج از جعبه دارد؟
|
آیا پیشنهادی برای ذخیره مجموعه داده های متنوع برای تجسم آنلاین دارید؟
|
71577
|
من سعی میکنم اشتقاق **logit/probit** را که توسط فینی معرفی شده است، با استفاده از دادههای نمونه از http://dge.stanford.edu/SCOPE/SCOPE_12/SCOPE_12.html، فصل 6 پیادهسازی کنم (این لینک به یک فایل pdf است. صفحه 130، جدول 6.3. نتایج مشابه هستند اما یکسان نیستند. فینی LD50 = 4.85 را محاسبه کرد. این کد منبع و خروجی برنامه R من است: # Finney, 1952 dosis <- c(2.6,3.8,5.1,7.7,10.2) nges <- c(50,48,46,49,50) nok <- c (6،16،24،42،44) edx <- تابع (دوز=NA، nges=NA، nok=NA، lk='logit') { require(MASS) # weights w طبق Finney 1952: p <- nok/nges q <- 1-p w <- nges*p*q # logit/probit model edx.data <- data. فریم (دوز، نگس، نوک) glm.logit <- glm(cbind(nok،nges-nok) ~ dosis، family=binomial(lk), data=edx.data, weights=w) # محاسبه داده EDx r <- dose.p(glm.logit,p=seq(0.1,0.9,0.2)) # خلاصه آماری d <- data.frame(x=c(NA,NA,NA,NA)) نام ردیف (d) <- c('Deg. آزادی'، 'انحراف'، '1-chi.square'، 'تفاوت قابل توجه بین برازش ها و مشاهدات') d$x[1] <- df.residual(glm.logit) d$x[2] <- انحراف( glm.logit) d$x[3] <- 1-pchisq(d$x[2],d$x[1]) d$x[4] <- ifelse(d$x[3]>0.05,'No','Yes') # چاپ جداول داده print(edx.data) writeLines('') print(r) writeLines('') print(d) return( glm.logit) } g <- edx(dosis=dosis، nges=nges، nok=nok، lk='logit') خروجی عددی به شرح زیر است: dosis nges nok 1 2.6 50 6 2 3.8 48 16 3 5.1 46 24 4 7.7 49 42 5 10.2 50 44 Dose SE p = 0.1: 1.171955 0.22512512 = 0.22512512 p 0.12064635 p = 0.5: 5.148754 0.09792762 p = 0.7: 6.682294 0.13521132 p = 0.9: 9.125553 0.24565236 x درجه. آزادی 3 انحراف 33.3237083095658 1-chi.square 2.75205023214653e-07 تفاوت معنی داری بین برازش ها و مشاهدات بله بنابراین، LD50 طبق این برنامه R برابر با 149/5 خواهد بود (در مقابل 4.85 محاسبه شده توسط F.85). اینجا چه اشکالی دارد؟ برای هر کمکی از شما بسیار متشکرم!
|
محاسبه مدل های log-logit یا log-probit با توجه به Finney با استفاده از R
|
27827
|
من اغلب با داده های نظرسنجی کثیف سروکار دارم که قبل از انجام هر گونه آماری نیاز به پاکسازی زیادی دارد. من قبلاً این کار را به صورت دستی در اکسل انجام می دادم، گاهی اوقات با استفاده از فرمول های اکسل، و گاهی اوقات ورودی ها را یک به یک بررسی می کردم. من شروع به انجام بیشتر و بیشتر از این کارها با نوشتن اسکریپت هایی برای انجام آنها در R کردم که بسیار سودمند بود (مزایای آن شامل داشتن سابقه کارهای انجام شده، احتمال کمتر اشتباه و امکان استفاده مجدد از کد در صورت داده ها است. مجموعه به روز می شود). اما هنوز هم انواعی از داده ها وجود دارد که من در مدیریت کارآمد آنها مشکل دارم. برای مثال: > d <- data.frame(موضوع = c(1,2,3,4,5,6,7,8,9,10,11), + hours.per.day = c(1 ، 2 ساعت، 2 ساعت، 2 ساعت، 3 ساعت، 1-2، 15 دقیقه، 30 دقیقه، چند ساعت، 1 ساعت و 30 دقیقه، 1 ساعت در هفته)) > د ساعت موضوع در روز 1 1 1 2 2 2 ساعت 3 3 2 ساعت 4 4 2 ساعت 5 5 3 ساعت 6 6 1-2 7 7 15 دقیقه 8 8 30 دقیقه 9 9 چند ساعت 10 10 1 ساعت 30 دقیقه 11 11 1 ساعت در هفته «hours.per.day» میانگین است تعداد ساعتهایی که در روز صرف یک فعالیت خاص میشود، اما آنچه ما داریم دقیقاً همان چیزی است که موضوع نوشته شده است. فرض کنید من تصمیم میگیرم که با پاسخهای مبهم چه کار کنم، و متغیر مرتب «hours.per.day2» را به صورت زیر میخواهم. ساعت موضوعی.در روز ساعت.در روز2 1 1 1 1.0000000 2 2 2 ساعت 2.0000000 3 3 2 ساعت 2.0000000 4 4 2hr 2.0000000 5 5 3 ساعت 3.0000000 3.0000000 7 7 15 دقیقه 0.2500000 8 8 30 دقیقه 0.5000000 9 9 چند ساعت 1000) و با علم به اینکه آزمودنی ها آزادند هر چیزی را که دوست دارند بنویسند، بهترین راه برای نزدیک شدن به این موضوع چیست؟
|
چگونه می توانم داده ها را با فرمت ناسازگار در R پاک کنم؟
|
78119
|
من 10 iid r.v دارم. با توزیع برنولی با $X_{i} = 1$ برای نتیجه مثبت. به من $\sum_{i=1}^{10} X_i= 1$ داده شده است و باید یک فاصله اطمینان 99٪ دو طرفه برای $\theta$ پیدا کنم. بنابراین $\alpha = 0.01$ و $z_{\alpha/2} = 2.575$ بر اساس توزیع نرمال استاندارد. واریانس $\sigma^{2} = \hat{\theta}(1-\hat{\theta})$ داده می شود، با $\theta = 1/10$ از اطلاعات داده شده. فاصله اطمینان این است: $$ \left(\hat{\theta} - z_{\alpha/2}\frac{\sigma}{\sqrt{n}}، \hat{\theta} + z_{\alpha/ 2}\frac{\sigma}{\sqrt{n}}\right) $$ بنابراین فاصله اطمینان من $(-0.143، 0.343)$ است. آیا من جایی در محاسبه به هم ریخته ام؟ من مطمئن نیستم که این فاصله اطمینان به من چه می گوید... شاید حجم نمونه خیلی کوچک است که واقعاً نمی توان اطلاعات مفیدی در مورد $\theta$ بدست آورد؟
|
فاصله اطمینان با نقطه پایان منفی به چه معناست؟
|
83438
|
هنگام مطالعه بخش تحلیل مداخله سری های زمانی، یک سوال در رابطه با توضیحات زیر دارم. نمودار زیر چندین الگوی پاسخ را برای تابع مرحله $S_t^T$ و تابع پالس $P_t^T$ تعریف می کند.  تابع step و تابع پالس به صورت  .com/dEq0B.png)  با توجه به الگوهای بالا، عملکرد فرم (13.1.4) در نمودار زیر ادعا شده است که معادل آن (در نمودار زیر با رنگ زرد مشخص شده است). به همین ترتیب، معادله (13.1.5) معادل معادله دیگری است که با رنگ زرد مشخص شده است. من نمی دانم چگونه این رابطه معادل را استخراج کنم. 
|
یک سوال در مورد مدل سازی انتقال برای تجزیه و تحلیل مداخله داده های سری زمانی
|
82316
|
من مطمئن نیستم که عنوان مناسب برای سوال من چیست، بنابراین آماده پیشنهاد/اصلاح هستم. حالا سوال: * من یک سری روزانه $X_t, t=1,...,T$ نیز سری $Y_t, t=1,...,T$ مشاهده کردم. * هدف من استفاده از $X$ برای پیش بینی $Y$ در آینده است. به طور خاص، من $X_t، t=T+k،...،T+K$ را مشاهده می کنم که در آن $k$ می تواند بزرگ باشد. من دیگر $Y_t$ را مشاهده نخواهم کرد. اما من می خواهم آن را تخمین بزنم. * بنابراین من یک رگرسیون را با خطای ARIMA با استفاده از $(X,Y)_t,t=1,...,T$ برازش کردم. (این با استفاده از بسته پیش بینی انجام می شود.) * سوال این است، (الف) از آنجایی که داده های جدید تا مدتی بعد ارائه نمی شوند ($k$ بزرگ است)، آیا هیچ پیش بینی هنوز معتبر است؟ (ب) حتی اگر معتبر باشد، چگونه می توانم پیش بینی کنم؟ آیا از $t=T+1$ شروع کنم و به سمت $t=T+k$ بروم؟ این ناکارآمد به نظر می رسد زیرا من به $t=T+1،...،T+k$ اهمیتی نمی دهم. علاوه بر این، این واقعاً ممکن نیست زیرا $X$ در طول آن دوره شکاف مشاهده نمیشود. (فکر میکنم میتوان استدلال کرد که شما میتوانید X$$ را با استفاده از مدل دیگری برای پر کردن شکاف پیشبینی کنید، اما این هنوز هم مشکل را حل نمیکند. که پیشبینی چیزهایی است که من به آنها اهمیت نمیدهم، چه رسد به بخش (الف) سؤال من) بنابراین، چه باید بکنم؟ P.S. اطلاعات اضافی می توانیم فرض کنیم که $T$ آنقدر بزرگ است که هر دوره را چندین بار پوشش دهد.
|
مدل پیشبینی اکنون توسعه یافته است، اما فقط بعداً استفاده میشود، آیا هنوز معتبر است؟
|
83382
|
من می خواهم اهمیت یک پیش بینی کننده خاص مورد علاقه را در یک رگرسیون دریافت کنم. نمونه داده IID نیست. نمونه شامل دو نمونه فرعی است. جفت دوقلو و تک قلو. بنابراین برای به دست آوردن یک تخمین قوی از اهمیت، می توانم به دو روش برای نمونه فکر کنم. (1) نمونه یکی از هر جفت دوقلو را با تمام تک قلوها ترکیب کنید، (2) نمونه یکی از هر جفت دوقلو را با نمونه گیری از تک قلوها با جایگزینی ترکیب کنید. کدام راه مناسب تر است؟ یا راه مناسب تری وجود دارد؟ من هم روی دادههایم امتحان کردم و هم آمار F آنووا را بین مدلهای دارای پیشبینیکننده علاقه و بدون آن (تکرار 1000 بار) ثبت کردم. هیستوگرام (1) طبیعی تر به نظر می رسد و هیستوگرام (2) دارای انحراف مثبت است. یک آزمون F بر روی میانگین آماره F البته منجر به (2) می شود که یک آماره F بالاتر و در نتیجه مقدار P کمتری ارائه می دهد. این ممکن است یک سوال ساده لوحانه باشد، اما من از پیوندهایی به ادبیات آمار قدردانی می کنم.
|
بوت استرپ یک نمونه با فرآیند تولیدی مختلط
|
78118
|
در یک دوره آزاد، میانگین مربع با استفاده از متغیر عامل توضیح داده شد. فرض کنید مدل خطی شما y = b0 + b1*I{x == A} + b2*I{x == B} است که در آن A، B متغیرهای فاکتور هستند. به نظر می رسد میانگین مربع b1 = Mean{(y - Mean(y))^2 | x==A} / Mean{(y - Mean(y))^2} که به این معنی است: انحراف بین طبقاتی / انحراف همه اما برای متغیرهای کمی، معنی Mean Sq چیست؟ امیدوارم سوال رو واضح توضیح داده باشم...
|
منظور از Mean Sq برای متغیرهای کمی در AOV چیست؟
|
80227
|
من یک انحراف معیار محاسبه شده، میانگین و تعداد عناصر در لیست دارم. برای هر ورودی عددی جدید به فهرست، باید انحراف استاندارد جدید را با استفاده از داده های ورودی قدیمی و جدید محاسبه کنم. من نحوه انجام کار را در کاغذ گیر کرده ام، بنابراین پیاده سازی کد من نیز انجام می شود. چگونه می توانم انحراف استاندارد جدید را پس از انجام ورودی جدید فرموله کنم؟ آنچه من دارم؛ * میانگین فعلی * std فعلی * # عناصر در لیست شبه کد. برای هر داده جدید، x1 انحراف std جدید را برمی گرداند
|
چگونه می توان انحراف استاندارد جدید را برای داده های جدید از داده های قدیمی پیدا کرد؟
|
82311
|
فرض کنید پایگاه دادههای $A$ و $B$، و جمعیتی از کاربران $\left\\{u_1,\ldots,u_n\right\\}$ دارید. شما در حال ساخت یک نمودار شبکه اجتماعی $\left\\{u_1,\ldots,u_n\right\\}$ هستید. از پایگاه داده A، یک ویژگی وزن لبه $a(i,j)$ دریافت می کنید که کاربر $i$ را به کاربر $j$ متصل می کند. از پایگاه داده B، وزن لبه مشابه $b(i,j)$ را دریافت می کنید. شما می خواهید یک شبکه واحد بسازید که همه این داده ها را در خود جای دهد. من می توانم به چند راه برای انجام این کار فکر کنم. 1. یال های $a$ و $b$ را جداگانه رفتار کنید، یک مولتی گراف بسازید... 2. دو وزنه یال را به نحوی با هم ترکیب کنید. فرض کنید وزن لبههای $e(i,j) = a(i,j) + \alpha b(i,j)$ را تعریف میکنید و $\alpha$ یک پارامتر است. من بیشتر به روش $2$ علاقه مند هستم، اما این امکان را در نظر بگیرید که $1$ می تواند به خوبی کار کند. آیا راهی برای بهینه سازی انتخاب $\alpha$ وجود دارد؟ یک ایده می تواند این باشد: یک زیرمجموعه کوچک از لبه ها را بردارید، و سپس سعی کنید مکان آنها را پیش بینی کنید (مثلاً با استفاده از رویکرد خوشه بندی/مثلث)، یا برازش یک مقدار احتمال در جایی که لبه های حذف شده هستند.
|
چگونه می توانید یک شبکه اجتماعی را به صورت تجربی از چندین منبع داده بسازید؟
|
15139
|
> نخ آینه ای در Mathoverflow. (من با فرآیندهای پواسون تازه کار هستم، بنابراین اگر اصطلاحات من نادرست است، لطفاً ویرایش کنید.) این یک مورد خاص از مشکلی است که من روی آن کار می کنم. به امید شهودی که به فرآیند پواسون چند بعدی تعمیم یابد. زمینه تقریبی توزیعی است که توسط $\arg\min$ یک فرآیند (غیر پواسون) در قضیه 1 این مقاله تعریف شده است. **تنظیم**: یک فرآیند پواسون در $[0,\infty)$، با نقاط $\\{ \Gamma_k\\}_{k=1}^\infty$, $\Gamma_k=E_1+\cdots+ در نظر بگیرید E_k$، $E_i\stackrel{iid}{\sim}\rm{نمایی}(1)$. $u=\inf\\{t:1\le\sum_{k=1}^\infty \mathbb 1(\Gamma_k\le t)\\}$ را در نظر بگیرید، که $1(\cdot)$ تابع نشانگر است. (اگر درست یک، اگر نادرست صفر باشد). در این مورد خاص، $u=\Gamma_1=E_1$، و بنابراین $u\sim\rm{Exp}(1)$. ما یک راه حل شکل بسته برای $u$ داریم، و دو لحظه اول (مرکزی) $\mathbb E(u)=1$ و $\rm{Var}(u)=1$ هستند. **سوال**: آیا می توانیم $\mathbb E(u)=1$ و $\rm{Var}(u)=1$ _بدون_ را با استفاده از شکل بسته $u$ استخراج کنیم؟ (در مشکل کلی من، هیچ فرم بسته ای وجود ندارد.) بنابراین ما می دانیم $u=\inf\\{t:1\le\sum_{k=1}^\infty \mathbb 1(\Gamma_k\le t)\ \}$، اما نمیتوانیم فقط از $u=\Gamma_1$ برای محاسبه لحظهها استفاده کنیم. **یادداشت ها/افکارها**: به عنوان یادآوری، میانگین اندازه گیری فرآیند پواسون در نظر گرفته شده $m(A)=\lambda(A)$ است، که در آن $\lambda$ اندازه گیری Lebesgue است (به عنوان مثال، $\lambda([ a,b])=b-a$; این بدان معنی است که تعداد نقاط مورد انتظار در هر بازه ای برابر با طول بازه است. همچنین، احتمال وقوع یک رویداد در $[t,t+dt]$$dt$ است زیرا نرخ در اینجا یک است. همچنین به طور بالقوه مفید است: معیار شمارش تصادفی $\hat N(t)=\sum_{k=1}^\infty 1(\Gamma_k\le t)$ را تعریف کنید. سپس، $\mathbb E(\hat N(t))=\lambda([0,t])=t$، و $u=\inf\\{t:1\le \hat N(t)\\ }$. برای اولین لحظه، متوجه شدم که در این مورد، $\inf\\{t:1\le \mathbb E(\hat N(t))\\}=\inf\\{t:1\le t\ \}=1=\mathbb E(u)$. یعنی حل $u$ پس از وصل کردن میانگین اندازهگیری، اتفاقاً میانگین $u$ را به دست میدهد. این به نظر من بهعنوان _not_ به طور کلی درست بود: $\mathbb E(u(X))\ne u(\mathbb E(X))$. اما ممکن است برخی از ویژگیهای فرآیند پواسون و/یا خصوصیات $u$ به این معنی باشد که $u$ یک تابع «خطی» فرآیند است، بنابراین این _is_ به طور کلی در اینجا صادق است؟ برای لحظه دوم هیچ پیشرفتی نداشتم. سعی کردم به انتظار $\mathbb E\left[(u-\mathbb E(u))^2\right]=\mathbb E[(u-1)^2]$ فکر کنم، اما نمیدانم چگونه میتوانم بدون تقلب آن را دریافت کنید همچنین تعجب کردم که آیا واریانس فرآیند وجود دارد، اگر رویکرد پلاگین برای لحظه اول معتبر باشد. اما اساسا گیر کرده است. در آخر، $\rm{Var}(u)$ یا $\mathbb E(u^2)$ کافی است، زیرا $\rm{Var}(u)=\mathbb E(u^2)-(\ mathbb E(u))^2$.
|
لحظات عملکرد فرآیند پواسون
|
31765
|
من آزمایشی را برای مطالعه اثرات مشترک سختی و قلیاییت (متغیرهای مستقل، IV) بر تولید مثل (تعداد فرزندان، متغیر وابسته، DV) ککهای آبی انجام دادم، اما مطمئن نیستم که چه آزمون آماری برای تجزیه و تحلیل دادهها مناسب است. اول، من مطمئن نیستم که آیا هر دو IV مستقل هستند یا خیر. آنها اغلب در آبهای طبیعی همبستگی دارند، بنابراین من آنها را در آزمایشاتم خود همبسته نگه داشتم (همبستگی مثبتی دارند). با این حال، من آنها را به طور مستقل دستکاری کردم (با افزودن نمک های مختلف به آب). ممکن است بگویم آنها مستقل هستند اما خود همبسته هستند؟! پس آیا آنها واقعاً مستقل هستند؟ سوال دوم: چگونه داده ها را تجزیه و تحلیل کنیم؟ طراحی فاکتوریل نیست: من 4 سطح سختی، 4 سطح قلیائیت را آزمایش کردم (این 16 آب می دهد، اما من فقط 10 آب را آزمایش کردم). از نظر گرافیکی، داده ها برهمکنش بین سختی و قلیائیت را در تولید مثل موجودات نشان می دهد، اما من نمی توانم آن را آزمایش کنم. با فرض برآورده شدن مفروضات ANOVA، آیا می توانم از ANOVA استفاده کنم؟ من ابتدا به انجام ANOVA به دنبال روش GLM و استفاده همزمان از سطح سختی و سطح قلیایی به عنوان فاکتورهای ثابت فکر کردم (اگرچه در نتیجه تکنیک اندازه گیری تا حدودی متفاوت هستند). اما به من گفته شد که ANOVA (GLM) را برای سطح سختی و به طور جداگانه برای سطح قلیایی انجام دهم، اما دلیل آن را نمیدانم. به هر حال، چگونه باید داده ها را تجزیه و تحلیل کنم؟
|
استقلال متغیرها و ANOVA
|
82314
|
من یک مدل 2SLS اجرا کردم. مقدار $\chi^2$ در جدول خروجی به ما چه می گوید؟ همچنین، هنگام آزمایش درون زایی تحت $H_0$: متغیرها برونزا هستند Durbin $p=.25$ Hausman $p=.34$ چگونه می توان اینها را تفسیر کرد؟
|
تحلیل مدل حداقل مربعات دو مرحله ای
|
34044
|
در یک مطالعه مشترک، ارزیابی بیش از 6 ویژگی محصول در یک زمان برای پاسخ دهندگان دشوار است. اغلب این از طریق استفاده از تجزیه و تحلیل پیوسته تطبیقی (ACA) حل می شود، که در آن پرسشنامه برای هر پاسخگوی فردی در حین انجام نظرسنجی اصلاح می شود. در ACA، نیازی به نمایش مشخصات کامل - یعنی تمام ویژگیها - هر محصول نیست. پروفایل های جزئی نشان داده شده است. یک مطالعه می تواند حداکثر 30 ویژگی را شامل شود، اما هرگز از پاسخ دهندگان خواسته نمی شود که بیش از 5 ویژگی را در یک زمان در نظر بگیرند. با این حال، برای انجام ACA، تا آنجا که من در حال حاضر از آن اطلاع دارم، باید نظرسنجی توسط یک میزبان نظرسنجی بسیار گران قیمت (به عنوان مثال 10000 دلار) میزبانی شود. سوال من این است که آیا می توان Conjoint پروفایل جزئی را بدون استفاده از ACA انجام داد؟
|
آیا یک مطالعه مشترک مبتنی بر انتخاب باید مشخصات کامل داشته باشد؟
|
72217
|
من از حدود 200 متغیر برای مقایسه 2 جمعیت، گروه A و گروه B استفاده میکنم. در اینجا نمایشی از شکل دادهها ارائه شده است. A 2 0.78 8 132 A 1 0.55 7 178 A 0 0.35 7 240 A 0 0.36 7 205 A 0 0.3 6 137 A Var1 VarA VarT Var3 گروه 5 0.24 10 205 B 8 0.76 8 794 120. 203 B 5 0.52 11 215 B 2 0.63 14 224 B 1 0.46 12 211 B 2 0.64 1 212 B 6 0.55 7 134 B 5 0.78 7 222 B 5 0.78 7 222 B 1 0.46 12 B 2 داده ها ستون به ستون (به عنوان مثال VarT از گروه A با VarT از گروه B). من در R کار میکنم. آزمایشهای فاصله آماری (مانند واگرایی کولبک-لایبلر، کرامر-فون میزس، فاصله باتاچاریا و آزمون کولموگروف-اسمیرنوف) را در این مورد مفید یافتم. مشکلی که من دارم این است که نمی توانم تصمیم بگیرم از کدام تست استفاده کنم، ترجیحات بین این تست ها چیست؟ متاسفانه من نتوانستم مقایسه ای بین این تست ها پیدا کنم. داده های من فقط عددی هستند و مقادیر NA ندارند و بسیار متغیر هستند. جهت گیری به سمت روش های دیگر برای آزمایش همپوشانی بین 2 توزیع در هر متغیر مورد استقبال قرار می گیرد. با تشکر فراوان،
|
آزمون های آماری فاصله
|
31769
|
حضور (یا احساس بهتر حضور، یعنی میزانی که فرد احساس میکند که یک تجربه واسطهای واقعاً واسطه نیست) متغیری است که تعیین آن بسیار دشوار است و این سؤال که چگونه آن را اندازهگیری کنیم به شدت در جامعه مربوطه مورد بحث است. یک بحث خاص مربوط به اعتبار پرسشنامه های استاندارد خود گزارشی است که برای سنجش حس حضور آزمودنی استفاده می شود. در یک آزمایش بین افراد، افراد یک کار جستجو را در یک دفتر واقعی یا مجازی انجام دادند. سپس حس حضور خود را در مجموعه ای از پرسشنامه های استاندارد ارزیابی کردند. شرکت کنندگان در شرایط مجازی احساس حضور مشابهی را نسبت به شرکت کنندگان در شرایط دنیای واقعی گزارش کردند. در حالی که نویسندگان تنها به این نتیجه میرسند که پرسشنامههای حضور باید یک «آزمون واقعیت» را پشت سر بگذارند تا مفید باشند، من شخصاً فکر میکنم که نتایج ممکن است در آزمایش درون آزمودنیها متفاوت باشد. حضور چنان مفهومی ذهنی و انتزاعی برای افراد عادی است که بعید می دانم احساس حضور سوژه A در شرایط X به طور معناداری با احساس حضور سوژه B در شرایط Y مقایسه شود، اما شرط X به یک سوژه چارچوب مرجع می دهد. در صورتی که آزمودنی در معرض هر دو قرار گیرد، شرایط Y را ارزیابی کنیم (توجه داشته باشید، IMO این مستلزم این است که حضور تنها می تواند معیاری برای تفاوت های نسبی بین شرایط در نظر گرفته شود تا مقیاس مطلق). این تا حدودی با این واقعیت اثبات می شود که پاسخ های پرسشنامه های حضور دارای واریانس بسیار بالا هستند. من قبلاً یک آزمایش (که دارای چهار شرط مختلف است) به عنوان آزمایش درون آزمودنی با استفاده از 48 موضوع و متعادل کردن ترتیب شرایط در بین آزمودنی ها طراحی کرده ام. سپس به این فکر کردم که آیا می توانم فرض خود را با داده هایم آزمایش کنم. بنابراین من به تجزیه و تحلیل دادههایم به عنوان دادههای درون آزمودنی فکر میکنم (یعنی با استفاده از یک ANOVA با اندازهگیریهای مکرر) و همچنین اولین شرطی را که هر آزمودنی در معرض آن قرار میگیرد در نظر بگیرم و به سادگی با آن زیرمجموعه دادهها طوری رفتار کنم که گویی از یک بین آمده است. -آزمودنی ها با این حال، من متعجبم که آیا این یک رویکرد آماری معتبر است و چه آزمون آماری مناسب خواهد بود، به جای اینکه به سادگی بیان کنم، برای مثال، در تحلیل درونی، شرط X با شرط Y متفاوت بود، در حالی که در بین آن، چنین نبود. بهعنوان مثال، آیا استفاده از _mean برای شرط X با استفاده از درون دادهها و _mean برای شرط X با استفاده از بین دادهها (برای هر چهار شرایط) بهعنوان فاکتورهایی برای ANOVA معتبر است تا ببینیم آیا میانگین یک شرط برای یک درون و یک تفاوت قابلتوجهی دارد یا خیر. بین آزمودنی ها آزمایش؟ توجه: من به طور بالقوه می توانم موضوعات بیشتری را اضافه کنم که فقط در معرض یک شرط قرار می گیرند تا تعداد نقاط داده موجود برای تجزیه و تحلیل درون و بین آزمودنی ها برابر شود، اما ترجیح می دهم تجزیه و تحلیل را فقط روی موضوعات اصلی انجام دهم، به عنوان (الف) آزمایش بسیار طولانی و دست و پا گیر است، و (ب) من در واقع امیدوار بودم که نگه داشتن یک مجموعه از موضوعات برای هر دو تجزیه و تحلیل به من نشان قوی تری از صحت فرضیه من بدهد، زیرا هر گونه تغییرپذیری را حذف می کند. به دلیل اینکه برخی از موضوعات در یک مجموعه داده ظاهر می شوند اما در مجموعه دیگر وجود ندارند.
|
داده های درون موضوعی را به عنوان داده های بین موضوعی تجزیه و تحلیل کنید
|
103391
|
توزیع تجربی من به این صورت است: من یک شاخص ژنتیکی تثبیت در جمعیت ها را محاسبه کرده ام که FST نام دارد. مقادیر من حداکثر مقدار یک را دارند. این به من توزیع تجربی مقادیر FST را برای نشانگرهای هر کروموزوم می دهد. اکنون، فهرستی از نشانگرها دارم که میخواهم بدانم آیا آنها در دم 5 درصدی توزیع تجربی من قرار میگیرند یا خیر. این بسیار ساده به نظر می رسد، اما من فکر کردم از آنجایی که تمام مقادیر داده را دارم، می توانم 5 درصد را با گفتن اینکه از 100 5 دارم محاسبه کنم، بنابراین چند عدد از تعداد مقادیر FST مرتب شده من است. به نظر شما این رویکرد درستی است یا من خیلی ساده فکر می کنم؟ پیشاپیش از شما متشکرم، بهترین، لوسیا
|
دم های شدید توزیع را محاسبه کنید
|
77936
|
من می خواهم یک مدل لوجیت چندسطحی سلسله مراتبی پیچیده را با ساختار فضایی تخمین بزنم. مدل یک مدل دو سطحی است. من 20 منطقه (سطح بالا) دارم که شامل چندین ناحیه (سطح پایین) است. متغیر وابسته رشد اشتغال در سطح منطقه است. مدل لاجیت چند سطحی باید حداقل شامل سه متغیر در سطح بالا و هشت متغیر در سطح پایین باشد. من کمی نگران این هستم که حجم نمونه من برای چنین مدل پیچیده ای برای تخمین نقطه ای قابل اعتماد و خطاهای استاندارد بسیار کوچک است. دو گزینه وجود دارد: 1. انتخاب مناطق بزرگتر که داده های مرتبط بیشتری برای آنها در دسترس است، در نتیجه: 20 منطقه با تعداد ناحیه در هر منطقه از 3 تا 40 متغیر است (میانگین تعداد مناطق در هر منطقه: 13) 2.) انتخاب مناطق کوچکتر منطقه، که منجر به: 20 منطقه با تعداد ناحیه در هر منطقه از 8 تا 400 متغیر است (تعداد متوسط مناطق در هر منطقه: 60) من دوست دارم از مناطق بزرگتر استفاده کنم، زیرا داده های بیشتری در دسترس است. آیا حجم نمونه برای مدل چندسطحی خیلی کوچک است؟ در ادبیات این موضوع بحث برانگیز است. برخی از نویسندگان می گویند که شما به حداقل 50 گروه با تعداد متوسط 50 عضو در هر گروه در یک مدل چند سطحی با داده های دوگانه نیاز دارید. دیگر ادعا می کنند که حداقل 20 گروه با حداقل 5 عضو در هر گروه کافی است. آیا آزمونی برای حداقل حجم نمونه برای مدل های چند سطحی وجود دارد (به هر حال من از R استفاده می کنم)؟ آیا یک رویکرد MCMC به من کمک میکند تا تخمینهای قابل اعتمادتری ارائه کنم؟ خارج از موضوع: آیا کسی سعی کرده است جلوه های فضایی (تأخیر فضایی یا خطای مکانی) را در مدل های چند سطحی بگنجاند؟ آیا این امکان پذیر است؟ پیشاپیش ممنون
|
مدل چند سطحی و حجم نمونه
|
47250
|
احتمالاً یک سؤال اساسی است، اما در اینجا آمده است: * فرض کنید ما 1000 نفر داریم که به یک نظرسنجی پاسخ می دهند (500 مرد، 500 زن) * پاسخ دهندگان می توانند یک سری از صفحات را لایک کنند. * هر پاسخ دهنده می تواند هر تعداد صفحه را که می خواهد لایک کند. ممکن است هرگز چیزی را دوست نداشته باشید. * برای صفحه 1، 200 مرد آن را لایک کرده و 150 زن آن را لایک کرده اند. * برای صفحه 2، 300 زن آن را لایک کرده و 50 مرد آن را لایک کرده اند. * برای صفحه 3، 4 زن آن را لایک کرده و 1 مرد آن را لایک کرده است. سوال کلی من این است: برای سناریوهای پاسخ کوچک (به عنوان مثال، صفحه 3)، حداقل حجم نمونه قبل از اینکه بتوانم واقعاً در مورد علاقه عمومی مرد/زن نتیجهگیری کنم چقدر است؟ من می توانم یک z-score را محاسبه کنم، اما مطمئن نیستم که این جمعیت فرعی را در نظر بگیرد (ممکن است در این مورد گیج شده باشم). من می دانم که تعریف من از اهمیت به میزان خطا و اطمینانی که می توانم تحمل کنم بستگی دارد، اما فرض کنیم فاصله اطمینان استاندارد (95٪) باشد.
|
حداقل حجم نمونه
|
88291
|
از عناصر یادگیری آماری، در صفحه 49 (در زمینه رگرسیون حداقل مربعات)، مجموعه اطمینان تقریبی (در تصویر نشان داده شده است) برای بردار پارامتر $\beta$ داده شده است.  من میخواهم این را در R پیادهسازی کنم. با این حال، نمیدانم چگونه $\beta$ را به عنوان موضوع، یعنی. نمیتوانم مجموعه اطمینان را به شکل زیر بسازم $$\beta \leq \hat{\sigma}^2 \chi^2_{p+1} \times something$$ واقعاً نمیدانم چگونه شرایط را دوباره مرتب کنم (از اعتماد به نفس تنظیم شده از تصویر). کسی میتونه لطفا اینجا کمکم کنه؟
|
ساخت مجموعه اطمینان تقریبی برای پارامتر بردار بتا در رگرسیون حداقل مربعات
|
88523
|
سوال تکلیف سلام، من یک سوال تکلیف ساده دارم که می پرسد: _می دانیم که وقتی نمونه برداری می کنیم، با احتمال مساوی از یک جمعیت محدود {x1, x2,..., xN} **بدون جایگزینی**، یک تصادفی ساده بدست می آوریم. نمونه به جای یک نمونه تصادفی (iid). فرض کنید X1,...,Xn (n < N) نمونه بدست آمده باشد. در کلاس ادعا می شود که X1،...، Xn_، اگرچه دیگر مستقل نیستند، اما همچنان به طور یکسان بر اساس pmf توزیع می شوند: f(x) = _1/N، اگر x = xi، برای برخی از 1 <= i <= N; 0، برای همه x های دیگر._ _ انتخاب اول X1 بدیهی است که از این توزیع پیروی می کند. نشان دهید که گزینه دوم X2 نیز بر اساس f(x) توزیع شده است._ کار من: من در مورد متغیرهای تصادفی قابل تعویض تحقیق کردم. فکر من این است که اگر بتوانم دنباله متغیرهای تصادفی X1،... را نشان دهم، Xn قابل مبادله است، پس هر کدام از Xi ها می توانند اولین متغیر تصادفی در دنباله باشند. بنابراین، هر Xi از f(x) پیروی می کند. سوال من: مطمئن نیستم که به درستی بفهمم قابل تعویض بودن یعنی چه؟ همچنین، من مطمئن نیستم که چگونه می توانید به درستی ثابت کنید که این دنباله قابل تعویض است. من واقعاً از هرگونه راهنمایی در مورد آن استقبال می کنم. متشکرم.
|
توزیع یک نمونه تصادفی ساده
|
88524
|
من با R بسیار بی تجربه هستم و فقط پیشینه محدودی در اکسل دارم اما داده هایی دارم که برای اجرای یک رگرسیون غیر خطی چندگانه با آنها نیاز دارم. بهترین راه برای انجام این کار چیست؟ با R یا Excel؟ از چه دستوراتی استفاده کنم؟
|
چگونه یک رگرسیون غیرخطی چندگانه را در اکسل یا R اجرا کنیم؟
|
78113
|
آیا کسی می تواند مقداری کد یا الگوریتم اکتاو/متلب را برای پیش پردازش عکسی که از یک رقم دست نویس از دوربین موبایل گرفته شده است به اشتراک بگذارد. پس از پیش پردازش، داده ها باید ویژگی های مشابه تصاویر رقمی مجموعه داده های MNIST داشته باشند. من یک شبکه عصبی دارم که با استفاده از مجموعه داده MNIST آموزش دیده است. اکنون میخواهم اجرای خود را با گرفتن تصاویر رقمی دستنویس با استفاده از دوربین تلفن و ذخیره آن در رایانهام آزمایش کنم. من می خواهم این تصویر را به عنوان ورودی برای آزمایش پیاده سازی شبکه عصبی خود ارائه دهم. پیشاپیش ممنون!!
|
تست تولید داده برای تشخیص دست خط شبکه عصبی
|
31768
|
فرض کنید من یک مجموعه داده $x_1، \ldots، x_n$ دارم و یک توزیع نرمال، نمایی و یکنواخت برای آنها قرار می دهم. تابع برازش دسته ای از آمارهای مربوط به تناسب را نشان می دهد، به عنوان مثال. AIC، BIC، chi-square، Kolmogorov-Smirnov، و غیره. من سعی میکنم کسی را متقاعد کنم که AIC در اینجا مناسب نیست، زیرا بسته به توزیعها، احتمال ورود به سیستم متفاوت و گاهی اوقات تعداد پارامترهای متفاوتی داریم. من مقدار p آزمون کولموگروف-اسمیرنوف را برای مقایسه برازش ها ترجیح می دهم. آیا رویکرد من موجه است؟ چگونه می توانم همکارم را متقاعد کنم که AIC در اینجا مشکلی ندارد (او دوست دارد یک مقاله ذکر شده یا چیزی معادل آن را ببیند)؟ پیشاپیش متشکرم **ویرایش:** به طور خاص، این مقاله به من نشان داده شد: http://www.vosesoftware.com/whitepapers/Fitting%20distributions%20to%20data.pdf من نمی دانم در این مورد چه بگویم. صفحه 4 ایرادات chi-squared، Kolmogorov-Smirnov و غیره را فهرست می کند و صفحه 5 و 6 AIC را می ستاید. آیا او درست است؟
|
آیا مقایسه توزیع های نصب شده با AIC اشکالی ندارد؟
|
88526
|
بیایید بگوییم که داده ها در یک برنامه ایراد دارند. خطاها در روشی از برنامه بذر می شوند. فرض کنید می توانم تمام ایرادات برنامه را پیدا کنم. اما، به دلیل هزینه یافتن همه آنها، می خواهم از عیوب نمونه برداری کنم. مشکل این است که چگونه حداقل اندازه نمونه را تخمین بزنیم. متغیر مستقل نام متدها در برنامه است. و متغیر وابسته تعداد خطاها با توجه به هر روش است. من هیچ ایده ای برای تعیین حجم نمونه ندارم زیرا متغیر مستقل مقوله ای است. یک ایده ممکن این است که فرض کنیم توزیع نرمال است و اندازه نمونه را بر اساس فواصل اطمینان تخمین بزنیم. اما نمیدانم که چگونه میانگین و واریانس نمونه را برای متغیر طبقهای بدست آوریم. می خواهم بدانم آیا ایده بهتر یا راه حل معمولی برای این مشکل وجود دارد؟
|
برآورد حداقل حجم نمونه زمانی که متغیر مستقل مقوله ای باشد
|
77939
|
من می خواهم یک رگرسیون ساده را تخمین بزنم. من 20 مشاهده و 10 پارامتر رگرسیون دارم. درجات آزادی برای بدست آوردن تخمین نقطه ای قابل اعتماد و مقادیر p بسیار کوچک است. من عبارت زیر را یافتم: یکی دیگر از مزایای تخمین MCMC مشکل درجه آزادی است. در تخمین حداکثر احتمال، اگر تعداد پارامترها در مقایسه با مشاهده بزرگ باشد، مدل ناپایدار می شود و نتیجه به دست آمده قابل اعتماد نخواهد بود. اما اگر از تخمین MCMC استفاده کنیم، برای مثال، تعداد پارامترهایی که باید تخمین زده شوند بزرگتر از n است، لازم نیست نگران باشیم. که شماره مشاهده است. (برآورد مدل سوئیچینگ مارکوف با استفاده از نمونه گیری گیبس با نرم افزار محاسباتی آماری R) آیا استنتاج بیزی (MCMC) از رگرسیون مشکل من را حل می کند؟ یا اینکه بیانیه فقط در مورد خاص مدل سوئیچینگ مارکوف صادق است؟
|
MCMC و درجه آزادی (تعداد کمی از مشاهدات)
|
103392
|
فرض کنید من یک DB دارم که مقادیر کلیدی زیر در آن وارد شده است (در آن دنباله تصادفی) {16, 32, 256, 2, 8, 64, 4, 1, 128, 512} با فرض مرتب شدن مقادیر هنگام درج ( به عنوان مثال، درخت $B^x$)، سریعترین راه برای حفظ **مدل در حال اجرا** از داده ها چیست؟ ### آنچه من می خواهم: یک مدل در حال اجرا تابعی است که رکوردی را ارائه می دهد که در آن یک عنصر خاص پیدا می شود. از آنجایی که DB $A$ چیزی شبیه به رکورد است: |000|001|002|003|004|005|006|007|008|009| ارزش: | 1| 2| 4| 8| 16| 32| 64|128|256|512| از آنجایی که داده ها را می توان به طور بهینه با $2^x$ ترسیم کرد، یک مدل $\frac{\log(x)}{\log(2)}$ خواهد بود. اگر بخواهیم به دنبال 334 بگردیم، انتظار میرود که قیمت آن در $\frac{\log(334)}{\log(2)}=8.38$ باشد. ### چیزی که تا کنون داشته ام: بهترین راه حلی که تاکنون داشته ام این است که یک superDB کوچکتر $S$ را حفظ کنم که هر $n$th عنصر را نگه می دارد و به صورت خطی بین آنها درون یابی می کند. فرض کنید $n=3$ سپس $S$ مانند رکورد باشد: |000|001|002|003| موقعیت:|000|003|006|009| ارزش: | 1| 8| 64|512| سپس اگر میخواهیم موقعیت $i$=334 را پیدا کنیم، ابتدا در $S$ تا $ \mathbb{value}> i$ جستجو میکنیم و موقعیت رکورد $k$ را علامتگذاری میکنیم. سپس موقعیت مورد انتظار $$(i-[(k-1)\rightarrow\mathbb{value}])* \frac{[(k)\rightarrow\mathbb{value}]-[(k-1)\ خواهد بود rightarrow\mathbb{value}]}{[(k)\rightarrow\mathbb{position}]-[(k-1)\rightarrow\mathbb{position}]} + (k-1)\rightarrow \mathbb{position} $$ بنابراین k=3. (334-65)*((9-6)/(64-512))+6 = 7.80133928571، اما این به وضوح اشتباه است زیرا رکورد '008' آشکارا بزرگتر از 334 است، بنابراین نمی تواند کمتر از آن باشد. * $+$ محاسباتی غیر فشرده (1 ضرب، 1 تقسیم، 4 معرف) * $+$ خطا هرگز بزرگتر از $n$ نیست. * خطای $-$ می تواند تقریباً $n$ در داده های کج باشد. * $-$ نیاز به جستجوی اولیه دارد * $-$ بدترین سناریوی هیچ سودی به همراه ندارد. یک گزینه ممکن است این باشد که مقادیر مرجع جدید را بر اساس خطا در SuperDB درج کنید، و برخی از آنها را زمانی که خطا کم است حذف کنید، اگر برای مثال اگر $1-\frac{f(k, k-1)}{f(k+1 باشد. , k-1)}< \mathbb{allowed \, error}$، سپس رکورد $k$ میتواند از $S$ حذف شود و اگر $\frac{\mathbb{به دنبال \ باشد، یک رکورد درج شود. from}( f(k, k-1) )}{n}> \mathbb{allowed \, error}$ برای ساخت مدلی بهتر از سیستم. در ترکیب با موارد فوق، شاید بتوان از درون یابی پارامتری (بزیر، درجه دوم، دایره ای، و غیره) استفاده کرد، که با این حال با معایب افزایش سربار همراه است. راه بهتری برای این کار چیست؟
|
مدل معکوس ساخت سریع رویه ای
|
31492
|
من سعی می کنم یک لاجیت بیزی روی داده های اینجا اجرا کنم. من از «bayesglm()» در بسته «arm» در R استفاده می کنم. کدنویسی به اندازه کافی ساده است: df = read.csv(http://dl.dropbox.com/u/1791181/bayesglm.csv، هدر =T) مدل کتابخانه (بازو) = bayesglm (PASS ~ SEX + HIGH، خانواده = دوجمله ای (link = logit)، data=df) `summary(model)` خروجی زیر را به دست می دهد: ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (برق) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 0.09363 0.257 0.797 HIGH -0.27503 -0.27503 0.03521-1-4. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 2658.2 در 1999 درجه آزادی انحراف باقیمانده: 3 در 2594. 2000 درجه آزادی AIC: 2600.3 لطفاً مرا در این مورد راهنمایی کنید. میدانم که این کد از یک پیشین بسیار ضعیف استفاده میکند (چون من ابزار قبلی را مشخص نمیکنم) بنابراین اگر از «glm()» به جای «bayesglm()» استفاده کنم، خروجی عملاً یکسان خواهد بود. اما خروجی باید همچنان در روح بیزی باشد، درست است؟ مقادیر $p$-values و $z$-values در اینجا چیست؟ آیا اینها ابزار استنباط فراوانی نیستند؟ آیا آنها در اینجا تفسیر متفاوتی دارند؟
|
به من کمک کنید تا $p$-values را در بیزی glm درک کنم
|
86269
|
من در کلاس مدل های خطی خود یاد گرفتم که اگر دو پیش بینی همبستگی داشته باشند و هر دو در یک مدل گنجانده شوند، یکی ناچیز خواهد بود. به عنوان مثال، اندازه یک خانه و تعداد اتاق خواب ها را با هم مرتبط فرض کنید. هنگام پیشبینی هزینه یک خانه با استفاده از این دو پیشبینیکننده، میتوان یکی از آنها را حذف کرد زیرا هر دو اطلاعات یکسانی را ارائه میدهند. به طور شهودی، این منطقی است، اما من چند سؤال فنی تر دارم: 1. این تأثیر چگونه خود را در مقادیر p ضرایب رگرسیون نشان می دهد، زمانی که فقط یک یا هر دو پیش بینی کننده را در مدل شامل می شود؟ 2. چگونه واریانس ضرایب رگرسیون با گنجاندن هر دو پیش بینی کننده در مدل یا فقط داشتن یکی تحت تأثیر قرار می گیرد؟ 3. چگونه می توانم بدانم که مدل کدام پیش بینی کننده را انتخاب می کند که دارای اهمیت کمتری باشد؟ 4. چگونه تنها یک یا شامل هر دو پیش بینی کننده، مقدار/واریانس هزینه پیش بینی شده من را تغییر می دهد؟
|
تأثیر پیشبینیکنندههای همبسته در مدل رگرسیون چندگانه چیست؟
|
72213
|
وقتی کمی با تجسم رگرسیون خطی زنده در http://www.geogebratube.org/student/m28709 بازی میکردم، متوجه شدم که نقطه در انتهای محدوده X تأثیر زیادی بر شیب خط رگرسیون دارد. آیا روش پذیرفتهشدهای برای دادن وزن بسته به مختصات X برای کاهش تأثیر نقاط پرت احتمالی در مرز محدوده X وجود دارد؟ یا شاید روش دیگری؟
|
وابستگی رگرسیون خطی به نقاط پایانی؟
|
103937
|
مجموعه دادهای را در نظر بگیرید که من مجموعهای از آزمایشهای مستقل را روی متغیرهای مختلف (غیر مستقل) انجام دادم و چندین مقدار p را بهدست آوردم. من تعداد تست های مستقل را $n$ تخمین زدم و مقادیر p به دست آمده را با استفاده از تصحیح Sidak یا Bonferroni تصحیح کردم. حال اجازه دهید بگوییم من برای یکی از اینها یک نتیجه بسیار مهم به دست آوردم و یک مجموعه داده گسترده به دست آوردم تا نتیجه بگیرم که آیا همبستگی معنادار است یا خیر. تعداد تستهای مستقلی که باید برای تصحیح این مجموعه داده بزرگتر، $n$ یا $n+1$ استفاده کنم، چقدر است؟
|
تصحیح آزمایش چندگانه هنگام تأیید همبستگی با یک مجموعه داده گسترده
|
4766
|
SVD تصادفی یک ماتریس را با استخراج اولین k مقادیر/بردارهای مفرد با استفاده از پیشبینیهای تصادفی k+p تجزیه میکند. این به طرز شگفت انگیزی برای ماتریس های بزرگ کار می کند. سوال من مربوط به مقادیر تکی است که از الگوریتم خارج می شود. چرا اگر SVD کامل را انجام دهید، مقادیر با مقادیر k-مفرد اول برابر نیستند؟ در زیر یک پیاده سازی ساده در R دارم. هر گونه پیشنهادی در مورد بهبود عملکرد قابل قدردانی خواهد بود. rsvd = تابع(A، k=10، p=5){ n = nrow(A) y = A %*% ماتریس(rnorm(n * (k+p))، nrow=n) q = qr.Q( qr(y)) b = t(q) %*% A svd = svd(b) list(u=q %*% svd$u، d=svd$d، v=svd$v) } > set.seed(10) > A <- ماتریس(rnorm(500*500)،500500) > svd(A)$d[1:15] [1] 44.94307 44.48235 43.78984 43.78984 43.78984 43.78984 43.78984 43.78984. 43.15066 42.79720 42.54440 42.27439 42.21873 41.79763 41.51349 41.48338 41.35024 41.18068 41.18068 > rsvd, 5] 34.83741 33.83411 33.09522 32.65761 32.34326 31.80868 31.38253 30.96395 30.79063 30.34387 30.34387 30.095 30.34387 30.96395 29.12612 27.61804 B <- ماتریس(rnorm(500*50)،500500 # rank 50 > rsvd(B,10,5)$d [1] 86.48035 83.02114 81.03984.81.03984.81.03985. 76.10945 74.47357 74.08382 [9] 72.85898 72.06897 69.59526 67.70750 66.53867 62.96446 61.50838 (B) 5/5 دلار 92.44779 91.47689 88.71948 88.08170 87.24533 85.13312 84.14741 83.71757 [9] 82.80832 81.43039 80.43005 80.43032 78.87421 78.33509 77.38431 همانطور که Joris اشاره کرد، من این را در stackoverflow نیز ارسال کرده ام. می توانید گفتگوی جالب را در اینجا بیابید http://stackoverflow.com/questions/4224031/randomized-svd-singular-values همچنین مقاله مربوطه توسط مارتینسون و همکاران را ببینید: الگوریتم تصادفی برای تجزیه ماتریس ها
|
SVD تصادفی و مقادیر منفرد
|
88294
|
من جمعیتی 709 نفری دارم و می توانم یک نمونه طبقه بندی شده واقعاً تصادفی بکشم. وقتی اندازه نمونه را تعیین کردم، نحوه انجام بخش طبقه بندی شده را درک می کنم. یک محاسبه نشان داد که برای اطمینان 95 درصد به 196 مورد نیاز دارم. با توجه به اینکه من با تحلیل محتوا کار می کنم، سوابق زیادی برای بررسی وجود دارد. آیا کسی می تواند محاسبه کند که برای اطمینان 95٪ به 196 مورد ($n=196$) از N=709$ نیاز است؟ آیا راه دیگری (غیر از تغییر فاصله اطمینان) برای کاهش حجم نمونه مورد نیاز وجود دارد؟
|
چه اندازه نمونه نیاز دارم؟
|
108313
|
من ساختارهای داده زیر را دارم و میخواهم نظر شما را بدانم که کدام مدلهای رگرسیون مناسبتر هستند (و در R موجود هستند) مدل 1: \- 20000 مورد \- تو در تو در 500 واحد فضایی (فقط تغییرات رهگیری مورد نیاز است) \- پاسخ متغیر سانسور شده است (فقط مقادیر >1) ممکن است \- 10 متغیر مستقل (فقط اثرات اصلی خطی مورد نیاز است) مدل 2: \- 20000 مورد \- تو در تو در 500 واحد فضایی (فقط تغییرات رهگیری مورد نیاز است) \- متغیر پاسخ در 3 کلاس طبقه بندی می شود که کلاس 1 < کلاس 2 < کلاس 3 \- 10 متغیر مستقل (فقط اثرات اصلی خطی مورد نیاز است)
|
کدام مدل رگرسیون: داده های تودرتو، سانسور شده
|
78116
|
من سعی می کنم y را پیش بینی کنم: از متغیر x1,x2,x3,.....x1000 می گوییم معادله ای شبیه به y = intercept + aX1 + bX2 + cX3 + ... zX1000 اکنون می خواهم فقط معنی دار را انتخاب کنم X چگونه می توانم مفهوم کاهش ابعاد مانند PCA را در مدل خود اعمال کنم؟ یکبار متوجه شدم که فقط 3 جزء وجود دارد (P1 P2 P3) که می تواند 95٪ توضیح دهد - چگونه می توانم واقعاً این را به مدل اعمال کنم؟ کسی می تواند این را برای من توضیح دهد؟
|
چگونه PCA را با رگرسیون اعمال کنیم؟
|
33899
|
با استفاده از مجموعه داده های 209 کشور، من یک رگرسیون اثرات ثابت را برای کشورهای غیر OECD اجرا کردم. وقتی متغیرهایم را خلاصه میکنم، همه متغیرهای مجموعه داده را به من میدهد، اما من فقط به خلاصهای از متغیرهایی نیاز دارم که در رگرسیون اثرات ثابت من استفاده شدهاند. به عنوان مثال، وقتی اثرات ثابت را اجرا میکنم، تعداد گروهها 138 است. بنابراین، کل مشاهدات من برای یک متغیر باید 138 ضرب در 26 سال (1980-2006)، که فقط 3588 مشاهده است. چگونه می توانم از Stata بخواهم این را تولید کند؟
|
خلاصه کردن متغیرهای اثرات ثابت در Stata
|
91829
|
می خواستم بدانم آیا کسی کار مربوط به مدل های سوئیچینگ مارکوف و به طور دقیق تر که توزیع عبارات خطا را تغییر می دهد می شناسد؟ من مقداری ادبیات برای میانگین شرطی، واریانس، و درجات آزادی پیدا کرده ام، اما نمی توانم چیزی برای توزیع های مختلف پیدا کنم. با تشکر
|
مدل توزیع مارکوف-سوئیچینگ
|
41409
|
من مجموعه ای از اسناد تصویری دارم. من کلمات کلیدی متنی را از این تصاویر با استفاده از OCR استخراج می کنم تا هر تصویر را به عنوان کیسه ای از کلمات نشان دهم (برداری که هر مقدار تعداد وقوع یک کلمه در سند است). سپس می توانم یک الگوریتم طبقه بندی یا خوشه بندی را روی مجموعه داده به دست آمده اعمال کنم. با این حال، این نمایش برداری به عنوان کیسه کلمات تنها در صورتی امکان پذیر است که من کل مجموعه اسناد را داشته باشم (تا بتوانم کل واژگان، یعنی همه کلمات را داشته باشم). چگونه می توانم این کار را انجام دهم (یعنی کیسه کلمات خود را استخراج کنم) اگر در یک پیکربندی آنلاین هستم (با استفاده از یک خوشه بندی آنلاین) که اسناد یک به یک در دسترس هستند (برای یک جریان داده) و هر سند باید به محض پردازش شود. در دسترس است؟
|
کیسه ای از کلمات در یک پیکربندی آنلاین، برای طبقه بندی / خوشه بندی
|
88297
|
هنگام تجسم داده های یک بعدی، معمولاً از تکنیک تخمین تراکم هسته برای محاسبه پهنای مخزن انتخاب نادرست استفاده می شود. وقتی مجموعه داده تک بعدی من دارای عدم قطعیت های اندازه گیری است، آیا روش استانداردی برای ترکیب این اطلاعات وجود دارد؟ به عنوان مثال (و اگر درک من ساده است مرا ببخشید) KDE یک نمایه گاوسی را با توابع دلتای مشاهدات در هم می آمیزد. این هسته گاوسی بین هر مکان مشترک است، اما پارامتر گاوسی $\sigma$ می تواند برای مطابقت با عدم قطعیت های اندازه گیری تغییر کند. آیا روش استانداردی برای انجام این کار وجود دارد؟ من امیدوارم که مقادیر نامشخص را با هسته های گسترده منعکس کنم. من این را به سادگی در پایتون پیادهسازی کردهام، اما روش یا تابع استانداردی برای انجام این کار نمیدانم. آیا در این تکنیک مشکلی وجود دارد؟ توجه داشته باشم که نمودارهای عجیب و غریبی ارائه می دهد! به عنوان مثال  در این مورد، مقادیر پایین دارای عدم قطعیت های بزرگ تری هستند، بنابراین تمایل به ارائه هسته های پهن پهن دارند، در حالی که KDE بیش از حد وزن پایین ( و مقادیر نامشخص).
|
تخمین چگالی هسته شامل عدم قطعیت ها
|
31495
|
من یک ANOVA دو طرفه انجام دادم. من یک گروه کنترل و 2 گروه آزمایش دارم. یک گروه آزمایشی یک استراتژی و گروه دیگر نوع دیگری از استراتژی را دریافت کردند. حالا می خواهم بدانم کدام استراتژی تاثیر بهتری روی گروه داشته است. کدام جدول در ANOVA دو طرفه به من کمک می کند تا بفهمم کدام استراتژی تأثیر بهتری داشته است؟ (از پیش آزمون و پس آزمون استفاده کردم)
|
مقایسه دو گروه آزمایش و یک گروه درمانی با استفاده از آنالیز واریانس
|
103939
|
در مقاله معروف 1938 (توزیع نمونه بزرگ از نسبت درستنمایی برای آزمایش فرضیه های ترکیبی، Annals of Mathematical Statistics، 9:60-62)، ساموئل ویلکس توزیع مجانبی 2$ \ برابر LLR$ (نسبت احتمال ورود به سیستم را به دست آورد. ) برای فرضیه های تو در تو، با این فرض که فرضیه بزرگتر به درستی مشخص شده است. توزیع محدود $\chi^2$ (chi-squared) با $h-m$ درجه آزادی است که $h$ تعداد پارامترها در فرضیه بزرگتر و $m$ تعداد پارامترهای آزاد در فرضیه تودرتو است. . با این حال، ظاهراً کاملاً شناخته شده است که این نتیجه زمانی که فرضیه ها به درستی مشخص نشده باشند (یعنی زمانی که فرضیه بزرگتر توزیع واقعی داده های نمونه گیری نیست) برقرار نیست. کسی میتونه توضیح بده چرا؟ به نظر من اثبات Wilks هنوز باید با تغییرات جزئی کار کند. این بر نرمال بودن مجانبی تخمین حداکثر درستنمایی (MLE) تکیه دارد، که هنوز در مدلهای نادرست وجود دارد. تنها تفاوت ماتریس کوواریانس نرمال چند متغیره محدود کننده است: برای مدل هایی که به درستی مشخص شده اند، ما می توانیم ماتریس کوواریانس را با ماتریس اطلاعات فیشر معکوس $J^{-1}$ تقریب بزنیم، با تعیین نادرست، می توانیم از تخمین ساندویچی استفاده کنیم. ماتریس کوواریانس ($J^{-1} K J^{-1}$). زمانی که مدل به درستی مشخص شده باشد، مورد دوم به معکوس ماتریس اطلاعات فیشر کاهش مییابد (از $J = K$). AFAICT، اثبات Wilks اهمیتی نمیدهد که تخمین ماتریس کوواریانس از کجا میآید، تا زمانی که ما یک ماتریس کوواریانس مجانبی معکوسپذیر از نرمال چند متغیره برای MLEها داریم ($c^{-1}$ در مقاله Wilks).
|
چرا اثبات 1938 Wilks برای مدلهای نادرست کار نمیکند؟
|
77069
|
من روی یک پروژه نهایی برای کلاسم کار می کنم و با گذشت زمان آن را بر اساس قیمت دارایی انجام می دهم. سوال علمی که می خواهم بپرسم این است که آیا می توان قیمت دارایی x را با عدم قطعیت کوچک به طور منطقی پیش بینی کرد تا با استفاده از سقوط قبلی همان دارایی، سقوط آینده را پیش بینی کرد؟ آیا این امکان پذیر است؟ این برای کلاس سری زمانی کالج من است. من از R استفاده خواهم کرد.
|
پیش بینی تحلیل سری های زمانی با حباب های دارایی
|
88295
|
من به دنبال چند پیشنهاد در مورد اینکه چه روش هایی برای آموزش یک مجموعه داده با چولگی بالا در کلاس های نتیجه مناسب است، هستم. نسبت کلاس 0: کلاس 1 حدود 20:1 است و من به دنبال به حداکثر رساندن دقت برای شناسایی نتایج کلاس 1 هستم. این شبیه به موضوعاتی است که اغلب مورد بحث قرار می گیرد مانند تشخیص سرطان. من قبلاً از روشهایی استفاده کردهام، اما سعی میکنم منبع/پیشنهاد جامعی را پیدا کنم که با روشهای مختلف برای این موارد صحبت کند. نمونه هایی از نحوه اعمال آنها در R (بسته ها و غیره) یا با caret مفید خواهد بود. این یک مجموعه داده پراکنده با حدود 100 هزار نمونه است که 5000 نمونه متعلق به کلاس 1 و بقیه به کلاس 0 است. هر نمونه حدود 20 ویژگی دارد و شامل مقادیر تهی است، با تشکر.
|
یادگیری ماشینی با کلاس های کج در R
|
86844
|
اجازه دهید $U_1=(X_1,Y_1)^T,\dots,U=(X_n,Y_n)^T$ i.i.d باشد. کپی از $U=(X,Y)^T\sim N_2(0,\Sigma)$ که در آن $$ \Sigma= \begin{pmatrix} \sigma^2 & \rho\sigma\tau \\\ \rho\ sigma\tau & \tau^2 \end{pmatrix} $$ به طوری که \begin{equation} \sum_{i=1}^n\min\\{U_iU_i^T,c\\} \end{equation} معکوس است که $\min\\{A,c\\}$ نشان دهنده ماتریس با عنصر $\ است. min\\{a_{ij},c\\}$. $c>0$ را داده و \begin{equation} را تعریف کنید b=\frac{\sum_{i=1}^n\max\\{-c,\min\\{X_iY_i,c\\}\\}}{\left(\sum_{i=1}^n \min\\{X_i^2,c\\}\sum_{i=1}^n\min\\{Y_i^2,c\\}\right)^{1/2}}. \end{equation} مشکل این است که چگونه ثابت کنیم \begin{equation} -E(\min\\{\sigma\tau Z^2,c\\})\leq b\leq E(\min\\{ \sigma\tau Z^2,c\\})، \end{equation} که در آن $Z$ توزیع استاندارد نرمال است. من نمی دانم چگونه می توانم این مشکل را شروع کنم. هر توصیه ای؟
|
نابرابری در متغیر نرمال دو متغیره
|
81810
|
> اجازه دهید $X_1, ... , X_n$ iid متغیرهای تصادفی معمولی توزیع شده باشد $N(\mu, > \sigma^2)$, $\mu \in \Bbb{R}$, $ \sigma^2 > 0 $. > > الف) یک آزمون یکنواخت قدرتمند با سطح اهمیت $\alpha$ > برای آزمایش $H_0 طراحی کنید: \sigma^2 = \sigma^2_0$ در مقابل $H_1: \sigma^2 > \sigma^2_0$. > > ب) برای قدرت آزمون فرمولی ارائه دهید. اجازه دهید $\sigma^2_1 > \sigma^2_0$. $\Lambda = \frac{L(\sigma^2_0)}{L(\sigma^2_1)}$ = $\frac{(\frac{1}{\sqrt{2\pi}})^n (1 /\sigma^2_0)^{n/2} e^{-\sum (X_i - \mu)^2/\sigma^2_0}}{(\frac{1}{\sqrt{2\pi}})^n (1/\sigma^2_1)^{n/2} e^{-\ مجموع (X_i - \mu)^2/\sigma^2_1}} \leq k$ برای مقداری $k < 1$. $\ به معنای e^{\frac{-\sum (X_i - \mu)^2}{2\sigma^2_0} + \frac{\sum (X_i - \mu)^2}{2\sigma^2_1} } \leq (\frac{\sigma^2_0}{\sigma^2_1})^{n/2}k$ اجازه دهید $k_1 = (\frac{\sigma^2_0}{\sigma^2_1})^{n/2}k$. ما $ \frac{-\sum (X_i - \mu)^2}{2\sigma^2_0} + \frac{\sum (X_i - \mu)^2}{2\sigma^2_1} \leq \ داریم ln(k_1)$ $\implies \sum (X_i - \mu)^2[\frac{1}{2\sigma^2_1} - \frac{1}{2\sigma^2_0}] \leq \ln(k_1)$ $\به معنای \sum (X_i - \mu)^2 \geq \ln(k_1)[\frac{1}{2\ sigma^2_1} - \frac{1}{2\sigma^2_0}]^{-1}$\implies \frac{\sum (X_i - \mu)^2}{\sigma^2_0} \geq \ln(k_1)[\frac{1}{2\sigma^2_1} - \frac{1}{2\sigma^2_0}]^{-1 }(\frac{1}{\sigma^2_0})$. اجازه دهید $k_2 = \ln(k_1)[\frac{1}{2\sigma^2_1} - \frac{1}{2\sigma^2_0}]^{-1}(\frac{1}{\sigma ^2_0})$. می دانیم که $\frac{\sum (X_i - \mu)^2}{\sigma^2_0}$ دارای مربع کای با n درجه آزادی است. بنابراین $k_2$ را انتخاب می کنیم به طوری که $P_{H_0}( \frac{\sum (X_i - \mu)^2}{\sigma^2_0} \geq k_2) = \alpha$ b) $P_{H_1}( \frac{\sum (X_i - \mu)^2}{\sigma^2_0} \geq k_2)$ $= 1 - \int^{k_2}_0$$(\frac{1}{\Gamma(n/2)2^{n/2}})x^{n/2-1}e^{-x/2} dx $. آیا پاسخ های من صحیح است؟ پیشاپیش ممنون
|
طراحی قدرتمندترین تست یکنواخت
|
81083
|
چگونه فرآیند ثابت را با استفاده از مثالهای واقعی به زبان انگلیسی ساده برای فردی بدون پیشزمینه ریاضی توصیف میکنید؟ مخاطبان هدف بزرگسالانی هستند که هوش معقول دارند، اما بیشتر آنها سال ها، اگر نگوییم دهه ها، از مدرسه خارج شده اند.
|
فرآیند ثابت به زبان انگلیسی ساده
|
4762
|
برخی از گوگل نشان دادند که انجام آزمون F برای عدم تناسب در SPSS چندان پیش پا افتاده نیست. به نظر می رسد برای انجام این کار باید SPSS را فریب داد. برای مثال این را ببینید. آیا کسی می تواند منبع اطلاعات بهتری را در مورد چگونگی انجام این کار پیشنهاد کند؟ من SPSS 16 دارم. البته می دانم که با استفاده از R می توان آن را به راحتی انجام داد اما من به روش SPSS علاقه مند هستم. با تشکر
|
آزمون F برای عدم تناسب در SPSS
|
108318
|
من می خواهم یک مدل پیش بینی برای پیش بینی قیمت یک ماده خام کشاورزی ایجاد کنم. سری زمانی برای قیمت و تولید این ماده اولیه و همچنین قیمت نفت گرفتم. فکر میکنم میخواهم آن را با VECM مدلسازی کنم، اما من تازه شروع به استفاده از R کردم. 1) چگونه از R برای ایجاد چنین مدلی استفاده کنم؟ من شروع به نگاهی به بسته vars کردم اما مطمئن نیستم که چگونه از آن استفاده کنم... 2) اطلاعاتی که من برای تولید دارم سالانه ارائه می شود در حالی که اطلاعات مربوط به قیمت ها ماهانه داده می شود. چگونه می توانم از هر دو نوع داده استفاده کنم، با توجه به این واقعیت که می خواهم اطلاعات بیشتر ممکن را داشته باشم (و در نتیجه داده های ماهانه را نگه دارم)؟ پیشاپیش ممنون
|
پیش بینی قیمت کالاهای کشاورزی با R
|
10355
|
این یک سؤال کاملاً اساسی است زیرا من تازه وارد آمار هستم، اما امیدوارم کسی بتواند کمک کند! من اندازه نمونه 30000 رکورد دارم و تا کنون 6500 مورد بررسی شده است تا ببینیم آیا خطایی وجود دارد - از این 6500، 1124 مورد خطا دارند. کاری که من میخواهم انجام دهم موارد زیر است: 1) ببینید چه تعداد رکورد را باید بررسی کنم تا 97٪ از تمام رکوردهای خطا را پیدا کنم (این یک مقدار عمداً ثابت است) 2) با بررسی 6500 رکورد تعیین کنید که آیا در واقع به اندازه کافی بررسی شده است که همه (97٪ از کل) موارد خطا را پیدا کرده است. سوال من شبیه سوالی است که در اینجا یافت می شود، اما به اندازه کافی متفاوت است که من در مورد نحوه اعمال آن مطمئن نباشم! TIA، و امیدوارم که منطقی باشد! داوین **ویرایش برای گنجاندن داده های نمونه** داده های مورد نظر را می توانید در اینجا بیابید:
|
اندازه نمونه برای یافتن همه مقادیر خطا مورد نیاز است
|
103931
|
من سعی می کنم الزاماتی را که باید در هنگام ساخت یک مدل مارکوف پنهان روی داده ها اعمال شود، شرح دهم. آیا داده ها باید با الزامات یک زنجیره مارکوف مطابقت داشته باشند؟ یعنی آیا باید حالت های گسسته و متوالی، توزیع احتمال ثابت هر حالت و ویژگی های IID داشته باشد؟ الزامات زنجیره مارکوف دقیقا چیست؟
|
الزامات داده برای ساخت HMM
|
47253
|
من در حال خواندن فصل آمارهای مکرر از کتاب کوین مورفی _ یادگیری ماشینی - یک دیدگاه احتمالی _ هستم. بخش راه انداز به این شرح است: > بوت استرپ یک تکنیک ساده مونت کارلو برای تقریبی نمونه گیری > توزیع است. این به ویژه در مواردی مفید است که برآوردگر یک تابع > پیچیده از پارامترهای واقعی است. > > ایده ساده است. اگر پارامترهای واقعی $θ^∗$ را می دانستیم، می توانستیم > بسیاری (مثلا $S$) مجموعه داده های جعلی، هر کدام به اندازه $N$، از توزیع واقعی، > $x_i^s \sim p (·| θ تولید کنیم. ^∗ )$، برای $s = 1 : S، i = 1 : N$. سپس میتوانیم تخمینگر خود را از هر نمونه محاسبه کنیم، $\hat{\theta^s}=f (x^s_{1:N})$ و از توزیع تجربی نمونههای بهدستآمده به عنوان تخمین خود از نمونهگیری استفاده کنیم. توزیع از آنجایی که $\theta$ ناشناخته است، ایده > **راهانداز پارامتری** این است که نمونهها را با استفاده از $\hat{\theta}(D)$ > تولید کنیم. > > یک جایگزین، به نام **بوت استرپ ناپارامتریک**، نمونه برداری از > $x^s_i$ (با جایگزینی) از داده های اصلی $D$ و سپس محاسبه توزیع القایی > مانند قبل است. برخی از روشها برای افزایش سرعت راهانداز زمانی که در مجموعه دادههای عظیم اعمال میشود در (Kleiner et al. 2011) مورد بحث قرار گرفتهاند. * **1**. متن می گوید: > اگر پارامترهای واقعی $\theta^*$ را می دانستیم ... می توانستیم تخمینگر خود را محاسبه کنیم > از هر نمونه، $\hat{\theta^s}$... اما چرا از تخمینگر استفاده کنم از هر نمونه اگر **از قبل** پارامترهای واقعی $\theta^*$ را بدانم؟ * **2**. همچنین، تفاوت بین توزیع تجربی و توزیع نمونه در اینجا چیست؟ * **3**. در نهایت، من تفاوت بین بوت استرپ **پارامتری** و **ناپارامتریک** را از این متن کاملاً درک نمی کنم. هر دوی آنها $\theta$ را از مجموعه مشاهدات $D$ استنتاج می کنند، اما تفاوت دقیقاً چیست؟
|
سوالات در مورد بوت استرپ پارامتریک و ناپارامتریک
|
77061
|
فرض کنید $X_1، \ldots، X_n$ یک نمونه تصادفی از یک توزیع نرمال با میانگین $\theta$ و واریانس $1$ هستند. حداکثر تخمینگر احتمال $\theta$ را با محدودیت $\theta \geq 0$ پیدا کنید. من MLE را زمانی پیدا کردم که هیچ محدودیتی برای $\theta$ وجود نداشت. $$L(\theta|\mathbf{x})=(2\pi)^{-n/2} \text{exp}\Big(-\frac{1}{2}\sum_{i=1} ^{n}(x_i-\theta)^2 \Big)$$ افتراق $L(\theta|\mathbf{x})$ با توجه به تتا، و قرار دادن آن برابر با صفر $$\sum_{i=1}^{n}(x_i-\theta)=0 به دست میدهد \theta=\frac{1}{n}\sum_{i=1}^{n}x_i =\bar {x}$$ مشتق دوم منفی است، بنابراین MLE $\theta$ $\hat{\theta}=\bar{X}$ است. چگونه می توانم محدودیت $\theta \geq 0$ را وارد کنم.
|
MLE در یک فضای پارامتر محدود
|
81819
|
مجموعه ای از $M$ مشاهدات چند بعدی را در نظر بگیرید $X=\\{x_i\\}_{i=1..M}$ برای $x_i\in\mathbb{R}^N$، و $c_{ij} را تعریف کنید. $ ضریب همبستگی پیرسون بین $x_i$ و $x_j$ باشد. آیا یک عبارت ساده یا تقریب مفید برای میانگین همبستگی پیرسون دوتایی $C=\frac{1}{M^2}\sum_{ij}c_{ij}$ وجود دارد؟ از طرف دیگر، آیا عبارت سادهای برای اندازهگیری دیگر وجود دارد که از نظر روحی شبیه به «همبستگی زوجی میانگین پیرسون» باشد، که ممکن است متفاوت از $C$ در بالا تعریف شود؟ (اگر $c_{ij}$ فاصله اقلیدسی مربع بود، پس ما $C=2Var(X)$ داشتیم و بنابراین نمیدانم که آیا نتیجه مشابهی برای همبستگی پیرسون وجود دارد یا خیر.) با تشکر!
|
میانگین همبستگی پیرسون زوجی
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.