_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
40704
|
با من همراه باشید زیرا سعی می کنم این سوال را به خوبی بیان کنم (من یک مدل ساز ریاضی هستم، اما یک استاد آمار نیستم). ما می خواهیم الگوهای پاسخ یک سری زمانی باینری را ارزیابی کنیم. داده ها از افرادی است که برای اطلاعاتی که قبلاً ندیده اند به سؤالات پاسخ می دهند. سناریو این است که پاسخها یا _یا_ نادرست هستند، و باید دو بار پشت سر هم یک پاسخ صحیح را قبل از بازنشستگی دریافت کنند. از آنجایی که افراد قبلاً اطلاعات را ندیدهاند، الگوی عالی 0-1-1 است، به این معنی که فرد اشتباه پاسخ داده است، سپس پاسخ/اطلاعات صحیح ارائه شده، سپس آن را برای دو تلاش بعدی حفظ میکند. من سعی می کنم روند مردم را ارزیابی کنم و به دنبال اشاره ای هستم که چگونه ممکن است این امر امکان پذیر باشد. جمع آوری پاسخ ها کافی نیست، زیرا دو نفر که 3 پاسخ صحیح و 3 پاسخ نادرست دارند ممکن است روند بسیار متفاوتی را منعکس کنند. به طور کلی: * شخص A: `0-0-1-0-1-1` * شخص B: `1-0-1-0-1-0` در حالت اول، فرد روندی به سمت درک را تجربه می کند. در حالت دوم، فرد در حال تغییر متناوب است و هیچ گرایشی به سوی درک ندارد. در حالت ایدهآل، برای ارزیابی فاصلهای از الگوی کامل «0-1-1» عددی نرمالسازی شده ارائه میکنیم. برای مثال، «1-0-1-1» از «0-0-1-1» دورتر است، اما از «0-0-0-1-1» نزدیک تر است. حتی فاصلهای از 0، 1 یا هر نقطه دلخواه دیگر، اگر از نظر داخلی سازگار باشد، خوب است. اولین فکر من این است که به دنبال چیزی در تجزیه و تحلیل سیگنال بگردم – ارزیابی تناوب سیگنال پاسخ ها. با این حال، من نمیدانستم که آیا جامعه آمار راهی برای ارزیابی یک دنباله باینری مانند این دارد؟ البته، من به دنبال پاسخ آسانی نیستم (زیرا ممکن است وجود نداشته باشد) اما اشارههایی در جهت درست مفید خواهند بود. ## ویرایش برای پاسخگویی به سوالات @gung: من انتظار ندارم که سری های زمانی بیش از 10 تا 20 تلاش حداکثر باشد. به نظر میرسد میانگین تعداد تلاشها برای هر سؤال حدود 2.8 برای سؤالات خوب نوشته شده باشد. این مجموعه برای پاسخ هر کاربر به هر سوال متفاوت خواهد بود، به طوری که هزاران کاربر به طور کلی به ترتیب 10 سوال هر کدام پاسخ می دهند (یعنی بین 1 تا 100، بسته به مدت زمانی که شرکت می کنند). من به دنبال رتبهبندی کاربران به ازای هر سؤال و هر گروه سؤال هستم، اما همچنین سعی میکنم سؤالات را براساس گروههای کاربران رتبهبندی کنم (یعنی این سؤال ضعیف بود زیرا بسیاری از کاربران بین ۰ و ۱ به عقب و جلو میرفتند).
|
روشی برای رتبه بندی دنباله باینری
|
40702
|
من در وب سایتی کار می کنم که حدود 150000 بازدیدکننده منحصر به فرد در ماه دارد. من پیشنهاد میکنم از هر 1000 نفری که از سایت بازدید میکنند، یک نمونه را با یک نظرسنجی پاپآپ که در این پرسش و پاسخ در مورد محاسبه فواصل معتبر برای دادههای نظرسنجی توضیح داده شده است، نمونه برداری شود. وقتی این نظرسنجی را در گذشته اجرا کردیم و آن را به مدت یک هفته در اختیار همه کاربران خود قرار دادیم، از هر 5 نفر 1 نفر به این سوال پاسخ دادند و 4 نفر از 5 نفر پنجره بازشو را بدون پاسخ رد کردند. مدیر برنامه من و مدیر من میخواهند بدانند توجیه نمونهگیری 1 در 1000 چیست (من امیدوار بودم این کار با نمونهبرداری با نرخ پایین، آزار کاربر را به حداقل برساند، و اگر نرخ پایین باشد، نیازی به تنظیم supercookies ندارم. پیگیری کنید که چه کسی قبلاً در نظرسنجی شرکت کرده است، اگر آنقدر از سایت استفاده می کنند، فقط آنها را دوباره بررسی می کنم.) آنها همچنین می پرسند که چرا در پرسش و پاسخ قبلی، این مسئله اندازه جامعه نمونه است. از در محاسبه بازه معتبر وارد نمی شود. (چگونه) نرخ نمونه برداری (1٪ نمونه در مقابل 1 در هزار) و نرخ تکمیل بر کمیت میزان اطمینان ما در مورد نتایج و نتیجه گیری هایمان تأثیر می گذارد؟ یا فقط تعداد نمونه ها بدون توجه به اندازه کل جامعه مهم است؟
|
نرخ نمونه برداری برای تحلیل بیزی نظرسنجی کاربران با متغیر تصادفی گسسته
|
76665
|
من موقعیتی دارم که در آن مناطق ژنومی زیادی را بین دو یا چند رده سلولی (CL) مقایسه می کنم. هر ناحیه توسط n پروب که سطح متیلاسیون (متغیر پیوسته) را اندازه گیری می کند، پوشیده شده است. پوشش (مقدار n = اندازه نمونه در هر منطقه، معمولاً بین 4 تا 20 متغیر است) برای مناطق مختلف متفاوت است (ویژگی آرایه، ویژگی دنباله جفت پایه). با این حال، برای 1 منطقه n برای همه CL ها یکسان است. به عنوان مثال (n=2، A & B) ناحیه 1 دارای 5 اندازه گیری در هر خط سلول است. منطقه 1، CL A: 23 9 80 62 31 منطقه 1، CL B: -98 -65 -19 -95 -23 منطقه 2 دارای 10 اندازه گیری در منطقه (منطقه بزرگتر و/یا پوشش بهتر) منطقه 2، CL A: 66 7 31 89 100 81 63 93 33 0 منطقه 2، CL B: 17 -50 -89 -46 -52 -80 -7 -26 -62 -26 داده ها دارای یک ویژگی اضافی هستند: اندازه گیری ها در داخل یک خط سلول و منطقه با هم مرتبط هستند، به عنوان مثال. اگر یکی از اندازهگیریها (یک جایگاه ژنومی) مقدار متیلاسیون بالایی بدهد، احتمال زیاد بودن جایگاه مجاور نیز زیاد است. من این را با علامت اعداد در داده های آزمایشی نشان داده ام. (هیچ اندازه گیری مکرری وجود ندارد.) تعداد مناطق مورد علاقه به چندین هزار منطقه مربوط می شود. من می خواهم 2 کار انجام دهم 1. برای هر منطقه آزمایش کنم که آیا A با B متفاوت است یا خیر. در حال حاضر من از آزمون Mann Whitney U برای این کار استفاده می کنم اگر n=2 (A,B) یا Kruskal Wallis اگر n>2 (A,B,C) ،...) . به من گفته شده است که به دلیل همبستگی، فرض استقلال اندازهگیریها (=نمونهها) ناموفق است و باید از آزمون جایگشت استفاده کنم. آیا رویکردی که در بسته سکه در R (http://cran.r-project.org/web/packages/coin/vignettes/coin.pdf) پیاده سازی شده است، برای این مشکل (همتای مشروط تست های بدون شرط) قابل اجرا است. 2. درست برای تست های متعدد. از آنجایی که اندازه نمونه من بین مناطق مختلف متفاوت است، من در اینجا ضرر دارم. به نظر نمی رسد که مقادیر p به همین دلیل قابل مقایسه باشند، بنابراین اعمال تصحیح مبتنی بر FWER پیش فرض ممکن است امکان پذیر نباشد، درست است؟ من از هر بینشی بسیار قدردانی می کنم. خیلی ممنون
|
نمونه های وابسته و تصحیح برای آزمایش های متعدد
|
30458
|
من به دنبال آماری هستم که پایایی یا پایداری یک برآورد را به عنوان جایگزینی برای ضریب تغییرات (CV)، که به عنوان خطای استاندارد نسبی نیز شناخته میشود، اندازهگیری کند. CV خطای استاندارد یک برآورد (نسبت، میانگین، ضریب رگرسیون و غیره) تقسیم بر خود تخمین است که معمولاً به صورت درصد بیان می شود. به عنوان مثال، اگر یک نظرسنجی 15٪ بیکاری را با یک خطای استاندارد 6٪ پیدا کند، CV 0.06/.15 = 0.4 = 40٪ است. برخی از سازمانهای دولتی ایالات متحده، هر گونه تخمینی را که دارای رزومه بیش از یک آستانه معین مانند 30 یا 50 درصد باشد، غیرقابل اعتماد میدانند. اما این استاندارد میتواند دلخواه باشد (به عنوان مثال، استخدام 85% دارای CV بسیار پایینتری برابر با 0.06/.85 = 7%) خواهد بود و دارای محدودیتهای دیگری است (مانند زمانی که برآورد صفر است). آیا کسی می تواند معیار جایگزینی برای ثبات یا قابلیت اطمینان پیشنهاد دهد؟
|
جایگزینی برای ضریب تغییرات (CV) / خطای استاندارد نسبی به عنوان معیاری برای قابلیت اطمینان / پایداری برآورد
|
76661
|
از کدام مؤلفه ها برای رسم در آنالیز PCA باید استفاده کرد؟ آیا باید جزء 1 در مقابل مؤلفه 2 باشد یا هر ترکیبی که نشان می دهد خوشه بندی برای استفاده صحیح است؟ همچنین، دیدهام که در چند مورد، برچسبهای محور، واریانس نشانداده شده را ذکر میکنند (مثلاً میگوید مولفه اصلی 1 (Var. 09/58٪). آیا این بدان معناست که در این نمودارها فقط بخشی از محور مربوطه نشان داده شده است (یعنی بزرگنمایی شده است)؟
|
از کدام اجزای اصلی باید استفاده کنم؟
|
87314
|
من روی تحلیل سری زمانی کار می کنم. کتابی که من استفاده می کنم (آمار برای فرآیندهای حافظه طولانی نوشته یان بران) از تعدادی معیار برای حافظه پردازش استفاده می کند و یکی از آنها نمودار میانگین واریانس نمونه در برابر حجم نمونه است (به عبارت دیگر، برای هر n، واریانس از میانگین $X_n$ نمودار شده است). نموداری از مجموعه داده معروف سطح آب پایین نیل وجود دارد (صفحه 21) و من نتوانستم آن را با همان مجموعه داده تکرار کنم. من سعی کردم، برای هر n، تعداد زیادی (100k) نمونه تصادفی بگیرم، میانگین را برای هر یک از آنها محاسبه کنم و واریانس آنها را در برابر n نمودار کنم. نمودار من به طور قابل توجهی متفاوت است، مهمتر از همه، در حالی که نمودار log-log برای من نسبتاً پیوسته است و شیب 1 دارد، نمودار در کتاب شیب بسیار متفاوتی دارد. آیا من در این مورد راه را اشتباه می روم؟ ویرایش: طبق درخواست پس کد اینجاست: sampleCount = 100000 def sampleMeanVariance(inputArray,sampleSizes): برای sampleSize در sampleSizes: mean_set = [] برای i در محدوده(sampleCount): interarrivalTimesSample = random.sample(inputArray, sampleS) mean_set.append(mean(interarrivalTimesSample)) print sampleSize,var(mean_set) این نمودار من است. طرح این کتاب (ص 21):
|
محاسبه واریانس میانگین نمونه؟
|
76662
|
میخواهم روشی برای محاسبه موارد زیر وجود داشته باشد: من یک کیسه دارم با 5 توپ شمارهگذاری شده از 1 تا 5 که قرار است کشیده شوند. به دلیل وزنهای مختلف، احتمال کشیده شدن توپها متفاوت است: $P(Ball1) = 0.4 $ P (Ball2) = 0.3 $ P (Ball3) = 0.1 $ P (Ball4) = 0.1 $ P (Ball5) ) = 0.1$ سه قرعه کشی انجام خواهد شد. پس از هر قرعه کشی توپ ها دوباره داخل کیسه قرار می گیرند: * قرعه 1: سه توپ * تساوی 2: سه توپ * قرعه کشی 3: دو توپ حالا، آیا می توان احتمال اینکه هر توپ حداقل یک بار انتخاب شده است را محاسبه کرد. سه تساوی؟ سلب مسئولیت: مطمئن نیستم که عنوان کاملاً درست باشد، اما فکر میکنم مشکل من نوعی از تعداد مورد انتظار از موارد منحصر به فرد در یک جمعیت توزیع غیریکنواخت - و بنابراین عنوان مشابه است. عنوان را تصحیح کنید که فکر می کنید ممکن است صحیح تر باشد. سوال من این است که چگونه این را محاسبه کنم: $Pr(Ball1 > 0، Ball2 >0، Ball3 > 0، Ball4 >0، Ball5 > 0)$ با توجه به 3 + 3 + 2 توپ کشیده شده. _Edit_: توپ هایی که کشیده می شوند (3 + 3 + 2) همیشه به یکباره کشیده می شوند که به این معنی است که توزیع فوق هندسی غیر مرکزی فیشر همان چیزی است که من به دنبال آن هستم. توجه داشته باشید که اگر ترسیم توپ به توپ انجام شود، توزیع فوق هندسی غیر مرکزی والنیوس، توزیع انتخابی خواهد بود.
|
احتمال رسم همه توپ ها در یک جمعیت غیر یکنواخت
|
83307
|
10 مقدار را در نظر بگیرید که از توزیع نرمال استاندارد پیروی می کنند. انتظار دارید کمترین مقدار کدام باشد؟ من سعی کردم این مشکل را در R شبیه سازی کنم. من اساساً فقط 100000 توزیع نرمال استاندارد را با 10 مقدار شبیه سازی کردم و میانگین هر کمترین مقدار را گرفتم. > mean(replicate(100000,min(rnorm(10)))) [1] -1.536875 این مربوط به احتمال بدست آوردن مقدار کمتر > pnorm(-1.536875) [1] 0.06216196 من سعی کردم به صورت تحلیلی به این مقادیر برسم اما من واقعاً نمی دانم چگونه به این موضوع نزدیک شوم. من مدت زیادی در مورد آن فکر کردم و همچنین سعی کردم آن را جستجو کنم. اما من نمی توانم راه حلی برای این مشکل ساده پیدا کنم. احتمالاً صرفاً نادیده گرفتن چیزی آشکار است. کسی که بتونه کمکم کنه؟
|
کمترین مقدار مورد انتظار 10 مقدار معمولی توزیع شده است
|
89659
|
من از داده های پانل استفاده می کنم و می خواهم تعیین کنم که آیا می توانم از مدل جلوه های تصادفی (RE) به جای جلوه های ثابت (FE) برای تخمین یک ضریب بهره استفاده کنم یا خیر. وقتی از آزمون هاسمن برای مقایسه FE و RE استفاده می کنم، باید فرضیه صفر را رد کنم (به این معنی که مدل RE خوب نیست). با این حال، تفاوت بین ضریب بهره برآورد شده توسط FE و RE از نظر آماری معنیدار نیست. بنابراین سوال من این است: آیا می توانم استفاده از مدل RE را تنها بر اساس این واقعیت توجیه کنم؟ از این گذشته، فرضیه صفر آزمون هاسمن فقط باید رد شود زیرا تخمین برخی از متغیرهای کمکی دیگر (متغیرهای کنترل) به طور قابل توجهی بین رویکردهای RE و FE متفاوت است. اما در مورد من، این متغیرها مورد توجه نیستند و من به دنبال برآوردگرهای ثابت نیستم.
|
آزمون هاسمن با یا بدون متغیرهای کمکی
|
70993
|
من از تابع «escalc()» از بسته «metafor» برای محاسبه اندازههای مختلف اثر یا معیارهای نتیجه (و واریانسهای نمونهگیری مربوطه) که معمولاً در متاآنالیزها استفاده میشوند، استفاده میکنم. در بیشتر مقاله ها جداول _mean_ و _standard deviation_ وجود دارد که به راحتی توسط 'escalc()' قابل استفاده است. # برای مثال: # گروه A == mean=7; sd=1.8; n=13 # گروه B == میانگین=3.5; sd=3; n=179 escalc(m1i=7, sd1i=1.8, n1i=13, m2i=3.5, sd2i=3, n2i=179,meter=MD) yi vi 1 3.5000 0.2995 ...متاسفانه در برخی از مقالات جدول متشکل از _میانگین_و_فاصله_اطمینان_. **آیا راهی برای محاسبه اندازه اثر با استفاده از فواصل اطمینان به جای انحراف استاندارد وجود دارد؟** # برای مثال # گروه A == mean=19.25; CI=17.1-20.1; n=28 # گروه B == میانگین=8; CI=6.8-9.2; n=72 **P.S.** یا اگر از CI نیست شاید از _range_ (احتمالا غیرممکن است).
|
نحوه محاسبه اندازه افکت ها از میانگین و CI
|
70999
|
من اخیرا در حال یادگیری SVMهای هسته گاوسی هستم. من باید پارامتر $\epsilon$ را برای هسته گاوسی، $$k(x,t)=e^{-\frac{\|x-y\|_2^2}{2\epsilon}} انتخاب کنم.$$ سعی می کنم برای یافتن پاسخ در ادبیات من برخی برای تجزیه و تحلیل پارامترها مانند راهنمای کاربر برای پشتیبانی از ماشین های برداری (PDF) پیدا کردم. من واقعاً می خواهم اینها را خودم گام به گام تحلیل کنم. اما من کار دارم که باید تمام کنم. من مقاله ای با عنوان انتخاب عملی پارامترهای SVM و تخمین نویز برای رگرسیون SVM (PDF) پیدا کردم.
|
آیا انتخاب پارامتر SVM های هسته گاوسی هنوز یک سوال باز است؟
|
18076
|
بر اساس داده های واقعی (مثلاً قیمت نقدی و آتی یک شاخص) اگر دو سری در بلندمدت همبستگی داشته باشند (مثلاً همبستگی مثبت و معنادار قوی) به این معنی نیست که آنها هم انباشته هستند. اگر دو سری با هم ادغام شوند چه می شود: آیا می توانیم استنباط کنیم که آنها در بلندمدت نیز همبستگی دارند؟ آیا میتوانیم موردی با دادههای واقعی پیدا کنیم که دو سری با هم ادغام شدهاند اما در بلندمدت همبستگی ندارند؟
|
هم انباشتگی و همبستگی
|
18072
|
تحلیل مداخله در چارچوب Box-Jenkins به رگرسیون سری زمانی با خطاهای آرما در صورتی که نویز ثابت است یا خطاهای آریما اگر نویز غیر ساکن است، اشاره دارد. برای دادههای سری زمانی فصلی با روند افزایشی، مدل نویز میتواند به صورت $$ N_t = \frac{\Theta(B)}{(1-B)(1-B^{12})\Phi(B) بیان شود. } \eta_t $$ اگر یک مرحله $S_t$ (0 قبل از مداخله و 1 بعد از مداخله) و یک پالس $P_t$ (1 در مداخله و 0 در جاهای دیگر) مداخلات وجود داشته باشد، مدل می تواند به صورت بیان شود. $$ Y_t=\beta_1S_t+\beta_2P_t+\frac{\Theta(B)}{(1-B)(1-B^{12})\Phi(B)} \eta_t $$ همچنین به این دلیل که ممکن است پاسخهای متفاوتی به مداخلات، میگویند تغییر سطح فارغالتحصیل توسط $\frac{\omega S_t}{1-\delta B}$ یا پاسخهای پوسیده $\frac{\omega است. P_t}{1-\delta B}$. $$ Y_t=\frac{\omega S_t}{1-\delta B}+\frac{\omega P_t}{1-\delta B}+\frac{\Theta(B)}{(1-B)( 1-B^{12})\Phi(B)} \eta_t $$ بنابراین سؤال من این است: اگر دادهها سری زمانی فصلی هستند، در عمل به این معنی است که باید تفاوت را انجام دهیم $(1-B)(1-B^{12})S_t$ و $(1-B)(1-B^{12})P_t$ همراه با $(1-B)(1-B^{12 }) Y_t$ به هر حال وقتی آن مداخلات را در نظر بگیرید؟ با تشکر و احترام
|
تحلیل مداخله در رگرسیون سری زمانی با خطاهای ARIMA فصلی
|
83302
|
من سعی می کنم دو گروه از بیماران را با استفاده از الگوریتم های مختلف یادگیری ماشین، از جمله ماشین های بردار پشتیبان (SVM) متمایز کنم. تا آنجا که جزئیات تجزیه و تحلیل پیش می رود، من می خواهم نمونه را در یک گروه جداگانه آموزش دهم و در گروه دیگری اعتبار متقاطع کنم. مشکل این است که بیماران در برخی از متغیرهای طبقه بندی شده (مثلاً جنسیت) و متغیرهای پیوسته (مثلاً سن) متفاوت هستند که هیچ کدام مورد توجه نیستند. در تحلیل رگرسیون با استفاده از مدلهای خطی تعمیمیافته، فاکتورگیری متغیرهای مزاحم آسان است. من نمی دانم که آیا راهی در یادگیری ماشین به طور کلی و SVM به طور خاص وجود دارد تا تأثیر متغیر مزاحم را در نظر بگیرد. در برخی مقالات دیده ام که نویسندگان متغیر مزاحم را برای عادی سازی آنها در نظر می گیرند.
|
متغیر یا متغیر مزاحم بدون علاقه به یادگیری ماشین
|
76660
|
من در حال ساخت یک مدل با تعامل بسیار مهم هستم. این تعامل یکی از فرضیه های اصلی ما بود. با این حال، واضح است که شکلی که تعامل به خود می گیرد، تغییر معنی داری را در سطوح هر یک از متغیرها نشان نمی دهد (که یکی از آنها **زمان** است). تعامل از 2 ترم درجه دوم (و همه ترم های مرتبه پایین تر) است. عبارات کمتر در مدل به خوبی با داده ها تناسب ندارند. شرایط سفارش بالاتر تناسب را بهبود نمی بخشد. با تعامل درجه دوم، میبینیم که روندهای پیشبینیشده برای سطوح مختلف متغیرهای کمکی با هم برای زمانهای اولیه شروع میشوند، برای زمانهای میانی به اندکی واگرا میشوند و سپس برای مقادیر اواخر همگرا میشوند. حداکثر، تفاوت در محدوده داده های ما از نظر بالینی معنی دار نیست. و همگرایی در پایان بازه زمانی نشان می دهد که به هر حال سوژه ها در یک مکان قرار می گیرند. بهترین توضیح ما برای واگرایی در میانه زمان، تغییر در معیارهای انتخاب برای ورود به مطالعه است (به خوبی مستند نیست، فقط امکان دارد). ما 2 پیشبینیکننده را دستهبندی کردهایم و آن تعامل را آزمایش کردهایم تا به شکل عملکردی اجباری نکنیم. مقادیر پیشبینیشده برای این، برخی از روندهای مشابه را به تعامل درجه دوم که در ابتدا مدلسازی شده بود، نشان میدهد، اما به همان اندازه صلب یا یکنواخت نیست. علاوه بر این، ما تعامل را در یک نمونه کوچکتر و به طور مستقل جمعآوری شده آزمایش کردیم و چیزی که نشاندهنده تعامل باشد پیدا نکردیم. به طور خلاصه، سوال من این است که برای حذف رسمی این تعامل به چه چیز دیگری نیاز داریم؟ مشکلی که من می بینم این است که تقریباً **آن چیزی بود که ما می خواستیم آزمایش کنیم**، و چیزی از نظر آماری معنی دار پیدا کردیم، اما به نظر می رسد که بهترین مناسب برای داده ها نیست، و تفسیر بالینی مهمی را ارائه نمی دهد.
|
نحوه پرداختن و تصدیق یک تعامل مهم که معنای عملی کمی دارد
|
18073
|
با عرض پوزش بابت سؤالی که تقریباً شبیه کتاب درسی است. من یک طرح 2x2 با دسته های ثابت و یک متغیر پاسخ پیوسته دارم. اگر واریانس ها بین گروه ها برابر باشد (آزمون بارتلت) و باقیمانده ها به طور معمول توزیع شوند (آزمون شاپیرو)، خوب می توانم ANOVA استاندارد را انجام دهم. در غیر این صورت: 1. سعی کنید داده ها را تبدیل کنید (به عنوان مثال: arcsin(sqrt)، یا log()، یا حتی rank()). اگر داده های تبدیل شده هموسداستیک و باقی مانده نرمال هستند، ANOVA معمولی را انجام دهید. 2. یک گزینه: تست کروسکال (به شما می گوید که آیا هر یک از میانگین ها بین گروه ها متفاوت است یا خیر) و سپس چندین جفت تست ویلکاکس (برای تشخیص اینکه کدام معنی متفاوت است). اگر همه مهم باشند، همه عوامل (و تعاملات مهم هستند). 3. گزینه دیگر: از روش بوت استرپ استفاده کنید (تغییر باقیمانده ها) که در اینجا مشخص شده است: آیا معادلی برای تست یک طرفه Kruskal Wallis برای یک مدل دو طرفه وجود دارد؟ آیا این درست است؟
|
رویکرد کلی برای ANOVA دو طرفه ناپارامتریک
|
31419
|
دریافتم که احتمال وقوع یک رویداد تابع جبری از همه احتمالاتی است که می خواهم پیدا کنم. $$P(v_1,v_2,v_3,...,v_n)=p_{collected}$$ برای $n$ کوچک، حل آن برای همه $v$ به عنوان یک سیستم معادلات آسان خواهد بود. با این حال، زمانی که $n$ بزرگ می شود (به ترتیب صدها تا چند هزار)، تجزیه و تحلیل داده ها به این روش غیر ممکن می شود. اکثر متغیرها ممکن است صفر (یا خیلی خیلی نزدیک) باشند و ناچیز باشند. تابع چند جمله ای نیست، بنابراین حل آن با استفاده از جبر خطی اولیه ممکن است دشوار باشد. آیا راهی برای تخمین زدن این متغیرها وجود دارد؟
|
وقتی متغیرهای زیادی وجود دارد چه باید کرد؟
|
76666
|
من سعی می کنم مدل های ترکیبی خطی را در 3 DV مختلف (بنابراین سه مدل) قرار دهم. من میدانم که REML تخمینهای واریانس کمتری را ارائه میدهد. از آنجایی که بیشتر به جلوه های ثابت علاقه مند هستم، از ML برای کاهش مدل اولیه گام به گام بر اساس مقادیر AIC استفاده می کنم و از REML برای مطابقت با مدل های نهایی (کاهش یافته) خود استفاده می کنم. با این حال، اگر درست متوجه شده باشم، REML بخش ثابت را برای جا دادن مدل نادیده می گیرد، درست است؟ و از آنجایی که 2 مدل از 3 مدل من فقط واریانس تصادفی بسیار کمی دارند، من گیج هستم که آیا باید کاملاً به برآوردهای ML پایبند باشم؟ نظر شما در این مورد چیست؟ آیا درکم از REML در مقابل ML درست است؟
|
استفاده از REML در مدل های ترکیبی در صورتی که فاکتور تصادفی کوچک باشد
|
70990
|
من در کلاس R شرکت می کنم و نمی توانم کد اساتید را به کار ببرم. من سعی می کنم یک مدل خطی ساده انجام دهم و این کد را اجرا می کنم: > ozone<-read.table(http://www.ats.ucla.edu/stat/r/faq/ozone.csv, sep= ,, > header=T) > > fit = lm(ozone~.,data=ozone) > > summary(fit) که خطای زیر را به من می دهد: > خطا در model.frame.default(formula = ozon ~ ., data = ozone, > drop.unused.levels = TRUE): نوع (فهرست) نامعتبر برای متغیر 'ozone این واقعاً مایوس کننده است زیرا آنها دو خط اول کد در یادداشت های سخنرانی او هستند. من همچنین چندین پست انجمن دیگر در مورد این موضوع پیدا کرده ام (حتی به عنوان یک اشتباه رایج r فهرست شده است)، اما من آنقدر ... ویژه هستم که بفهمم چگونه آن را تغییر دهم. من سعی کردم آن را به عنوان.numeric و به عنوان data.frame بخوانم، این همان چیزی است که اکثر موضوعات دیگر پیشنهاد می کنند، اما هیچ کدام جواب نداد.
|
خطا با lm، اشتباه رایج R
|
31416
|
پس از انجام خوشهبندی k-means روی مجموعهای از مشاهدات، میخواهم یک تابع متمایز بسازم تا مشاهدات جدید را در دستههایی که بعد از k-means یافتم طبقهبندی کنم. آیا این اصلا ایده خوبی است؟ مواظب چی باشم؟
|
آیا می توانید از تجزیه و تحلیل متمایز برای طبقه بندی مشاهدات جدید به دسته های ایجاد شده توسط خوشه بندی قبلی $k$-means استفاده کنید؟
|
30457
|
فرض کنید یک توزیع مشترک روی بردار $[\mathbf{x}, y]$: $$ p([y, \mathbf{x}] ) = \mathcal{N}\left(\begin{pmatrix} y \ \ \mathbf{x}\end{pmatrix}| 0, \begin{pmatrix} k& \mathbf{v} \\ \mathbf{v}^T & K\end{pmatrix}\right)، $$ که در آن $\mathbf{x} \in \mathbb{R}^N$، $y \in \mathbb{R}$. و همچنین توزیع $\mathbf{x}$ را مشروط به برخی دادهها میدانیم $D$: $$ q(\mathbf{x}| D) = \mathcal{N} (\mu, \sigma^2 I). $$ بیان تحلیلی برای $p(y| D)$ چگونه به نظر می رسد (یعنی چگونه می توان چنین انتگرالی را به ساده ترین روش مدیریت کرد؟): $$ p(y| D) = \int p(y| \mathbf{ x}) q(\mathbf{x}| D) d \mathbf{x} = ? $$ بنابراین، من سعی میکنم این را حل کنم، اما همه چیزهایی که به دست میآورم شبیه یک هیولا است، که برای من مناسب نیست، بنابراین باید از این عبارت بیشتر در تحقیقاتم استفاده کنم.
|
چگونه یک پسین را برای مدل داده شده محاسبه کنیم؟
|
70994
|
اگر این یک سوال بسیار اساسی است، پوزش می طلبم. اگر دادههایی داریم که به طور معمول توزیع نمیشوند (مثلاً کجشده، آزمون Shapiro-Wilk قابل توجه است) و به روشهای مبتنی بر رتبه متوسل میشویم (مثلاً آزمون رتبهبندی امضا شده Wilcoxon)، آنوقت آیا باید به موارد پرت توجه کنیم؟ تصور کنید، به عنوان مثال، ما داده ها را با استفاده از نمودار جعبه رسم می کنیم و تعداد کمی از نقاط داده به عنوان نقاط پرت علامت گذاری می شوند. آیا باید آن نقاط را تغییر دهیم؟ یا حذفشون کنم؟ به نظر من بسیاری از کتاب های درسی در مورد برخورد با موارد پرت صحبت می کنند، اما فقط به این دلیل که تأثیر عمده ای بر پارامترهایی مانند میانگین و انحراف معیار دارند. با این حال، هنگامی که از یک آزمون مبتنی بر رتبه استفاده میکنیم، آنها قبلاً «تبدیل» میشوند تا مقدار بعدی در رتبه باشند، و بنابراین تأثیر عمدهای بر آزمون ندارند. من تا به حال ندیده ام که این موضوع به صراحت در کتاب آمار بیان شده باشد، بنابراین فکر کردم سوال را اینجا مطرح کنم. آیا هنگام استفاده از آزمون های مبتنی بر رتبه باید نگران موارد پرت باشیم؟
|
آیا هنگام استفاده از آزمون های مبتنی بر رتبه باید نگران موارد پرت باشیم؟
|
5774
|
من یک مجموعه داده دارم که هم داده های پیوسته و هم داده های طبقه ای دارد. من با استفاده از PCA تجزیه و تحلیل می کنم و نمی دانم که آیا گنجاندن متغیرهای طبقه بندی به عنوان بخشی از تجزیه و تحلیل خوب است یا خیر. درک من این است که PCA فقط برای متغیرهای پیوسته قابل اعمال است. آیا این درست است؟ اگر نمی توان از آن برای داده های طبقه بندی استفاده کرد، چه جایگزین هایی برای تجزیه و تحلیل آنها وجود دارد؟
|
آیا می توان تحلیل مؤلفه های اصلی را برای مجموعه داده های حاوی ترکیبی از متغیرهای پیوسته و طبقه ای اعمال کرد؟
|
33814
|
پرکینز و همکاران (2007) یک امتیاز مهارت را برای اندازه گیری خروجی مدل آب و هوا در برابر مشاهدات معرفی می کند. امتیاز اساساً شامل اندازه گیری همپوشانی بین توابع چگالی احتمال مدل (m) و مشاهدات (o) است. برای برخی از متغیرها (به عنوان مثال حداکثر دمای روزانه). به صورت $$S_{score} = \int^\infty_{-\infty} min[pdf(m),\ pdf(o)]$$ محاسبه میشود. من سعی میکنم سرم را دور توزیعهای شرطی بیزی بپیچم، و دور نشدن به نظر می رسد که این موضوع مرتبط باشد، زیرا این معیاری است از احتمال اینکه مدل تخمین خوبی از مشاهدات باشد. با این حال، نمی توانم بفهمم که معادل است یا نه. با توجه به $P(m|o) = \frac{P(o|m)P(m)}{P(o)}$، آیا درست است که $P(m)=\int^\infty_{-\infty } pdf(m)=1$، و همینطور برای obs؟ یا من چیز بزرگی را اینجا از دست داده ام؟
|
آیا «نمره مهارت» پرکینز و همکاران، کاربرد قضیه بیز است؟
|
113085
|
من یک مجموعه داده دارم (data1.csv) که حاوی برخی از داده های گم شده است ** . ** (به طور تصادفی وجود ندارد)، من یک زیر مجموعه از این مجموعه داده (d1) ایجاد می کنم به طوری که فقط مشاهدات کامل در d2 حفظ می شوند. من از تابع **ftable**، **as.data.frame** استفاده می کنم و یک ستون **p** ایجاد می کنم که نشان دهنده درصد هر ترکیب است. d1 = read.csv(C:/Users/....../Data1.csv,header=T) d1[d1=='.'] <- NA d2=na.omit(d1) d3= ftable(d2) d4=as.data.frame(d3) d4$p تابع **ftable** , **as.data.frame** خوب کار می کند اما مشکل اینجاست من هنوز داده های گم شده را در نتایج خود می بینم (d4). فکر کردم وقتی d1 را انجام دادم از شر آن خلاص شدم[d1=='.'] <- NA d2=na.omit(d1) بنابراین برای خلاص شدن از شر مقادیر از دست رفته و انجام جدول فرکانس فقط با مشاهدات کامل به کمک نیاز دارید
|
مسئله ارزش های گمشده
|
5776
|
8 نفر در حال بازی پوکر هستند. بنابراین، شانس برنده شدن در کل دور = 1/8 2 راند بازی می شود و بیل هر دو راند را برنده می شود. چه شانسی دارد که این تصادفی باشد؟ (آزمون فرضیه؟) NullH = بیل هیچ مهارت اضافه ای ندارد. (خوش شانس شدم) AltH = بیل مهارت دارد. p = 0.13 = 1/8 q = 0.87 = 7/8 n = 2 SD = sqrt(pq/n) = 0.23 واقعی (p-hat) = 1 z = 3.74 p-value = 0% نتیجه گیری: شانس بردن 2 راند از 2 راند به صورت تصادفی بعید است. رد فرضیه صفر بیل مهارت دارد. آیا این درست است؟ ممنون!!
|
شانس برنده شدن در 2 آزمایش متوالی
|
30455
|
من می خواهم تعیین کنم که آیا تفاوتی در میانگین p-value بین دو گروه وجود دارد یا خیر. برای انجام این کار، من یک آزمون جمع رتبهای Wilcoxon را انجام میدهم (دادهها معمولاً توزیع نمیشوند). تا اینجای کار خیلی خوبه. در نهایت، من می خواهم اندازه اثر مربوطه را محاسبه کنم. متأسفانه R این را ارائه نمی دهد. همچنین یک مقدار z ارائه نمی دهد که با استفاده از آن بتوان اندازه اثر را به راحتی محاسبه کرد: اندازه اثر = z / sqrt(N) در اینجا چند کد R نمونه وجود دارد: a=rep(0:1,each=20) #متغیر گروه بندی b =c(rnorm(20، 0.03،.01)، rnorm(20، 0.02، 0.009)) #بردار مقادیر p d=cbind(a,b) test = wilcox.test(b ~ a, data = d) #انجام تست تست جمع رتبه ویلکاکسون آیا کسی می داند چگونه اندازه اثر را بدست آورد؟
|
چگونه اندازه اثر آزمون مجموع رتبه ویلکاکسون را در R تعیین کنیم؟
|
30451
|
من سعی می کنم مدلی بسازم که برخی از فرآیندهای پرداخت و توزیع پرداخت ها را در زمان توصیف کند. من معتقدم که زمان پرداخت دارای توزیع لوی با تابع چگالی احتمال است: $ f(x,c)=\sqrt{\frac{c}{2\pi}}~~\frac{e^{ -\frac{c} {2x}}} {x^{3/2}} $ این توزیع به پارامتر _c_ بستگی دارد که در واقع شکل توزیع را مشخص میکند. وظیفه من ساخت مدلی است که وابستگی این پارامتر را به برخی از متغیرهای توضیح دهنده توضیح دهد. من در حال تلاش برای وابستگی خطی هستم $c = \sum_i \beta_i x_i$ این نمونه ای از مدل خطی تعمیم یافته است و در بسته VGAM در R پیاده سازی شده است. شروع و این دوره برای گروه های مختلف موارد متفاوت است. و به همین دلیل من نمی توانم فقط مدل را در بسته VGAM روی این داده ها اجرا کنم زیرا در نتیجه احتمال پرداخت های اولیه نادرست است. یکی از راه حل های ممکن که می توانم به آن فکر کنم، تغییر تابع درستنمایی است که پارامتر از آن تخمین زده می شود. اگر ما فقط از زمان تا _t_ اطلاعات داشته باشیم و به عنوان تابع توزیع تجمعی توزیع Levy برابر است با: $ F(x,c)=\textrm{erfc}\left(\sqrt{c/2x}\right) $ چگالی توزیع تا زمان _t_ $ f_1(x,c,t)= \frac{f(x,c)}{F(t,c)} $ (که $f(x,c) است. F(t,c)$ که در بالا تعریف شده است). این توابع چگالی جدید را می توان در تخمین پارامترهای رگرسیون با روش حداکثر احتمال استفاده کرد. اما آیا با استفاده از روش های بسته VGAM یا تابع معمول **glm** یا برخی بسته های دیگر می توان آن را در R انجام داد؟ یا رویکردهای بهتری برای مشکل من وجود دارد؟ من علاقه مند به پیاده سازی در R هستم.
|
مدل خطی تعمیم یافته برای توزیع لوی با داده های ناکامل
|
76598
|
من از طریق تمرین و تمرین زیاد زیاد هستم، اما مایلم در مورد آمار بیزی بیشتر بدانم. من اصول اولیه را می دانم، اما اگر مجبور شوم، برای مثال، روش آزمایش فرضیه ANOVA معمولی خود را با جایگزین بیزی جایگزین کنم، ضرر می کنم. برای یادگیری رویکردهای بیزی عملی چه کتابی را پیشنهاد می کنید؟ ترجیحا از R استفاده کنید.
|
س: چه کتابی در مورد آمار بیزی، ترجیحا با R؟
|
5771
|
فرض کنید من در حال انجام برخی از روش های آزمایشی روی دو گروه درمانی هستم. این روش چندین مرحله دارد که هر کدام ممکن است با شکست مواجه شوند. شکست در هر مرحله آزمایش را متوقف می کند. اگر تمام مراحل پشت سر گذاشته شود، نتایج مفیدی وجود دارد. اگرچه من در درجه اول به نتیجه نهایی علاقه مند هستم، اما درمان ها **ممکن است** نرخ های شکست متفاوتی را در طول مسیر داشته باشند. من میخواهم این را کمیت کنم، و از آنجایی که ما به شمارشهای ساده نگاه میکنیم، به نظر میرسد که یک تست مربع کای یا فیشر مناسب باشد. اگر بخواهم از آزمونی مانند _ بازگشتی_ برای گروه هایی که هر مرحله را پشت سر می گذارند استفاده کنم، آیا باید برای مقایسه های متعدد اصلاحاتی اعمال کنم؟ یعنی فرض کنید که گروه ها به این شکل پیش رفتند: Group_A Group_B شروع 100 100 Stage_1 90 95 Stage_2 80 85 Stage_3 60 75 Stage_4 55 30 Results ... ... آیا انجام یک دنباله از آزمون های گروهی 2x2 از فرم منطقی است. Group_B تصویب شد_N X Y ناموفق_N Started_N-X Started_N-Y من احساس میکنم که فقط باید پاسخ را بدانم، اما نمیتوانم بفهمم که آیا انجام آزمایشهای مکرر به حساب میآید یا خیر. جمعیت ها هر بار تا حدودی متمایز هستند، اما به شدت با هم همپوشانی دارند. همچنین، آیا اگر دلایل فیزیکی داشته باشم که فرض کنم فقط مرحله 4 باید تحت تأثیر درمان ها قرار گیرد، تفاوتی خواهد داشت؟ آیا می توانم در آن مورد، هر گونه تفاوت در عبور از مراحل دیگر را نادیده بگیرم؟ (همچنین می توانید پاسخ هایی مانند ZOMG، از این نوع تست در اینجا استفاده نکنید، از XXXX به روش YYYY، به دلایل ZZZZ استفاده کنید را پست کنید.)
|
مقایسه های متعدد در زیر مجموعه های تو در تو از داده ها
|
30456
|
من می دانم که رگرسیون خطی را می توان به عنوان _خطی که به صورت عمودی نزدیک به همه نقاط است در نظر گرفت:  اما در آنجا راه دیگری برای مشاهده آن است، با تجسم فضای ستون، به عنوان _طرح در فضایی که توسط ستون های ماتریس ضریب پوشانده شده است_ :  سوال من این است: در این دو تفسیر، چه اتفاقی میافتد وقتی از رگرسیون خطی جریمهشده مانند **رگرسیون خطی** و **LASSO* استفاده میکنیم. *؟ با خط در تفسیر اول چه اتفاقی می افتد؟ و با فرافکنی در تفسیر دوم چه اتفاقی می افتد؟ **به روز رسانی:** @JohnSmith در نظرات این واقعیت را مطرح کرد که پنالتی در فضای ضرایب رخ می دهد. آیا میتوانیم در این فضا هم تفسیری داشته باشیم؟
|
تفسیر هندسی رگرسیون خطی جریمه شده
|
47162
|
فرض کنید $f\left(x\right)$ تابع چگالی احتمال متغیر تصادفی $X$ باشد. توزیع احتمال مشترک $f_{X,Y}\left(x,y\right)$ اگر $Y=X$ باشد چقدر است؟ با تشکر برای هر پاسخ مفید.
|
توزیع احتمال مشترک دو متغیر یکسان چیست؟
|
90830
|
من به دنبال یک الگوریتم کار برای یافتن پهنای باند هسته بهینه برای تخمین چگالی هستم. من باید به جای استفاده از R یا Matlab برنامه خودم را با پاسکال بنویسم. تا اینجا همه الگوریتم هایی که پیدا کردم شکست خوردند. برای مثال، این یکی ساده و امیدوارکننده به نظر می رسد: http://www.di.ubi.pt/~lfbaa/entnetsPubs/bandwidth.pdf من برنامه زیر را برای آن نوشتم: برنامه test; تابع {$mode objfpc}{$H+} hopt(data: array of Double): Double; var h0, h1, k4, s: Double; i, j, n: عدد صحیح; شروع n := طول(داده)؛ //مقدار سیلورمن برای شروع با //stdev_p() به سادگی انحراف استاندارد جمعیت h0 را محاسبه کنید:= 1.06*stdev_p(data)*power(n,-0.2); در حالی که True do start //start of formula-17 k4 := 0; برای i := 0 تا n - 1 برای j := 0 تا i - 1 شروع کنید s := sqr(data[i] - data[j]); k4 += (sqr(s-6*h0*h0)-24*power(h0,4))*exp(-s/4/h0/h0); پایان؛ پایان؛ k4 := 3*n*h0+k4/2/power(h0,3); h1 := قدرت(4*n*قدرت(h0,6)/k4,0.2); //پایان فرمول-17 h1 := (h0+h1)/2; اگر abs (h1-h0) < 0.0001 سپس شکست. h0 := h1; پایان؛ نتیجه := h1; پایان؛ var a: آرایه Double; شروع SetLength(a, 6); a[0] := -2.1; a[1] := -1.3; a[2] := -0.4; a[3] := 1.9; a[4] := 5.1; a[5] := 6.2; WriteLn('hopt=', hopt(a)); پایان با استفاده از این نمونه برای آزمایش تابع فوق: -2.1، -1.3، -0.4، 1.9، 5.1، 6.2 نتیجه ای که می دهد 3.716 است که بسیار بدتر از مقدار اولیه سیلورمن 2.335 است. با استفاده از sm::hsj() R در این مجموعه داده، مقدار h بهینه حدود 1.9 است که تقریباً به 1.5 ویکی پدیا نزدیک است. من همچنین روش اعتبارسنجی متقابل پیشنهاد شده در اینجا را امتحان کردم: http://www3.stat.sinica.edu.tw/statistica/oldpdf/A6n18.pdf?origin=publication_detail که اصلاً همگرا نیست. آیا کسی می تواند یک روش ساده را توضیح دهد، چه این روش اعتبار سنجی متقابل یا روش افزونه، با استفاده از یک مجموعه داده کوچک، به جای فرمول ریاضی یا زبان های اختصاصی مانند R یا matlab؟ خیلی ممنون
|
نیاز به یک الگوریتم کار برای یافتن پهنای باند هسته بهینه برای تخمین چگالی
|
47160
|
من دادههایی برای چندین نفر دارم، که در آن هر فرد هر سال در چندین سال به تعداد دلخواه یک کار را انجام میدهد و درجه بندی میشود. به عنوان مثال - year 1 2 year 3 Person1 1 1 3 2 4 2 3 3 5 2 3 4 1 Person2 2 3 1 7 9 1 2 3 3 1 Person3 ... بنابراین در سال 1، شخص 1 وظیفه را 5 بار انجام می دهد و می گیرد امتیازات 1 1 3 2 4. من میانگین هر فرد را در هر سال می گیرم: سال 1 سال 2 سال 3 Person1 2.2 2.7 3 Person2 2 4.75 2.3 Person3 ... چگونه می توانم تفاوت معنی داری بین میانگین افراد در هر سال را آزمایش کنم؟ من فرض میکنم که میتوانم ANOVA اندازهگیریهای مکرر را روی میانگین انجام دهم، اما این تعداد اندازهگیریها را برای هر نفر در سال نادیده میگیرد. به عنوان مثال، برای شخص 1 در سال 1، 5 اندازه گیری در مقایسه با 3 اندازه گیری برای شخص 2 در سال 1 وجود دارد که اندازه گیری قبلی را قطعی تر می کند. به طور کلی، برخی از افراد می توانند اندازه گیری های بسیار بیشتری نسبت به سایر افراد در تمام سال ها داشته باشند. با تشکر
|
مقایسه عملکرد بین افراد در طول زمان با تعداد متغیر اندازه گیری
|
83306
|
دادههای آموزشی با پیشبینیکنندههای $p$ = 11 و $n$ = 165 با مشکل 4 کلاسه، با استفاده از بستهی caret با استفاده از LDA پراکنده (معروف به SDA) اعتبار متقاطع (5 بار تکرار CV 10 برابری) انجام شد. این مدل یک نسخه منظم از LDA با دو پارامتر تنظیم است: _lasso_ با استفاده از $\ell_{1}$ جریمه و ridge با استفاده از $\ell_{2}$ جریمه. اولی پیشبینیکنندههای بیاهمیت را حذف میکند و از این رو _خصیصه انتخاب_، اثر دلخواه را ارائه میکند، در حالی که ریج ضرایب متمایز را به سمت صفر کاهش میدهد. در «caret» میتوان شماره پیشبینیکنندهها را تنظیم کرد تا _بهجای_ مقادیر تعریفشده برای جریمه $\ell_{1}$ حفظ شود. رج را می توان در مدل کوک کرد و در شکل زیر نام لامبدا را گذاشت. وقتی به اسناد بسته «sparseLDA» نگاه میکردم، متوجه شدم که ridge یا «lambda» دارای مقدار پیشفرض 1e-6 است. هیچ سرنخی در مورد اینکه محدوده لحن چقدر می تواند وسیع باشد پیدا نکردم. به هر حال، مقادیر تجربی برای lambda مانند کد زیر بین (0 تا 100) ارسال شد ctrl <- trainControl (روش = repeatedcv، تکرار = 5، عدد = 10، verbose = TRUE، classProbs = TRUE) sparseLDAGridx <- expand.grid(.NumVars = c(1:11)، .lambda = c(0، 0.01، 0.1، 1، 10، 100)) set.seed(1) # برای داشتن نتایج قابل تکرار spldaFitvacRedx <- train (کلاس ~ .، داده = آموزش، روش = sparseLDA، tuneGrid = sparseLDAGridx، trControl = ctrl، متریک = دقت، # مورد نیاز نیست بنابراین به طور پیش فرض اهمیت = TRUE، preProc = c(center, scale)) همانطور که در شکل نشان داده شده است، بهترین برجستگی 100 بود (مطمئن هستم میتواند مقادیر بالاتری را دریافت کند) و پیشبینیکنندههای مهم 8 هستند. به عنوان مثال: من این کد را در `$finalModel` اجرا کردم: این را دریافت کردم: > spldaFitvacRedx$finalModel Call: sda.default(x = x, y = y, lambda = param$lambda, stop = -param$NumVars, اهمیت = TRUE ) لامبدا = 100 توقف = 8 کلاس متغیر = H، P، R، Q 5 پیش بینی کننده برتر (خارج از 11): IL12A، EBI3، IL12RB1، IL23R، IL12B اگر «$bestTune» را اجرا کنم: > spldaFitvacRedx$bestTune NumVars lambda 48 8 100 اگر «varImp()» را اجرا کنم: > varImp(spldaFitvac variable variable) بر اساس اهمیت متوسط در سراسر مرتب شده اند کلاسهای H P R Q IL12RB1 100.00 100.00 100.00 100.00 IL23A 100.00 0.00 99.05 100.00 IL12RB2 100.00 100.000 100.00 IL23A 100.00 85.71 97.14 100.00 IL23R 100.00 100.00 100.00 100.00 EBI3 100.00 96.43 98.10 100.00 100.00 IL8 100.00 100.00 IL6ST 100.00 100.00 99.05 100.00 IL17A 100.00 73.48 97.14 100.00 IL12A 100.00 42.86 100.00 100.00 100.00 100.00 100.09 100.00 99.29 آخرین خروجی گیج کننده است، من ROC نخواستم، بنابراین باید یک خروجی نامربوط باشد. اگر 11 پیش بینی کننده واقعاً همانطور که در خروجی گفته شد در 4 کلاس طبقه بندی شده اند، IL23A به هیچ وجه نمی تواند دومین پیش بینی باشد در حالی که مقادیر متوسط بیشتری از سایر پیش بینی ها دارند (به عنوان مثال IL12RB2 و IL23R). **سوالات:** 1. چگونه می توان این شکل را تفسیر کرد که به تعداد مهمتری از پیش بینی کننده ها اشاره دارد زیرا برجستگی افزایش می یابد. به عبارت دیگر، چرا با افزایش جریمه پشته، پیش بینی های مهم تری ظاهر می شوند؟ 2. سرنخ ما از محدوده مقادیر رج که باید تنظیم شود چیست؟ بالاترین حد چیست؟ 3. در بسته caret، چگونه می توان فهمید که مهمترین پیش بینی کننده ها در اینجا کدامند؟ **توجه:** 11 پیش بینی کننده داده های بیان ژن 11 ژن هستند. آنها طبیعتاً مرتبط هستند $ r $ بالاتر از 0.9 نبود. **به روز رسانی** با توجه به پاسخ زیر، من نتوانستم 8 را دریافت کنم، بلکه همه 11 پیش بینی کننده را دریافت کردم، پس حالا چه کار کنم؟ واقعا گیج شده set.seed(1) # مهم برای داشتن نتایج قابل تکرار SDAobj <- train(Class ~ .، داده = آموزش، روش = sparseLDA، tuneGrid = data.frame(NumVars = 8، lambda = 100)، preProc = c( مرکز، مقیاس)، trControl = trainControl(روش = cv)) > SDAobj$finalModel$xNames[SDAobj$finalModel$varIndex] [1] IL8 IL17A IL23A IL23R EBI3 [6] IL6ST IL12A IL12RB2 IL12B IL11RB1 ] IL27RA > SDAobj$finalModel$varIndex [1] 1 2 3 4 5 6 7 8 9 10 11 من روی داده های iris امتحان کردم، همان مشکلی که به جای 3، تمام 4 متغیر را برگرداند، هیچ ویژگی انتخابی به دست نیامد: data(iris) set. seed(1) obj <- train(iris[,-5], iris$Species, method = sparseL
|
چگونه با استفاده از بسته CARET این رقم LDA پراکنده اعتبار متقابل را تفسیر کنیم؟
|
1521
|
> **تکراری احتمالی:** > دو فرهنگ: آمار در مقابل یادگیری ماشین؟ تفاوت بین داده کاوی و تجزیه و تحلیل آماری چیست؟ فکر می کنم برای برخی پیشینه، تحصیلات آماری من نسبتاً سنتی بوده است. یک سؤال خاص مطرح میشود، تحقیق طراحی میشود و دادهها جمعآوری و تجزیه و تحلیل میشوند تا بینشی در مورد آن سؤال ارائه شود. در نتیجه، من همیشه نسبت به آنچه که لایروبی داده را در نظر می گرفتم شک داشتم -- به دنبال الگوهایی در یک مجموعه داده بزرگ و استفاده از این الگوها برای نتیجه گیری بودم. من تمایل دارم دومی را با داده کاوی مرتبط کنم و همیشه این را تا حدی غیراصولی در نظر گرفته ام - همراه با مواردی مانند روال انتخاب متغیرهای الگوریتمی. با این وجود، ادبیات بزرگ و رو به رشدی در مورد داده کاوی وجود دارد. اغلب می بینم که این برچسب به تکنیک های خاصی اشاره می کند - خوشه بندی، طبقه بندی درختی، و غیره. سوال من اولی را داده کاوی و دومی را تحلیل آماری می نامم. من در مدیریت دانشگاهی کار می کنم و از من خواسته شده است که برای شناسایی مسائل و فرصت ها داده کاوی انجام دهم. مطابق با سوابق من، اولین سؤالات من این بود - چه چیزی می خواهید یاد بگیرید و چه چیزهایی که فکر می کنید در این موضوع نقش دارند. از پاسخ آنها مشخص شد که من و شخص سوال کننده نظرات متفاوتی در مورد ماهیت و ارزش داده کاوی داشتیم.
|
داده کاوی و تجزیه و تحلیل آماری
|
76594
|
من سعی می کنم یک مدل خطی (`lme4::lmer()`) را به داده های خود در R تطبیق دهم. می خواهم به تعدادی چیز نگاه کنم، از جمله **درهم زدن** محرک های بصری و ** شدت **» از احساسات به تصویر کشیده شده در آن. این چیزها در ستونهای «**درهم**» و «**شدت**» دیتافریم من ذخیره میشوند. برای سهولت درک شما ممکن است یک نمودار گرافیکی از داده های من در این موضوع دیگر مشاهده کنید. به من گفته شده است که نتایج مدل خطی می تواند به خطر بیفتد اگر نام دسته ها به صورت تصادفی به جای رشته ها به صورت اعداد صحیح تجزیه شوند. اما از آنجایی که این معیارها (*درهم******شدت**) به نوعی کمی هستند، به نظر من بهتر است آنها را به عنوان اعداد صحیح رها کنیم - یا حتی شاید از هر دو رویکرد جداگانه استفاده کنیم. با این حال، من مطمئن نیستم که چگونه تفسیر من از نتایج بسته به اینکه آیا شناسه های دسته من به عنوان گزش یا int ارسال می شود یا نه، باید متفاوت باشد. کسی می تواند این را برای من توضیح دهد؟ همچنین زمانی که من از «stats::aov()» روی همان داده استفاده می کنم، این تمایز همچنان برقرار است؟
|
مدلهای خطی R - شناسههای دستهبندی به عنوان رشتهها یا int
|
108578
|
در یک توزیع نرمال، قانون 68-95-99.7 به انحراف معیار معنی زیادی می دهد. اما انحراف معیار در یک توزیع غیر نرمال (چند وجهی یا اریب) به چه معناست؟ آیا همه مقادیر داده همچنان در 3 انحراف استاندارد قرار می گیرند؟ آیا قوانینی مانند 68-95-99.7 برای توزیع های غیر عادی داریم؟
|
انحراف معیار در توزیع غیر نرمال به ما چه می گوید
|
47168
|
با نگاهی به چندین منبع آنلاین، به نظر نمی رسد که پاسخی مستقیم دریافت کنم. لطفاً کسی می تواند برای من توضیح دهد که آیا داده های ترتیبی برای استفاده برای WSRT کافی است و اگر نه، آیا تست علامت جایگزین مناسبی است؟ در نهایت، این برای پروژه پایان نامه من در دانشگاه است و بنابراین اگر هر منبع / ادبیاتی می تواند در پاسخ ها گنجانده شود بسیار قدردانی می شود زیرا من باید انتخاب آزمون خود را در هر صورت توجیه کنم و تاکنون فقط پاسخ هایی را از وب سایت ها پیدا کرده ام (که من نمی توانم اشاره کنم!)
|
آیا داده های ترتیبی یا فاصله ای برای آزمون رتبه امضا شده Wilcoxon مورد نیاز است؟
|
31417
|
این دو تابع در R وجود دارند اما تفاوت آنها را نمی دانم. به نظر میرسد که آنها فقط هنگام فراخوانی «wilcox.test» با «correct=FALSE» و «wilcox_test» (در بسته سکه) با «distribution=aymptotic»، همان p-value را برمیگردانند. برای مقادیر دیگر، آنها مقادیر p متفاوتی را برمیگردانند. همچنین `wilcox.test` همیشه W=0 را برای مجموعه داده من، مستقل از تنظیمات پارامترهای آن برمی گرداند: `x = c(1, 1, 1, 3, 3, 3, 3)` و `y = c( 4، 4، 6، 7، 7، 8، 10)` همچنین، زمانی که سعی می کنم از ابزارهای متفاوتی غیر از R استفاده کنم (برخی به صورت آنلاین در دسترس هستند، برخی دیگر به عنوان افزونه های اکسل)، گاهی اوقات آنها متفاوت گزارش می کنند. مقادیر p بنابراین چگونه می توانم بدانم که کدام ابزار مقدار p درست را می دهد؟ آیا مقدار p صحیح وجود دارد یا اگر چند ابزار مقدار p <0.05 را بدهند باید خوشحال باشم؟ (گاهی اوقات این ابزارها امکان پارامترسازی زیادی مانند R را ارائه نمی دهند.) اینجا چه چیزی را از دست می دهم؟ با تشکر
|
تفاوت بین wilcox.test و wilcox_test در R چیست
|
83309
|
**سوال** در برخی بانک ها، مدت زمانی که از لحظه ورود مشتری تا در دسترس بودن کارمند طول می کشد، به طور معمول با $\mu=15،\sigma=2$ a توزیع می شود. احتمال اینکه مشتری بعدی بیش از 18 دقیقه منتظر بماند چقدر است؟ ب مشکلش چیه که میانگین زمان انتظار 100 مشتری بعدی بیشتر از 15.1 دقیقه باشد (با فرض مستقل بودن زمان انتظار) ج. مدیریت بانک مدیر جدیدی را برای خدمات مشتریان استخدام کرد و او ادعا می کند که از زمانی که به این شغل رسیده است، مدت زمان درمان توسط منشی کاهش یافته است. او برای بررسی ادعای خود زمان انتظار 30 مشتری تصادفی را اندازه گرفت و میانگین 14.3 دقیقه را به دست آورد. با فرض اینکه s.d. تغییر نکرده است - بررسی کنید که آیا ادعای او درست است، با سطح اطمینان a=0.1. **پاسخ من** الف. P(X> 18)=(نرمال کننده) P(Z>1.5)=0.0668 ب. $P(\bar X>15.1)=P(Z>0.5)=0.3085$ c. $H_0:\mu=15، H_A:\mu<15$ بنابراین $CI=(-\infty,15-Z_0.99 \frac 2{\sqrt{30}}]=(-\infty,14.15]$ اما 14.13<14.15 بنابراین H_0 درست است و رد نمی شود. $P_{H_0}(\bar X<14.3)=P(Z<-1.91)=0.0281>0.01 $بنابراین $H_0$ رد نمی شود زیرا این اولین بار است که این کار را به تنهایی انجام می دهم. دوست دارم کسی نگاهی بیندازد و تأیید کند که درست است (یا نه؟)
|
تأیید ارزش P
|
35971
|
یا بیشتر از آن آیا خواهد بود؟ داده های بزرگ آمار و دانش مرتبط را مهم تر می کند، اما به نظر می رسد که نظریه نمونه گیری را تحت تأثیر قرار می دهد. من این هیاهو را در مورد داده های بزرگ دیده ام و نمی توانم فکر کنم که چرا می خواهم **همه چیز** را تجزیه و تحلیل کنم؟ آیا دلیلی برای طراحی/پیاده سازی/اختراع/کشف «نظریه نمونه برداری» وجود نداشت؟ من نمیتوانم کل «جمعیت» مجموعه داده را تجزیه و تحلیل کنم. فقط به این دلیل که می توانید این کار را انجام دهید به این معنی نیست که باید انجام دهید (حماقت یک امتیاز است اما نباید از آن سوء استفاده کنید :) بنابراین سؤال من این است: آیا تجزیه و تحلیل کل مجموعه داده ها از نظر آماری مرتبط است؟ بهترین کاری که می توانید انجام دهید این است که در صورت انجام نمونه برداری، خطا را به حداقل برسانید. اما آیا هزینه به حداقل رساندن این خطا واقعا ارزشش را دارد؟ آیا «ارزش اطلاعات» واقعاً ارزش تلاش، هزینه زمان و غیره را دارد که در تجزیه و تحلیل دادههای بزرگ بر روی رایانههای موازی گسترده انجام میشود؟ حتی اگر کل جمعیت را تحلیل کنیم، باز هم نتیجه در بهترین حالت حدس و گمان با احتمال بالاتری برای درست بودن خواهد بود. احتمالاً کمی بالاتر از نمونهگیری (یا خیلی بیشتر خواهد بود؟) آیا بینش بهدستآمده از تجزیه و تحلیل جامعه در مقایسه با تجزیه و تحلیل نمونه به طور گستردهای متفاوت است؟ یا باید آن را به عنوان «زمان تغییر کرده» بپذیریم؟ با توجه به قدرت محاسباتی کافی، نمونهبرداری بهعنوان یک فعالیت میتواند اهمیت کمتری پیدا کند :) توجه: من سعی نمیکنم بحثی را شروع کنم، بلکه به دنبال پاسخی هستم تا بفهمم چرا دادههای بزرگ کاری را انجام میدهند (یعنی تجزیه و تحلیل همه چیز) و تئوری را نادیده میگیرم. نمونه برداری (یا اینطور نیست؟)
|
آیا نمونه گیری در زمان داده های بزرگ مرتبط است؟
|
87538
|
  من گرفتم باقیمانده یک قیمت سهام تاریخی $\hat e_t=r_t-\hat \mu_t$، که در آن $r_t$ بازده یک سهم است که دارای ACF و PACF است. از ACF من فکر می کنم که باقیمانده از فرآیند AR یا MA پیروی نمی کند، و PACF MA خفیف را نشان می دهد. اما من تازه وارد این کار هستم و مطمئن نیستم که تفسیرم درست باشد. نظر شما چیست؟ تست Ljung Box به آمار Q 87.5597  داد که صفر بودن ضرایب خودهمبستگی را رد می کند. من از 40 تاخیر در اینجا استفاده کردم تا با ACF و PACF سازگار باشد. آیا این با شهود شما از بازرسی بصری ACF و PACF در تضاد است یا تأیید می کند؟
|
نحوه تفسیر ACF و PACF و مقایسه با نتیجه جعبه Ljung
|
35970
|
اگر دو درصد متفاوت داشته باشم و بخواهم تغییر را بدانم، به سادگی از فرمول درصد تغییر استفاده می کنم... اما اگر بخواهم دو درصد را که مقادیر متفاوتی دارند مقایسه کنم چه می شود: مثال: آگوست - 539 پاسخ درست از این تعداد وجود داشت. 743 = 72.5 ٪ سپتامبر - 498 پاسخ از 820 = 60.7٪ وجود دارد چگونه می توانم مقایسه ماهانه تغییر بین آن 2 درصد را انجام دهم؟ به من پیشنهاد شد که از LCD استفاده کنم، اما اگر مجموعه اعداد بزرگتری مانند هزاران داشته باشم، این اعداد می توانند بزرگ باشند. خب ماه ها رو جدا تحلیل کنم یا چیکار کنم؟ **میخواهم یک تحلیل مقایسهای در مورد دانشآموزانی که در آزمون مردادماه در مقابل دانشآموزان در سپتامبر شرکت کردند، انجام دهم. LCD = کمترین مخرج مشترک. آیا می توان این کار را انجام داد؟
|
محاسبه درصد تغییر 2 مقدار
|
76593
|
من سعی می کنم یک فرآیند انتخاب را بدون جایگزینی شبیه سازی کنم. فرآیندی است که در آن سیستم مجموعه ای از آیتم ها را به ترتیب خاصی قرار می دهد و سپس کاربر N مورد را به هر ترتیبی که می خواهد انتخاب می کند. ترتیب اقلام بسته به الگوریتم متفاوت خواهد بود. احتمال اینکه هر مورد توسط کاربر انتخاب شود بر اساس موارد زیر متفاوت است: مورد، موقعیت، و اینکه کاربر در کدام قرعه کشی قرار دارد (اول، دوم و غیره). فضای احتمال کامل عبارت است از: 1 = Pr(هر آیتمی را بکشید) + Pr(بدون آیتم را بکشید و انتخاب پایانی را انجام دهید) +--------------------+ | مورد | موقعیت | +--------+----------+ | مورد A | 1 | | مورد B | 2 | | مورد ج | 3 | | مورد D | 4 | +--------+----------- چالش من این است که بفهمم چگونه یک جدول احتمال شرطی ایجاد کنم که بتوان از آن در شبیه سازی استفاده کرد. من یکی دارم که Pr (کلیک کنید | مورد، موقعیت، شماره ترسیم) است. اما چیزی که من نیاز دارم Pr (کلیک کنید | آیتم، موقعیت، شماره قرعه کشی، {تاریخچه قرعه کشی ها}) +--------+-----------------+ -------------+ | مورد | موقعیت | قرعه کشی | احتمال | +--------+----------------------------------------------------------------------------- مورد A | 1 | 1 | 0.33 | | مورد B | 2 | 1 | 0.25 | | مورد ج | 3 | 1 | 0.2 | | مورد D | 4 | 1 | 0.14 | | مورد A | 1 | 2 | 0.1 | | مورد B | 2 | 2 | 0.3 | | مورد ج | 3 | 2 | 0.18 | | مورد D | 4 | 2 | 0.05 | +--------+----------+------+--------------+ این جدول در نظر نمی گیرد که روند قرعه کشی بدون جایگزینی است. احتمالات برای قرعه کشی 2 در نظر گرفته نمی شود که کدام مورد در اولین قرعه کشی انتخاب شده است. اگر من یک سری از قرعه کشی ها را شبیه سازی کنم، و کاربر را در قرعه کشی 1 با انتخاب مورد B شبیه سازی کنم، آیا راهی برای تغییر احتمالات موارد A، C D برای قرعه کشی 2 وجود دارد تا دلیل این واقعیت باشد که مورد B دیگر واجد شرایط نیست؟ من فکر میکنم در اینجا کاربرد قضیه بیز وجود دارد، اما من با نحوه تطبیق فرمول بیز برای محاسبه تعداد شرطها مشکل دارم.
|
Bayes را در شرایط متعدد اعمال کنید
|
31413
|
تصمیم گیری در مورد اینکه کدام آزمون آماری را برای مجموعه داده انتخاب کنم دچار مشکل شده ام. هر چه بیشتر در وب مطالعه کنم، بیشتر گیج می شوم زیرا اغلب نظرات مختلفی در مورد انتخاب آزمون مناسب وجود دارد. در این حد، در صورت شک، یک آزمون پارامتریک و یک آزمون ناپارامتریک، به عنوان مثال، یک آزمون ANOVA یک طرفه و یک آزمون Kruskal-Wallis، یا یک آزمون t دو نمونه ای و یک آزمون Mann-Whiteney را اعمال می کنم، به این امید که هر دو آزمایش ها همان خروجی را به من می دهند (به طور کلی $p < 0.05 $). اگر آنها انجام دهند، من تمام شده ام. اگر نه، پس باید بیشتر کار کنم. آیا سایتی وجود دارد که به خوبی شناخته شده باشد که نوعی درخت پشتیبانی تصمیم را برای انتخاب آزمون های آماری فراهم کند؟ آیا ابزاری وجود دارد که تا حد امکان مفروضات یک آزمون آماری را قبل از اعمال آن بر روی یک مجموعه داده معین بررسی کند؟ به عنوان مثال، برای ANOVA یک طرفه، می تواند به طور خودکار نرمال بودن و همگنی واریانس را بررسی کند! من فکر می کنم چنین سایت یا ابزاری کمک زیادی می کند، اما احتمالاً من بیش از حد درخواست می کنم ... با تشکر
|
آیا بسته نرم افزاری برای بررسی خودکار مفروضات آزمون های آماری مختلف طراحی شده است؟
|
47163
|
من رتبهبندی کتابها را بر اساس تعداد فروش دارم و میخواهم آن را بهبود ببخشم تا کتاب در چند کشور فروخته شده و تعداد کتابخانههایی که آن را حمل میکنند رتبهبندی کتاب 1 = # فروش رتبه کتاب 2 = # فروش + # کشورها + # کتابخانه آیا می توانم بگویم که رتبه بندی کتاب 2 بهتر از رتبه بندی کتاب 1 است؟ در اینجا بهتر به چه معناست؟ جامع تر و بیش از یک بعد؟ اگر فهرستی از کتابهایی داشته باشم که با استفاده از این 2 معادله رتبهبندی شدهاند، آیا میتوانم 2 رتبهبندی را با هم مقایسه کنم تا ببینم برای مثال با استفاده از آزمون t تفاوتی بین آنها وجود دارد؟ یا تست متفاوتی برای استفاده وجود دارد؟ مثال - معادله 1 - معادله 2 کتاب 1 - 5000 - 5050 کتاب 2 - 300 - 320 کتاب 3 - 90 - 99 در نهایت به تشکیل یک معادله جدید و مقایسه آن با معادلات موجود مدلسازی می گویند؟ با تشکر فراوان
|
کتاب های رتبه بندی/رده بندی
|
39221
|
من سعی می کنم توالی استفاده از محصول را برای چندین کاربر سایت بازی آنلاین استخراج کنم. من بسته R arulesSequences را پیدا کرده ام اما مطمئن نیستم که چگونه آن را با مشکلم تطبیق دهم. فرمت دادهها تاپلهایی شبیه به موارد مورد استفاده در دستورات Sequences خواهد بود، اما به جای ذکر محصولات A و B در تراکنشها، میخواهم مقادیری را که آن محصولات (بازیهای انواع مختلف) خریداری شدهاند (در مورد من بازی شده) ذکر کنم. ). مثال: sequence1 (برای uid=1) تاریخ UID Game1 Game2 Game3 Game4 Jan1 1 125 بار 0 بار 0 بار 0 بار 0 Jan2 1 0 بار 1 بار 0 بار 0 بار هر کاربر چنین دنباله ای خواهد داشت. با این حال، من می بینم که cspades تابع arulesSequences فقط اجازه می دهد تا با انواع بوللین کار کند، به عنوان مثال. آیا هر بازی واقعاً در آن تاریخ انجام شده است یا خیر: مثال: sequence1 (برای uid=1) تاریخ UID 1 ژانویه 1 بازی 2 ژانویه 1 1 بازی 1 ژانویه 3 1 Game2 Game3 هدف من تعیین قوانینی مانند اگر کاربر در آن تاریخ Game3 بازی کند، باعث می شود آنها یک هفته بعد بازی 2 را بسیار بیشتر کنند.
|
قوانین ارتباط زمانی با قوانین توالی با کمیت ها
|
109625
|
من باید در اندازه گیری میزان موفقیت یک درمان، منظم باشم. به هر حال خیلی بالاست اما از آنجایی که همه چیز در مورد محیط زیست است، چند برابر کردن آزمایش ها دشوار است. من $N = 20 $ افراد را درمان کردم، $18 $ موفق شدم. این نرخ موفقیت $\tau = 0.9$ است. من از جدول _جفری_ برای دریافت عدم قطعیت در مورد این نرخ استفاده کردم (براون 2013)، که به نظر می رسد $CI_{95\%} = [.716,.979]$ باشد. اکنون، برای اینکه واقعاً تمیز باشم، میخواهم آن را کمی افزایش دهم، با در نظر گرفتن این واقعیت که، در واقع، $N = N_1 + N_2 + N_3 + N_4$ با تمام $N_i = 5$، برای درمانها در 4 تاریخ مختلف داده شده است. چگونه این تکرار را در نظر بگیرم؟ چگونه یک عامل تصادفی را در یک تخمین نسبت ادغام کنم؟ من می دانم که ممکن است خیلی زیاد باشد، و به هر حال داده های خام برای $N = 20$ بسیار متقاعد کننده خواهد بود. :) [ویرایش:] به نظر می رسد یک سوال محدودتر از نظرات شما مطرح می شود: در وهله اول چگونه تخمین بزنم که آیا تاریخ $i$ احتمالاً بر میزان موفقیت تأثیر دارد یا خیر؟ آن را به گونه ای دیگر بیان کنید: چگونه می توانم فرضیه صفر $H_0: \tau_1 = \tau_2 = \dots$ را با این داده (به نسبت ضعیف) ارزیابی کنم؟ * اگر قرار بود این فرضیه با داده ها تأیید شود، از این $CI_{95\%}$ استفاده می کردم و همه چیز خوب می شد. * اگر قرار بود توسط داده ها باطل شود، پس چقدر باید گسترده تر باشد؟ (سپس نشان دهنده فاصله اطمینان یک نرخ موفقیت کلی $\tau$ (؟)) (یک بار دیگر، به نظر می رسد GLM ها پاسخ فوری هستند، اما من بسیار کمتر از فرضیات مجانبی آنها هستم..) (و یک بار دیگر دوباره، در پایان روز، $N$ ممکن است واقعاً آنقدر کم باشد که _doing statistics_ دیگر گزینه مناسبی نیست ;)
|
در نظر گرفتن یک عامل تصادفی هنگام اندازهگیری نسبت N پایین
|
83303
|
من دارم کتاب GPML را می خوانم و در فصل 2 (صفحه 15)، نحوه انجام رگرسیون با استفاده از فرآیند گاوسی (GP) را توضیح می دهد، اما در تشخیص نحوه کارکرد آن مشکل دارم. در استنتاج بیزی برای مدلهای پارامتری، ابتدا یک پیش از پارامترهای مدل $\theta$ را انتخاب میکنیم که $p(\theta)$ است. دوم، با توجه به داده های آموزشی $D$، احتمال $p(D|\theta)$ را محاسبه می کنیم. و در نهایت ما قسمت عقبی $\theta$ را به عنوان $p(\theta|D)$ داریم که در توزیع _پیش بینی_ $$p(y^*|x^*,D)=\int p(y) استفاده خواهد شد. ^*|x^*،\theta)p(\theta|D)d\theta$$، و موارد بالا همان کاری است که ما در استنتاج بیزی برای مدل های پارامتریک انجام می دهیم، درست است؟ خب، همانطور که در کتاب گفته شد، GP ناپارامتریک است و تا جایی که من متوجه شدم، پس از تعیین تابع _mean_ $m(x)$ و تابع _کوواریانس_$k(x,x')$، یک GP روی تابع $f$، $$f \sim GP(m,k)$$، و این **قبلی** $f$ است. اکنون یک مجموعه داده آموزشی **بدون نویز** دارم $$D=\{(x_1,f_1),...,(x_n,f_n)\}$$, فکر کردم باید **احتمال* را محاسبه کنم * $p(D|f)$ و سپس **پسین** $p(f|D)$ و در نهایت از قسمت خلفی برای پیش بینی استفاده کنید. با این حال، این چیزی نیست که کتاب انجام می دهد! منظورم این است که پس از مشخص کردن $p(f)$ قبلی، احتمال و پسین را محاسبه نمیکند، بلکه مستقیماً به پیشبینی پیشبینی میشود. سوال: 1) چرا احتمال و پسین محاسبه نمی شود؟ فقط به این دلیل که GP غیر پارامتریک است، بنابراین ما این کار را نمی کنیم؟ 2) همانطور که در کتاب انجام شده است (صفحه 15~16)، **توزیع پیش بینی کننده** را از طریق توزیع مشترک مجموعه داده های آموزشی $\textbf f$ و مجموعه داده های تست $\textbf f^*$ بدست می آورد. که به عنوان **پیش مشترک** نامیده می شود. خوب، این من را به شدت گیج می کند، چرا آنها را با هم ترکیب می کنیم؟ 3) من دیدم که برخی از مقالات $f$ را متغیر **latent** می نامند، چرا؟
|
تلاش برای درک فرآیند گاوسی
|
16532
|
من در یک مقاله با اصطلاحی به نام کارایی آماری میانه برخورد کردم و نتوانستم هیچ تعریفی در مقاله پیدا کنم. از جستجوی آنلاین من، متوجه شدم که این ممکن است به معنای کارایی نسبی میانگین در مقایسه با میانگین باشد. آیا کسی می تواند به جایی که بتوانم سرنخ هایی را جستجو کنم، روشن کند؟
|
بازده آماری میانه چیست؟
|
109620
|
من دو توزیع معمولی دارم و میخواهم آزمایش کنم که آیا آنها انحراف معیار یکسانی دارند یا خیر، واقعاً به میانگین اهمیتی نمیدهم. ایده من این است: هر دوی آنها را کاهش دهید و سپس از Kolmogorov-Smirnov برای آزمایش متفاوت بودن توزیع ها استفاده کنید، اگر آنها متفاوت هستند، انحرافات استاندارد نیز باید متفاوت باشند. میپرسم آیا چیزی را از دست دادهام، و آیا راه بهتری برای انجام این کار وجود دارد.
|
تست کنید که دو توزیع نرمال دارای انحراف معیار یکسان هستند
|
12622
|
من در حال حاضر با شبیه سازی یک مدل از سیستم شیمیایی تحت شرایط مختلف (دما) در طول زمان در حال تولید داده هستم. در هر شبیه سازی، ساختار شروع مدل سازی شده دقیقاً یکسان است - فقط دما متفاوت است. سیستم اجازه انتشار در طول زمان را دارد و طول و تعداد مشاهدات در هر شبیه سازی یکسان است. من می خواهم مقادیر میانگین را با هم مقایسه کنم. فاصله بین دو اتم در شرایط مختلف من دو سوال دارم: 1. آیا باید دو شبیه سازی که دارم (دمای بالا و پایین) را به عنوان داده های جفتی در نظر بگیرم؟ چگونه با یک مطالعه انسانی مشابه رفتار می شود (مثلاً مقایسه رفتار یک شرکت کننده انسانی منفرد در طی یک دوره 1 ساعته تحت شرایط 1 و یک دوره 1 ساعته دیگر پس از یک دوره شستشوی گسترده - تحت شرایط 2)؟ 2. از آنجایی که من عملاً دو سری زمانی دارم، پیامدهای فاصله ای که می خواهم اندازه گیری کنم به نوعی همبستگی خودکار است چیست؟
|
شبیه سازی چندگانه یک سیستم تحت شرایط مختلف - داده های جفت شده؟
|
87533
|
قانون تفکیک عمومی برای رویدادهای $A_1$ و $A_2$ $$P(A_1 \vee A_2) = P(A_1) + P(A_2) است - P(A_1 \wedge A_2).$$ در مورد زمانی که $ وجود دارد چطور رویدادهای n$؟ $P(\bigvee_i^n A_i)$ چیست که $A_i$ رویداد $i$ام است؟
|
قانون تفکیک عمومی برای n رویداد چیست؟
|
109626
|
فرض کنید موارد زیر دادههای کل کشتههای تصادف هواپیما است. کشور آسمان کل مرگ مجموع مسافران A 30 10,000 B 60 15,000 C 3000 10,000,000 آیا می توان احتمال تصادف هوایی را برای هر مسافری در آسمان های A، B یا C به سادگی با تقسیم کل مرگ و میر بر کل مسافران محاسبه کرد؟ اگر برخی از کشورها دارای پرواز کم و برخی دیگر تعداد پروازهای بسیار بالایی داشته باشند، آیا این می تواند بر برآوردها تأثیر بگذارد؟
|
احتمال زمانی که تفاوت بزرگ است
|
100628
|
اجازه دهید $(X,Y)$ دارای پی دی اف گسسته-پیوسته مخلوط باشد که توسط: $$f(x,y)= \begin{cases} \frac{y^{a+x-1}e^{-2y} }{\Gamma(a) x!}\ y>0;x=0,1,2,\ldots \\ 0 \ \\ \\ \\ \ \ \ \ \ \ \\text{sewhere} \end{cases}$$ لطفاً میتوانید به من کمک کنید نشان دهم که این پیدیاف زشت با پشتیبانی از $(X,Y)$ به 1 ادغام/جمع میشود؟ من در ابتدا سعی کردم با تکمیل توزیع گاما با پارامترها، **شکل**$=a+x$ و **مقیاس** =$1/2$، $Y$ را ادغام کنم و سپس با جمع کردن بیش از $X$ اما این منجر شد. به یک آشفتگی آیا راه دیگری برای رفتن به اینجا وجود دارد؟ متشکرم.
|
یک توزیع گسسته-پیوسته مخلوط
|
107682
|
من مجموعه ای از اسناد آموزشی با تاریخ انتشار دارم که در آن هر سند به عنوان متعلق (یا نه) به یک موضوع T برچسب گذاری شده است. من می خواهم مدلی را آموزش دهم که برای یک سند جدید (با تاریخ انتشار) پیش بینی کند که آیا آن متعلق است یا نه. به T، جایی که تاریخ انتشار ممکن است در گذشته یا در آینده باشد. فرض کنید که من متن هر سند آموزشی را به مجموعهای از ویژگیها (مثلاً TF-IDF کلمات یا n-گرم) مناسب برای تجزیه و تحلیل توسط یک الگوریتم طبقهبندی باینری مناسب که توسط کتابخانهای مانند Weka ارائه شده است، تجزیه کردهام (به عنوان مثال، بیز ساده چند جملهای، جنگل های تصادفی یا SVM). مفهومی که باید یاد گرفت فصلی بودن چندگانه را نشان می دهد. به عنوان مثال، احتمال قبلی که یک سند دلخواه منتشر شده در یک تاریخ معین متعلق به T باشد، به شدت به زمانی بستگی دارد که تاریخ در یک چرخه 4 ساله (به دلیل انتخابات)، جایی که در یک چرخه سالانه قرار می گیرد (به دلیل تعطیلات)، و در روز هفته تحقیقات من نشان میدهد که الگوریتمهای طبقهبندی عموماً (به عنوان بخشی از مدلهای آماری خود) فرض میکنند که دادههای آموزشی بهطور تصادفی از همان مجموعه دادههایی که مدل در نهایت برای آن اعمال میشود، نمونهبرداری میشود. هنگامی که توزیع کلاس ها در داده های آموزشی به طور اساسی با توزیع شناخته شده در طبیعت متفاوت است، این منجر به به اصطلاح مشکل عدم تعادل کلاس می شود. راههایی برای جبران این امر وجود دارد، از جمله نمونهبرداری بیش از حد از کلاسهای کمتر ارائهشده، نمونهبرداری کمتر از کلاسهای بیش از حد ارائهشده، و استفاده از طبقهبندی حساس به هزینه. این به خالق مدل اجازه می دهد تا به طور ضمنی احتمال قبلی را مشخص کند که یک سند جدید به طور مثبت طبقه بندی می شود، اما مهم تر (و متأسفانه برای اهداف من)، این احتمال قبلی برای همه اسناد جدید برابر فرض می شود. من به انعطاف پذیری بیشتری در مدل خود نیاز دارم. به دلیل فصلی بودن این مفهوم، هنگام طبقهبندی یک سند جدید، مدل باید به صراحت تاریخ انتشار را در هنگام تعیین احتمال قبلی که سند به T تعلق دارد و زمانی که مدل احتمال تعلق پسینی به T را محاسبه میکند، در نظر بگیرد. ویژگی های سند، این احتمال قبلی باید به درستی در نظر گرفته شود. من به دنبال پیادهسازی طبقهبندیکنندهای هستم که یا (1) رگرسیون پیچیده احتمالات قبلی را بر اساس تاریخها در طبقهبندیکننده ایجاد کند، یا (2) بتوان با یک تابع رگرسیون مشخص شده توسط کاربر که یک تاریخ را به عنوان ورودی میگیرد و احتمال قبلی را ارائه میکند، گسترش یابد. به عنوان خروجی من بیشتر با کتابخانه Weka آشنا هستم، اما میخواهم از ابزارهای دیگر در صورت مناسب بودن کار استفاده کنم. ساده ترین راه برای انجام این وظیفه چیست؟
|
طبقه بندی باینری اسناد متنی دارای تاریخ با فصلی
|
16537
|
باز هم ممکن است این سوال برای شما ساده باشد، اما یک جنبه مهم برای مشکل طبقه بندی من است. فرض کنید من 5 ویژگی دارم که عبارتند از: - previous_value_1 - previous_value_2 - previous_value_3 - previous_value_4 - previous_value_5 این ویژگیها با رویدادهای مستقل تولید میشوند، اما من میخواهم آنها را برای طبقهبندیکنندههایم ترکیب کنم، بنابراین برای رسیدن به آن به یک روش یا روش آماری نیاز دارم. هدف این مقادیر در واقع نمونه هایی هستند که اگر فرآیندی در حال بهبود یا بدتر شدن باشد. بنابراین، میانگین گرفتن آنها بی معنی است، من به آنها نیاز دارم تا یک تابع تولید کنند و مشتق آن را بگیرند. اما، من همتای آماری آن عملیات را نمیدانم یا ممکن است راه سادهتری برای انجام این کار باشد. برای جمع بندی، من به روشی نیاز دارم تا این مقادیر ویژگی را به عنوان یکی ترکیب کنم، و آن ویژگی جدید باید نشان دهد که آیا در حال بالا رفتن یا پایین رفتن است. امیدوارم توانسته باشم جزئیاتی را برای دریافت پاسخ روشن کنم. ضمناً پیشاپیش سپاس فراوان.
|
گرادیان را از نمونه های گذشته تعیین کنید
|
35976
|
من در حال خواندن چند کتاب در مورد آزمون فرضیه هستم، اما مطمئن نیستم که استدلال زیر منطقی باشد: فرض کنید من یک متغیر تصادفی گاوسی $X \sim N(\mu, \sigma)$ با $\sigma=1$ دارم. اکنون 5 نمونه iid به دست میآورم، x_1$، \cdots، x_5$. من می خواهم بررسی کنم که آیا $\mu<0$. بنابراین، فرضیه صفر و فرضیه جایگزین را به صورت $H_0: \mu=0$ و $H_1: \mu<0$ تنظیم کردم بنابراین، برای هر نمونه $x_i$، میتوانم p-value = $P(X_i) را محاسبه کنم. \le x_i)$، و آن را با $\alpha$ نشان دهید. بنابراین، من به $(1-\alpha)$ اطمینان دارم که $H_0$ را رد می کنم. همچنین با استفاده از قانون $(X\le x_i)$ برای رد $H_0$، خطای نوع I برابر با $\alpha$ دارم. اکنون بر اساس 5 نمونه، من 5 p-value $\alpha_i$، ($i=1، \cdots، 5$) دارم. بنابراین، من $P(X_1\le x_1، \cdots، X_5\le x_5) = \alpha_1 \times \alpha_2 \times \cdots \times \alpha_5$ دارم. بنابراین، با استفاده از قانون تصمیم که $(X_1\le x_1, \cdots, X_5\le x_5)$ برای رد H0، خطای نوع I برابر با $\times \alpha_1 \times \cdots \times \alpha_5$ دارم. . و بنابراین، من به $(1-\times \alpha_1 \times \cdots \times \alpha_5)$ اطمینان دارم که $H_0$ را رد کنم. اساسا، من می خواهم از 5 $x_i$ برای آزمایش های آینده استفاده کنم. دفعه بعد که 5 نمونه بدست آوردم، آنها را با $x_i$ مقایسه خواهم کرد. و من می خواهم ببینم این قانون تصمیم گیری چقدر به من اعتماد می کند. به نظر من کتاب های درسی معمولاً مقدار p را برای یک نمونه xi محاسبه می کنند. من اساساً سعی می کنم p-value را برای 5 نمونه محاسبه کنم. آیا استدلال فوق صحیح است؟
|
آزمون فرضیه بر اساس 5 نمونه
|
88219
|
من ترسیم برخی از متغیرهای تصادفی $Y$ را در طول زمان مشاهده کردم که در آن $Y_{t} = aY_{t-1} + \epsilon_{t}$. $\epsilon \sim N(0, 1/\rho_\epsilon)$ و $a$ یک پارامتر ناشناخته با توزیع قبلی $a \sim N(\mu_0, \Sigma_0)$ است. از آنجایی که هم نویز و هم پیشین نرمال هستند، پس از مشاهده $Y_t$، قسمت خلفی $a$ نیز عادی است و یک فرآیند به روز رسانی را دنبال می کند: $$ \mu_t = (\mu_{t-1}+\Sigma_{t -1}\rho_{\epsilon} Y_{t-1}Y_t)/(1+\Sigma_{t-1}\rho_{\epsilon}Y_{t-1}^2)\\ \Sigma_t = \Sigma_{t-1}/(1+ \Sigma_{t-1}\rho_{\epsilon}Y_{t-1}^2) $$ با انتقال دو دوره به آینده، به راحتی می توان فهمید که: $$ Y_{t+2}= a(\underbrace{a Y_t + \epsilon_{t+1}}_{Y_{t+1}}) + \epsilon_{t+2} $$ با توجه به اینکه من هستم در زمان $t$، من به دنبال ارزیابی واریانس $Y_{t+2}$ هستم. از آنجایی که $\epsilon_{t+1}$ و $\epsilon_{t+2}$ بر قرعه کشی های آینده $Y$ تأثیر می گذارند، آنها مستقل از باورهای فعلی ما در مورد توزیع $a$ هستند. سپس واریانس به این صورت است: $$ var(Y_{t+2}) = var(b Y_{t+1}) + 1/\rho_{\epsilon} $$ آیا راهی برای محاسبه اولین واریانس عبارت مشروط وجود دارد بودن در زمان $t$؟ فکر میکنم میتوانم کوواریانس $b$ و $T_{t+1}$ را برای بدست آوردن توزیع مشترک بگیرم و سپس، اگر میخواستم این را به صورت عددی حل کنم، ادغام واریانس را انجام دهم.
|
واریانس یک متغیر تصادفی خودهمبسته دو دوره در آینده با به روز رسانی بیزی
|
87530
|
من یک رگرسیون پواسون را به فرکانس ادعای خود منطبق کرده ام. من نتیجه زیر را به دست آوردم: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -19.95861 1139.33678 -0.018 0.9860 make -0.10534 0.04116 -2.559 0.0105 * agevehO 0.059889 0.059881 0.05983 0.05983 0.001 20.68177 1139.33677 0.018 0.9855 area2 20.85866 1139.33677 0.018 0.9854 area3 20.76927 1139.33676 0.085-0.0.ignif -- S کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 انحراف صفر: 657.49 در 583 درجه آزادی انحراف باقیمانده: 150.62 در 578 درجه آزادی AIC: 1096 من. من چهار سطح دارم (منطقه 1،2،3،4) و اگوه دو (قدیمی و جدید)، اما برای make i چهار سطح دارم (1،2،3،4) چطور سه سطح را نشان نمی دهد؟ من در مورد چگونگی تفسیر این نتیجه سردرگم هستم؟ همچنین جدول انحراف من موارد زیر را نشان داد: DF DEVIANCERESID DF RESIDDEV PR(>CHI) make 1 13.61 582 643.88 0.0002251 *** ageveh 1 9.80 581 634.08 ** 0.00174 0.00174 150.62 < 2.2e-16 *** بر این اساس آیا می توانم نتیجه بگیرم که آگهوه و مساحت در توضیح فراوانی ادعای من از نظر آماری معنی دار هستند؟ با تشکر
|
خروجی رگرسیون پواسون
|
88216
|
آیا یک مقدار p از یک آزمون اهمیت سنتی با مقدار هشدار نادرست در قانون بیزی یکسان است؟ و/یا به اندازه کافی نزدیک است که در صورت استفاده از این روش، نتایج درستی به دست آورد؟ به نظر می رسد که تعاریف این دو اصطلاح در مورد چیزهای یکسانی صحبت می کنند، اما می دانم که به راحتی می توان با ظرافت ها گرفتار شد. ویکیپدیا میگوید که مقدار p عبارت است از «احتمال به دست آوردن یک آمار آزمون حداقل به اندازه آماری که در واقع مشاهده شده است، با فرض اینکه فرضیه صفر درست باشد». این صفحه می گوید که نرخ خطای نادرست P(D|H') در قاعده بیزی، احتمال مشاهده D در صورت صحیح بودن H است. در هر دو مورد، شما در مورد احتمال دیدن دادههایی صحبت میکنید که میگویند H در حالی که واقعیت H' است. با این حال، من دو مشکل احتمالی با فرض معادل بودن این دو می بینم: D در تعریف P(D|H') به نظر می رسد به یک مبنا اشاره دارد، در حالی که به نظر می رسد تعریف یک p-value به محدوده ای از مقادیر (حداقل به اندازه)؛ و من آنقدر باهوش نیستم که بفهمم آیا H' معادل فرضیه صفر است. در تمام مثالهای ساده بیزی که من روی آن کار کردهام، مطمئناً چنین به نظر میرسد، اما هنوز یک بیانیه قطعی پیدا نکردهام. من همچنین بیانیه قطعی در مورد اینکه چگونه p-value و مقدار هشدار نادرست با هم مرتبط هستند پیدا نکردم، با توجه به اینکه هر دو حداقل چیزهای مشابهی در مورد داده ها و فرضیه ها می گویند.
|
آیا مقدار p معادل با مقدار هشدار غلط در قانون بیزی است؟
|
88218
|
فرض کنید من متغیری دارم که توزیع آن به میزان بسیار بالایی دارای انحراف مثبت است، به طوری که گرفتن log برای وارد کردن آن در محدوده چولگی برای توزیع نرمال کافی نیست. گزینه های من در این مرحله چیست؟ برای تبدیل متغیر به توزیع نرمال چه کاری می توانم انجام دهم؟
|
تبدیل توزیع های بسیار کج
|
109627
|
آیا کسی می تواند تفاوت شهودی بین همبستگی و ضریب همبستگی ارائه دهد؟ در طول یادگیری وزن شبکه های عصبی، می خواهم نشان دهم که وزن های تخمین زده شده چقدر به وزن های واقعی شناخته شده نزدیک است. برای این منظور من به استفاده از معیار همبستگی فکر می کردم. اگر آنها همبستگی داشته باشند، مقدار آن نزدیک به یک خواهد بود. اما مطمئن نیستم که آیا باید همبستگی باشد یا ضریب همبستگی. همچنین تفاوت این دو فرمول عاقلانه با معنای فیزیکی چیست. متشکرم
|
سردرگمی در مورد همبستگی و ضریب همبستگی
|
12627
|
این ممکن است یک سوال احمقانه باشد، اما من در هیچ یک از منابع معمول پاسخ روشنی نمی بینم. من در حال آمادهسازی برای ساخت یک مدل بیزی هستم تا با BUGS/JAGS مطابقت داشته باشد، که در حال حاضر از طریق منطق مدل در نماد صفحه کار میکند. من چند نوع متغیر مشاهده شده و چندین متغیر پنهان دارم. من می دانم که یک مدل بیزی باید DAG باشد. چه محدودیت های مفهومی دیگری در شبکه وجود دارد؟ به طور خاص، آیا یک متغیر مشاهده شده می تواند والد یک متغیر پنهان در مدل بیزی باشد؟ با تشکر، و چهارم ژوئیه را به همه آمریکایی های خارج از کشور تبریک می گویم.
|
آیا یک متغیر مشاهده شده می تواند والد یک متغیر پنهان در شبکه بیزی باشد؟
|
88214
|
من یک دانشجوی مقطع کارشناسی ارشد آمار سال اول هستم که یک دوره رگرسیون می گذرانم. در فصل قبلی که پوشش دادیم، برای تصمیم گیری در مورد گنجاندن متغیر پیش بینی کننده، از آزمون های F جزئی بحث کردیم. در فصل جاری (که به تازگی آن را به پایان رساندیم)، شش معیار انتخاب مدل را پوشش دادیم. من انتظار داشتم این دو مفهوم در مقطعی با هم مرتبط شوند، اما چیزی در کتاب در مورد آن وجود ندارد. آیا کسی می داند رابطه بین آزمون های اف جزئی و انتخاب مدل چیست؟ به نظر من، به نظر می رسد که آزمون های F جزئی باید معیار انتخاب مدل در نظر گرفته شوند.
|
آزمون F جزئی در مقابل انتخاب مدل
|
35975
|
من علاقه مند به مدل سازی تصادفی هستم که آیا بازار احتمالاً در همان جهت (روند) پیش می رود یا معکوس و به عقب برمی گردد. این همه برای اهداف روزانه است، 1-2 تیک بعدی نوعی استراتژی با 30 ثانیه - 3 دقیقه زمان نگهداری. چگونه می توانم به این مشکل حمله کنم؟ از کجا شروع کنم؟
|
حالت بازار مدلسازی (روند در مقابل معکوس شدن)
|
16539
|
به دنبال سوال قبلی من در اینجا، آیا راهی سریع (با استفاده از Excel یا SPSS) برای تعیین/محاسبه قابلیت اطمینان نمرات ترکیبی وجود دارد. قابلیت اطمینان در این مورد برای من این است که با اطمینان بگویم (یعنی معنای معمولی و نه آماری این کلمه!) که نمره ترکیبی به طور مداوم مفهوم را می سنجد.
|
چگونه پایایی نمرات ترکیبی را ارزیابی کنیم؟
|
39227
|
در حال حاضر در حال تکمیل پایان نامه هستم. مطالعه من بین فرهنگی است و به پیش بینی ها و بازدارنده های پذیرش فناوری در دو کشور (تایلند و استرالیا) می پردازد. من یک مدل فرضی با IV (سهولت استفاده، سودمندی، نیاز به تعامل، ریسک و تأثیر اجتماعی) دارم که مستقیماً به یک DV واحد (قصد استفاده) مرتبط است. هر دو مدل دقیقاً یکسان هستند، IV و DV (و موارد مرتبط) نیز مشابه هستند، و اندازه نمونه مشابه است. من تجزیه و تحلیل رگرسیون را بر روی نمونه تایلندی و استرالیایی به صورت جداگانه اجرا کردم. من خروجی های ضریب رگرسیون را با معناداری و غیره دارم. چیزی که اکنون در تلاش برای یافتن آن هستم این است که چگونه سؤال زیر (یا چیزی مشابه) را به بهترین نحو آزمایش کنم: _نفوذ اجتماعی (IV) در تایلند با قصد استفاده رابطه قوی تری خواهد داشت ( DV) m-banking نسبت به استرالیا_ . آیا این بهترین راه برای آزمایش این است که آیا ساختارهای فردی در یک کشور مناسب تر هستند یا خیر؟ من میخواهم هر ساختار فردی را آزمایش کنم تا بفهمم کدام یک رابطه معنادارتری بین آن IV و DV دارد. اگر به این سوال قبلاً در جایی در سایت پاسخ داده شده یا بسیار ساده به نظر می رسد عذرخواهی می کنم. من از SPSS v19.0 btw استفاده می کنم. پیشاپیش متشکرم
|
مقایسه ضریب رگرسیون با مدل مشابه اما دو نمونه مجزا
|
12623
|
من از مجموعه داده آموزشی خود برای برازش خوشه با استفاده از تابع kmenas fit <- kmeans(ca.data, 2) استفاده کردم. چگونه می توانم از fit object برای پیش بینی عضویت خوشه در یک مجموعه داده جدید استفاده کنم؟ با تشکر
|
پیش بینی خوشه یک شی جدید با kmeans در R
|
39220
|
آیا ایده توزیع احتمال حداکثر آنتروپی برای فضاهای تابع بررسی شده است، و اگر چنین است برخی از مقالات، کتابها یا اصطلاحات کلیدی که باید به دنبال آن باشند، چیست؟ برای $\mathbb{R}^n$ (و فضاهای گسسته)، به نظر می رسد مشکل به خوبی مطالعه شده است - یکی مقدار را به حداکثر می رساند، $$-\int f(x) ~ log f(x) ~ dx، $$ بیش از حد مجموعهای از چگالیهای کاندید امکانپذیر $f$، که در آن انتگرال با توجه به معیار Lebesgue استاندارد در $\mathbb{R}^n$ یا اندازهگیری شمارش به صورت گسسته گرفته میشود. فضاها به نظر می رسد ادبیات زیادی در مورد این مشکل وجود دارد که تحت عناوینی مانند پیش های غیر اطلاعاتی، توزیع حداکثر آنتروپی، پیش های جفری و موارد مشابه قرار می گیرد. با این حال، من چیز کمی در مورد این موضوع در تنظیم ابعاد نامحدود (فضای تابع) پیدا کردم. آیا می توان مفهوم پیشین های حداکثر آنتروپی را به فضاهای تابع تعمیم داد، یا ایده آنتروپی اساساً با فضای بینهایت بعدی ناسازگار است؟ توجه: این تاپیک در اینجا پاسخی دریافت نمی کرد، بنابراین من در mathoverflow دوباره پست کردم.
|
حداکثر پیشین های آنتروپی در فضاهای بینهایت بعدی
|
21020
|
من 2 سریال زمانی روزانه دارم که هر کدام 6 سال است. در حالی که پر سر و صدا هستند، هر دو به وضوح دوره ای هستند (با فرکانس ~ 1 سال)، اما به نظر می رسد خارج از فاز هستند. من می خواهم تفاوت فاز بین این سری های زمانی را تخمین بزنم. من منحنیهای برازش $a\sin(\frac{2\pi}{365}t - b)$ را برای هر سری زمانی در نظر گرفتم و فقط دو مقدار مختلف را برای b مقایسه کردم، اما گمان میکنم تعداد بیشتری وجود داشته باشد. روش های ظریف (و سختگیرانه!) برای انجام این کار (شاید با استفاده از تبدیل فوریه؟). همچنین ترجیح میدهم در صورت امکان، نوعی تصور از عدم قطعیت در تخمین اختلاف فازم داشته باشم. هر کمکی بسیار قدردانی خواهد شد! **به روز رسانی**:  مناطق سایه دار 95% CI هستند. نمونه همبستگی متقابل بین دو سری زمانی: 
|
چگونه می توانم اختلاف فاز بین دو سری زمانی دوره ای را تخمین بزنم؟
|
88212
|
من 30 متغیر دارم و سعی می کنم بهترین مدل را انتخاب کنم. من روشهای زیر را روی یک مجموعه داده «بزرگ» اجرا کردهام (با حذف مجموعه آزمایشی کوچکتر): * OLS، * انتخاب بهترین زیر مجموعه، * انتخاب گام به گام، * رگرسیون پشته، * LASSO، * PCR و * PLS. تمام نقاط پرت از هر دو مجموعه داده حذف شد. هیچ یک از متغیرها/پاسخ به هیچ وجه قبل از اجرای روش های فوق تغییر نکرده است و هم خطی کمی بین متغیرها وجود دارد. من هر مدل را اجرا کردم (برای OLS کل مدل 30 متغیری را اجرا کردم) و MSE و واریانس هر کدام را محاسبه کردم. آنها تنها با 0.001 در MSE (بهترین = PLS، بدترین = گام به گام) و واریانس (بین بهترین - گام به گام و بدترین - برآمدگی) تفاوت دارند. **حالا چطوری بهترین مدل رو انتخاب کنم؟** خیلی گیر کردم! یکی از ایدههای من این است که MSE و var را در مجموعه آزمایشی تأیید کنم، اما در مورد نحوه نوشتن این کد در R مطمئن نیستم. من از کدی شبیه به این وبسایت استفاده میکنم. من مطمئن نیستم که مشکل را حل کند. من در حال حاضر از «summary(model - y.test)^2» استفاده می کنم.
|
انتخاب بهترین مدل (پس از استفاده از چندین روش)
|
100627
|
من مجموعه داده ای دارم که شامل متغیرهای (یا ستون) $p$ است که با $X_i$ برای $i=1،...،p$ نشان داده شده است. من سعی می کنم این مجموعه داده را با استفاده از نقشه خودسازماندهی خوشه بندی کنم. 3 متغیر اصلی در این متغیرهای $p$ وجود دارد که عبارتند از $X_1$، $X_2$ و $X_3$. بقیه متغیرها (یعنی $p-3$ از آنها) را می توان با اعمال برخی از توابع در $X_1$، $X_2$ و $X_3$ بدست آورد. به عبارت دیگر، با مشاهده $X_1$، $X_2$ و $X_3$، من در واقع می توانم $X_i$ را برای $i=3,5,...,p.$ بازیابی کنم. اکنون سوال من: Q: آیا من باید از نقشه خودسازماندهی در کل مجموعه داده حاوی همه متغیرهای $p$ (یعنی $X_i$ برای $i=1،...,p$) یا بهتر است فقط X_1$ را در نظر بگیرید، $X_2$ و $X_3$ هنگام استفاده از نقشه خودسازماندهی؟ آیا مرجعی وجود دارد که بتواند به این سوال پاسخ دهد؟
|
تعداد متغیرها هنگام استفاده از نقشه خودسازماندهی
|
21024
|
ترسیم یک مدل دوجمله ای **glm** با تابع **پیش بینی** بسیار ساده است. من در ایجاد طرح مشابه برای یک مدل **گلمر** مشکل دارم. پیش بینی کار نمی کند: id <- factor(rep(1:20, 3)) سن <- rep(نمونه(20:50، 20، جایگزین=T)، 3) سن <- سن + c(rep(0 ، 20)، تکرار (3، 20)، تکرار (6، 20)) امتیاز <- rbinom(60، 15، 1-سن/حداکثر (سن)) dfx <- data.frame(id، سن، امتیاز) library(lme4) glmerb <- glmer(cbind(score, 15-score) ~ age + (1|id)، dfx, family=binomial) ndf <- expand.grid(سن =10:60) #برای توسعه پذیری، معمولاً دارای فاکتورهای ndf$fit <- predict(glmerb, ndf, type=response) هستند. *خطا در UseMethod(predict): هیچ روش قابل اجرا برای 'پیش بینی' اعمال شده بر روی یک شی از کلاس mer* 1. چگونه می توانم نمودار مورد نظر را تولید کنم؟ 2. در حالی که من در آن هستم، چه طرح های دیگری برای این نوع مدل برای اهداف تشخیصی، ارائه یا گلم مفید است؟
|
یک مدل اثرات ترکیبی تعمیم یافته با خطاهای دو جمله ای ترسیم کنید
|
69451
|
این یک سوال تکلیف است. بچه ها میشه راهنماییم کنید؟ اجازه دهید $U_{(1)}<\cdots<U_{(n)}$ آمار سفارش یک نمونه با اندازه $n$ از جمعیت Uniform$(0,1)$ باشد. نشان دهید که $F^{-1}(U_{(1)})<\cdots<F^{-1}(U_{(n)})$ به عنوان آمار سفارش یک نمونه با اندازه $n$ توزیع شده است از جمعیتی با تراکم $f$. تلاش: اجازه دهید $U=(U_{(1)},\ldots,U_{(n)})$, و $V=(F^{-1}(U_{(1)}),\ldots,F ^{-1}(U_{(n)}))=F^{-1}(U)$. من می دانم که pdf مشترک آمار سفارش این است: $f_{X_{(1)},\ldots,X_{(n)}}(x_1,\ldots,x_n)=n!\prod_{i=1} ^n f_X(x_i)$. بنابراین فکر کردم میتوانم از روش jacobian یا چیزی دیگر استفاده کنم: $\begin{align*}f_V(\mathbf{v})&=f_U(F(\mathbf{v}))|J_{F^{-1}} (F(\mathbf{v}))|\\ &= n!\prod_{i=1}^n F(v_i)|J_{F^{-1}}(F(\mathbf{v}))|\end{align*}$ اما من نمی دانم jacobian چه چیزی می تواند باشد، و $F(v_i) دلار هم درست به نظر نمی رسد. هر ایده ای؟
|
به دست آوردن آمار سفارش با استفاده از آمار سفارش یکنواخت
|
32204
|
من از rb-libsvm و هسته RBF برای طبقه بندی استفاده می کنم. `svm.predict(measurements)` 1.0- یا 1.0 را برمی گرداند. آیا راهی برای اطمینان از این طبقه بندی وجود دارد؟ من علاقه مند به حذف طبقه بندی های با اعتماد به نفس پایین و افزایش دقت / فراخوان هستم.
|
rb-libsvm - کسب اطمینان از یک پیش بینی
|
39224
|
اجازه دهید $p$ مقداری توزیع احتمال با چگالی $f$ باشد. $p$ روی $\Omega$ تعریف شده است. آیا این درست است که برای هر $\omega \در \Omega$، $p(\omega) = 0$ است؟ اگر نه، شرایط حداقل که تحت آن $p(\omega) = 0$ برای هر $\omega$ چیست (فاصله $\Omega$ در واقع زیرمجموعه ای از $\mathbb{R}^d$ برای برخی است. $d$)؟
|
آیا این درست است که هر توزیع احتمال پیوسته به هر عنصر واحد در فضای نمونه، احتمال صفر می دهد؟
|
21022
|
ابتدا فکر کردم ترتیب مهم نیست، اما سپس در مورد فرآیند متعامد سازی گرام اشمیت برای محاسبه ضرایب رگرسیون چندگانه خواندم، و اکنون به فکر دوم هستم. بر اساس فرآیند گرم اشمیت، هر چه یک متغیر توضیحی دیرتر در بین متغیرهای دیگر نمایه شود، بردار باقیمانده آن کوچکتر است زیرا بردارهای باقیمانده متغیرهای قبلی از آن کم میشوند. در نتیجه ضریب رگرسیون متغیر توضیحی نیز کوچکتر است. اگر این درست باشد، بردار باقیمانده متغیر مورد نظر اگر زودتر نمایه شود بزرگتر خواهد بود، زیرا بردارهای باقیمانده کمتری از آن کم می شود. این بدان معناست که ضریب رگرسیون نیز بزرگتر خواهد بود. خوب، پس از من خواسته شد که سوالم را روشن کنم. بنابراین من اسکرین شات هایی از متن ارسال کردم که در وهله اول گیج شدم. خوب، اینجا می رود. درک من این است که _حداقل_ دو گزینه برای محاسبه ضرایب رگرسیون وجود دارد. گزینه اول در تصویر زیر با (3.6) مشخص شده است.  این گزینه دوم است (من مجبور شدم از چندین اسکرین شات استفاده کنم).    مگر اینکه چیزی را اشتباه خوانده باشم (که قطعاً ممکن است)، به نظر می رسد که نظم در مرحله دوم مهم است گزینه آیا در گزینه اول مهم است؟ چرا یا چرا نه؟ یا چارچوب مرجع من آنقدر به هم ریخته است که این حتی یک سوال معتبر نیست؟ همچنین، آیا همه اینها به نوعی به مجموع مربع های نوع اول در مقابل مجموع مربع های نوع دوم مربوط می شود؟ پیشاپیش خیلی ممنون، من خیلی گیج شدم!
|
آیا ترتیب متغیرهای توضیحی هنگام محاسبه ضرایب رگرسیون آنها اهمیت دارد؟
|
69450
|
من در درک چگونگی کاهش ابعاد نقشه های خود سازماندهی (SOM) مشکل دارم. کسی میتونه توضیح مفیدی به من بده؟ فرض کنید 20 نقطه داده آموزشی در 50 بعد داریم. فرض کنید، من 3 در 3 SOM (شبکه با 9 نقطه) را مشخص کرده ام، منیفولد خود را (شبکه 3 در 3) در فضای 50 بعدی تعبیه کرده ام و پس از فرآیند آموزش، هر نقطه داده به یکی از 9 نقطه نگاشت می شود. گره ها) در منیفولد من. اکنون، منیفولد تعبیه شده من (3 در 3 SOM) 50-D است. پس چگونه می توانم به ابعاد دو بعدی برگردم؟ منظورم این است که این طرح غیرخطی کجاست؟
|
طرح ریزی غیر خطی در نقشه های خود سازماندهی
|
81275
|
داشتم این مقاله را میخواندم، جایی که نویسنده میگوید که تخمینهای حداکثر احتمال (ML) به طور مجانبی نرمال هستند اگر لگاریتم درستنمایی مجانبی درجه دوم باشد. من بارها در مورد احتمال مجانبی بودن درجه دوم (تحت شرایط) شنیده یا خوانده ام، اما هرگز مدرکی برای این موضوع نخوانده ام. آیا کسی از چنین مدرکی اطلاع دارد؟ دیدن اثباتی که نرخ همگرایی $(\sqrt{n}?)$ احتمال ورود به یک تابع درجه دوم را نیز نشان دهد عالی خواهد بود.
|
اثبات اینکه لاگ احتمال مجانبی درجه دوم است
|
12629
|
من مشکلی دارم که فکر نمی کنم قبلاً با آن برخورد کرده باشم. من N مشاهده از متغیرهای v1 و v2 دارم و فرض میکنم که یک تابع f مانند v2 = f(v1) وجود دارد. میخواهم بدانم آیا f یکنواختی «آماری» خاصی دارد (افزایش یا کاهش) و از نظر آماری محدب یا مقعر است. منظور من از آماری این است که مشاهدات من ممکن است شامل عبارات خطا باشد، بنابراین شما ممکن است با جفت متغیرهایی روبرو شوید که یکنواختی را نشان می دهند که مخالف یکنواختی کلی است، اگر انگلیسی باشد. آیا باید به سادگی f و f را محاسبه کنم؟ (مشتقات f). اگر نظری در این مورد دارید خوشحال میشم بخونمش ممنون، آرتور (btw من از Stata استفاده می کنم)
|
آیا آزمون یکنواختی، تحدب یا تقعر وجود دارد؟
|
81273
|
(راس [2009]، p.162) جریان در یک دیود نیمه هادی اغلب با معادله شاکلی I = I0(e^aV-1) اندازه گیری می شود که در آن V ولتاژ دو طرف دیود است. I0 جریان معکوس است. a ثابت است. و I جریان دیود حاصله است. اگر a = 5، I0 = 10^-6، و V به طور یکنواخت روی [1] توزیع شده باشد، E(I) را پیدا کنید. 3]. پاسخ  سوال من این است: 1/2 چگونه محاسبه می شود ??? E[x]= (a+b)/2 یعنی (1+3)/2 =2 نه 1/2 من به کمک نیاز دارم لطفاً پیشاپیش متشکرم
|
نحوه محاسبه ارزش مورد انتظار
|
69452
|
من از کد R زیر برای برازش یک مدل پروبیت استفاده کردم: p1 <- glm(natijeh ~ ., family=binomial(probit), data=data1) گام به گام (p1, جهت='backward/forward', criterion='BIC') میخواهم بدانم «stepwise» و «backward/forward» دقیقاً چه کاری انجام میدهند و چگونه متغیرها را انتخاب میکنیم؟
|
رگرسیون گام به گام چگونه کار می کند؟
|
21029
|
من بخشی از یک سازمان داوطلبانه هستم که مجموعه ای از رویدادها را سازماندهی می کند. برای هر رویداد، اعضا باید درخواست خود را برای حضور در رویداد ارسال کنند. بسیاری از مردم می خواهند به این رویدادها بروند و ما فقط تعداد محدودی مکان در دسترس داریم، بنابراین روند انتخاب معمولاً کاملاً رقابتی است. انتخاب برنامه (پذیرفتن/رد کردن) برای هر رویداد معمولاً توسط گروه متفاوتی از افراد انجام می شود، بنابراین اطمینان از اینکه فرآیند انتخاب تا حد امکان عادلانه در سراسر هیئت مدیره است، می تواند تا حدودی چالش برانگیز باشد. من اتفاقاً به همه دادههای مربوطه دسترسی دارم (چه کسی برای چه رویدادهایی درخواست داده است، چه کسی پذیرفته/رد شده است، برخی از آمارهای متقاضی و غیره) و سعی میکنم ارزیابی کنم که آیا خطمشی پذیرش فعلی عادلانه است یا خیر. یا نه در یک دنیای عالی، هر متقاضی به همان نسبت زمان پذیرفته می شود. بدیهی است که در زندگی واقعی ممکن است لزوماً چنین نباشد. به عنوان مثال، اگر 5 نفر برای هر 10 رویداد درخواست دهند، و در 5،7،6،6،5 از آنها پذیرفته شوند، به نظر می رسد که سیستم عمدتاً منصفانه است، زیرا تفاوت بین نسبت های پذیرش آنقدر بزرگ نیست. از سوی دیگر، اگر اعداد پذیرش 2،3،9،8،3 باشد، سیستم بدیهی است که ناعادلانه است زیرا چند نفر به طور مکرر به هزینه دیگران انتخاب می شوند. معنی دارترین راه برای تعیین کمیت این از نظر آمار واقعی چیست؟ همچنین، من به برخی از داده ها دسترسی دارم که ممکن است بر میزان پذیرش یک فرد خاص تأثیر بگذارد، به عنوان مثال تعداد مقالاتی که توسط آنها در سال گذشته نوشته شده است. منطقی است که کسی که مقالات بیشتری نوشته است باید در رویدادهای بیشتری پذیرفته شود. همچنین، اگر شخصی، برای مثال، فقط برای 1 یا 2 رویداد تا به حال درخواست داده باشد، منطقی است که او نسبت به کسی که برای ده ها رویداد درخواست داده است، نرخ پذیرش بالاتری داشته باشد. بنابراین به طور خلاصه، من سعی میکنم راهی بیابم تا بفهمم آیا توزیع فعلی نسبتهای پذیرش از نظر برخی از متغیرهایی که من انتظار دارم با آنها همبستگی داشته باشد، در مقایسه با مبتنی بر شانس، همبستگی دارد یا خیر. و اگر معلوم شود که صرفاً بر اساس شانس است، چه نسبتها تقریباً یکنواخت در بین جمعیت باشد یا برخی افراد به طور مکرر به هزینه دیگران مورد حمایت قرار گیرند. آیا کسی می تواند مرا در مسیر درست در اینجا راهنمایی کند؟
|
نحوه تعیین اینکه آیا پذیرش درخواست عادلانه است یا خیر
|
21023
|
هر دو روش بوت استرپ و جک نایف می توانند برای تخمین تعصب و خطای استاندارد یک تخمین استفاده شوند و مکانیسم های هر دو روش نمونه گیری مجدد تفاوت زیادی ندارند: نمونه برداری با جایگزینی در مقابل حذف یک مشاهده در یک زمان. با این حال، jackknife به اندازه بوت استرپ در تحقیق و عمل محبوب نیست. سوال من این است که آیا استفاده از bootstrap به جای استفاده از jackknife مزیت آشکاری دارد؟ پیشاپیش سپاس فراوان
|
بوت استرپ در مقابل جک نایف
|
12193
|
ایجاد n متغیر تصادفی که مجموع آنها 1 خواهد بود. [ _پاسخ را گرفتم._ ] **ویرایش** در الگوریتم ژنتیک، باید جمعیت را حفظ کنیم. بگو من دو نفر **a** و **b** دارم. هر فرد متشکل از $n$ جفت ($x_i، \theta_i$)، که $ 0 \leq i < n$ است. یک تابع تناسب اندام، تناسب اندام را برای هر فرد ارزیابی می کند. **محدودیت برای هر فرد $\Sigma\theta_i \تقریبا 1$ است ($0.95 \leq \Sigma\theta_i < 1.05$ کافی است).** $\theta_i$ مرتبط با فردی **a** با یک تابع (که هنوز متوجه نشده ام) $d(a, b)$ و $\Delta f$. $\theta_i$ تطبیقی خواهد بود (من حدس میزنم چیزی شبیه ماتریس کوواریانس). بنابراین اگر مقدار $\theta_i$ را افزایش دهم، مقادیر مقداری $\theta_j$ باید کاهش یابد تا جمع $\Sigma\theta_i \تقریباً 1$ حفظ شود. بنابراین من به دنبال پیشنهادی هستم که چگونه می توان $\theta_i$ را بر اساس $d(a, b)$ & $\Delta f$ تطبیق داد؟
|
تولید اعداد تصادفی
|
43421
|
در Rapid Miner، من یک مدل پیشبینی (SVM) با نوع هسته = چند جملهای، c=10 ایجاد کردم و با استفاده از اعتبارسنجی متقاطع، دقت 80.77% را به دست آوردم. در مقایسه با مجموعه نگهدارنده دقت من در مجموعه تست: 71.54472٪ بود. یعنی 9.23 درصد تفاوت. سوالات من 1) آیا مدل SVM من بیش از حد مناسب است؟ 2) من مدل های دیگری مانند k-NN، درخت تصمیم، خلیج ساده و غیره ایجاد کردم اما همه آنها دقت کمتر از 70٪ را ارائه کردند. آیا تفاوت در مقابل مجموعه نگهدارنده کمتر از 9.23٪ خواهد بود؟
|
مقایسه مدل پیشگو با مجموعه نگهدارنده
|
100626
|
من می خواهم تفاوت بین توزیع نرمال و توزیع چند جمله ای را بپرسم زیرا نمی دانم چه زمانی از هر یک از آنها استفاده کنم. من می دانم که توزیع نرمال برای احتمال پیوسته استفاده می شود، و توزیع چند جمله ای برای احتمالات دسته های _K_ استفاده می شود. آیا کسی می تواند برای من چند مثال از هر یک به من ارائه دهد تا آنها را واضح تر درک کنم؟ با تشکر
|
تفاوت بین توزیع نرمال و توزیع چند جمله ای
|
81277
|
**سوال:** من میخواهم یک دارو را آزمایش کنم و دو گروه از افراد با فشار خون پایه دارم که یکی داروی A و دیگری داروی B را میدهم و بعد از 6 ماه فشار خون آنها را اندازه میگیرم. حالا دو گزینه وجود دارد: * اختلاف میانگین تغییر را اندازه میگیرم. * خط مبنا را فراموش می کنم و فقط تفاوت مقادیر نهایی را اندازه می گیرم. چه زمانی و چرا از روش یک یا روش دو استفاده می کنید؟ و در صورتی که با کمترین مقدار p هر آزمون کار کنید تا فرضیه صفر برابری هر دو آزمون را رد کنید، چه اتفاقی میافتد؟
|
چه زمانی از تفاوت میانگین تغییر در مقابل تفاوت مقادیر نهایی استفاده شود
|
21021
|
سلب مسئولیت: من مطلقاً چیزی در مورد آمار نمی دانم. من در جستجوی پاسخ سؤالم با مشکل مواجه شده ام، زیرا دانش زیادی در مورد اصطلاحات آمار ندارم. من در حال حاضر سعی می کنم نموداری را با دو مجموعه از مقادیر که بسیار متفاوت هستند ترسیم کنم. این واقعاً مهم نیست، اما من این کار را در پایتون با کتابخانه matplotlib انجام می دهم. یکی از مجموعه ارزش های من قیمت سهام یک شرکت در طی چند روز است. مجموعه دوم داده های من مقادیر بسیار بسیار کوچکتری دارد، اما مایلم بتوانم هر دو خط را در کنار هم مقایسه کنم. من بیشتر به بزرگی تغییرات علاقه مند هستم تا مقادیر واقعی. در حال حاضر، تنها ایده ای که داشتم این است: * میانگین مقادیر اولیه. * میانگین مقادیر دوم. * میانگین اول را بر دومی تقسیم کنید تا یک ضریب پیدا کنید. * هر مقدار را در اولین مجموعه داده بر این ضریب تقسیم کنید. حالا این _به نظر می رسد_ خوب است، اما من چیزی در مورد آمار نمی دانم، آیا این درست است؟ اگر اینطور نیست، چه راه بهتری برای انجام آن وجود دارد؟
|
چگونه می توان میزان تغییر در طول زمان بین دو سری را نمایش داد؟
|
12194
|
من داده های دو متغیره دارم که از آن ها هزاران تخمین بوت استرپ در هر یک از دو شرط (صورتی و آبی) ایجاد کرده ام:  برای تعیین اینکه آیا توزیع های دو متغیره این شرایط دارای گرایش های مرکزی متفاوتی هستند یا خیر. اگر من با داده های تک متغیره سروکار داشتم، در هر نقطه، چندک های 0.025 و 0.975 از تخمین های بوت استرپ را برای آن نقطه محاسبه می کردم تا یک فاصله اطمینان 95% ایجاد کنم و سپس فواصل شرایط را با هم مقایسه کنم. در واقع، این همان چیزی است که خطوط در گرافیک بالا نشان می دهند. با این حال، من احساس می کنم که مقایسه شرایط در هر بعد به طور جداگانه ماهیت دو متغیره اساسی داده ها را نادیده می گیرد، با این حال نمی دانم روش مناسب برای داده های دو متغیره چیست. توجه داشته باشید که هر راه حل پیشنهادی باید فقط بر تخمین های بوت استرپ تکیه کند و نه داده های خام. این به این دلیل است که تخمینها در این مورد خاص در واقع از مدلهای نسبتاً پیچیدهای میآیند که سعی میکنند تفاوتهای بین شرایط موجود در دادههای خام را در نظر گرفته و حذف کنند.
|
مقایسه نقاط در فضای دو متغیره
|
49649
|
با استفاده از ویکی پدیا راهی برای محاسبه تابع جرم احتمالی حاصل از مجموع دو متغیر تصادفی پواسون پیدا کردم. با این حال، من فکر می کنم که رویکرد من اشتباه است. فرض کنید $X_1، X_2$ دو متغیر تصادفی مستقل پواسون با میانگین $\lambda_1، \lambda_2$، و $S_2 = a_1 X_1+a_2 X_2$ باشند، که در آن $a_1$ و $a_2$ ثابت هستند، سپس احتمال مولد تابع $S_2$ توسط $$ G_{S_2}(z) = داده می شود \operatorname{E}(z^{S_2})= \operatorname{E}(z^{a_1 X_1+a_2 X_2}) G_{X_1}(z^{a_1})G_{X_2}(z^{a_2} ). $$ حال، با استفاده از این واقعیت که تابع مولد احتمال برای یک متغیر تصادفی پواسون $G_{X_i}(z) = \textrm{e}^{\lambda_i(z - 1)}$ است، میتوانیم احتمال را بنویسیم. -تولید تابع مجموع دو متغیر تصادفی مستقل پواسون به صورت $$ \begin{aligned} G_{S_2}(z) &= \textrm{e}^{\lambda_1(z^{a_1} - 1)}\textrm{e}^{\lambda_2(z^{a_2} - 1)} \\ &= \textrm{e}^{\ lambda_1(z^{a_1} - 1)+\lambda_2(z^{a_2} - 1)}. \end{aligned} $$ به نظر میرسد که تابع جرم احتمال $S_2$ با گرفتن مشتقات $G_{S_2}(z)$$\operatorname{Pr}(S_2 = k) = \frac{G_{بازیابی میشود. S_2}^{(k)}(0)}{k!}$، که $G_{S_2}^{(k)} = \frac{d^k G_{S_2}(z)}{ d z^k}$. آیا این درست است؟ من این احساس را دارم که به دلیل ثابت های $a_1$ و $a_2$، نمی توانم فقط مشتق را برای بدست آوردن تابع جرم احتمال بگیرم. آیا این درست است؟ آیا رویکرد جایگزینی وجود دارد؟ اگر این درست است، آیا اکنون می توانم تقریبی از توزیع تجمعی را با کوتاه کردن مجموع نامتناهی روی همه k بدست بیاورم؟
|
مجموع وزنی دو متغیر تصادفی مستقل پواسون
|
12197
|
من در حال بازی کردن با انتشار برگشتی بودم و سعی کردم ببینم آیا می توانم با استفاده از شبکه 2-2-1 راه حلی برای مشکل XOR پیدا کنم. بر اساس شبیه سازی ها و محاسبات من، یک راه حل بدون اجرای یک سوگیری برای هر نورون امکان پذیر نیست. آیا این درست است؟
|
آیا یک شبکه عصبی پیشخور 2-2-1 با توابع فعال سازی سیگموئید می تواند راه حلی برای XOR باشد؟
|
49647
|
من در مورد پارامتریک و ناپارامتریک گیج شده ام: موضوع ما برآوردگرهای ناپارامتریک برای احتمال پیش فرض است. بنابراین اول از همه، مدلهای خطی تعمیمیافته را در نظر میگیریم، به عنوان مثال پروبیت و لوجیت داریم: $\pi (x)=G(\beta_0 +\sum \beta_i x_i)$ این مدلهای خطی تعمیمیافته مدلهای پارامتری هستند درست است؟ آنها پارامتریک هستند، زیرا ما پارامترهای بتا داریم که باید تخمین زده شوند. در مرحله بعد، امتیازدهی نیمه پارامتریک اعتباری را در نظر می گیریم، مدل خطی جزئی تعمیم یافته: $E(Y|X,T)=G(\beta 'X + m(T))$ m(.) به عنوان مثال است. یک هسته، یک تابع صاف پس عبارت پارامتری دوباره بتا 'x و ناپارامتریک هسته است، درست است؟ خیلی ممنون از کمک شما
|
بخش های ناپارامتریک و پارامتریک در امتیازدهی اعتباری نیمه پارامتریک
|
12195
|
اگر کسی بخواهد از رگرسیون هسته در یک چارچوب بیزی استفاده کند، ایده ای در مورد چگونگی انجام آن وجود دارد؟ رگرسیون هسته
|
مشاهده رگرسیون هسته در چارچوب بیزی
|
46619
|
من می خواهم مدل PH کاکس را با اثر تصادفی (شکنندگی گاما) برازش کنم. در اینجا یک مثال با مجموعه داده «کاتتر کلیه» آورده شده است: > کتابخانه(بقا) > داده(کلیه) > تناسب <- coxph(Surv(زمان، وضعیت)~ سن + جنس + بیماری + ضعف (شناسه)، کلیه) > تناسب فراخوانی: coxph(فرمول = Surv(زمان، وضعیت) ~ سن + جنس + بیماری + ضعف (ID)، داده = کلیه) coef se(coef) se2 Chisq DF p سن 0.00318 0.0111 0.0111 0.08 1 7.8e-01 جنسیت -1.48314 0.3582 0.3582 17.14 1 3.5e-05 بیماریGN 0.08796 0.40564-1.4064 0.4064. 0.35079 0.3997 0.3997 0.77 1 3.8e-01 بیماریPKD -1.43111 0.6311 0.6311 5.14 1 2.3e-02 شکنندگی(id) 0.00 0 0 9.3 تناسبی جدید واریانس اثر تصادفی = 5e-07 I-Relihood = -179.1 درجه آزادی برای عبارت = 1 1 3 0 آزمون نسبت درستنمایی=17.6 در 5 df، p=0.00342 n= 76 > fit$history[[1]]$theta [1] 5e-09 آیا «fit$history[[1]]$theta» واریانس اثر تصادفی را برمیگرداند؟ چرا ارزش متفاوت است؟
|
واریانس یک اثر تصادفی در کاکس PH
|
49646
|
اگر من یک ماتریس دو بعدی بسازم که کاملاً از داده های تصادفی تشکیل شده باشد، انتظار دارم که مؤلفه های PCA و SVD اساساً چیزی را توضیح ندهند. در عوض، به نظر می رسد که اولین ستون SVD 75٪ از داده ها را توضیح می دهد. چگونه ممکن است این باشد؟ من چه غلطی می کنم؟ این طرح این است:  این کد R است: set.seed(1) rm(list=ls()) m <- ماتریس(runif(10000,min=0,max=25), nrow=100,ncol=100) svd1 <- svd(m, LINPACK=T) par(mfrow=c(1,4)) image(t(m)[,nrow(m):1]) plot(svd1$d,cex.lab=2, xlab=ستون SVD, ylab=Singluar Value,pch=19) درصدVarianceExplained = svd1$d^2/sum(svd1$d^2) * 100 plot(percentVarianceExplained,ylim=c(0,100),cex.lab=2, xlab=SVD Column,ylab=Percent of Variance توضیح داده شده,pch=19) cumulativeVarianceExplained = cumsum(svd1$d^2/sum(svd1 d^2)) * 100 plot(cumulativeVarianceExplained,ylim=c(0,100),cex.lab=2, xlab=SVD column,ylab=درصد تجمعی واریانس توضیح داده شد,pch=19) **به روز رسانی** با تشکر از شما @Aaron. همانطور که اشاره کردید راه حل این بود که مقیاس بندی را به ماتریس اضافه کنید تا اعداد حول محور 0 باشند (یعنی میانگین 0 باشد). m <- scale(m, scale=FALSE) در اینجا تصویر تصحیح شده است که برای ماتریسی با داده های تصادفی نشان می دهد، همانطور که انتظار می رود اولین ستون SVD نزدیک به 0 است. 
|
برای یک ماتریس تصادفی، آیا یک SVD نباید اصلاً چیزی را توضیح دهد؟ من چه غلطی می کنم؟
|
43420
|
$\newcommand{\Var}{\mathrm{Var}}$ $Z_i$ را به عنوان یک متغیر تصادفی باینری با $\mathrm{Pr}[Z_i = 1] = \pi$ در نظر بگیرید. همچنین، $Y_i$ را به صورت زیر در نظر بگیرید: $Y_i|Z_i = 0 \sim \mathrm{Poisson} (\lambda_0) $Y_i|Z_i = 1 \sim \mathrm{Poisson} (\lambda_1) $ سوال من این است که چگونه می توانیم $\Var(Y_i)$ را پیدا کنید. این چیزی است که فکر می کنم باید انجام دهم، اما تا به حال هیچ موفقیتی نداشته ام: $\Var(Y_i) = E(\Var(Y_i|Z_i)) + \Var(E(Y_i|Z_i)) = E (\pi\cdot\lambda_1 + (1 - \pi)\cdot\lambda_0) + \Var(\pi\cdot\lambda_1 + (1 - \pi)\cdot\lambda_0) = \pi\cdot\lambda_1 + (1 - \pi)\cdot\lambda_0 + 0 $ چیزی که من در بالا آوردهام با آنچه مدرس من در یادداشتهای سخنرانی خود دارد متفاوت است. او دارای: $\Var(Y_i) = \pi\cdot\lambda_1 + (1 - \pi)\cdot\lambda_0 + (\lambda_1 - \lambda_0)^2\cdot\pi\cdot(1 - \pi)$ من از کمک شما قدردانی می کنم.
|
یافتن واریانس؟
|
69457
|
از طریق C.R.Rao (1975) تخمین همزمان پارامترها در مدلهای خطی مختلف و کاربردها در مسائل بیومتریک، بیومتریک، جلد. 31، شماره 2 (ژوئن، 1975)، ص 545-554. او در P550 اشاره می کند که اگر V (ماتریس همبستگی برای مشاهدات فعلی) ناشناخته باشد، نمی توان آن را به طور کامل توسط مشاهدات y به تنهایی تعیین کرد. اما اگر V ساختار مناسبی داشته باشد، ممکن است بتوان آن را تخمین زد. در مقاله بعدی مورد توجه قرار گیرد. آیا کسی می داند این مقاله بعدی که او به آن اشاره می کند چیست؟ نویسنده بسیار پرکار است، بنابراین بررسی هر مقالهای که بعداً نوشت تقریبا غیرممکن است (در سالهای بعد چند مورد را امتحان کردم (که بتوانم به آنها دست پیدا کنم) و تا کنون چیزی پیدا نکردم.) در صفحه 551 او خاطرنشان میکند: که محاسبه خطای پیشبینی (2.39) پیچیده است»، باز هم او به سادگی اشاره میکند که محاسبه به دقت نیاز دارد زیرا پارامترهای بیشتری وجود دارد یا موارد اضافی. مشتقات/محاسبات مورد نیاز است. به نظر می رسد باید گزینه 1 باشد، اما ذکر آن برای او عجیب به نظر می رسد. چیزی که من را گیج می کند این است که فرمول بیزی و تخمینگر مخلوط (تیل و گلدبرگر 1961) معادل هستند. تحت تخمینگر مختلط، داده های قبلی خود را می گیرید و پارامترهای بتا (mean_preor) و واریانس (sigma_prior) را تخمین می زنید (اینها در واقع اولویت های شما هستند) و مشاهدات جدید خود را با استفاده از OLS با پیشین ها به عنوان یک محدودیت تصادفی تخمین می زنید. هیچ اشاره ای به مشکلات تخمین ماتریس همبستگی V (مشاهدات فعلی) نشده است. در واقع، من امیدوار بودم که V را با محاسبه ماتریس همبستگی ایجاد شده توسط رگرسیون مشاهدات جاری روی پارامترها تخمین بزنم. با این حال، نظر رائو منطقی به نظر می رسد: در مدل، پارامترهای فعلی به پارامترهای قبلی خود بستگی دارند و بنابراین تخمین ماتریس همبستگی فعلی باید این را در نظر بگیرد! )، واقعاً امیدوارم بتوانم پاسخی برای این موضوع داشته باشم زیرا در حال حاضر سعی می کنم دقیقاً این تکنیک ها را اعمال کنم.
|
برآوردگرهای تجربی بیز در رگرسیون خطی
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.