_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
48450 | مفروضات برای استفاده و تفسیر مناسب از ضریب همبستگی پیرسون چیست؟ $\DeclareMathOperator{\cov}{cov}\cov(X,Y)$ چگونه تحت تأثیر انحرافات خطی (خفیف) قرار می گیرد؟ چگونه $\cov(X,Y)$ تحت تاثیر حضور ناهمسانی است؟ | مفروضات ضریب همبستگی |
48455 | من 1 عامل طبقه بندی (3 درمان) و 1 عامل پیوسته (وزن) دارم و سپس 5 متغیر پاسخ مستمر دارم. با توجه به مطالبی که خواندم، نباید از ANOVA دو طرفه استفاده کنم زیرا یکی از فاکتورها پیوسته است. آیا این درست است؟ آیا باید به جای آن از رگرسیون چندگانه استفاده کنم؟ به من توصیه شد که می توانم از ANOVA استفاده کنم، اما بر اساس آنچه خوانده ام مطمئن نیستم که درست باشد. من می توانم فاکتور پیوسته را به دسته بندی تبدیل کنم، اما در این سایت نیز خوانده ام که این گزینه ترجیحی نیست. هدف من از دادهها این است که ببینم آیا تفاوت معنیداری بین 3 درمان در رابطه با متغیرهای پاسخ وجود دارد، که یک ANOVA یک طرفه استاندارد است، اما همچنین میخواهم ببینم آیا وزن بر متغیرهای پاسخ تأثیر میگذارد یا خیر. تحلیل من با R خواهد بود. | ANOVA یا رگرسیون؟ 1 عامل پیوسته و 1 عامل طبقه بندی با متغیرهای پاسخ پیوسته |
62420 | آیا کسی می تواند توضیحی مفهومی در مورد چگونگی پیش بینی داده های جدید در هنگام استفاده از هموارسازی / splines برای یک مدل پیش بینی ارائه دهد؟ به عنوان مثال، با توجه به مدلی که با استفاده از «gamboost» در بسته «boost» در R، با p-splines ایجاد شده است، پیشبینی دادههای جدید چگونه انجام میشود؟ چه چیزی از داده های آموزشی استفاده می شود؟ بگوییم که مقدار جدیدی از متغیر مستقل x وجود دارد و می خواهیم y را پیش بینی کنیم. آیا فرمولی برای ایجاد spline با استفاده از گرهها یا df هنگام آموزش مدل و سپس ضرایب مدل آموزشدیده برای خروجی پیشبینی اعمال میشود؟ در اینجا یک مثال با R آورده شده است، پیش بینی چه کاری برای خروجی 899.4139 برای داده جدید mean_radius = 15.99 انجام می دهد؟ #دادههای wpbc را بهعنوان نمونه کتابخانه (boost) داده (wpbc) modNew<-gamboost(mean_area~mean_radius, data = wpbc, baselearner = bbs, dfbase = 4, family=Gaussian(),control = boost_control(mstop = 5)) test<-data.frame(mean_radius=15.99) predict(modNew,test) | چگونه داده های جدید را با رگرسیون spline/smooth پیش بینی کنیم |
81957 | آیا کسی می داند که ایجاد نمودار لاپلاسی از ماتریس شباهت چه چیزی را برای ما در خوشه بندی طیفی به ارمغان می آورد؟ یا چرا آن را ایجاد می کنیم؟ این الگوریتم است: نمودار لاپلاسی: **L= D-W.**، **D:** ماتریس درجه شباهت، **W=** ماتریس مجاورت وزنی  | چرا گراف لاپلاسی را در خوشه بندی طیفی می سازیم؟ |
78141 | فرض کنید من میخواستم تفاوت بین میانگین و واریانس را آزمایش کنم، چگونه میتوانم آمار آزمایشی را برای این منظور بسازم؟ من فرض میکنم فرض صفر من این است که میانگین و واریانس در یک جامعه با میانگین و واریانس در جامعه دیگر یکسان است، در حالی که فرضیه جایگزین این است که آنها متفاوت هستند. | چگونه برای هر دو تفاوت در میانگین و تفاوت در واریانس آزمایش می کنید؟ |
44599 | من میخواهم از هموارسازی نمایی ساده برای پیشبینی تقاضای زمان تحویل برای کنترل موجودی استفاده کنم، دادههای ماهانه دارم و LT+1 برابر با 5 ماه است، آیا میتوانم با استفاده از SES یک پیشبینی انجام دهم که به من یک دوره قبل میدهد. پیش بینی کنید و سپس آن را در 5 ضرب کنید تا پیش بینی LT+1 را بدست آورید؟ بهترین راه حل برای پیش بینی h گام جلوتر (مانند LT+1) در زمانی که روش پیش بینی SES است چیست؟ متشکرم | از هموارسازی نمایی برای پیشبینی تقاضای زمان سرب استفاده کنید |
16137 | آیا ابزاری در R وجود دارد که بتوان از آن برای بهینه سازی تخصیص مشتریان در میان پیشنهادات احتمالی، با توجه به محدودیت ها استفاده کرد؟ آیا کسی می تواند در مورد استفاده از آنها نکات / مثال هایی ارائه دهد؟ امیدوارم راهاندازی من منطقی باشد... راهاندازی مشکل اینجاست: ** موارد زیر وجود دارد:** * مشتریان $N$ ($N$ بزرگ است) * $F$ پیشنهادات (پیشنهاداتی که میتوان به مشتری ارائه داد) $F$ نسبتاً کوچک است) * $P_{nf}$ -- احتمال پذیرش $f$ توسط مشتری $n$ * $D_{nf}$ -- ارزش پولی مورد انتظار در صورت پذیرش $n$ توسط مشتری پیشنهاد $f$ * $C_f$ -- هزینه ارائه پیشنهاد $f$ به هر مشتری * $E_{nf}$ -- سود مورد انتظار ارائه پیشنهاد $f$ به مشتری $n$ ($P_{nf} D_{nf} - C_{f}$) **محدودیت ها:** * هر مشتری را می توان تنها به 1 پیشنهاد اختصاص داد (هر مشتری نیازی به دریافت چیزی ندارد). * تعداد کل پیشنهادهای ارائه شده (آن را $T$ بنامید) بین a و b. * هزینه کل $TC<c$. درصد $T$ که توسط هر پیشنهاد $f$ تشکیل شده است $\geq d$ است. این بدان معنی است که گاهی اوقات یک پیشنهاد باید حداقل $d$ بار ارائه شود. برای هر پیشنهاد یکی از این قوانین وجود دارد. **هدف:** * به حداکثر رساندن سود. چیزی در R؟ **ویرایش:** * من در مورد استفاده از چیزی در امتداد خطوط http://cran.r-project.org/web/packages/Rglpk/index.html تعجب می کنم که به نظر می رسد از مشکلات بزرگ و انواع محدودیت ها پشتیبانی می کند. من دارم. البته، بزرگ در زمینه به نظر می رسد بسیار کمتر از میلیون ها برای N من است. * یک فکری که داشتم این بود که سود مورد انتظار را برای هر مشتری و هر پیشنهاد محاسبه کنم. سپس، یک الگوریتم خوشه بندی (ردیف = مشتریان و ستون ها = سود مورد انتظار برای هر تبلیغ) مانند k-means با k بزرگ (مثلاً 1000) اجرا کنید. سپس هر یک از مشتریان را به یک خوشه اختصاص دهید و از مرکز کلاستر به عنوان ارزش سود مورد انتظار برای بهینه ساز استفاده کنید. **ویرایش دوباره** به خاطر کمک به دیگران، نتیجه ای که به آن رسیدم این بود که در واقع مشتریان را خوشه بندی کنم و سپس از یک حل کننده خطی استاندارد استفاده کنم (من lpSolve را در R دریافت کردم تا خوب کار کند). گزینه دیگر استفاده از تقریب غیر خطی است. رابرت اگنیو در این سوال کمک زیادی به من کرد - با استفاده از فرمول دوگانه خود. این پست را ببینید. اسکریپت R او نیز پیوند خورده است و عالی کار می کند - تغییر از محدودیت های برابری برای مقدار پیشنهاد به محدودیت های نابرابری مستلزم استفاده از nlminb(). | بهینه سازی برای تخصیص بازاریابی در R |
81951 | من 400 پاسخ به یک پرسشنامه 20 سوالی دارم که هدف آن اندازه گیری ساختار نگرشی در دانشجویان پزشکی است. این ابزار در ایالات متحده برای یک سال از دانشجویان پزشکی اعتبار سنجی شد و داده های منتشر شده بسیار تمیز است - تمام مقادیر ritc > 0.3، آلفا 0.84، PCA با ساختار چهار عاملی پایدار و غیره. در نمونه خود من 5 مورد را پیدا کردم. 20 مورد دارای ritc<0.2 هستند و در یک زیرجمعیت فرهنگی (n=70) این مقادیر ritc صفر/منفی هستند. اگر همه موارد را حفظ کنم، آنهایی که دارای ریتک ضعیف هستند یا بر روی هیچ عاملی بارگذاری نمیشوند یا در یک فاکتور 2 موردی با هم مرتب میشوند (عامل 4). من فرض میکنم که (و میخواهم بررسی کنم) این به دلیل (i) یک زیرجمعیت کوچک فرهنگی است که ممکن است مفهوم آن ضعیف باشد، یا (ب) به دلیل اینکه من در تمام مراحل یک برنامه پاسخهایی از دانشآموزان دارم و وجود دارد. یک جنبه توسعه ای سازه که به خوبی توسط آیتم های مقیاس به تصویر کشیده شده است. آیا آزمون آماری وجود دارد که به من اجازه دهد این موضوع را بررسی کنم؟ آیا آیتم های دارای ritc باید از مقیاس حذف شوند و اگر چنین است، این کار را به صورت متوالی از کمترین شروع می کنم و در چه مرحله ای باید حذف موارد را متوقف کنم/ آیا چیزی از پرسشنامه گم کرده ام؟ اگر بخواهم ساختار عاملی مقیاس را بین زیرجمعیتهای اصلی و فرعی مقایسه کنم، چگونه این کار را انجام دهم یا اینکه نمونه فرعی برای نتیجهگیری بسیار کوچک است؟ هر مرجعی بسیار قدردانی خواهد شد. در نهایت، هدف از اعتبارسنجی مقیاس استفاده از آن برای تعیین اثربخشی یک مداخله با استفاده از نمره قبل و بعد از مداخله است - اگر یک آیتم دارای ritc پایین باشد، تصور میکنم ممکن است بر پایایی مقیاس در یک محیط آزمایشی تأثیر بگذارد. یا من اشتباه می کنم؟ آیا هیچ راه آماری برای تعیین سودمندی مقیاس طراحی شده برای اندازهگیری سازههایی که جنبه رشدی دارند، وجود دارد- یعنی آیا همه آیتمها به درستی عمل میکنند، زیرا دانشآموز «بیشتر» سازه نگرشی را توسعه میدهد؟ | اعتبار سنجی پرسشنامه در جامعه جدید |
19342 | من یک متغیر X1 = (a - b) / (a + b) دارم. این متغیر همبستگی بالاتری را با Y نسبت به هر یک از (a, Y) و (b, Y) نشان می دهد. در یک مدل رگرسیون چندگانه مانند Y ~ X1، X2، آیا استفاده از فرمول X1 منطقی است یا باید همیشه از متغیرهای پایه a و b استفاده کنم؟ در این پست، شخصی اشاره کرد که > به طور شهودی، در مورد استنباط های مشاهده شده > نسبت 1 (پسران به دختران) بسیار مطمئن تر خواهید بود، اگر از دیدن 100 پسر و 100 دختر > > > از دیدن 2 و 2 حاصل شود. در نتیجه، اگر متغیرهای کمکی داشته باشید، اطلاعات بیشتری در مورد اثرات آنها و احتمالاً یک مدل پیشبینی بهتر خواهید داشت. خوب است، اما آیا مدل خطی چندگانه میتواند همان رابطه پیشبینیکننده (X1، Y) را فقط با تحلیل حداقل مربعات و b بازسازی کند؟ | فرمول متغیرهای مستقل در رگرسیون چندگانه |
81955 | مثال زیر نمونه کار شده ای است که در مقالات گذشته دانشگاه من یافت شده است، اما نتوانسته ام آن را حل کنم (من پاسخ را دارم، اما نمی دانم چگونه به آنجا برسم). هر کمکی برای روشن کردن من بسیار قدردانی خواهد شد. یک فروشگاه به طور متوسط روزانه چهار کامپیوتر می فروشد. هر چهارده روز یک بار موجودی فروشگاه با 60 کامپیوتر تکمیل می شود. فروشگاه یک روز در هفته تعطیل است. یک روز وارد فروشگاه می شوید و کامپیوتری در دسترس نیست. زمان انتظار مورد انتظار در روزهای افتتاحیه تا زمانی که کامپیوترهای جدید در انبار وجود داشته باشد، چقدر است؟ (فرض کنید که احتمال انتظار بیش از چهار روز صفر باشد.) ابتدا احتمال اینکه زمان انتظار 1، 2، 3 یا 4 روز باشد را پیدا می کنیم. برای این منظور، $T$ را به عنوان تعداد روزهایی که منتظر میشویم و $X\sim \text{Pois}(4)$ را بهعنوان تعداد رایانههای فروختهشده تا روز 12-T$ تعریف میکنیم، یعنی اگر یک روز صبر کنیم $X= 11 دلار احتمال اینکه ما کامپیوترهای 60 دلاری را قبل از روز 11 فروخته ایم با $\Pr(X>60|\lambda t=44)=0.00875$ داده می شود. احتمالات مربوطه برای $T=2$ 0.001201، برای $T=3$ 9.125e-05 و برای $T=4$ 3.307e-06 است. راه حل داده شده در ادامه احتمالات $\Pr(T|T>0)$ را ارائه می دهد، قبل از اینکه پاسخ را با $E(T)=1\cdot 0.8719+2\cdot 0.1196+3\cdot 0.0091+4 بدهد. \cdot 0.0003=1.1387$. با این حال، به نظر نمی رسد درک کنم که چرا و چگونه به این اعداد می رسد. هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. پیشاپیش سپاس فراوان | زمان انتظار مورد انتظار |
55269 | می خواستم بدانم آیا بسته ای وجود دارد که بتوانم از آن برای تبدیل 22 مشاهدات سالانه خود به سری فصلی استفاده کنم؟ آیا انجام این کار ضرری خواهد داشت؟ آیا اطلاعات خاصی از داده های مهم را از دست خواهم داد؟ من می خواهم VAR ها را در سطوح با استفاده از روش TY اجرا کنم. | تبدیل داده های سالانه به دفعات سه ماهه |
13474 | توجه: من حتی مطمئن نیستم که چگونه این سوال را به بهترین شکل عنوان کنم، بنابراین اگر کسی ایده ای دارد، لطفا ویرایش کنید! شش قرعه کشی مستقل از توزیعی را در نظر بگیرید که با cdf $F(x)$ روی 0-1 تعریف شده است. بیایید آنها را X1، X2 دلار بنامیم. . . X6 دلار من میخواهم توزیع را برای X1+X3 تعریف کنم، اگر اطلاعات زیر را بدانم: * $X1 +X4 < X2 + X6$ * $X3 <X4$ * $X5 <X6$ ممکن است در نظر گرفتن قرعهکشیها مفید باشد. در یک ساختار درختی مرتب می شود. تصویر زیر بهترین تلاش من برای نشان دادن آنچه می دانیم (ردیف اول) و سپس توزیعی که به دنبال آن هستم (ردیف دوم) است. توجه داشته باشید که به طور خاص اهمیتی نمی دهم که X3$$ سومین متغیر ترسیم شده باشد. بهطور دقیقتر میتوانم بگویم که، با توجه به 2 ترسیم از F(x)$ برای سطح اول درخت، و سپس با توجه به 4 ترسیم برای سطح دوم درخت، ترسیمهای X1$ به X6$ را طوری علامت بزنید که شرایط مشخص شده درست است  این سوال مشابه این سوال است، با این تفاوت که مبالغ استقلال را از بین می برد. من به طور خاص به F(x) = x (توزیع یکنواخت) علاقه دارم، اما پاسخ به حالت کلی بسیار جالب خواهد بود. | چگونه می توان توزیع یک پیچیدگی را زمانی که اطلاعات آماری سفارش جزئی وجود دارد تعریف کرد؟ |
80023 | من مدل زیر را دارم: $$ y_{i} = \alpha + \beta{d_{i}} + X^{'}_{i}\gamma + \epsilon_{i} $$ Where $d_{i} $ یک متغیر ساختگی و $X^{'}_{i}$ بردار متغیرهای کنترل است. من می خواهم اثر علی $d_{i}$ را تخمین بزنم. فرض کنید که رگرسیون در $X_{i}$ اشباع شده است به طوری که $E(d_{i}|X_{i})$ خطی است. اما همچنین فرض کنید که مدل بالا در واقع تابع انتظار شرطی نیست (که غیرخطی است). من میخواهم ارتباط $\beta$ را با $E(y_{1,i}-y_{0,i})$ پیدا کنم (اثر علّی روی $y_{i}$ تغییر شکل ساختگی $d_{i}). $ روشن و خاموش). اکنون از آنجایی که رگرسیون در $X_{i}$ اشباع شده است، می توانم $\beta$ را به صورت $\frac{Cov(y_{i},\hat{d_{i}})}{Var(\hat{d_{ بنویسم i}})}$ که $d_{i}$ باقیمانده از رگرسیون $d_{i}$ در متغیرهای کمکی $X^{'}_{i}$ است. و من می دانم $\hat{d_{i}} = d_{i} - E(d_{i}|X_{i})$ بنابراین: $$ \beta = \frac{E(y_{i}(d_ {i}-E(d_{i}|X_{i})))}{E((d_{i}-E(d_{i}|X_{i}))^{2})} $$ * *پس اینجاست سوال من: در یادداشت هایی که از آنها کار می کنم، مرحله بعدی به صورت زیر نوشته شده است:** $$ \beta = \frac{E(E(y_{i}|d_{i},X_{i})(d_{ i}-E(d_{i}|X_{i})))}{E((d_{i}-E(d_{i}|X_{i}))^{2})} $$ من هستم گیج شده زیرا اگر این مرحله داشته باشد با استفاده از قانون انتظارات تکراری به دست آمده است، پس چرا علامت انتظار برای دومین ترم داخل براکت نیز اعمال نشده است (من فرض می کنم می توان آنها را به دلیل استقلال مشروط از هم جدا کرد)؟ و آیا این عبارت برابر با صفر نخواهد بود؟ | چگونه می توانم این فرمول ضریب را در یک رگرسیون با تابع انتظار شرطی غیر خطی استخراج کنم |
62423 | این سوال ممکن است بسیار ابتدایی باشد، اما با این حال باعث تعجب من می شود، بنابراین می خواستم از شما نظر بپرسم. هنگام ایجاد یک متغیر چقدر محاسبه مجاز یا مورد نظر است؟ آیا اصلاً محدودیتی وجود دارد؟ آیا ممکن است بخواهیم تا حد امکان کم با داده ها به هم ریخته و از آنها در خالص ترین شکل خود استفاده کنیم؟ به عنوان مثال، اگر برای هر واحد در نمونه ما سه نوع اطلاعات جداگانه داشته باشیم - a,b,c; آیا خوب است یک متغیر جدید را با معادله (a*b)/c محاسبه کنیم و از آن به این صورت استفاده کنیم؟ همچنین، آیا متغیری که به صورت =a*b محاسبه می شود، نتایج یکسانی را هنگام آزمایش به عنوان برهمکنش بین a و b می دهد؟ یا این دو چیز کاملاً متفاوت هستند؟ | محاسبه متغیرها |
48459 | اثبات کتاب درسی من بسیار کوتاه بود و فقط در مورد گسسته، من هم آن را خوب متوجه نشدم. بنابراین سعی کردم عبارت را از مقدار مورد انتظار یک متغیر تصادفی پیوسته استخراج کنم. من با اجازه دادن به متغیر تابعی از متغیر دیگر شروع کردم، اما سپس در تلاش برای تغییر متغیرها گیر کردم و نمی دانستم با تابع چگالی احتمال و چیزهای دیگر چه کنم. | فرمول مقدار مورد انتظار یک تابع از یک متغیر تصادفی چگونه به دست می آید؟ |
7319 | من تازه وارد آمار هستم، پس هر گونه اشتباهی در سوال من ببخشید. من دو سری زمانی $X_i$ و $Y_i$ دارم. با فرض اینکه آنها فرآیندهای ثابت AR(1) با میانگین های احتمالاً متفاوت هستند، چگونه تفاوت میانگین ها را آزمایش کنم؟ من این پیوند را پیدا کردم (اما فقط یک نمونه را آزمایش می کند) که استفاده از gls را مورد بحث قرار می دهد: https://stat.ethz.ch/pipermail/r-help/2006-May/105495.html بنابراین من در تعجب هستم که چگونه می توان این را به چندین نمونه گسترش داد. (از یک متغیر ساختگی استفاده کنید؟) یا اگر روش دیگری وجود دارد (ترجیحاً در R). | دو نمونه t-test برای داده ها (شاید سری زمانی) با خود همبستگی؟ |
81954 | با مربع ها و مجموع ها کمی گیج شدم. تا آنجا که من می دانم، واریانس یا مجموع مجموع مربع ها (TSS) چیزی شبیه به $\sum_{i}^{n} (x_i - \bar x)^2$ است و مجموع مربع های درون (SSW) $ است. \sum_{j}^{K} \sum_{i}^{n} (x_i - c_j)^2 \qquad i \در C_j$ که k تعداد خوشهها و که $TSS = SSW + SSB$ تا کنون درست است؟ بنابراین می توانم $TSS - SSW = SSB$ انجام دهم اما راه مستقیم برای دریافت $SSB$ از یک کتاب کد مشخص چیست؟ ترجیحاً میخواهم بدانم چگونه در numpy/scipy به آنجا برسم، زیرا خواندن معادلات برای من سخت است. وارد کردن numpy به عنوان np از scipy.cluster.vq import vq # X.shape[0] -> مشاهدات # X.shape[1] -> دارای پارتیشن، euc_distance_to_centroids = vq (X، کتاب کد) TSS = np.sum((X-X.mean(0))**2) SSW = np.sum(euc_distance_to_centroids**2) SSB = TSS - SSW فکر می کنم هنگام انجام SSB، تعداد مشاهدات در هر خوشه را از دست می دهم > >> آرایه X([[ 2., 4., 2.], [ 1., 3., 1.], [ 3., 4., 2.], [ 2., 3., 2.], [ 1., 5., 5.]] >>> آرایه کتاب کد ([[ 1. , 3. , 1. ] ، [ 2.33، 3.67، 2. ]، [1.، 5.، 5. ]]) >>> TSS 14.80000000000001 >>> SSW 1.3333333333333333 >>> SSB 13.4666666666666667 >>> ((X.mean(0)-codebook)**2).sum() #num چگونه ob را در اینجا قرار دهم؟ 12.5422222222222223 # بدیهی است که درست نیست.. | SSB - مجموع مربعات بین خوشه ها |
7313 | با توجه به سوال قبلی ام، سعی می کنم یک معیار معقول برای فاصله معنایی بین دو رشته متن کوتاه پیدا کنم. یکی از معیارهایی که در پاسخ به آن سوال ذکر شد، استفاده از کوتاهترین مسیر ابرنام برای ایجاد یک متریک برای عبارات بود. بنابراین، برای مثال، اگر بخواهم فاصله معنایی بین خوک و سگ را پیدا کنم، میتوانم از WordNet همه نامهای آنها را بپرسم: **خوک** => خوک => سموردار => پستاندار سمی => پستاندار جفتی= > پستاندار=> مهره داران=> وتر=> حیوان=> ارگانیسم=> موجود زنده=> شی=> موجودیت فیزیکی=> موجودیت **سگ** => سگ=> گوشتخوار=> پستاندار جفت=> پستاندار=> مهره داران=> وتر=> حیوان=> ارگانیسم=> موجود زنده=> شی=> موجودیت فیزیکی=> موجودیت و من متوجه شدم که کوتاه ترین مسیر بین خوک و سگ 8 پرش است - بنابراین فاصله معنایی = 8. اگر می خواستم این مفهوم را به کل عبارات بسط دهم، شاید بتوانم (ساده لوحانه) آن را پیدا کنم. میانگین فاصله بین تمام جفتهای کلمه در عبارات. (بدیهی است که فرد باید بتواند چیزی بسیار بهتر از این را پیدا کند.) **سوال من:** مطمئنم کسی قبلاً به این موضوع فکر کرده است. برای یافتن اطلاعات بیشتر باید کجای ادبیات را جستجو کنم. و در هنگام استفاده از چنین رویکردی چه چیزهایی پنهان است. | نزدیکترین فاصله در درخت ابرنام به عنوان اندازه گیری فاصله معنایی بین عبارات |
80025 | من باید یک p-value مبتنی بر جایگشت را با سطح معناداری $\alpha$ محاسبه کنم، به چند جایگشت نیاز دارم؟ از مقاله تست های جایگشت برای مطالعه عملکرد طبقه بندی کننده، صفحه 5: > در عمل، کران بالایی 1/(2*sqrt(k)) معمولاً برای تعیین > تعداد نمونه های مورد نیاز برای دستیابی به دقت مطلوب استفاده می شود. > تست. ... که k تعداد جایگشت ها است. چگونه می توانم تعداد جایگشت های مورد نیاز را از این فرمول محاسبه کنم؟ | تعداد جایگشت های مورد نیاز برای یک مقدار p مبتنی بر جایگشت |
54516 | 1. از استنباط آماری Casella: > تعریف 10.1.7 برای یک برآوردگر $T_n$، اگر $\lim_{n\to \infty} k_n Var T_n > = \tau^2 < \infty$، جایی که $\\{k_n \\}$ دنباله ای از ثابت ها است، سپس > $\tau^2$ نامیده می شود **واریانس محدود** یا **محدودیت واریانس** > $T_n$. > > تعریف 10.1.9 برای یک برآوردگر $T_n$، فرض کنید که $k_n(T_n - > \tau(\theta)) \به n(0، \sigma^2)$ در توزیع است. پارامتر $\sigma^2$ > **واریانس مجانبی** یا **واریانس حد > توزیع** $T_n$ نامیده می شود. * من نمیدانستم که آیا هر دو تعریف به انتخاب دنباله $k_n$ بستگی دارد، زیرا من گمان میکنم برای برخی از انتخابهای دنباله $k_n$، همگرایی ممکن است شکست بخورد، در حالی که برای برخی دیگر از انتخابهای دنباله $k_n$، همگرایی ممکن است موفق شود پس آیا این دو تعریف به خوبی تعریف نشده اند، زیرا آیا قرار نیست آنها به انتخاب دنباله $k_n$ وابسته نباشند؟ به عنوان مثال، در Lyapunov CLT، $\frac{1}{s_n} \sum_{i=1}^{n} (X_i - \mu_i) \ \xrightarrow{d}\ \mathcal{N}(0,\; 1)$ که در آن $ s_n^2 = \sum_{i=1}^n \sigma_i^2 $. طبق تعریف فوق از واریانس مجانبی، $T_n = \sum_{i=1}^n X_i$, $\tau(\theta) = \sum_{i=1}^n \mu_i$ (باید \tau(\ تتا) مستقل از اندازه نمونه $n$؟) باشد، و واریانس مجانبی $\sum_{i=1}^n X_i$ $1$ است (این باور سخت است، زیرا واریانس $\sigma_i^2$ از $X_i$ می تواند تا زمانی که متناهی باشد)؟ * آیا توزیع محدود کننده در تعریف واریانس مجانبی می تواند غیر از توزیع عادی باشد؟ * واریانس محدود کننده و واریانس مجانبی چه زمانی یکسان خواهند شد؟ 2. به طور مشابه، اما به طور کلی تر، * چگونه می توانیم لحظات محدود کننده و لحظات مجانبی را تعریف کنیم؟ * آیا توزیع محدود کننده در تعریف گشتاور مجانبی لازم است که توزیع نرمال باشد؟ * لحظه محدود کننده و لحظه مجانبی چه زمانی منطبق می شوند؟ به عنوان مثال، آن دو مفهوم برای معنی: میانگین محدود کننده و میانگین مجانبی؟ با تشکر و احترام! | لحظات محدود کننده و لحظات مجانبی یک آمار |
46991 | $X$ و $Y \sim U(0,1)$. اجازه دهید $$\eqalign{g(x,y) &= x &\text{ if } &x^2+y^2 \le 1 \\\ &=2 &\text{ if } &x^2+y^2 \gt 1 }$$ و $Z = g(X,Y)$. چگونه $F_Z(z)، \mathbb{E}(Z)$، و $\mathbb{E}(Z | X^2+Y^2 \gt 1 )$ را پیدا کنیم؟ من از کمک شما قدردانی می کنم. | چگونه توزیع یک تابع از متغیرهای تصادفی متعدد را محاسبه کنیم؟ |
7316 | من دادههایی با بسیاری از ویژگیهای مرتبط دارم، و میخواهم قبل از اجرای LDA، ویژگیها را با یک تابع پایه صاف کاهش دهم. من سعی میکنم از اسپلاینهای مکعبی طبیعی در بسته splines با تابع ns استفاده کنم. چگونه می توانم گره ها را تعیین کنم؟ در اینجا کد اصلی R آمده است: library(splines) lda.pred <- lda(y ~ ns(x, knots=5)) اما من هیچ ایده ای در مورد نحوه انتخاب گره ها در `ns` ندارم. | تنظیم گره در خطوط مکعبی طبیعی در R |
11907 | عملکرد «انحصاری یا» سابقه طولانی و دشواری در جوامع یادگیری هوش مصنوعی/ماشین دارد. از درک من از یادگیری قوانین انجمن به نظر می رسد که xor برای این نوع یادگیری مشکل ساز باشد. یعنی فرض کنید دادههای زیر را داریم: A B C 0 0 0 0 1 1 1 0 1 1 1 0 واضح است که قاعدهای که من از این دادهها جستجو میکنم این است که $A\oplus B = C$. با این حال، درک من این است که تکنیکهای یادگیری قوانین تداعی قوانین $A \Rightarrow C$ و $B \Rightarrow C$ را هر کدام با 50% اطمینان کشف میکنند. آیا ارزیابی من درست است که این یک موضوع شناخته شده در یادگیری قوانین انجمن است، و اگر چنین است، آیا روش های استانداردی برای رسیدگی به چنین مسائلی وجود دارد؟ من میتوانم راهحلهایی را تصور کنم، اما مطمئن نیستم که در چارچوب یادگیری قوانین تداعی مناسب باشند. | رویکرد یادگیری قانون تداعی برای مسئله منطقی XOR چیست؟ |
54518 | یک مدل خطی با اثر تصادفی بلوکی ($b_i$) $$ y_{ij} = \mu + b_i + \beta x_{ij} + e_{ij} $$ با $b_i \sim N(0, \sigma_b) بگیرید ^2)$، و غیره و غیره. اگر $\sigma^2_b = 0$، آنگاه مدل به یک مدل خطی بسیار ساده کاهش مییابد. برای آزمایش فرضیه صفر $H_0: \sigma_b^2 = 0$ در مقابل $H_1 جایگزین: \sigma_b^2 > 0$، میتوان از آزمون نسبت درستنمایی استفاده کرد. با این حال، توزیع محدود کننده در زیر عدد تهی $\chi_1^2$ نیست، بلکه $\tfrac{1}{2} \chi^2_0 + \tfrac{1}{2} \chi^2_1$ است، یعنی a مخلوط 50:50 از یک جرم نقطه ای در صفر و یک توزیع کای مربع با یک درجه آزادی. چگونه مقدار بحرانی (یا p-value) آن مخلوط را تعیین کنیم؟ | مقدار بحرانی جرم نقطه ای در صفر و توزیع کای دو با یک درجه آزادی |
48452 | آیا بسته ای وجود دارد که شامل آزمون نسبت درستنمایی برای داده های سری زمانی با تعداد نامشخصی از وقفه در R باشد؟ جستجوی من چندان موفقیت آمیز نبود، هنوز ... | آزمون نسبت درستنمایی برای تغییرات ساختاری (سری زمانی) در R |
54511 | چرا سطل بندی متغیرهای پیوسته در رگرسیون لجستیک ترجیح داده می شود؟ وقتی یک متغیر پیوسته داریم، اساس نسبت شانس ورود به سیستم تعدیل شده و نسبت شانس ورود به سیستم تعدیل نشده چیست؟ | نسبت شانس ورود به سیستم و نسبت شانس ورود به سیستم تعدیل نشده زمانی که یک متغیر پیوسته داریم |
59144 | من سعی می کنم یک مدل ARMA(p,q) را به معادله میانگین سری بازگشتی خود برازم. مشکل این است که acf و pacf تقریباً قابل استفاده نیستند، یعنی پیدا کردن یک مدل خوب برای در نظر گرفتن الگوی acf و pacf دشوار است. من از جایگزین استفاده از هیچ مدلی برای معادله میانگین آگاه هستم. با این حال من یک مشکل خاص دارم. من نمی خواهم در مورد انتخاب مدل خود بحث کنم یا اینکه آیا مناسب بودن چنین مدلی مناسب است، اما یک مشکل خاص دارم. پس از تطبیق (احتمالاً اشتباه) مدل ARMA با دادههایم، این احساس را دارم که در سفارشهای تاخیر زیاد، خود همبستگی القایی را ایجاد کردم. بنابراین قبلاً خودهمبستگی وجود نداشت و بعداً به نظر میرسد که در ترتیب تاخیر کم میتوانم خودهمبستگی را ناپدید کنم، اما در سفارشات تاخیر بالاتر افزایش یافت. بنابراین من اطلاعات زیادی در مورد این موضوع ندارم. بنابراین اول از همه: آیا این امکان القای خودهمبستگی اشتباه وجود دارد؟ پس خودهمبستگی که قبلا وجود نداشت؟ این روش چگونه نامیده می شود؟ آیا مقاله / کتاب خوبی در مورد آن وجود دارد؟ | القای همبستگی خودکار با برازش ARMA اشتباه؟ |
108822 | من می دانم که در سیستم های توصیه گر شما یک ماتریس رتبه بندی دارید و سپس این ماتریس را به دو ماتریس فاکتور می کنید و سپس آن ماتریس ها را با نزول گرادیان یاد می گیرید. در آن ماتریسها تعداد ابعاد/ویژگیهای پنهانی را که میخواهیم مشخص میکنیم. بنابراین یکی از آنها به اندازه $number\\_of\\_users * k\\_latent\\_features$ خواهد بود. سوال من این است که چرا پارامتر $K$ (تعداد ویژگی های پنهان) را کمتر از تعداد کاربران یا آیتم ها انتخاب می کنیم؟ من نمی توانم این فرض را درک کنم که تعداد ویژگی های پنهان باید کم باشد. | فرضیات پشت چند ویژگی نهفته در سیستم های توصیه گر وجود دارد؟ |
15958 | من دادههایی دارم که دارای مقادیر مربع eta و مقادیر جزئی مربع eta هستند که به عنوان معیار اندازه اثر برای تفاوتهای میانگین گروه محاسبه شدهاند. * تفاوت مربع eta و مربع eta جزئی چیست؟ آیا می توان هر دو را با استفاده از دستورالعمل های یکسان کوهن (1988: 0.01 = کوچک، 0.06 = متوسط، 0.13 = بزرگ) تفسیر کرد؟ * همچنین، اگر آزمون مقایسه ای (یعنی آزمون t یا ANOVA یک طرفه) غیر معنی دار باشد، در اندازه اثر گزارش استفاده می شود؟ در ذهن من، این مانند این است که بگوییم تفاوت میانگین به معنی آماری نمی رسد، اما همچنان از اهمیت خاصی برخوردار است زیرا اندازه اثر نشان داده شده از مجذور eta متوسط است. یا، آیا اندازه اثر یک ارزش جایگزین برای آزمایش اهمیت است، نه مکمل؟ | چگونه می توان eta مربع / جزئی eta مربع را در تحلیل های آماری معنی دار و غیر معنی دار تفسیر و گزارش کرد؟ |
54519 | آیا میتوانید راهنمایی کنید که آیا باقیماندههای دانشجویی زمانی که بر روی یک مدل رگرسیون خطی قوی با استفاده از تخمینگر M محاسبه میشوند معنیدار هستند؟ من میخواهم از آن برای تشخیص نقاط پرت با انجام کاری شبیه به این استفاده کنم: rfit = rlm(y~x, data=d) pt(rstudent(rfit), df=nrow(d)-3) آیا این معقول است؟ من با یک معیار نسبتاً خام کاملاً خوشحال خواهم شد و ترجیح می دهم در سمت محافظه کار اشتباه کنم. همچنین به این فکر میکنم که آیا باید قبل از انجام این کار، نوعی تشخیص خوب بودن کلی تناسب روی این مدل قوی انجام دهم. | باقیمانده ها و برازش مناسب با رگرسیون خطی قوی |
95346 | سوال زیر در مورد استقلال شرطی به من داده می شود: فرض کنید ما چهار متغیر تصادفی a، b، c، d داریم. ثابت کنید که اگر a به صورت شرطی مستقل از b باشد و c به d داده شود، آنگاه a به صورت شرطی مستقل از b داده شده d است. به نظر من، این به معنای زیر است: ثابت کنید که اگر a|b,c,d = a|d پس a|b,d = a|d این بسیار ساده به نظر میرسد (و شاید خیلی سادهلوحانه). اعتراف می کنم که دانش احتمالی مشروط من زنگ زده است. آیا من از زاویه درستی به این سؤال می پردازم یا تفسیر من ناقص است؟ و برای اثبات این ایده از چه زاویه ای باید تلاش کنم؟ ممنون که خواندید، و ببخشید اگر این مطلب را در جای اشتباه پست کردم، مطمئن نبودم که سوالی مانند این کجا مناسب تر است. | اثبات استقلال مشروط خیلی واضح به نظر می رسد، آیا من به اشتباه به آن نگاه می کنم؟ |
111604 | من داده های 5 تکراری را دارم که از یک مدل گرفته شده اند و می خواهم همه 5 تکرار را با هم جا بدهم تا بتوانم پارامترهای مشترک را پیدا کنم. به طور خاص، اگر توزیع اصلی را داشته باشم - $$y = Ae^{-mx} + c$$ و سپس 5 فایل خروجی با x و y داشته باشم (x برای همه تکرارها یکسان است). من می خواهم همه اینها را با هم تطبیق دهم تا $A$، $m$ و $c$ را تخمین بزنم. خروجی های y1،...y5 باید مستقل باشند. y = c(y1، y2، y3، y4، y5) x = c(x1، x2، x3، x4، x5) و سپس پارامترهای مشترک خود را با استفاده از «nls» تخمین می زنم. nls(y ~ Ae^-mx+ c) سوال من این است که اگر مناسب است یک فایل ترکیبی برای تخمین پارامترهای به اشتراک گذاشته شده تولید کنیم یا تکرارها/نمونه ها باید به گونه ای متفاوت مدیریت شوند؟ | برازش منحنی nls پارامترهای مشترک |
44595 | بگویید من برای 5 سال گذشته دادههایی دارم و طبقهبندیکنندهام (هر چیزی درخت تصمیم، svm و غیره) را بر اساس آن آموزش دادهام، یعنی با توجه به دادههای ویژگی ورودی مناسب و برچسبگذاری صحیح خروجی. اکنون برای سال جاری که باید پیشبینی کنم (پیشبینی خروجی) میتوانم دادههای ویژگی ورودی را که برای سال جاری دارم ارائه کنم و طبقهبندی کننده برچسبهای خروجی صحیح را پیشبینی میکند. تا اینجای کار خیلی خوبه. با این حال، فرض کنید اگر دادههای ویژگی ورودی فعلی را نداشته باشم، چگونه میتوانم پیشبینیهایی را فقط بر اساس دادههای گذشته انجام دهم؟ به عنوان مثال پیش بینی انتخابات، یعنی اینکه کدام حزب از هر حوزه انتخابیه برنده خواهد شد. در این ما دادههای گذشته زیادی داریم اما دادههای ویژگی ورودی فعلی نداریم، بنابراین چگونه میتوان این کار را انجام داد؟ | پیش بینی با استفاده از یادگیری ماشین |
59140 | من نقطه زیر را با استفاده از پایتون ترسیم می کنم (a و b غیر گاوسی هستند): x=np.log10(a) y=np.log10(b) xmedian=np.median(x) ymedian=np.median(y ) و من باید نوارهای خطا را روی y از صدک ها اضافه کنم، بنابراین نوشتم (n تعداد نقاط است): y1=np.percentile(y,25)/n y2=np.percentile(y,75)/n چون y log(b) است، خطا را به روش زیر منتشر می کنم: y1=y1/(np.log( 10)*ymedian) y2=y2/(np.log(10)*ymedian) آیا روش دیگری برای اندازه گیری نوارهای خطا بدون استفاده از نمودار با مقیاس ورود به سیستم؟ | نوارهای خطا در لگاریتم |
88613 | چند جمله دارم در درون جملات من چند کلمه خاص دارم: word1 و word2 word1 و word2 دقیقاً یکسان هستند اما معانی متفاوتی دارند. با توجه به جمله ای که حاوی word1 یا word2 است، سعی می کنم حدس بزنم که کلمه خاص در جمله داده شده معنای word1 یا word2 دارد. من فکر می کنم که می توانم از فرمول **Infirmation متقابل** استفاده کنم، اما آیا روش دیگری وجود دارد که بتوانم برای چنین هدفی استفاده کنم **یا** آیا مثالی وجود دارد که چگونه می توانم _اطلاعات متقابل_ را برای هدف خود اعمال کنم؟ | تشخیص اینکه کدام جمله با یک کلمه یا کلمه دیگر مرتبط است؟ |
64500 | آیا بین دو کاربرد 95 درصد تفاوت وجود دارد: * میانگین + 2 انحراف معیار (از لحاظ آماری معنی دار) * فاصله اطمینان | 95% در 2 انحراف استاندارد بالاتر از فاصله اطمینان 95% چگونه متفاوت است؟ |
1001 | من توزیعهایی از دو مجموعه داده متفاوت دارم و میخواهم اندازهگیری کنم که توزیعهای آنها (از نظر فرکانسهای bin) چقدر شبیه است. به عبارت دیگر، من به همبستگی توالی های نقطه داده علاقه مند نیستم، بلکه به خواص توزیعی آنها با توجه به شباهت علاقه مند هستم. در حال حاضر فقط می توانم شباهتی را در چشم انداز مشاهده کنم که کافی نیست. من نمی خواهم علیت را فرض کنم و نمی خواهم در این مرحله پیش بینی کنم. بنابراین، من فرض می کنم که همبستگی راهی است که باید رفت. ضریب همبستگی اسپیرمن برای مقایسه دادههای غیر عادی استفاده میشود و از آنجایی که من چیزی در مورد توزیع واقعی در دادههایم نمیدانم، فکر میکنم این یک شرط ذخیره است. نمیدانم که آیا این معیار میتواند برای مقایسه دادههای توزیعی به جای نقاط دادهای که در یک توزیع خلاصه میشوند، استفاده شود. در اینجا کد مثال در R که نمونهای از مواردی است که میخواهم بررسی کنم: aNorm <- rnorm(1000000) bNorm <- rnorm(1000000) cUni <- runif(1000000) ha <- hist(aNorm) hb <- hist(bNorm) hc <- hist(cUni) print(ha$counts) print(hb$counts) print(hc$counts) # n نسبتا مشابه <- دقیقه(c(NROW(ha$counts),NROW(hb$counts))) cor.test(ha$counts[1:n]، hb$counts[1:n], method=spearman) # کاملاً متفاوت n <- min(c(NROW(ha$counts),NROW(hc$counts))) cor.test(ha$counts[1:n], hc$counts[1:n], method=spearman) آیا این منطقی است یا من برخی از مفروضات ضریب را نقض می کنم؟ با تشکر، R. | آیا ضریب همبستگی اسپیرمن برای مقایسه توزیع ها قابل استفاده است؟ |
54514 | من یک متغیر توضیحی دارم، بستن، که قیمت بسته شدن روزانه یک شرکت در بازار سهام است. موارد زیر این متغیر توضیحی را خلاصه می کند: قیمت در بازار بسته --------------------------------------- ---------------------- درصدها کوچکترین 1% .49 0 5% 1.5 0 10% 2.95 0002 Obs 2261717 25% 8.84 .0013 مجموع Wgt. 2261717 50% 19.39 میانگین 44.81048 Largest Std. توسعه دهنده 1510.413 75% 32.78 155411.3 90% 57.02 155431 واریانس 2281348 95% 74.78 155978 چولگی 86.71337 99% 1151.810 1151.81 نمودارهایی که تبدیلها را نشان میدهند (من از STATA استفاده میکنم):  همانطور که میبینید، دادهها بسیار ناهموار هستند. مشکل من این است که چگونه می توانم با این مشکل برخورد کنم؟ تنها یک شرکت بالاتر از صدک 99٪ وجود ندارد. برای مثال: sum close if close > 126.81 متغیر | Obs Mean Std. توسعه دهنده حداقل حداکثر -------------+--------------------------------- ---------------------- بستن | 22615 2047.126 14968.92 126.82 155990 و حتی اگر قرار باشد تمام داده های بالای صدک 99 درصد را حذف کنم، چرا این را به عنوان مرز انتخاب کنم و مثلاً صدک 95 درصد را انتخاب نکنم؟ توجه داشته باشید که به نظر میرسد انجام یک «افت در صورت بستن > 126.81» دادهها را در هنگام استفاده از تبدیل ریشه مربع عادی میکند:  اما دوباره ، رویکرد من چندان علمی به نظر نمی رسد. در نهایت، آیا انتشاراتی وجود دارد که بتوانم بخوانم که به موضوع خاص تبدیل/عادی سازی داده های قیمتی منحرف می پردازد؟ ویرایش: آیا کسی می تواند به من بگوید که چرا نردبان چیزی را پس نمی دهد؟ . نردبان بسته فرمول تبدیل chi2(2) P(chi2) ------------------------------------- ---------------------------- بسته مکعبی^3 . . مربع نزدیک^2 . . هویت نزدیک . . ریشه مربع sqrt (بستن) . . log log (بستن) . . 1/(ریشه مربع) 1/sqrt(بسته) . . معکوس 1/بستن . . 1/مربع 1/(بسته^2) . . 1/مکعب 1/(بسته^3) . . | چگونه می توان با داده های شدید اما واقعی برخورد کرد، به عنوان پرت یا خیر طبقه بندی کرد؟ |
15951 | من اغلب رگرسیون را از یک مجموعه داده کم n اجرا می کنم (~ 100 مشاهده). اغلب نتایج تنها با گنجاندن متغیرهای کنترل معنادار هستند. با این حال، من اغلب مقالات مجلاتی را می بینم که در آن افراد (همیشه با تعداد زیادی مشاهدات) ادعا می کنند که رگرسیون خود را با و بدون متغیرهای کنترل انجام داده اند. چرا مردم اغلب رگرسیون را با و بدون متغیرهای کنترلی انجام می دهند؟ | چرا مردم اغلب رگرسیون را با و بدون متغیرهای کنترلی انجام می دهند؟ |
44590 | در مدل مختلط خطی SPSS (تحلیل-> مدل مختلط-> خطی)، می توان مقادیر پیش بینی شده را انتخاب کرد. در فایل داده SPSS، یک ستون با داده های جدید، یعنی مقادیر پیش بینی شده، اضافه می شود. هنگامی که من یک مدل خطی را از طریق مدل ترکیبی خطی تعمیم یافته در SPSS اجرا می کنم (تجزیه و تحلیل->مدل مختلط->خطی تعمیم یافته، که اساساً با مدل اول زمانی که یک مدل خطی را انتخاب می کنید یکسان است)، میانگین تخمین زده شده در یک نمودار ارائه می شود. که به صورت خودکار توسط SPSS تولید می شود. آیا کسی تفاوت بین مقادیر پیش بینی شده و میانگین تخمینی را می داند؟ | تفاوت بین مقادیر پیش بینی شده و میانگین های تخمینی |
92606 | فرض کنید، آزمایشی انجام میدهم که در آن یک رویداد a 1000 بار در 1000 آزمایش درست است. بنابراین، احتمال 1000/1000 = 1 می شود. اگر قرار است آزمایش دیگری انجام دهم، پیش بینی من در مورد وقوع رویداد 'a' 1 است. **آیا راهی وجود دارد که در محاسبه احتمال این واقعیت را در نظر بگیرم که من تمام نشده ام. با تمام آزمایشها (احتمالاً بینهایت)، و احتمال پیشبینیشده رویداد «a» باید کمی کمتر از 1 باشد، حتی اگر همه آزمایشهای قبلی رویداد داشته باشند. الف درست است.** | احتمال آزمایش در حال انجام |
59142 | این سوال اولین سوال من را دنبال می کند. من رگرسیون لجستیک را در یک دوره چند ساله اجرا کردم. نویسندگانی که مدلی را که من استفاده میکنم ایجاد کردهاند، نتایج سالانه خود را جمعآوری کردهاند تا ضرایب و آمار t را برای همه سالها در یک بار ارائه کنند. آنها توضیح می دهند که ضریب تجمیع یک متغیر صرفاً میانگین تمام ضرایب برازش این متغیر است. به طور مشابه، شبه R2 میانگین شبه R2 است. اما آنها همچنین توضیح می دهند که چگونه آمار t مربوط به هر متغیر را تجمیع می کنند، اما من واقعاً نمی دانم. من ذکر می کنم (ص 400): > آمار t با استفاده از رویکرد فاما و مک بث از سری زمانی ضرایب لاجیت برازش شده محاسبه می شود و این فرضیه را ارزیابی می کند که مقدار ضریب مورد انتظار صفر است Coulton, J. J., & Ruddock, C. (2011). سیاست پرداخت شرکت در استرالیا و آزمون تئوری چرخه عمر. حسابداری و مالی، 51، 381-407. 1.آیا با این روش آشنایی دارید؟ 2. و سوال جزئی اما... من از SPSS استفاده کردم و سطح معنی داری (0.0xx) را دریافت کردم، نه t-stat. آیا t-stat چیزی است که باید از sig استنباط کنم. سطح؟ | مجموع آمارهای t سالانه (رگرسیون لجستیک) |
111168 | من از تابع compareGrowthCurves در بسته آماری R استفاده میکنم، اما به نظر نمیرسد توضیحی در مورد اینکه این منحنی برای چه نوع منحنی معتبر است پیدا کنم. آیا کسی می داند که آیا خانواده خاصی از توابع وجود دارد که من نباید از آن استفاده کنم؟ به طور خاص، من اطلاعاتی در مورد رشد باکتری دارم و تحت برخی شرایط من رشد لجستیک کتاب درسی را به یک فلات پایدار در فاز ثابت دارم، اما در برخی دیگر من یک مرحله مرگ آشکار پس از شروع فاز ساکن دارم. آیا با این نوع منحنی نتایج معتبری دریافت خواهم کرد؟ (من فقط بین منحنی های یک شکل کلی مقایسه می کنم). ممنون از هر گونه اطلاعاتی، مطمئنم موجود است اما آن را پیدا نکردم. | انواع منحنی های رشد که با استفاده از statmod compareGrowthCurves قابل مقایسه هستند |
91970 | در مورد آزمون کای دو پیرسون به نظر می رسد تفاوت ظریفی بین آزمون خوب بودن تناسب و آزمون استقلال وجود دارد. چیزی که گیج کننده است این است که به نظر می رسد هر دو آزمون به روشی بسیار مشابه محاسبه می شوند. سوال من: تفاوت واقعی چیست و چگونه می توان آن را در عمل مدیریت کرد؟ (نکته: این سوال مرتبط است، اما یکسان نیست: تست استقلال در مقابل تست همگنی) | آزمون مجذور کای: تفاوت بین آزمون خوب بودن برازش و آزمون استقلال |
11903 | ## پیشینه رویکردهای مرسوم برای برازش مدلهای پیشینی به دادههای مشاهدهشده به دنبال یافتن پارامترهای مدلی هستند که احتمال دادهها را به حداکثر میرسانند. برای مدلهای پیچیدهتر، این امر معمولاً به جستجوی تکراری در یک فضای پارامتر معقول، محاسبه احتمال دادههای دادهشده به هر مجموعه پارامتر کاندید و انتخاب از میان نامزدهای ارزیابیشده، مجموعهای که دادهها را محتملتر میکند، نیاز دارد. هنگام مقایسه خانوادههای مختلف مدلها با توجه به توانایی آنها در محاسبه دادههای مشاهدهشده، یک استاندارد طلایی برای معیار مقایسه، عملکرد پیشبینی اعتبار متقابل است. یعنی برای هر خانواده مدل مورد علاقه و هر زیر مجموعه از دادههای مشاهدهشده، حداکثر احتمال احتمال پارامترهای آن خانواده با توجه به حذف دادههای آن زیرمجموعه به دست میآید و احتمال وجود زیرمجموعه حذف شده با توجه به این پارامترها ارزیابی میشود. جمعآوری تخمینهای احتمال در میان زیرمجموعهها معیاری از تناسب را به دست میدهد که به مقایسه خانوادههای مدلی اجازه میدهد که با تفاوتهای بالقوه بین خانوادهها در توانایی آنها برای تطبیق نویز بیش از حد و بالاتر از توانایی آنها برای تطبیق پدیدههای مورد علاقه در دادهها آلوده نشدهاند. ## پیش زمینه به نظرم می رسد که این رویکرد سلسله مراتبی تکرار شده، جستجوی مکرر تخمین پارامترهای ML برای هر زیرمجموعه اعتبارسنجی متقابل، ممکن است از نظر محاسباتی به یک رویکرد یک مرحله ای ساده شود. به طور خاص، نمیدانم که آیا یک الگوریتم ژنتیک غیرخود پایانپذیر مانند الگوریتم DEoptim ممکن است با یک تابع هدف عرضه شود که بهطور تصادفی (با جایگزینی) از دادههای مشاهدهشده نمونهبرداری کند، قبل از ارزیابی کفایت یک مجموعه پارامتر کاندید معین از یک مدل معین. (بنابراین، «جستجو» اکنون برای مجموعه پارامترهای کاندید است که احتمال مشاهده دادهها را در آینده به حداکثر میرساند.) پس از تعداد زیادی نسل، آخرین نسل باقیمانده از مقادیر پارامتر (یا مقداری تجمع N نسل های اخیر) به عنوان تخمین نهایی انتخاب شده و کفایت مدل (برای مقایسه با سایر خانواده های مدل) با محاسبه احتمال داده های مشاهده شده ارزیابی می شود (نه نمونه گیری مجدد) با توجه به این مدل. ## سوالات 1. آیا این ایده جدید است؟ 2. آیا این ایده آشکارا ارزش ندارد؟ (اگر چنین است، چرا؟) | برآورد با حداکثر کردن احتمال آینده |
44592 | مدل خطی به شکل ماتریس $ \mathbf{y}=\mathbf{X}\beta+\epsilon\textrm{ جایی که }\epsilon\sim\mathbb{N}\left(0,\sigma^{2}\mathbf{) است. V}\راست). $ سپس $\beta$ را می توان از طریق حداقل مربعات تعمیم یافته به صورت $ \widetilde{\beta}=\left(\mathbf{X}^{\prime}\mathbf{V}^{-1}\mathbf{X} تخمین زد. \راست)\mathbf{X}^{\prime}\mathbf{V}^{-1}\mathbf{y}. $ من نمی دانم که چگونه $\mathbf{V}$ را در اینجا تخمین بزنم. بسیار ممنون می شوم اگر راهنمایی بفرمایید یا مرجعی برای خواندن ارائه دهید. با تشکر | حداقل مربعات تعمیم یافته: برآورد ماتریس واریانس-کوواریانس |
95345 | من برای مدت کمی به استفاده از JMP برای تولید طرح های سفارشی عادت کرده ام و می خواستم تولید طرح ها را با R با استفاده از بسته های DoE.wrapper بررسی کنم. من میخواستم طرحی ایجاد کنم که یک فاکتور طبقهبندی (3 سطح) و سپس یک عامل پیوسته داشته باشد که بین 10 تا 100 باشد. وقتی به مستندات تابع Dopt.design نگاه کردم، در مورد نحوه تعیین این گیج شدم. آرگومان factor.names برای تابع به نظر مکانی است که این اطلاعات را مشخص می کند، اما به نظر می رسد همه مثال ها فقط فاکتورهای طبقه بندی را مشخص می کنند. plan = Dopt.design(10, factor.names = list( var1 = c('Short', 'Medium', 'Tall'), var2 = c(10, 100)), فرمول = ~ var1 * var2 ) اگر من موارد زیر را انجام دهید به نظر می رسد که من فقط عوامل طبقه بندی را مشخص می کنم. من فکر می کردم که یک آرگومان اضافی برای تابع وجود داشته باشد که نوع متغیر را روشن کند. اینجا چیزی را از دست دادم؟ آیا این اطلاعات در طول طراحی آزمون مورد نیاز است؟ | متغیرهای مقوله ای در مقابل متغیرهای پیوسته در AlgDesign و DoE.Wrapper |
7318 | من آزمایشی دارم که نتایج (متغیرهای وابسته) تولید میکند که تستهای نرمال بودن را قبول نمیکنند، بنابراین فرضیهها را با استفاده از آزمونهای ناپارامتریک آزمایش میکنم. DV های من پیوسته هستند، در حالی که عوامل من (متغیرهای مستقل) ترتیبی یا اسمی هستند. من از آزمون Kruskal-Wallis و آزمون Friedman (با استفاده از Matlab) استفاده کرده ام. بیشتر اوقات من فقط علاقه دارم 2 IV را برای تأثیرات مهم آزمایش کنم، اگرچه گاهی اوقات 3 را آزمایش می کنم. می خواهم بدانم که آیا تأثیرات متقابل مهمی روی DV بین IV های من وجود دارد یا خیر. معمولاً من از یک ANOVA دو طرفه برای انجام این کار استفاده میکنم، اما با توجه به توزیعهای غیرعادی مناسب نیست. من نمی خواهم از تبدیل IV های خود استفاده کنم، و با وجود غیر عادی بودن، ANOVA را ادامه دهم. چگونه می توانم بفهمم کدام اثرات متقابل مهم هستند؟ از چه تست ناپارامتریکی می توانم استفاده کنم؟ امیدوارم کسی بتونه کمک کنه نیک | از کدام آزمون ناپارامتریک می توانم برای شناسایی تعاملات معنی دار متغیرهای مستقل استفاده کنم؟ |
54515 | اجازه دهید دادههای سه بعدی داشته باشیم (مثلاً سرعت زاویهای x، سرعت زاویهای y، سرعت زاویهای z). تصمیم گیری در مورد استفاده از فیلتر کالمن یا فیلتر ذرات. | توزیع گاوسی در مقابل توزیع غیر گاوسی |
59141 | من دیدم که مفهوم پشیمانی بیشتر برای مشکلات یادگیری آنلاین کاربرد دارد، اما در حالی که تعریف را مرور میکنیم، به نظر میرسد که محدود به این تنظیمات نیست. من سعی می کنم با یک مثال ساده این مفهوم را در قالب مدل های خطی ساده توضیح دهم. صفحه ویکیپدیا تلاش میکند این کار را انجام دهد، اما در بهترین حالت ناقص است، آیا کسی مرجعی دارد که در آن نمونهای از پشیمانی وجود داشته باشد که در تنظیمات رگرسیون خطی اعمال شده است. با تشکر | پشیمانی در تنظیمات رگرسیون خطی |
111163 | من با منابع مختلف بررسی کرده ام، اما هنوز در گیج هستم: 1) فرضیات دقیق آزمون میانه خلق چیست؟ 2) آیا همگنی واریانس برای هر دو گروه لازم است یا معیار شکل یکسان کافی است؟ پیشاپیش از کمک شما بسیار سپاسگزارم | مفروضات دقیق آزمون میانه خلق چیست؟ |
28254 | من داده هایی از یک آزمایش دارم. متغیر مستقل زمان و متغیر وابسته از دست دادن جرم مواد آلی است. حالا میخوام مقایسه کنم که مدل خطی بهتر میاد یا غیرخطی. از درک من، $R^2$ (تنظیم شده یا نه) نباید استفاده شود و به جای آن باید به دنبال اقدامات شبه$R^2$ باشم (مثلاً McFadden، Nagelkerke). آیا این حقیقت دارد؟ اگر چنین است، من نمیدانم چگونه میتوانم مدلهای تهی را برای مدل خطی و غیرخطی که برای محاسبه McFadden Pseudo-$R^2$ لازم است، بدست بیاورم. من تمام آمار را در `R` انجام می دهم و از تابع nls برای مدل غیر خطی و از تابع lm برای مدل خطی استفاده کردم. اکنون، من میخواستم Pseudo-$R^2$ توسط McFadden (1-(LL1/LL0)) را پیادهسازی کنم، اما در یافتن مدلهای تهی گیر کردهام. میشه لطفا یکی بهترین روش مقایسه مدل خطی و غیر خطی رو توضیح بده؟ هر جستجویی در وب راه حلی به همراه نداشت. هر گونه کمک مستقیم یا پیوند به سایر وب سایت ها / پست ها بسیار قدردانی می شود. پیشاپیش ممنون و آخر هفته خوبی داشته باشید، استفان | شبه$R^2$: مدلهای تهی برای رگرسیون خطی و غیرخطی چیست؟ |
95340 | آیا کسی می تواند به من شهودی بدهد که چه زمانی SVM یا LR را انتخاب کنم؟ من میخواهم شهود پشت آن را بفهمم که تفاوت بین معیارهای بهینهسازی یادگیری ابر صفحه این دو چیست، که در آن اهداف مربوطه به شرح زیر است: الف) SVM: سعی کنید حاشیه بین نزدیکترین بردارهای پشتیبانی 2\ را به حداکثر برسانید. LR: به حداکثر رساندن احتمال کلاس پسین اجازه دهید فضای ویژگی خطی را برای SVM و LR در نظر بگیریم. برخی از تفاوت هایی که قبلاً می دانم: 1\. SVM قطعی است (اما می توانیم از مدل پلاتس برای امتیاز احتمال استفاده کنیم) در حالی که LR احتمالی است. 2\. برای فضای هسته، SVM سریعتر است (فقط از بردارها پشتیبانی می کند) | SVM v/s رگرسیون لجستیک |
59149 | من چندین سال داده انباشته روزانه دارم که می خواهم یک رگرسیون خطی چند متغیره برای آنها انجام دهم. همبستگی خودکار با یک متغیر خاص بالا است و یک رابطه فیزیکی قوی برای این مورد وجود دارد. در مورد من، مایلم این اثر را با تجمیع در سطح هفتگی به حداقل برسانم. اما به ذهنم خطور می کند که هفته از کدام روز شروع می شود کاملاً دلخواه است. وقتی به میانگینهای 7 روزه نگاه میکنم و روی نمودار X-Y رسم میکنم، به وضوح میتوانم رابطه بین متغیرها را ببینم. در مقابل نگاه کردن به دورههای غیر همپوشانی، وضعیت رابطه چندان واضح نیست. بنابراین آیا استفاده از دوره های همپوشانی در تحلیل رگرسیون مشروع و قابل دفاع است؟ آیا نامی برای این وجود دارد؟ | انجام رگرسیون خطی بر روی داده های میانگین چرخشی |
95343 | فرض کنید مدل زیر را داریم: $$Y_i = \alpha + u_{j(i)} + \epsilon_i$$ برای $i=1,\ldots,m$, برای برخی از گروهها $j=1,\ldots,J $، و $$Y_i = \alpha + \epsilon_i$$ برای $i=m+1،\ldots،n$، جایی که $J<m<n$. در اینجا $u_j\stackrel{iid}{\sim}N(0,\sigma_u^2)$ و به طور مستقل، $\epsilon_i\stackrel{iid}{\sim}N(0,\sigma_\epsilon^2)$ . ایده این است که $u_j$ اثرات تصادفی هستند، اما تنها زیر مجموعه ای از مشاهدات تحت تاثیر آنها قرار می گیرند. چگونه می توان چنین مدلی را با استفاده از یک بسته همه منظوره در R (مانند lme، lmer) مناسب کرد؟ | چگونه یک افکت تصادفی را فقط برای زیرمجموعه ای از مشاهدات برازش کنیم (با استفاده از R) |
11018 | بیایید برخی را در سطح مقدماتی، برخی مقالات و برخی کتاب های درسی را هدف قرار دهیم. کاربردی مفیدتر است، از جمله کد R عالی است. با تشکر | ارجاعاتی را در مورد وزن دهی نمونه نظرسنجی توصیه کنید |
44596 | من نمودار persp را نمی فهمم، مثال من این است: c<-mat.or.vec(5,2) c[1,1]<-1 c[1,2]<-1 c[2,1]< -1 c[2,2]<-1 c[3,1]<-2 c[3,2]<-0 c[4,1]<-1 c[4,2]<-1 c[5 ,1]<-1 c[5,2]<-1 persp(c,xlab = X, theta = -60,ylab = Y, zlab = Z,ticktype = detailed ) گرافیک زیر را دریافت می کنم:  اما من متوجه نمی شوم؟! منظورم این است که چرا محور x و y از 0 تا 1 هستند؟ طرح چه مقادیری را می گیرد؟ من فکر کردم که مقادیر ستون و ردیف را از ماتریس می گیرد، بنابراین مانند [5،] 5 را به عنوان مثال می دهد. یا این نمودار چگونه ایجاد می شود؟ ماتریس [،1] [،2] [1،] 1 1 [2،] 1 1 [3،] 2 0 [4،] 1 1 [5،] 1 1 است و من فکر کردم اولین نقطه مانند x است =1، y= 1 و z =1 و غیره؟ یا x=3 و y=1 z=2؟ | درک طرح persp |
112513 | من اغلب در عمل، با استفاده از تکنیکهای رگرسیون غیرخطی مانند شبکههای عصبی پیشخور یا جنگلهای تصادفی، دریافتهام که نمودار واقعی در مقابل برازش (در مجموعه آموزشی) بهطور آشکاری کمتر از حد بهینه به نظر میرسد، مثلاً. مانند این:  در اینجا مدل مقادیر بالای $y$ را کمتر برآورد میکند، و مقادیر پایین را کمتر از حد تخمین میزند. به نظر من طبیعی است که این پیشبینیها را با استفاده از رگرسیون خطی $y$ مشاهدهشده بر روی $y$ پیشبینی شده تغییر بدهم: * ابتدا یک مدل رگرسیون غیرخطی را اجرا میکنم و اولین پیشبینی مجموعه آموزشی $\hat y_ را به دست میآورم. {train} = f(X_{train})$ * سپس یک رگرسیون خطی $y_{train}$ روی $\hat y_{train}$ اجرا میکنم، و $y_{train} = \hat a + \hat b \times \hat y_{train} + \hat \epsilon$ * دریافت کنید، سپس برای هر مجموعه پیشبینی $X_{test}$، یک مقدار مجدد مقیاسشده را خروجی میدهم پیشبینی: $\hat y_{test} = \hat a + \hat b \times f(X_{test})$. به نظر واضح است که این خطای کمتری در مجموعه آموزشی دارد، اما آیا کسی میداند که آیا به خطای تعمیم آسیب میزند؟ | پس از درمان خطی رگرسیون غیرخطی |
108824 | من در حال خواندن کتاب زیر (عالی!) http://www.inference.phy.cam.ac.uk/itila/ بوده ام که سوالاتی را در مورد MLE ایجاد کرده است. من با این تصور راحت هستم که برآوردگرهای ML اغلب مغرضانه هستند. با این حال، من بسیار کنجکاو بودم که بفهمم در یکی از مثالها، MLE بایاس است، اما مقدار مورد انتظار تابع احتمال بیطرف است. به طور خاص این موردی است که ما می خواهیم پس از مشاهده تعدادی پرتاب سکه، سوگیری یک سکه را تخمین بزنیم. به عنوان مثال، فرض کنید HHT را مشاهده می کنیم، آنگاه MLE احتمال سرها 2/3 است، در حالی که مقدار مورد انتظار تابع درستنمایی 0.6 است. یک مثال بسیار مشابه در اینجا بیشتر توضیح داده شده است: http://dustwell.com/maximum-likelihood-vs-expected-value.html به نظر من ممکن است پیام کلی تری در اینجا در مورد توابع احتمال اریب وجود داشته باشد: در مواردی که احتمال وجود دارد تابع چوله است، به دست آوردن مقدار مورد انتظار تابع درستنمایی، تخمین متفاوتی را تا نقطه ای از تابع که در آن احتمال به حداکثر می رسد، به ما می دهد. آیا ویژگی های کلی در اینجا وجود دارد؟ آیا گرفتن مقدار مورد انتظار تابع درستنمایی همیشه یک برآوردگر بی طرفانه (یا حداقل با سوگیری کمتر) به ما می دهد؟ آیا کسی تا به حال از این به عنوان برآوردگر استفاده می کند؟ به عنوان مثال، برآوردگر MLE برای واریانس به خوبی شناخته شده است که بایاس است. اگر مقدار مورد انتظار تابع درستنمایی را برای MLE واریانس بگیریم، آیا این بی طرفانه است؟ خیلی ممنون برای هر فکری من سعی کردم برای بحث در این مورد در گوگل جستجو کنم، اما چیز زیادی پیدا نکردم - اگر کسی یادداشتهای کتاب/سخنرانی را میشناسد که در این مورد بیشتر بحث کند، بسیار عالی خواهد بود. رابین | مقدار مورد انتظار تابع درستنمایی: چرخش سکه، برآوردگرهای مغرضانه و بی طرفانه |
11015 | آخرین چارچوب کلی که من در روش پوشش مبتنی بر MCMC می شناسم (انجام انتخاب متغیر و خوشه بندی به طور همزمان) مقاله انتخاب متغیر بیزی در خوشه بندی داده های با ابعاد بالا از Tadesse و همکاران (2005) و مقاله انتخاب متغیر در خوشه بندی است. از طریق مدل های مخلوط فرآیند دیریکله کیم و همکاران (2006). نمی دانم آیا تحولات جدیدی در این زمینه وجود دارد؟ به خصوص آیا کسی سعی کرده است مدل تادسه را گسترش دهد؟ پیشاپیش متشکرم | توسعه جدید در انتخاب متغیر در خوشه بندی با استفاده از MCMC؟ |
59145 | من در حال انجام رگرسیون خطی هستم که در آن متغیر وابسته نسبتی است که می تواند از 0.01 تا 100 متغیر باشد. آیا گرفتن لاگ متغیر وابسته و رگرسیون روی آن مشکلی ندارد؟ من نتایج یک مطالعه را تطبیق می دهم و این همان کاری است که آنها انجام دادند. تفاوت گرفتن log با استفاده از نسبت همانطور که هست چیست؟ | رگرسیون خطی با یک متغیر وابسته که یک نسبت است |
15957 | داشتم در مورد آزمون ریشه واحد مطالعه میکردم که کمی در مورد تنظیمات فرضیه صفر در مقابل فرضیه جایگزین سردرگم شدم و به این فکر افتادم که نظر کارشناسان را جویا شوم. در آزمون دیکی-فولر تقویت شده، فرضیه صفر این است که یک ریشه واحد وجود دارد. سردرگمی من از این واقعیت ناشی می شود که فکر می کنم فرضیه صفر _باید_ باشد که ریشه واحد وجود ندارد. به من اجازه دهید توضیح دهم: دلیل اینکه چرا اینطور فکر می کنم (و می دانم که احتمالاً اشتباه می کنم اما امیدوارم کسی به اشتباه من اشاره کند) بیشتر فلسفی است تا ریاضی. منظور من از این است: پذیرش فرضیه صفر، به این معنی است که آنچه می گوید ممکن است درست باشد (از نظر آماری)، و رد فرضیه صفر بر اساس داده های مشاهده شده، به این معنی است که شانس بسیار کمی (کم) (p-value) وجود دارد. با توجه به داده ها، فرضیه صفر درست است، اما بسیار بعید است (و از این رو ما فرضیه صفر را رد می کنیم). اما اگر فرضیه صفر را بپذیریم، و دادهها را (با تفکیک آن) تبدیل کنیم تا از ریشه واحد خلاص شویم، آنگاه به آنچه ممکن است درست باشد، عمل کردهایم و در نتیجه یک سری زمانی متفاوت را مدلسازی میکنیم. اگر (و اگر بزرگ است) فرضیه صفر این بود که ریشه واحد وجود ندارد، پس از اجرای آزمایش ریشه واحد (فرضی من)، فقط در صورتی که احتمال کمی وجود داشته باشد که بزرگی ریشه کمتر از 1 است. ممنون که قبلا افکار اشتباه من را اصلاح کردید.. :) | آزمون ریشه واحد، ایستایی و فرضیه صفر |
11019 | من در حال انجام طبقه بندی متن هستم و با طبقه بندی کننده های مختلف بازی می کنم. با این حال، من یک سوال بسیار اساسی دارم: اگر یک سند نادیده جدید وارد شود و به هیچ یک از کلاس های قبلی تعلق نداشته باشد، چه؟ طبقه بندی کننده هایی که من دیده ام (در WEKA، libsvm و غیره) همچنان ادامه می دهند و به هر حال سند نادیده را در یکی از کلاس های موجود قرار می دهند. این وضعیت اغلب در کار من پیش می آید. چگونه می توانم آن را معقولانه اداره کنم؟ در یک یادداشت مرتبط، آیا راهی وجود دارد که بتوانم بفهمم که طبقهبندیکننده چقدر از تصمیم طبقهبندی خود مطمئن است؟ ================================ویرایش 1================= ==================== بعد از خواندن نظرات در اینجا ، فکر می کنم می خواهم یکی از دو مورد را امتحان کنم: (1) از رویکرد شرح داده شده در Zadrozny استفاده کنید ,کاغذ الکان که استفن به من اشاره کرد تا تخمین های احتمال را بدست آورد. اگر احتمالات کمتر از یک آستانه جادویی باشد، من میتوانم به سادگی نمونهی نادیده را به عنوان نویز کنار بگذارم. (2) من به طور فزاینده ای شروع به فکر می کنم که به جای آن می توانم این مسئله را به عنوان مشکلات _n_ 1-class مدیریت کنم. بیایید بگوییم که من کلاس های _n_ در داده های خود دارم. من میتوانم طبقهبندیکنندههای _n_ 1-class را بسازم و آموزش بدهم که یک تصمیم بله/خیر میدهد (خواه یک نمونه متعلق به یک کلاس خاص باشد یا نه). بنابراین وقتی یک نمونه جدید وارد میشود، میتوانم آن را از طریق هر یک از طبقهبندیکنندههای کلاس 1 عبور دهم. افکار؟ هر گونه پیاده سازی/بسته ای که کسی از آن آگاه است که به من اجازه می دهد انجام دهم (2)؟ ================================================== ========================== | چگونه یک طبقهبندی کننده اسناد نادیدهای را که به هیچ یک از کلاسهای قبلی تعلق ندارند، مدیریت میکند؟ |
112515 | من طرح آزمایشی زیر را دارم (طرح بلوک تصادفی). بلوک با 4 درمان (A، B، C، D) تکرار شده در 4 محل مختلف. تیمارها بر روی افراد از گونه های مختلف (عامل با 6 سطح) اعمال شد که متغیر پاسخ قد یک فرد است. تمرکز اصلی بر روی اثر تیمار است، اما با توجه به تنوع بین محل تکثیر و اثر گونهها. با توجه به تعداد افراد یک گونه، طرح بسیار نامتعادل است (بین 40 تا 250 نفر در هر گونه در کل آزمایش). من نتوانستم یک مدل مناسب برای این مورد مشخص کنم، و توصیه کردم که یک مدل اثرات مختلط را در R به شکل lmer (ارتفاع~تکرار+درمان+گونه+درمان:گونه+(1|نقشه)) اجرا کنم که در آن نمودار یک تصادفی است. فاکتور با 16 سطح مربوط به محل های هر تکرار که در آن یکی از 4 تیمار مشاهده شد. من این فرمول را نمی فهمم زیرا به نظر من اثر تصادفی به نوعی تکرار اثرات ثابت است (همانطور که سطوح تکرار و درمان را ترکیب می کند)، بنابراین با ساختار سلسله مراتبی آزمایش مطابقت ندارد، و من سود گنجاندن آن را درک نمی کنم. من در مورد هر توصیه ای خوشحالم که چگونه مدل مناسب را مشخص کنم؟ | استفاده صحیح از مدل مختلط برای طراحی بلوک تصادفی؟ |
59148 | من در حال خواندن عناصر آمار بیزی فلورنس و همکاران هستم، که در حال حاضر روی فصل 1، کاهش آزمایشات بیزی کار می کنم. من بیشتر آن را روشن میدانم، به جز تعریف آزمایشهای شرطی منظم (ص 51) و هر چیزی که بر این تعریف متکی است. من از کمک در رمزگشایی آن سپاسگزار خواهم بود. تصور میکنم کسانی که به پست من پاسخ میدهند با این کتاب و اصطلاحات و نشانههای آن آشنا هستند، اما خوشحال میشوم که در هر درخواست جزئیات بیشتری ارائه دهم. > اگر یک نسخه معمولی از $\Pi^\mathcal{T}$ وجود داشته باشد، به آزمایش شرطی $\mathcal{E}^\mathcal{T}$ گفته میشود _regular_ است به طوری که نسخههای معمولی $\ وجود داشته باشد. mu^\mathcal{S}$ و $P^{\mathcal{A}\vee\mathcal{T}}$، > در این مورد داریم: > $$\left(1.4.9\right)\hspace{10mm}\Pi^\mathcal{T}=\mu^\mathcal{T}\otimes > P^{\mathcal{A}\vee\mathcal{T }}=P^\mathcal{T}\otimes\mu^\mathcal{S}$$ چیزی که من نمیفهمم عبارت $\mu^\mathcal{T}\otimes است P^{\mathcal{A}\vee\mathcal{T}}$. نحوه تعریف عملگر $\otimes$ (قضیه 0.3.10، ص 18)، در عبارت $Q\otimes W$ $Q$ یک احتمال در $\left(M,\mathcal{M}\right) است. )$ و $W$ انتقالی از $\left(M,\mathcal{M}\right)$ به $\left(N,\mathcal{N}\right)$ است. با این حال، در مورد حاضر، برای هر $\left(a,s\right)\in A\times S$، $\mu^\mathcal{T}\left(a,s\right)$ یک احتمال در $\sigma$-جبر $\mathcal{A}\times S$، در حالی که $P^{\mathcal{A}\vee\mathcal{T}}$ انتقالی از $\mathcal{A}\vee\mathcal{T}$ تا $A\times\mathcal{S}$. بنابراین عبارت $\mu^\mathcal{T}\otimes P^{\mathcal{A}\vee\mathcal{T}}$ به خوبی تعریف نشده است، بنابراین بی معنی است. | کاهش آزمایشات بیزی: آزمایش شرطی منظم |
88614 | فرض کنید یک ماتریس A با m ردیف و n ستون وجود دارد. هر عنصر یک بردار 3 بعدی است. این بردار 3 بعدی دارای مقادیر مرتبه های مختلف است. آیا می توانیم کوواریانس چنین ماتریسی را محاسبه کنیم؟ | کوواریانس ماتریس با ورودی های عنصر به عنوان بردار |
105248 | من شبیهسازیهای عددی دو سیستم مختلف را انجام دادم که N=1000 هیستوگرام به من نشان داد که به صورت $\\{x,y,y'\\}$، که $x$ متغیر مستقل است، $y=P(x)$ است. توزیع احتمال (فرکانس x)، $y'=P_0(x)$ احتمال نظری است که یک توزیع Chi-Squared با پارامتر یک است (این فقط تابع توزیعی که هیستوگرام های من باید آن را توزیع پورتر-توماس در زمینه حوزه مطالعه من می نامم. برای هر هیستوگرام، مجموع مربعات باقیمانده را دریافت کردم: $$ RSS(n)=\frac{1}{M}\sum_{i}^{M}(y-y')^2 $$ اینجا $M$ تعداد کل bin ها و $n=1،\cdots،N$ شاخص هیستوگرام است. اکنون، من یک نمودار $n\times RSS(n)$ دارم که به من نشان میدهد چگونه تناسب با یک منحنی نظری به صورت $n\rightarrow\infty$ بهتر میشود. من از منحنی یکسانی برای 1000 هیستوگرام هر سیستم استفاده کردم و باید همان تمایل کاهش باقیمانده را در هر دو مشاهده کنم. این گرایش همانطور که انتظار می رود وجود دارد اما مشکل این است که دو نمودار RSS(n) در مقیاس های کاملاً متفاوت هستند. من متوجه شدم که به نوعی با $M$ و همچنین با واریانس داده های ورودی قبل از فرکانس محاسبه می شود (2000 واریانس مختلف وجود دارد، یکی برای هر سیستم، من نمی توانم آنها را عادی کنم). این فقط حدس من است. من در آمار آماتور هستم و حتی نمی دانم این روش تجزیه و تحلیل چگونه نامیده می شود. شاید من کاملا گم شده ام. اگر کسی می تواند به من کمک کند تا نمودارهای RSS(n) را به درستی مقیاس بندی کنم تا بتوانم آنها را با هم مقایسه کنم (کدامیک سریعتر مناسب می شوند یا کدام یک میانگین RSS بیشتری دارند) یا نام کتاب های خوب مرتبط با موضوع مورد نظر را به من بدهند. بسیار سپاسگزار خواهد بود | چگونه می توان مجموع مجذور باقیمانده دو مجموعه داده مختلف را به طور همبستگی مقیاس کرد تا آنها را با هم مقایسه کرد؟ |
15950 | آیا می توان سهمیه خطر ورود تخمینی را در R رسم کرد؟ برای مثال، نیاز(بقا) fit1 = coxph(Surv(futime، fustat) ~ rx، تخمدان) پیشاپیش سپاسگزاریم. تو | نمودار تخمینی نسبت خطر ورود به سیستم در R |
95349 | من به دنبال مجموعه بستههای «DoE.wrapper» برای R بودم و علاقهمند بودم که طرحی با طرح تقسیمبندی مانند JMP ایجاد کنم. در JMP میتوانم تمام فاکتورهایم را در ابتدا مشخص کنم و مشخص کنم که کدام یک از اینها تغییر دادن سخت است. سپس مشخص میکنم که چند قطعه کامل را که میخواستم اجرا کنم. هنگامی که JMP طرح را ایجاد کرد، انتخاب می کرد که کدام ترکیب از عوامل کل طرح بهترین باشد. وقتی سعی میکنم از «Dopt.design» از مجموعه بسته «DoE.wrapper» استفاده کنم، به نظر میرسد که باید قبل از مرحله طراحی، تمام ترکیبهای کل پلات را خودم مشخص کنم. برای مثال کد زیر را ببینید: N = 90 NBlocks = 15 NPerBlock = N / NBlocks factor = list( Size = c(1, 2, 3), Num = c(5, 10, 15), Sep = c(4 , 6, 8) ) wholePlotFactors = cbind( Mode = rep(c('One', 'Two'), هر = 3), Sun = rep(c('Low', 'Med', 'High')، هر = 5)) plan = Dopt.design (N، factor.names = عوامل، بلوک ها = NBlocks، wholeBlockData = wholePlotFactors، فرمول = ~ . + اندازه + Num + Sep + I (Size^2) ) در این حالت، ساختار عامل مسدود کننده به طور کامل توسط ماتریس wholePlotFactors تعیین می شود و بهینه نشده است JMP من را مجبور به تعیین از قبل نمی کند و برای آن بهینه می شود. آیا راهی برای R برای تقلید کامل از JMP در این زمینه وجود دارد؟ آیا من برای ناهار اینجا هستم؟ | بهینه سازی کل طرح برای آزمایش های طراحی شده |
108820 | اگر بخواهم میانگین کل نمونه را با میانگین کسر نمونه مقایسه کنم از کدام تست استفاده کنم؟ بنابراین برای مثال میانگین کل کلاس درس که در آزمون شرکت می کنند و میانگین دختران آن کلاس درس. خیلی ممنونم! | مقایسه دو وسیله |
64829 | درباره ICC و Kappa مطالب زیادی نوشته شده است، اما به نظر می رسد در مورد بهترین اقداماتی که باید در نظر گرفته شود، اختلاف نظر وجود دارد. هدف من شناسایی معیارهایی است که نشان می دهد آیا بین پاسخ دهندگان توافق وجود دارد و مصاحبه شونده پرسشنامه را اجرا کرده است. 17 نفر به یک لیست تعریف شده از آیتم ها رتبه بندی 0-5 دادند و آنها را بر اساس اهمیت (نه رتبه بندی) رتبه بندی کردند. من علاقه ای به این ندارم که آیا 17 شرکت کننده دقیقاً به یک امتیاز داده اند یا خیر، بلکه فقط به این موضوع علاقه مندم که آیا توافقی وجود دارد که باید به آن امتیاز داده شود یا خیر. به دنبال پیشنهادات در اینجا، من از ICC و همچنین Kappa استفاده کردم اما نتایج متفاوتی به شرح زیر تولید شد:   همچنین متذکر می شوم که با توجه به نمونه بسیار کوچک، اعتبار ICC به دلیل استفاده از آزمون f می تواند مشکوک باشد به این سوال مراجعه کنید. پیشنهادات و راه برای اظهار نظر در این مورد | ICC و Kappa کاملاً مخالف هستند |
17881 | یک آزمون معمولی از اهمیت در هنگام بررسی دو جمعیت، آزمون t است، در صورت امکان، آزمون t زوجی. فرض بر این است که توزیع نرمال است. آیا مفروضات سادهسازی مشابهی وجود دارد که یک آزمون معناداری برای یک سری زمانی ایجاد کند؟ به طور خاص، ما دو جمعیت نسبتاً کوچک موش داریم که تحت درمان متفاوتی قرار میگیرند و هفتهای یک بار وزن را اندازهگیری میکنیم. هر دو گراف توابع رو به افزایش را به طور هموار نشان می دهند، با یک نمودار قطعا بالاتر از دیگری. چگونه «قطعیت» را در این زمینه کمیت کنیم؟ فرضیه صفر باید این باشد که وزن دو جمعیت با گذشت زمان «به یک شکل رفتار میکنند». چگونه می توان این را بر اساس یک مدل ساده که نسبتاً رایج است (همانطور که توزیع های معمولی رایج است) با تعداد کمی از پارامترها فرموله کرد؟ پس از انجام این کار، چگونه می توان اهمیت یا چیزی مشابه با مقادیر p را اندازه گیری کرد؟ در مورد جفت کردن موش ها، تطبیق هر چه بیشتر ویژگی ها، با داشتن هر جفت یک نماینده از هر یک از دو جمعیت، چطور؟ من از اشارهای به برخی کتابها یا مقالههایی که به خوبی نوشته شده و به راحتی قابل درک هستند، در مورد سریهای زمانی استقبال میکنم. من به عنوان یک نادان شروع می کنم. با تشکر از کمک شما. دیوید اپستین | آزمون فرضیه و اهمیت برای سری های زمانی |
89455 | من مجموعه دادههای بسیار بزرگی دارم، اما آن را سادهتر میکنم زیرا، اگرچه فکر میکنم باید از آزمون مجذور خی استفاده کنم، اما در استفاده از آن با مشکلاتی مواجه شدهام: فرض کنید فهرستی از 20 «فس» مختلف دارم. تعداد «فو»هایی که «نوارها» را متصل میکنند، دارای توزیع فرکانس نرمال هستند. برخی از «فوها» به «میلههای» مختلف متصل میشوند. فرض کنید من 500 میله دارم برخی از فوها از داخل میله می آیند، اما برخی نه. چگونه میتوانم آزمایش کنم که آیا «فوها» ترجیحاً به «میلههایی» که در آن ساکن هستند متصل میشوند یا خیر؟ ##### ویرایش |--------------------------------| <= کروموزوم |----------* ** **-----------------| <= miRNA (foo) در کروموزوم (بدون ژن) |------0000000000--------------| <= ژن (بار) در کروموزوم (بدون miRNA در آن) |-----------0000** ***0000--------| <= miRNA در یک ژن در کروموزوم من در حال بررسی اتصالات هدف ژن miRNA هستم. هنگامی که miRNA ها ترجمه می شوند، معمولاً ژن های مختلف (یا به طور خاص محصولات پروتئینی آنها) را هدف قرار می دهند. من اهداف ژنی هر miRNA را دارم که با استفاده از الگوریتمی به نام «میراندا» تعیین شده است. میخواهم ببینم آیا miRNAی که از داخل یک ژن سنتز میشود، ترجیحاً آن ژن را به هزاران miRNA و اهداف ژنی مختلف آنها متصل میکند (زیرا برخی از آنها به ژنی که به طور تصادفی از آن منشأ میگیرند، متصل میشوند). در ابتدا به این فکر کردم که احتمال مشاهده شده را بگیرم که یک فو در یک نوار به آن نوار متصل شود و آن را از احتمال اینکه فو یک نوار را متصل کند کم کنم. آیا این درست است؟ به نظر می رسد که من واقعا از داده های زیادی استفاده نمی کنم ... آیا این راه درستی است؟ | چه به مربع چی یا نه |
32815 | (موضوع از maths.stackexchange.com منتقل شد) من در حال حاضر در حال توسعه برنامه ای هستم که یک موتور استنتاج احتمالی را برای شبکه های بیزی ادغام می کند. شبکه بیزی نوعی از عدم قطعیت مدل را ادغام می کند، که در آن توزیع های احتمال شرطی (CPDs) متغیرهای خاص در شبکه دارای پارامترهای نامشخصی است که باید از داده ها تخمین زده شود. توزیع هایی با این پارامترهای نامشخص همه به عنوان چندجمله ای در مجموعه کوچکی از رویدادهای جایگزین تعریف می شوند. من میخواهم از یک رویکرد بیزی برای تخمین این پارامترها استفاده کنم، که از یک قبلی اولیه شروع میشود و به تدریج گسترش آنها را با توجه به دادههای ثبت شده توسط برنامه کاهش میدهد. متأسفانه، پرداختن به داده ها کمی دشوار است، زیرا عمدتاً از شواهد نرم تشکیل شده است، بنابراین به نظر نمی رسد تخمین پارامتر راه حل تحلیلی آسانی مانند به روز رسانی مستقیم شمارش دیریکله داشته باشد. بنابراین فکر کردم استفاده از روشهای نمونهگیری مناسبتر است (با یک الگوریتم نمونهگیری ساده و مهم شروع کنیم). ایده صرفاً انجام نمونهبرداری برای محاسبه، برای هر مجموعه پارامتر $\mathbf{θ}$ مربوط به یک چندجملهای نامشخص، توزیع پسین $P(\mathbf{θ}|شواهد)$، و بهروزرسانی توزیع پارامتر بر این اساس است. توجه داشته باشید که من باید توزیع احتمالات پسینی کامل را استنتاج کنم و نه صرفاً برخی از تخمینهای نقطهای، زیرا میخواهم «عدم قطعیت مدل» را به عنوان بخشی از مدل احتمالی خود حفظ کنم. سوال من کاملاً ساده است: پس از جمعآوری نمونهها از این توزیع پسین، چگونه از این آمار برای استخراج یک توزیع احتمال کامل بر روی پارامترهای ممکن استفاده کنم؟ از آنجایی که من با چندجملهای سروکار دارم، پارامترها خودشان بهعنوان یک بردار تعریف میشوند، بنابراین توزیع باید یک توزیع چند متغیره و پیوسته باشد، با این محدودیت اضافی که پارامترها باید از بدیهیات معمول نظریه احتمال تبعیت کنند. من به استفاده از تخمین چگالی هسته چند متغیره (KDE) برای استخراج این توزیع پارامتر از نمونههایم فکر میکردم، اما نمیدانم که آیا این ایده خوبی است یا نه -- هم از نظر صحت ریاضی و هم از نظر کارایی. به عنوان مثال، آیا توزیع حاصل هنوز هم محورهای احتمال را برآورده می کند (مثلاً احتمالاتی که تا 1.0 جمع می شوند)؟ به نظر من با یک مشکل کاملاً استاندارد روبرو هستم (تخمین توزیع پارامتر یک چندجمله ای از طریق نمونه گیری)، اما تاکنون هیچ پاسخی پیدا نکرده ام. نظر شما چیست؟ آیا باید از KDE، روش دیگری استفاده کنم، یا حتی کل ایده تخمین مجدد تابع چگالی را فراموش کنم و مستقیماً با نمونه ها کار کنم؟ * * * @Reply to Neil G: مشکل این است که، در صورتی که شواهد نامشخصی داشته باشیم، ممکن است توزیع پسین روی پارامترها به شکل قبلی نباشد. در مورد شواهد محکم، ما می دانیم که، برای مثال، اگر توزیع پارامتر قبلی یک دیریکله (مزوج قبل از یک چند جمله ای) باشد، پسین نیز یک دیریکله خواهد بود. اما اگر شواهد نامطمئنی را کنترل کنیم - حداقل بر اساس محاسبات من، دیگر درست به نظر نمی رسد (اگر استدلال من اشتباه است لطفاً من را اصلاح کنید). من یک مثال ساده با الهام از طعم گیلاس/آهک راسل و نورویگ (فصل 20) می زنم. بیایید فرض کنیم می خواهیم نحوه توزیع آب نبات با طعم لیمو یا گیلاس را در یک کیسه بدانیم. در رویکرد بیزی، میتوانیم یک گره پارامتر $\theta$ اضافه کنیم که این توزیع را توصیف میکند:  با فرض اینکه پارامتر $\theta$ به شرح زیر است توزیع بتا $\text{beta[a,b]}(\theta)$، با توجه به شواهد ارائه شده توسط یک نقطه داده، به راحتی می توانیم پسین را محاسبه کنیم، بگوییم که یک آب نبات خاص $cherry$: $P(\theta|D_1=گیلاس) = \alpha \ P(D_1=گیلاس|\theta) \ P(\theta)$ $P(\theta|D_1=گیلاس) = \alpha' \ \ تتا \ \text{بتا[a,b]}(\theta) = \alpha' \ \theta \ \theta^{a-1} \ (1-\theta)^{b-1}$ $P(\theta|D_1=گیلاس) = \alpha' \ \ \text{beta[a+1,b]}(\theta)$ بنابراین در اینجا می بینیم که پسین هنوز یک توزیع بتا است (البته اگر توزیع دیریکله بود، همان استدلال وجود داشت). حال، تصور کنید که به جای شواهد سخت که یک آب نبات خاص گیلاس آهک است، فقط یک مدرک نرم داشتیم، به عنوان مثال که یک آب نبات خاص گیلاس با $p=0.9$ و آهک با $p=0.1$ است. . از نظر گرافیکی، این به صورت زیر نمایش داده میشود:  که در آن ما مدرک $o=true$ را داریم. اگر اکنون توزیع پسین را محاسبه کنیم: $P(\theta|o=true) = \alpha \ P(\theta) \ \sum_{F} P(o =true | F) P(F | \theta)$ $ P(\theta|o=true) = \alpha \ \text{beta[a,b]}(\theta) \ \left[0.9 \theta + 0.1 (1-\theta) \right]$ $P(\theta|o=true) = \alpha \ \text{beta[a,b]}(\theta) \ \left[0.8 \theta + 0.1 \right]$ و مشکل اینجاست که، تا آنجا که من می توانم ببینم، توزیع پسین دیگر یک توزیع بتا نیست (بلکه ترکیبی خطی از توزیع های بتا است). به روز رسانی هایپرپارامترهای $a$ و $b$ با شمارش وزنی (همانطور که شما پیشنهاد کردید) باعث اشتباه می شود | توزیع پسین برای پارامتر چند جمله ای |
8617 | افزایش تعداد موارد و مرگ و میر در طول اپیدمی ها (افزایش ناگهانی تعداد) به دلیل گردش ویروس (مانند ویروس نیل غربی در آمریکا در سال 2002) یا کاهش مقاومت افراد یا آلودگی غذا یا آب یا افزایش تعداد پشه ها این اپیدمی ها به صورت دوره های پرت ظاهر می شوند که می توانند هر 1 تا 5 سال یکبار رخ دهند. با حذف این موارد پرت، شواهدی از اپیدمیهایی که بخش مهمی از پیشبینی و درک بیماری را تشکیل میدهند، حذف میکنیم. آیا پاکسازی داده ها در هنگام برخورد با موارد دورافتاده ناشی از اپیدمی ها ضروری است؟ آیا قرار است نتایج را بهبود ببخشد یا نتایج تحلیل های آماری را بدتر کند؟ | آیا پاکسازی داده ها می تواند نتایج تحلیل های آماری را بدتر کند؟ |
11014 | من باید مجموعه بزرگی از مقادیر را با یک منحنی زنگی پیشبینی کنم که در آن مجموعه کوچکی از نقاط داده شده محدودیتهای منحنی را بین -1 و 0\ تعریف میکنند. کمک! در نهایت من این را در جاوا اسکریپت کدنویسی خواهم کرد. به طور خاص، من فروش را پیش بینی می کنم. من می دانم که کل فروش تقریبی برای هر یک از پنج سال اول چقدر خواهد بود و فروش از یک منحنی زنگی پیروی می کند. من باید ماهانه پیش بینی کنم من نگران این نیستم که پیش بینی سالانه دقیقاً در ماه صحیح منحنی است، فقط به این دلیل که منحنی توسط اعداد داده شده محدود شده است. آیا ایده ای برای انجام این کار دارید؟ | محاسبه تابع گاوسی |
113376 | فکر میکنم بیوانفورماتیکهای معمولی دستهای از فایلهای پایگاه داده را روی رایانههای خود نگه میدارند، پس آنها چه هستند؟ و به طور معمول چگونه از آنها استفاده می کنند (دسترسی دارند)؟ | آیا هیچ صفحه وب گالری پایگاه داده های بیوانفورماتیک مانند biocViews of bioconductor وجود دارد؟ |
28250 | من رگرسیون خطی را برای اهداف یادگیری به صورت دستی پیادهسازی کردهام و از مجموعه دادههای Auto MPG به عنوان دادههای اسباب بازی استفاده میکنم. به ذهنم رسید که نمی دانم چگونه کارایی مدلم را تست کنم! با طبقه بندی می توانم کلاس پیش بینی شده را در مقابل کلاس واقعی بررسی کنم، اما با رگرسیون چه کار کنم؟ **ویرایش: البته، من دادههایی را که دارم به دادههای قطار + تست تقسیم میکنم... وقتی مدل را روی دادههای آزمایشی اعمال میکنم، در مورد ارزیابی نتایج صحبت میکنم. ** به عنوان مثال، با استفاده از مدل خود من 16.76 را پیشبینی میکنم. mpg برای خودرویی که مقدار واقعی آن در مجموعه داده 15.5 است. چگونه می توانم تصمیم بگیرم که آیا این یک پیش بینی خوب یا بد است؟ من به استفاده از برخی آستانه ها فکر می کنم (اگر مقدار پیش بینی شده در بازه [actual-epsilon, actual+epsilon] => OK باشد!)، اما آیا این رویکرد خوبی است؟ و حتی اگر اینطور باشد، چگونه مقادیر اپسیلون را انتخاب کنم؟ من از این واقعیت آگاه هستم که به احتمال زیاد هیچ پاسخ روشنی وجود ندارد، اما هر پیشنهادی در رابطه با رویکردی که باید اتخاذ شود بسیار مفید خواهد بود. **ویرایش: من تصمیم گرفتم با رویکرد زیر پیش بروم: برای هر نمونه داده آزمایشی، محاسبه میکنم که مقدار پیشبینیشده چقدر از دادههای آزمایش فاصله دارد به صورت** abs(predicted_value - actual_value) * 100 / actual_value **یعنی. پیشبینی چقدر از مقدار واقعی دور است که بر حسب درصد مقدار واقعی بیان میشود. هر گونه بازخوردی هنوز پذیرفته می شود، زیرا این فقط ایده ای است که من داشته ام و مطمئن نیستم که بهترین تمرین باشد.** | آزمایش کارایی مدل رگرسیون خطی |
8611 | من دو ستون مختلف داده دارم که در پیکربندی های مختلف ثبت می شوند و **می خواهم به کاربران نشان دهم که این دو رکورد متفاوت هستند** (داده ها زمان بر حسب ثانیه هستند). اندازه مجموعه داده به اندازه شکل زیر نیست. کاربران نهایی همه افراد با تجربه در آمار و ریاضی هستند. سوال من این است که چگونه می توانم یک نمودار (کدام نوع(؟)) را به راحتی رسم کنم. مجموعه داده اول: 0.000223 0.000206 0.000223 0.000193 0.001321 0.000223 ... مجموعه داده دوم: 0.076975003 0.076724999 0.076600097 0.076600079 0.000397 0.000642 0.000522 0.000772 0.000522 0.076725997 0.158800006 0.159801006 0.159426004 به من رسیدم، زمانی که من با جعبه ای مواجه شدم. | چگونه می توان تفاوت بین دو مجموعه داده تک متغیره را به صورت گرافیکی نشان داد؟ |
8614 | من سعی می کنم تعیین کنم که آیا یک نویز داده شده از یک سنسور قطب نما با زمان همبستگی دارد یا نه (قرار است این باشد!) و برای آن سعی کردم همبستگی متقاطع بین سیگنال نویز و زمان نمونه برداری را با استفاده از تابع Matlab xcorr () محاسبه کنم. . با این حال، من یک مقدار تصادفی دریافت می کنم که نشان می دهد با زمان همبستگی ندارد، در حالی که در واقعیت باید اینطور باشد. آیا من کار اشتباهی انجام می دهم؟ من قادر به یافتن منابعی برای تعیین اینکه آیا یک سیگنال با زمان همبستگی دارد پیدا نمیکنم، بنابراین هر ایدهای بسیار قدردانی میشود! با تشکر ایملزا | چگونه تعیین کنیم که آیا یک سیگنال داده شده با زمان همبستگی دارد؟ |
28251 | نمی دانم دقیقاً چگونه آنچه را که به دنبال آن هستم توصیف کنم، اما سعی می کنم چند مثال بزنم. بیایید سه سری داده مختلف را در نظر بگیریم: * سری A: 1،2،3،4،5،6،7،8،9،10،9،8،7،6،5،4،3،2،1 * سری B: 1،2،1،2،1،2،1،2،1،2،1،2،1،2،1 * سری C: 1،2،3،2،1،2،3،2،1،2،3،2،1 تغییر از نقطه به نقطه به این صورت است: * سری A: +1،+1،+1،+1،+ 1,+1,+1,+1,...,-1,-1,-1,-1,-1,-1,-1,-1... * سری B: +1,-1 ,+1,-1,+1,-1,... * سری C: +1,+1,-1,-1,+1,+1,... یا در قالب باینری 1 برای +1 و 0 برای -1 ساده شده: * سری A: 11111111111111...00000000000... * سری ب: 10101010101010... * سری C: 11001100110011... من دنبال برای تابعی که * بالاترین مقدار را برای سری A برمی گرداند (افزایش داده ها مانند افزایش قبلی است) * کمترین مقدار برای سری B (تغییر داده ها همیشه با قبلی متفاوت است) * چیزی در بین برای سری C (گاهی اوقات تغییر داده ها یکسان، گاهی اوقات متفاوت) | طبقه بندی دنباله های اعداد صحیح بر اساس اولین تفاوت آنها |
110692 | من یک توزیع نرمال کوتاه شده را محاسبه کرده ام که چگالی احتمال کل آن (یعنی سطح زیر منحنی) برابر با 0.92 است. توزیع به خوبی نشان دهنده واقعیت پدیده ای است که من در حال بررسی آن هستم، یعنی انتظار دارم زمانی که x = 0 احتمال مثبت (غیر صفر) باشد. حالت نیز همان جایی است که انتظار داشتم. با این حال، هر احتمالی که برای x < 0 نشان داده نشده است، منطقی فیزیکی ندارد، بنابراین من میخواهم توزیع کوتاه شده خود را مجدداً مقیاس دهم به طوری که کل مساحت زیر چگالی 1 باشد (نه 0.92). توزیع نامتقارن است، چگونه می توانم این کار را انجام دهم؟ | مساحت زیر یک توزیع کوتاه = 1 |
88615 | به طور معمول، در بوت استرپ بیزی، شما نمونه های {$x_1,...,x_n$} از یک متغیر تصادفی $X$ را دارید. با مرتب کردن $\\{0,1,u_1,...,u_{n-1}\\}$ از توزیع دیریکله $\\{p_1,...,p_n\\}$ را انتخاب کنید. $ نمونههای مستقلی از $U \sim Uniform(0,1)$ هستند و تفاوتهای همسایههای مرتب شده را میگیرند. از $\\{p_1,...,p_n\\}$ به عنوان وزن برای $\\{x_1,...,x_n\\}$ برای محاسبه یک نمونه از آمار مورد نظر $\theta$ استفاده کنید. یعنی $$\hat\theta_j = \sum_{i=1}^n f(x_i) \cdot p_i$$ برای تکرار بوت استرپ $j$. من قبلاً وزنهای $\\{w_1,...,w_n\\}$ را از نمونهگیری اهمیت دارم که از آن $$\hat\theta = \frac{\sum_{i=1}^n f(x_i) \ محاسبه میکنم cdot w_i}{\sum_{i=1}^n w_i} $$ با مجموعهای از وزنهای جدید محاسبهشده به صورت $w_i' = w_i \cdot p_i$، محاسبه $$\hat\theta_j = \frac{\sum_{i=1}^n f(x_i) \cdot w_i'}{\sum_{i=1}^n w_i'} $$ کار نمیکند: توزیع آمار بوت استرپ خیلی باریک است. نمونهبرداری مجدد از نمونههای وزندار برای دریافت $\\{x_1',...,x_n'\\}$ بدون وزن و اعمال بوت استرپ بیزی برای آنها نیز کار نمیکند: توزیع آمار بوت استرپ بسیار گسترده است. (اگر برای هر تکرار بوت استرپ بیزی دوباره نمونه برداری کنم، این موضوع نیز صادق است.) فکر می کنم باید وزن مجدد را متفاوت کنم. چگونه این کار انجام می شود؟ ویرایش: در واقع، استفاده از وزنهای $w_i' = w_i \cdot p_i$ راهحل مناسبی بود. من نتایج بوت استرپ خود را با نتایج استفاده از تخمین واریانس مونت کارلو بد و بسیار بالا مقایسه می کردم. با این حال، من حاضر نیستم این foobar را تقصیر خود بنامم، زیرا یافتن فرمول **صحیح** برای واریانس مونت کارلو مقادیر مورد انتظار محاسبه شده با استفاده از نسبت یا اهمیت خود نرمال شده به طرز احمقانه ای سخت است. نمونه ها برای ثبت، بالاخره آن را در اینجا، در صفحه 63 پیدا کردم: http://www.rni.helsinki.fi/~pek/test/mcmbc10.pdf بنابراین از پتری کویستینن بسیار سپاسگزارم. این فرمول برای تخمین واریانس مونت کارلوی بی طرفانه است، در صورتی که پیوند کهنه شود: $$Var[\widehat\theta] \approx \frac{n}{n-1} \frac{\sum_{i=1} ^n \left(f(x_i)-\widehat\theta\right)^2 w_i^2}{\left(\sum_{i=1}^n w_i\right)^2}$$ من فکر می کنم این درست است زیرا 1) واریانس مونت کارلو مقادیر مورد انتظار محاسبه شده با استفاده از نمونه های وزن نشده یک مورد خاص است. 2) تغییر توزیع اهمیت باعث ایجاد تغییرات مورد انتظار در آن می شود. 3) تمام متدهای بوت استرپ که من پیادهسازی کردهام با مقادیری که از آن محاسبه میکنم موافق هستند (در نهایت). 4) نسبت به جرم گیری وزن ثابت است. و 5) به نظر می رسد که در یادداشت های کویستینن و جای دیگری که آن را پیدا کردم، دلیل مناسبی در پشت آن وجود دارد. (اگرچه در جای دیگر با یک فرمول ساختگی برای محاسبه فاصله اطمینان، با ضرب جعلی در $\sqrt{n}$، دنبال شد.) به عنوان یک امتیاز، عبارت اصلی عبارت استاندارد تصحیح تعصب برای برآوردهای واریانس است. . شما فکر می کنید که با توجه به اینکه نمونه گیری اهمیت اغلب ارائه شده و به عنوان تکنیک کاهش واریانس استفاده می شود، تخمین واریانس معمول خواهد بود. برای سروصدا متاسفم، اما حداقل ممکن است در آینده به شخص دیگری کمک کند. | وزن دهی مجدد نمونه های دارای وزن اهمیت در بوت استرپ بیزی |
46802 | من در حال انجام تجزیه و تحلیل سری های زمانی به صورت فصلی از سال 1990 تا سه ماهه سوم 2012 هستم. برخی از سری های زمانی در سال 2008 به دلیل رکود کاهش یافتند و سپس به سمت بالا از سر گرفتند. این افت نسبتاً تند است. من به استفاده از اسپرد اعتباری فکر می کنم زیرا اسپرد اعتباری اقتصاد را به خوبی دنبال می کند. سپس می توانم هم انباشتگی و VECM را روی سری اعمال کنم. با تشکر | آیا استفاده از اسپرد اعتبار برای محاسبه افت سری های زمانی مدل تصحیح خطای برداری اشکالی ندارد؟ |
61309 | من اطلاعاتم را به دو قسمت تقسیم کردم. من از داده های 80% خود برای ساخت یک مدل خطی رگرسیون چندگانه استفاده کرده ام. اکنون میخواهم آن را با استفاده از دادههای 20% بقیه آزمایش کنم. چه ابزارهایی در Minitab برای انجام این فرآیند بررسی دارم؟ ویرایش: فکر می کنم بتوانم از آمار PRESS استفاده کنم. پرس من برای دیتای 80% 6000 بود و الان بر اساس این مدل PRESS رو برای 20% دیتا حساب کردم 1000. حالا 6000 رو با 1000 مقایسه کنم یا 6000 رو با 5 ضربدر 1000 یعنی 5000؟ | چگونه می توانم مدل رگرسیون خطی چندگانه خود را تأیید کنم؟ |
114530 | رگرسیون ساده من به صورت زیر است: tendaystockreturn = آلفا + بتا * متغیر ساختگی که در صورت خرید سهام توسط مدیر، مقدار 1 را می گیرد. به عبارت دیگر، می خواهم بدانم آیا بتای یک زیرگروه با بتای گروه کلی فرق دارد یا خیر؟ متغیر کارگردان ساختگی کلی دارای 52 مشاهده از 267 مشاهده است که در آن مقدار 1 را می گیرد. متغیر کارگردان ساختگی زیرگروه دارای 17 از 267 مشاهده است که در آن مقدار 1 را می گیرد. چگونه باید این را در رگرسیون قرار دهم؟ آیا باید تعاملی از هر دو متغیر ساختگی ایجاد کنم یا نه؟ یا هر دو رگرسیون رو جدا اجرا کنم و بعد مقایسه کنم؟ | چگونه می توان زیر گروه بتا را با گروه بتا کلی مقایسه کرد؟ |
28255 | این یک سوال مبهم است. من تمام تلاشم را می کنم، فکر می کنم پاسخ های قطعی دارد. من به پاسخ هایی از فرم کتاب x بخوانید، این موضوع خاص را بیاموزید، این مقاله/ها را بخوانید امیدوارم. چیزی که من را آزار می دهد این است که هر سیستم هوش مصنوعی که در مورد آن خوانده ام به نظر می رسد یک مدل داخلی دارد که برای کار به روشی خاص تنظیم شده است. وظیفه الگوریتم یادگیری بهینه سازی پارامترهای این مدل برای حل مسئله است. من فکر میکنم که این شبیه به راهاندازی یک زبان توصیف سفارشی است که ساختاری از چیزهایی که باید مدلسازی شوند را حفظ یا ترجمه میکند بهگونهای که از طریق برخی تکنیکهای الگوریتمی قابل درک قابل حل شدن باشد. نزول گرادیان تکراری، تحلیلی، هر چه باشد. سوال: آیا چارچوبی وجود دارد که بتوان در آن مدل/زبان توصیف بهینه را کشف کرد؟ به عنوان مثال در یک GA، نقشه برداری از ژنوم به فنوتیپ برای عملکرد موثر الگوریتم حیاتی است. این نگاشت به صورت دستی تعریف شده است و، به نظر من، حیاتی ترین مؤلفه GA است. به طور خاص چگونه می توان در فضای نگاشت ها جستجو کرد؟ یا رفتن به متا چگونه می توان در فضای الگوریتم ها برای یافتن بهترین نقشه برداری جستجو کرد؟ به نظر می رسد می توانید برای همیشه از آن نردبان ناپدید شوید. برای حل مشکل ابتدا باید مشکل را حل کنید. به نظر می رسد شبکه های عصبی یک مدل موثر برای حل مسائل دنیای واقعی هستند، چرا؟ چگونه می توان مدل دیگری را برای مجموعه ای از مشکلات ایجاد کرد؟ Automata سلولی برای مدل سازی جریان ترافیک یا انتقال بیماری خوب به نظر می رسد، چرا؟ چگونه می توانم به طور خودکار سیستم های جایگزین را ایجاد کنم که مجموعه ای از مشکلات را نیز به طور موثر مدل می کند؟ و غیره آیا این چیزی است که در مورد آن فکر و بحث می شود؟ کجا پیداش کنم؟ ممنونم :) | تشخیص بهترین مدل برای یک مشکل |
28253 | من معادله رگرسیونی زیر را دارم که در آن $Y^*$ دستمزد است: $$Y^* = \beta_0 + \beta_1 X_1 + \beta_2 X_1^2 + \beta_3 X_1^3 + \beta_4 X_1^4$$ من دارم مقادیر بتا به صورت $(1.6، 0.2، -0.3، 0.04، -0.002)$ داده شده است، به ترتیب. من یک متغیر جدید $W$، $$W=\begin{cases} 0، & \text{if }Y^* \leq 30 \\\ Y^*-30 و \text{if }Y^* ایجاد کردم \gt 30 \end{cases}$$ بنابراین فکر میکنم این مورد سانسور چپ است؟ سوال این است که چگونه می توانم اثر حاشیه ای را در $X_1=10$ در این تنظیم محاسبه کنم؟ من فرمولی پیدا کردم که میگفت $\text{marg effect} = \beta_j*\Phi(\frac{X\beta}{ \sigma})$، اما نمیدانم چگونه $\sigma$ را پیدا کنم. ? امیدوارم بتونی کمک کنی :) | محاسبه $\sigma$ از ضرایب $\beta$ در رگرسیون سانسور داده |
51038 | من قبلاً تعداد کمی از این پستها را دیدهام، و برای ارسال یک سؤال دیگر در مورد این موضوع کمی احمقانه احساس میکنم - اما به نظر نمیرسد که نمیتوانم آن را حل کنم. من با R بسیار تازه کار هستم و با lme جدید هستم، پس با من مدارا کنید. مطالعه من در مورد ویژگی های رفتاری در ماهی است، که در آن از 49 ماهی در یک دوره 3 ماهه نمونه برداری کرده ام. متغیرهای پاسخ من عبارتند از MEANDEPTH (میانگین عمق)، CUMDIST (مسافت تجمعی طی شده) و HRMND (اندازه محدوده خانه). متغیرهای توضیحی من عبارتند از L (طول)، A (سن)، W (وزن)، K (عامل K) و L1 (رشد سال اول). چیزی که من سعی می کنم بفهمم این است که چگونه پاسخ های من به صورت ماهانه متفاوت است و چه چیزی این تغییرات را تحت تاثیر قرار می دهد - به عنوان مثال، آیا ماهی لاگر به شیوه ای متفاوت رفتار می کند؟ نمونهای از آنچه من تا کنون به دست آوردهام، mod11<-lme(log(HRMND)~A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID,na است. action=na.exclude) اما آیا این شامل همه ماهها نمیشود، و فقط به من یک نمای کلی از چگونگی تغییر همه چیز بین FISH میدهد؟ بنابراین من به نوعی به این فکر می کنم که باید با MONTH لانه یا گروه کنم؟ mod11<-lme(log(HRMND)~A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID/MONTH,na.action=na.exclude) یا mod11<-lme(log(HRMND)~MONTH*A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID,na.action=na.exclude) یا mod11<-lme(log(HRMND)~A+K+L1+L+A*L*L1*K,data=CODDING,random=~1|ID:MONTH,na.action=na.exclude) اما من هنوز این احساس را داشته باشید که همه اینها اشتباه است. در زیر مجموعه داده خود را پیوست کرده ام. > dput(CODDING) ساختار(فهرست(ID = c(7288L, 7288L, 7288L, 7293L, 7293L, 7293L, 7294L, 7294L, 7294L, 7296L, 7296L, 7296L, 7296L, 729L, 729 7298L، 7300L، 7300L، 7300L، 7303L، 7303L، 7303L، 7305L، 7305L، 7305L، 7306L، 7306L، 7306L، 7307L، 7307L. 7308L، 7308L، 7308L، 7309L، 7309L، 7309L، 7311L، 7311L، 7311L، 7312L، 7312L، 7312L، 7313L، 7313L.، 77313L. 7314L، 7314L، 7318L، 7318L، 7318L، 7320L، 7320L، 7320L، 7321L، 7321L، 7321L، 7325L، 7325L، 77326L.، 77326L. 7326L، 7327L، 7327L، 7327L، 7328L، 7328L، 7328L، 7330L، 7330L، 7330L، 7333L، 7333L، 7333L، 7333L، 77334L، 77334L. 7336L، 7336L، 7336L، 7338L، 7338L، 7338L، 7339L، 7339L، 7339L، 7341L، 7341L، 7341L، 7342L، 7342L، 77342L. 7343L، 7343L، 7344L، 7344L، 7344L، 7345L، 7345L، 7345L، 7346L، 7346L، 7346L، 7347L، 7347L، 77349L، 77349L. 7349L, 7351L, 7351L, 7351L, 7353L, 7353L, 7353L, 7356L, 7356L, 7356L, 7357L, 7357L, 7357L, 7357L, 7358L, 7358L 7359L، 7359L، 7359L، 7360L، 7360L، 7360L، 7362L، 7362L، 7362L، 7363L، 7363L، 7363L، 7364L، 7364L.، 77364L. 7365L، 7365L، 7366L، 7366L، 7366L)، MEANDEPTHMND = c(10.725262، 12.200786، 13.564287، 10.707745، 13.52139.13.52071. 8.462647، 8.896712، 16.015541، 8.481038، 7.041678، 7.285891، 8.663365، 9.253053، 17.173524، 1393331، 11. 13.794026، 11.47386، 13.07904، 16.5411، 8.771731، 20.405117، 22.202886، 13.29951، 15.7675، 19.819، 19.41 8.25664، 10.082283، 14.13052، 14.73271، 18.59407، 11.258819، 10.885207، 9.014883، 13.936095، 13.936096، 17.93515، 18. 14.165146، 16.427362، 13.590945، 13.65453، 15.08443، 20.93181، 10.16241، 10.286637، 13.86004، 13.86004، 13.86004، 7014 18.089143، 6.728938، 14.2741، 14.094891، 5.957861، 5.914509، 5.826612، 15.764523، 19.651839، 19.651839، 256، 23. 6.678091، 7.54115، 14.533215، 11.785265، 14.19784، 8.668182، 9.134189، 11.899737، 9.243074، 9.243074، 9.74، 9.70 8.1842، 8.616996، 13.320201، 7.443299، 10.705514، 21.653235، 12.58174، 13.93734، 18.04723، 10.2010، 10.17. 23.451312، 9.314671، 9.801458، 14.862017، 14.532722، 13.119887، 10.412089، 5.341649، 5.094039، 5.094039، 5.094039، 25. 10.050294، 12.503342، 7.170584، 7.343889، 13.018498، 4.978633، 7.359922، 11.55276، 11.61949463، 11.619495، 11.619494، 11.619495، 11.619495، 11.619494، 11.619495، 11.619495. 8.12889، 9.888701، 18.692396، 8.214024، 9.616029، 15.434882، 10.157199، 20.685936، 26.921921، 26.921921، 26.921974، 223. 15.24348، 13.99331، 13.71569، 14.52495، 16.23245، 14.70182، 20.9764، 9.837841، 20.111058، 21.774، 21.775. 8.706451، 11.070614، 10.676216، 14.008959، 25.81545، 10.453505، 4.206622، 3.582907، 12.894، 12.894، 13.834، 13.8 17.55982، 17.32079، 16.53955، 30.602365، 6.328528، 3.704692، 11.696339، 11.786703، 16.052703، 16.052708 = L، 6L، 6L، MONTH 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 8 لیتر، 7 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 7L، 8L)، CUMMND = c(148974.1، 171929.3، 99069.97، 129907، 129835.1، 149201 | آشفتگیهای فرمول تودرتو و گروهبندی با استفاده از lme |
105743 | من سعی کردم رابطه بین استفاده از خدمات (از 0 تا 1) و مسافت طی شده را مدل کنم. ابتدا مسافت سفر را با هر 20 کیلومتر تعیین کردم و سپس میزان استفاده را برای هر سطل محاسبه کردم (تعداد افراد استفاده شده از خدمات / تعداد کل افراد در این سطل). فرضیه این است که با افزایش مسافت سفر، بهره برداری کاهش می یابد. با این حال، از آنجایی که اندازه جمعیت برای برخی از سطلهایی که دور هستند کوچک است، استفاده محاسبهشده نسبت به سطلهای نزدیکتر «قابل اعتماد» کمتری دارد. به عنوان مثال، در نمودار اول، در برخی از سطل ها، ممکن است فقط 5 مشاهده وجود داشته باشد و همه آنها از سرویس استفاده کرده اند، که منجر به نرخ استفاده 1 می شود. رگرسیون تکه ای (همانطور که در نمودار دوم نشان داده شده است) انجام دهید. اگر چنین است، آستانه مناسب چقدر باید باشد؟ یا اگر راهی برای تعیین وزن بیشتر به سطل های با اندازه بزرگتر وجود دارد؟   متشکرم! یبیبه | وزن رگرسیون قطعه ای به نسبت مدل؟ |
114535 | من می خواهم با نمایش هر سند به عنوان مجموعه ای از ویژگی ها، طبقه بندی اسناد را انجام دهم. من میدانم که راههای زیادی وجود دارد: BOW، TFIDF، ... من میخواهم از تخصیص دیریکله پنهان (LDA) برای استخراج کلیدواژههای موضوعی EACH SINGLE استفاده کنم. سند با این کلمات موضوعی نشان داده می شود. اما نمیدانم معقول است یا نه، زیرا به نظر من LDA معمولاً برای استخراج کلمات موضوعی به اشتراک گذاشته شده توسط یک دسته از اسناد استفاده میشود. آیا می توان از LDA برای شناسایی موضوع یک سند واحد استفاده کرد؟ | استفاده از کلمات موضوعی تولید شده توسط LDA برای نشان دادن یک سند |
61303 | **نسخه کوتاه:** _آیا مقدمه ای بر نوشته های رونالد فیشر _(مقاله ها و کتاب ها) در مورد آماری وجود دارد که برای کسانی که پیشینه آماری کمی دارند یا اصلاً پیشینه ندارند؟_ من به چیزی شبیه به یک فیشر حاشیه نویسی فکر می کنم. خواننده» با هدف غیر آمارگیران. انگیزه این سوال را در زیر توضیح میدهم، اما به شما هشدار داده میشود که طولانیتر است (نمیدانم چگونه آن را مختصرتر توضیح دهم)، و علاوه بر این، تقریباً مطمئناً بحثبرانگیز، احتمالاً آزاردهنده و حتی ممکن است عصبانیکننده باشد. بنابراین لطفاً از ادامه این پست صرفنظر کنید، مگر اینکه واقعاً فکر کنید که سؤال (همانطور که در بالا ذکر شد) خیلی مختصر است که بدون توضیح بیشتر به آن پاسخ داده شود. * * * من اصول اولیه بسیاری از زمینه ها را به خودم آموخته ام که بسیاری از مردم آن را دشوار می دانند (مانند جبر خطی، جبر انتزاعی، تجزیه و تحلیل واقعی و پیچیده، توپولوژی عمومی، نظریه اندازه گیری، و غیره) اما تمام تلاش من برای آموزش خودم است. آمار شکست خورده است. دلیل این امر این نیست که آمارها را از نظر فنی دشوار میدانم (یا بیشتر از سایر حوزههایی که توانستهام راه خود را پیدا کنم)، بلکه این است که آمارها را دائماً بیگانه میبینم، اگر نه کاملاً **_عجیب_**، بسیار دور. بیشتر از هر زمینه دیگری که خودم یاد داده ام. آهسته آهسته من شروع به شک کردم که ریشه های این عجیب و غریب بیشتر تاریخی است، و به عنوان کسی که این رشته را از روی کتاب ها یاد می گیرد، و نه از جامعه پزشکان (همانطور که اگر به طور رسمی در مورد آمار آموزش دیده بودم، چنین می شد. من هرگز از این احساس بیگانگی عبور نمیکنم تا زمانی که درباره تاریخچه آمار اطلاعات بیشتری کسب کنم. بنابراین من چندین کتاب در مورد تاریخ آمار خواندهام، و انجام این کار، در واقع راه بسیار زیادی در توضیح آنچه که من به عنوان عجیب بودن این رشته میدانم، داشته است. اما هنوز راه هایی برای رفتن به این سمت دارم. یکی از چیزهایی که از خوانشهایم در تاریخ آمار آموختهام این است که منشأ بسیاری از چیزهایی که در آمار بهعنوان عجیب و غریب در نظر میگیرم، یک مرد است، رونالد فیشر. در واقع، نقل قول زیر 1 (که اخیراً پیدا کردم) هم با درک من که فقط با کاوش در تاریخ میخواهم این زمینه را شروع کنم و هم با توجه به فیشر به عنوان هدفم بسیار همخوانی دارد. مرجع: > بیشتر مفاهیم و نظریه های آماری را می توان جدا از > ریشه های تاریخی آنها توصیف کرد. این امر، بدون رمز و راز غیر ضروری، برای مورد «احتمال امانی» امکان پذیر نیست. در واقع، من فکر می کنم که تصور من در اینجا، هرچند ذهنی (البته)، کاملاً بی اساس نیست. فیشر نه تنها برخی از اساسیترین ایدههای آماری را ارائه کرد، بلکه به دلیل بیتوجهی به کارهای قبلی، و تکیه بر شهود (یا ارائه شواهدی که به سختی دیگران قادر به درک آنها بودند، یا به کلی حذف آنها) بدنام بود. علاوه بر این، او با بسیاری از آماردانان مهم دیگر در نیمه اول قرن بیستم دشمنی های مادام العمر داشت، دشمنی هایی که به نظر می رسد سردرگمی و سوء تفاهم زیادی را در این زمینه ایجاد کرده است. نتیجهگیری من از همه اینها این است که، بله، مشارکت فیشر در آمارهای مدرن واقعاً گسترده بود، اگرچه همه آنها مثبت نبودند. من همچنین به این نتیجه رسیدهام که برای اینکه واقعاً احساس بیگانگی خود را با آمار درک کنم، باید حداقل برخی از آثار فیشر را به شکل اصلیشان بخوانم. اما دریافتهام که نوشتههای فیشر به اعتبار نفوذناپذیری خود ادامه میدهد. من سعی کرده ام راهنماهایی برای این ادبیات پیدا کنم، اما، متأسفانه، همه چیزهایی که پیدا کردم برای افرادی که در آمار آموزش دیده اند در نظر گرفته شده است، بنابراین درک آن برای من به همان اندازه دشوار است که هدف از توضیح آن چیست. از این رو این سوال در ابتدای این پست مطرح شد. * * * 1 استون، مروین (1983)، احتمال اعتباری، _ دایره المعارف علوم آماری _ **3** 81-86. وایلی، نیویورک | ماهیگیر برای آدمک؟ |
110696 | آیا کسی می تواند به من کمک کند لطفاً در این مشکل :: من می خواهم توزیع موارد زیر را بدانم: $|h' G(G'G)^{-1}|^2$ یا $(G'G)^{ -1}Ghh'G(G'G)^{-1}$ که در آن $h$ یک بردار گاوسی است و $G$ یک ماتریس گاوسی است و آنها مستقل هستند. مربوط به تکنیک Zero Forcing است. | توزیع ماتریس ها |
28877 | من لیستی از پروتئین ها را با مقادیر ویژگی آنها دارم. یک جدول نمونه به این صورت است: ...............ویژگی 1...ویژگی2...ویژگی3...ویژگی4پروتئین1پروتئین2پروتئین3پروتئین4 سطرها پروتئین و ستونها ویژگی هستند. من همچنین لیستی از پروتئین هایی دارم که با هم تعامل دارند. به عنوان مثال Protein3, Protein4 Protein1, Protein2 Protein4, Protein1 **مشکل**: برای تجزیه و تحلیل اولیه می خواهم بدانم که کدام ویژگی بیشترین تأثیر را در تعاملات پروتئینی دارد. درک من این است که معمولاً از درخت های تصمیم می توان برای به دست آوردن مهمترین ویژگی بر اساس آنتروپی استفاده کرد، اما مطمئن نیستم که چگونه آن را به جفت پروتئین (یعنی برهمکنش ها) گسترش دهم. آیا روشی برای چنین هدفی وجود دارد؟ | یافتن بهترین ویژگی ها در مدل های تعامل |
89454 | ما در تلاشیم تا این فرضیه را آزمایش کنیم که یک جهش خفیف یک ژن نسبت به حذف کامل اثرات کمی بر بیان رونوشت دارد. علاوه بر این، ما می خواهیم این فرضیه را آزمایش کنیم که ژن های تغییر یافته توسط جهش و حذف بر یک فرآیند خاص تأثیر می گذارد. ما دو داده ریزآرایه خالدار رنگی برای هر دو نوع جهش یافته در مقابل نوع وحشی و حذف در مقابل نوع وحشی داریم (سویه های نوع وحشی برای این دو مقایسه کمی متفاوت هستند زیرا پس زمینه ای که حذف و جهش بر روی آن ایجاد شده است کمی متفاوت است، اما من امیدوارم که بتوان این اثر را کاهش داد و هر دو را به عنوان نوع وحشی در نظر گرفت). آرایهها در بسته limma Bioconductor برای R تجزیه و تحلیل شدهاند. طراحی اینجاست: آرایه Cy3 Cy5 ----- --- --- 1 WT Mutant 2 WT Mutant 3 WT Deletion 4 WT Deletion من می خواهم یک کنتراست که برای ژنهایی با اندازه مطلق برابری در Deletion نسبت به Mutant آزمایش میشود. کنتراست Deletion- Mutant برای ژن هایی که در Deletion بالاتر از Mutant هستند آزمایش می کند. سپس میتوانم شرطی کنم که بر اساس فولد در Mutant تغییر کند (یعنی مواردی را که در Mutant بالا بودند و در Deletion بالاتر هستند و آنهایی که در Mutant پایین هستند و در Deletion پایینتر هستند را انتخاب کنید). آیا این معتبر است؟ آیا راه بهتری برای انجام آن وجود دارد؟ چگونه میتوانم آزمایش کنم که آیا یک فرآیند خاص در ژنهایی که تحت تأثیر هر دو آشفتگی هستند، غنی میشود، اما سایرین فقط در مجموعهای که در حذف تغییر میکنند غنی میشوند، اما در جهش یافت نمیشوند. من میتوانم این کار را فقط با استفاده از یک هیپوهندسی بر روی تقاطع موارد تغییر یافته در هر شرایط در مقایسه با آزمایش مشابه روی مواردی که فقط در یک شرایط تغییر کردهاند انجام دهم، اما من همیشه نسبت به چنین چیزهایی شک دارم زیرا آنها بسیار به اثرات آستانه وابسته هستند. (ژن A در شرایط A 2.1 برابر است، اما در شرایط B فقط 1.9 برابر است و بنابراین در تقاطع نیست). هر گونه ایده قدردانی می شود. | انتخاب ژنهایی که در درمان A بیشتر از درمان B تأثیر میگذارند |
28872 | فرض کنید می خواهیم یک جریان داده از تعداد ناشناخته خوشه ها را خوشه بندی کنیم و آنها را با استفاده از فیلترهای ذرات تخمین بزنیم. با فیلترهای ذرات، ما باید $P(x_t | x_{t-1})$ و $P(z_t | x_t)$ را بدانیم (که در آن z به داده ها (گزارش ها) اشاره دارد، و x به حالت های تخمین زده شده (فرضیه). )). سپس سوال من این است: چگونه میتوانیم $P(x_t | x_{t-1})$ (احتمال انتقال) و $P(z_t | x_t)$ (احتمال مشاهده/احتمال) را در این زمینه (خوشهبندی آنلاین) تعریف کنیم؟ | خوشه بندی با فیلترهای ذرات |
110690 | من سعی می کنم محاسبه کنم که آیا بین دو ستون طبقه بندی وابستگی وجود دارد یا همزمانی قابل توجهی از دو متغیر طبقه بندی وجود دارد. فرض کنید من ستون های A و B را دارم و از 200 هزار ردیف A 13683 برابر '1' و 35171 بار B '1' است. از این تعداد، 2871 ردیف دارای A و B '1' به طور همزمان هستند. اگر بین دو ستون وابستگی وجود دارد چگونه محاسبه کنم؟ من سعی کردم نسبت های مورد انتظار را برای هر دو A و B محاسبه کنم، 0.068 0.175، و اگر فرض کنیم هر دو دو جمله ای باشند، به طور تصادفی هر دو A و B بودن 0.068 * 0.175 = 0.01203 است. بنابراین هر نسبت مشاهده شده به طور قابل توجهی بالاتر از این می تواند نشان دهد که همسویی به دلیل شانس تصادفی نیست؟ برای آن، من ایده استفاده از 0.01203 را به عنوان پارامتر جمعیت داشتم و با تست دوجمله ای بررسی کنید که آیا نسبت مشاهده شده به طور قابل توجهی بالاتر است. آیا تست مربع کای برای این کار بهتر است؟ چگونه می توان از آن در اینجا استفاده کرد؟ با تشکر | همزمانی دو متغیر مقوله ای |
28876 | من چندین شبیهسازی قدرت را برای ANOVA یک طرفه در R اجرا کردهام، و مشکل من این است که نتایج شبیهسازی با نتیجه g*power یا _pwr.anova.test_ از بسته pwr مطابقت ندارد. . به عنوان مثال، بیایید توان شبیه سازی شده را با توان تحلیلی با استفاده از این مقادیر مقایسه کنیم: group_size <- c(40,40,40) به معنای <- c(0.2,0,-0.2) sds <- c(1,1,1) Analytical تجزیه و تحلیل توان، f = 0.1632993 از میانگین و انحراف استاندارد بالا محاسبه می شود. اندازه <- 10 plot_df <- data.frame() قدرت <- 0 while(قدرت < 0.80) { قدرت <- pwr.anova.test(k=3، n=size، f= 0.1632993، sig.level=0.05) $power plot_df <- rbind(plot_df, data.frame(n = اندازه، قدرت = قدرت)) اندازه <- اندازه + 2 چاپ (قدرت) } تجزیه و تحلیل توان شبیه سازی شده set.seed(1001) run_sim <- function() { # تولید همه داده ها create_sim_data <- function(i) { #stdev bias correction c4 <- ( sqrt(2/(group_size[1] - 1))) * (گاما(اندازه_گروه[1]/2)/گاما((اندازه_گروه[1] - 1)/2)) sds2 <- sds / c4 # ماتریس_آزمایشی ماتریس پیشتخصیص <- ماتریس(nrow=sims، ncol=sum(اندازه_گروه )) # حلقه تو در تو برای ایجاد داده های شبیه سازی شده برای همه اجراها برای (j در 1:sims) { for(i in 1:length(group_size)) { # col_start & cold_end برای داشتن گروه های مختلف در یک ردیف استفاده می شود col_start <- sum(group_size[1:i])-(group_size[i]-1) col_end < - cumsum(group_size)[i] # تولید داده با rnorm test_matrix[j,col_start:col_end] <- rnorm(group_size[i], mean = means[i], sd = sds2[i]) } } return(test_matrix) } # استخراج نتایج از شبیه سازی ها get_power <- function() { sig <- rep(NA, sims ) eta_2 <- rep(NA, sims) omega_2 <- rep(NA, sims) for(i در 1:sims) { # ANOVA را روی نتیجه داده انجام دهید <- خلاصه (aov(test_matrix[i,] ~ group)) # محاسبه اندازه اثر eta_2[i] <- نتیجه[[1]]$'Sum Sq'[1] / sum (نتیجه[ [1]]$'Sum Sq') omega_2[i] <- (نتیجه[[1]]$'Sum Sq'[1] - (نتیجه[[1]]$Df[1] * نتیجه[[1]]$'Mean Sq'[2])) / (جمع (نتیجه[[1]]$'Sum Sq') + نتیجه[[1] ]]$'Mean Sq'[2]) # دریافت p-value از ANOVA sig_result <- result[[1]]$'Pr(>F)'[1] # check sig.level sig[i] <- sig_result < 0.05 } out <- list(power = mean(sig)، eta_2 = mean(eta_2)، omega = mean(omega_2)) } power <- 0 plot_df <- data.frame( ) و <- NULL omega <- NULL # تکرار شبیه سازی تا زمانی که قدرت مورد نظر پیدا شود while(power < 0.8) { # با افزایش اندازه گروه، گروهبندی مجدد ایجاد میشود. # نتیجه قدرت anova <- get_power() # استخراج مقدار توان قدرت <- result$power # ذخیره eta-squared هر تکرار eta <- rbind(eta, result$eta_2) # ذخیره eta-squared هر تکرار omega <- rbind(omega, result$omega) cat(power =, power, group size =, group_size,\n\ n) # ذخیره اندازه و قدرت گروه برای هر تکرار plot_df <- rbind(plot_df, data.frame(group_n = group_size[1], power = power)) # افزایش اندازه گروه با 2 group_size <- group_size + 2 } out <- list(power = plot_df, f = sqrt(eta / (1 - eta)) , omega = omega) return(out) } sims <- 1000 sim <- run_sim() این تفاوت حدود 10% بین این دو ایجاد می کند روشها (خط کوتاه از شبیهسازی است)  فکر من این است که تفاوت به دلیل _f_ کوهن است که یک تخمینگر مغرضانه اندازه اثر جمعیت است. . اما چگونه باید نتایج خود را تفسیر کنم، آیا شبیه سازی های من قدرت را بیش از حد برآورد می کنند؟ اگر چنین است، چگونه می توانم آن را با خروجی برآورد توان تحلیلی مطابقت دهم. **برای خلاصه کردن سوالم: چرا این دو روش خروجی یکسانی را هنگامی که با ابزارهای یکسان و انحرافات استاندارد تغذیه میشوند، نمیدهند؟ پیشاپیش متشکرم | تفاوت بین شبیه سازی توان ANOVA و محاسبه توان |
82944 | پروژه من شامل 1) مقایسه نمونه های جدید در مقابل یک شاهد و 2) یافتن هر گونه تأثیر بر سرعت رشد و درصد جوانه زنی بذرها با تیمار آنها با نمونه های جدید سوال من این است که چه نوع تجزیه و تحلیل آماری انجام شود و توضیح در مورد چرایی استفاده از آن تست خاص من یک ماده به نام ICR دارم که به عنوان کنترل تنظیم شده است. این مواد قرار است به تنهایی روی رشد بذر عالی عمل کند، اما هنوز نیاز به بهبود دارد. بنابراین با مخلوط کردن مقداری از ICR با مواد دیگر، به 4 فرمول مختلف (KCR، ACR، XKCR، XLCR) رسیدم و آنها را آزمایش کردم تا مقایسه کنم که آیا آنها بهبود یافته اند یا عملکرد بهتری نسبت به ICR دارند. تست 1: نمونه ها همه به صورت پنج قلو ساخته می شوند. همه آنها غلظت و مقدار ICR و مواد افزودنی یکسانی دارند. تنها تفاوت در نوع افزودنی است. داده های نمونه را به دست آوردم، میانگین و انحراف معیار هر چهار نمونه و کنترل را محاسبه کردم. اکنون باید نمونه های خود را با کنترل مقایسه کنم و تأیید کنم که بهبود یافته است. چگونه این کار را انجام دهم؟ من هم میخوام بین نمونه ها مقایسه کنم و بگم یکی هستن یا یکی از بقیه بهتره. تست 2A: نمونه ها همه به صورت پنج قلو ساخته می شوند. همه آنها 20 دانه دارند. من این بار دو کنترل دارم. کنترل 1 فقط 6 میلی لیتر آب مقطر دارد. کنترل 2 دارای 6 میلی لیتر ICR است. من درصد جوانه زنی را بدست آورده ام. میخواهم با استفاده از آمار به من بگویم که کدام نمونه بیشترین درصد جوانهزنی را داشت و تأیید کنم که آیا بین شاهد و نمونهها و بین نمونهها به دلیل تأثیر تیمارها تفاوت معنیداری وجود دارد یا خیر. تست 2B: همان دسته ای که از تست 2A استفاده شد. این بار از هر دسته 30 نهال تصادفی گرفتم و طول ساقه و ریشه را ثبت کردم. می خواهم بدانم که آیا تیمارها نسبت به شاهد یا در بین تیمارها تأثیر معنی داری روی رشد بذر داشته است؟ این بار، من می خواهم هر دو اندازه گیری ریشه و ساقه را ترکیب کنم. | از کدام آزمون آماری استفاده کنیم و چرا؟ |
110340 | من یک رگرسیون لجستیک (N = 15000) و درصد دقت در طبقهبندی (حساسیت) مدل با پیشبینیکنندههای شامل = 0 (همانند مدل ثابت بدون پیشبینیکننده) اجرا میکنم. در همین حال، ویژگی از مدل ثابت به مدل با پیش بینی کننده ها (هر دو 100٪) بدون تغییر باقی می ماند. من با نرخ موفقیت کلی نسبتاً بالایی از ثابت (95.2٪) شروع می کنم. شاید برای شروع خیلی زیاد باشد و مشکلی را نشان دهد؟ اما به نظر می رسد خروجی رگرسیون لجستیک نشان می دهد که متغیرهای پیش بینی اضافه شده من (جنسیت (دوگانه)؛ سن (مستمر)؛ کشور مبدا (دوگانه کدگذاری شده ساختگی)) هیچ تأثیری بر عضویت در گروه ندارند. آیا این به سادگی به این معنی است که مدل بدون ارزش است و من نباید از هیچ یک از نتایج دیگر آن استفاده کنم؟  | تفسیر خروجی رگرسیون لجستیک - مدل w پیش بینی بهتر از ثابت نیست |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.