_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
60666 | آیا تعداد پیوندهای هیدروژنی یا تعداد حلقه های یک مولکول یک متغیر گسسته است یا پیوسته؟ آیا می توانم بگویم که تعداد حلقه ها: 1، 3، 4، $\dots$ یک متغیر پیوسته است زیرا در تئوری این عدد می تواند تا بی نهایت افزایش یابد؟ از طرف دیگر فقط می تواند مقادیر صحیح را بگیرد پس .... آیا گسسته است؟ | تفاوت بین متغیرهای گسسته و پیوسته |
21389 | اگر من 24 ماتریس کوواریانس زمانی داشته باشم (مثلاً ماتریس های کوواریانس ماهانه محاسبه شده از بازده روزانه همه سهام SP500) و برای متغیرهای x و y برای هر ماه در 2 سال گذشته 24 بتا محاسبه می کنم. سپس، * بهترین تخمینگر بتا چیست (مثلاً میانگین وزنی مساوی یا نمایی این بتاها؟ * چگونه میتوانم ثبات/تغییرپذیری بتای فردی و همچنین تخمینگر بتا را تجزیه و تحلیل کنم؟ * با مشاهده این ماهانه آیا می توانم هر گونه نتیجه گیری از رابطه بین x و y انجام دهم، اگر شما مرجع استانداردی دارید که نگرانی های من را روشن کند، بسیار متشکرم؟ | ثبات ضرایب بتا |
99402 | معلم آزمایشگاه من این سوال را در کلاس پرسید، اما من هیچ راهی برای حل آن پیدا نمی کنم. اگر من $n$ نقاط با عدم قطعیت آنها داشته باشم، می دانم که آنها از یک عبارت خطی پیروی می کنند و بهترین خط آنها را پیدا می کنم، آیا راهی برای پیش بینی اینکه خط از چند نقطه عبور می کند وجود دارد؟ من فکر کردم این عدد باید به $\chi^2$ از نقاطی که باید $\sim n$ باشد مربوط باشد. کسی می تواند به من کمک کند حتی اگر احتمالاً خودم را خوب توضیح ندادم؟ با تشکر | تعداد نقاط عبور شده توسط بهترین خط مناسب آنها |
94003 | من در حال مطالعه در مورد SVM هستم و یاد گرفتم که از یک تابع هسته استفاده می کنیم تا داده ها به صورت خطی در فضای با ابعاد بالا (بردار؟) قابل تفکیک شوند. اما سپس یاد گرفتم که آنها از ایده حاشیه نرم استفاده می کنند. اما سوال من این است که اگر داده ها به هر حال در فضای بالا به صورت خطی قابل تفکیک هستند، چرا باید از حاشیه نرم استفاده کرد؟ یا آیا این بدان معناست که حتی پس از نگاشت با هسته، لزوماً به این معنی نیست که به صورت خطی قابل جداسازی خواهد بود؟ | آیا استفاده از تابع هسته داده ها را به صورت خطی جدا می کند؟ |
27976 | اگر چیزی نسبتاً واضح را از دست داده ام، مرا ببخشید. من یک فیزیکدان هستم که اساساً یک توزیع (هیستوگرام) متمرکز بر یک مقدار متوسط است که به یک توزیع عادی تقریب دارد. مقدار مهم برای من انحراف معیار این متغیر تصادفی گاوسی است. چگونه می توانم برای یافتن خطا در نمونه انحراف استاندارد اقدام کنم؟ من احساس می کنم که با خطای هر سطل در هیستوگرام اصلی ارتباط دارد. | چگونه می توانم انحراف معیار انحراف استاندارد نمونه از توزیع نرمال را پیدا کنم؟ |
48123 | > فرض کنید وضعیت آب و هوا به عنوان آفتابی (S) یا باران (R) طبقه بندی شده است. > فرض کنید شرط روز $n + 1$ فقط به روزهای $n$ و $n-1$ > وابسته است. ماتریس انتقال را از جدول زیر کار کنید. > > $$\pmatrix{\mathrm{Yesterday} & \mathrm{Today} & \mathrm{Tomorrow} \\\ R & R > & R \\\ S & S & S \\\S & R & R \ \\R & S & S \\\\}$$ تاکنون، کاری که من انجام داده ام این است که اگر اجازه دهیم $X_n$ آب و هوا در روز $n$ باشد، آنگاه $X_n$ یک زنجیره مارکوف زمان گسسته زیرا ویژگی مارکوف را برآورده نمی کند. برای تبدیل آن به DTMC، اجازه دهید بگوییم که $Y_n = (X_{n-1}، X_n)$. اکنون این یک DTMC است، با فضای حالت $S = \\{1, 2,3, 4\\}$ که در آن $1 = (R,R), 2 = (R, S), 3 = (S, R) ), 4 = (S, S)$. اکنون می خواهم احتمالات انتقال را بررسی کنم. بنابراین ابتدا اجازه دهید $P_{11}$ را محاسبه کنیم. بنابراین این احتمال رفتن از حالت 1 به حالت 1 است، یعنی اگر دیروز و امروز باران ببارد، احتمال اینکه فردا باران ببارد چقدر است. بنابراین من در حال کار کردن $$P\\{Y_{n+1} = 1 | Y_n = 1\\} = P\\{X_{n} = R، X_{n+1} = R | X_{n-1} = R, X_{n} = R\\}$$ سپس گفتم از اینجا، با استفاده از قانون احتمال کل، $$\frac{P\\{X_{n} = R را دریافت می کنیم ، X_{n+1} = R، X_{n-1} = R، X_{n} = R\\}}{P\\{X_{n-1} = R، X_{n} = R\ \}}$$ اما در پاسخها، میگوید این خط باید بخواند > $$\frac{P\\{X_{n} = R, X_{n+1} = R, X_{n-1} = R\\}}{P\ \{X_{n-1} = R, X_{n} = > R\\}}$$ سپس به دلایلی از اینجا به > $$P\\{X_{n+1} = R | X_{n-1} = R، X_{n} = R\\}$$ اول، X_n$ از خط بالای این به کجا میرود، و ثانیاً چگونه میتوانند به خط آخر پرش کنند؟ ویرایش: بسیار خوب، این دادههای جدول است > $$\begin{matrix} \mathrm{\underline{Yesterday}} & \mathrm{\underline{Today}} > & \mathrm{\underline{Tomorrow}} و \mathrm{\underline{مشکلات}} \\\ R & R & R & > 0.6 \\\ S & S & S & 0.8 \\\ S & R & R & 0.5 \\\ R & S & S & 0.75 > \end{matrix}$$ سعی کردم $P_{12}$ را محاسبه کنم و فرمولم را به $P(X_{) رساندم n+1} = S |. X_n = R، X_{n-1} R)$. چگونه می توانم این را با استفاده از جدول حل کنم؟ همچنین در پاسخ ها می گویند $P_{13} = 0$، چرا اینطوری می شود؟ | نمی فهمم آنها چگونه احتمالات انتقال را محاسبه کرده اند |
20476 | یک سوال تازه کار (لطفاً پاسخ های دقیق بدهید): سعی می کنم از آزمون کولموگروف-اسمیرنوف استفاده کنم. من موفق شدم تفاوت بین نقاط تجربی و توزیع نظری $D$ را محاسبه کنم (به دنبال ویکی پدیا). اما پس از آن من کمی در مورد آزمون سردرگم هستم: 1. آیا فرضیه صفر مبنی بر اینکه داده های تجربی بر اساس توزیع نظری توزیع شده اند یا نه؟ 2. چگونه می توانم سطح بحرانی $\alpha$ را وقتی که $D$ دارم تعیین کنم؟ من می توانم از این کلاس برای محاسبه توزیع کولموگروف اسمیرنوف استفاده کنم. فکر می کنم همه مواد را دارم، اما مطمئن نیستم چگونه آنها را کنار هم بگذارم. | با استفاده از آزمون کولموگروف – اسمیرنوف |
99405 | من در حال خواندن مقاله ای هستم که در آن نویسنده رگرسیون پواسون را بر روی برخی داده ها متناسب می کند. برخی از متغیرهای کمکی (اما نه نتیجه) تا حدی گم شده اند. نویسنده می نویسد که او: > تجزیه و تحلیل را با استفاده از یک روش معتبر و کارآمد برای > مدیریت داده های گمشده به صورت تصادفی انجام داد. آیا کسی می تواند به من کمک کند تا بفهمم او به چه چیزی اشاره می کند و چگونه می توان این مدل را در عمل نصب کرد (یعنی اشاره گر به بسته های R، رویه های SAS، دستورات Stata...)؟ من به مدل سازی معادلات ساختاری (تعمیم یافته) فکر می کردم اما ممکن است اشتباه کنم. | رگرسیون پواسون بر روی متغیرهای کمکی تا حدی از دست رفته |
57073 | مجموعه داده من شامل دو متغیر $t$ (زمان اجرای الگوریتم) و $n$ (تعداد گرههای بررسیشده، هر چه باشد) (به نسبت قوی همبسته) است. هر دو به شدت با طراحی مرتبط هستند، زیرا الگوریتم می تواند تقریباً گره های $c$ را در هر ثانیه مدیریت کند. الگوریتم بر روی چندین مشکل اجرا شد، اما اگر پس از مدتی وقفه $T$، راه حلی پیدا نشد، خاتمه یافت. بنابراین داده ها بر روی متغیر زمان به درستی سانسور می شوند. من تابع چگالی تجمعی تخمینی (یا تعداد تجمعی) متغیر $n$ را برای مواردی که الگوریتم با $t<T$ خاتمه مییابد رسم میکنم. این نشان می دهد که چگونه بسیاری از مشکلات را می توان با گسترش حداکثر $n$ گره حل کرد و برای مقایسه پیکربندی های مختلف الگوریتم مفید است. اما در طرح $n$، آن دم های خنده دار در بالا وجود دارد که به وضوح به سمت راست حرکت می کنند، همانطور که در تصویر زیر مشاهده می شود. ecdf را برای متغیر $t$ که سانسور روی آن انجام شده است مقایسه کنید. ## تعداد انباشته $n$  ## تعداد تجمعی $t$  ## شبیهسازی من میدانم چرا این اتفاق میافتد، و میتوانم اثر را در شبیهسازی با استفاده از کد _R_ زیر بازتولید کنم. این به دلیل سانسور روی یک متغیر همبسته قوی تحت اضافه شدن مقداری نویز ایجاد می شود. qplot(Filter(function(x) (x + rnorm(1,0,1)[1]) < 5, runif(10000,0,10))، stat=ecdf,geom=step)  **این پدیده چگونه نامیده می شود؟** باید در نشریه ای اعلام کنم که این طرفداران هستند مصنوعات آزمایش و توزیع واقعی را منعکس نمی کند. | نام پدیده در نمودارهای CDF تخمینی داده های سانسور شده |
114992 | در مورد من، من مجموعه داده ای از مشاهدات دارم که توسط HMM تولید نشده اند، به این معنی که نمی دانم چه نوع و چند حالت پنهان باید در آنجا وجود داشته باشد. بنابراین، تنها عامل شناخته شده مشاهدات هستند. پس از آموزش مدل من با استفاده از تعداد مشخصی از حالت های پنهان در هر بار، باید الگوریتم رو به جلو را برای ارزیابی مدل اعمال کنم. مشکل من این است که از آنجایی که نمیدانم چه نوع حالتهای پنهان وجود دارد، نمیتوانم مقادیر pi اولیه مناسب را تعیین کنم، بنابراین تصمیم گرفتم که احتمالات یکسانی را برای همه حالتها برابر با 1/N تعیین کنم. آیا رویکرد من را معنادار میدانید؟ پیشاپیش از شما متشکرم. | HMM - الگوریتم رو به جلو - توزیع حالت اولیه |
60667 | من به بایگانی های CrossValidate و همچنین آرشیوهای r و crantastic... برای بسته ای نگاه می کردم که رویکردی قوی به مدل های افزودنی تعمیم یافته دارد. من دو بسته robustgam و rgam را پیدا کردم اما توابع پیاده سازی شده آنها فقط توزیع های دو جمله ای و پواسون را پوشش می دهند (لطفاً اگر اشتباه می کنم، مرا اصلاح کنید). اگر کسی بتواند بستههای R دیگر یا رویکردهای قوی مدلسازی افزودنی عمومی را که ممکن است عملکرد بهتری با مجموعه دادههای کوچک داشته باشند ($n<100$ رکورد یا 50-100 رکورد) با ما به اشتراک بگذارد، بسیار سپاسگزارم. | GAM قوی که توزیع گاوسی را پوشش می دهد |
97313 | رویکرد تشخیص چهره بر اساس برآورد آنتروپی ویژگیهای DCT غیرخطی، استفاده از حداکثر تخمین آنتروپی DCT پیکسلها را پیشنهاد میکند. سوال من این است که حداکثر کردن آنتروپی به معنای به حداقل رساندن محتوای اطلاعاتی است زیرا آنتروپی برای اطلاعات منفی است. بنابراین، چگونه نویسندگان می گویند که حداکثر آنتروپی به معنای حداکثر اطلاعات است؟ لطفاً کسی می تواند در رفع ابهام در مورد تکنیک خود کمک کند؟ پیشاپیش از شما متشکرم | ویژگی های DCT رویکرد تشخیص چهره |
57036 | من از رگرسیون لجستیک برای تجزیه و تحلیل برخی از داده های طبقه بندی شده (متغیر پاسخ باینری و متغیرهای پیش بینی کننده طبقه بندی - عمدتا باینری) استفاده می کنم. برای مدل خود، من چیزی شبیه به «A ~ B» و یک فرضیه دارم مبنی بر اینکه «B» پاسخ دهنده مقداری قدرت توضیحی بر انتخاب «A» دارد. وقتی این رگرسیون را اجرا میکنم، فقط رهگیری یک مقدار p را در محدوده معنیداری آماری نشان میدهد. با این حال، من یک متغیر دیگر C دارم که برخی از شرایط از قبل موجود را برای هر پاسخ دهنده ارزیابی می کند. هنگامی که من یک رگرسیون لاجیت را روی «A ~ B + C» اجرا می کنم، «C» دارای مقدار p بسیار پایینی است (از لحاظ آماری معنی دار). به این معنا که به نظر می رسد ترجیحات قبلی که هر پاسخ دهنده دارد، همانطور که با «C» منعکس می شود، بر انتخاب آنها در «A» تأثیر می گذارد. پس سوال من این است که آیا در این مورد مناسب است یک اصطلاح تعاملی برای «B*C» به رگرسیون من اضافه کنم یا خیر. وقتی رگرسیون لاجیت «A ~ B * C» (یا معادل «A ~ B + C + B:C» را اجرا میکنم، هر دو «B» و «C» و عبارت تعامل «B:C» دارای مقدار بالایی هستند. اهمیت آماری (p-value کم). آیا این از نظر آماری معتبر است؟ آیا زمانی که یک عبارت تعاملی به مدل اضافه می شود، معنی دار شدن چیزی از نظر آماری معنادار است؟ | چه زمانی گنجاندن اصطلاحات تعامل در مدل رگرسیون معتبر است؟ |
48125 | من داده های دسته بندی/تعداد زیر را دارم: رده A1 | دسته A2 | دسته B1 | دسته B2 | دسته C1 | دسته C2 | دسته C3 | جمعیت کاربر 1 | تعداد ویدیو 1 | تعداد آگهی 2 0 | 1 | 1 | 0 | 0 | 1 | 0 | 15000 | 7000 | 45000 که در آن می توان یکی از A1 و A2 را انتخاب کرد و یکی از B1 و B2 را می توان انتخاب کرد و یکی از C1، C2 و C3 را می توان انتخاب کرد و مثال بالا به معنای 15000 کاربر در A2 و B1 و C2 از جمعیت 1 است. و رفتار شمارش در ویدیوها و تبلیغات به ترتیب 7000 و 45000 است که توسط آن 15000 کاربر به دست آمده است. نکته- مهم است که برای هر ترکیبی از متغیرهای طبقهبندی A، B، C تعداد جمعیت برای سه نوع مختلف رفتار کاربر (جمعیتهای کاربر و ویدیو، تعداد آگهیهای ناشی از آن جمعیت کاربر) داریم. صفر شمارش: همچنین مهمتر از همه، ما می توانیم ورودی داشته باشیم که در آن در دسته های A، B، C - همه آنها یا هر ترکیبی از آنها می توانند همه صفرها و یک جمعیت کاربر متناظر و تعداد ویدئو/تبلیغ داشته باشند که یک عدد مثبت است که نشان می دهد که آنها آن رفتار را انتخاب نکردند که A،B،C را در آن ترکیب مربوطه انتخاب کردند. به طور شهودی: یک جمعیت کاربری وجود دارد که می تواند مسیرهای A، B و C را در صورت نیاز انتخاب یا انتخاب نکند. حالا اگر من چنین ردیف های نمونه و جمعیت های کاربری متناظری داشته باشم، می خواهم تاثیر A1 در مقابل A2 را با توجه به زیر دسته ها در B و جمعیت های کاربری و غیره بفهمم. راه مدل سازی و حل این چیست و بالا آمدن با بینش؟ | متغیرهای دسته بندی چندگانه و شمارش سلسله مراتبی چندگانه - چگونه می توان اثرات را استنتاج کرد؟ |
17741 | من سعی می کنم مشکلی را برای پایان نامه خود حل کنم و نمی دانم چگونه آن را انجام دهم. من 4 مشاهده دارم که به طور تصادفی از توزیع یکنواخت $(0,1)$ گرفته شده است. من میخواهم احتمال 3 X_{(1)}\ge X_{(2)}+X_{(3)}$ را محاسبه کنم. $X_{(i)}$ آمار مرتبه یکم است (من آمار ترتیب را طوری می گیرم که مشاهدات من از کوچکترین به بزرگ ترین رتبه بندی شوند). من آن را برای یک مورد ساده تر حل کرده ام اما در اینجا من در مورد نحوه انجام آن گم شده ام. از همه کمک ها استقبال می شود. | چگونه $\mathbb P( 3 X_{(1)} \geq X_{(2)}+X_{(3)})$ را برای آمار سفارش یک توزیع یکنواخت محاسبه کنیم؟ |
3194 | چگونه می توانم عادلانه بودن یک قالب بیست وجهی (d20) را آزمایش کنم؟ بدیهی است که من توزیع مقادیر را با توزیع یکنواخت مقایسه می کنم. من به طور مبهم استفاده از آزمون Chi-square را در کالج به یاد دارم. چگونه می توانم این را اعمال کنم تا ببینم آیا یک قالب عادلانه است؟ | چگونه می توانم عادلانه بودن d20 را تست کنم؟ |
17293 | من به دنبال مدل سازی برخی از داده ها هستم، اما مطمئن نیستم که چه نوع مدلی می توانم استفاده کنم. من داده های شمارشی دارم و مدلی می خواهم که هم میانگین و هم واریانس داده ها را تخمین های پارامتریک بدهد. به این معنا که من فاکتورهای پیشبینیکننده مختلفی دارم و میخواهم تعیین کنم که آیا هر یک از آنها بر واریانس تأثیر میگذارند (نه فقط میانگین گروه). من می دانم که رگرسیون پواسون کار نخواهد کرد زیرا واریانس برابر با میانگین است. این فرض در مورد من معتبر نیست، بنابراین می دانم که پراکندگی بیش از حد وجود دارد. با این حال، یک مدل دو جمله ای منفی تنها یک پارامتر پراکندگی بیش از حد را ایجاد می کند، نه پارامتری که تابعی از پیش بینی کننده های مدل باشد. چه مدلی می تواند این کار را انجام دهد؟ علاوه بر این، ارجاع به کتاب یا مقاله ای که در مورد مدل و/یا بسته R که مدل را پیاده سازی می کند، مورد بحث قرار می گیرد. | مدلسازی پارامتری واریانس دادههای شمارش |
90381 | **مورد:** من سعی میکنم مدلهای تاریخ رویداد (که به عنوان مدلهای بقا نیز شناخته میشود) را با پیشبینیکنندههای متغیر زمان در دو سطح مختلف تجمع (جغرافیایی) تخمین بزنم. به طور دقیق تر، من از یک مدل تاریخچه رویدادهای زمانی گسسته (مدل لاجیت بر روی داده های انباشته) برای پیش بینی احتمال مهاجرت (mig) در سطح خانوار استفاده می کنم. هر خانواده در یک دوره معین در معرض خطر مهاجرت قرار دارد (در این مثال سه سال، قرار گرفتن در معرض). من تعدادی پیشبینیکننده با زمان متغیر (مثلاً wx = تجربه کاری تجمعی سرپرست خانوار) و پیشبینیکنندههای ثابت زمان در سطح خانوار (به عنوان مثال، زن = سرپرست خانوار زن است) برای کنترل تأثیر متغیرهای اجتماعی و جمعیتشناختی بر تصمیم دارم. برای مهاجرت با این حال، خانوارهای نمونه من در شهرداری های مختلف (MunID) قرار دارند. در تحقیقاتم به این موضوع علاقه مندم که چگونه مجموعه ای از ویژگی های محیطی متغیر با زمان (Env1، به عنوان مثال کاهش بارندگی) که در سطح شهرداری عمل می کنند، بر احتمال مهاجرت در سطح خانوار تأثیر می گذارد. با این حال، من همچنین نیاز به کنترل برخی از ویژگیهای ثابت زمان در سطح شهرداری دارم (Env2، به عنوان مثال، درصد زمین مورد استفاده برای تولید کشاورزی). یک مثال ساده از ساختار داده در جدول زیر ارائه شده است.  **مشکل:** چون من دو سطح تجمیع دارم (خانوارهای خوشه ای در شهرداری ها) قصد استفاده از آن را داشتم. مدل های لجستیک چند سطحی با این حال، من کاملاً مطمئن نیستم که چگونه سطوح خود را به درستی مشخص کنم. من از R و بسته lme4 برای تخمین مدل های چند سطحی استفاده می کنم. **راه حل های ممکن:** 1. Courgeau (2007) یک مدل تاریخچه رویداد چند سطحی را با سه سطح توصیف می کند: زمان (سطح-1) درون افراد (سطح-2) تودرتو است، که در داخل ایالت ها (سطح-3) تودرتو هستند. با این حال، کورژو فقط به یک پیشبینیکننده در سطح دولت ثابت زمان اشاره میکند. در مورد من، من این مشکل را دارم که یک پیشبینیکننده متغیر با زمان در سطح شهرداری (مثلاً Env1) توسط مدل بهعنوان عملکرد در سطح شهرداری شناسایی نمیشود زیرا مقادیر درون هر واحد تجمیع در طول زمان متفاوت است. با این حال، اگر مدل این متغیر را به عنوان پیشبینیکننده سطح 1 در نظر بگیرد، خطاهای استاندارد برآورد برای Env1 مغرضانه خواهد بود، زیرا در هر نقطه زمانی، همه خانوارهای یک شهرداری دارای مقدار Env1 یکسان خواهند بود. 2. به عنوان گزینه دیگر، می توانم از متغیر ترکیبی MunIDy برای تعیین سطح سوم خود استفاده کنم. MunIDy شناسه شهرداری (MunID) را با متغیر سال قرار گرفتن در معرض (قرارگیری) ترکیب می کند و منجر به n=3*2=6 واحد تجمیع در سطح 3 می شود. با این حال، به نظر میرسد این راهحل کمتر ایدهآلتر است، زیرا هر واحد سطح 2 فقط شامل مقادیر سطح خانوار و شهرداری برای یک سال قرار گرفتن در معرض است (به عنوان مثال، یک واحد شامل همه موارد/مشاهدات در یک سال قرار گرفتن در معرض خاص و یک جامعه خاص است. ) و مطمئن نیستم که آیا این مسئله برای مدل تاریخچه رویداد مشکلی ایجاد کند یا خیر. آیا کسی ایده ای در مورد چگونگی تعیین صحیح سطوح در تجزیه و تحلیل خود دارد تا بتوانم تأثیر پیش بینی کننده های متغیر با زمان را در سطح 3 بررسی کنم؟ یا آیا کسی می تواند به من به کار منتشر شده ای اشاره کند که از تجزیه و تحلیل تاریخچه رویداد چند سطحی با پیش بینی های متغیر با زمان در سطوح تجمعی بالاتر استفاده می کند؟ با تشکر فراوان برای هر کمکی! ** مراجع:** Courgeau, D. (2007). سنتز چند سطحی: از گروه به فرد. دوردرخت، هلند: اسپرینگر. | پیش بینی کننده های متغیر زمان در سطوح تجمع بالاتر در تجزیه و تحلیل بقای چند سطحی |
11522 | من برای مجموعه ای از داده ها و چندین نمونه فرعی همبستگی را اجرا کرده ام. در طول این تجزیه و تحلیل، من به موقعیتی برخورد کردم که در آن $r^2$ برای دو گروه در هر گروه جداگانه کوچکتر بود، برخلاف زمانی که آنها با هم گروه بندی می شوند. * آیا توضیح مستقیمی برای چگونگی این اتفاق وجود دارد؟ | چرا همبستگی ها در دو گروه کمتر از همبستگی با ترکیب گروه ها است؟ |
52756 | امروز سعی میکردم از احتمالات استفاده کنم تا یک تصمیم «هر روزه» (و نه خیلی مهم) بگیرم... اما متوجه شدم که فراموش کردهام چگونه به این نوع مشکل برخورد کنم (اگر در این باور درست باشم که قبلاً میدانستم. چگونه با چنین مشکلی برخورد کنیم). شکل مشکلی که من سعی کردم حلش کنم این است: اشیاء Q در یک ظرف وجود دارد که هر کدام رنگ منحصر به فرد خود را دارند. Agent1 یک نمونه G از اشیاء منحصر به فرد M را از ظرف خارج می کند و سپس آن اشیاء M را دوباره در ظرف قرار می دهد. اگر Agent2 نمونه V از اشیاء منحصر به فرد L را از ظرف خارج کند، آنگاه... 1. احتمال اینکه بزرگتر از مجموعه های G و V شامل کوچکتر این مجموعه ها باشد چقدر است؟ 2. احتمال اینکه مجموعه های G و V دارای همپوشانی عناصر T باشند چقدر است؟ برای اینکه به شما ایده ای تقریبی از آنچه می خواستم بفهمم، داشتم فکر می کردم: هوم... 10000 چیز برای انتخاب وجود دارد، و من (برای سادگی!) فرض می کنم که هر کدام شانس مساوی برای انتخاب دارند. من 900 چیز را انتخاب کردم... و او 890 چیز مشترک را با من انتخاب کرد تاریخ را انتخاب کرد و از من کپی کرد؟ | احتمال همپوشانی بین نمونه های مستقل با اندازه های مختلف |
99407 | چندین رویکرد وجود دارد، به عنوان مثال، تحلیل رگرسیون تعدیل شده و هانتر، اشمیت و جکسون. رویکرد HSJ (1982) محاسبات واریانس واقعی را بر اساس زیرمجموعه هایی که می گویند مطالعات انجام شده توسط مرد و زن است، فرا می خواند. به گفته هانتر، جی. ای.، اشمیت، اف. ال. و جکسون (1982) _ تجمع یافته ها در مطالعات _ اگر داده ها به (دو) زیرمجموعه تقسیم شوند، دو روش وجود دارد که یک متغیر تعدیل کننده خودش را نشان می دهد. 1. باید تفاوت های زیادی در میانگین اندازه اثر بین زیر مجموعه ها وجود داشته باشد. 2. باید کاهش در واریانس در زیر مجموعه ها وجود داشته باشد. آیا این یک رویکرد معتبر برای شناسایی عوامل یا متغیرهای تعدیل کننده است؟ بیشتر را در Hunter, J. E., & Schmidt, F. L. (2004) ببینید. روش های متاآنالیز: تصحیح خطا و سوگیری در یافته های پژوهش (ویرایش دوم). هزار اوکس، کالیفرنیا: سیج | آیا رویکرد به تحلیل تعدیل کننده که توسط هانتر، اشمیت و جکسون (1982) حمایت می شود معتبر است؟ |
9295 | این یک نسخه آماری بیشتر از مسئله Math.SE من است. **سوال** اجازه دهید $\mathbf{P}$ یک چندضلعی محدب از اضلاع $m$ باشد. دو تا از لبه های آن را به صورت تصادفی انتخاب کنید و در ادامه یک نقطه تصادفی از هر یک از این لبه ها انتخاب کنید و طول وتر را که به دست می آوریم محاسبه کنید. اگر این فرآیند را $n$ بار تکرار کنیم و طول وترهایی را که به این ترتیب به دست آوردیم میانگین کنیم، تخمین زده میشود $\hat{\ell}_n$ از طول وتر مورد انتظار $\ell$ $\mathbf{P}$. سپس، $n$ باید چقدر بزرگ باشد تا اطمینان حاصل شود که $\hat{\ell}_n$ با $\ell$ حداکثر تا 5% (مثلا) با سطح اطمینان (مثلا) 95% متفاوت است و دقیقاً چگونه است. آیا باید نمونه های خود را جمع آوری کنیم؟ توجه داشته باشید که تعیین طول وتر مورد انتظار به صورت تحلیلی منجر به انتگرال های غیرقابل حل همانطور که در پست SE من نشان داده شده است. همچنین توجه داشته باشید که چندین روش نامتعادل برای تعریف طول وتر مورد انتظار $\mathbf{P}$ وجود دارد. چیزی که در اینجا به آن نیاز داریم $\ell = \lim_{n\rightarrow \infty} \hat{\ell}_n$ است. | تخمین مونت کارلو از میانگین طول وتر در یک چند ضلعی |
48127 | در حال حاضر مشغول تحقیق در مورد تأثیر سبک های نوشتاری بر درک خواننده هستم. در حال حاضر 4 گروه زیر را دارم گروه 1: پیش آزمون - درمان 1a - گروه پس آزمون 2: پیش آزمون - درمان 1b - گروه پس آزمون 3: پیش آزمون - درمان 2a - گروه پس آزمون 4: پیش آزمون - درمان 2b - پس از پایان آزمون درمان 1 به سبک نوشتاری معمولی و درمان 2 به سبک نوشتاری پیشرفته اشاره دارد. من میدانم که اکثر محققان فرض میکنند که پیشآزمون برای هر 4 گروه به دلیل انتخاب تصادفی شرکتکنندگان یکسان است. با این حال، چیزی که می تواند نشان دهد این است که درمان ها بر شرکت کنندگان تأثیر می گذارد. آیا آزمونهای آماری وجود دارد که بتوانم برای آزمایش اینکه درمان 1 بر شرکتکنندگان بیشتر از درمان 2 تأثیر میگذارد استفاده کنم؟ متشکرم هر کمکی بسیار قدردانی می شود. | تفاوت بین گروه ها |
53403 | من برخی از تخمینهای پارامتر و فواصل اطمینان را از مجموعهای از GLMMهای دوجملهای با میانگین مدل تخمین زدهام: دو اثر اصلی و تعامل آنها. من می خواهم مقادیر برازش [سطح جمعیت] را برای جلوه های اصلی و تعامل آنها، و همچنین باندهای اطمینان 95% ترسیم کنم. من می توانم مقادیر برازش شده در سطح جمعیت را رسم کنم، اما مطمئن نیستم که چگونه تخمین پارامترها را با CI آنها ترکیب کنم تا نوارهای اطمینان را ترسیم کنم. کد رسم مقادیر برازش شده و نمودار حاصل در زیر آمده است. من احتمال تسخیر موش را در لکه های جنگلی (Rat) در برابر فاصله از لبه جنگل (Dist) ترسیم می کنم و اینکه آیا لکه جنگل توسط دام چرا شده است یا نه (Grazed). فاصله در مدل ('Dist_T') به ریشه مربع تبدیل شد. لطفاً کسی می تواند به من بگوید که چگونه تخمین پارامترها را با CI آنها ترکیب کنم تا نوارهای اطمینان را ترسیم کنم؟ با تشکر از شما برای کمک شما! برآورد پارامتر جی از مدل عبارتند از: رهگیری: -1.557; CI=-3.034، -0.08 Dist_T: 0.097; CI=-0.017، 0.212 GrazedY: -1.898; CI=-4.17، 0.375 Dist_T:GrazedY: 0.182; CI=-0.038، 0.401 # فراوانی تخمینی که در آن grazing=N: PlotData <- data.frame(Dist_T=seq(from=min(Rat$Dist_T)، تا=max(Rat$Dist_T)، توسط = 0.1)) g < - -1.557 + 0.097*PlotData$Dist_T Rat.fitted <- exp(g)/(1+exp(g)) Dist.bt <- PlotData$Dist_T^2 نمودار (Rat$Dist، jitter(Rat$Rat، مقدار=0.02)، ylim=c(0,1)، cex =0.7, cex.lab=0.7, cex.main=0.4, ylab=احتمال گرفتن موش صحرایی، xlab=فاصله از لبه جنگل (m), pch=ifelse(Rat$Grazed==Y, 1,2), col=ifelse(Rat$Grazed==Y, grey,black)) خطوط (Dist.bt ,Rat.fitted, lty=1, col=black) # تخمینی فراوانی در جایی که grazing=Y: par(new=T) PlotData <- data.frame(Dist_T=seq(from=min(Rat$Dist_T)، to=max(Rat$Dist_T[Rat$Grazed==Y])، توسط = 0.1))#only رسم در محدوده; جایی که Grazed=Y g <- -1.557 + (0.097+0.182)*PlotData$Dist_T -1.898*1 #شرایط چرای اضافی و عبارت تعامل Rat.fitted <- exp(g)/(1+exp(g)) Dist. bt <- PlotData$Dist_T^2 نمودار(Rat$Dist, jitter(Rat$Rat, مقدار=0.05)، ylim=c(0,1)، xlab=, ylab=, type=n) خطوط (Dist.bt, Rat.fitted, lty=1, col=grey)  | ترسیم نوارهای اطمینان حول مقادیر برازش شده از یک GLMM دو جمله ای |
95757 | حدس میزنم نمیتوانم عنوان عمومیتری برای این سؤال انتخاب کنم. در اینجا چیزی است که من با آن سر و کار دارم: من یک جریان داده سری زمانی دارم که از چندین نقطه پایانی اندازه گیری وارد می شود. تعداد نقاط پایانی بین 2 تا 200 است. وضوح 10 ثانیه است اما من از مجموع 1 دقیقه استفاده می کنم. داده استفاده از CPU است، واحد درصد است. چیزی مانند: [endpointA: 10، endpointB: 12، endpointC: 5، ... endpointZ: 12] [endpointA: 6، endpointB: 20، endpointC: 17، ... endpointZ: 5] [endpointA: 3، endpointB: 9, endpointC: 19, ... endpointZ: 20] من باید نقاط پایانی بد رفتار را شناسایی کنم. رفتار نامطلوب این است که الگوی استفاده از CPU متفاوت از بقیه گره ها است. فقط با نگاه کردن به نمودار کاملاً واضح است، اما من باید آن الگوی قابل تشخیص انسانی آشکار را به یک نرم افزار ترجمه کنم. اولین رویکرد من این بود که STD را برای هر دقیقه تولید کنم و از 1.4 * (STD + میانگین) برای گره های بد رفتار استفاده کنم، اما این موارد مثبت کاذب زیادی را نشان می دهد زیرا داده ها بسیار تند هستند. من در تعجبم که بهترین روش برای جلوگیری از مثبت کاذب اما گرفتن همه افراد بد چیست. ایده های فعلی من: هر تکرار (دقیقه) فقط به یک نقشه هشمپ وارد می شود که برای هر گره ای که می بیند شمارنده دارد. اگر گره هشدار دهنده را مشاهده کردید شمارنده را افزایش می دهید، اگر آن را نمی بینید شمارنده را کاهش می دهید. اگر یک گره به شمارش شماره 3 برسد، آن را به عنوان یک گره بد شناسایی می کنید. به جای استفاده از STD برای هر دقیقه، من یک STD انباشته شده را در N گره نگه می دارم (N<5). اگر راه بهتری برای مقابله با جریانهای دادهای دارید، لطفاً آن را به اشتراک بگذارید. پیشاپیش از شما متشکرم. | شناسایی الگوها در جریان داده با حداقل حالت |
78269 | من دو نمونه مجموعه دارم، یکی مثبت و دیگری منفی است. اما، در هر یک از هر دو مجموعه، برخی نقاط پرت وجود دارد که به آن تعلق ندارند. آیا می توان از خوشه بندی زیرفضای Robust برای کمک به اصلاح دو مجموعه داده و حذف نقاط پرت استفاده کرد. من فقط می خواهم آن نمونه های محتمل باقی بماند. شاید Mixture of Gaussian بتواند این کار را انجام دهد. در این کار، تفاوت های RSC ang GMM چیست؟ با تشکر | آیا می توان از خوشه بندی زیرفضای قوی برای حذف نقاط پرت استفاده کرد؟ |
9431 | من یک رگرسیون لاجیت باینری را اجرا می کنم که در آن می دانم متغیر وابسته در درصد کمی از موارد به اشتباه کدگذاری شده است. بنابراین من سعی می کنم $\beta$ را در این مدل تخمین بزنم: $prob(y_i) = 1/(1 + e^{-z_i})$ $z_i = \alpha + X_i\beta$ اما به جای بردار $ Y$، من $\tilde{Y}$ دارم، که شامل برخی از خطاهای تصادفی است (یعنی $y_i = 1$، اما $\tilde{y_i} = 0$، یا vice برعکس، برای مقداری $i$). آیا یک اصلاح (معقولانه) ساده برای این مشکل وجود دارد؟ من می دانم که لاجیت در مطالعات مورد-شاهدی ویژگی های خوبی دارد. به نظر می رسد که چنین چیزی در اینجا صدق می کند، اما من نتوانستم راه حل خوبی پیدا کنم. چند محدودیت دیگر: این یک برنامه متن کاوی است، بنابراین ابعاد X$ بزرگ است (در هزاران یا ده ها هزار). این ممکن است برخی از روش های محاسباتی فشرده را رد کند. همچنین، من به تخمین درست $\alpha$ اهمیتی نمی دهم، فقط $\beta$. | چگونه می توانم خطای اندازه گیری در متغیر وابسته را در رگرسیون لاجیت تصحیح کنم؟ |
78260 | من باید بدانم چگونه می توانم تعداد افراد مورد نیاز در یک نظرسنجی را برای سطح اطمینان 99٪ در یک نفر بدست بیاورم؟ و تنها انحراف معیار جمعیت 15.4 است. | عدد مورد نیاز برای سطح اطمینان را از انحراف معیار جمعیت بیابید |
95751 | در سری های زمانی، پس از برازش یک مدل AR(p) به یک سری زمانی، هنگام بررسی مدل برازش شده، تست Ljung-Box را روی سری باقیمانده اعمال می کنیم. در سریهای زمانی مالی Tsay، یک معیار مناسب بودن $R^2$ وجود دارد:   نمی دانم که آیا محاسبه $R^2$ نیز بخشی از بررسی یک مدل مناسب است؟ یا برای چیز دیگری است؟ با تشکر | آیا محاسبه خوبی برازش بخشی از بررسی مدل در تحلیل سری های زمانی است؟ |
48124 | من 3 نقطه اندازه گیری دارم، N=4000، N=2000، N=3000 (هفته 0، هفته 6، هفته 12). هدف من تخمین اهمیت نسبی 14 رگرسیون بر روی یک متغیر وابسته است. اکنون می توانم این کار را به طور جداگانه برای هر نقطه زمانی انجام دهم، اما N برای تخمین اهمیت نسبی رگرسیون با چنین تعداد زیادی رگرسیون نسبتاً کوچک هستند. بنابراین من به سادگی به تجمیع شرکت کنندگان، وانمود کردن داده ها مقطعی و استفاده از N=4000+2000+3000 فکر کردم. بدیهی است که این فرض استقلال مشاهدات را نقض می کند، بنابراین من نباید این کار را انجام دهم. جایگزین ها؟ من نمی توانم از یک رگرسیون استفاده کنم که در آن زمان را به عنوان رگرسیون اضافه کنم زیرا هفته ششم تنگنا (فقط N=2000) منجر به حذف لیستی 50٪ از موضوعات می شود. | رگرسیون طولی: مشکل با حذف لیستی (تخمین اهمیت نسبی، R، بسته RelaImpo) |
109510 | فرض کنید من مجموعه داده ای مانند این مجموعه داده دارم که در آن چندین ویژگی متنی حتی ویژگی های پیوسته مانند سن وجود دارد. من همیشه با مواردی برخورد کردهام که k-nn فقط روی دو ویژگی اعمال میشود و همه آنها عددی هستند. چگونه می توانم k-nn را در مجموعه داده ای مانند آن به درستی اعمال کنم؟ | نحوه اعمال درست الگوریتم k-nn هنگام داشتن چندین ویژگی |
9299 | به من یک شبکه $n\times n$ از مقادیر صحیح مثبت داده شده است. این اعداد نشان دهنده شدتی است که باید با قدرت باور فردی که آن مکان شبکه را اشغال می کند مطابقت داشته باشد (مقدار بالاتر نشان دهنده باور بالاتر). یک فرد به طور کلی بر چندین سلول شبکه تأثیر می گذارد. من معتقدم که الگوی شدتها باید «گاوسی» به نظر برسد، زیرا یک مکان مرکزی با شدت بالا وجود خواهد داشت و سپس شدتها به صورت شعاعی در همه جهات کاهش مییابند. به طور خاص، من میخواهم مقادیر را بهگونهای مدلسازی کنم که از یک «گاوسی مقیاسشده» با یک پارامتر برای واریانس و پارامتر دیگری برای ضریب مقیاس. دو عامل پیچیده وجود دارد: * عدم وجود یک فرد به دلیل نویز پس زمینه و اثرات دیگر با مقدار صفر مطابقت ندارد، اما مقادیر باید کوچکتر باشند. اگرچه ممکن است آنها نامنظم باشند و در تقریب اول ممکن است مدلسازی به عنوان نویز ساده گاوسی دشوار باشد. * دامنه شدت می تواند متفاوت باشد. برای مثال، مقادیر ممکن است بین 1 تا 10 باشد، و در دیگری، بین 1 تا 100 باشد. اشاره به اینکه چرا من به طور کلی به این مشکل برخورد اشتباهی می کنم نیز قابل قدردانی است :). من در مورد کریجینگ و فرآیندهای گاوسی مطالعه کردهام، اما به نظر میرسد که این یک ماشین بسیار سنگین برای مشکل من است. | برآورد پارامترهای یک فرآیند فضایی |
9292 | کتاب خوبی که توزیع های مختلط را پوشش می دهد چیست؟ اکثر کتاب های آمار یا فقط به طور خلاصه به آنها اشاره می کنند یا اصلاً موضوع را پوشش نمی دهند. من مایلم منبع جامعی داشته باشم که مسائل مربوط به توزیع های مشترک را با متغیرهای گسسته و پیوسته، توزیع های شرطی و حاشیه ای در حالت مختلط و غیره پوشش دهد. | کدام کتاب ها را برای توزیع های ترکیبی (پیوسته و گسسته) پیشنهاد می کنید؟ |
9298 | یک مقاله ژورنالی روشی برای طراحی آزمایش ها دارد تا با یک مدل لجستیک 4 پارامتری مطابقت داشته باشد. مدل مورد استفاده $y= D + \frac{A - D}{1 + (\frac{x}{C}) ^ B}$ A = مجانب بالایی B = حداکثر شیب C = مقدار x زمانی که y = 50٪ است. حداکثر (یعنی 1/2 مجانب بالایی) D = مجانب پایینی با استفاده از داده های آزمایشی، آزمایش های بیشتر با قرار دادن تخمین های پارامتر اولیه در معادلات ارائه شده به طور بهینه طراحی می شوند. در مقاله با این حال، نرمافزار مدلسازی غیرخطی که من به آن دسترسی دارم، مدل لجستیک 4 پارامتری را به طور متفاوتی پارامتر میکند. مدل مورد استفاده $y = D + \frac{A - D}{1 + e^{B(x-C)}}$ هنگامی که پارامترها را از نرم افزار تخمین زدم، چگونه آنها را به پارامتر نمایی استفاده شده توسط نرم افزار؟ متشکرم. | تطبیق پارامترهای مختلف یک مدل غیرخطی یکسان |
63317 | من دانشجوی رشته مالی هستم و در رشته مالی ریسک اقلام مالی مختلف مانند قیمت سهام، درآمد و جریان نقدی و غیره را اندازه گیری می کنیم. این ریسک را یا از طریق انحراف معیار یا از طریق ARCH/GARCH اندازه گیری می کنیم و می توانیم سری های آن را تولید کنیم. ایده اصلی پشت سوال من این است که میخواهم بررسی کنم که آیا ریسک مرتبط با یک قلم مالی به اقلام مالی دیگر منتقل میشود یا خیر. این انحراف استاندارد یا سری ARCH/GARCH سری نوسانات برای اقلام مالی داده شده نامیده می شود. از این رو، من نوسانات یک اقلام مالی را بر نوسانات یک اقلام مالی دیگر عقب نشینی می کنم و چون دانشجوی اقتصاد سنجی نیستم، می خواهم بپرسم. آیا خوب است که نوسانات یک متغیر را بر نوسانات متغیر دیگر رگرسیون کنیم؟ رویه در داده های پانل چیست؟ مدل چیزی شبیه به این است: $$\mathrm{vol}(\text{جریانهای نقدی}) = a + b \times \mathrm{vol}(\text{درآمد}) + \epsilon$$ قطعاً سؤال من شامل سوالاتی که توسط COOLSERDASH ذکر شد: این مدل تا چه حد از نظر اقتصادی منطقی است. چگونه به عنوان یک روش پیش بینی کار خواهد کرد. آیا یک فرم تابعی خطی مدل خوبی است؟ | رگرسیون نوسانات یک متغیر بر نوسان متغیر دیگر |
99406 | من این داده ها را دارم: set.seed(1) predictor <- rnorm(20) set.seed(1) counts <- c(sample(1:1000, 20)) df <- data.frame(counts, predictor) I یک رگرسیون پواسون poisson_counts <- glm (شمارش ~ پیش بینی، داده = df، خانواده = poisson) و منفی رگرسیون دو جمله ای: require(MASS) nb_counts <- glm.nb(counts ~ predictor, data = df) سپس برای آمار پراکندگی رگرسیون پواسون محاسبه کردم: sum(residuals(poisson_counts, type=pearson)^2)/df .residual(poisson_counts) # [1] 145.4905 و دو جمله ای منفی رگرسیون: sum(residuals(nb_counts, type=pearson)^2)/df.residual(nb_counts) # [1] 0.7650289 آیا کسی قادر است بدون استفاده از معادلات توضیح دهد که چرا آمار پراکندگی برای رگرسیون دو جمله ای منفی به طور قابل توجهی قابل توجه است. کوچکتر از آمار پراکندگی برای رگرسیون پواسون؟ | چرا بقایای پیرسون از رگرسیون دو جمله ای منفی کوچکتر از رگرسیون پواسون است؟ |
63313 | من به یک مجموعه داده منتسب نیاز دارم (مثلاً برای ایجاد یک ساختگی گروه کشوری از دادههای درآمد سرانه کشوری). R بسته بستههایی را برای ایجاد دادههای ورودی چندگانه (به عنوان مثال Amelia) و ترکیب نتایج از مجموعه دادههای متعدد (مانند MItools) ارائه میکند. نگرانی من این است که آیا بتوانم میانگین تمام داده های منتسب شده را برای به دست آوردن یک مجموعه داده واحد به دست بیاورم. اگر چنین است، چگونه می توانم آن را در R انجام دهم؟ | چگونه مجموعه داده های چندگانه منتسب شده را ترکیب کنیم؟ |
95750 | بگویید باید **n** توزیع های عادی کوتاه شده را دو برابر $\textit{TNormal(μ,σ$^{2}$,0,1)}$ ترکیب کنم. علاوه بر این، هر توزیع دارای وزن **w** است. **w** نشان دهنده تأثیر توزیع در مخلوط است: بزرگترین **w**، بیشترین تأثیر آن در مخلوط است. مشکل محاسبه μ و σ$^{2}$ برای توزیع حاصل است (من همیشه از _0_ و _1_ به عنوان کران برای کوتاه کردن توزیع نرمال استفاده می کنم). این روشی است که من برای مخلوط کردن توزیعها استفاده میکنم: 1) برای هر _TNormal_، نمونهای دریافت میکنم که جامعه را به اندازه کافی خوب نشان میدهد. برای این منظور، من یک نمونه بزرگ (یعنی 100000 نمونه) دریافت می کنم. 2) من از معادله زیر برای محاسبه **μ$_{y}$** حاصل استفاده میکنم:  جایی که **X$_{i}$** نمونه ای از توزیعی است که باید مخلوط شود و **w$_{i}$** وزن آن است. کد R برای این است: «برای (i در 1:100000) {Y[i] = ((wA*A[i])+(wB*B[i]))/(wA+wB}» که در آن * *Y** نتیجه _μ_ است، **A** و **B** توزیعهایی هستند که باید مخلوط شوند، **wA** وزن توزیع **A** و **wB** است وزن برای توزیع **B** به عبارت دیگر، **μ$_{y}$** مجموعه ای از مقادیر است که با توجه به نمونه های توزیع های مختلط محاسبه می شود. * ) برای توزیع حاصل. 4) یک توزیع نرمال کوتاه شده دو برابر با میانگین محاسبه شده و واریانس انتخابی $\textit{TNormal(Y,σ$^{2}$,0,1)}$ که با استفاده از بسته R **truncnorm** آزمایش کردم، ایجاد کنید. این روش بر اساس این مقاله است. | آیا این روش برای اختلاط توزیع نرمال کوتاه شده دو برابر قابل قبول است؟ |
53407 | برای تعیین اینکه از چه تست هایی در SPSS استفاده کنم به کمک نیاز دارم. اجازه دهید پیش زمینه ای در مورد تحقیقات خود ارائه دهم: 1. من در حال انجام تحقیقی در مورد اتوماسیون سیستم مدیریت مرخصی در یک شرکت هستم (که هنوز از یک فرم کاغذی دستی برای درخواست مرخصی استفاده می کند). 2. فرضیه من اتوماسیون فرآیندهای مختلف (متغیرهای مستقل) را بر بهبود کلی فرآیند مدیریت مرخصی (وابسته) تایید می کند. متغیرهای کنترل من سن، جنس و گروه هستند. 3. من یک نمونه اولیه از یک سیستم تهیه کرده ام و یک پرسشنامه در قالب مقیاس لیکرت 5 درجه ای در اختیار شرکت کننده قرار داده ام. (کاملاً موافق، موافق، خنثی، مخالف، کاملاً مخالف). 4. سوالات پاسخ خود را در بیانیه ارائه شده در ارزیابی آزمون سیستم اندازه گیری می کند. این سوالات بر اساس فرضیه دسته بندی می شوند. از کجا شروع کنم؟ | از کدام آزمون آماری برای پرسشنامه مقیاس لیکرت استفاده کنیم |
53408 | من مشکل اثبات این را دارم که $$X=(1/\sigma^2) \sum_{i=1}^{n} Y_i ^2$$ جایی که $Y_i \sim N(0,\sigma^2)$ $\chi_n ^2$ است که با $E(X)=n$ توزیع شده است: اثبات من که $E(X)=n$: $$E(X)=E((1/\sigma^2) \sum_{i=1}^{n} Y_i ^2)= $$ $$\sigma^2=\sum_{i=1}^{n}(E(Y) - \bar Y)$$ $$ E(X)=E((1/\sum_{i=1}^{n}(E(Y) - \bar Y)) \sum_{i=1}^{n} Y_i ^2)= $$ اینجا من گیر کردم و انتقال به $E(X)=n$ را دریافت نکنید سوال من این است: چگونه به $E(X)=n$ برسیم؟ چگونه ثابت می کنید که $X$ $\chi_n ^2$ توزیع شده است؟ آیا می توان محدوده ای از اعداد را تصور کرد و آن را ترسیم کرد؟ من واقعا از پاسخ شما قدردانی می کنم!!! | اثبات توزیع $\chi_n ^2$؟ |
95755 | اگر یک فرآیند ARMA (یا فقط یک فرآیند AR(p)) ریشه واحد واقعی داشته باشد (به عنوان مثال 1 یا -1)، در این صورت تمایز مکرر آن باعث می شود که فرآیند متفاوت به طور ضعیف ثابت بماند. یک فرآیند ARMA (یا فقط یک فرآیند AR(p)) ممکن است ریشه های واحد پیچیده ای داشته باشد. اگر این اتفاق بیفتد، آیا تفاوت های مکرر می تواند فرآیند متفاوت را به طور ضعیف ثابت کند؟ با تشکر | آیا فرآیند ARMA با ریشه های واحد پیچیده را می توان با تفاضل ثابت کرد؟ |
109513 | من سعی می کنم یک مدل ARIMA را در مجموعه داده های مسکن قرار دهم. با بازی کردن با p و q توانستم یک مدل ARIMA (2,1,2,)(2,0,0) با مقدار AIC 4946.76 AIC=4946.76 بدست بیاورم از auto.arima استفاده کردم تا ببینم بهترین را انتخاب کردم یا نه مدل auto.arima مدل (2,1,3)(2,0,0) را انتخاب کرد که دارای مقدار AIC 4948.21=AIC بود. سپس به مقادیر هر دو مدل نگاه کردم تا ببینم تفاوت بین این دو وجود دارد. مدل ARIMA (2,1,2)(2,0,0) یک پیغام اخطار داشت: در sqrt(diag(x$var.coef)): NaNs تولید شده سوال من این است که چرا auto.arima (2) را انتخاب کرد ,1,3)(2,0,0) مدل به جای (2,1,2)(2,0,0)؟ | استفاده از AIC برای تعیین بهترین مدل ARIMA |
95752 | آزمون دیکی-فولر تقویت شده، همانطور که در سری زمانی مالی Tsay توضیح داده شده است:  به نظر می رسد رگرسیون انجام شده در آزمون فقط واقعی است. مقدار $\hat{\beta}$، بنابراین به نظر من آزمایش فقط وجود ریشه 1 یا -1 را آزمایش می کند. (آیا چیزی را از دست می دهم؟) یک مدل AR(p) می تواند غیر ثابت باشد زیرا ریشه واحد پیچیده ای دارد، بنابراین نمی دانم که آیا آزمایش دیکی-فولر تقویت شده وجود همه ریشه های واحد (از جمله ریشه های پیچیده، یعنی واحدهای غیر واقعی) را آزمایش می کند. ریشه)؟ | آیا آزمایش دیکی-فولر تقویت شده ریشه های واحد پیچیده را آزمایش می کند؟ |
53402 | من در حال بررسی OpenIntro Statistics [http://www.openintro.org/stat/textbook.php] بودم و با دو مطالعه موردی در فصل اول برخورد کردم. صفحه 65 چگونه به هم زدن کارت ها می تواند استقلال را تعیین کند. در مثال اول، میتوانم درک کنم که وقتی ۱۰۰ بار با افراد شبیهسازی میشود، تصادفیسازی کلی به ارتقای شانسی کمک میکند. یا، آیا من این را اشتباه می کنم و فقط کارت ها به هم می ریزند؟ با این حال، در مثال دوم افرادی هستند که زنده مرده اند. چگونه می توان کارت ها را به هم ریخت و تصادفی سازی کرد؟ چگونه تصادفی سازی برای تعیین استقلال یا همبستگی متغیرها انجام می شود؟ | تست تصادفی سازی برای همبستگی دو متغیر چگونه کار می کند؟ |
110192 | من در یادگیری ماشین کاملاً تازه کار هستم و در مورد کل فرآیند و تفسیر نتایج کمی مطمئن نیستم. **وظیفه:** من تصاویری با برخی از اشیاء تا حدودی همرنگ و یک شکل دارم که همپوشانی دارند و میخواهم تک تک اشیاء را با استفاده از یادگیری ماشین تقسیم کنم تا لبههای اشیاء مجاور را بدست بیاورم. **فرآیند فعلی:** برای هر تصویر یک فایل برچسب با پیکسلهای علامتگذاری شده وجود دارد که نشاندهنده لبه بین دو شی با هم تداخل هستند و علامت دیگری برای کل مناطق شی. برای هر پیکسل (پیکسل لبه مثبت و پیکسل شی منفی) مقادیر ویژگی ها را محاسبه می کنم و آموزش را شروع می کنم، یعنی یک درخت تقویت کننده با استفاده از OpenCV با استفاده از 80٪ از تصاویر. با طبقهبندیکننده آموزشدیده، «لبههای شی به شی» را برای 20 درصد سمت چپ پیشبینی میکنم و نتیجه پیشبینی را با دید انسانی خود تفسیر میکنم. در طول پردازش پس از پردازش، از برخی الگوریتمها استفاده میکنم تا با استفاده از نتیجه پیشبینی، تمام اشیاء را یکی یکی تقسیم کنم. **مشکل:** این فرآیند کم و بیش یک ابزار خط فرمان برای خواندن و نوشتن فایلهای پیکربندی و غیره است. من میخواهم چارچوبی با رابط کاربری گرافیکی بسازم تا طبقهبندیکنندههای مختلف را با پارامترهای متغیر، ویژگیها و اعتبارسنجی آموزش دهم. من در مورد نتایج پیش بینی که OpenCV ارائه می دهد مطمئن نیستم. در ابتدا فکر میکردم که با تصویری مواجه میشوم که با false یا true بستگی دارد که آیا پیکسل «لبه شی به شی» است یا نه، اما تصاویری را با تصاویر 8 بیتی با احتمالات دریافت کردم. برای تأیید خودکار یک طبقهبندیکننده آموزشدیده با اشاره به اندازهگیریهایی مانند حساسیت و ویژگی، باید یک آستانه ساده برای تعریف درست یا نادرست یک پیکسل انتخاب کنم و نتیجه را با فایل true/label اصلی مقایسه کنم. فکر میکنم سه احتمال دارم: * یک دسته از فرآیندهای آموزشی را شروع کنم، پیش بینی کنم، خودم به نتایج نگاه کنم * یک دسته از فرآیندهای آموزشی را شروع کنم، پیش بینی کنم، آستانه (شاید با استفاده از یک مقدار بر اساس برخی اندازهگیریهای آماری، زیرا طبقهبندیکنندههای مختلف شدت متفاوتی دارند. مقادیر)، اعتبارسنجی نتایج (شاید اعتبارسنجی متقابل) * یک دسته از فرآیندهای آموزشی را شروع کنید، پیش بینی کنید، مقداری از پس از پردازش تا زمانی که تقسیم بندی انجام شود، اعتبارسنجی کنید که اجازه دهید برنامه کار را انجام دهد البته خوب است، اما من حدس میزنم بهترین کار این است که پس از پردازش تا حد امکان کوتاه باشد تا از تداخل پارامترهای پس از پردازش با اعتبارسنجی جلوگیری شود. آیا کسی با OpenCV ML یا نکاتی در مورد چگونگی ایجاد فرآیند تجربه کرده است؟ چگونه با چنین وظیفه ای روبرو می شوید؟ با بهترین احترام! | فرآیند یادگیری ماشینی برای تشخیص لبههای اشیاء همپوشانی با OpenCV |
26732 | من سعی می کنم در مورد روش صحیح رگرسیون چند متغیره با داده های مکانی تصمیم بگیرم. من می خواهم یک رگرسیون را اجرا کنم که در آن متغیر وابسته عمق برف فعلی و متغیرهای مستقل شامل پارامترهای فیزیوگرافی (شیب، جهت، ارتفاع و غیره) و عمق برف برای همان سایت در سال های گذشته با استفاده از داده های روزانه باشد. هدف تولید یک مدل آماری است که با آن بتوانم عمق برف را در کل حوضه بر اساس پارامترهای فیزیوگرافی درون یابی کنم. در ابتدا میخواستم از یک MVR استاندارد استفاده کنم، اما با رگرسیون وزندار جغرافیایی (GWR) مواجه شدم، که فکر میکنم مناسبتر است زیرا عمق برف از نظر مکانی بسیار همبسته است. مرحله سوم، پس از ایجاد یک مدل و درون یابی، توزیع باقیمانده هایی است که در نقاطی که عمق برف را می شناسم، دارم. یک رویکرد رایج در ادبیات، وزندهی معکوس فاصلهای مبتنی بر ارتفاع است. 1. آیا استفاده از MVR به جای GWR نادرست است؟ 2. اگر من از GWR استفاده کنم، آیا باز هم توزیع باقیمانده ها منطقی است؟ از آنچه من خواندم، GWR از قبل بر خلاف MVR شامل برخی اصلاحات برای باقیمانده های اجتناب ناپذیر است. لطفا اگر اشتباه می کنم یا به نظر می رسد چیزی را اشتباه متوجه شده ام، اصلاح کنید. من با آمار فضایی کاملاً تازه کار هستم. بیشتر دانش GWR من از رگرسیون وزندار جغرافیایی میآید. | رگرسیون چند متغیره برای مجموعه داده های فضایی |
112444 | من تفسیر زیر را از احتمال و استنتاج بیزی دارم (بدون اشاره به نظریه اندازه گیری، هنوز در ابتدای یادگیری آن هستم): فرض کنید ما پنج متغیر تصادفی $x_1,x_2,x_3,x_4,p$ داریم که به صورت در مدل گرافیکی زیر:  اجازه دهید فرض کنید ما قبلاً $x_1,x_2,x_3$ را مشاهده کردهایم و میخواهیم استنتاج بیزی روی متغیر $x_4$ انجام دهیم. ما یک تابع چگالی احتمال قبلی $p(p)$ را برای پارامتر $p$ فرض می کنیم و فرض می کنیم که هر $x_i$ از توزیع $f(x_i|p)$ تولید می شود. سپس با توجه به فرضیات ما در مورد توزیع قبلی $p$ و توزیع مولد $f$، فضای نمونه $\Omega$ را در نظر می گیریم که شامل تمام تاپل های ممکن $(x_1,x_2,x_3,x_4,p)$ و هر کدام است. برآیند واحد $\omega$ دارای مقدار احتمالی است که مطابق با تفسیر بیزی احتمال سپس با توجه به تعریف فضای احتمال، مجموعه رویداد $\mathcal{F}$ را نیز داریم. این فضا و اندازهگیریهای احتمال آن شامل توزیع قبلی $p(p)$ و توزیعهای $f(x_i|p)$ و استقلال $x_i$s دادهشده $p$ است. من فرض میکنم که یکی از این نتایج، $\omega$ انتخاب شده است و همه رویدادها در $\mathcal{F}$ که حاوی $\omega$ هستند بهعنوان رویداد در نظر گرفته میشوند. در عمل، ما هرگز نمی توانیم مقدار پارامتر $p$ را در نتیجه انتخاب شده، $\omega$ مشاهده کنیم. اما ما میتوانیم برخی از $x_i$s را که دادههای ما را تشکیل میدهند، مشاهده کنیم، برای مثال $D=(x_1,x_2,x_3)$. سپس گستردهترین استنتاجی که میتوانیم در مورد $x_4$ انجام دهیم، محاسبه توزیع پسین $p$ با توجه به دادهها و سپس ادغام بر روی تمام مقادیر منفرد ممکن از $p$ است، که ممکن است دادههای $x_1,x_2,x_3$ تولید شوند. و متغیر هدف $x_4$ مانند شکل زیر: $$ P(x_4|x_1,x_2,x_3) = \int_{p} f(x_4|p) P(p|x_1,x_2,x_3) dp$$ این کم و بیش تصور من از نحوه کار احتمال بیزی و استنتاج را تشکیل می دهد. آیا این دیدگاه درست است؟ اگر نه، چه اشکالی دارد؟ | آیا تفسیر من از احتمال و استنتاج بیزی درست است؟ |
78265 | من اخیراً سؤالی در مورد پارادوکس سیمپسون پرسیدم. فرض کنید ما نگران انتخاب برخی از عناصر دلخواه یک جمعیت هستیم. به یاد بیاورید که پارادوکس سیمپسون زمانی به وجود می آید که پاسخ پیشنهاد شده توسط داده های کل با پاسخ پیشنهاد شده زمانی که داده ها به دو گروه فرعی تقسیم می شوند و به طور جداگانه به آنها نگاه می شود متفاوت باشد. برای جزئیات به سوال قبلی من مراجعه کنید. هر دو پاسخی که دریافت کردم، من را با نتیجهگیری که توسط جمعیتهای فرعی ارائه شده است، پیشنهاد میکند. آنها به درستی خاطرنشان کردند که دادههای کل اشتباه است و نتیجهگیری پیشنهاد شده توسط زیرجمعیتها را با استفاده از یک طرح عادیسازی توجیه میکنند. یک مثال عادی سازی در انتهای این پاسخ آورده شده است. رویکرد عادی سازی به عنوان توجیهی برای جانبداری از نتیجه گیری خرده جمعیت در این مدخل دایره المعارف فلسفه استنفورد مورد بحث قرار گرفته است. یکی از راههای مقابله حسابی با این مشکل، «نرمالسازی» نمایش دادهها از جمعیتهای فرعی و تنها ادغام نمایشهای نرمال شده دادهها است. عادیسازی دادهها با ارائه مخرجهای ثابت برای کسری که نشاندهنده دادهها هستند، و با نمایش زیرجمعیتهایی که مقایسه میشوند بهگونهای که گویی از نظر اندازههای مربوطه از نظر اندازهای برابر هستند، مقابله میکند. مقایسه کرد. با این حال، معکوسهای سیمپسون نشان میدهد که روشهای متعددی برای تقسیمبندی یک جمعیت وجود دارد که با انجمنهای موجود در کل جمعیت سازگار است. تقسیم بندی بر اساس جنسیت ممکن است نشان دهد که هم مرد و هم زن > هنگام دریافت درمان جدید، وضعیت بدتری داشته اند، در حالی که تقسیمی از > همان جمعیت بر اساس سن نشان می دهد که بیماران زیر پنجاه سال، و بیماران > پنجاه و بالاتر، هر دو با توجه به درمان جدید، وضعیت بهتری داشته اند. . عادی سازی داده ها از روش های مختلف پارتیشن بندی یک جمعیت، نتایج ناسازگاری را در مورد انجمن هایی که در کل جمعیت وجود دارد ارائه می دهد. بنابراین، به نظر می رسد که کنار آمدن با نتیجه گیری پیشنهاد شده توسط جمعیت فرعی بر این اساس کاملاً خودسرانه است. پارتیشن های مختلف نتایج متفاوتی را تولید می کنند. ما میتوانیم دادهها را به هر طریقی که دوست داریم برش دهیم - بدون اطلاعات قبلی، به نظر میرسد هیچ روش اصولی برای ترجیح دادن نتیجهای که توسط یک پارتیشن بر اساس سن پیشنهاد میشود به نتیجهگیری که توسط یک پارتیشن براساس جنسیت پیشنهاد میشود، وجود ندارد. آیا من درست فکر می کنم که استفاده از رویکرد عادی سازی، به دلایلی که در بالا ذکر شد، پارادوکس سیمپسون را به نفع نتیجه گیری زیرجمعیت حل نمی کند؟ ویرایش: اکنون متوجه شدم که هیچ مشکل خاصی در این مورد وجود ندارد. اگر به دو تقسیم سنی و جنسیتی دسترسی دارید، از هر دو استفاده کنید تا بهترین نتیجه را بگیرید. من نگران یک مورد فرضی بودم که در آن دکتر A فقط تقسیم سنی داشت و دکتر B فقط تقسیم جنسیتی داشت، بنابراین آنها استنباط های مختلفی کردند. اما جای تعجب نیست که این مورد است، زیرا آنها با استفاده از اطلاعات مختلف استنباط می کنند. همچنین به نظر می رسد که من پاسخ هایی را که به من داده شده اند کمی اشتباه تفسیر کرده ام. معذرت میخوام | سوالی در مورد حل پارادوکس سیمپسون با عادی سازی |
37973 | من یک مدل رگرسیون خطی ساده را با 4 پیشبین برازش میکنم: «lm(نتیجه ~ Predictor1 + Predictor2 + Predictor3 + Predictor4, data=dat.s)». [طرح پراکنده پیش بینی ها و residuals](http://i.stack.imgur.com/CNLJz.png) مدل به وضوح مقادیر کم را بیش از حد تخمین می زند و مقادیر بالا را دست کم می گیرد، اما برآورد اشتباه بسیار خطی است -- به نظر می رسد که مدل باید قادر باشد فقط شیب را تنظیم کنید و داده ها را بهتر جا دهید. چرا این اتفاق نمی افتد؟ در صورتی که کمک کند، در اینجا نمودارهای پراکنده نتیجه در برابر هر یک از چهار پیش بینی کننده آورده شده است:  با استفاده از بسته `car`` تابع outlierTest هیچ نقطه پرت را شناسایی نکرد. | چرا باقیمانده ها در این مدل اینقدر به صورت خطی منحرف هستند؟ |
37977 | من به دنبال یک کتابخانه جاوا خوب هستم که چندین الگوریتم خوشه بندی را پیاده سازی کند. من باید ردپای اجرای برنامهها را خوشهبندی کنم و هنوز نمیدانم به کدام الگوریتمها نیاز خواهم داشت، بنابراین میخواهم از کتابخانهای استفاده کنم که تعداد زیادی از آنها را فراهم میکند و این کار تعویض الگوریتمها را آسان میکند. تا کنون نگاهی به Weka انداختم اما نمیدانم که آیا کتابخانه کاملتری در دسترس است یا نه. | خوشه بندی خوب کتابخانه جاوا |
92409 | من یک دسته تست همبستگی دو متغیره دارم که $R$ قبلاً برای آنها محاسبه شده است. آیا می توان مقدار p برای هر $R$ را فقط با دانستن (علاوه بر) تعداد نقاط داده $n$ بدست آورد؟ اگر نه، پس چه چیز دیگری باید بدانم و چگونه آن را محاسبه کنم؟ (من همچنین نتایجی برای رگرسیون های دو متغیره دارم، از جمله F، سیگما، ضریب، ضریب سیگما، رهگیری، سیگما قطع اگر مفید باشد). | مقدار p را برای R پیرسون محاسبه کنید |
54750 | من یک مجموعه داده پانل با نمونه ای از 800 گروه دارم که هر گروه بین 200 تا 500 مشاهده دارد. داده ها به این شکل هستند:  متغیر وابسته دو جمله ای است: `close_gp30_f30`. متغیرهای مستقل نرخ رشد مستمر هستند. خلاصه مثالی از یکی از این موارد این است: close_g1 ---------------------------------------- --------------------- درصدها کوچکترین 1% -.0789325 -.9908884 5% -.0396762 -.9907975 10% -.0256917 -.990625 Obs 2993902 25% -.0096911 -.9904597 مجموع Wgt. 2993902 50% 0 Mean 0.0015124 Largest Std. توسعه دهنده 0.3472223 75% Kurtosis 266732.5 من میخواهم این رگرسیون آزمایشی را اجرا کنم: xtset ticker_id date xtlogit close_gp30_f30 close_g1 close_g10 close_g15 close_g30 close_g60 close_g120 اگر ticker_grp == 0، fee، زمانی که من متغیرهای stuck را به حدود و 5 اضافه نمیکنم. در یک حلقه از تکرارهای پشتیبانگیری شده، مانند: . xtlogit close_gp30_f30 close_g1 close_g10 close_g15 close_g30 close_g60 close_g120 اگر ticker_grp == 0، fe توجه داشته باشید: چندین پیامد مثبت در گروهها با آن مواجه شدهاند. توجه: 11 گروه (272 obs) به دلیل همه پیامدهای مثبت یا منفی حذف شدند. تکرار 0: احتمال ثبت = -175837.76 تکرار 1: احتمال ثبت = -175015.93 تکرار 2: احتمال ورود به سیستم = -175006.84 تکرار 3: احتمال ثبت = -175002.6 تکرار 4: تکرار 1795-1 5: احتمال ثبت = 175001.69- (پشتیبان گیری) تکرار 6: احتمال ثبت = 175001.69- (پشتیبان گیری) تکرار 7: احتمال ثبت = 175001.69- (پشتیبان گیری) تکرار 8: احتمال ثبت = 179501- پشتیبان گیری شده. لاگ احتمال = -175001.69 (پشتیبان گیری) تکرار 10: احتمال گزارش = -175001.69 (پشتیبان گیری) تکرار 11: احتمال گزارش = 175001.69 - (پشتیبان گیری شده) تکرار 12: احتمال ثبت = -175001.69 = لایک175001:39 (لایک شده) -175001.69 (پشتیبانگیری شده) تکرار 14: احتمال گزارش = -175001.69 (پشتیبانگیری شده) تکرار 15: احتمال گزارش = 175001.69 - (پشتیبانگیری شده) تکرار 16: احتمال ثبت = -175001.69 = لایک1.69 -175001.69 (پشتیبان گیری شده) تکرار 18: احتمال گزارش = -175001.69 (پشتیبان گیری) تکرار 19: احتمال گزارش = -175001.69 (پشتیبان گیری شده) تکرار 20: احتمال ثبت = -175001.69 = لایک شده -175001.69 (پشتیبانگیری شده) تکرار 22: احتمال گزارش = -175001.69 (پشتیبانگیری) تکرار 23: احتمال گزارش = 175001.69 - (پشتیبانگیری شده) تکرار 24: احتمال ثبت = -175001.69 (لایکشده -175001:5) -175001.69 (پشتیبان گیری شده) تکرار 26: احتمال گزارش = -175001.69 (پشتیبان گیری) تکرار 27: احتمال ثبت = 175001.69 - (پشتیبان گیری شده) تکرار 28: احتمال ثبت = -175001.69 = لایک شده 27 -175001.69 (پشتیبانگیری شده) تکرار 30: احتمال گزارش = -175001.69 (پشتیبانگیری شده) تکرار 31: احتمال گزارش = 175001.69 - (پشتیبانگیری شده) تکرار 32: احتمال ثبت = -175001.69 (لایکشده) -175001.69 (پشتیبانگیری شده) تکرار 34: احتمال گزارش = -175001.69 (پشتیبانگیری) تکرار 35: احتمال گزارش = -175001.69 (پشتیبانگیری شده) تکرار 36: احتمال ثبت = -175001.69 (پشتیبانگیری شده) ) من همچنین این رگرسیون را با فعال بودن تمام اطلاعات اشکال زدایی مجدداً اجرا کرده ام، این اطلاعات زیادی است اما ممکن است پاسخی در مورد عدم همگرایی آن ارائه دهد. توجه داشته باشید که در اینجا من روی مقادیر استاندارد شده متغیرهای مستقل پسرفت کردم، اما این دقیقاً همان تأثیر را داشت (به دلایلی امیدوار بودم که مشکل من را حل کند). http://pastebin.com/YU0EEkJt **سوالات اصلی** من عبارتند از: 1. چرا همگرا نیست؟ 2. چگونه می توانم این وضعیت را حل کنم؟ ** به روز رسانی: بررسی های چند خطی ** . colin close_g1 close_g3 close_g5 close_g15 close_g30 close_g60 close_g70 close_g80 close_g90 close_g100 (obs=3146949) تشخیص خطی SQRT R- متغیر VIF VIF تحمل مربع ------------------------------------------------ -- close_g1 1.17 1.08 0.8564 0.1436 close_g3 1.22 1.11 0.8169 0.1831 close_g5 1.25 1.12 0.7979 0.2021 close_g15 1.35 1.16 0.7396 0.2604 close_g30 1. | رگرسیون لجستیک پنل باینری (اثرات ثابت xtlogit) در Stata همگرا نیست، چگونه حل کنیم؟ |
10211 | من یک مدل معادلات ساختاری (SEM) را در آموس 18 اجرا میکنم. من به دنبال 100 شرکتکننده برای آزمایش خود بودم (مستقل استفاده میشد)، که احتمالاً برای انجام موفق SEM کافی نیست. بارها به من گفته شده است که SEM (همراه با EFA، CFA) یک روش آماری نمونه بزرگ است. به طور خلاصه، من به 100 شرکتکننده نرسیدم (چه شگفتانگیز!)، و تنها 42 شرکتکننده پس از حذف دو نقطه داده مشکلساز دارم. از روی علاقه، به هر حال مدل را امتحان کردم و در کمال تعجب، به نظر می رسید که بسیار مناسب است! CFI >.95، RMSEA <.09، SRMR <.08. مدل ساده نیست، در واقع، می توانم بگویم نسبتا پیچیده است. من دو متغیر پنهان دارم، یکی با دو مشاهده شده و دیگری با 5 متغیر مشاهده شده. من همچنین چهار متغیر مشاهده شده اضافی در مدل دارم. روابط متعددی بین متغیرها وجود دارد، غیرمستقیم و مستقیم، به عنوان مثال، برخی از متغیرها درونزا برای چهار متغیر دیگر هستند. من تا حدودی در SEM جدید هستم. با این حال، دو نفری که من می شناسم و کاملاً با SEM آشنا هستند به من می گویند که تا زمانی که شاخص های تناسب خوب باشند، اثرات قابل تفسیر هستند (تا زمانی که قابل توجه باشند) و هیچ چیز به طور قابل توجهی اشتباه در مدل وجود ندارد. من میدانم که برخی از شاخصهای تناسب از نظر نشان دادن تناسب خوب، موافق یا علیه نمونههای کوچک هستند، اما سه موردی که قبلاً ذکر کردم، خوب به نظر میرسند، و معتقدم بهطور مشابهی مغرضانه نیستند. برای آزمایش اثرات غیرمستقیم، من از bootstrapping (2000 نمونه یا بیشتر)، 90 درصد تعصب اصلاح شده اطمینان، مونت کارلو استفاده میکنم. یک نکته اضافی این است که من سه SEM مختلف را برای سه شرایط مختلف اجرا می کنم. من دو سوال دارم که مایلم برخی از شما آنها را در نظر بگیرید و لطفاً اگر چیزی برای مشارکت دارید به آنها پاسخ دهید: 1. آیا نقاط ضعف قابل توجهی در مدل من وجود دارد که با شاخص های برازش نشان داده نمی شود؟ نمونه کوچک به عنوان نقطه ضعف مطالعه برجسته خواهد شد، اما من در تعجب هستم که آیا مشکل آماری بزرگی وجود دارد که من کاملاً از آن غافل هستم. من قصد دارم 10 تا 20 شرکتکننده دیگر در آینده داشته باشم، اما همچنان نمونهای نسبتاً کوچک برای چنین تحلیلهایی برایم باقی میگذارد. 2. آیا با توجه به نمونه کوچکم یا زمینه ای که از آن استفاده می کنم، مشکلی در استفاده من از bootstrapping وجود دارد؟ امیدوارم این سوالات برای این انجمن خیلی اساسی نباشند. من تعدادی از فصل ها را در مورد SEM و موضوعات مرتبط خوانده ام، اما می بینم که مردم از نظر نظرات در این زمینه بسیار پراکنده هستند! به سلامتی | عوارض داشتن نمونه بسیار کوچک در مدل معادلات ساختاری |
30987 | من سعی می کنم معادله زیر را تخمین بزنم: $$Y_{i,t+1}=(λβ)X_{i,t}^{'}+(1-λ)Y_{i,t}+\epsilon_{i ,t+1}$$ اما من نمیدانم چگونه میتوان تخمین $\lambda$ را پیدا کرد، مخصوصاً زیرا $X'$ متشکل از چندین متغیر است. در این معادله $\lambda$ یک اسکالر و $\beta$ یک بردار است. آیا کسی می تواند من را در جهت درست از نظر نوع مدل راهنمایی کند؟ من از Stata 12 برای این مشکل استفاده می کنم و اطلاعات من یک پنل نامتعادل است. با تشکر | مشکل برآورد در مدل اقتصادسنجی |
103529 | من یک مدل پیوند تجمعی را روی یک متغیر پاسخ مرتب اجرا میکنم که نشاندهنده یک مقدار ترجیحی تخصیص یافته بین 0 تا 4 است. تنظیم تحقیق من پرسشنامهای است که در آن از پاسخدهندگان خواسته میشود یک سناریوی همکاری را رتبهبندی کنند (نمره بالاتر به معنای سناریوی ارجحتر است. من قبلاً میدانم که عناصر سناریویی خاص (مثلاً بودجه) در تعیین امتیازات ترجیحی کریستنسن بسیار تأثیرگذار هستند (2013) در ضمیمه تحلیل داده های ترتیبی خود پیشنهاد می کند که اضافه کردن وزن با استفاده از فراوانی یک متغیر مهم در روش CLM می تواند معقول باشد (یا حداقل من از برخی مثال ها چنین استنباط می کنم). بر اساس فراوانی انواع مختلف بودجه (4 نوع در 1515 مشاهده: tab2 <- data.frame(با(dt, tapply(dt$dum,funding,sum))) tab2$z <- rownames(tab2) colnames(tab2) <- c(fundweight،group) dt$fundweight <- tab2$fundweight[match(dt$ funding,tab2$group)] موارد زیر هنگام اضافه کردن این وزنها به مدل قبلی (anova خروجی) اتفاق میافتد. بنابراین تنها تفاوت وجود یا عدم وجود وزنها است: AIC از 4510 به 1683600 میرود، Log Likelihood از 2223- به 841768- میرود. در حالی که به نظر می رسد اینها به وضوح نشان می دهد که وزنه ها بسیار مشکل ساز هستند، من واقعاً نمی دانم چرا این اتفاق می افتد. علاوه بر این، تقریباً همه متغیرهای کمکی در مدل من هنگام اضافه کردن وزنها بسیار مهم میشوند که به نوعی تعداد مشاهدات من را از 1515 = n به 574303 = n افزایش میدهد. من هیچ اطلاعاتی در اطلاعات بسته و یا در آموزش CLM در مورد اینکه این وزن ها واقعاً چه چیزی را نشان می دهند و چرا چنین تأثیر گسترده ای بر نتایج دارند، پیدا نکردم. هر اشاره ای بسیار خوش آمدید! پیشاپیش ممنون سیمون | وزن ها در مدل های پیوند تجمعی - بسته ترتیبی |
54753 | پسری در آزمون خود 88 گرفت که میانگین نمره 64 با SD 8 است. او در امتحان دوم که میانگین امتیاز آن 45 و SD بود 5 بود. او نمره نسبتاً 55 را گرفت. استاد برای گرفتن آزمون دوم خود از رگرسیون استفاده کرد. نشانه ها چه ارتباطی بین 2 امتحان وجود داشت؟ $$ \hat{z}_y = r z_x $$ و من مقادیر $$\hat{z}$$ را از فرمول $$ \frac{x-\bar{x}}{s_x} $$ برای x محاسبه کردم و y (پیش بینی شده) در این مورد. جوابی که گرفتم 0.66 است. آیا این کار را درست انجام می دهم؟ P.S: من واقعاً ممنون می شوم اگر به تفصیل پاسخ داده شود. | وقتی SD و میانگین داده می شود، همبستگی را پیدا کنید |
109517 | اطلاعات متقابل (MI) چه چیزی را منتقل می کند؟ به دنبال کتاب های مرجع خوب در زمینه تئوری اطلاعات هستید | سوال مفهومی در مورد اطلاعات متقابل و آنتروپی |
113076 | من یک تحلیل همبستگی برای متغیرهایم انجام دادم. همه آنها مرتبط هستند (ضریب بالای 0 است). با این حال، در تجزیه و تحلیل رگرسیون من مشکلی وجود ندارد. نمیدونم چطوری توضیح بدم؟ فکر میکنم در مورد تحلیل همبستگی و همخطی گیج شدهام... اما اگر ضریب بالای 0 باشد، نشان میدهد که یک ارتباط وجود دارد، چرا مشکل هم خطی در تحلیل رگرسیون نشان داده نمیشود؟ به هر حال، تفاوت بین تحلیل رگرسیون و تحلیل همبستگی چیست؟ | همبستگی و هم خطی در رگرسیون |
30989 | من یک سوال در مورد زمان مورد نیاز برای آموزش یک طبقه بندی دارم. من با مشکل خاص تحلیل احساسات (طبقه بندی متن به عنوان pos/neg/neu) مواجه هستم. (به استثنای الگوریتم های یادگیری آنلاین) از آنجایی که مرحله آموزش یک طبقه بندی کننده معمولاً فقط یک بار و به صورت آفلاین انجام می شود، در نهایت آیا واقعاً اهمیت دارد که چقدر زمان برای آموزش نیاز دارد؟ اگر قرار است طبقهبندیکننده بر روی یک تلفن همراه یا یک پلتفرم محدود به منابع آموزش داده شود، کاهش چنین زمان آموزشی همچنان منطقیتر خواهد بود، هرچند... پیشاپیش متشکرم. | زمان یادگیری ماشین و آموزش: آیا واقعاً مرتبط است؟ |
26733 | من برنامه ای دارم که توزیع های ظاهراً عادی را تولید می کند و می خواهم آن را آزمایش کنم. من یک سری مسائل دارم؛ شاید کارشناسان در اینجا به من کمک کنند تا موارد ضروری را از غیر ضروری جدا کنم و به اکثر آنها پاسخ دهم. 1. من به دنبال یک تست ساده هستم، در حالت ایده آل -- تستی که بتوانم بدون دردسر زیاد آن را اجرا کنم. 2. ممکن است بین مقادیر مجاور همبستگی وجود داشته باشد. در صورتی که داده ها به طور معمول توزیع شوند، ممکن است برخی از تست ها به این شکست حساس نباشند. 3. در حالت ایدهآل، من میخواهم مقداری (کم!) غیر عادی را مجاز کنم. اکثر تستهایی که من دیدهام اجازه میدهند تا دادههای کمی غیرعادی تنها به این دلیل که تعداد کمی از مقادیر آزمایش شدهاند (که در آن «کوچک» ممکن است به معنای میلیونها باشد، بسته به اندازه انحراف، عبور کند. این یادآور این سوال در مورد ارزش تست نرمال بودن است. | چگونه می توان تأیید کرد که داده های شبیه سازی شده به طور معمول توزیع شده اند؟ |
54757 | من در مورد مرگ و میر تحقیق می کنم. من رگرسیون کاکس را اجرا می کنم و 40 متغیر را تنظیم می کنم که در ادبیات ثابت شده است که با مرگ و میر مرتبط هستند. نوردهی اصلی من X است. در مدل نهایی من 19 متغیر دارم که قابل توجه هستند و نوردهی من غیر قابل توجه است. سپس آخرین تحلیل را شامل شرایط تعامل بین قرار گرفتن در معرض من و 19 متغیر کمکی که در مدل نهایی معنادار یافتم، امتحان کردم، که تنها یک عبارت تعاملی معنیدار بود. ضریب نوردهی اصلی من را حدود 40 درصد تغییر می دهد و آن را قابل توجه می کند. آیا این رویکرد خوبی است و آیا باید عبارت تعامل را در مدل حفظ کنم؟ | آیا باید اصطلاح تعامل را حفظ کنم؟ |
92402 | من یک مشکل دارم که در آن 4 گروه از افراد در عملکرد خود در یک آزمون خاص با هم مقایسه می شوند. یک روش anova نشان می دهد که آنها در واقع متفاوت هستند. اما من همچنین می دانم که گروه های من در برخی متغیرهای کمکی دیگر (مثلاً سن) متفاوت هستند. میخواهم ببینم که اگر من برای سن و غیره «تنظیم» کنم، این تفاوتها همچنان قابل توجه هستند. وقتی یک رگرسیون را اجرا میکنم به من نشان میدهد که یکی از سطوح «معنیدار» است اما 2 سطح دیگر نیست (1 مرجع است، من حدس بزنید). رهگیری نیز قابل توجه است، اما به هر حال همیشه وجود دارد. اگر مدل را بدون عبارت ثابت و با 3 متغیر ساختگی اجرا کنم، هر 3 معنی دار هستند. چگونه این نتایج را تفسیر کنم؟ با تشکر | نحوه کدنویسی و تفسیر یک رگرسیون با متغیرهای طبقه ای 4 سطحی و متغیرهای کمکی پیوسته |
10210 | فرض کنید می خواهید برخی از اشیاء، مثلا اسناد، یا جملات یا تصاویر را خوشه بندی کنید. از جنبه فنی، ابتدا این شیء را به نحوی نشان می دهید تا بتوانید فاصله بین آنها را محاسبه کنید، و سپس آن نمایش ها را به برخی از الگوریتم های خوشه بندی تغذیه می کنید. با این حال، از نظر خارجی، شما فقط می خواهید اشیاء مشابه (به تعبیری_ \-- و اینجاست که همه چیز برای من بسیار مبهم می شود) را با هم گروه بندی کنید. به عنوان مثال، در مورد جملاتی که می خواهیم خوشه ها حاوی جملاتی در مورد موضوع/مفهوم مشابه باشند. ما احساس می کنیم که جملات اوه به این عکس از یک لولکت ناز نگاه کن و فیس بوک ویژگی درخشان جدیدی را امشب نشان داد باید در خوشه های مختلف باشد. رویکردهای معمول برای اندازه گیری این کیفیت خارجی خوشه بندی چیست؟ یعنی ما می خواهیم اندازه گیری کنیم که روش خوشه بندی ما چگونه اشیاء اولیه (جملات، تصاویر) را گروه بندی می کند. ما به معیارهای داخلی علاقه ای نداریم (مانند شعاع متوسط خوشه، پراکندگی خوشه ها)، زیرا این معیارها با نمایش اشیا سروکار دارند، نه با اشیاء واقعی. به این معنی که نمایش انتخاب شده ممکن است افتضاح باشد، و حتی اگر معیارهای داخلی عالی باشد، از نظر بیرونی، ما به خوشههایی خواهیم رسید که از دیدگاه مبهم، ذهنی و «تا حدی حسی» ما کاملاً آشغال هستند. P.S. با داشتن دانش محدود در حوزه خوشهبندی، گمان میکنم که ممکن است در مورد چیزهای واقعاً واضح سؤال کنم، یا ممکن است اصطلاحات من برای متخصصان خوشهبندی عجیب به نظر برسد. اگر چنین است، لطفا راهنمایی کنید که در مورد این موضوع چه بخوانم. P.P.S. فقط در مورد، من همان سوال را در Quora پرسیدم: http://www.quora.com/How-to-evaluate-external-quality-of-clustering | چگونه کیفیت خارجی خوشه بندی را ارزیابی کنیم؟ |
63311 | با عرض پوزش، من یک نوب آمار بزرگ هستم. من به دنبال یافتن احتمال وقوع یک رویداد خاص در یک آزمایش دو جمله ای هستم. من در هر آزمون چند هزار نمونه می گیرم و سپس احتمالات را محاسبه می کنم. مشکل این است که احتمالات تجربی به مقدار کمی تغییر می کنند. بنابراین من شروع به ترسیم احتمالات تجربی به عنوان تابعی از حجم نمونه کردم. وقتی به نمودارهای این «میانگینهای تجمعی» نگاه میکنم، روندی که مشاهده میکنم این است که احتمالات تجربی در ابتدا به شدت تغییر میکنند و سپس کاهش مییابند و حول احتمال واقعی نوسان میکنند. با این حال، من نمی توانم در هر آزمون نمونه های کافی برای مشاهده یک همگرایی خط مستقیم به دست بیاورم. سوال من: آیا می توانم میانگین این میانگین های تجمعی را که ترسیم کرده ام برای تخمین دقیق تری از احتمال رویداد واقعی خود محاسبه کنم؟ و اگر بتوانم بهتر است از میانگین وزنی استفاده کنم - مانند وزن دادن بیشتر به احتمالات با استفاده از تعداد نمونه های بیشتر و وزن کمتر به احتمالات با استفاده از تعداد نمونه های کمتر؟ یا شاید حتی میانگین احتمالات تجربی را که شروع به همگرایی بسیار دقیق می کنند، در نظر بگیرید. با تشکر | آیا گرفتن میانگین میانگین تجمعی صحیح است؟ |
103527 | فرض کنید من یک مجموعه داده دارم که بازیکنان بسکتبال را به من نشان می دهد: لیستی از بازی های آنها که شامل تاریخ، تعداد شوت هایی که زده اند و تعداد شوت هایی که زده اند. به عنوان مثال: 1.10.1992 مایکل جردن 12 شوت زد - 6 گل زد. من می خواهم با استفاده از مجموعه داده های تاریخی، میزان موفقیت آنها در بازی های بعدی را پیش بینی کنم. بهترین راه برای انجام آن چیست؟ مدل واقعی که من آن را برای آن انجام میدهم، نرخ موفقیت بسیار پایینی دارد <1%. | نحوه پیش بینی میزان موفقیت با استفاده از داده های تاریخی در طول زمان |
26738 | با توجه به مقایسههای چندگانه، لطفاً کسی میتواند به من توضیح دهد که چرا قدرت نرخ کشف نادرست (FDR) از قدرت نرخ خطای خانوادگی (FWER) بیشتر است؟ | قدرت رویکردهای FDR در مقابل FWER در مقایسههای چندگانه |
26735 | آیا راهی برای کاهش ابعاد روی **ماتریس باینری** وجود دارد؟ از آنچه من می دانم، تجزیه و تحلیل اجزای اصلی کار نمی کند. هر گونه پیشنهاد در این مورد. ویرایش: این یک ماتریس متقارن نیست. | کاهش ابعاد در ماتریس باینری |
50274 | من یک مشکل ساده دارم که شامل احتمال کشیدن حداقل 1 جفت کارت در یک دست چهار کارته است. من جواب درستی نمی گیرم اما نقص منطقم را درک نمی کنم. آیا کسی می تواند به من توضیح دهد که چرا رویکرد من اشتباه است؟ مشکل: بیل یک دسته کوچک از 12 ورق بازی دارد که هر کدام تنها از 2 کارت 6 کارتی تشکیل شده است. هر یک از 6 کارت در یک لباس دارای ارزش متفاوتی از 1 تا 6 است. بنابراین، برای هر مقدار از 1 تا 6، دو کارت در عرشه با آن مقدار وجود دارد. بیل دوست دارد یک بازی انجام دهد که در آن عرشه را به هم می زند، 4 کارت را برمی گرداند و به دنبال جفت کارت هایی می گردد که ارزش یکسانی دارند. شانس اینکه بیل حداقل یک جفت کارت را پیدا کند چقدر است؟ راه حل من: احتمال 1 یا بیشتر جفت = ((6) * (10 انتخاب 2))/(12 انتخاب 4). یعنی تعداد دستهایی که حداقل 1 جفت دارند 6 است (تعداد راههای ایجاد یک جفت) * (10 راه را انتخاب کنید 2) (# روش انتخاب 2 کارت از 10 کارت باقیمانده بعد از جفت). این به 6/11 ساده می شود، اما پاسخ صحیح 17/33 است. هر گونه درک کمکی بسیار قدردانی خواهد شد. | احتمال وجود یک جفت در کارت |
114848 | برخی از شما ممکن است این مقاله خوب را خوانده باشید: O’Hara RB, Kotze DJ (2010) داده های شمارش را تغییر شکل ندهند. روشها در اکولوژی و تکامل 1:118-122. کلیک کنید. در زمینه تحقیقاتی من (اکوتوکسیکولوژی) ما با آزمایشهایی که تکرار ضعیفی دارند سر و کار داریم و GLMها به طور گسترده مورد استفاده قرار نمیگیرند. بنابراین من شبیه سازی مشابه O'Hara & Kotze (2010) را انجام دادم، اما از داده های زیست محیطی تقلید کردم. **شبیه سازی نیرو**: داده ها را از یک طرح فاکتوریل با یک گروه کنترل ($\mu_c$) و 5 گروه درمانی ($\mu_{1-5}$) شبیه سازی کردم. فراوانی در تیمار 1 با شاهد یکسان بود ($\mu_1 = \mu_c$)، فراوانی در تیمارهای 2-5 نیمی از فراوانی در شاهد بود ($\mu_{2-5} = 0.5 \mu_c$). برای شبیهسازیها، حجم نمونه (3،6،9،12) و فراوانی را در گروه کنترل (2، 4،8، ...، 1024) تغییر دادم. فراوانی از یک توزیع دوجمله ای منفی با پارامتر پراکندگی ثابت ($\theta = 3.91 $) گرفته شد. 100 مجموعه داده با استفاده از یک GLM دوجمله ای منفی و یک داده تبدیل شده به GLM + گاوسی تولید و مورد تجزیه و تحلیل قرار گرفت. نتایج همان گونه است که انتظار می رود: GLM قدرت بیشتری دارد، به خصوص زمانی که از حیوانات زیادی نمونه برداری نشده است.  کد اینجاست. **خطای نوع I**: بعد به خطای نوع یک نگاه کردم. شبیهسازیها مانند بالا انجام شد، اما همه گروهها فراوانی یکسان داشتند ($\mu_c = \mu_{1-5}$). با این حال، نتایج آنطور که انتظار میرفت نیست:  GLM دوجملهای منفی خطای Type-I بیشتری را در مقایسه با تبدیل LM + نشان داد. همانطور که انتظار می رفت این تفاوت با افزایش حجم نمونه از بین رفت. کد اینجاست **سوال:** **چرا خطای Type-I در مقایسه با lm+transformation افزایش یافته است؟** اگر داده های ضعیفی داریم (اندازه نمونه کوچک، فراوانی کم (بسیار صفر))، آیا باید از lm+transformation استفاده کنیم. ? اندازه نمونه کوچک (2-4 در هر تیمار) برای چنین آزمایشاتی معمول است و نمی توان به راحتی افزایش داد. اگر چه، نگ. سطل زباله GLM را می توان به عنوان مناسب برای این داده ها توجیه کرد، تبدیل lm + ممکن است ما را از خطاهای نوع 1 جلوگیری کند. | افزایش خطای نوع I - GLM |
54752 | من یک دیتافریم دارم که هر سطر آن یک سایت متفاوت است (51 سایت)، و هر ستون مقادیر میانگین یک متغیر محیطی پیوسته متفاوت است (19 متغیر). من سعی می کنم با استفاده از محاسبه فاصله بین سایت ها، اندازه ای از شباهت / عدم تشابه محیطی را محاسبه کنم. من می خواهم فاصله اقلیدسی استاندارد شده یا فاصله ماهالانوبیس را محاسبه کنم. من موفق شدم آنها را وادار کنم که هم با تابع فاصله در بسته اکودیست و هم با تابع 'dist.quant()' در بسته ade4 در [R] کار کنند. به عنوان مثال AusEnvDist <- distance(AusEnvNum، روش = euclidean، sprange=NULL) با این حال خروجی های من بدون توجه به نحوه سازماندهی چارچوب داده یکسان هستند (یعنی سایت ها در ردیف یا ستون هستند) - ماتریس خروجی 19 $\times19 دریافت می کنم $ به جای $51\times51$ - یعنی فاصله بین را محاسبه نمی کند سایت ها، اما بین متغیرها. آیا ایده ای در مورد چگونگی رفع این مشکل دارید؟ یا روش بهتری برای به دست آوردن یک ارزش محیطی منحصر به فرد برای هر سایت؟ | چگونه فاصله بین سایت ها را با متغیرهای پیوسته محاسبه کنیم؟ |
87494 | در تغییر مشکل جمع کننده کوپن، شما تعداد کوپن ها را نمی دانید و باید آن را بر اساس داده ها تعیین کنید. من به این مشکل به عنوان مشکل کوکی ثروت اشاره می کنم: > با توجه به تعداد نامعلومی از پیام های کوکی ثروت $n$، با نمونه برداری از کوکی ها در یک زمان و شمارش تعداد دفعات ظاهر شدن هر > $n$، تخمین بزنید > $n$. همچنین تعداد نمونه های لازم برای بدست آوردن یک > فاصله اطمینان دلخواه در این تخمین را تعیین کنید. اساساً من به الگوریتمی نیاز دارم که داده های کافی را برای رسیدن به یک فاصله اطمینان معین نمونه برداری کند، مثلاً $n \pm 5$ با اطمینان $95\%$. برای سادگی، میتوانیم فرض کنیم که همه شانسها با احتمال/تکرار مساوی ظاهر میشوند، اما این برای یک مشکل کلیتر درست نیست، و راهحلی برای آن نیز مورد استقبال قرار میگیرد. این شبیه به مشکل مخزن آلمانی است، اما در این مثال، کوکیهای فورچون بهطور متوالی برچسبگذاری نمیشوند، و بنابراین ترتیبی ندارند. | تخمین n در مشکل جمع کننده کوپن |
82466 | برای رگرسیون کمند $L(\beta)=(X\beta-y)'(X\beta-y)+\lambda*norm(\beta,1)$، فرض کنید بهترین راه حل (به عنوان مثال حداقل خطای تست) انتخاب شود ویژگی های $k$، به طوری که $\hat{\beta}^{lasso}=\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k ^{lasso},0,...0\راست)$. ما می دانیم $\left(\hat{\beta}_1^{lasso},\hat{\beta}_2^{lasso},...,\hat{\beta}_k^{lasso}\right)$ است تخمین مغرضانه $\left(\beta_1,\beta_2,...,\beta_k\right)$، چرا ما هنوز $\hat{\beta}^{lasso}$ را به عنوان راه حل نهایی خود در نظر می گیریم، اما نه بیشتر 'معقول' one $\hat{\beta}^{new}=\left(\hat{\beta}_{1:k}^{new},0,...,0\right)$, جایی که $ \hat{\beta}_{1:k}^{new}$ تخمین LS از مدل جزئی است $L^{new}(\beta_{1:k})=(X_{1:k}*\beta-y)'(X_{1:k}*\beta-y)$. ($X_{1:k}$: ستون های $X$ را مطابق با $k$ ویژگی های انتخاب شده نگه دارید). به طور خلاصه، چرا ما از Lasso هم برای انتخاب ویژگی و هم برای تخمین استفاده می کنیم، به جای اینکه فقط برای انتخاب متغیر استفاده کنیم و تخمین مدل های دیگر را روی ویژگی های انتخاب شده رها کنیم؟ علاوه بر این، «Lasso میتواند حداکثر $n$ ویژگیها را انتخاب کند» چیست؟ $n$ حجم نمونه است. | چرا از تخمین های Lasso نسبت به تخمین های OLS در زیر مجموعه متغیر استفاده کنیم؟ |
24388 | من فروش را با دادههای مربوط به مکانها و ویژگیهای مشتری و فروشگاه با استفاده از مدلی به سبک هاف تخمین میزنم، که در آن فروش با زمان رانندگی کاهش مییابد و با جذابیت فروشگاه افزایش مییابد. یک نمونه فرضی از مشکل در زیر نشان داده شده است. 3 پین نشان دهنده فروشگاه ها و پرچم سفید نشان دهنده سایتی است که مشتریان در آن زندگی می کنند.** اندازه پین ها نشان دهنده جذابیت فروشگاه (مانند فضای طبقه) است. مشکلی که من دارم این است که انتظار دارم فروش فروشگاه قرمز در سایت کمتر از فروشگاه سبز باشد، حتی اگر به همان اندازه دور هستند و جذابیت یکسانی داشته باشند، زیرا فروشگاه بنفش تا حدودی بین فروشگاه قرمز و فروشگاه قرمز قرار دارد. سایت من می خواهم این شهود را به ریاضیات دقیق (اما قابل انجام) ترجمه کنم تا آن را به مدل آماری خود اضافه کنم. من همچنین در یافتن آنچه در ادبیات به آن می گویند (به غیر از مسئله گرانش جسم n در فیزیک) مشکل دارم.  ** برای مردم دالتونیک، فروشگاه قرمز در گوشه سمت چپ بالا قرار دارد. فروشگاه سبز در پایین سمت راست است. فروشگاه بنفش در سمت چپ سایت قرار دارد. | چگونه می توان تعاملات فضایی رقابتی بین فروشگاه های متعدد و مشتریان را به تصویر کشید |
110122 | من اخیراً سؤالی داشتم که احتمالاً باید دوباره آن را به سؤالی کلی تر تنظیم کنم. من با این مواجه شدم: استفاده از نمودارهای پراکنده برای درک مقادیر چندگانه Y برای یک X مشخص و فکر کردم که پاسخ پذیرفته شده بسیار خوب است، اما چیزی که برای من نامشخص است این است: با توجه به یک نمودار پراکنده بد، چگونه می توانید به صورت بصری این ایده را دریافت کنید که چه نوع رابطه x:es و y:s دارند؟ در ذهن من، هیچ راهی برای تشخیص مناسب بودن رگرسیون خطی، درجه دوم و غیره وجود ندارد. اگر به طرحی نگاه کنیم که در حال حاضر مرا گیج کرده است:  ایده من این بود که به نحوی میانگین f(x) را با x جمع شده ترسیم کنم. با هم در فواصل، به جای هر مشاهده. آیا شما اینگونه در مورد آن اقدام خواهید کرد؟ اگر نه، چه راه دیگری از نظر بصری این داده ها را درک می کنید؟ | درک طرح های پراکنده |
24382 | در شبیه سازی رمزگشایی تکراری کدهای بررسی برابری با چگالی کم ممکن است (برای نسبت سیگنال به نویز مشخصی از یک کانال پر سر و صدا) برای مثال 10 شکست رمزگشایی از 10^6 دلار آزمایشی وجود داشته باشد. گزارش احتمال شکست رمزگشایی در برابر نسبت سیگنال به نویز رسم می شود. من از ضمیمه مقاله مک کی، کدهای تصحیح خطای خوب مبتنی بر ماتریس های بسیار پراکنده را نقل قول می کنم تا نشان دهم که او چگونه با ایجاد نوارهای خطا در چنین نمودارهایی برخورد می کند: > آزمایش ها منجر به تعداد معینی از شکست در رمزگشایی بلوک می شوند $r$ > از یک تعداد آزمایشات $n$. ما تخمین حداکثر احتمال > احتمال خطای بلوک، $\hat{p}=r/n$، و یک فاصله اطمینان > $[p_-,p_+]$ را گزارش میکنیم، به این صورت تعریف شده است: اگر $r \geq 1$ سپس $p_{\pm}=\hat{p}\exp(\pm > 2\sigma_{\log p})$ جایی که $\sigma_{\log p}=\sqrt{(n-r)/(rn)}$; در غیر این صورت اگر $r=0$ > سپس $p_+=1-\exp(-2/n)$ و $p_-=0$. من صفحه ویکیپدیا در فاصله اطمینان نسبت دوجملهای و تعدادی پاسخ مفید را در این وبسایت خواندهام. فرمول مکی را می توان با تقریب تقریب معمولی به فاصله اطمینان 2 سیگما به دست آورد: $\hat{p}\pm z_{1-\alpha/2}\sqrt{\hat{p}(1-\hat{p} )/n} = r/n \pm 2\sqrt{r(n-r)/(n^3)}=(r/n)(1\pm2\sqrt{(n-r)/(rn)})$ که تقریباً برابر است با $(r/n)\ exp(\pm2\sqrt{(n-r)/(rn)})$ وقتی آرگومان نمایی کوچک است. نماد او همچنین نشان می دهد که او واقعاً آمار را با $\log p$ انجام می دهد. فرمول های او میله های خطای متقارن را در نمودارهای ورود به سیستم می دهد. نمی دانم این هدف معقولی است یا نه. بنابراین من چند سوال دارم: 1. آیا اشتقاق من بهترین راه برای درک این است که چه اتفاقی در این فرمول می افتد؟ 2. آیا مناسب ترین فاصله اطمینان است؟ | فاصله اطمینان توزیع دو جمله ای برای نمودار ورود به سیستم |
34407 | من یک مجموعه داده دارم که در آن $x_{1}$، $x_{2}$، ...، $x_{k}$ از نوع مختلط هستند و $y$ رتبهبندی از $1$ تا $n$ است که در آن $n است. $ تعداد مشاهدات در مجموعه داده است. من می خواهم $y$ را بر اساس $x$s پیش بینی کنم. راه خوبی برای ادامه در اینجا چیست؟ شهود من این است که با توجه به اینکه $y$ به طور مستقل توزیع نشده است (اگرچه $x$s iid است) رویکرد GLM به ویژه مفید نخواهد بود. | چگونه می توانم یک متغیر وابسته رتبه را در یک مجموعه داده چند متغیره تخمین بزنم؟ |
30982 | آزمایش یکنواختی چیزی رایج است، با این حال نمیدانم روشهایی برای انجام آن برای ابر چند بعدی از نقاط چیست. | چگونه یکنواختی را در چند بعد آزمایش کنیم؟ |
37970 | به زودی برای یک کلاس میان ترم (و سپس فینال مخوف) برای یک کلاس فارغ التحصیل در رشته آمار خواهم نشست. این کتاب / یادداشت های باز است، اما من به ماشین حساب نیاز دارم -- چیزی که سال ها از آن استفاده نکرده ام. هر گونه فکری در مورد ویژگی هایی که باید هنگام خرید یکی از آنها جستجو کنم. من همیشه می خواستم یک ماشین حساب HP 10 سری 10 داشته باشم و از آن استفاده کنم، اما وقتی آنها را در eBay جستجو کردم، شوکه شدم. از آنجایی که برچسبی برای این موضوع وجود ندارد، آن را با موضوعاتی تگ می کنم که در مورد آنها بررسی خواهم شد. پیشاپیش ممنون | چه چیزی را در یک ماشین حساب جیبی برای دوره آمار مقطع کارشناسی ارشد میان ترم / نهایی جستجو کنید |
68938 | من یک مجموعه داده، 1014 مورد و 55 متغیر دارم که باینری هستند و به شکل Brand1Attribute1، Brand1Attribute2، ...، Brand1Attribute11، Brand2Attribute1، ... Brand5Attribute11 با 0 = نه، من این ویژگی را با این ربط نمی دهم. نام تجاری و 1 = بله، من این ویژگی را با این نام تجاری مرتبط می کنم. اساساً، من سعی کرده ام از تجزیه و تحلیل مکاتبات چندگانه در SPSS برای ترسیم یک نقشه ادراکی از نحوه ارتباط مارک ها و ویژگی ها استفاده کنم، اما به جایی نرسیدم. من یک طرح دو بعدی را تصور می کنم، بدون محورهای معنی دار، و فاصله بین نقاط متناسب با همبستگی بین مارک ها، یا ویژگی ها، یا بین برند و ویژگی است. آیا من این راه را درست انجام می دهم یا باید از روش دیگری استفاده کنم؟ | (چندگانه) تجزیه و تحلیل مکاتبات برای داده های تعداد وارد شده به عنوان متغیرهای باینری |
111368 | من چندین طیف تابشی فوتولومینسانس دارم که سعی میکنم منحنیها را با آنها تطبیق دهم. طیف ها هر کدام دارای یک خط پایه و چهار قله اند. متغیر مستقل $x_i$ طول موج است (تبدیل به انرژی برای تجزیه و تحلیل) و متغیر پاسخ $y_i$ شدت نور ثبت شده در آن طول موج است. خطاهای آزمایشی $\sigma_i = \sqrt{y_i}$ فرض میشوند. من این داده ها را با دو مدل مختلف تطبیق می دهم. مدل 1 دارای چهار قله گاوسی و خط پایه از نوع $y = mx + c$ است، یعنی در مجموع 14 پارامتر. مدل 2 دوباره چهار قله + خط پایه خطی است، اما این بار هر پیک با یک تابع شبه Voigt که پارامترهای آن مساحت، اختلاط، میانگین و FWHM است، به معنای مجموعا 18 پارامتر برای تابع دوم برازش داده می شود. تناسبها کاملاً مشابه هستند، اما تفاوتهای جزئی وجود دارد، بهنظر میرسد که مدل 2 برای هر طیف در مجموعه دادهها کمی بهتر است. من میخواهم از AICc برای مقایسه مدلها استفاده کنم، زیرا میخواهم مطمئن شوم که آیا تناسب مدل 2 واقعاً نمایش بهتری از فرآیندهای فیزیکی است که طیفها را تولید میکنند، یا اینکه فقط بیش از حد پارامتر شده است. اما من توابع احتمال یا نحوه محاسبه یا حداکثر کردن آنها را نمی دانم. من اینجا را نگاه کردم و فکر کردم که شاید بتوانم از مقادیر $\chi^2$ از هر تناسب برای محاسبه AIC در غیاب برآورد حداکثر احتمال استفاده کنم. اما مطمئن نیستم که این فرض که خطاهای اساسی به طور معمول توزیع شده اند (با میانگین صفر) و مستقل هستند در اینجا برآورده شود. اگر خطاهای اساسی به باقیمانده ها پس از هر تناسب اشاره داشته باشد، به نظر می رسد که توزیع نرمال دارند (اما نه با میانگین صفر). اگر واقعاً به خطاهای آزمایشی اشاره دارد، توزیع نرمال وجود ندارد (به بالا مراجعه کنید). من واقعاً نمیفهمم که «عملکرد احتمال» در زمینه طیفهای انتشار فوتولومینسانس به چه معناست. به هر حال، طیفها سوابقی از رویدادهای پس از توزیع احتمال دوجملهای مانند پرتاب سکه، یا توزیع احتمال پواسونی مانند نویز شات الکترونیکی نیستند، که به نظر میرسد پایه همه نمونههایی باشد که من پیدا کردم. من از درک تابع جرم احتمال در این مورد غافل هستم. آیا استفاده از توابع مدل به عنوان توابع جرم احتمال و استخراج توابع احتمال از آنها قابل توجیه است یا این فقط منطق دایره ای است؟ من برای هر توصیه ای سپاسگزار خواهم بود. | چگونه می توانم از معیار اطلاعات آکایک برای مقایسه دو مدل طیف انتشار چند قله استفاده کنم؟ |
50180 | در تحقیقاتم یک سری اندازه گیری روی 5 مارک مختلف بلوک انجام داده ام. هر بلوک برای تغییر شکل تحت نیروهای افزایشی (20، 30، 40، 50، 60، 70، 80، 90، 100، 110 و 120 نیوتن) بازرسی شده است. تغییر شکل برای هر نیرو 3 بار اندازه گیری شد و مقادیر میانگین به هر برند برای مقدار خاصی از نیرو اختصاص یافت. من در ایجاد نمودارهای رگرسیون خطی برای این 5 برند مختلف موفق بودم. اکنون آرزوی من این است که ببینم آیا یک نام تجاری تفاوت قابل توجهی در مقادیر تغییر شکل ایجاد می کند یا خیر و برای مقایسه برندها در بین خود یک تجزیه و تحلیل پس از آن انجام دهم. به عبارت دیگر برای مقایسه خطوط رگرسیون خطی. ببخشید اگر چیزی که میگم منطقی نیست تاکنون دستورات زیر را امتحان کرده ام: anova(lm(Deformation~Force*Brand, data=Data)) lm(Deformation~Force, data=Data)) # و aov.data = aov(Deformation~Force*Brand, داده ها) من مقادیر p به طرز مشکوکی پایین (_*_) دریافت کرده ام که به وضوح نشان می دهد که ممکن است کار اشتباهی انجام دهم. اگر بتوانید در این موضوع به من کمک کنید ممنون می شوم. Force Brand Deformation 20 Brand1 0.65 30 Brand1 1.23 40 Brand1 1.25 50 Brand1 2.39 60 Brand1 2.45 70 Brand1 2.93 80 Brand1 3.13 90 Brand1 308 Brand1 3.511. 4.84 120 Brand1 5.33 20 Brand2 1.24 30 Brand2 1.11 40 Brand2 1.6 50 Brand2 2.13 60 Brand2 2.69 70 Brand2 3.60 80 Brand2 3.20 309 Brand2 3.20 309 Brand2 110 Brand2 4.74 120 Brand2 5.98 20 Brand3 1.21 30 Brand3 1.37 40 Brand3 2.56 50 Brand3 2.49 60 Brand3 3.17 70 Brand3 3.33 80 Brand3 1.37 40 Brand3 2.56 50 Brand3 2.49 60 Brand3 3.17 70 Brand3 3.33 80 Brand3 4.22 110 Brand3 5.22 120 Brand3 6.28 20 Brand4 0.92 30 Brand4 0.89 40 Brand4 1.2 50 Brand4 1.67 60 Brand4 1.98 70 Brand4 2.240 8 Brand4. 100 Brand4 4.94 110 Brand4 5.4 120 Brand4 5.76 20 Brand5 0.69 30 Brand5 1.26 40 Brand5 1.61 50 Brand5 2.17 60 Brand5 2.07 70 Brand5 2.07 70 Brand530. 4.13 100 Brand5 4.25 110 Brand5 4.59 120 Brand5 5 | بین آزمودنی ها اندازه گیری های تکراری ANOVA در مارک های R - 5، 11 اندازه گیری |
26734 | آیا کسی می تواند به من کمک کند تا یک موضوع را بفهمم؟ در تحلیل خود بگویید من متغیر واقعی _education_ ($E$) را دارم که با یک متغیر پراکسی _number of years in school_ ($S$) اندازه گیری می شود. در اینجا، خطای اندازه گیری $E-S$ است. به من گفته شد که این خطا مستقل از $S$ است نه از $E$. من نمیتونم بفهمم چطور ممکنه اینطور باشه؟ آیا این خطا نباید به $S$ و $E$ وابسته باشد؟ با تشکر | درک متغیر پروکسی |
34400 | من فکر میکنم رگرسیون خطی میتواند این را مدیریت کند، اما از خودم میپرسم که آیا آن روش قدرت آماری خوبی دارد یا خیر. بیایید به دایره هایی با شعاع های مختلف فکر کنیم و اجازه دهیم نقاطی در داخل آن دایره ها وجود داشته باشد. نقاط شعاع دایره A 20 8 دایره 1 10 7 دایره 2 25 12 دایره 3 8 10 چگونه می توانم این فرضیه صفر را آزمایش کنم که تعداد نقاط دایره A برابر است با دایره های 1،2 و 3 با توجه به اینکه مساحت دارای تاثیر خطی؟ ## ایده من در اینجا یک ایده بسیار اساسی وجود دارد: با توجه به ساده سازی که مساحت دایره داده می شود و نه شعاع، چه انتظاری از هر دایره داریم؟ در مجموع مساحتی معادل 63 دلار با امتیاز 37 دلار داریم. بنابراین امتیاز 0.59 دلار در هر منطقه. بنابراین ما انتظار داریم 11.75$ امتیاز برای دایره A داشته باشیم. از آنجایی که من به این جنبه علاقه دارم که A با سایر دایره ها که می توانند به عنوان یک ناحیه همگن دیده شوند متفاوت است، آنها را به مساحت $43$ با امتیازات مورد انتظار $25.25$ جمع می کنم. این منجر به آمار تست Chi-Square: $$ \chi^2 = \frac{(20-11.74603)^2}{11.74603} + \frac{(43-25.25397)^2}{25.25397} \sim \ chi_1 $$ پس از محاسبه، p-value را بدست می آوریم: $0.186$ برای این مثال ## بهبود همانطور که ما نمونه ای از اعداد نقطه را داریم $x=(7,12,10)$ می توانیم واریانس $Var(x) = 6.3$ را محاسبه کنیم به همین دلیل فرمول به $$ \chi^2 = \ تغییر می کند. frac{(20-11.74603)^2}{11.74603} + \frac{(43-25.25397)^2}{3 \cdot 6.333} \sim \chi_1 $$ و p-value خواهد بود: $0.0164$ آیا این ایمن است؟ | آزمایش تعداد متغیرها با اندازه به عنوان متغیر کمکی |
105435 | من رابطه زیر را مشاهده کردم و میخواهم بدانم کجا میتوانم یک دلیل کلی برای آن پیدا کنم: یک ماتریس داده $A = [a_{ij}]_{t x k}$ را فرض کنید. 1) تجزیه و تحلیل مؤلفه اصلی (PCA) را با استفاده از ماتریس همبستگی انجام دهید. } Eigenvalue_l}{\sum_{l=1}^k Eigenvalue_l}$ 3) اولین امتیازهای مؤلفه اصلی $L$ را بگیرید، $PCS_{l}$، رگرسیون زیر را انجام دهید و ضریب تعیین $R^2$ مربوطه را ذخیره کنید: $a_1 = b_{10} + b_{11}PCS_{1} + \dots + b_{1L} PCS_{ L} + e_{1}$ => $R^2_1$ $\vdots$ $a_k = b_{k0} + b_{k1}PCS_{1} + \dots + b_{kL} PCS_{L} + e_{k}$ => $R^2_k$ 4) میانگین را در نظر بگیرید: $\bar{R}^2 = \frac {1}{k}\sum_{i=1}^k R^2_i$ 5) سپس، مشاهده میکنم که $\bar{R}^2 = \frac{\sum_{l=1}^{L} Eigenvalue_l}{\sum_{l=1}^{k}Eigenvalue_l}$ رابطه در 5) نتیجه جالبی است و من میخواهم یک دلیل کلی برای این موضوع پیدا کنم. آیا کسی کتاب آماری خوب یا مقاله ای می شناسد که این نتیجه را نشان دهد؟ با تشکر H | اثبات PCA مورد نیاز برای نسبت واریانس توضیح داده شده توسط L PC = میانگین R-square از رگرسیون در نمرات PC |
66365 | یک توزیع چند جمله ای را می توان به صورت $ M(m_1,\dots,m_K|N,P) = {N \choose m_1\dots m_K}\prod_k p_k^{m_k} $ مقدار مورد انتظار $Np_k$ است. چگونه می توانم آن را ثابت کنم؟ | مقدار مورد انتظار یک توزیع چندجمله ای |
111819 | من سعی می کنم آزمایش کنم که آیا یک گروه در دو مجموعه مختلف از داده ها به طور قابل توجهی با گروه دیگر متفاوت است. من دیده ام که مردم تمایل دارند از chi-squared یا دقیق فیشر برای این محاسبه استفاده کنند، اما آیا من آن را به درستی انجام می دهم؟ این دادهها است: TOTAL NUMBER PROPORTION گروه 1: WGD + SSD 19590 14184 72% WGD 19590 7045 36% SSD 19590 7139 36% Singleton 19590 5406 28G10 +% WGD 19590 110 75 68% SSD 110 27 25% Singleton 110 8 7% اگر مثلاً بخواهم بررسی کنم که آیا تعداد WGD + SSD در گروه 2 آیه های گروه 1 تفاوت قابل توجهی دارد یا خیر، آیا جدول احتمالی خود را اینطور تنظیم می کنم؟ 19590 110 14184 102 این مقدار P 0.0839 را با استفاده از یک مربع کای دو دنباله با تصحیح یتس برمی گرداند، اما نسبت ها 93٪ در مقابل 72٪ هستند. آیا من در اینجا کار اشتباهی انجام داده ام یا اعداد گروه دوم نسبت به گروه اول بسیار کم هستند؟ پیشاپیش متشکرم | استفاده صحیح از Chi-Square؟ |
114842 | من دادههای حسگر زیادی با مهرهای زمانی مانند 09/09/2014 16:10:45 و قرائتهای حسگر همراه دارم. برای دریافت اطلاعاتی در مورد این موارد، میخواهم با مشاهده میانگین و انحراف استاندارد بخش زمانی مهر زمان، رویدادهای غیر معمول را بیابم. چگونه می توانم با پیچیدگی زمان در نیمه شب کنار بیایم؟ یک مثال ساخته شده: تصور کنید خوانش های برق تحت تأثیر افرادی است که ماشین ها را در صبح روشن می کنند (یک حسگر قدرت متوجه افزایش مقادیر می شود) و آنها را در عصر خاموش می کند (مقادیر کاهش می یابد). من میخواهم خوانشهای حسگر غیرعادی را پیدا کنم. این کاهش خوانش حسگر در دورههای زمانی است که معمولاً قرائتها افزایش مییابد و افزایش قرائت در دورههای زمانی که معمولاً قرائتها کاهش مییابد. ایده من این بود که بخش زمانی مهرهای زمانی را استخراج کنم (مثلاً 12:55:10)، آن را به ثانیه تبدیل کنم (روز دارای 86400 است) و سپس با تقسیم بر تمایل قرائت ها (مثلاً فقط نگاه کردن به افزایش خوانش ها) محاسبه شود. میانگین و انحراف معیار سپس اگر پنجره زمانی را از «میانگین ثانیه روز منهای انحراف معیار» به «میانگین ثانیه روز به اضافه انحراف معیار» (شاید با استفاده از دو برابر انحراف معیار) در نظر بگیرم، دورههای معمولی و هر افزایش فزاینده را خارج از این زمان خواهم داشت. پنجره غیرعادی خواهد بود **مشکل**: زمان در نیمه شب می گذرد! خواندن در ساعت 00:15:00 در واقع واقعاً نزدیک به 23:50:00 است، اما در محاسبه دور است. این مطمئناً آمار را تغییر می دهد مگر اینکه همه چیز در اواسط روز اتفاق بیفتد. آیا روش استانداردی برای رسیدگی به این موضوع وجود دارد؟ می توانید به من ایده بدهید؟ من در حال حاضر کاملاً گیج هستم. من دوست دارم در PostgresQL بمانم، اما از آنجایی که الزامی نیست، آن را تگ نکردم. هر چیزی کمک می کند! در زیر چند نمونه داده وجود دارد، من در هر سنسور حدود 200-300 قرائت دارم. می بینید که در این مثال افزایش ها در صبح اتفاق می افتد. مهر زمانی به عنوان %Y-%m-%d %H:%M:%S;روز سال;دوم روز؛تمایل خواندن 01-03-2014 14:45: 00;60;53100;-0.030 2014-03-03 08:18:00;62;29880;0.150 2014-03-03 14:17:00;62;51420;-0.120 2014-03-03 16:37:00;62;59830;-00. 04/03/2014 08:11:00;63;29460;0.150 2014-03-04 10:21:00;63;37260;-0.150 2014-03-04 16:12:00;63;583320;-00. 05/03/2014 08:04:00;64;29040;0.150 2014-03-05 14:42:00;64;52920;-0.060 2014-03-05 17:27:00;64;62830;-00. 06/03/2014 08:29:00;65;30540;0.090 2014-03-06 12:06:00;65;43560;-0.030 2014-03-06 13:49:00;65;49720;-01. 07/03/2014 08:21:00;66;30060;0.150 2014-03-07 10:27:00;66;37620;-0.030 2014-03-07 11:27:00;66;41220;0.03 07/03/2014 13:46:00;66;49560;-0.060 2014-03-07 16:59:00;66;61140;-0.030 2014-03-07 18:52:00;66;67920;- 0.030 2014-03-08 08:47:00;67;31620;0.120 | میانگین و انحراف استاندارد مهرهای زمانی (زمان در نیمه شب به پایان می رسد) |
24385 | من آمارگیر نیستم، اما حوزه ریاضیات را سرگرم کننده و جذاب می دانم. من دوستی دارم که برای RPG رومیزی سفارشی خود یک سیستم تاس roll-mid طراحی کرده است و به عنوان بخشی از تعادل بازی، در یافتن احتمالات نتیجه خاصی جالب هستم. یک مرگ فردی نتایج زیر را دارد: 1: شکست بحرانی، مجموع -1 موفقیت 2-3، 8-9: بدون موفقیت 4-7: +1 موفقیت 0: موفقیت بحرانی، مجموع 2 + موفقیت ها بازیکن از یک تا ده تاس ده وجهی فردی (d10s) می اندازد. من هیچ ایده ای ندارم که چگونه به موضوعی مانند این با لایه اضافی پیچیدگی نزدیک شوم. با این حال، این مفهوم برای من بسیار جالب است. سوال من: توزیع مجموع موفقیت برای هر تعداد تاس 1-10 چگونه است؟ | توزیع نتایج پیچیده برای مجموعه تاس های ده طرفه، مخصوص سیستم RPG روی میز سفارشی |
66092 | **نسخه کوتاه:** چگونه می توان آنتروپی مشترک دو متغیر مستقل از مجموع آن متغیرهای مستقل کمتر باشد؟ آنتروپی مشترک باید تمام اطلاعاتی را که یک تابع اسکالر می تواند رمزگذاری کند، درست است؟ **نسخه طولانی:** فرض کنید 2 متغیر تصادفی عادی مستقل $X، Y$ هر دو با میانگین $0$ و واریانس $\sigma^2$ وجود دارد. 1. می دانیم که آنتروپی $X$ و $Y$ $H(X)= H(Y)= \ln(2\pi e \sigma^2)/2$ (اشتقاق) است 2. واریانس متغیر تصادفی $SUM = X + Y$ است $2 \sigma^2$ 3. 1 و 2 به این معنی است که $H(SUM)= \ln(2 \pi e (2 \sigma^2))/2$ 4. مجموع آنتروپی های 2 متغیر تصادفی مستقل، آنتروپی توزیع مشترک آنهاست، یعنی $H(X, Y) = H(X) + H(Y)$ . این بدان معناست که در این مورد خاص $$H(X, Y) = (\ln(2\pi e \sigma^2)/2) \cdot 2.$$ 5. حال توجه داشته باشید که اگر $\sigma^2= (\pi e)^{-1}$، سپس از 3 و 4 $$H(X,Y)= (\ln(2)/2) \cdot 2 = H(SUM)= ln(2 \cdot 2)/2 = \ln(2).$$ و اگر $\sigma$ را افزایش دهید، $H(SUM) > H(X,Y)$. بسیار خارق العاده به نظر می رسد که $(\pi e)^{-1}$ یک نقطه اوج آنتروپی برای گاوسی ها باشد. آیا مقاله یا کتابی می شناسید که این مشاهدات را انجام دهد؟ آیا $N(0, (\pi e)^{-1})$ به عنوان جایگزینی برای $N(0,1)$ به دلیل بی طرفی آن در این زمینه مورد بحث قرار می گیرد؟ و اصلا چرا این اتفاق می افتد؟ آیا آنتروپی مشترک نباید از آنتروپی هر تابع اسکالر بیشتر باشد، به نظر می رسد از هر تابع اسکالر کلی تر باشد؟ | آنتروپی (مجموع گاوسیان) در مقابل مجموع (آنتروپی گاوسیان) |
103521 | از امروز، دهها پیشبینی جام جهانی فوتبال وجود دارد، برخی پیچیدهتر، برخی ظریفتر، و بیشتر آنها «شانس» هر کشوری را برای بردن یک مسابقه/جام خاص پیشبینی میکنند. از آنجایی که من در حال نوشتن یک پست وبلاگ برای یک روزنامه هستم و میخواهم بیان کنم که این پیشبینیها خوب هستند، اما اساساً بیارزش هستند، زیرا نمیتوان آنها را آزمایش کرد، میخواهم مفروضات خود را ضد گلوله کنم و دانش آماری محدود خود را با این سؤال افزایش دهم. **اول: شانس**. به طور عجیبی، به عنوان مثال، اگرچه نیت سیلور مدل خود را به خوبی توضیح می دهد، او هرگز مفهوم واقعی شانس را توضیح نمی دهد. اگر مدل 538 «پیشبینی» میکند که برزیل 45 درصد شانس قهرمانی در مسابقات را دارد، این در واقع به این معناست که اگر همان جام هزار بار بازی میشد، و مدل _درست بود_، برزیل به طور متوسط 450 بار برنده میشد. و به طور متوسط در 550 جام _ برنده نشوید. درست میگم؟ **دوم: ارزیابی قدرت پیش بینی یک مدل**: دانش محدودتر من از داده کاوی، یادگیری ماشین و مدل سازی پیش بینی به من می گوید که معمولاً برای ارزیابی قدرت یک مدل، رویه ای مانند x- اعتبار سنجی یا اعتبارسنجی با مجموعه تست اختصاصی استفاده می شود. برای اینکه این کار امکان پذیر باشد، یک مجموعه تست باید وجود داشته باشد. در مورد جام جهانی، این در واقع به این معنی است که مدلی مانند مدل 538 باید در مورد 20+ جام جهانی گذشته (به دلیل نداشتن داده های تاریخی و بسیار خسته کننده امکان پذیر نیست) یا برای نمونه های بی شماری استفاده شود. جام جهانی فعلی (ممکن نیست به دلیل ... خوب بله). فقط گفتن اینکه یک مدل پیش بینی کننده خوبی است زیرا (بیشتر مسابقات) _this_ جام جهانی 2014 را به درستی پیش بینی کرده است، کاملا معتبر نیست، درست است؟ در همین راستا، وقتی نیت سیلور بیان میکند که SPI برای سال 2010 بسیار خوب عمل کرده است، این در واقع چیزی به ما نمیگوید زیرا میتوانست به همان اندازه _شانس_، به معنای یک نتیجه تصادفی باشد؟ بنابراین، ما هیچ روشی نداریم که بگوییم آیا یکی از این پیشبینیهای برجسته جام جهانی واقعاً مدلهای خوبی هستند، با توجه به اینکه این مدلها را برای ۱۰۰ جام جهانی بعدی اعمال نمیکنیم و بعد از آن ارزیابی میکنیم؟ منظورت چیه؟ | آیا پیش بینی جام جهانی قابل آزمایش است؟ |
79281 | من سعی می کنم یک میانگین و انحراف معیار از 2 صدک را برای توزیع لگ نرمال محاسبه کنم. من در انجام محاسبه برای توزیع نرمال با استفاده از `X = mean + sd * Z` و حل میانگین و sd موفق بودم. فکر میکنم وقتی میخواهم همین کار را برای توزیع لگ نرمال انجام دهم، معادلهای را از دست میدهم. من به ویکیپدیا نگاه کردم و سعی کردم از «ln(X) = mean + sd * Z» استفاده کنم، اما گیج میشوم که آیا میانگین و sd در این مورد برای توزیع نرمال است یا lognormal. از کدام معادلات استفاده کنم؟ و آیا برای حل محاسبات به بیش از 2 صدک نیاز دارم؟ | نحوه محاسبه میانگین و انحراف معیار برای توزیع لگ نرمال با استفاده از 2 صدک |
50182 | من در کلاس آمار فضایی شرکت می کنم و در جاده هستم بنابراین نمی توانم از پروفسور کمک بخواهم. از کمک به درک آنچه در اینجا می گذرد سپاسگزاریم. مشکل با $Y = X_s'\beta + e$ (با مختصات نمایه سازی $s$) تنظیم شده است. $e$ ثابت مرتبه دوم فرض می شود، با واریوگرام $$ \gamma(h) = \left\\{\begin{array}{l r} 0 & h=0\\\ \tau^2 + \ sigma^2\left(\frac{3h}{2\rho}-\frac{h^3}{2\rho^3}\right) & 0 <h \leq \rho\\\ \tau^2 + \sigma^2 & h > \rho\\\ \end{array}\right. $$ که در آن $h$ فاصله بین دو نقطه است. برای فرآیندهای ثابت مرتبه دوم، ظاهراً درست است که $C(h) = lim_{h' \rightarrow \infty} \gamma(h') - \gamma(h)$، که در آن $C(h)$ یک تابع کوواریانس، که تنها تابعی از فاصله است، زیرا فرآیندها مرتبه دوم ثابت هستند. این بدان معنی است که تابع کوواریانس $$ C(h) = \left\\{\begin{array}{l r} \tau^2 + \sigma^2 & h=0\\\ \sigma^2\left( 1-\left(\frac{3h}{2\rho}-\frac{h^3}{2\rho^3}\right)\right) & 0 <h \leq \rho\\\ 0 & h > \rho\\\ \end{array}\right. $$ که حس شهودی دارد. اکنون برای بخش پیچیده تر (به هر حال برای من): به ما گفته می شود که فرض کنیم $e$ یک فرآیند گاوسی است. از ما سؤال می شود که آیا ممکن است احتمال نمایه را فقط به عنوان تابعی از $\rho$ محاسبه کنیم. تابع احتمال تابع یک نرمال چند متغیره استاندارد است. سوال من: چگونه می توانم جبر را دنبال کنم تا (یا) احتمال نمایه ای را پیدا کنم که فقط تابعی از $\rho$ یا شاید تابعی از $\rho$ و $\tau$ باشد؟ اگر مورد دوم باشد، چگونه می توانم با این واقعیت کنار بیایم که پارامتر $\tau$ در قطرهای ماتریس کوواریانس نشان داده می شود، اما در مورب های خاموش نمایش داده نمی شود؟ به نظر می رسد که جبر را غیرقابل حل می کند. نکات قابل تقدیر است. | با توجه به این تابع کوواریانس، به من کمک کنید تا درستی نمایه را بفهمم |
50185 | من 25 ماتریس 19x19 حاوی اندازه گیری انسجام بین الکترودهای EEG دارم. من می خواهم آنها را با خوشه بندی یا هر روش دیگری به چند گروه تقسیم کنم. من می دانم چگونه با بردارها رفتار کنم، اما چیزی در مورد خوشه بندی مجموعه ای از ماتریس ها پیدا نمی کنم. اگر می تواند کمک کند - فکر می کنم می توانیم از انسجام به عنوان فاصله بین سلول ها در ماتریس استفاده کنیم. بنابراین ممکن است روشی برای خوشه بندی ماتریس های فاصله وجود داشته باشد؟ * * * **ویرایش** روش های سنتی خوشه بندی بردارهای خوشه ای. در فضای برداری، متریک فاصله و سایر توابع فاصله به خوبی تعریف شده است. فاصله اقلیدسی بین بردارهای $x_1$ و $x_2$ $|x_1-x_2|_2$ است، هنجار 2 $x_1-x_2$. به طور مشابه، برای مقایسه دو ماتریس $M_1$ و $M_2$، ممکن است بخواهیم $|| M_1-M_2||_p$، p-norm $M_1-M_2$. * * * **ویرایش** در حالی که دو راه حل وجود دارد: 1. محاسبه فاصله بین ماتریس ها به عنوان مجموع مربع های ماتریس اختلاف 2. یک مثلث از هر ماتریس را در یک بردار باز کنید ** چیز دیگری وجود دارد؟** | خوشه بندی مجموعه ای از ماتریس ها |
67940 | اخیراً، من به کار بر روی یک مسابقه یادگیری ماشینی که در Kagge.com میزبانی شده بود، خیره شدم. به عنوان اولین گام، یک سیستم سریع و کثیف با استفاده از رگرسیون لجستیک (LR) توسعه یافت. پس از اجرای سیستم با افزایش گام به گام تعداد نمونه های آموزشی و ترسیم منحنی یادگیری، متوجه شدم که سیستم من از مشکل بایاس بالا رنج می برد. برای غلبه بر این مشکل، تعداد ویژگی ها را مرحله به مرحله افزایش دادم و خطاهای آموزشی و اعتبارسنجی متقاطع را اندازه گرفتم. متأسفانه، این بهبود قابل توجهی را نشان نداد و دقت آموزشی و اعتبارسنجی متقاطع در محدوده 76٪ - 79٪ باقی ماند. در حال حاضر در نظر دارم یکی از راه های زیر را دنبال کنم. 1. چند الگوریتم یادگیری دیگر (NN تک لایه، SVM یا درخت تصمیم) را امتحان کنید و اکثریت رای بگیرید. 2. از آنجایی که این یک مشکل تجزیه و تحلیل متن (در واقع صفحات وب) است، به جای unigram، bigram (و trigram) را با LR امتحان کنید و بررسی کنید که آیا می توانم به بهبود قابل توجهی برسم. توصیه های تخصصی شما بسیار قابل تقدیر است. | طراحی سیستم یادگیری ماشین: یک توصیه عملی |
111364 | من در مدل سازی گسسته گسسته تازه کار هستم و نیمی از راه را با مطالعه روش های انتخاب گسسته قطار با شبیه سازی گذرانده ام. سوال من این است: اگر برخی از سطوح انتخاب با هم ترکیب شوند، چه کار کنم؟ به عنوان مثال، اگر گزینه های 1،2،3،4،5 وجود داشته باشد، اما من فقط می دانم که آیا فردی 1، یا 2، یا یکی از 3،4،5 را انتخاب کرده است، اما نه دقیقاً کدام یک از 3،4،5 . من می توانم ببینم که تابع درستنمایی چگونه می تواند در این مورد ساخته شود -- اگر اشتباه نکنم یک احتمال حاشیه ای خواهد بود. من می خواهم بدانم: 1. نام این نوع مدل چیست؟ من خودم نتوانستم در گوگل چیزی پیدا کنم. 2. برخی از پیادهسازیهای عملی (یعنی بستههای نرمافزاری) که در حال حاضر وجود دارند چیست؟ خیلی ممنونم! | مدل انتخاب گسسته با ترکیب چند سطح |
66098 | من می خواهم یک رگرسیون لجستیک با R انجام دهم. 18 متغیر کمکی پیوسته و نمونه ای متشکل از 100 مشاهده دارم. وقتی همه متغیرهای کمکی را در مدل «glm()» وارد میکنم، هیچکدام از آنها مهم نیستند، اما مدل نتیجه را کاملاً بر روی دادههای آزمون پیشبینی میکند! سوالات من این است: 1. آیا حجم نمونه برای اجرای «glm()» با این تعداد متغیر کمکی کافی است؟ 2. علل دیگر مشکل چه می تواند باشد؟ 3. چگونه می توانم چنین مدلی را به درستی اجرا کنم؟ | چه چیزی باعث پیش بینی کامل می شود اما هیچ پیش بینی کننده قابل توجهی در رگرسیون لجستیک وجود ندارد؟ |
50183 | من به آب و هوا خیلی علاقه دارم. من از داده های ایستگاه های هواشناسی استفاده می کنم. در اینجا 2 نمونه از تغییر _میانگین دمای سالانه_ در وین و مسکو آورده شده است. (من تعداد بیشتری لینک دارم، اما فقط 2 پیوند مجاز است (( روش _LinearModelFit_ از Mathematica استفاده شده است (خطوط آبی). تعداد کمی است، اما همیشه مثبت است. _آیا معیارهای اضافی وجود دارد (به جز اینکه $a>0$) برای کسی می تواند بگوید: بله، با احتمال 50% (20؟...90؟) ما متماتیکا روش های آماری زیادی دارد بنابراین مشکل فقط این است که از چه چیزی استفاده شود. | آزمایش گرمایش جهانی |
50184 | برآورد اطلاعات متقابل [A Kraskov, H Stögbauer, P Grassberger - Physical Review E, 2004] بیان می کند که > اطلاعات متقابل تحت پارامترسازی مجدد متغیرهای حاشیه ای ثابت است. اگر $X ′ = F(X)$ و $Y′ =G(Y)$ همومورفیسم هستند [یعنی. smooth > maps unvertible invertable]، سپس $$I(X,Y ) = I(X′,Y′)$$ این مقاله در ویکی پدیا نیز برای توجیه همین ادعا استفاده می شود. اما اگر این درست باشد، آیا این بدان معنا نیست که اگر $F=G$ و $X=Y$، $$H(X) = I(X,X) = I(X',X') = I دریافت می کنیم (F(X),F(X)) = H(F(X))$$ که در آن $H$ آنتروپی دیفرانسیل است؟ آیا این اثبات نیست که آنتروپی دیفرانسیل نیز در حقیقت تغییر ناپذیر است. چنین تبدیل هایی (که بدیهی است به این دلیل نیست که به عنوان مثال برای ثابت $a$، $H(aX) = H(X) + \log|a| \neq H(X)$)؟ به طور خاص من تعجب می کنم که آیا $I(X,F(X))=H(X)=H(F(X))$ برای همه هومورفیسم ها $F$. آیا کسی می تواند به من کمک کند که عدم اطمینان خود را کاهش دهم؟ PS: من در مورد مورد مستمر صحبت می کنم، یعنی. آنتروپی دیفرانسیل و اطلاعات متقابل دیفرانسیل | اطلاعات متقابل واقعاً نسبت به تحولات معکوس تغییرناپذیر است؟ |
68931 | من در محاسبه $\mathrm{E}\left(\sqrt{T_{1} T_{2}}\right)$ مشکل زیادی دارم که در آن $T_{i}$ یک متغیر تصادفی است که بر اساس توزیع Birnbaum-Saunders توزیع شده است. . آیا پیشنهادی در مورد نحوه محاسبه عبارت وجود دارد؟ تقریب در Kundu et. در سال 2010 اما هنگام برنامه نویسی در R، تقریب از هم جدا می شود، به این فکر می کنم که خطا در رویکرد است و شاید بتواند با رویکردهای دیگر روبرو شود. | محاسبه ارزش مورد انتظار |
50277 | من کاملاً مبتدی هستم، اما فکر می کنم چیزی که به دنبال آن هستم کمک برای یک مشکل بهینه سازی است. من مجموعه ای از حدود 26 مورد دارم که هر کدام ارزش خاصی دارند. من میخواهم این آیتمها را تا حد امکان به 8 گروه به طور مساوی تقسیم کنم، با توجه به اینکه توزیع کاملاً مساوی به دلیل ارزشهای اقلام فردی امکانپذیر نیست. من فکر میکنم یکی از راههای اندازهگیری اینکه چقدر اقلام بهطور مساوی به گروهها تقسیم شدهاند، با گرفتن انحراف معیار مجموع مقادیر اقلام در هر گروه است. آیا بسته ای در R وجود دارد که به من کمک کند تا انحراف معیار این مبالغ را با تغییر تخصیص اقلام به گروه ها به حداقل برسانم؟ FWIW، این یک مشکل «تقسیم املاک» است که در آن هر کالا دارای ارزش مشخصی است و هیچ مناقصه/حراجی نمیتواند انجام شود. | انحراف معیار مجموع مقادیر گروه های اقلام (بهینه سازی؟) را در r به حداقل برسانید |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.