_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
41510
چگونه آن را توضیح می دهید؟ تنها یک عملگر وجود دارد اما مدل ترکیبی تخمینی را برای اثر تصادفی «اپراتور» برمی‌گرداند. علاوه بر این، اثر «نمونه» با تعامل «نمونه: عملگر» اشتباه گرفته می‌شود. در زیر کد R آمده است. > اپراتور نمونه dd y 9 10 SCF 0.9153188 10 10 SCF 0.9884982 19 100 SCF 2.0798781 20 100 SCF 2.0464027 29 1000 SCF 0.9884982 3.0114448 39 10000 SCF 4.1348324 40 10000 SCF 4.0840063 49 1e+05 SCF 5.1235795 50 1e+05 SCF 5.110638 SCF 6.0803404 60 1e+06 SCF 6.2353263 > str(dd) 'data.frame': 12 obs. از 3 متغیر: $ نمونه : فاکتور w/ 6 سطح 10، 100، 1000،...: 1 1 2 2 3 3 4 4 5 5 ... $ عملگر: فاکتور w/ 1 سطح SCF : 1 1 1 1 1 1 1 1 1 1 ... $ y : num 0.915 0.988 2.08 2.046 3.04 ... > lmer(y ~ (1|نمونه)+(1|عملگر)+(1|نمونه:عملگر)، داده=dd) مدل ترکیبی خطی متناسب با REML فرمول: y ~ (1 | نمونه) + (1 | عملگر) + (1 | نمونه:اپراتور) داده: dd AIC BIC logLik انحراف REMLdev 18.6 21.03 -4.302 9.932 8.605 اثرات تصادفی: نام گروه ها Variance Std.Dev. نمونه:اپراتور (Intercept) 1.87954740 1.370966 نمونه (Intercept) 1.87954925 1.370967 اپراتور (Intercept) 0.00063096 0.025119 باقیمانده 0.0028035931 گروه: 0.0028035931 باقیمانده نمونه: اپراتور، 6; نمونه، 6; عملگر، 1 اثرات ثابت: برآورد Std. مقدار خطای t (Intercept) 3.5709 0.7921 4.508 برای کسانی که با SAS آشنایی بیشتری دارند کد مربوطه این است: PROC MIXED DATA=dd; اپراتور نمونه کلاس؛ مدل y=; نمونه تصادفی اپراتور نمونه*اپراتور. اجرا؛ این چیزی نیست جز ANOVA دو طرفه متقاطع با اثرات تصادفی.
مدل ترکیبی در R به خوبی اجرا می شود در حالی که یک اثر تصادفی تنها یک سطح دارد
87242
یک دستگاه ضرب سکه به طور تصادفی سکه های نامتعادل تولید می کند به طوری که احتمال موفقیت در پرتاب یک سکه متغیر تصادفی $Y$ است. فرضاً $Y$ دارای pdf $f(y) = 2y$ برای $0 <= y <= 1$ و در غیر این صورت $0$ است. به طور تصادفی یک سکه بردارید. 1. این سکه را پرتاب کنید و اجازه دهید X$$ 1 باشد اگر نتیجه یک سر باشد و 0 اگر دم باشد. احتمال $P(X=1)$ را پیدا کنید. 2. سکه را $n$ بار پرتاب کنید. احتمال به دست آوردن هدهای $k$ را در پرتاب‌های $n$ پیدا کنید، جایی که $n$ و $k$ اعداد صحیح مثبت هستند و $k <= n$. 3. این سکه را دو بار پرتاب کنید. اگر اولین پرتاب منجر به دم شود، احتمال مشروط آن چقدر است که پرتاب بعدی نیز دم باشد؟ راهنمایی برای (3): از تابع بتا استفاده کنید ویرایش: من در مفهوم سازی این سوال مشکل دارم. برای (1) آیا P(X=1) معادل Y نیست؟ راهبردهای پشت حل (2) و (3) چیست؟ برای 3) آیا پرتاب سکه دوم مستقل از پرتاب اول نیست؟ چرا احتمال شرطی وجود دارد؟
احتمالات/انتظارات مشروط
41515
من در تلاش برای به دست آوردن خطاهای استاندارد قوی هستم زیرا به نظر می رسد که باقیمانده های رگرسیون من همبستگی دارند ... داده های نمونه من دارای 8 کشور است و من می خواهم خطاهای استاندارد این 8 کشور را با استفاده از SPSS خوشه بندی کنم ... خوانده ام که می توانید برای انجام این کار از STATA استفاده کنید اما من فقط SPSS را روی لپ تاپم نصب کرده ام. کمک کنید. کسی میانبر یا ماکروی برای این کار می شناسد؟ ممنونم!!!
چگونه با استفاده از SPSS خطاهای استاندارد (بر اساس کشور) را خوشه بندی کنیم؟
41512
من به دنبال منابع کنترل کیفیت آماری نرم افزار هستم. جست‌وجوی‌های من نوشته‌های زیادی در مورد چگونگی پیش‌بینی زمان پروژه‌های نرم‌افزاری و همچنین نرم‌افزاری که می‌توان از آن در کنترل کیفیت استفاده کرد، یافت، اما واقعاً چیزی به‌طور خاص برای ارزیابی کیفیت نرم‌افزار پیدا نکردم. برخی از سوالات اساسی که می خواهم بپرسم مواردی از این قبیل هستند: * آیا بخش X باگ بیشتری نسبت به بخش Y ایجاد می کند؟ * آیا «زمان کرانچ» باعث افزایش درصد عیب می شود؟ در بررسی این موارد، متوجه می‌شوم که داده‌ها به طور معمول توزیع نمی‌شوند، که باعث می‌شود نگران باشم که دانش آمار محدود من بدون کمک به انجام وظیفه می‌پردازد. همچنین، برخی از مشکلات من (به عنوان مثال توزیع غیر عادی) به طور کلی در مورد کنترل کیفیت اعمال می شود، اما من نگران ناشناخته های ناشناخته هستم.
مراجع کنترل کیفیت نرم افزار
60410
به نظر می رسد این موضوع همیشه سر زشت خود را به دنبال دارد، و من سعی می کنم برای درک خودم از آمار (و سلامت عقل!) آن را قطع کنم. مفروضات مدل های خطی عمومی (آزمون t، ANOVA، رگرسیون و غیره) شامل فرض نرمال بودن است، اما من متوجه شده ام که این به ندرت به وضوح توضیح داده می شود. من اغلب با کتاب های آماری / کتابچه های راهنما / غیره مواجه می شوم که به سادگی بیان می کنند که فرض نرمال بودن برای هر **گروه** (یعنی متغیرهای طبقه بندی X) صدق می کند، و ما باید انحرافات از نرمال بودن را برای **هر گروه* بررسی کنیم. *. _**سوالات_**: 1. آیا این فرض به **مقادیر** Y اشاره دارد یا **بقیه**های Y؟ 2. برای یک **گروه** خاص، آیا ممکن است یک توزیع غیرعادی شدید از ** مقادیر** Y (به عنوان مثال، اریب) اما توزیع تقریباً (یا حداقل نرمال تر) از **باقیمانده*ها وجود داشته باشد. * از Y؟ منابع دیگر توصیف می‌کنند که این فرض مربوط به باقیمانده‌های **مدل** است (در مواردی که گروه‌هایی وجود دارد، به‌عنوان مثال، t-test / ANOVA)، و ما باید انحراف نرمال بودن این باقیمانده‌ها را بررسی کنیم (یعنی فقط یک Q-Q). طرح/آزمایش برای اجرا). 3. آیا نرمال بودن باقیمانده ها برای **مدل** به معنای نرمال بودن باقیمانده ها برای **گروه ها** است؟ به عبارت دیگر، آیا باید فقط باقیمانده های مدل را بررسی کنیم (برخلاف دستورالعمل های بسیاری از متون)؟ برای قرار دادن این موضوع، این مثال فرضی را در نظر بگیرید: * من می خواهم ارتفاع درخت (Y) را بین دو جمعیت (X) مقایسه کنم. * در یک جمعیت، توزیع Y به شدت به سمت راست است (یعنی اکثر درختان کوتاه، بسیار کم قد)، در حالی که دیگری تقریباً نرمال است * قد به طور کلی در جمعیت توزیع شده معمولی بالاتر است (که نشان می دهد ممکن است یک واقعی وجود داشته باشد. تفاوت). * تبدیل داده ها به طور قابل ملاحظه ای توزیع جمعیت اول را بهبود نمی بخشد. 4. اولا، آیا مقایسه گروه ها با توجه به توزیع های قد کاملاً متفاوت معتبر است؟ 5. چگونه می توانم به فرض عادی بودن در اینجا نزدیک شوم؟ قد فراخوان در یک جمعیت به طور معمول توزیع نمی شود. آیا **باقیمانده**ها را برای هر دو **جمعیت** به طور جداگانه بررسی می کنم یا باقیمانده ها را برای **مدل** (آزمون t)؟ * * * لطفاً در پاسخ ها به سؤالات بر اساس شماره مراجعه کنید، تجربه به من نشان داده است که افراد به راحتی گم می شوند یا منحرف می شوند (مخصوصاً من!). به خاطر داشته باشید که من آمارگیر نیستم. اگرچه من درک معقولی **مفهومی** (یعنی نه فنی!) از آمار دارم. P.S.، من آرشیوها را جستجو کردم و موضوعات زیر را خواندم که درک من را تقویت نکردند: * نرمال بودن فرض ANOVA/ توزیع نرمال باقیمانده ها * نرمال بودن باقیمانده ها در مقابل داده های نمونه؛ تست های تی چطور؟ * آیا تست نرمال بودن اساساً بی فایده است؟ * تست نرمال بودن * ارزیابی نرمال بودن توزیع * برای تأیید اینکه باقیمانده ها به طور معمول توزیع شده اند از چه آزمایش هایی استفاده کنم؟ * توزیع نرمال * نرمال بودن باقیمانده ها در مقابل داده های نمونه. تست های تی چطور؟
نرمال بودن متغیر وابسته = نرمال بودن باقیمانده ها؟
86592
من یک پانل تجربی بزرگ دارم، که در آن اساساً می‌خواهم انحراف استاندارد بازده (صاحب صاحبان سهام) ($y_{it}$) شرکت i را در زمان t، در اهرم (صاحب صاحبان سهام/بده) شرکت i در زمان t ( $x_{it}$). علاوه بر این، من می خواهم اندازه سهام شرکت ($z_{it}$) را کنترل کنم. متأسفانه علامت ضریب $\beta$ تغییر می کند (در هر دو مشخصات قابل توجه است) اگر دو مدل زیر را اجرا کنم: مدل جلوه های ثابت: $$ y_{it} = a_{i} + \beta * x_{it} + c * z_ {it} + u_{it}$$ مدل اول تفاوت: $$ \Delta y_{it} = \beta * \Delta x_{it} + c * \Delta z_{it} + \Delta u_{it}$$ از آنجایی که من فقط دانش اولیه در مورد اقتصاد سنجی دارم و همکارانم نیز متحیر هستند، امیدوار بودم که برخی از بچه های آماری به من کمک کنند. من برخی از مشکلات بالقوه را شناسایی کردم (اما ممکن است موارد بیشتری وجود داشته باشد): * $y_{it}$ ممکن است همبستگی خودکار داشته باشد * از آنجایی که اهرم به عنوان بدهی / حقوق صاحبان سهام تعریف می شود، کنترل برای حقوق صاحبان سهام برخی از مشکلات بالقوه را به همراه دارد. سوال واقعی اکنون این است: کدام مدل (اگر هر) از نظر اقتصاد سنجی درست است؟
تغییرات علامت ضریب در برآورد اثر ثابت و تفاضل اول
7176
همه چیزهایی که در مورد ترکیب خطاها در ربع در هنگام ضرب یا تقسیم مقادیر با خطاهای مرتبط خوانده ام، می گوید که این برای خطای کوچک کار می کند. در مورد خطای بزرگ چطور؟ بگویید من می‌خواهم A/B را محاسبه کنم که در آن A +/- 1٪ و B +/- 50٪ است، آیا هنوز هم می‌توانم خطاها را به طور منطقی در ربع اضافه کنم؟
انتشار خطاهای بزرگ
86598
به طور کلی منطقه رد مشترک آزمون t، سه فرضیه جایگزین و منطقه رد برای آزمون t تک نمونه ای وجود دارد: 1. برای فرضیه جایگزین $H_1: μ1 ≠ μ2$، منطقه رد $|T| > t_{α/2}، ν$ 2. برای فرضیه جایگزین $H_1: μ1 > μ2$، ناحیه رد $|T| > t_{1-α}، ν$ 3. برای فرضیه جایگزین $H_1: μ1 < μ2$، ناحیه رد $|T| > t_{α},ν$ سوال من این است که چرا برای فرضیه جایگزین $(2) H_1: μ1 > μ2$ معیار $t$ برای رد استفاده از **$t_{1-α}$** نسبت به ** $t_α$**؟؟؟؟ پیشاپیش متشکرم
چرا برای فرضیه جایگزین $(2) H_1: μ1 > μ2$، معیار $t$ برای رد، از **$t_{1-α}$** نسبت به **$t_α$** استفاده می‌کند؟
33596
من برای به دست آوردن تعدادی از مجموعه داده های تکمیل شده از انتساب چندگانه استفاده کرده ام. من از روش های بیزی در هر یک از مجموعه داده های تکمیل شده برای به دست آوردن توزیع های پسین برای یک پارامتر (یک اثر تصادفی) استفاده کرده ام. چگونه می توانم نتایج را برای این پارامتر ترکیب / ترکیب کنم؟ * * * زمینه بیشتر: مدل من سلسله مراتبی است به معنای تک تک دانش آموزان (یک مشاهده برای هر دانش آموز) که در مدارس خوشه ای هستند. من چندین انتساب (با استفاده از «MICE» در R) روی داده‌هایم انجام داده‌ام که در آن «مدرسه» را به عنوان یکی از پیش‌بینی‌کننده‌های داده‌های گمشده درج کرده‌ام - تا سعی کنم سلسله‌مراتب داده‌ها را در انتساب‌ها ادغام کنم. من یک مدل شیب تصادفی ساده را برای هر یک از مجموعه داده های تکمیل شده برازش داده ام (با استفاده از «MCglmm» در R). نتیجه باینری است. من متوجه شده‌ام که چگالی‌های خلفی واریانس شیب تصادفی «خوب رفتار می‌کنند» به این معنا که چیزی شبیه به این هستند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/J522M.png ) چگونه می توانم میانگین های پسین و فواصل معتبر از هر مجموعه داده منتسب شده را برای این اثر تصادفی ترکیب کنم؟ * * * **به روز رسانی 1**: از آنچه تاکنون فهمیده ام، می توانم قوانین روبین را برای میانگین خلفی اعمال کنم تا یک میانگین پسین منتسب ضربی را ارائه دهم - آیا انجام این کار مشکلی دارد؟ اما من نمی دانم چگونه می توانم فواصل 95٪ معتبر را ترکیب کنم. همچنین، از آنجایی که من یک نمونه چگالی خلفی واقعی برای هر انتساب دارم - آیا می توانم اینها را به نحوی ترکیب کنم؟ * * * **Update2**: طبق پیشنهاد @cyan در نظرات، من ایده ترکیب ساده نمونه‌ها از توزیع‌های پسین به‌دست‌آمده از هر مجموعه داده کامل از انتساب چندگانه را بسیار دوست دارم. با این حال، من دوست دارم توجیه نظری انجام این کار را بدانم.
چگونه می توانم بعد از انتساب چندگانه، ابزارهای پسین و فواصل معتبر را جمع آوری کنم؟
72681
اخیراً، من در مورد محاسبه احتمال اینکه یک فرد معین در یک جمعیت معین «دانست» (مثلاً در مجموعه دوستان فرد وجود دارد) حداقل یک فرد با یک ویژگی خاص A و حداقل یک فرد با یک ویژگی خاص دیگر، B را محاسبه کنم. ; جایی که ممکن است هر تعداد از افراد در مجموعه دوستان فرد معین بتوانند هر دو ویژگی را داشته باشند. برای مثال، با استفاده از صفات ژنتیکی، در یک جمعیت معین، چگونه می‌توان این احتمال را محاسبه کرد که یک فرد در یک جمعیت معین حداقل یک فرد با رنگ چشم خاکستری و حداقل یک فرد با قد بیش از 200 سانتی‌متر را می‌شناسد. که به طور طبیعی، ممکن است هر تعداد از افراد در مجموعه دوستان رنگ چشم خاکستری داشته باشند _و_ قدشان بیشتر از 200 سانتی متر باشد. من نوعی مدل را توسعه داده ام، اما ممکن است به درستی مشخص نشده باشد. به شرح زیر است: **فرض ها و شرایط:** * اول از همه، برای سادگی، اجازه دهید فرض کنیم که ما دانستن را به عنوان دوستانی که به طور متقابل متصل هستند در یک شبکه اجتماعی آنلاین تعریف می کنیم. * ثانیاً، فراوانی صفات ژنتیکی (الف) بر اساس قومیت یک جمعیت معین و همچنین عوامل محیطی (تغذیه، مراقبت های بهداشتی) تعیین می شود و (ب) بعید است که به طور مستقل در مجموعه دوستان یک فرد معین (مثلاً خانواده) توزیع شود. اعضا شباهت ژنتیکی بیشتری خواهند داشت). با این حال، برای این مشکل، بیایید یک مدل ساده را اتخاذ کنیم که در آن هر دو شرایط فوق نقض می شوند. * ثالثاً، فرض کنید که مجموعه دوستان فرد، بازنمایی کوچک کیهانی از جامعه را ارائه می دهد. این امر تولید مکرر احتمالات را از نرخ نمونه در جمعیت تسهیل می کند. * در نهایت، نمونه هایی از صفات ژنتیکی در جمعیت ساخته می شود، اما برای ایجاد احتمالات برای نمونه ها استفاده می شود. ** فرمول‌بندی مدل: ** من استدلال کرده‌ام که توزیع تصادفی دوجمله‌ای را می‌توان برای احتمال هر صفت ژنتیکی اعمال کرد، که در آن موفقیت به عنوان فردی در مجموعه دوستان که آن ویژگی ژنتیکی را دارد، تعریف می‌شود. بنابراین برای صفت A، داریم: $$P(A=k) = \binom{N}{k}p_{a}^{k}(1-p_{a})^{N-k}$$ و برای ویژگی B: $$P(B=k) = \binom{N}{k}p_{b}^{k}(1-p_{b})^{N-k}$$ که $N$ تعداد دوستان است در مجموعه دوستان، $k$ تعداد افرادی است که دارای ویژگی ژنتیکی هستند و $p_{x}$ احتمال مربوط به داشتن ویژگی ژنتیکی $X$ است. از آنجایی که این سناریو به احتمال _ حداقل یک_ فرد دارای صفت A و _ حداقل یک_ فرد دارای صفت B مربوط می شود، یافتن مکمل هیچ فردی در مجموعه دوستانی که این ویژگی را دارد آسان تر است. برای هر دو صفت: $$P(A >= 1) = 1 - P(A = 0)$$ و $$P(B >= 1) = 1 - P(B = 0)$$ علاوه بر این، ما می دانیم که احتمال تقاطع رویدادها به صورت زیر داده می شود: $$\mathbb{P}(A \cap B) = \mathbb{P}(A|B)\mathbb{P}(B) = \mathbb{P}(B|A)\mathbb{P}(A)$$ با این حال، چون ما بین صفات ژنتیکی استقلال را فرض می‌کنیم، $\mathbb{P}(A)$ و $\mathbb{P}(B )$ مستقل هستند، بنابراین: $$\mathbb{P}(A \cap B) = \mathbb{P}(A)\mathbb{P}(B)$$ با ترکیب اطلاعات بالا، ما مدل زیر را برای سناریوی بالا دریافت کنید: $$\mathbb{P}(A >=1، B >=1) = \left(1-\binom{N}{k}p_{a}^{k}( 1-p_{a})^{N-k}\right)\left(1-\binom{N}{k}p_{b}^{k}(1-p_{b})^{N-k}\راست) $$ بنابراین، برای مثال اصلی بالا، با فرض یک مجموعه دوست با اندازه $N = 300$، نمونه صفت A در جمعیت $\frac{1}{800}$ است و نمونه صفت B در جمعیت $ است. \frac{1}{5000}$; با توجه به مدل، احتمال نهایی را بدست می آوریم: $$\mathbb{P}(A >=1, B >=1)$$ $$ = \left(1-\binom{300}{0}\left(\frac{1}{800}\right)^{0}\left(\frac{799}{800}\right)^{300}\ درست)\l eft(1-\binom{300}{0}\left(\frac{1}{5000}\right)^{0}\left(\frac{4999}{5000}\right)^{300}\right )$$ $$\حدود 0.018 = 1.8\%$$ آیا این مدل با توجه به مفروضات معقول به نظر می رسد؟ با فرض اینکه این مدل به درستی _نه_ مشخص شده باشد، شاید کسی بتواند نمایش دقیق تری ارائه دهد.
مدل سازی احتمالات در مجموعه دوستان
40643
من در استفاده از تست های آماری تازه کار هستم و اینجا یک سوال بسیار آسان است اما نمی توانم پاسخ آن را آنلاین پیدا کنم. من قصد دارم نظرسنجی بفرستم و استادم به من گفت که باید همان سوال را سه بار بپرسم، اما سپس آن را به گونه‌ای متفاوت بازنویسی کنم تا بررسی کنم که آیا افراد به جای کلیک کردن روی نقطه‌ها در سریع‌ترین زمان ممکن، نظرسنجی را با دقت پر کرده‌اند یا خیر. . تستی وجود دارد که می توانید از آن استفاده کنید تا ببینید آیا سه پاسخ مربوط به یک متغیر تا حدودی مشابه هستند یا خیر. اسم این تست چیه؟
از چه آزمونی برای تعیین اینکه آیا کسی واقعاً در پرسشنامه پاسخ می دهد یا نه به طور تصادفی پاسخ می دهد استفاده کنید
89916
من روی پروژه ای در مورد گونه های خاص پرنده در جزیره ای در دریای اقیانوس اطلس شمالی کار می کنم. داده ها قابل اعتماد و بسیار دقیق به نظر می رسند و از قرن هجدهم باز می شوند، با این حال ساختار و قابلیت اطمینان آنها از سال 1970 برای استنتاج بیومتریک بیزی دقیق و دقیق است. من می خواهم نرخ مرگ و میر طبیعی پفکی را با روش های بیزی مدل کنم. من به طور تصادفی به مقالاتی در مورد بیومتریک برخورد کردم و از خود می‌پرسیدم که آیا کسی می‌تواند به مقاله‌ها یا مطالبی مشابه آنچه من دارم اشاره کند، زیرا می‌خواهم راه‌های متعددی را برای نزدیک شدن به مشکلم ببینم.
پروژه در بیومتریک بیزی
37670
من در تلاش برای تعریف یک تابع هدف یا روشی برای یافتن تبدیل و ضرایب بهینه‌سازی ثابت بودن باقیمانده‌های رگرسیون هستم. به عنوان مثال، اگر من بخواهم $X_1$ در مقابل $X_2$ پسرفت کنم و از تبدیل Box Cox استفاده کنم. من می خواهم $\lambda$ و $\beta$ s.t را پیدا کنم. $\varepsilon = \frac{X_1^\lambda-1}{\lambda} - \beta*\frac{X_2^\lambda-1}{\lambda}$ ثابت است. هر ایده ای؟
تبدیل بهینه سازی ایستایی باقیمانده یک رگرسیون
44944
من تعریف توابع مشخصه مورد استفاده در نظریه احتمال را درک می کنم: برای یک متغیر تصادفی $X$ با تابع چگالی احتمال $f_X$ تابع مشخصه به صورت زیر تعریف می شود: $$\phi_X(t) = E(\exp(itX)) = \int_{\mathbf{R}} e^{\mathrm{i}tx}f_X(x)\, dx.$$ خواندم که > تابع مشخصه در زمینه های غیراحتمالی، تبدیل فوریه > نامیده می شود (صفحه 342، احتمال و اندازه گیری. P.Billingsley 3rd > editon). اما من هنوز نمی توانم این را از تعاریف آنها ببینم، زیرا تبدیل فوریه $f^*$ یک تابع $f$ به صورت زیر تعریف می شود: $$ f^*(t) = \int_{\mathbf{R}^ n} f(x)\,e^{-\mathrm{i} t \cdot x} \,\mathrm{d} x$$ اگر تابع $f$ یک چگالی باشد، برای مثال. $f=f_X$، سپس تبدیل فوریه را می توان به صورت زیر نوشت: $$ f^*_X = \int_{\mathbf{R}^n} f_X(x)\,e^{-\mathrm{i} t \ cdot x} \,\mathrm{d} x \neq \int_{\mathbf{R}} e^{\mathrm{i}tx}f_X(x)\, dx = \phi_X(t) $$ تعاریف با یک منهای متفاوت هستند، چرا می‌توان از هر دو برای یک چیز استفاده کرد (مثلاً برای دکانولوشن)؟
تابع مشخصه و تبدیل فوریه
74133
من یک تجزیه و تحلیل متمایز برای اعتبار سنجی تحلیل خوشه ای خود انجام دادم. تجزیه و تحلیل خوشه ای مبتنی بر PCA است، بنابراین من از مؤلفه ها به عنوان متغیرهای مستقل در تجزیه و تحلیل متمایز استفاده کردم. سوال من این است: آیا محدودیتی با توجه به تعداد متغیرهای مستقل (مولفه) در مقایسه با تعداد گروه های (خوشه ای) من وجود دارد؟ خیلی ممنون
تجزیه و تحلیل متمایز برای اعتبار سنجی تحلیل خوشه ای
33594
من سعی می کنم تحلیل این مورد ساده (امیدوارم) را در ذهنم درست کنم. بیایید بگوییم که من یک چیز را به دو روش مختلف، بر روی یک مجموعه از داده‌ها اندازه‌گیری می‌کنم. این اندازه گیری ها را $y_1$ و $y_2$ بنامید. آنها دارای خطاهای گاوسی $s_1$ و $s_2$ هستند. اما از آنجایی که آنها بر روی داده های رایج اندازه گیری می شوند، دارای ضریب همبستگی $\rho $ هستند. بگویید $\rho$ با یک اسباب بازی مونت کارلو یا مشابه آن اندازه گیری می شود، اگرچه فکر نمی کنم این مهم باشد. فقط برای اطمینان از اینکه ما در یک صفحه هستیم، یک ماتریس کوواریانس ایجاد می کند که دارای $s_1^2$ و $\rho s_1s_2$ در ردیف بالا، و $\rho s_1 s_2$ و $s_2^2$ است. در امتداد ردیف پایین محاسبه میانگین وزنی $ \bar y$ آسان است. تحت شرایط خاصی می توان دریافت که $y$ خارج از محدوده $y_1، y_2$ است. این اتفاق می افتد، به ویژه، زمانی که $\rho >\frac {s_1}{s_2}$. از آنجایی که این اندازه‌گیری‌ها بر روی داده‌های یکسانی هستند و یک چیز را اندازه‌گیری می‌کنند، این امکان پذیر نیست. به طور خلاصه، opps. من باید اندازه گیری های خود را از $s_1، s_2$، یا $\rho$ به هم ریخته باشم. من با این احساس راحتی می کنم. :-) حالا، فرض کنید دقیقاً مانند بالا عمل می کنم، اما اکنون آن را به سطح بعدی می برم و تعدادی از خطاهای سیستماتیک مرتبط با هر روش را اندازه گیری می کنم. برای استدلال، بگویید که خطاهای سیستماتیک روش 1 با هیچ یک از خطاهای سیستماتیک روش 2 مرتبط نیست. آیا من چنین تست منظمی دارم تا ببینم آیا دیگر اشتباه کرده ام یا خیر؟ من در واقع فکر می کنم باید، همانطور که ممکن است تصور کنید که من خطاهای سیستماتیک دارم، اما آنها بسیار کوچک هستند. بنابراین، من می توانم کاری مانند کاهش $\rho$ انجام دهم - زیرا آنها اکنون دارای خطای نامرتبط هستند (خطای سیستماتیک) و سپس تست را دوباره اجرا می کنند. من فکر می‌کنم این کاملاً مستقیم است: من از $\rho$ برای تقسیم خطای آماری به یک بخش همبسته و نامرتبط استفاده می‌کنم، بخش‌های نامرتبط را در چهار قسمت با خطاهای سیستماتیک اضافه می‌کنم و سپس $\rho$ را دوباره محاسبه می‌کنم. اما آیا آزمون هنوز منطقی است؟ می ترسم در اینجا یک مفهوم اساسی را از دست بدهم یا بتوانم تعیین کنم که چه اتفاقی در حال رخ دادن است. چیزهای موجود در حوزه مشکل فعلی من به طور دلخواه پیچیده می شوند. من باید اندازه‌گیری‌های یک چیز را در مجموعه داده‌های نامرتبط، اما با خطاهای سیستماتیک مرتبط با هم ترکیب کنم. رویه ای که در بالا برای تنظیم $\rho$ توضیح دادم در اینجا نیز به همان اندازه اعمال می شود (خطای آماری نامرتبط است، اما برخی از خطاهای سیستماتیک خواهند بود)، اما در اینجا نادرست به نظر می رسد. سرنخ دیگری از مفهوم اساسی گمشده من. :-) ممنون می شوم کمکی برای درست کردن افکارم داشته باشم.
ترکیب اندازه گیری های همبسته - وزن های منفی
89910
من روی پروژه ای کار می کنم که به رابطه بین قرار گرفتن در معرض چندین داروی مختلف بر روی خطر زایمان زودرس در گروهی از زنان باردار مبتلا به یک بیماری خاص می پردازد. من مطمئن هستم که باید از یک متغیر وابسته به زمان در مدل Cox PH برای قرار گرفتن در معرض داروها استفاده کنم زیرا زنان داروها را در مقاطع مختلف بارداری شروع کردند و برخی اصلاً در معرض قرار نگرفتند. تاکنون، متغیر دارو را به دو صورت کدگذاری کرده‌ام: 1) به عنوان یک متغیر طبقه‌بندی که انواع داروها را فهرست می‌کند (آنها هرگز به طور همزمان مصرف نمی‌شوند، اما گاهی اوقات به صورت متوالی) بدون مواجهه با دارو به عنوان گروه مرجع، و 2) به عنوان یک دوجمله ای متغیر برای هر دارو با 1 برای فواصل زمانی مواجهه و 0 در غیر این صورت. مشکل من در تفسیر منابع انسانی است. در موردی که متغیر مقوله ای است، HR نسبت به گروه مرجع است. اما برای مورد دوم، آیا آنها نسبت به سایر انواع قرار گرفتن در معرض (از جمله عدم قرار گرفتن در معرض) هستند یا هنوز نسبت به عدم مواجهه هستند زیرا حضور همه متغیرهای دارویی دیگر در مدل به طور جداگانه با اثرات آنها سروکار دارد؟ به عبارت دیگر آیا تفسیر HR بین دو نوع مدل کم و بیش یکسان است یا مدل دوم متفاوت است و کمتر قابل تفسیر است؟ اگر این یک سوال اساسی است مرا ببخشید! من intertubes و کتابخانه مرجع خود را جست‌وجو کرده‌ام و به نظر نمی‌رسد که دقیقاً همین مشکل را پیدا کنم. اگر منبع خوبی می شناسید که باید بخوانم، لطفاً به آن اشاره کنید. با این حال، من می گویم که به نظر می رسد تمام منابع Cox PH وابسته به زمان که من پیدا کرده ام با نوردهی های باینری سروکار دارند... با تشکر!
نحوه کدنویسی و تفسیر متغیر متغیر زمان طبقه بندی در مدل Cox PH
80749
در **داده کاوی**، داده ها معمولاً می توانند به اشکال مختلف مانند رکوردهای **ماتریس**، **گراف** یا **داده های مرتب شده** نمایش داده شوند. در حالی که ما در تحقیقات مقالات مختلفی می یابیم که به روش ها یا راه حل هایی برای این بازنمایی های مختلف پرداخته اند، هیچ توضیح واضحی از مزایای هر بازنمایی در مقایسه با دیگری وجود ندارد (*یعنی زمانی که نمایش های مختلف می توانند برای حل مسئله اعمال شوند، تحت چه شرایطی، یک نمایندگی خاص مزیتی خواهد داشت؟**). در اینجا، من علاقه مند به دانستن مزیت نمایش نمودار نسبت به نمایش ماتریس داده ها هستم و بالعکس. من متوجه هستم که مشکلات مختلف به عنوان یکی از این دو راه، بازنمایی شهودی دارند. به عنوان مثال، یک شبکه اجتماعی، به طور شهودی، به عنوان یک نمودار نمایش داده می شود، در حالی که بیماران ثبت می کنند، به طور شهودی، به عنوان یک ماتریس داده نشان داده می شود. با این حال، می‌خواهم بدانم وقتی یک کار پیش‌بینی وجود دارد و می‌توان از هر دو نمایش برای حل آن کار استفاده کرد، این نمایش‌ها چگونه مقایسه می‌شوند. مثالی که ممکن است علاقه من را نشان دهد شبکه برهمکنش شیمیایی-پروتئین است. در این شبکه، مواد شیمیایی که ممکن است بر روی یک هدف پروتئینی خاص اثر بگذارند، رابطه فعالی خواهند داشت. این رابطه فعال می تواند به عنوان لبه وزن 1 بین یک ماده شیمیایی و یک پروتئین در یک نمودار یا به عنوان یک برچسب مثبت برای مجموعه ای از ویژگی هایی که ترکیب را در یک رکورد توصیف می کند نشان داده شود. مثال دیگر شبکه نویسنده-کاغذ است. برای پیش‌بینی نویسنده مقاله، ممکن است ویژگی‌هایی را از مقالات استخراج کنیم و ماتریس داده‌های خود را بسازیم. راه دیگر، ساختن نموداری است که در آن یک مقاله جدید با مشابه ترین مقاله پیوند داده می شود و سپس، ما سعی می کنیم بر اساس پیمایش نمودار، پیش بینی کنیم که چه کسانی ممکن است نویسنده باشند. **یک پاسخی که زمانی در مورد این دو نمایش فکر می‌کردم، سطوح مختلف توصیف داده‌ها است. ** در یک ماتریس داده، مزیت داشتن متغیرهای زیادی برای توصیف یک مورد یا نمونه خاص وجود دارد. از سوی دیگر، در نمودارها، تنها یک متغیر است که شباهت بین نمونه ها را نشان می دهد. با این وجود، توپولوژی گراف ممکن است گره های مهم شبکه را برجسته کند. دیگه چی؟ **به طور خلاصه، من علاقه مند هستم که بدانم توصیه متخصص در مورد زمان استفاده از نمایش گراف یا نمایش ماتریس داده و چرا؟ اگر شما کسی هستید که نمودارها را دوست دارید و ترجیح می دهید آنها را استخراج کنید، به من بگویید چرا؟**
تفاوت پیش بینی بین نمایش نمودار و نمایش ماتریس داده ها
71231
آیا می توانم مقادیر AIC یک تابع خطی را با یک تابع غیر خطی مقایسه کنم؟ چون نتایج کاملا متفاوتی می گیرم. یکی 4000 دیگری 6000000 است. تخمین بر روی همان متغیرهای مجموعه داده انجام می شود.
آیا می توانم مقادیر AIC یک تابع خطی را با یک تابع غیر خطی مقایسه کنم؟
14763
من دو لیست قیمت (سهام) دارم و به روشی نیاز دارم تا تشخیص دهم که آیا شکستگی های ساختاری در داخل آن سری ها وجود دارد یا خیر. از چه روشی می توانم استفاده کنم؟ برای هر سری حدود 600 قیمت (روزانه) دارم. پیشاپیش از شما متشکرم
چه روشی برای تشخیص شکست های سازه در سری های زمانی؟
37676
من قصد دارم آزمایشی را برای آزمایش بیماری زایی چندین گونه باکتری انجام دهم. برای این کار من چندین حیوان (مثلاً 5 در هر دوز در هر سویه باکتریایی) را با دوزهای فزاینده باکتری (مثلاً 10^5، 10^6، و غیره) آلوده می کنم و سپس یک متغیر پاسخ دوتایی به دست می آورم که اساساً این است که آیا حیوان زنده مانده یا مرده است. پس از قرار گرفتن در معرض یک ترکیب سویه/دوز باکتری معین. سپس منحنی های پاسخ دوز و دوز کشنده مربوطه 50 (LD50) را تعیین خواهم کرد. قبل از اینکه این آزمایش را شروع کنم، سعی کردم بفهمم بهترین روش برای تجزیه و تحلیل این داده ها چیست. من فکر می‌کردم که بهترین رویکرد برای من استفاده از GLM دو جمله‌ای است، با این حال شروع به خواندن کمی بیشتر از متون اکوتوکسیکولوژی کردم و بسته R drc (توسط Christian Ritz & Jens C. Streibig) را پیدا کردم که چندین مورد را پیاده‌سازی می‌کند. مدل های رگرسیون غیر خطی با توجه به اینکه دانش من از رگرسیون غیرخطی کم است، اکنون به این فکر می کنم که کدام یک از این دو روش برای تجزیه و تحلیل داده ها بهتر است (drc یا glm)، بنابراین هرگونه کمکی در تصمیم گیری بسیار قدردانی می شود. به سلامتی، ریکاردو
پاسخ دوز و تجزیه و تحلیل دوز کشنده 50
44942
من خودم الگوریتم k-means را پیاده سازی می کنم. من هیچ اشتباه آشکاری در کد خود نمی بینم و به نظر می رسد که به خوبی کار می کند. با این حال، چیزی وجود دارد که من نمی فهمم. الگوریتم من که روی بردارهای $x_i \در X$، سترویدهای $c_j \در C$ و برچسب‌های $l_i \در L$ کار می‌کند، به نظر می‌رسد: 1. انتخاب مراکز $C=\\{c_1,c_2,...,c_k \\}$ از $X_i$ به طور تصادفی (بدون تکرار) 2. هر بردار را با شاخص نزدیکترین مرکز $l_i برچسب گذاری کنید = \text{arg}\min_{j \\{1..k\\}}(||x_i-c_j||, c_j \in C)$$ 3. یافتن معنی جدید برای هر خوشه $$c_j = \text{mean}\\{x \in X_i \;\text{and}\; l_i=j\\}\;\text{for}\;j=1..k $$ 4. اگر سانتروئیدها در مرحله قبل به طور قابل توجهی جابجا شده اند، حدس می زنم به 2 یک وانیلی ساده k-یعنی بروید. با این حال، وقتی پس از هر تکرار، میانگین فواصل نقطه به مرکز مربوطه را رسم می کنم، $$\text{mean}\\{||x_i- c_j||\;\text{و}\;j =l_i\;\text{برای هر}\;x_i \در X \\}، $$ من می‌توانم ببینم که فاصله میانگین یکنواخت کاهش نمی‌یابد (اگرچه به طور کلی اینطور است کاهش می یابد و به خوبی همگرا می شود): http://i.stack.imgur.com/ySgWf.png (با عرض پوزش به من اجازه نمی دهد تصویر را جاسازی کنم) به یاد دارم که به من گفته شود باید همیشه در حال کاهش باشد، و شهود من یکسان است . چه اشکالی دارد؟ الگوریتم من (اجرا) یا فرض من در مورد میانگین فواصل؟
آیا میانگین فاصله در K-means باید یکنواخت کاهش یابد؟
7179
ببخشید اگر این مشابه سوال دیگری است، اما من هنوز در تلاش برای یادگیری تجزیه و تحلیل داده ها هستم و نمی دانم چه چیزی را جستجو کنم. کاری که من می‌خواهم انجام دهم این است که اطلاعاتی را که یک مشتری بالقوه وارد یک فرم وب می‌کند، بیاورم و احتمال مشتری شدن آنها را بفهمم... به تیم فروش خود ایده بدهیم که کدام سرنخ‌ها بیشترین ارزش را دارند. به طور خاص، به عنوان یک شرکت مسافرتی، معیارهایی مانند مبدأ و مقصد، تاریخ سفر در مقابل تاریخی که فرم را پر می‌کنند، و حتی مقدار/کم 3 سؤال ذهنی را پر می‌کنند (حدود 100-150 کاراکتر ایده‌آل به نظر می‌رسد). من حتی مطمئن نیستم که اصطلاحات چیست، بنابراین اگر کسی بتواند راهنمایی هایی در مورد اینکه کجا می توانم برای یادگیری در مورد این موضوع بروم، ارائه دهد، بسیار سپاسگزار خواهم بود. با تشکر
منابع برای مبتدیان - چگونه می توان احتمال اقدام کاربر را بر اساس معیارهای خاص تعیین کرد؟
86593
من یک مجموعه داده بر اساس درصد زمان در دسترس بودن یک ناوگان ماشین‌ها در هر ماه دارم، در نتیجه اکثر مشاهدات نزدیک به 100 هستند که تعداد کمی کمتر و یک یا دو عدد 0 است، این یک توزیع J ایجاد می‌کند که اثر آن می‌تواند در نمودار پیوست مشاهده می شود. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/frU56.png) بنابراین سوال من این است: از آنجایی که توزیع نرمال نیست، از چه روش هایی می توانم استفاده کنم تا با اطمینان 95 درصد بیان کنم که مجموع در دسترس بودن کل ناوگان در هر سال معین X% یا بالاتر خواهد بود، با توجه به اینکه داده ها عادی نیستند؟ یک راه حل ممکن است استفاده از بوت استرپینگ باشد. به عنوان مثال برای یک ناوگان 10 ماشینی 1. نمونه های تصادفی 10*12 را بردارید، میانگین ناوگان ماشین 2. ماه را چندین بار تکرار کنید 3. فاصله اطمینان میانگین را پیدا کنید. آیا این به نتیجه ای معنادار می دهد؟ فرضیاتی که من می کنم این است که * ماشین ها همه یکسان هستند. * هیچ تفاوت قابل توجهی در زمان خرابی بین ماشین ها وجود ندارد. * هیچ تفاوت قابل توجهی بین ماه ها وجود ندارد.
یک فاصله اطمینان برای داده های غیر عادی ایجاد کنید
71232
من داده هایی به شکل زیر دارم: OTU Sample1 Sample2 Sample3 ... 1 1 0 2 2 3 5 0 3 0 5 1 . . . . . . . . بنابراین نمونه ها داده ها را توالی می کنند. سپس تمام دنباله ها با هم ترکیب می شوند و OTU (واحدهای طبقه بندی عملیاتی) توسط یک الگوریتم محاسبه می شوند. اکنون می‌خواهم با خوشه‌بندی با استفاده از اطلاعات OTU به‌عنوان «اثر انگشت» ببینم کدام نمونه‌ها به یکدیگر نزدیک هستند. بنابراین در مثال بالا Sample1 دارای 1 دنباله در OTU1 است، Sample2 دارای پنج دنباله در OTU2 و غیره است. چه نوع الگوریتم خوشه‌بندی را پیشنهاد می‌کنید (تا کنون من خوشه‌بندی سلسله مراتبی و k-means را می‌دانم، اما در صورت نیاز می‌خواهم دیگران را یاد بگیرم). من مطمئن نیستم که چه چیزی در اینجا به بهترین وجه منطبق می شود که من می خواهم با R کار کنم. چند سوال جانبی کوچک: آیا کسی الگوریتمی به نام Jacks knife می شناسد؟ اگر بله، از کجا می توانم اطلاعات مربوط به این الگو را پیدا کنم؟
چه نوع الگوریتم خوشه بندی برای خوشه بندی نمونه ها بر اساس OTU ها
33592
در حال حاضر من بر روی تجزیه و تحلیل تأثیر جنبه های فرهنگی بر ترجیح حالت سرمایه گذاری کار می کنم. با این حال، من باید برای بسیاری از عوامل دیگر، به عنوان مثال صنعت، کنترل کنم، زیرا برخی از صنایع، برای مثال، سرمایه گذاری مستقیم بیشتری دارند، در حالی که برخی دیگر برای صدور مجوز مناسب تر هستند. اما من نمی دانم چگونه این موضوع را مدیریت کنم. به چه نوع اطلاعاتی نیاز دارم تا بتوانم تأثیر صنعت را کنترل کنم و متغیرهایی را محاسبه کنم که بیانگر تأثیر هر صنعت بر متغیر وابسته است، که نسبت حق امتیاز به درآمد FDI است. من حدس می‌زنم که من نیاز دارم که ساختگی‌های صنعت را درج کنم، با این حال، من واقعاً نمی‌دانم چگونه آنها را تخمین بزنم و بر اساس کدام نوع اطلاعات.
چگونه اثرات صنعت را در رگرسیون کنترل کنیم؟
30025
من در حال حاضر در حال بررسی مقاله‌ای هستم که در آن آنها این کار را با استفاده از رگرسیون بردار پشتیبان دو لایه انجام داده‌اند و سعی می‌کنم بفهمم که آیا عملکرد طبقه‌بندی‌کننده خود را بایاس کرده‌اند و آیا راه بهتری برای انجام این کار وجود دارد یا خیر. من دنباله‌ای از سطل‌ها دارم و در هر یک از این سطل‌ها تعدادی ویژگی خاص دارم (همه سطل‌ها مجموعه ویژگی‌های یکسانی دارند) و یک عدد $Y$ مرتبط با آن دنباله دارم که سعی می‌کنم آن را پیش‌بینی کنم. بنابراین به دنبال مقاله - برای هر bin می توانم مدلی را یاد بگیرم که Y_{i} را پیش بینی می کند (پیش بینی Y با استفاده از اطلاعات bin i) یعنی $Y_{i} = \beta_{i} X{i} + \epsilon$. اکنون با توجه به پیش‌بینی هر یک از این طبقه‌بندی‌کننده‌ها، در این مقاله از آنها برای یادگیری مدل خطی دیگری برای پیش‌بینی $Y$ استفاده می‌کنند. آنها از داده‌های یکسانی برای یادگیری $\beta$s برای بن‌های جداگانه و ضرایب برای مدل دوم استفاده می‌کنند. سوال من این است ... آیا در اینجا یک مشکل بیش از حد برازش وجود دارد - اساساً از همان داده های آموزشی دو بار استفاده می شود؟ آیا می توان پارامترهای مدل را به طور قابل اعتماد یاد گرفت - یعنی آیا واقعاً می توانیم ضرایب هر دو سطح مدل را به طور همزمان یاد بگیریم ...؟ یا راه بهتری برای تدوین چنین مدلی وجود دارد؟ اگر این روش توضیح منطقی نیست، به من اطلاع دهید و من سعی می کنم نموداری ارائه دهم/توضیح بیشتری به آن بدهم. با تشکر
یادگیری یک مدل خطی سلسله مراتبی - مسائل بیش از حد برازش / شناسایی؟
44949
من در حال حاضر از یک چارچوب بیزی سلسله مراتبی برای بررسی مشکلی با یک متغیر پاسخ باینری واحد و متغیرهای کمکی باینری، $P(Y=1 | X_i=1)، i=1،\ldots،n$ استفاده می کنم. با استفاده از R/JAGS می‌توانم ضرایب را مشخص کنم، نسبت‌های شانس را پیدا کنم، و غیره. هر گونه پیشنهاد برای رویکرد یا اشاره به ادبیات قدردانی خواهد شد.
رگرسیون لجستیک معکوس با متغیرهای کمکی باینری
7173
من یک مطالعه مورد-شاهدی دارم که در آن موارد، شرکت‌های دارای بیمه سلامت و کنترل‌ها شرکت‌هایی هستند که بیمه سلامت ندارند. من در حال مطالعه عوامل موثر بر ثبت نام در بیمه سلامت هستم و بنابراین از یک رگرسیون لجستیک استفاده می کنم که شامل چندین متغیر کمکی بر روی ویژگی های شرکت است که در یک نظرسنجی اندازه گیری شد. من به طور تصادفی شرکت ها را از یک پایگاه داده که شامل دو قشر است، نمونه برداری کرده ام: شرکت های بیمه شده و شرکت های بدون بیمه. از هر گروه 65 تا انتخاب کردم. با این حال، در داخل گروه نیز از چهار قشر که مربوط به صنعت بودند نمونه‌برداری کردم. بنابراین من نمی دانم که آیا من نیاز به استفاده از رگرسیون لجستیک مشروط، در مقابل رگرسیون لجستیک غیرشرطی دارم؟ با این حال، من تحت این تصور بودم که رگرسیون لجستیک مشروط برای مطالعات مورد-شاهدی همسان یا مطالعات پانل است. در بازخوردهای دیگری که دریافت کرده‌ام، به من گفته شده است که چون نتیجه را نمونه‌برداری کرده‌ام، باید از مدل شرطی استفاده کنم. کسی میتونه کمکم کنه بفهمم کدوم m؟ هر گونه مرجع نیز بسیار قدردانی می شود. متشکرم.
چگونه بین رگرسیون لجستیک یا رگرسیون لجستیک مشروط تصمیم گیری کنیم؟
7172
من توسط برنارد سیلورمن مفهوم شکار گوش خرگوش روش تعاملی برای تخمین چگالی آمدم. آیا کسی می داند: 1. یک مرجع توصیه شده برای این روش؟ 2. توضیح/توجیه برای اینکه چه زمانی باید «کار کند»؟ 3. معیارهای تعاملی موقت دیگری برای تخمین چگالی پیشنهاد شده است؟
چه زمانی/چرا باید تخمین تراکم شکار گوش خرگوش کار کند؟
41511
من مدل خطی زیر را با استفاده از OLS مطابقت دادم، که در آن $X_{5}$ و $X_{6}$ هر دو متغیر ساختگی هستند و بقیه پیوسته هستند: $Y=\beta_{0} + \beta_{1}X_{1 }+ \beta_{2}X_{2} + \beta_{3}X_{3} + \beta_{4}X_{4} + \beta_{5}X_{5} + \beta_{6}X_{6} + u$ اگر می‌خواهم یک کنتراست ساده را آزمایش کنم، بگویید که $\beta_{5}$ = 0 می‌توانم کارهای زیر را انجام دهم (یا به نسخه چاپی از هر برنامه رگرسیونی نگاه کنم، اما فقط برای مثال): فرضیه صفر: Ho: $\beta_{6}(1) - \beta_{6}(0)$ =0 استفاده از بسته خودرو در R: cVec<-c(0,0,0,0,0,1,0) car::linearHypothesis(mod,cVec, verbose=TRUE) اگر بخواهم تست کنم که $\beta_{5}$ = 0 و $ \beta_{6}$ = 0 بردار را تنظیم کنید تا در برابر بردار ضریب به صورت زیر ضرب شود: cVec<-c(0,0,0,0,0,1,1) آزمون فرضیه صحیح نیست و در واقع باید از یک ماتریس برای این آزمون همزمان استفاده کرد: cMatrix<-t(cbind(c(0 ,0,0,0,0,1,0),c(0,0,0,0,0,0,1))) car::linearHypothesis(mod,cMatrix, verbose=TRUE) «cVec<-c(0,0,0,0,0,1,1)» واقعاً در حال آزمایش کردن چرا و چیست اگر تفاوتی بین $\beta_{0} + \beta_{1 وجود ندارد }X_{1}+ \beta_{2}X_{2} + \beta_{3}X_{3} + \beta_{4}X_{4} + \beta_{5}(1) + \beta_{6}(1)$ AND $\beta_{0} + \beta_{1}X_{1}+ \beta_{2}X_{2} + \beta_{3}X_{3} + \beta_{ 4}X_{4} + \beta_{5}(0) + \beta_{6}(0)$
کنتراست خطی OLS - همزمان
41518
من چند فرضیه را بیان کردم و یک پرسشنامه انجام دادم. فقط بعد از اینکه پرسشنامه ظاهر شد، سوالات را به هم ریختم. این سؤالات در واقع به من اجازه نمی دهند که فرضیه های تعیین شده را رد یا حفظ کنم. بنابراین سوال من این است که چه کار کنم؟ رد کنم یا حفظ کنم؟
فرضیه های صفر را با داده های ناکافی رد یا حفظ کنید
30029
من در حال تجزیه و تحلیل یک RCT دوسوکور و کنترل شده با دارونما با استفاده از ANCOVA در R هستم، که در آن اثر درمان پیش بینی شده قبل از انجام درمان ظاهر می شود! هدف از این مطالعه تعیین این است که آیا درمان یک بیماری یک رفتار خاص را کاهش می دهد یا خیر. افراد مبتلا به این بیماری و رفتار به طور تصادفی 50-50 در گروه های درمان و کنترل دارونما قرار گرفتند. همانطور که پیش‌بینی شد، بین مداخله و وضعیت اولیه بیماری تعامل معنی‌داری وجود داشت (همه متغیرها به‌جز «مداخله» که یک متغیر فاکتور دو سطحی شناسایی‌کننده درمان در مقابل گروه کنترل است، فاصله دارند): مدل 1: تماس: lm (فرمول) = follow_up_behavior ~ baseline_behavior + baseline_disease * مداخله، داده = د) Estimate Std. خطای t مقدار Pr(>|t|) (برق) 11.28464 0.51177 22.050 <2e-16 *** baseline_behavior 0.77872 0.05112 15.234 <2e-16 *** Baseline_Disease *** Baseline_Disease 0.2216.17103. 0.1146 مداخله درمان 0.74738 0.70254 1.064 0.2895 بیماری_پایه: مداخله درمان -0.64681 0.31374 -2.062 0.0414 * تداخل درمان از حالت اولیه بیماری بسیار مؤثر است، زیرا مداخله در طول بیماری بسیار مؤثر است، نزدیک 0 تا خیلی زیاد از این رو، افراد مبتلا به بیماری پایه بالا بیشترین سود را از این درمان گرفتند و بنابراین باید بیشترین کاهش را در پاسخ رفتاری داشته باشند. تا اینجای کار خیلی خوبه. روی یک لک، من یک مدل بسیار مشابه از رفتار **پایه** را اجرا کردم: مدل 2: فراخوانی: lm(فرمول = رفتار_پایه ~ بیماری_پایه * مداخله، داده = د) برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) -0.6350 0.7620 -0.833 0.4062 baseline_Disease 0.7422 0.5016 1.480 0.1415 مداخله درمانی 1.1941 1.01251. baseline_disease:interventiontreatment -1.3320 0.6510 -2.046 0.0428 * همانطور که می بینید، یک تعامل بسیار مشابه بین وضعیت بیماری و گروه مداخله وجود دارد، حتی اگر مداخله هنوز انجام نشده باشد. به نظر می رسد این یک شکست تصادفی است. نگرانی اصلی من این است که از آنجایی که follow_up_behavior بسیار با رفتار_پایه همبستگی دارد، تعامل قابل توجه در مدل اول به دلیل تعامل از قبل موجود در مدل دوم است و بنابراین نتیجه مداخله نیست. سوالات من این است: 1. آیا من واقعاً مشکلی دارم؟ 2. اگر چنین است، آیا گنجاندن baseline_behavior به عنوان متغیر کنترل در مدل 1 مشکل را برطرف می کند، یعنی تضمین می کند که تعامل قابل توجه در این مدل نتیجه تعامل از قبل موجود در مدل 2 نیست، بلکه به دلیل مداخله است. ? 3. اگر شامل کردن baseline_behavior به عنوان یک کنترل کافی نیست، آیا کاری وجود دارد که بتوانم مطالعه را نجات دهم؟ پیشاپیش از هرگونه کمک یا دیدگاهی متشکرم.
چگونه RCT را در جایی که تفاوت های پایه قابل توجهی با وجود تصادفی سازی وجود دارد، تجزیه و تحلیل کنیم؟
14762
من دو متغیر دارم: a: 12،13،15،10،9،8 b: 15،15،15،15،15،15 متغیر 'a' اعداد مجموع انتخاب یک پاسخ خاص (0 یا 1) برای هر یک است. مورد (6 مورد در این مثال). بنابراین برای مثال برای مورد اول، 12 نفر از 15 شرکت کننده، 1، 13 از 15 در مورد دوم، 15 از 15 در سومین مورد و غیره را انتخاب کردند. متغیر 'b' پاسخ های رفتاری را برای هر مورد پیش بینی می کند. در اینجا پیش‌بینی می‌کند که برای هر مورد، اکثر شرکت‌کنندگان باید گزینه 1 را انتخاب کنند. برای مقایسه «a» با «b» من تفاوت بین هر پاسخ کل را محاسبه کردم: تفاوت: 3،2،0،5،6،7 که یک مجموع: 23 من می خواهم یک فاصله اطمینان برای این امتیاز محاسبه کنم.
محاسبه فاصله اطمینان از توزیع دو جمله ای
86595
من سعی می‌کنم بفهمم چه چیزی باعث می‌شود تخمین توزیع پسین اینقدر مشکل باشد. بنابراین، تصور کنید که باید توزیع پسینی را روی مجموعه‌ای از پارامترها با توجه به داده‌های y تخمین بزنم، بنابراین مقدار $P(\theta|y)$ و $\theta$ عموماً ابعاد بالایی دارد. قبلی بیش از $\theta$ یک گاوسی چند متغیره است، یعنی $P(\theta) \sim N(\theta; 0, \Sigma)$. احتمالات گاوسی اکنون، به نظر می رسد که توزیع پسین نیز گاوسی باشد. آیا این درست است؟ ثانیاً با مرور کتاب بیشاپ، به نظر می‌رسد که توزیع‌های پسین شرطی و توزیع‌های حاشیه‌ای نیز گاوسی خواهند بود (با فرض اینکه توزیع مشترک روی پارامترها و داده‌ها گاوسی باشد) و باید یک راه حل شکل بسته داشته باشد. اگر اینطور است، چرا این مشکل حل نشدنی است؟ اگر من نیاز به یافتن پارامترهای این توزیع پسین داشته باشم، آیا نمی توان آن را به عنوان یک مسئله بهینه سازی در جایی که میانگین و کوواریانس گاوسی خلفی را تخمین زدم تنظیم کرد؟ من اساساً در تجسم اینکه چرا این مشکل پیچیده است مشکل دارم؟
در مورد کشش پذیری توزیع های خلفی
86628
من بارها نگرانی در مورد شکنندگی آنتروپی و اطلاعات متقابل به عنوان معیارهای عملکرد برای برازش آماری و این واقعیت که منجر به بیش از حد برازش می شود شنیده ام. شما می توانید نمونه ای از این نگرانی را در این پست وبلاگ مشاهده کنید. با این حال، در درک اینکه دقیقاً «شکنندگی» در این زمینه به چه معناست، و در چه مواردی مبنایی برای بیش از حد برازش خواهد بود، مشکل دارم. * در چه مواردی نباید از آنتروپی و اطلاعات متقابل استفاده کرد؟ * در صورت استفاده از آنها، چگونه می توانید اطمینان حاصل کنید که بیش از حد برازش اتفاق نمی افتد؟
چه زمانی و چرا «شکنندگی» اطلاعات متقابل باعث تطبیق بیش از حد می شود؟
40646
میانگین در این مورد خوب نیست، زیرا گالری هایی هستند که یک هنرمند با رتبه بالا و چندین هنرمند دیگر با رتبه های بسیار پایین تر دارند. من به انجام یک میانگین وزنی فکر می کنم، اما نمی دانم چگونه وزن ها را به محدوده های رتبه بندی تقسیم کنم. هر ایده ای؟ متشکرم.
چگونه می توانم رتبه برخی از گالری ها را بر اساس رتبه بندی هنرمندان ارائه شده توسط آنها محاسبه کنم؟
44946
من یک توزیع گسسته ناشناخته $f(x; a,b,c,d)$ دارم. از 4 پارامتر یکی اضافی است. من چند مورد محدود پیدا کرده ام: $$X\sim\text{Binomial}(g(a,b,c,d),c/(b+c)))\;\;\; b,c \gg a,b$$ $$X\sim\text{Poisson}(a/d)\;\;\; b \gg a > d \gg c$$ فعلاً $g$ را تعریف نشده می‌گذارم. من تعجب می کنم که کدام توزیع ها کاندیدای خوبی برای $f$ هستند.
توزیع های عمومی که دوجمله ای و پواسون موارد ویژه ای هستند
14765
من سعی کرده ام تابع anovan را در متلب درک کنم تا ANOVA n-way را انجام دهم تا اثرات چندین عامل را روی داده های خود آزمایش کنم. چیزی که وقتی صفحه راهنمای این تابع را خواندم توجه من را جلب کرد این است که، در مثال آنها، مقدار p برای فاکتور 'X1' از ناچیز بودن (p>0.05) به معنی‌دار (p<0.05) تغییر می‌کند. از پیش فرض(خطی) به تعامل تغییر کرد. چگونه باید این نتیجه را تفسیر کنم؟ همچنین اگر ندانم دو فاکتوری که تست می کنم با هم تداخلی دارند یا نه، از کدام مدل استفاده کنم؟
تفسیر نتایج ANOVA n-way با استفاده از مدل های مختلف در MATLAB
38213
من با SVM خطی (با استفاده از SVMlight) کار می کنم و به یک پدیده عجیب کمک می کنم. الگوریتم آموزشی برخی از ویژگی ها را 0 وزن کرد. آیا این بدان معناست که چنین ویژگی هایی برای طبقه بندی بی ربط هستند؟ با نگاهی به مجموعه داده دریافتم که بردارهای حاوی چنین ویژگی‌هایی فقط به یک دسته تعلق دارند. و به نظر من این ویژگی ها برای طبقه بندی یک مشاهده جدید بسیار مرتبط هستند. علاوه بر این، من نمونه هایی از ویژگی های دیگر متعلق به یک دسته را دارم که وزنی غیر صفر دارند و من را بیشتر گیج می کند. آیا این رفتار درست است یا من چیزی را گم کرده ام؟
معنی وزن خطی صفر وزن در SVM
103282
بر اساس دانشی که از سایر ویژگی‌های این دو متغیر داریم، دلایلی داریم که باور کنیم تغییرات در پذیرش‌های یک بخش بر یک پیامد بد خاص در آن بخش تأثیر دارد (این تعداد ماهانه جمع‌آوری می‌شود): > ساختار dput(admits) c(3 لیتر، 4 لیتر، 3 لیتر، 22 لیتر، 54 لیتر، 74 لیتر، 35 لیتر، 58 لیتر، 59 لیتر، 45 لیتر، 38 لیتر، 52 لیتر، 37 لیتر، 29 لیتر، 39 لیتر، 27 لیتر، 14 لیتر، 4 لیتر، 6 لیتر، 15 لیتر، 31 لیتر، 10 لیتر، 12 لیتر، 14 لیتر، 11 لیتر، 18 لیتر، 36 لیتر، 33 لیتر، 42 لیتر، 36 لیتر، 33 لیتر، 42 لیتر، 42 لیتر، 35 لیتر 26 لیتر، 41 لیتر، 26 لیتر، 41 لیتر، 40 لیتر، 34 لیتر، 31 لیتر، 23 لیتر، 34 لیتر، 22 لیتر، 21 لیتر، 11 لیتر، 29 لیتر، 13 لیتر، 27 لیتر، 40 لیتر، 41 لیتر)،. 12)، کلاس = ts) > dput(نتیجه بد) ساختار(c(12L، 14L، 13L، 12L، 42L، 55L، 47L، 29L، 25L، 28L، 17L، 22L، 54L، 30L، 30L، 54L، 30L، 30L. 26 لیتر، 9 لیتر، 12 لیتر، 7 لیتر، 14 لیتر، 17 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 12 لیتر، 15 لیتر، 20 لیتر، 17 لیتر، 30 لیتر، 35 لیتر، 41 لیتر، 18 لیتر، 19 لیتر، 26 لیتر، 15 لیتر، 12 لیتر، 5 لیتر، 15 لیتر، 12 لیتر، 5 لیتر، 12 22L, 19L, 21L, 12L, 8L, 7L, 15L, 12L), .Tsp = c(2010, 2014.16666666667, 12), class = ts) از آنجایی که داده ها به صورت سریالی همبسته هستند، درک من از استقلال این است که به صورت مجموع برای تکنیک های رگرسیون منظم نقض شده است. سپس مراحل و تکنیک‌ها برای تعیین اینکه آیا اعتراف به طور قابل توجهی با نتیجه بد مرتبط است چیست؟
چگونه تعیین کنیم که آیا دو سری زمانی به طور قابل توجهی با یکدیگر مرتبط هستند یا خیر
47916
من می‌خواستم یک سوال با الهام از پاسخ عالی به سؤال در مورد شهود برای توزیع بتا بپرسم. من می خواستم درک بهتری از اشتقاق برای توزیع قبلی برای میانگین ضربه زدن داشته باشم. به نظر می رسد دیوید پارامترها را از میانگین و محدوده خارج می کند. با این فرض که میانگین $0.27$ و انحراف استاندارد $0.18$ است، آیا می توانید با حل این دو معادله $\alpha$ و $\beta$ را پس بگیرید: \begin{equation} \frac{\alpha}{\alpha+ \beta}=0.27 \\\ \frac{\alpha\cdot\beta}{(\alpha+\beta)^2\cdot(\alpha+\beta+1)}=0.18^2 \end{equation}
میانگین ضربه زدن بیزی قبل
105770
چگونه می توانم یک مجموعه داده آموزشی برای طبقه بندی اسناد با استفاده از LSA ایجاد کنم؟ من یک ماتریس اصطلاح به سند ایجاد کرده ام و دارای برچسب های کلاس نیز هستم. نمی‌دانم این برچسب‌های کلاس را در یک ماتریس سند اصطلاح اضافه کنم یا ماتریس بساک ایجاد کنم. من نمی دانم مراحل دقیقی برای ایجاد داده های آموزشی باید دنبال شود.
طبقه بندی معنایی نهفته
47913
1. آیا Pandas، Statsmodels و scikits پیاده سازی های متفاوتی از یادگیری ماشین/عملیات آماری هستند یا مکمل یکدیگر هستند؟ 2. کدام یک از اینها جامع ترین عملکرد را دارد؟ 3. کدام یک به طور فعال توسعه یافته و/یا پشتیبانی می شود؟ 4. من باید رگرسیون لجستیک را پیاده کنم. پیشنهادی دارید که از کدام یک از اینها استفاده کنم؟
پانداها / Statsmodel / Scikits-learn
13935
سوال: **مشکلات و مفروضات اصلی برای تحلیل ریسک رقابتی چیست؟** _پیشینه_ من سعی می کنم ریسک های رقابتی را یاد بگیرم و از بسته cmprsk در R بر اساس الگوریتم گری استفاده می کنم. من کتاب ملانیا پینتیلی، ریسک‌های رقابتی: دیدگاه عملی را خوانده‌ام، اما اگرچه مقدمه بسیار خوبی برای این رشته است، من فهرستی از دام‌های رایج را ندارم. مربی من به من هشدار داده است که تجزیه و تحلیل ریسک رقیب هنوز یک زمینه در حال توسعه است و بنابراین من واقعاً ممنون می شوم اگر بتوانم نظرات شما را در این مورد دریافت کنم. در پاسخ به این سوال ذکر شده است: > فقط مطمئن شوید که متوجه شده اید چه فرضیاتی را مطرح می کنید همانطور که من متوجه شدم فرض اصلی خطرات متناسب است، مشابه مدل کاکس، اما به غیر از این فرض، مطمئن نیستم که من می دانم که باید به دنبال چه فرضیات و مشکلات دیگری باشم.
مفروضات و مشکلات در مدل ریسک های رقابتی
82177
آیا معرفی توابع فعال‌سازی لجستیک/سیگموئید در شبکه‌های مصنوعی با شواهد بیولوژیکی، راحتی عملی یا هر دو توجیه می‌شد؟ چند مرجع خوب در این زمینه چیست؟
توابع لجستیک در شبکه عصبی مصنوعی الهام گرفته از بیولوژیک؟
86620
آیا کسی می تواند به من کمک کند تا چگالی مشترک $Y_1$ و $Y_2$ را در زمانی که $Y_1=X_1+X_2$ و $Y_2=X_1-X_2$ پیدا کنم؟
چگونه تراکم مفصل را پیدا کنم؟
41127
من امیدوار هستم که مقداری کد الگوریتم رد را در R بنویسم تا توزیع $\text{Gamma}(k,\lambda)$ را تقریبی کنم. مشکل بیشتر برای اهداف آموزشی است تا پیاده سازی در دنیای واقعی. با توجه به توزیع $\text{نمایی}(\lambda)$ با PDF: $$f_{\lambda}(x) = \lambda\text{exp}(-\lambda x)$$، CDF را می توان به صورت زیر بیان کرد: $$F_{\lambda}(x) = 1 - \text{exp}(-\lambda x)$$ که در آن $x>0$ و $\lambda>0$. و معکوس CDF را می توان به صورت زیر بیان کرد: $$F^{-1}(U) = -\text{log}(1-U)/\lambda$$ که در آن $U$ یک عدد تصادفی است که به این صورت : $U \sim \text{U}[0,1]$. با فرض اینکه: $$X_{1}، X_{2}، \dots، X_{k} \stackrel{\text{ iid }}{ \sim }\text{Exponential}(\lambda)$$ و: $$ Y = X_{1} + X_{2} + \dots + X_{k}$$ سپس: $$Y \sim \text{Gamma}(k، \lambda)$$ اکنون، روش فوق برای شبیه‌سازی یک $\text{Gamma}(k,\lambda)$ از مجموع متغیرهای تصادفی $k$ $\text{نمایی}(\lambda)$، طبیعتاً فقط در جایی کار می‌کند که $k باشد. \در {\bf N}$، اما بیایید فرض کنیم هدف شبیه‌سازی $\text{Gamma}(k,\lambda)$ است که در آن $k \notin {\bf N}$. پیشنهاد شده است که از یک رویکرد پذیرش-رد با یک تابع پاکت استفاده شود که تراکم $\text{Gamma}(\lfloor{k}\rfloor,\lambda-1)$ است، که در آن $\lfloor{k}\rfloor$ تابع floor(k) است. **ویرایش:** در مثال بالا، واضح است که توزیع هدف با: $$f(x) = \frac{\lambda^{k}}{\Gamma(k)}x^{k-1 داده می‌شود }e^{-\lambda x}$$ اما برای تثبیت این مفاهیم، ​​کسی می تواند شکل توزیع شبیه سازی ($h(x)$)، تابع پاکت ($g(x) = را ارائه دهد. M*h(x)$) و البته مقدار بهینه $M$؟ تثبیت این ایده ها واقعاً به من کمک می کند. ### مرتبط نزدیک نمونه‌گیری رد برای توزیع گامای اصلاح‌شده چگونه می‌توان X را به سرعت نمونه‌برداری کرد اگر exp(X) ~ Gamma باشد؟ (یک پاسخ پیاده سازی هوشمندانه «R» را ارائه می دهد).
با استفاده از نمونه گیری رد با روش وارونگی
86624
من می خواهم خطای استاندارد را در یک پیش بینی دریافت کنم. با استفاده از R `glm`، می توانم SE مناسب برای یک پیش بینی خاص را بدست بیاورم: mod <- glm(y~wa_WSI, data=mydata, family=gaussian(link=identity)) predict.glm(mod,newdata =newdata, type=response, se.fit=T) اما وقتی پیش‌بینی‌ها را با مقادیر واقعی مقایسه می‌کنم، این عدد بسیار کوچک به نظر می‌رسد. من فرمولی برای خطای استاندارد تخمین پیدا کردم که $\sqrt{s/(n-p)}$ است که $s$ مجموع مجذورهای باقیمانده، $n$ تعداد نقاط داده و $p است. $ تعداد عبارات موجود در رگرسیون است. این به من نتیجه بسیار بزرگتری می دهد، اما برای یک پیش بینی واحد نیست. سوال من این است که آیا فرمول SE بالاتر از فرمولی است که باید استفاده کنم و آیا راهی وجود دارد که بتوان آن را از مقداری که R برای se.fit به من می دهد به دست آورد تا برای یک پیش بینی خاص باشد؟
SE تناسب در مقابل SE پیش بینی
13932
من می‌خواهم راه‌حلی برای اجرای مدل اثر ترکیبی رگرسیون چندک پیدا کنم. از جستجوی گوگل من، نتوانستم پیاده سازی R را برای چنین رویه ای پیدا کنم (فقط هشدار می دهد که این برای افراد ضعیف نیست). من می خواهم یک موقعیت ساده را حل کنم که در آن یک x یک y و یک متغیر موضوع داریم. هر گونه پیشنهادی در مورد اینکه با این چه باید کرد؟
آیا پیاده سازی R برای برخی از مدل های ترکیبی رویه آماری رگرسیون چندک وجود دارد؟
13931
من با مجموعه داده Digit1 کار می کنم که توسط کتاب آموزش نیمه نظارتی توسط chapalle et معرفی شده است. al، به عنوان یکی از مجموعه داده های معیار در این زمینه. در توضیحات مجموعه داده واقع در: http://olivier.chapelle.cc/ssl-book/benchmarks.pdf آمده است: > برچسب کلاس با توجه به زاویه شیب، با مرز > مربوط به یک رقم عمودی تنظیم شده است. در جای دیگری از سند آمده است که فقط 2 کلاس در این مجموعه داده وجود دارد. از این دو توضیح هنوز نمی توانم بفهمم که برچسب ها دقیقاً چگونه تعریف شده اند. اگه کسی بتونه در این مورد کمکم کنه ممنون میشم
برچسب‌ها در مجموعه داده Digit1 برای یادگیری نیمه نظارتی
38210
این ممکن است یک سوال نسبتا احمقانه باشد. با این حال، من قبلاً با یک آمارگیر صحبت کرده ام و او در مورد پاسخ مطمئن به نظر نمی رسد، بنابراین شاید برای دیگران مفید باشد. مطالعه معمولی نیست، بنابراین لطفاً تا زمانی که سعی می کنم آن را توضیح دهم با من تحمل کنید. من حدود 75000 جمله مکالمه انگلیسی برای نمونه دارم. من علاقه مندم که آیا جملات با ساختار دستوری خاص (مخصوصاً عبارات فعل از دست رفته) تمایل به جمع شدن دارند یا خیر. ابتدا فراوانی نسبی (احتمال تجربی) این جملات را محاسبه کردم و 910 بازدید/75000 کل جملات ≈ 0.012 به دست آوردم. برای بدست آوردن فواصل اطمینان برای این آمار، من از بوت استرپ با 10000 نمونه مجدد از کل مجموعه داده با جایگزینی استفاده کردم و متوجه شدم که فاصله اطمینان 99٪ حدود 0.0109 - 0.0134 است. برای اینکه ببینم این جملات در داده‌ها به هم نزدیک هستند یا نه، یک نمونه فرعی جدید ساختم. برای هر جمله با یک عبارت فعل مفقود، شمارش کردم که چند جمله در پنج جمله قبلی نیز عبارات فعل گمشده داشتند. بنابراین، من پنج شاخه دارم، که هر کدام با بسامد نسبی از تعداد دفعاتی که جملات در آن شکاف فاقد عبارات فعل هستند (یعنی جمله بلافاصله قبل یک شکاف است، سپس جمله قبلی و غیره). این به من نتایجی مانند این می دهد: شکاف 1: 56 بازدید / 910 جملات = 0.061 شکاف 2: 32 بازدید / 902 کل جملات = 0.035 و غیره... سوال من این است. آیا می توانم این فرکانس های نسبی را برای هر شکاف با فاصله اطمینانی که از کل مجموعه داده محاسبه کردم مقایسه کنم؟ به عبارت دیگر، اگر شکاف 1 دارای فرکانس نسبی 0.061 باشد، که فراتر از فاصله اطمینان 99% از بوت استرپ من از کل مجموعه داده است، بنابراین آیا این ادعا که این مقدار بالاتر از حد انتظار در آن شکاف است معتبر است. ? و اگر اینطور نیست، آیا راه نسبتاً ساده ای برای کارکرد آن وجود دارد؟
استفاده از فاصله اطمینان از نمونه کامل برای آزمایش آمار از یک نمونه فرعی کوچک؟
47918
من به دنبال یک مقدار عددی هستم که بیان کند که چگونه یک نمونه (در این مورد غیرتصادفی) از یک جامعه در مورد توزیع یک ویژگی خاص نماینده است. به عنوان مثال، توزیع سنی در یک کشور و در هیئت منتخب نمایندگان آن را در نظر بگیرید. من می خواهم این مقدار را در بسیاری از ابعاد مقایسه کنم، بنابراین مقدار باید به نوعی عادی شود و به ماهیت بعد بستگی ندارد. برخی از ابعاد عددی و پیوسته (سن، درآمد)، برخی دیگر گسسته با تعداد زیادی (شهر محل سکونت، حرفه آموزش دیده) یا با طبقات کم (جنسیت) خواهد بود. هدف این است که بفهمیم در کدام یک از این ابعاد، نمونه بیشتر (یا کمترین) نماینده است، یعنی انتخاب غیرتصادفی (فرایند انتخابات) از چه طریقی مغرضانه است. یادداشت ها: در اینجا تقریباً یک سؤال با همین عنوان وجود دارد، اما فکر می کنم در مورد چیز دیگری صحبت می کند، و این سؤال دیگر نیز به نظر می رسد چیز بسیار مشابهی را مطرح کند، اما در آنجا نیز پاسخ خوبی برای من وجود ندارد.
اندازه گیری نمایندگی یک انتخاب (غیر تصادفی).
109231
تنها تجربه من با یادگیری ماشین دوره Coursera Andrew Ng است، اما من آن را به خوبی انجام دادم و با 100% گذراندم. تصمیم گرفتم با طرح چند مشکل و حل آنها تمرین کنم. ایده من این بود که یک بازی تیک تاک ساده ایجاد کنم و آن را فقط میلیون ها بازی تصادفی انجام دهم و از داده ها برای یادگیری پیش بینی حرکت بعدی بر اساس دنباله هایی که در گذشته برنده شده اند استفاده کنیم. **آیا انتظار پیش بینی یک حرکت خوب از 1 میلیون نمونه بازی که بازیکن X برنده شده است منطقی است؟** من یک تابع getWinSequences('X', 1000000) دارم که لیستی از دنباله هایی که برنده شده اند را برمی گرداند. X. یک دنباله نشان دهنده مجموعه ای از انتخاب ها، 1 تا 9، در صفحه بازی است. صفحه به این صورت خواهد بود: 1|2|3 ----- 4|5|6 ----- 7|8|9 بنابراین «WinsX» به این شکل است: [ [4,2,5,3, 6]، [1،4،2،8،3]، [1،2،4،3،5،8،9] ] بنابراین در سکانس اول، به این معنی است که بازیکن X 4 را انتخاب کرد، O 2، X را انتخاب کرد. انتخاب کرد 5، O 3 را انتخاب کرد، X 6 را انتخاب کرد بنابراین X با 3 پیاپی، 4،5،6 برنده شد ([ **4**،2، **5**،3، **6** ]) اکنون، من یادگیری ماشینی را روی دنباله‌های برنده انجام نمی‌دهم، زیرا می‌خواهم برنامه یک موقعیت تابلوی فعلی داشته باشد نه یک دنباله. به عبارت دیگر، **با توجه به تخته ای با هیچ یا چند X و O، با فرض اینکه نوبت بازیکن X است، یک حرکت خوب (1-9) را بر اساس مشاهدات گذشته یک تخته، و آگاهی از حرکت بعدی انتخاب شده پیش بینی کنید** بنابراین من تابعی دارم که یک دنباله برنده را به یک سری از موقعیت های تخته تبدیل می کند، و یک برچسب که می گوید کدام حرکت بعدی است. بنابراین داده‌های واقعی که من روی آن آموزش می‌دهم مانند این است X[0] = [0,2,2, 1,1,0, 0,0,0] y[0] = 6 **0 به معنی خالی، 1 به معنای یک X وجود دارد، 2 یعنی Y وجود دارد. بنابراین، بر اساس دنباله‌های برنده‌ام، می‌توانم به طور خودکار آن موقعیت را به عنوان 6 برچسب‌گذاری کنم، زیرا تابلو بازآفرینی چیزی است که تخته درست قبل از اینکه به طور تصادفی با انتخاب 6 برنده شویم، به نظر می‌رسید.** زیرا می‌خواهم باشم. می‌توانم حرکت خوبی را پیش‌بینی کنم حتی اگر حرکت برنده‌ای وجود نداشته باشد، پس هر زمان که دنباله برنده‌ای داشتم، ** من فقط یک تابلو درست نمی‌کنم که درست قبل از برد بود، من برای هر مرحله یک تابلو ایجاد می‌کنم. راه یک سکانس برنده، و آن را با حرکت بعدی از دنباله برنده برچسب بزنید.** بنابراین یک دنباله برنده معمولاً به 3 تا 5 نمونه از موقعیت تخته منجر می شود، و یک برچسب (1-9) نشان می دهد که حرکت چیست. برای آن هیئت مدیره باید باشد. من فکر کردم که با میلیون‌ها نمونه از سکانس‌های برنده، و موقعیت‌های تخته‌ای که منجر به برد شد، می‌توانم حرکت بعدی را پیش‌بینی کنم. **آیا این منطقی است؟** اگر چنین است، راه خوبی برای آموزش داده ها چیست؟ وقتی روی 1 میلیون مثال آموزش دیدم، از GradientBoostingClassifier نمره 0.29 گرفتم. کد مربوطه به این شکل است: winsX = getWinSequences('X', 1000000) samplesX = samplesFromWins(winsX) X = [ردیف[:9] برای ردیف در نمونه X] y = [ردیف[9] برای ردیف در نمونه X] X_train, X_test = X[:700000]، X[700000:] y_train، y_test = y[:700000]، y[700000:] print(داده دریافت کردم، آماده آموزش) clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, max_depth=1, random_state=0).fit(X_train,y) ) print(clf.score(X_test, y_test)) ** من فقط می خواهم بدانم که آیا در مسیر درستی هستم یا اینکه آیا یک نقص اساسی در کاری که انجام می دهم وجود دارد.**
آموزش مغز تیک تاک - آیا در مسیر درستی هستم؟
76279
من می خواهم تاثیر آماری معنی دار حدود 15 متغیر مستقل مختلف را بر روی یک متغیر وابسته باینری نشان دهم (من آمارگیر نیستم). برخی از متغیرهای مستقل من تعداد ترم در متن هستند، بنابراین احتمالاً با طول متن که یکی از متغیرهای مستقل است نیز مرتبط هستند. من این مجموعه از متغیرها را انتخاب کردم زیرا به نظر می رسید حداقل به صورت جداگانه بر نتیجه تأثیر می گذارد. من تطبیق را بر روی متغیر طول انجام دادم تا سعی کنم این اثر را کنترل کنم (طول به تنهایی واریانس زیادی را در متغیر نتیجه/وابسته من توضیح می دهد). اکنون می‌خواهم بفهمم کدام متغیرها در حضور سایر متغیرها هنوز اهمیت دارند و اهمیت نسبی آنها چقدر است. سوال 1: بهترین راه برای مقابله با هم خطی بودن متغیرهای مستقل من چیست؟ نوع 1: term_counts را با باقیمانده ها پس از رگرسیون در طول جایگزین کنید. نوع 2: ابتدا مدل رگرسیون لجستیک را روی همه متغیرها انجام دهید. همه عواملی که پارامتر به طور قابل توجهی با صفر متفاوت است، فاکتورهای مهمی هستند (این ادعایی است که من می خواهم مطرح کنم). و سپس مدل‌هایی که در آن یک متغیر منفرد را حذف می‌کنم و نشان می‌دهم که تناسب به‌طور قابل‌توجهی بدتر می‌شود تا نشان دهم که هر یک از آن‌ها اهمیت دارد، و تا چه اندازه (نحوه انجام این کار دقیقاً منجر به سؤال 2 می‌شود). سوال 2: یک روش معقول و استاندارد برای ارزیابی برازش برتر مدل های مختلف رگرسیون لجستیک چیست؟ (همچنین به ارزیابی مدل های رگرسیون لجستیک مراجعه کنید) از چه معیاری برای مقایسه برازش استفاده کنم؟ احتمال واقعاً کار نمی کند زیرا همیشه برای مدل های پیچیده تر بهتر می شود. طبقه بندی احمقانه به نظر می رسد زیرا برآوردهای تجربی ما برای p(Y=1) تنها 20-40٪ است. ما همچنین در مورد رسم p_empirical در مقابل p_model پس از ترکیب مشاهدات متعدد برای دریافت تصویر واضح‌تر فکر می‌کردیم. من مطمئن هستم که مردم قبلاً این کار را انجام داده اند و بسیار خوشحال خواهم شد اگر بتوانید به من اشاره کنید که چگونه تناسب / عملکرد را تجسم کنم. سوال 3: بهترین راه برای عادی سازی ویژگی ها چیست تا بتوانم پارامترهای مدل را با هم مقایسه کنم (یعنی چقدر یک ویژگی نسبت به دیگری اهمیت دارد؟)؟ آیا معقول است که همه چیز را بین صفر و یک قرار دهیم؟ آیا باید «منهای میانگین، تقسیم بر std» باشد. من تعدادی متغیر وابسته ترتیبی، چند باینری و چند متغیر وابسته دارم. با تشکر
رگرسیون لجستیک و نحوه قضاوت برازش مدل و تأثیر پارامتر
109234
من تست DW را برای مدل رگرسیونی خود در R اعمال کردم و آمار آزمون DW برابر با 1.78 و p-value برابر با 2.2e-16 = 0 دریافت کردم. با مقدار p کوچک یا به این معنی است که اگرچه آمار نزدیک به 2 است، مقدار p کوچک است و بنابراین ما فرضیه صفر را رد می کنیم خود همبستگی وجود ندارد؟
آمار آزمون دوربین واتسون
5586
من چندین مدل OLS با s.e قوی دارم که یک متغیر نتیجه Y را پیش‌بینی می‌کنند، به عنوان مثال: مدل 1 $Y=B_0 +B_1X_1$ مدل 2 $Y=B_0 + B_1X_1 + B_2X_2$ مدل 3 $Y=B_0 +B_1X_1 + B_2X_ B_3X_3$ من علاقه مند به دادن یک افکت متوسط ​​برای $B_1$ در مدل‌های 1-3 با 95% CI همراه. آیا می توانم میانگین B_1$ را در مدل های 1-3 و میانگین خطاهای استاندارد را برای ایجاد فاصله اطمینان خود در نظر بگیرم؟ اسم این چیه؟
اثر متوسط ​​در چندین مدل خطی؟
14761
آیا می توانید یک الگوریتم و احتمالاً یک کد واقعی برای یادگیری چند خروجی به من پیشنهاد دهید، که در آن ورودی مدل بردار حدود 10000 مقدار است و خروجی برای هر بردار ورودی، یک بردار خروجی با 1500 بعد است (بنابراین، این یک نوع است مجموعه داده بزرگ)؟ به نظر من شبکه عصبی می تواند این تعداد مقادیر را مدیریت کند، اما چه چیز دیگری؟ SOM تحت نظارت؟ یادگیری چند هسته ای چند کلاسه؟ هر نمونه ای از مدل داده های دنیای واقعی با همان نوع یادگیری (خروجی چندگانه بزرگ؟) هر گونه پیشنهاد و نظر برای من بسیار ارزشمند خواهد بود. به روز رسانی: نمونه داده را می توانید در اینجا پیدا کنید - http://pastebin.com/Z4E87d3d
یادگیری چند خروجی
38216
آیا اجرای محبوب **فیلدهای تصادفی شرطی** در **پایتون** وجود دارد؟ به نظر نمی رسد که من چیزی را پیدا کنم که به طور گسترده مورد استفاده و محبوب باشد!
پیاده سازی CRF در پایتون
50841
من مقداری داده خام دارم که از یک شبیه سازی به دست می آید. من نقاط نمونه را می گیرم و یک متغیر میانگین متحرک تولید می کنم و آن را بر اساس زمان رسم می کنم. بنابراین سیگنالی را تصور کنید که دارای قله ها و دره ها باشد. قله ها دوره های فعالیت زیاد و دره ها دوره های کم فعالیت را نشان می دهند. چه فیلتری می توانم روی این داده ها اعمال کنم تا پنجره های فعالیت زیاد را گزارش کنم؟ می توانیم فرض کنیم که پنجره ها با هم همپوشانی ندارند. ویرایش: کلمات چه فیلتری می توانم اعمال کنم به درستی استفاده نمی شود. من به دنبال فیلتر نیستم. من به دنبال تکنیکی برای **پیدا کردن ویندوز** هستم. من با داده‌ها شروع می‌کنم، و تنها کاری که می‌خواهم انجام دهم این است که پنجره‌های جالب فعالیت بالا را پیدا کنم تا بتوانم آنها را تجزیه و تحلیل کنم. می توانید بگویید فقط به آنها نگاه کنید، اما من با مجموعه داده های زیادی سروکار دارم به طوری که مقیاس نمی شود.
تکنیک ریاضی برای یافتن پنجره های فعالیت در نمودار میانگین متحرک
11273
در اصل یک سوال ساده: توزیع کشش چیست؟ (تمام چیزی که من می توانم متوجه شوم این است که توزیع وزنی بر اساس خطای برآوردگرها حول مقدار واقعی است.) من به تعریف دقیق ریاضی علاقه مند هستم، چگونه، چرا، و چه زمانی از آن استفاده کنم، انتظار می رود چگونه به نظر برسد. مانند، و اگر هر دو مقادیر تخمین‌گر و مقدار true خطاهایی مرتبط با آنها دارند، اینها را به صورت مربع جمع آوری کنید. PS: با خیال راحت تگ ها را اضافه یا تغییر دهید، من هیچ برچسب خوبی پیدا نکردم.
توزیع کشش چیست؟
37678
در انتخاب بهترین تناسب بین منحنی‌های مختلف، با فرض اینکه خطاها به طور معمول توزیع شده باشند، می‌توانم کارهای زیر را انجام دهم: * محاسبه کاهش $\chi_r^2=\frac{\chi^2}{N_b-N_p}$، که در آن $ N_b$ تعداد bin ها و $N_p$ تعداد پارامترها است، برای همه جاها و کوچکترین را انتخاب کنید. * معیار اطلاعات Akaike $AIC=\chi^2+\frac{2N_p(N_p+1)}{N_b-N_p-1}$ را برای همه موارد محاسبه کنید و کوچکترین را انتخاب کنید. چه رابطه ای (در صورت وجود) بین این دو روش وجود دارد؟
رابطه بین کای دو کاهش یافته و معیار آکایک
13936
در این سوال آنها می پرسند که چگونه می توان پیرسون r را برای دو گروه مستقل (مانند مردان در مقابل زنان) مقایسه کرد. پاسخ و نظرات دو راه پیشنهاد شده است: 1. از فرمول شناخته شده فیشر با استفاده از تغییر z r استفاده کنید. 2. از مقایسه شیب ها (ضرایب رگرسیون) استفاده کنید. دومی را می توان به راحتی فقط از طریق یک مدل خطی اشباع انجام داد: $Y = a + bX + cG + dXG$، که در آن $X$ و $Y$ متغیرهای همبسته هستند و $G$ یک متغیر ساختگی (0 در مقابل 1) است. دو گروه را نشان می دهد. بزرگی $d$ (ضریب عبارت تعامل) دقیقاً تفاوت در ضریب $b$ بعد از مدل $Y = a + bX$ است که در دو گروه به صورت جداگانه انجام شد، و بنابراین اهمیت آن ($d$) آزمون است. تفاوت در شیب بین گروه ها حال، ضریب شیب یا رگرسیون. هنوز یک ضریب همبستگی نیست. _اما اگر $X$ و $Y$ را - به طور جداگانه_ در دو گروه استاندارد کنیم - آنگاه $d$ برابر با تفاوت _r در گروه 1 منهای r در گروه 0_ خواهد بود و بنابراین اهمیت آن آزمون تفاوت بین دو همبستگی خواهد بود: ما در حال آزمایش شیب ها هستیم اما به نظر می رسد [انگار -؟] در حال آزمایش همبستگی ها هستیم. درسته که نوشتم؟ اگر بله، این سوال باقی می ماند که کدام آزمون بهتری برای همبستگی است - این مورد توصیف شده یا فیشر؟ زیرا آنها نتایج یکسانی ندارند. نظر شما چیست؟ **ویرایش بعدی:** از **@Wolfgang** برای پاسخش تشکر می‌کنم، با این وجود احساس می‌کنم که درک _چرا_ آزمون فیشر، آزمونی برای r صحیح‌تر از رویکرد مقایسه شیب-زیر استانداردسازی است که در بالا توضیح داده شد، ندارم. بنابراین، پاسخ های بیشتر استقبال می شود. متشکرم.
آیا می توان همبستگی بین گروه ها را با مقایسه شیب های رگرسیون مقایسه کرد؟
19060
من یک مبتدی در برنامه نویسی R هستم و سعی کرده ام ANCOVA اندازه گیری های مکرر را با دما به عنوان متغیر وابسته، سایت به عنوان متغیر مستقل، تاریخ به عنوان متغیر کمکی و سال به عنوان اندازه گیری های مکرر انجام دهم. مجموعه داده من شامل دماهای 4 سایت، بیش از 20 روز، در طول 2 سال مختلف است. به نظر می رسد اثر قابل توجهی از مکان، تاریخ و سال بر روی دما وجود دارد، اما هیچ تعامل قابل توجهی بین سایت و سال یا سایت و تاریخ وجود ندارد. من در ابتدا دو ANCOVA جداگانه اجرا کردم، اما همکارم آنها را در یک مدل می‌خواهد. تا آنجا که من می توانم بگویم، هیچ راه ساده ای برای انجام ANCOVA اندازه گیری های مکرر مانند ANOVA وجود ندارد. من سعی کرده‌ام از: «lm(فرمول = Temp~Site*Date + Year)» استفاده کنم، اما آیا این فقط سال را به عنوان یک تعامل که بر مدل تأثیر نمی‌گذارد قرار نمی‌دهد؟ هر کمکی که می توانید ارائه دهید بسیار قدردانی خواهد شد!
ANCOVA با اندازه گیری های مکرر در R
38214
من مجموعه ای از داده ها را دارم که از دو متغیر $X$ و $Z$ تشکیل شده است که $Z = X + Y$ است. من می خواهم در مورد رابطه بین $X$ و $Y$ بیان کنم. به عنوان مثال، من می خواهم ادعا کنم که $X$ و $Y$ با هم متفاوت هستند یا همبستگی دارند. آیا راهی برای انجام این کار فقط با اندازه گیری از $X$ و $Z$ وجود دارد؟ به عنوان یک چروک اضافی، در نظر بگیرید که X و Z توسط مقداری نویز $X$-noise و $Z$-noise خراب شده اند. $X$ در واقع $X + X$-نویز و $Z$ $X + Y + Z$-نویز است. علاوه بر این، $X$ با مقداری ضریب $a_X$ و $Z$ با مقداری ضریب دیگر $a_Z$ مقیاس بندی می شود. بنابراین، داده‌هایی که من جمع‌آوری کردم، که اندازه‌گیری‌های زوجی هستند، $[a_X*(X + X-\text{noise})، a_Z*(X + Y + Z-\text{noise})]$ هستند. آیا هنوز می توانم $Y$ را از اندازه گیری های خود تخمین بزنم؟ اگر من $a_X$ یا $a_Z$ را نمی دانم آیا این مشکل قابل حل نیست؟
آیا می توان رابطه بین X و Y را فقط با X و Z که در آن Z = X + Y تعیین کرد؟
38218
بنابراین، من یک مبتدی در زمینه ML هستم و سعی می کنم برخی از طبقه بندی ها را انجام دهم. هدف من پیش بینی نتیجه یک رویداد ورزشی است. من برخی از داده های تاریخی را جمع آوری کرده ام و اکنون سعی می کنم یک طبقه بندی کننده را آموزش دهم. من حدود 1200 نمونه گرفتم، 0.2 تای آنها را برای اهداف آزمایشی جدا کردم، بقیه را در جستجوی شبکه (شامل اعتبارسنجی متقابل) با طبقه‌بندی‌کننده‌های مختلف قرار دادم. من SVM را با هسته های خطی، rbf و چند جمله ای و جنگل های تصادفی تا به حال امتحان کرده ام. متأسفانه، من نمی توانم دقت قابل توجهی بزرگتر از 0.5 (همان انتخاب تصادفی کلاس) دریافت کنم. آیا این بدان معناست که من نمی توانم نتیجه چنین رویداد پیچیده ای را پیش بینی کنم؟ یا میتونم حداقل دقت 0.7-0.8 بگیرم؟ اگر امکان پذیر است، پس باید به چه چیزی نگاه کنم؟ * داده های بیشتری دریافت کنید؟ (من می توانم مجموعه داده را تا 5 بار بزرگ کنم) * طبقه بندی های مختلف را امتحان کنید؟ (رگرسیون لجستیک، kNN، و غیره) * مجموعه ویژگی های من را دوباره ارزیابی می کنم؟ آیا ابزارهای ML برای تجزیه و تحلیل وجود دارد که کدام ویژگی منطقی است و کدام نیست؟ شاید، من باید مجموعه ویژگی های خود را کاهش دهم (در حال حاضر 12 ویژگی دارم)؟
دقت طبقه بندی پایین، بعد چه باید کرد؟
97871
در حداقل مربعات معمولی، زمانی که یک یا چند رگرسیور با نویز افزایشی اندازه‌گیری می‌شوند، می‌توانیم از مدل خطا در متغیرها استفاده کنیم تا اثرات سوگیری تضعیف را بهبود بخشد. فقط باید پایایی $r = \left( 1-\frac{\text{noise variance}}{\text{total variance}} \right)$ را بدانیم. 1. آیا نتیجه مشابهی برای تخمین اثر یک رگرسیون باینری طبقه بندی شده اشتباه بر یک نتیجه پیوسته یا باینری وجود دارد که متکی به استفاده از یک متغیر ابزاری نیست؟ 2. اگر بخواهم چیزی در مورد خطاهای طبقه بندی اشتباه فرض کنم، آیا می توانم ضریب تخمینی را بر $(1-p-q)$ تقسیم کنم، که در آن عبارت های کسر شده نشان دهنده نرخ خطای نوع I و II هستند تا ببینم برآوردهای من چقدر حساس هستند؟ * * * در اینجا یک رویکرد رگرسیون ناپارامتریک ممکن توسط چن، هو و لوبل وجود دارد. آیا کسی تا به حال از این روی داده های واقعی استفاده کرده است که بتوانم آن را تکرار کنم تا مطمئن شوم که این کار را درست انجام می دهم؟
تخمین اثر حاشیه ای یک رگرسیور باینری طبقه بندی نادرست بدون ابزار
43347
من سعی می کنم روشی برای شناسایی تبلیغات کلاهبرداری در وب سایت خود ارائه کنم. من فکر می‌کنم این مشکل با شناسایی ایمیل‌های هرزنامه (که طبقه‌بندی‌کننده ساده بیزی راه‌حل رایجی برای آن است) مشترک است، زیرا بسیاری از سیگنال‌هایی که نشان دهنده یک کلاهبرداری هستند در متن آگهی پیدا می‌شوند. با این حال، اطلاعات دیگری وجود دارد که می‌تواند نشانگرهای کلاهبرداری خوبی باشد، اما مطمئن نیستم که آیا یک طبقه‌بندی کننده بیز می‌تواند از آنها استفاده کند یا نه، زیرا آنها شامل مقادیر عددی هستند (با مقادیری که در انتهای محدوده مشکوک هستند) از مقادیر باینری ساده مربوط به وجود یا عدم وجود یک کلمه در متن. به عنوان مثال، بسیاری از تبلیغات کلاهبرداری قیمت کالا را بسیار پایین تنظیم می کنند (برای جذب بازدیدهای زیاد)، بنابراین من می خواهم قیمت پایین تر از حد معمول نشان دهنده قوی بودن این تبلیغ باشد. آیا Bayes هنوز برای نیاز من مناسب است، اگر نه، می‌توانید روش دیگری را توصیه کنید؟
آیا طبقه‌بندی‌کننده بیزی رویکرد خوبی برای متن با متا داده‌های عددی است؟
38215
من یک سوال در مورد استفاده از SPSS برای محاسبه آلفای کرونباخ معیاری دارم که از دو نوع آیتم استفاده می‌کند: یکی داده‌های ترتیبی و دیگری دوگانه. داده های ترتیبی از طریق آیتم های رتبه بندی 4 امتیازی و داده های دوگانه از طریق سوالات درست و نادرست تولید می شوند. آیا استفاده از گزینه تجزیه و تحلیل قابلیت اطمینان برای محاسبه آلفای کرونباخ برای اندازه گیری هنوز برای من مشکلی ندارد؟
داده های پیوسته و دوگانه آلفای کرونباخ در SPSS
103283
من در حال انجام یک مقاله آماری گذشته برای امتحان سال اول هستم و در پاسخ به سوال زیر مشکل دارم. کسی میتونه لطفا کمکم کنه؟ با تشکر «نشان دهید که اگر 3 رویداد $\\{A، B، C\\}$ مستقل باشند، پس $(A \cup B)$ و $C$ نیز مستقل هستند.
اثبات رویداد مستقل
13686
من یک مجموعه داده با حدود 30 متغیر مستقل دارم و می خواهم یک GLM بسازم تا رابطه بین آنها و متغیر وابسته را بررسی کنم. من می دانم که روشی که برای این وضعیت به من آموزش داده شد، رگرسیون گام به گام، اکنون یک گناه آماری محسوب می شود. در این شرایط از چه روش های مدرن انتخاب مدل باید استفاده کرد؟
جایگزین های مدرن و به راحتی برای رگرسیون گام به گام کدامند؟
76276
در این هفته ها الگوریتم کلاسیک تخصیص دیریکله نهفته (LDA) توسط دیوید بلی و همکارانش (2003) و نوع LDA بر اساس نمونه گیری گیبس که توسط تام گریفیث معرفی شده بود را مطالعه می کردم. تفاوت اصلی این دو روش چیست؟
تفاوت اصلی بین تخصیص دیریکله نهفته نمونه گیری کلاسیک و گیبس چیست؟
19061
1000 نمونه گرفته شده از یک توزیع ناشناخته را در نظر بگیرید. تفاوت بین دو روش زیر برای محاسبه میانگین نمونه و واریانس نمونه چیست؟ 1. میانگین نمونه و واریانس نمونه را در تمام 1000 نمونه بیابید. 2. یافتن میانگین نمونه بیش از 500 نمونه اول و واریانس نمونه بر روی 500 نمونه باقی مانده. تفاوت چیست و کدام روش ترجیح داده می شود؟
محاسبه میانگین نمونه و واریانس نمونه در همه نمونه ها در مقابل زیر مجموعه های مجزا
47919
من یک مدل لگ نرمال را در برخی از نقاط داده با استفاده از هر دو رویکرد متداول و بیزی (با استفاده از یک پیشین غیر اطلاعاتی) برازش می کنم. با این حال، نتایج متفاوتی گرفتم. کدها و خروجی‌های من در اینجا آمده است: Frequentist: > data1 = c(0.32618457, 0.29166954, 0.27427996, 0.23844847, 0.25148180) > n=length(data1) =(data1) =((data1) =((data1) =(if) par >(parll) (-> sum(log(dlnorm(exp(data1),par[1],par[2])))) else return(Inf) } > optim(c(0,0.1),lln1) > > mu sigma [1] 0.27641155 0.03091169 بیزی با 20000 MCMC و 4000 رایت: مدل { for( i in 1 : N ) { x[i] ~ dlnorm(mu، tau) } mu ~ dunif(0، 1) tau ~ dunif(0، 1) sigma <- 1/tau} لیست(N = 5، x = c(0.32618457، 0.29166954، 0.27427996، 0.23844847، 0.25148180)) خطای میانگین گره sd MC 2.5% میانه 97.5% شروع نمونه mu 0.2417 0.2182 0.001976 0.006612 0.1759 0.8226 4000 4000 sima 16006.2226. 0.01899 1.049 2.015 7.755 4000 16001 از آنجایی که من از یک پیشین غیر اطلاعاتی استفاده می کنم، تعجب کردم که چرا تخمین های mu و sigma متفاوت است.
تفاوت نتایج: Frequentist در مقابل Bayesian
11277
به طور خلاصه، این چیزی است که من دارم: * برآوردهای سالانه جمعیت برای ایالت * سن دوره ای (5 ساله)، جمعیت، و داده های سرشماری اولیه در هر منطقه در اینجا چیزی است که می خواهم انجام دهم: * ایجاد یک مدل ساده برای تولید داده ها برای سالهای از دست رفته بین دوره برای هر منطقه، و مجموع مبالغ به جایی که برآورد جمعیت سالانه ایالت است جمع شود. در مجموع، من به دنبال یک مدل آماری غیر پیچیده هستم که قادر به تولید مقادیر با دقت قابل قبول (لازم نیست فوق العاده بالا باشد).
آیا مدل ساده‌ای برای تفکیک داده‌های سرشماری بر اساس سال‌ها و مناطق کوچک‌تر وجود دارد؟
43341
من دانشجوی پایان نامه کارشناسی ارشد هستم و در رابطه با تحصیلم سوالی دارم. من با داده های کشوری برای 25 کشور کار می کنم و به دنبال ارزش های فرهنگی، نگرش ها و جمعیت شناسی اجتماعی به عنوان پیش بینی کننده رفتار محیطی هستم. برای متغیر وابسته رفتار زیست محیطی من می خواهم چندین جنبه را ترکیب کنم (تولید زباله، تصفیه زباله، انتشار گازهای گلخانه ای، مصرف انرژی، هزینه حمل و نقل عمومی، استفاده از ماشین، هزینه های حفاظت از محیط زیست) لطفاً در مورد نحوه ترکیب این موارد به من توصیه کنید. به یک متغیر ترکیبی؟ اگر من هر متغیر را به چارک تبدیل کنم (1 حفاظت از محیط زیست و 4 تخریب محیط زیست است) آیا می توانم رتبه بندی را اضافه کنم و یک ترکیب تشکیل دهم؟ یا این روش معتبری برای ایجاد کامپوزیت نیست؟ همچنین، آیا ترکیب متغیرها در یک متغیر وابسته مرکب ایده خوبی است یا باید روی ایجاد رگرسیون برای هر جنبه از رفتار محیطی به طور جداگانه تمرکز کنم؟ من از نرم افزار Eviews و SPSS استفاده می کنم. لطفا اگر من به اندازه کافی واضح نیستم به من اطلاع دهید تا جزئیات بیشتری ارائه کنم.
چگونه یک متغیر ترکیبی برای استفاده به عنوان متغیر پاسخ ایجاد کنیم؟
19069
من سعی می کنم بفهمم که چگونه داده های تبدیل شده را با استفاده از ANOVA تجزیه و تحلیل کنم. اگر داده‌های من با فرض نرمال بودن مطابقت نداشته باشند، و من آن‌ها را با استفاده از یک تبدیل گزارش برای رفع آن تغییر شکل داده باشم، آیا تحلیل خود را روی امتیازهای تبدیل شده اجرا می‌کنم و مقادیر تبدیل‌شده را ذکر می‌کنم؟ **ویرایش:** به طور خاص، زمانی که داده ها را تبدیل کرده اید تا با فرض نرمال بودن مطابقت داشته باشد و سپس یک ANOVA یک طرفه را روی امتیازات تبدیل شده اجرا کنید، اگر می خواهید داده ها را نمودار کنید، باید از نمرات تبدیل شده نیز استفاده کنید. یا وسیله اصلی؟ از آنجایی که نمودار رابطه بین متغیرها را نشان می دهد، حدس می زنم از مقادیر تبدیل شده استفاده کنم.
آیا هنگام انجام ANOVA بر روی داده های تبدیل شده، داده های تبدیل نشده را گزارش کنیم؟
89269
من با بخشی از یادداشت های سخنرانی اکچوئری که دارم می خوانم مشکل دارم. در اینجا تکه‌هایی از یادداشت‌ها آمده است: پورتفولیویی متشکل از $n$ خط‌مشی‌های مستقل را در نظر بگیرید. مجموع ادعاهای حاصل از خط‌مشی $i$-th با متغیر تصادفی $S_{i}$ نشان داده می‌شوند، جایی که $S_{i} $ دارای توزیع پواسون مرکب با پارامترهای $\lambda_{i}$ (همه i.i.d)، $\textbf{ناشناخته}$، و CDF توزیع مبالغ ادعای فردی F(x)$ است، شناخته شده است. سپس یادداشت ها می گویند که این بدان معناست که همه $S_{i}$s i.i.d هستند. این حس شهودی دارد. با این حال، بخش بعدی همان تنظیمات را دارد، اما اکنون پارامترهای توزیع پواسون همه $\lambda$ هستند. یادداشت ها بیان می کنند اگر مقدار $\lambda$ مشخص بود، پس $S_{i}$ i.i.d است. یعنی $S_{i}|\lambda$ i.i.d هستند. به این معنی که خود $S_{i}$ (یعنی با $\lambda$ $\textbf{ناشناخته}$) وابسته هستند. به نظر می رسد که این با بخش اول تناقض دارد. اگر بتوانید به من کمک کنید تا به طور شهودی به این موضوع رسیدگی کنم، کمک بزرگی خواهد بود. خیلی ممنون
توزیع پواسون مستقل در مقابل ترکیب وابسته
88793
وقتی اهمیت متغیر را روی یک جنگل تصادفی (یا هر مدل دیگری) اجرا می‌کنم، نام متغیرهای فاکتور/رده‌بندی، نام فاکتور را به عنوان پسوند دارد. برای مثال، SALARY ~ STATE + CITY + AGE + …، نتیجه varImp(model) می تواند به نظر برسد، > varImp(model) rf اهمیت متغیر تنها 20 متغیر مهم نشان داده شده است (از 1050) اهمیت AGE 100.00 STATECA 91.84 STATEAZ 86.24 CITYSTANFORD 74.15 STATEVT 71.27 بر حسب از اهمیت نسبی، آیا درست است که این را به عنوان AGE مهم ترین پیش بینی کننده، و پس از آن STATE و سپس CITY تفسیر کنیم؟ مقادیر اهمیت همچنین چیزی در مورد رابطه بین پیش بینی کننده و نتیجه نمی گویند - برای مثال، آیا سن بالاتر برابر با حقوق بالاتر است، آیا STATE CA به معنای حقوق بالاتر است، و غیره. هر گونه پیشنهادی در مورد چگونگی به دست آوردن چنین اقداماتی برای مدل های جعبه سیاه مانند جنگل تصادفی، gbm و غیره بسیار مفید خواهند بود.
تفسیر اهمیت متغیر (varImp) برای متغیرهای عامل
13687
این سوال به توزیع نرمال می‌پردازد، اما من نمی‌دانم در مورد توزیع انحراف معیار نمونه‌ای با اندازه _n_ که از یک توزیع دلخواه گرفته شده است، چه چیزی شناخته شده است. به طور خاص، انحراف معیار انحراف معیار چیست؟ برای توزیع نرمال، s.d. از s.d. $\sigma \over{\sqrt{2n}}$ است. آیا این تقریباً برای توزیع دلخواه به صورت $n \rightarrow \infty$ درست است؟
توزیع انحراف معیار
89268
من از یک رویکرد فناوری اطلاعات و استنتاج چند مدلی با برخی داده های شمارش استفاده می کنم. من از میانگین‌گیری مدل برای به دست آوردن تخمین پارامترها از چندین GLMM با خطاهای پواسون-lognormal (خانواده پواسون به اضافه اثر تصادفی سطح مشاهده) استفاده کرده‌ام. تخمین پارامترهای میانگین مدل به شرح زیر است: (برق) 1.9522 استفاده از زمین -2.0318 درمان -0.8861 hedge -0.6943 sun -0.5191 landuse:treatment 1.0529 bound.area -0.2389 اکنون در تلاش هستم تا این تخمین های نقطه ای را از روی این تخمین ها انجام دهم. کاربری زمین یک عامل دو سطحی (a و p) است. درمان یک فاکتور دو سطحی (AF و MC) است. Hedge، sun و bound.area همگی متغیرهای پیوسته هستند. بنابراین رهگیری درمان = AF و استفاده از زمین = a است. من علاقه مند به برآورد نقطه ای برای این هستم: 1. درمان = AF هنگام استفاده از زمین = a 2. درمان = AF هنگام استفاده از زمین = p 3. درمان = MC هنگام استفاده از زمین = a 4. درمان = MC هنگام استفاده از زمین = p من Grueber et دارم مقاله 2011 al در مورد MMI اما من مطمئن نیستم که آیا به درستی توانسته ام روش های آنها را (به تفصیل در ضمیمه مقاله) روی پارامتر خود اعمال کنم یا خیر. برآوردها پیش‌بینی‌کننده‌های من با میانگین 0 و انحراف معیار 0.5 استاندارد شده بودند، بنابراین می‌دانم که باید پیش‌بینی‌کننده‌های استاندارد شده را جایگزین کنم و سپس مدل را برای برآورد مورد نیاز با میانگین (یعنی 0) همه پیش‌بینی‌کننده‌های دیگر حل کنم. بنابراین برای مثال برای یک تخمین نقطه ای از درمان = AF زمانی که استفاده از زمین = a، آیا می توانم به سادگی exp(intercept) را انجام دهم؟ [که همان exp(1.9522 – 2.0318*0 - 0.8861*0 - 0.6943*0 - 0.5191*0 + 1.0529*0*0 – 0.2389*0).] اما چگونه می توانم آن را برای هر یک از موارد دیگر حل کنم ترکیبات؟ آیا درمان = AF و استفاده از زمین = p به این شکل انجام می شود؟ : exp(1.9522 – 2.0318 - 0.8861*0 - 0.6943*0 - 0.5191*0 + 1.0529 – 0.2389*0) احساس می کنم چیزی را از دست داده ام / اشتباه متوجه شده ام... در نهایت، آیا درست فکر می کنم که می توانم یک اثر درمانی به خودی خود ایجاد می کند (همانطور که در یک تعامل)؟ هر گونه کمک بسیار قدردانی می شود.
محاسبه تخمین نقطه از پارامترهای میانگین مدل
65014
من یک مدل Cox PH ساخته ام. من احتمال بقای پیش بینی شده را به دست آوردم. سؤالات من عبارتند از: 1. چگونه می توان زمان بقای پیش بینی شده یا زمان تا رویداد را با استفاده از احتمالات بقا بدست آورد؟ 2. من نیاز به اعتبارسنجی با استفاده از نمودارهای بالابر دارم، به عنوان مثال در تعداد رویدادهایی که مدل در سه دهک اول ثبت می شود.
نمودار افزایش افزایش خطر متناسب کاکس
11270
مطالعه من در مورد درک مشتریان از اثربخشی وبلاگ شرکت مالزی است. در مطالعه من، ادراک مشتریان از اثربخشی به عنوان سهولت استفاده درک شده، تعامل درک شده، و قابل اعتماد بودن درک شده تعریف شد. در حالی که وبلاگ شرکتی به عنوان نرم افزار انتشار وبلاگ، سیستم نظرات وبلاگ، و وبلاگ بلاگ و پیوند وبلاگ تعریف می شود. در مطالعه خود، من می خواهم تعیین کنم که آیا رابطه ای بین: الف) درک مشتریان از سهولت استفاده و نرم افزار انتشار وبلاگ وجود دارد. ب) درک مشتریان از تعامل و سیستم نظرات وبلاگ؛ و ج) ادراک مشتریان از قابلیت اعتماد و بلاگ وبلاگ و لینک. در پرسشنامه، هر بخش (درک شده آسان برای استفاده، تعامل درک شده، قابل اعتماد درک شده، نرم افزار انتشار وبلاگ، سیستم نظرات وبلاگ، و وبلاگ وبلاگ و لینک) شامل 5 سوال است. به عنوان طراحی پرسشنامه در مقیاس 7 لیکرت (اندازه گیری ترتیبی)، از همبستگی ناپارامتریک (همبستگی اسپیرمن) برای تجزیه و تحلیل داده ها استفاده می کنم. علاوه بر این، مانند فصل 1 پایان نامه من، برخی فرضیه های تحقیق وجود دارد. بنابراین من یک دم اهمیت انتخاب شده ام. ### سوالات: 1. آیا همبستگی اسپیرمن روش مناسبی برای تجزیه و تحلیل داده های من است؟ 2. از آنجایی که هر بخش دارای 5 سؤال است (به عنوان مثال: درک سهولت استفاده و نرم افزار انتشار وبلاگ)، خروجی آماری دارای 10 ضریب همبستگی است، اما چگونه باید این 10 ضریب همبستگی را به یک نتیجه تفسیر کنم که آیا رابطه ای بین مشتریان وجود دارد یا خیر. درک سهولت استفاده و انتشار وبلاگ نرم افزار؟ 3. اگر بخواهم برای سهولت استفاده درک شده توسط مشتریان (5 سوال) و نرم افزار انتشار وبلاگ (5 سوال) رگرسیون انجام دهم، از کدام رگرسیون استفاده کنم؟
چگونه یک مطالعه را تجزیه و تحلیل کنیم که به رابطه بین یک مجموعه پنج موردی (پیش‌بینی‌کننده‌ها) و مجموعه دوم از پنج آیتم (نتیجه‌ها) نگاه می‌کند.
50842
دقیقا سوال رو کپی کردم آیا کسی می تواند پاسخ من را بررسی کند؟ من بین انتخاب ها بسیار گیج شده ام، به نظر می رسد همه آنها قابل اجرا هستند. > یک شرکت مشتریان خود را بر اساس مدت زمانی که برای پرداخت صورتحساب هایشان طول می کشد به سه گروه تقسیم می کند: سریع (< 1 ماه)، آهسته (1 تا 6 ماه)، > بسیار آهسته (> 6 ماه). آنها از سوابق قبلی خود می دانند که > نسبت مشتریان سریع 0.3، نسبت مشتریان > پرداخت کند 0.65 و نسبت مشتریانی که به طور باورنکردنی کند > 0.05 است. در میان آنهایی که به طور باورنکردنی کند هستند، نیمی از آنها هنوز در مدت > دو سال پرداخت خواهند کرد، و بقیه هرگز پرداخت نمی کنند. > > کدام یک از عبارات زیر صحیح است؟ > > 1. از هر 40 نفر یک نفر هرگز صورتحساب خود را پرداخت نمی کند > 2. مشتری که 1 ماه صورتحساب خود را پرداخت نکرده است، احتمال 0.0357> > عدم پرداخت وجود دارد. > 3. احتمال اینکه مشتری ظرف 6 ماه پرداخت کند، بیشتر از زمان > بیشتر از 1 ماه > 4 است. با توجه به اینکه یک فرد سریع یا بسیار کند است، احتمال بیشتری دارد که فرد > بسیار کند باشد > پاسخ من 2 3 است. 4. دلایل: 1. از هر 40 نفر یک نفر هرگز صورت حساب خود را پرداخت نمی کند. - نادرست از نظر احتمال، ما معمولاً یک #میانگین 2 را اضافه می کنیم. یک مشتری ... احتمال 0.0357 هرگز پرداخت نمی کند. - درست در نظر بگیرید فضای نمونه 0.65+0.05=0.7 را در نظر بگیرید شانس هرگز پرداخت را در نظر بگیرید = 0.025 0.025/0.7=0.0357... 3. به احتمال زیاد ... بیشتر از 1 ماه طول می کشد. - احتمال واقعی (در عرض 6 ماه) = 0.3+0.65=0.95 احتمال (بیشتر از 1 ماه) = 0.65+0.025=0.675 (فرض: افرادی که پرداخت نمی کنند) 4. با توجه به یک فرد .. بسیار کند است. - True By 2 case P(fast)=0.3 P(slow)=0.7
سوالات احتمالی مشروط (تکالیف)
103273
بنابراین این برای من کمی پیچیده شده است و امیدوارم کسی بتواند به من کمک کند. من سابقه ریاضی ندارم. من یک سری زمانی از بارندگی روزانه به مدت 50 سال برای یک مکان خاص دارم. آن مکان با یک فصل بارانی بسیار مشخص مشخص می شود (به طور معمول از حدود هفته اول ژوئن هر سال شروع می شود). بنابراین شما انتظار دارید که یک موج ناگهانی بارندگی در حوالی ژوئن وجود داشته باشد که تقریباً 2-3 ماه طول می کشد و سپس کاهش می یابد. برایم جالب بود که بدانم چه نوع تکنیک‌های آماری یا ریاضی را می‌توان برای مشخص کردن تاریخ‌های هر سالی که بادهای موسمی شروع می‌شود استفاده کرد. اساساً من می‌خواهم تاریخ‌های شروع اولیه را برای هر سال محاسبه کنم. ببخشید اگر این سوال کمی مبهم است. با تشکر
نقطه ای را پیدا کنید که در آن منحنی به طور قابل توجهی بالا می رود
88796
من در حال بررسی احتمال پرواز در یک پرنده دریایی (1=پرواز، 0=عدم پرواز) با استفاده از رگرسیون لجستیک دو جمله ای هستم. پیش‌بینی‌کننده‌های من فاصله تا یک اختلال (مستمر)، ساعت از روز (پیوسته)، مکان (عامل)، فصل (عامل)، وضعیت دریا (دوگانه)، و اندازه گروه (دوگانه) هستند. من استفاده از رگرسیون تکه‌ای را در رابطه با فاصله تا یک اغتشاش بررسی کرده‌ام، زیرا این متغیر محدوده بزرگی (تا ۷۴ کیلومتر) را در بر می‌گیرد و هیچ راهی وجود ندارد که این روی پرواز در بزرگترین فاصله تأثیر بگذارد. هنگامی که مدل فقط با اشاره به فاصله تا اختلال در برنامه R بخش بندی شده مناسب بود، به شکست در داده ها در 3.9 کیلومتر اشاره می کند. شیب تا این فاصله منفی و از نظر آماری معنی دار است در حالی که برآورد شیب برای فواصل بیشتر از 3.9 کیلومتر صفر و غیر معنی دار برآورد شده است. اکنون می‌خواهم به‌طور متوالی عبارات دیگری را به مدل اضافه کنم تا ببینم آیا در هنگام اضافه شدن عبارت‌های اضافی، کاهشی در انحراف وجود دارد یا خیر. آیا می توان یک اصطلاح را فقط به بخش قبل یا بعد از استراحت اضافه کرد؟ به نظر می رسد نمی توانم اطلاعاتی در این زمینه در ادبیات پیدا کنم سؤالات من این است که آیا می توانم این کار را انجام دهم؟ یا باید داده ها را به دو قسمت قبل و بعد از نقطه شکست تقسیم کنم و اصطلاحات اضافی را از این طریق بررسی کنم. همچنین انگیزه انجام این تحلیل بیشتر برای یافتن و شناسایی نقطه شکست است. آیا به جای اضافه کردن عبارت ها پس از ارزیابی نقطه انفصال، باید نقطه شکست را در یک مدل شامل همه عبارت ها بررسی کنم؟ آیا این شکست در داده‌ها را در رابطه با سایر عبارات پیدا می‌کند یا الگوریتم هنگام جستجوی فاصله‌ای در متغیر فاصله تا اختلال، سایر عبارات مدل را کاملاً نادیده می‌گیرد. با تشکر
افزودن اصطلاحات اضافی به یک رگرسیون تکه‌ای
65017
من داده هایی از دو آزمایش کشاورزی دارم، یکی در 101 سایت، دیگری در 97 سایت. در هر دو آزمایش، متغیر پاسخ، $Y$، یک شمارش با بیش از صفر است و یک متغیر کمکی باینری، $I$ وجود دارد که نشان می‌دهد آیا سایت درمان خاصی را دریافت کرده است یا خیر. در آزمایش اول، این داده‌ها با موفقیت با یک مدل پواسون تورم صفر (ZIP) مدل‌سازی شدند، که تخمین‌هایی را برای احتمال صفر، $\phi$ ارائه می‌کرد، به طوری که $\phi=0$ با یک مدل پواسون معمولی مطابقت داشت، و برای اثر درمانی با این حال، در آزمایش دوم نیز یک متغیر کمکی پیوسته به نام $I$ وجود دارد که با $\phi$ مرتبط است. چگونه می توانم این داده ها را مدل کنم تا بتوانم ارتباط بین $\phi$ و $X$ و همچنین اثر درمان را تخمین بزنم؟
مدل سازی پارامتر تورم صفر در مدل رگرسیون ZIP
96464
من در مورد آزمون آماری که باید استفاده کنم کمی سردرگم هستم. مورد من به شرح زیر است: من در حال اندازه گیری ویژگی های شخصیتی شرکت کنندگان (موافق بودن، برون گرایی، وظیفه شناسی، گشاده رویی، روان رنجوری) هستم و از آنها پرسیدم که چقدر احتمال دارد که پنج عمل مختلف را در مقیاس 7 درجه ای انجام دهند (اجازه دهید آنها را A بنامیم. ، ب، ج، د، ای). بنابراین، داده‌هایی که من دارم، 5 ویژگی شخصیتی است که اندازه‌گیری می‌کنم و 5 اقدام پاسخ در مقیاس 7 درجه‌ای. چیزی که می‌خواهم بدانم این است که آیا احتمال انجام این اعمال را می‌توان با امتیاز هر یک از ویژگی‌های شخصیتی توضیح داد. به عنوان مثال؛ کسی که در روان رنجورخویی نمره بالایی می گیرد، احتمال بیشتری دارد که در عمل A شرکت کند تا یکی از اقدامات دیگر. من به یک آنووا با اندازه‌گیری‌های مکرر فکر می‌کردم زیرا 5 برابر عمل پاسخ برای هر شرکت‌کننده را اندازه‌گیری می‌کنم، اما چگونه می‌توانم 5 ویژگی شخصیتی را کنترل کنم زیرا آنها نیز درون موضوع هستند.
در مورد آزمون آماری برای استفاده سردرگم هستم
13939
این سوال مربوط به تابع CHIDIST اکسل در متلب است. حداقل پاسخ بزرگتر از صفر که در اکسل می توانم دریافت کنم، حدود 2.2e-308 است که با realmin در متلب مطابقت دارد. با این حال، در MATLAB حداقل پاسخ 2.2e-16 یا «eps(1.0)» است. من متوجه شدم که این به این دلیل است که ابتدا «chi2cdf» را محاسبه می‌کنم که برای مقادیر بزرگ نزدیک به 1 است، و دقت در این مورد «eps(1.0)» است. آیا راه دیگری برای بازتولید CHIDIST اکسل و عدم کاهش دقت وجود دارد؟ آیا دقیقاً می دانید CHIDIST چگونه کار می کند؟ **ویرایش:** باید چندین بار این تست را انجام دهم و در بسیاری از موارد مقادیر p حاصل نزدیک به صفر هستند. من باید p-value ها را رتبه بندی کنم، به همین دلیل است که من به دقت بالایی در محاسبه p-value نیاز دارم.
تابع CHIDIST اکسل در MATLAB برای مقادیر بزرگ
43345
نمایش گرافیکی صحیح برای این داده های هزینه هفتگی (به دلار) برای نوشابه برای 20 نفر چیست: 12،13،17،21،24،24،26،27،27،30،32،35،37،38 ,41,43,44,46,53,58 من می خواهم داده ها را به 5 سطل جدا کنم: 10-20 (f=3)، 20-30(f=6)، 30-40(f=5)، 40-50(f=4)، 50-60(f=2) و محور عنوان I: «هزینه هفتگی (مبلغ دلار)». کدام یک برای محور y مناسب تر است؟ (که برای آن «f=3،6،5،4،2» قرار داده‌ام.)
نمایش گرافیکی هزینه های هفتگی
103276
من در حال نوشتن پایان نامه در مورد پیش بینی اینکه کدام اهداف تصاحب شرکتی، پیشنهاد دهنده رقیب را جذب می کند، می نویسم. من ابتدا یک مدل را با استفاده از رگرسیون لجستیک تخمین زدم. نمونه شامل 1350 هدف تک مناقصه‌گر و 51 هدف چند مناقصه‌گر است. من می‌خواهم توانایی پیش‌بینی را با یک نمونه نگهدارنده آزمایش کنم و از این پیش‌بینی برای ساختن پرتفویی استفاده کنم که بازدهی بیشتری نسبت به بازار (CAR) ایجاد کند. با این حال، این نمونه نگهدارنده دارای 250 هدف تک مناقصه‌گر و تنها 13 هدف چند پیشنهادی است. 1. آیا برای نمونه نگهدارنده اهمیتی دارد که تعداد هدف چند پیشنهاد دهنده خیلی کم باشد؟ 2. آیا برای آزمایش توانایی پیش‌بینی، «تأیید اعتبار متقاطع ترک یک بیرون» (LOOCV) بهتر از نمونه نگهدارنده است؟ یعنی دقت مدل نیست 3. چگونه می توانم با استفاده از spss یک ارائه اعتبار متقاطع (LOOCV) را انجام دهم؟
برای رگرسیون لجستیک رویدادهای نادر در SPSS یک اعتبار متقاطع را کنار بگذارید
64765
من فکر می کنم این یک سوال نسبتاً باز است. فرض کنید من داده های دو بعدی $(x_i، y_i)$ دارم. من مدل معقولی برای حاشیه‌ها دارم، مثلاً توزیع‌های $F_X$ و $F_Y$ (پارامتری). چگونه می توان به طور منطقی یک مدل دو بعدی برای توزیع مشترک $(X,Y)$ ساخت که به همبستگی بین $X$ و $Y$ یا یک لحظه بالاتر دیگر احترام می گذارد؟ البته من تغییرات نرمال را در نظر نمی گیرم. پیشاپیش متشکرم
بازسازی توزیع مشترک از حاشیه ها
19067
من در حال تجزیه و تحلیل برخی از داده های رفتاری از چندین شرکت کننده در Matlab هستم. من قبلاً در SPSS تدابیر تکراری انجام می دادم. اما آیا این همان اضافه کردن موضوع به عنوان یک عامل، و انتخاب آن به عنوان یک اثر تصادفی است؟ یعنی ماتریس داده‌های اندازه‌گیری‌های مکرر عادی من x شبیه به این حالت است A شرط B موضوع 1 x(1,1) x(1,2) موضوع 2 x(2,1) x(2,2) ... ... . .. موضوع 7 x(7,1) x(7,2) بنابراین برای Matlab، COND = [1 2 SUBJ = [1 1 1 2 and 2 2 ... ... 1 2] 7 7] را امتحان کردم سپس دوید `anovan(x(:), {COND(:), SUBJ(:)}, 'random',2 )` اکنون به نظر نمی رسد که نتایج مشابه SPSS را برای اندازه گیری های مکرر به من بدهد... شاید من آیا پارامتر تصادفی را اشتباه متوجه شده اید - فکر کردم شما می توانید یک تست اندازه گیری های مکرر از آن بسازید؟
آیا اثرات تصادفی به من امکان انجام اقدامات مکرر را می دهد؟
96463
من با فرضیه صفر مشکل دارم. فرض کنید من مجموعه‌ای از داده‌های یک جمع‌بندی را دارم و می‌خواهید آزمایش کنید که آیا این نمونه عمری بیش از 2000 دارد یا خیر.
آزمون فرضیه و تعیین فرضیه صفر
60229
علاوه بر غوغای ارائه شده توسط برندان هالپین برای Stata، آیا راهی برای دنبال کردن یک تطابق بهینه با استفاده از بسته R «TraMineR» وجود دارد که عملیات ابتدایی OM را با طول قسمت [1] معکوس وزن می کند؟ [1]: نگاه کنید به Halpin، B. (2010) تحلیل تطبیق بهینه و داده های دوره زندگی: اهمیت مدت زمان، روش ها و تحقیقات جامعه شناختی 38 (3): 365-388.
الگوریتم تطبیق بهینه وزن دار با استفاده از R
43340
آیا کسی می تواند به من مرجعی در مورد تئوری هیستوگرام های اعمال شده برای داده های چند متغیره بدهد؟ آیا قوانینی مانند Freedman-Diaconis یک بعدی برای موارد با ابعاد بالا وجود دارد؟ رایج ترین معایب چیست؟ من قصد دارم از هیستوگرام برای تخمین چگالی استفاده کنم.
منابع مربوط به قوانین هیستوگرام های چند بعدی
69061
من داده هایی دارم که می توانم آنها را به صورت تصویر بیان کنم. در داخل این داده ها من چند خوشه پیدا کردم (در تصویر زیر نشان داده شده است). من فقط می توانم رنگ های مختلف را به خوشه های مختلف اختصاص دهم و تصویر را تجسم کنم، اما اگر این کار را به طور تصادفی انجام دهم، رابطه فضایی را که می توان در تصویر مشاهده کرد از دست می دهم. ![پرداختن خوشه های من به صورت دوبعدی برای تجسم فواصل بین آنها](http://i.stack.imgur.com/8FVee.jpg) برای حل آن به منظور اجازه دادن به خوشه های نزدیک رنگ های نزدیک، فکر کردم که راه حل خوبی است. ممکن است نگاشت این فضا به یک نقشه رنگی (یا برعکس) فقط برای این باشد که بگویم حدس می‌زنم که باید از نقشه رنگی طوری استفاده کنم که در مرکز آن سیاه باشد تا سفید فقط برای نمایش اهداف. (نشانگر سفید در بوم سفید زیاد نمایش داده نمی شود ؛) ) ![فضای رنگی](http://i.stack.imgur.com/8gUnz.png) یک راه حل ممکن این است که مستقیماً PCA مرکزهای من را به صورت سه بعدی نگاشت کنم. سیستم مختصات و از این یکی برای ترسیم رنگ HSV استفاده کنید. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/yJEu6.jpg) Centroid های نزدیک رنگی مشابه دارند، اما تفاوت در اشباع و روشنایی باعث می شود که در همان نزدیکی متفاوت باشد و نزدیک به سایر مرکزهای دور دور اول است. دو مختصات اما در مختصات سوم بسته می شود. یک راه حل این است که از همان مختصات برای اشباع و روشنایی استفاده کنید که منجر به این رنگ می شود (یا حتی فقط از رنگ استفاده کنید) ! بالا را می توان به راحتی متمایز کرد در حالی که خوشه های پایین همه شبیه به هم (تاریک) به نظر می رسند. از سوی دیگر استفاده از تنها رنگ منجر به کاهش زیر مجموعه رنگ ها می شود. اشباع را می توان به عنوان فاصله از مرکز ترسیم کرد، اما همچنان فضای رنگی به درستی برای داشتن بهترین رنگ استفاده نمی شود. هدف نهایی این است که دوباره رنگ آمیزی خوشه ها را به یک تصویر بازتاب دهیم تا تصویری رنگی از بافت آن بدست آوریم، به شرح زیر: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7uZoE jpg) با تشکر.
چگونه به درستی خوشه ها را برای تجسم رنگ آمیزی کنیم
79928
من در حال طراحی یک نظرسنجی هستم که داده ها را از کاربران خدمات ارائه شده توسط سازمان من جمع آوری می کند. ما داده‌ها را از همه آن کاربران (سایر سازمان‌های کوچکتر) که با ما کار می‌کنند جمع‌آوری می‌کنیم. بنابراین، ما اطلاعاتی در مورد کل جمعیت خواهیم داشت. ما نظرسنجی را به گونه ای طراحی خواهیم کرد که فقط مشاهدات عددی را بدست آوریم: متغیرهای پیوسته، گسسته و مقوله ای. در ابتدا فکر می‌کردم از تجزیه و تحلیل داده‌های تابلویی استفاده کنم، اما مشکل این است که در ابتدا فقط در یک بازه زمانی داده‌ها را خواهم داشت. سوال این است که آیا هنوز هم می توانم از تحلیل داده های تابلویی استفاده کنم؟ کدام روش دیگر با این نوع مجموعه داده مناسب تر است؟
کدام روش مناسب برای تجزیه و تحلیل داده ها در یک دوره زمانی است؟
82626
من می خواهم از بین دو متغیر دیگر یک متغیر هم ترازی ایجاد کنم. به این معنی که اگر دو ارزیاب (مثلا مدیر و کارمند) به یکدیگر امتیاز دهند، همسویی زیاد است، اما اگر به یکدیگر امتیاز دهند، همسویی پایین است. من سعی کردم معیارهای IRR مانند ICC و کاپا کوهن را بررسی کنم، اما به نظر می رسد که آنها فقط یک امتیاز هم ترازی کلی ایجاد می کنند. من به دنبال ایجاد یک مقدار تراز برای هر جفت ارزیاب رتبه بندی یکدیگر هستم - به طور موثر یک متغیر تراز جدید ایجاد می کنم. چگونه می توانم این کار را انجام دهم؟ از نظر فنی من از SPSS استفاده می کنم، اما مهم ترین چیز برای من این است که بفهمم از چه تکنیک عمومی استفاده کنم.
چگونه از متغیرهای رتبه بندی متقابل یک متغیر هم ترازی ایجاد کنیم
19681
این سوالی است که فرانک هارل در اینجا نوشته است: > طبق تجربه من، اندازه نمونه مورد نیاز برای دقیق بودن توزیع t اغلب بزرگتر از اندازه نمونه موجود است. تست رتبه علامت دار Wilcoxon همانطور که شما گفتید بسیار کارآمد است و قوی است، بنابراین من تقریباً همیشه آن را بر آزمون t ترجیح می دهم اگر آن را درست متوجه شده باشم - هنگام مقایسه مکان دو نمونه بی همتا، ترجیح می دهیم از آن استفاده کنیم. اگر حجم نمونه ما کوچک باشد، آزمون مجموع رتبه‌ای ویلکاکسون نسبت به آزمون t غیر جفتی. **آیا موقعیتی نظری وجود دارد که ما تست مجموع رتبه ویلکاکسون را بر آزمون t غیر زوجی ترجیح دهیم، حتی اگر حجم نمونه دو گروه ما نسبتاً بزرگ باشد؟** انگیزه من برای این سوال از مشاهده این موضوع ناشی می شود که برای یک آزمون t نمونه تکی، استفاده از آن برای یک نمونه نه چندان کوچک از توزیع اریب، خطای نوع اول اشتباهی را به همراه خواهد داشت: n1 <- 100 mean1 <- 50 R <- 100000 P_y1 <- عددی(R) برای(i در seq_len(R)) { y1 <- rexp(n1, 1/mean1) P_y1[i] <- t.test(y1 , mu = mean1)$ p.value } sum(P_y1<.05) / R # برای n1=n2=100 -> 0.0572 # خطای نوع I اشتباه.
چه زمانی از آزمون مجموع رتبه ویلکاکسون به جای آزمون t-paired استفاده کنیم؟