_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
41510 | چگونه آن را توضیح می دهید؟ تنها یک عملگر وجود دارد اما مدل ترکیبی تخمینی را برای اثر تصادفی «اپراتور» برمیگرداند. علاوه بر این، اثر «نمونه» با تعامل «نمونه: عملگر» اشتباه گرفته میشود. در زیر کد R آمده است. > اپراتور نمونه dd y 9 10 SCF 0.9153188 10 10 SCF 0.9884982 19 100 SCF 2.0798781 20 100 SCF 2.0464027 29 1000 SCF 0.9884982 3.0114448 39 10000 SCF 4.1348324 40 10000 SCF 4.0840063 49 1e+05 SCF 5.1235795 50 1e+05 SCF 5.110638 SCF 6.0803404 60 1e+06 SCF 6.2353263 > str(dd) 'data.frame': 12 obs. از 3 متغیر: $ نمونه : فاکتور w/ 6 سطح 10، 100، 1000،...: 1 1 2 2 3 3 4 4 5 5 ... $ عملگر: فاکتور w/ 1 سطح SCF : 1 1 1 1 1 1 1 1 1 1 ... $ y : num 0.915 0.988 2.08 2.046 3.04 ... > lmer(y ~ (1|نمونه)+(1|عملگر)+(1|نمونه:عملگر)، داده=dd) مدل ترکیبی خطی متناسب با REML فرمول: y ~ (1 | نمونه) + (1 | عملگر) + (1 | نمونه:اپراتور) داده: dd AIC BIC logLik انحراف REMLdev 18.6 21.03 -4.302 9.932 8.605 اثرات تصادفی: نام گروه ها Variance Std.Dev. نمونه:اپراتور (Intercept) 1.87954740 1.370966 نمونه (Intercept) 1.87954925 1.370967 اپراتور (Intercept) 0.00063096 0.025119 باقیمانده 0.0028035931 گروه: 0.0028035931 باقیمانده نمونه: اپراتور، 6; نمونه، 6; عملگر، 1 اثرات ثابت: برآورد Std. مقدار خطای t (Intercept) 3.5709 0.7921 4.508 برای کسانی که با SAS آشنایی بیشتری دارند کد مربوطه این است: PROC MIXED DATA=dd; اپراتور نمونه کلاس؛ مدل y=; نمونه تصادفی اپراتور نمونه*اپراتور. اجرا؛ این چیزی نیست جز ANOVA دو طرفه متقاطع با اثرات تصادفی. | مدل ترکیبی در R به خوبی اجرا می شود در حالی که یک اثر تصادفی تنها یک سطح دارد |
87242 | یک دستگاه ضرب سکه به طور تصادفی سکه های نامتعادل تولید می کند به طوری که احتمال موفقیت در پرتاب یک سکه متغیر تصادفی $Y$ است. فرضاً $Y$ دارای pdf $f(y) = 2y$ برای $0 <= y <= 1$ و در غیر این صورت $0$ است. به طور تصادفی یک سکه بردارید. 1. این سکه را پرتاب کنید و اجازه دهید X$$ 1 باشد اگر نتیجه یک سر باشد و 0 اگر دم باشد. احتمال $P(X=1)$ را پیدا کنید. 2. سکه را $n$ بار پرتاب کنید. احتمال به دست آوردن هدهای $k$ را در پرتابهای $n$ پیدا کنید، جایی که $n$ و $k$ اعداد صحیح مثبت هستند و $k <= n$. 3. این سکه را دو بار پرتاب کنید. اگر اولین پرتاب منجر به دم شود، احتمال مشروط آن چقدر است که پرتاب بعدی نیز دم باشد؟ راهنمایی برای (3): از تابع بتا استفاده کنید ویرایش: من در مفهوم سازی این سوال مشکل دارم. برای (1) آیا P(X=1) معادل Y نیست؟ راهبردهای پشت حل (2) و (3) چیست؟ برای 3) آیا پرتاب سکه دوم مستقل از پرتاب اول نیست؟ چرا احتمال شرطی وجود دارد؟ | احتمالات/انتظارات مشروط |
41515 | من در تلاش برای به دست آوردن خطاهای استاندارد قوی هستم زیرا به نظر می رسد که باقیمانده های رگرسیون من همبستگی دارند ... داده های نمونه من دارای 8 کشور است و من می خواهم خطاهای استاندارد این 8 کشور را با استفاده از SPSS خوشه بندی کنم ... خوانده ام که می توانید برای انجام این کار از STATA استفاده کنید اما من فقط SPSS را روی لپ تاپم نصب کرده ام. کمک کنید. کسی میانبر یا ماکروی برای این کار می شناسد؟ ممنونم!!! | چگونه با استفاده از SPSS خطاهای استاندارد (بر اساس کشور) را خوشه بندی کنیم؟ |
41512 | من به دنبال منابع کنترل کیفیت آماری نرم افزار هستم. جستوجویهای من نوشتههای زیادی در مورد چگونگی پیشبینی زمان پروژههای نرمافزاری و همچنین نرمافزاری که میتوان از آن در کنترل کیفیت استفاده کرد، یافت، اما واقعاً چیزی بهطور خاص برای ارزیابی کیفیت نرمافزار پیدا نکردم. برخی از سوالات اساسی که می خواهم بپرسم مواردی از این قبیل هستند: * آیا بخش X باگ بیشتری نسبت به بخش Y ایجاد می کند؟ * آیا «زمان کرانچ» باعث افزایش درصد عیب می شود؟ در بررسی این موارد، متوجه میشوم که دادهها به طور معمول توزیع نمیشوند، که باعث میشود نگران باشم که دانش آمار محدود من بدون کمک به انجام وظیفه میپردازد. همچنین، برخی از مشکلات من (به عنوان مثال توزیع غیر عادی) به طور کلی در مورد کنترل کیفیت اعمال می شود، اما من نگران ناشناخته های ناشناخته هستم. | مراجع کنترل کیفیت نرم افزار |
60410 | به نظر می رسد این موضوع همیشه سر زشت خود را به دنبال دارد، و من سعی می کنم برای درک خودم از آمار (و سلامت عقل!) آن را قطع کنم. مفروضات مدل های خطی عمومی (آزمون t، ANOVA، رگرسیون و غیره) شامل فرض نرمال بودن است، اما من متوجه شده ام که این به ندرت به وضوح توضیح داده می شود. من اغلب با کتاب های آماری / کتابچه های راهنما / غیره مواجه می شوم که به سادگی بیان می کنند که فرض نرمال بودن برای هر **گروه** (یعنی متغیرهای طبقه بندی X) صدق می کند، و ما باید انحرافات از نرمال بودن را برای **هر گروه* بررسی کنیم. *. _**سوالات_**: 1. آیا این فرض به **مقادیر** Y اشاره دارد یا **بقیه**های Y؟ 2. برای یک **گروه** خاص، آیا ممکن است یک توزیع غیرعادی شدید از ** مقادیر** Y (به عنوان مثال، اریب) اما توزیع تقریباً (یا حداقل نرمال تر) از **باقیمانده*ها وجود داشته باشد. * از Y؟ منابع دیگر توصیف میکنند که این فرض مربوط به باقیماندههای **مدل** است (در مواردی که گروههایی وجود دارد، بهعنوان مثال، t-test / ANOVA)، و ما باید انحراف نرمال بودن این باقیماندهها را بررسی کنیم (یعنی فقط یک Q-Q). طرح/آزمایش برای اجرا). 3. آیا نرمال بودن باقیمانده ها برای **مدل** به معنای نرمال بودن باقیمانده ها برای **گروه ها** است؟ به عبارت دیگر، آیا باید فقط باقیمانده های مدل را بررسی کنیم (برخلاف دستورالعمل های بسیاری از متون)؟ برای قرار دادن این موضوع، این مثال فرضی را در نظر بگیرید: * من می خواهم ارتفاع درخت (Y) را بین دو جمعیت (X) مقایسه کنم. * در یک جمعیت، توزیع Y به شدت به سمت راست است (یعنی اکثر درختان کوتاه، بسیار کم قد)، در حالی که دیگری تقریباً نرمال است * قد به طور کلی در جمعیت توزیع شده معمولی بالاتر است (که نشان می دهد ممکن است یک واقعی وجود داشته باشد. تفاوت). * تبدیل داده ها به طور قابل ملاحظه ای توزیع جمعیت اول را بهبود نمی بخشد. 4. اولا، آیا مقایسه گروه ها با توجه به توزیع های قد کاملاً متفاوت معتبر است؟ 5. چگونه می توانم به فرض عادی بودن در اینجا نزدیک شوم؟ قد فراخوان در یک جمعیت به طور معمول توزیع نمی شود. آیا **باقیمانده**ها را برای هر دو **جمعیت** به طور جداگانه بررسی می کنم یا باقیمانده ها را برای **مدل** (آزمون t)؟ * * * لطفاً در پاسخ ها به سؤالات بر اساس شماره مراجعه کنید، تجربه به من نشان داده است که افراد به راحتی گم می شوند یا منحرف می شوند (مخصوصاً من!). به خاطر داشته باشید که من آمارگیر نیستم. اگرچه من درک معقولی **مفهومی** (یعنی نه فنی!) از آمار دارم. P.S.، من آرشیوها را جستجو کردم و موضوعات زیر را خواندم که درک من را تقویت نکردند: * نرمال بودن فرض ANOVA/ توزیع نرمال باقیمانده ها * نرمال بودن باقیمانده ها در مقابل داده های نمونه؛ تست های تی چطور؟ * آیا تست نرمال بودن اساساً بی فایده است؟ * تست نرمال بودن * ارزیابی نرمال بودن توزیع * برای تأیید اینکه باقیمانده ها به طور معمول توزیع شده اند از چه آزمایش هایی استفاده کنم؟ * توزیع نرمال * نرمال بودن باقیمانده ها در مقابل داده های نمونه. تست های تی چطور؟ | نرمال بودن متغیر وابسته = نرمال بودن باقیمانده ها؟ |
86592 | من یک پانل تجربی بزرگ دارم، که در آن اساساً میخواهم انحراف استاندارد بازده (صاحب صاحبان سهام) ($y_{it}$) شرکت i را در زمان t، در اهرم (صاحب صاحبان سهام/بده) شرکت i در زمان t ( $x_{it}$). علاوه بر این، من می خواهم اندازه سهام شرکت ($z_{it}$) را کنترل کنم. متأسفانه علامت ضریب $\beta$ تغییر می کند (در هر دو مشخصات قابل توجه است) اگر دو مدل زیر را اجرا کنم: مدل جلوه های ثابت: $$ y_{it} = a_{i} + \beta * x_{it} + c * z_ {it} + u_{it}$$ مدل اول تفاوت: $$ \Delta y_{it} = \beta * \Delta x_{it} + c * \Delta z_{it} + \Delta u_{it}$$ از آنجایی که من فقط دانش اولیه در مورد اقتصاد سنجی دارم و همکارانم نیز متحیر هستند، امیدوار بودم که برخی از بچه های آماری به من کمک کنند. من برخی از مشکلات بالقوه را شناسایی کردم (اما ممکن است موارد بیشتری وجود داشته باشد): * $y_{it}$ ممکن است همبستگی خودکار داشته باشد * از آنجایی که اهرم به عنوان بدهی / حقوق صاحبان سهام تعریف می شود، کنترل برای حقوق صاحبان سهام برخی از مشکلات بالقوه را به همراه دارد. سوال واقعی اکنون این است: کدام مدل (اگر هر) از نظر اقتصاد سنجی درست است؟ | تغییرات علامت ضریب در برآورد اثر ثابت و تفاضل اول |
7176 | همه چیزهایی که در مورد ترکیب خطاها در ربع در هنگام ضرب یا تقسیم مقادیر با خطاهای مرتبط خوانده ام، می گوید که این برای خطای کوچک کار می کند. در مورد خطای بزرگ چطور؟ بگویید من میخواهم A/B را محاسبه کنم که در آن A +/- 1٪ و B +/- 50٪ است، آیا هنوز هم میتوانم خطاها را به طور منطقی در ربع اضافه کنم؟ | انتشار خطاهای بزرگ |
86598 | به طور کلی منطقه رد مشترک آزمون t، سه فرضیه جایگزین و منطقه رد برای آزمون t تک نمونه ای وجود دارد: 1. برای فرضیه جایگزین $H_1: μ1 ≠ μ2$، منطقه رد $|T| > t_{α/2}، ν$ 2. برای فرضیه جایگزین $H_1: μ1 > μ2$، ناحیه رد $|T| > t_{1-α}، ν$ 3. برای فرضیه جایگزین $H_1: μ1 < μ2$، ناحیه رد $|T| > t_{α},ν$ سوال من این است که چرا برای فرضیه جایگزین $(2) H_1: μ1 > μ2$ معیار $t$ برای رد استفاده از **$t_{1-α}$** نسبت به ** $t_α$**؟؟؟؟ پیشاپیش متشکرم | چرا برای فرضیه جایگزین $(2) H_1: μ1 > μ2$، معیار $t$ برای رد، از **$t_{1-α}$** نسبت به **$t_α$** استفاده میکند؟ |
33596 | من برای به دست آوردن تعدادی از مجموعه داده های تکمیل شده از انتساب چندگانه استفاده کرده ام. من از روش های بیزی در هر یک از مجموعه داده های تکمیل شده برای به دست آوردن توزیع های پسین برای یک پارامتر (یک اثر تصادفی) استفاده کرده ام. چگونه می توانم نتایج را برای این پارامتر ترکیب / ترکیب کنم؟ * * * زمینه بیشتر: مدل من سلسله مراتبی است به معنای تک تک دانش آموزان (یک مشاهده برای هر دانش آموز) که در مدارس خوشه ای هستند. من چندین انتساب (با استفاده از «MICE» در R) روی دادههایم انجام دادهام که در آن «مدرسه» را به عنوان یکی از پیشبینیکنندههای دادههای گمشده درج کردهام - تا سعی کنم سلسلهمراتب دادهها را در انتسابها ادغام کنم. من یک مدل شیب تصادفی ساده را برای هر یک از مجموعه داده های تکمیل شده برازش داده ام (با استفاده از «MCglmm» در R). نتیجه باینری است. من متوجه شدهام که چگالیهای خلفی واریانس شیب تصادفی «خوب رفتار میکنند» به این معنا که چیزی شبیه به این هستند:  چگونه می توانم میانگین های پسین و فواصل معتبر از هر مجموعه داده منتسب شده را برای این اثر تصادفی ترکیب کنم؟ * * * **به روز رسانی 1**: از آنچه تاکنون فهمیده ام، می توانم قوانین روبین را برای میانگین خلفی اعمال کنم تا یک میانگین پسین منتسب ضربی را ارائه دهم - آیا انجام این کار مشکلی دارد؟ اما من نمی دانم چگونه می توانم فواصل 95٪ معتبر را ترکیب کنم. همچنین، از آنجایی که من یک نمونه چگالی خلفی واقعی برای هر انتساب دارم - آیا می توانم اینها را به نحوی ترکیب کنم؟ * * * **Update2**: طبق پیشنهاد @cyan در نظرات، من ایده ترکیب ساده نمونهها از توزیعهای پسین بهدستآمده از هر مجموعه داده کامل از انتساب چندگانه را بسیار دوست دارم. با این حال، من دوست دارم توجیه نظری انجام این کار را بدانم. | چگونه می توانم بعد از انتساب چندگانه، ابزارهای پسین و فواصل معتبر را جمع آوری کنم؟ |
72681 | اخیراً، من در مورد محاسبه احتمال اینکه یک فرد معین در یک جمعیت معین «دانست» (مثلاً در مجموعه دوستان فرد وجود دارد) حداقل یک فرد با یک ویژگی خاص A و حداقل یک فرد با یک ویژگی خاص دیگر، B را محاسبه کنم. ; جایی که ممکن است هر تعداد از افراد در مجموعه دوستان فرد معین بتوانند هر دو ویژگی را داشته باشند. برای مثال، با استفاده از صفات ژنتیکی، در یک جمعیت معین، چگونه میتوان این احتمال را محاسبه کرد که یک فرد در یک جمعیت معین حداقل یک فرد با رنگ چشم خاکستری و حداقل یک فرد با قد بیش از 200 سانتیمتر را میشناسد. که به طور طبیعی، ممکن است هر تعداد از افراد در مجموعه دوستان رنگ چشم خاکستری داشته باشند _و_ قدشان بیشتر از 200 سانتی متر باشد. من نوعی مدل را توسعه داده ام، اما ممکن است به درستی مشخص نشده باشد. به شرح زیر است: **فرض ها و شرایط:** * اول از همه، برای سادگی، اجازه دهید فرض کنیم که ما دانستن را به عنوان دوستانی که به طور متقابل متصل هستند در یک شبکه اجتماعی آنلاین تعریف می کنیم. * ثانیاً، فراوانی صفات ژنتیکی (الف) بر اساس قومیت یک جمعیت معین و همچنین عوامل محیطی (تغذیه، مراقبت های بهداشتی) تعیین می شود و (ب) بعید است که به طور مستقل در مجموعه دوستان یک فرد معین (مثلاً خانواده) توزیع شود. اعضا شباهت ژنتیکی بیشتری خواهند داشت). با این حال، برای این مشکل، بیایید یک مدل ساده را اتخاذ کنیم که در آن هر دو شرایط فوق نقض می شوند. * ثالثاً، فرض کنید که مجموعه دوستان فرد، بازنمایی کوچک کیهانی از جامعه را ارائه می دهد. این امر تولید مکرر احتمالات را از نرخ نمونه در جمعیت تسهیل می کند. * در نهایت، نمونه هایی از صفات ژنتیکی در جمعیت ساخته می شود، اما برای ایجاد احتمالات برای نمونه ها استفاده می شود. ** فرمولبندی مدل: ** من استدلال کردهام که توزیع تصادفی دوجملهای را میتوان برای احتمال هر صفت ژنتیکی اعمال کرد، که در آن موفقیت به عنوان فردی در مجموعه دوستان که آن ویژگی ژنتیکی را دارد، تعریف میشود. بنابراین برای صفت A، داریم: $$P(A=k) = \binom{N}{k}p_{a}^{k}(1-p_{a})^{N-k}$$ و برای ویژگی B: $$P(B=k) = \binom{N}{k}p_{b}^{k}(1-p_{b})^{N-k}$$ که $N$ تعداد دوستان است در مجموعه دوستان، $k$ تعداد افرادی است که دارای ویژگی ژنتیکی هستند و $p_{x}$ احتمال مربوط به داشتن ویژگی ژنتیکی $X$ است. از آنجایی که این سناریو به احتمال _ حداقل یک_ فرد دارای صفت A و _ حداقل یک_ فرد دارای صفت B مربوط می شود، یافتن مکمل هیچ فردی در مجموعه دوستانی که این ویژگی را دارد آسان تر است. برای هر دو صفت: $$P(A >= 1) = 1 - P(A = 0)$$ و $$P(B >= 1) = 1 - P(B = 0)$$ علاوه بر این، ما می دانیم که احتمال تقاطع رویدادها به صورت زیر داده می شود: $$\mathbb{P}(A \cap B) = \mathbb{P}(A|B)\mathbb{P}(B) = \mathbb{P}(B|A)\mathbb{P}(A)$$ با این حال، چون ما بین صفات ژنتیکی استقلال را فرض میکنیم، $\mathbb{P}(A)$ و $\mathbb{P}(B )$ مستقل هستند، بنابراین: $$\mathbb{P}(A \cap B) = \mathbb{P}(A)\mathbb{P}(B)$$ با ترکیب اطلاعات بالا، ما مدل زیر را برای سناریوی بالا دریافت کنید: $$\mathbb{P}(A >=1، B >=1) = \left(1-\binom{N}{k}p_{a}^{k}( 1-p_{a})^{N-k}\right)\left(1-\binom{N}{k}p_{b}^{k}(1-p_{b})^{N-k}\راست) $$ بنابراین، برای مثال اصلی بالا، با فرض یک مجموعه دوست با اندازه $N = 300$، نمونه صفت A در جمعیت $\frac{1}{800}$ است و نمونه صفت B در جمعیت $ است. \frac{1}{5000}$; با توجه به مدل، احتمال نهایی را بدست می آوریم: $$\mathbb{P}(A >=1, B >=1)$$ $$ = \left(1-\binom{300}{0}\left(\frac{1}{800}\right)^{0}\left(\frac{799}{800}\right)^{300}\ درست)\l eft(1-\binom{300}{0}\left(\frac{1}{5000}\right)^{0}\left(\frac{4999}{5000}\right)^{300}\right )$$ $$\حدود 0.018 = 1.8\%$$ آیا این مدل با توجه به مفروضات معقول به نظر می رسد؟ با فرض اینکه این مدل به درستی _نه_ مشخص شده باشد، شاید کسی بتواند نمایش دقیق تری ارائه دهد. | مدل سازی احتمالات در مجموعه دوستان |
40643 | من در استفاده از تست های آماری تازه کار هستم و اینجا یک سوال بسیار آسان است اما نمی توانم پاسخ آن را آنلاین پیدا کنم. من قصد دارم نظرسنجی بفرستم و استادم به من گفت که باید همان سوال را سه بار بپرسم، اما سپس آن را به گونهای متفاوت بازنویسی کنم تا بررسی کنم که آیا افراد به جای کلیک کردن روی نقطهها در سریعترین زمان ممکن، نظرسنجی را با دقت پر کردهاند یا خیر. . تستی وجود دارد که می توانید از آن استفاده کنید تا ببینید آیا سه پاسخ مربوط به یک متغیر تا حدودی مشابه هستند یا خیر. اسم این تست چیه؟ | از چه آزمونی برای تعیین اینکه آیا کسی واقعاً در پرسشنامه پاسخ می دهد یا نه به طور تصادفی پاسخ می دهد استفاده کنید |
89916 | من روی پروژه ای در مورد گونه های خاص پرنده در جزیره ای در دریای اقیانوس اطلس شمالی کار می کنم. داده ها قابل اعتماد و بسیار دقیق به نظر می رسند و از قرن هجدهم باز می شوند، با این حال ساختار و قابلیت اطمینان آنها از سال 1970 برای استنتاج بیومتریک بیزی دقیق و دقیق است. من می خواهم نرخ مرگ و میر طبیعی پفکی را با روش های بیزی مدل کنم. من به طور تصادفی به مقالاتی در مورد بیومتریک برخورد کردم و از خود میپرسیدم که آیا کسی میتواند به مقالهها یا مطالبی مشابه آنچه من دارم اشاره کند، زیرا میخواهم راههای متعددی را برای نزدیک شدن به مشکلم ببینم. | پروژه در بیومتریک بیزی |
37670 | من در تلاش برای تعریف یک تابع هدف یا روشی برای یافتن تبدیل و ضرایب بهینهسازی ثابت بودن باقیماندههای رگرسیون هستم. به عنوان مثال، اگر من بخواهم $X_1$ در مقابل $X_2$ پسرفت کنم و از تبدیل Box Cox استفاده کنم. من می خواهم $\lambda$ و $\beta$ s.t را پیدا کنم. $\varepsilon = \frac{X_1^\lambda-1}{\lambda} - \beta*\frac{X_2^\lambda-1}{\lambda}$ ثابت است. هر ایده ای؟ | تبدیل بهینه سازی ایستایی باقیمانده یک رگرسیون |
44944 | من تعریف توابع مشخصه مورد استفاده در نظریه احتمال را درک می کنم: برای یک متغیر تصادفی $X$ با تابع چگالی احتمال $f_X$ تابع مشخصه به صورت زیر تعریف می شود: $$\phi_X(t) = E(\exp(itX)) = \int_{\mathbf{R}} e^{\mathrm{i}tx}f_X(x)\, dx.$$ خواندم که > تابع مشخصه در زمینه های غیراحتمالی، تبدیل فوریه > نامیده می شود (صفحه 342، احتمال و اندازه گیری. P.Billingsley 3rd > editon). اما من هنوز نمی توانم این را از تعاریف آنها ببینم، زیرا تبدیل فوریه $f^*$ یک تابع $f$ به صورت زیر تعریف می شود: $$ f^*(t) = \int_{\mathbf{R}^ n} f(x)\,e^{-\mathrm{i} t \cdot x} \,\mathrm{d} x$$ اگر تابع $f$ یک چگالی باشد، برای مثال. $f=f_X$، سپس تبدیل فوریه را می توان به صورت زیر نوشت: $$ f^*_X = \int_{\mathbf{R}^n} f_X(x)\,e^{-\mathrm{i} t \ cdot x} \,\mathrm{d} x \neq \int_{\mathbf{R}} e^{\mathrm{i}tx}f_X(x)\, dx = \phi_X(t) $$ تعاریف با یک منهای متفاوت هستند، چرا میتوان از هر دو برای یک چیز استفاده کرد (مثلاً برای دکانولوشن)؟ | تابع مشخصه و تبدیل فوریه |
74133 | من یک تجزیه و تحلیل متمایز برای اعتبار سنجی تحلیل خوشه ای خود انجام دادم. تجزیه و تحلیل خوشه ای مبتنی بر PCA است، بنابراین من از مؤلفه ها به عنوان متغیرهای مستقل در تجزیه و تحلیل متمایز استفاده کردم. سوال من این است: آیا محدودیتی با توجه به تعداد متغیرهای مستقل (مولفه) در مقایسه با تعداد گروه های (خوشه ای) من وجود دارد؟ خیلی ممنون | تجزیه و تحلیل متمایز برای اعتبار سنجی تحلیل خوشه ای |
33594 | من سعی می کنم تحلیل این مورد ساده (امیدوارم) را در ذهنم درست کنم. بیایید بگوییم که من یک چیز را به دو روش مختلف، بر روی یک مجموعه از دادهها اندازهگیری میکنم. این اندازه گیری ها را $y_1$ و $y_2$ بنامید. آنها دارای خطاهای گاوسی $s_1$ و $s_2$ هستند. اما از آنجایی که آنها بر روی داده های رایج اندازه گیری می شوند، دارای ضریب همبستگی $\rho $ هستند. بگویید $\rho$ با یک اسباب بازی مونت کارلو یا مشابه آن اندازه گیری می شود، اگرچه فکر نمی کنم این مهم باشد. فقط برای اطمینان از اینکه ما در یک صفحه هستیم، یک ماتریس کوواریانس ایجاد می کند که دارای $s_1^2$ و $\rho s_1s_2$ در ردیف بالا، و $\rho s_1 s_2$ و $s_2^2$ است. در امتداد ردیف پایین محاسبه میانگین وزنی $ \bar y$ آسان است. تحت شرایط خاصی می توان دریافت که $y$ خارج از محدوده $y_1، y_2$ است. این اتفاق می افتد، به ویژه، زمانی که $\rho >\frac {s_1}{s_2}$. از آنجایی که این اندازهگیریها بر روی دادههای یکسانی هستند و یک چیز را اندازهگیری میکنند، این امکان پذیر نیست. به طور خلاصه، opps. من باید اندازه گیری های خود را از $s_1، s_2$، یا $\rho$ به هم ریخته باشم. من با این احساس راحتی می کنم. :-) حالا، فرض کنید دقیقاً مانند بالا عمل می کنم، اما اکنون آن را به سطح بعدی می برم و تعدادی از خطاهای سیستماتیک مرتبط با هر روش را اندازه گیری می کنم. برای استدلال، بگویید که خطاهای سیستماتیک روش 1 با هیچ یک از خطاهای سیستماتیک روش 2 مرتبط نیست. آیا من چنین تست منظمی دارم تا ببینم آیا دیگر اشتباه کرده ام یا خیر؟ من در واقع فکر می کنم باید، همانطور که ممکن است تصور کنید که من خطاهای سیستماتیک دارم، اما آنها بسیار کوچک هستند. بنابراین، من می توانم کاری مانند کاهش $\rho$ انجام دهم - زیرا آنها اکنون دارای خطای نامرتبط هستند (خطای سیستماتیک) و سپس تست را دوباره اجرا می کنند. من فکر میکنم این کاملاً مستقیم است: من از $\rho$ برای تقسیم خطای آماری به یک بخش همبسته و نامرتبط استفاده میکنم، بخشهای نامرتبط را در چهار قسمت با خطاهای سیستماتیک اضافه میکنم و سپس $\rho$ را دوباره محاسبه میکنم. اما آیا آزمون هنوز منطقی است؟ می ترسم در اینجا یک مفهوم اساسی را از دست بدهم یا بتوانم تعیین کنم که چه اتفاقی در حال رخ دادن است. چیزهای موجود در حوزه مشکل فعلی من به طور دلخواه پیچیده می شوند. من باید اندازهگیریهای یک چیز را در مجموعه دادههای نامرتبط، اما با خطاهای سیستماتیک مرتبط با هم ترکیب کنم. رویه ای که در بالا برای تنظیم $\rho$ توضیح دادم در اینجا نیز به همان اندازه اعمال می شود (خطای آماری نامرتبط است، اما برخی از خطاهای سیستماتیک خواهند بود)، اما در اینجا نادرست به نظر می رسد. سرنخ دیگری از مفهوم اساسی گمشده من. :-) ممنون می شوم کمکی برای درست کردن افکارم داشته باشم. | ترکیب اندازه گیری های همبسته - وزن های منفی |
89910 | من روی پروژه ای کار می کنم که به رابطه بین قرار گرفتن در معرض چندین داروی مختلف بر روی خطر زایمان زودرس در گروهی از زنان باردار مبتلا به یک بیماری خاص می پردازد. من مطمئن هستم که باید از یک متغیر وابسته به زمان در مدل Cox PH برای قرار گرفتن در معرض داروها استفاده کنم زیرا زنان داروها را در مقاطع مختلف بارداری شروع کردند و برخی اصلاً در معرض قرار نگرفتند. تاکنون، متغیر دارو را به دو صورت کدگذاری کردهام: 1) به عنوان یک متغیر طبقهبندی که انواع داروها را فهرست میکند (آنها هرگز به طور همزمان مصرف نمیشوند، اما گاهی اوقات به صورت متوالی) بدون مواجهه با دارو به عنوان گروه مرجع، و 2) به عنوان یک دوجمله ای متغیر برای هر دارو با 1 برای فواصل زمانی مواجهه و 0 در غیر این صورت. مشکل من در تفسیر منابع انسانی است. در موردی که متغیر مقوله ای است، HR نسبت به گروه مرجع است. اما برای مورد دوم، آیا آنها نسبت به سایر انواع قرار گرفتن در معرض (از جمله عدم قرار گرفتن در معرض) هستند یا هنوز نسبت به عدم مواجهه هستند زیرا حضور همه متغیرهای دارویی دیگر در مدل به طور جداگانه با اثرات آنها سروکار دارد؟ به عبارت دیگر آیا تفسیر HR بین دو نوع مدل کم و بیش یکسان است یا مدل دوم متفاوت است و کمتر قابل تفسیر است؟ اگر این یک سوال اساسی است مرا ببخشید! من intertubes و کتابخانه مرجع خود را جستوجو کردهام و به نظر نمیرسد که دقیقاً همین مشکل را پیدا کنم. اگر منبع خوبی می شناسید که باید بخوانم، لطفاً به آن اشاره کنید. با این حال، من می گویم که به نظر می رسد تمام منابع Cox PH وابسته به زمان که من پیدا کرده ام با نوردهی های باینری سروکار دارند... با تشکر! | نحوه کدنویسی و تفسیر متغیر متغیر زمان طبقه بندی در مدل Cox PH |
80749 | در **داده کاوی**، داده ها معمولاً می توانند به اشکال مختلف مانند رکوردهای **ماتریس**، **گراف** یا **داده های مرتب شده** نمایش داده شوند. در حالی که ما در تحقیقات مقالات مختلفی می یابیم که به روش ها یا راه حل هایی برای این بازنمایی های مختلف پرداخته اند، هیچ توضیح واضحی از مزایای هر بازنمایی در مقایسه با دیگری وجود ندارد (*یعنی زمانی که نمایش های مختلف می توانند برای حل مسئله اعمال شوند، تحت چه شرایطی، یک نمایندگی خاص مزیتی خواهد داشت؟**). در اینجا، من علاقه مند به دانستن مزیت نمایش نمودار نسبت به نمایش ماتریس داده ها هستم و بالعکس. من متوجه هستم که مشکلات مختلف به عنوان یکی از این دو راه، بازنمایی شهودی دارند. به عنوان مثال، یک شبکه اجتماعی، به طور شهودی، به عنوان یک نمودار نمایش داده می شود، در حالی که بیماران ثبت می کنند، به طور شهودی، به عنوان یک ماتریس داده نشان داده می شود. با این حال، میخواهم بدانم وقتی یک کار پیشبینی وجود دارد و میتوان از هر دو نمایش برای حل آن کار استفاده کرد، این نمایشها چگونه مقایسه میشوند. مثالی که ممکن است علاقه من را نشان دهد شبکه برهمکنش شیمیایی-پروتئین است. در این شبکه، مواد شیمیایی که ممکن است بر روی یک هدف پروتئینی خاص اثر بگذارند، رابطه فعالی خواهند داشت. این رابطه فعال می تواند به عنوان لبه وزن 1 بین یک ماده شیمیایی و یک پروتئین در یک نمودار یا به عنوان یک برچسب مثبت برای مجموعه ای از ویژگی هایی که ترکیب را در یک رکورد توصیف می کند نشان داده شود. مثال دیگر شبکه نویسنده-کاغذ است. برای پیشبینی نویسنده مقاله، ممکن است ویژگیهایی را از مقالات استخراج کنیم و ماتریس دادههای خود را بسازیم. راه دیگر، ساختن نموداری است که در آن یک مقاله جدید با مشابه ترین مقاله پیوند داده می شود و سپس، ما سعی می کنیم بر اساس پیمایش نمودار، پیش بینی کنیم که چه کسانی ممکن است نویسنده باشند. **یک پاسخی که زمانی در مورد این دو نمایش فکر میکردم، سطوح مختلف توصیف دادهها است. ** در یک ماتریس داده، مزیت داشتن متغیرهای زیادی برای توصیف یک مورد یا نمونه خاص وجود دارد. از سوی دیگر، در نمودارها، تنها یک متغیر است که شباهت بین نمونه ها را نشان می دهد. با این وجود، توپولوژی گراف ممکن است گره های مهم شبکه را برجسته کند. دیگه چی؟ **به طور خلاصه، من علاقه مند هستم که بدانم توصیه متخصص در مورد زمان استفاده از نمایش گراف یا نمایش ماتریس داده و چرا؟ اگر شما کسی هستید که نمودارها را دوست دارید و ترجیح می دهید آنها را استخراج کنید، به من بگویید چرا؟** | تفاوت پیش بینی بین نمایش نمودار و نمایش ماتریس داده ها |
71231 | آیا می توانم مقادیر AIC یک تابع خطی را با یک تابع غیر خطی مقایسه کنم؟ چون نتایج کاملا متفاوتی می گیرم. یکی 4000 دیگری 6000000 است. تخمین بر روی همان متغیرهای مجموعه داده انجام می شود. | آیا می توانم مقادیر AIC یک تابع خطی را با یک تابع غیر خطی مقایسه کنم؟ |
14763 | من دو لیست قیمت (سهام) دارم و به روشی نیاز دارم تا تشخیص دهم که آیا شکستگی های ساختاری در داخل آن سری ها وجود دارد یا خیر. از چه روشی می توانم استفاده کنم؟ برای هر سری حدود 600 قیمت (روزانه) دارم. پیشاپیش از شما متشکرم | چه روشی برای تشخیص شکست های سازه در سری های زمانی؟ |
37676 | من قصد دارم آزمایشی را برای آزمایش بیماری زایی چندین گونه باکتری انجام دهم. برای این کار من چندین حیوان (مثلاً 5 در هر دوز در هر سویه باکتریایی) را با دوزهای فزاینده باکتری (مثلاً 10^5، 10^6، و غیره) آلوده می کنم و سپس یک متغیر پاسخ دوتایی به دست می آورم که اساساً این است که آیا حیوان زنده مانده یا مرده است. پس از قرار گرفتن در معرض یک ترکیب سویه/دوز باکتری معین. سپس منحنی های پاسخ دوز و دوز کشنده مربوطه 50 (LD50) را تعیین خواهم کرد. قبل از اینکه این آزمایش را شروع کنم، سعی کردم بفهمم بهترین روش برای تجزیه و تحلیل این داده ها چیست. من فکر میکردم که بهترین رویکرد برای من استفاده از GLM دو جملهای است، با این حال شروع به خواندن کمی بیشتر از متون اکوتوکسیکولوژی کردم و بسته R drc (توسط Christian Ritz & Jens C. Streibig) را پیدا کردم که چندین مورد را پیادهسازی میکند. مدل های رگرسیون غیر خطی با توجه به اینکه دانش من از رگرسیون غیرخطی کم است، اکنون به این فکر می کنم که کدام یک از این دو روش برای تجزیه و تحلیل داده ها بهتر است (drc یا glm)، بنابراین هرگونه کمکی در تصمیم گیری بسیار قدردانی می شود. به سلامتی، ریکاردو | پاسخ دوز و تجزیه و تحلیل دوز کشنده 50 |
44942 | من خودم الگوریتم k-means را پیاده سازی می کنم. من هیچ اشتباه آشکاری در کد خود نمی بینم و به نظر می رسد که به خوبی کار می کند. با این حال، چیزی وجود دارد که من نمی فهمم. الگوریتم من که روی بردارهای $x_i \در X$، سترویدهای $c_j \در C$ و برچسبهای $l_i \در L$ کار میکند، به نظر میرسد: 1. انتخاب مراکز $C=\\{c_1,c_2,...,c_k \\}$ از $X_i$ به طور تصادفی (بدون تکرار) 2. هر بردار را با شاخص نزدیکترین مرکز $l_i برچسب گذاری کنید = \text{arg}\min_{j \\{1..k\\}}(||x_i-c_j||, c_j \in C)$$ 3. یافتن معنی جدید برای هر خوشه $$c_j = \text{mean}\\{x \in X_i \;\text{and}\; l_i=j\\}\;\text{for}\;j=1..k $$ 4. اگر سانتروئیدها در مرحله قبل به طور قابل توجهی جابجا شده اند، حدس می زنم به 2 یک وانیلی ساده k-یعنی بروید. با این حال، وقتی پس از هر تکرار، میانگین فواصل نقطه به مرکز مربوطه را رسم می کنم، $$\text{mean}\\{||x_i- c_j||\;\text{و}\;j =l_i\;\text{برای هر}\;x_i \در X \\}، $$ من میتوانم ببینم که فاصله میانگین یکنواخت کاهش نمییابد (اگرچه به طور کلی اینطور است کاهش می یابد و به خوبی همگرا می شود): http://i.stack.imgur.com/ySgWf.png (با عرض پوزش به من اجازه نمی دهد تصویر را جاسازی کنم) به یاد دارم که به من گفته شود باید همیشه در حال کاهش باشد، و شهود من یکسان است . چه اشکالی دارد؟ الگوریتم من (اجرا) یا فرض من در مورد میانگین فواصل؟ | آیا میانگین فاصله در K-means باید یکنواخت کاهش یابد؟ |
7179 | ببخشید اگر این مشابه سوال دیگری است، اما من هنوز در تلاش برای یادگیری تجزیه و تحلیل داده ها هستم و نمی دانم چه چیزی را جستجو کنم. کاری که من میخواهم انجام دهم این است که اطلاعاتی را که یک مشتری بالقوه وارد یک فرم وب میکند، بیاورم و احتمال مشتری شدن آنها را بفهمم... به تیم فروش خود ایده بدهیم که کدام سرنخها بیشترین ارزش را دارند. به طور خاص، به عنوان یک شرکت مسافرتی، معیارهایی مانند مبدأ و مقصد، تاریخ سفر در مقابل تاریخی که فرم را پر میکنند، و حتی مقدار/کم 3 سؤال ذهنی را پر میکنند (حدود 100-150 کاراکتر ایدهآل به نظر میرسد). من حتی مطمئن نیستم که اصطلاحات چیست، بنابراین اگر کسی بتواند راهنمایی هایی در مورد اینکه کجا می توانم برای یادگیری در مورد این موضوع بروم، ارائه دهد، بسیار سپاسگزار خواهم بود. با تشکر | منابع برای مبتدیان - چگونه می توان احتمال اقدام کاربر را بر اساس معیارهای خاص تعیین کرد؟ |
86593 | من یک مجموعه داده بر اساس درصد زمان در دسترس بودن یک ناوگان ماشینها در هر ماه دارم، در نتیجه اکثر مشاهدات نزدیک به 100 هستند که تعداد کمی کمتر و یک یا دو عدد 0 است، این یک توزیع J ایجاد میکند که اثر آن میتواند در نمودار پیوست مشاهده می شود.  بنابراین سوال من این است: از آنجایی که توزیع نرمال نیست، از چه روش هایی می توانم استفاده کنم تا با اطمینان 95 درصد بیان کنم که مجموع در دسترس بودن کل ناوگان در هر سال معین X% یا بالاتر خواهد بود، با توجه به اینکه داده ها عادی نیستند؟ یک راه حل ممکن است استفاده از بوت استرپینگ باشد. به عنوان مثال برای یک ناوگان 10 ماشینی 1. نمونه های تصادفی 10*12 را بردارید، میانگین ناوگان ماشین 2. ماه را چندین بار تکرار کنید 3. فاصله اطمینان میانگین را پیدا کنید. آیا این به نتیجه ای معنادار می دهد؟ فرضیاتی که من می کنم این است که * ماشین ها همه یکسان هستند. * هیچ تفاوت قابل توجهی در زمان خرابی بین ماشین ها وجود ندارد. * هیچ تفاوت قابل توجهی بین ماه ها وجود ندارد. | یک فاصله اطمینان برای داده های غیر عادی ایجاد کنید |
71232 | من داده هایی به شکل زیر دارم: OTU Sample1 Sample2 Sample3 ... 1 1 0 2 2 3 5 0 3 0 5 1 . . . . . . . . بنابراین نمونه ها داده ها را توالی می کنند. سپس تمام دنباله ها با هم ترکیب می شوند و OTU (واحدهای طبقه بندی عملیاتی) توسط یک الگوریتم محاسبه می شوند. اکنون میخواهم با خوشهبندی با استفاده از اطلاعات OTU بهعنوان «اثر انگشت» ببینم کدام نمونهها به یکدیگر نزدیک هستند. بنابراین در مثال بالا Sample1 دارای 1 دنباله در OTU1 است، Sample2 دارای پنج دنباله در OTU2 و غیره است. چه نوع الگوریتم خوشهبندی را پیشنهاد میکنید (تا کنون من خوشهبندی سلسله مراتبی و k-means را میدانم، اما در صورت نیاز میخواهم دیگران را یاد بگیرم). من مطمئن نیستم که چه چیزی در اینجا به بهترین وجه منطبق می شود که من می خواهم با R کار کنم. چند سوال جانبی کوچک: آیا کسی الگوریتمی به نام Jacks knife می شناسد؟ اگر بله، از کجا می توانم اطلاعات مربوط به این الگو را پیدا کنم؟ | چه نوع الگوریتم خوشه بندی برای خوشه بندی نمونه ها بر اساس OTU ها |
33592 | در حال حاضر من بر روی تجزیه و تحلیل تأثیر جنبه های فرهنگی بر ترجیح حالت سرمایه گذاری کار می کنم. با این حال، من باید برای بسیاری از عوامل دیگر، به عنوان مثال صنعت، کنترل کنم، زیرا برخی از صنایع، برای مثال، سرمایه گذاری مستقیم بیشتری دارند، در حالی که برخی دیگر برای صدور مجوز مناسب تر هستند. اما من نمی دانم چگونه این موضوع را مدیریت کنم. به چه نوع اطلاعاتی نیاز دارم تا بتوانم تأثیر صنعت را کنترل کنم و متغیرهایی را محاسبه کنم که بیانگر تأثیر هر صنعت بر متغیر وابسته است، که نسبت حق امتیاز به درآمد FDI است. من حدس میزنم که من نیاز دارم که ساختگیهای صنعت را درج کنم، با این حال، من واقعاً نمیدانم چگونه آنها را تخمین بزنم و بر اساس کدام نوع اطلاعات. | چگونه اثرات صنعت را در رگرسیون کنترل کنیم؟ |
30025 | من در حال حاضر در حال بررسی مقالهای هستم که در آن آنها این کار را با استفاده از رگرسیون بردار پشتیبان دو لایه انجام دادهاند و سعی میکنم بفهمم که آیا عملکرد طبقهبندیکننده خود را بایاس کردهاند و آیا راه بهتری برای انجام این کار وجود دارد یا خیر. من دنبالهای از سطلها دارم و در هر یک از این سطلها تعدادی ویژگی خاص دارم (همه سطلها مجموعه ویژگیهای یکسانی دارند) و یک عدد $Y$ مرتبط با آن دنباله دارم که سعی میکنم آن را پیشبینی کنم. بنابراین به دنبال مقاله - برای هر bin می توانم مدلی را یاد بگیرم که Y_{i} را پیش بینی می کند (پیش بینی Y با استفاده از اطلاعات bin i) یعنی $Y_{i} = \beta_{i} X{i} + \epsilon$. اکنون با توجه به پیشبینی هر یک از این طبقهبندیکنندهها، در این مقاله از آنها برای یادگیری مدل خطی دیگری برای پیشبینی $Y$ استفاده میکنند. آنها از دادههای یکسانی برای یادگیری $\beta$s برای بنهای جداگانه و ضرایب برای مدل دوم استفاده میکنند. سوال من این است ... آیا در اینجا یک مشکل بیش از حد برازش وجود دارد - اساساً از همان داده های آموزشی دو بار استفاده می شود؟ آیا می توان پارامترهای مدل را به طور قابل اعتماد یاد گرفت - یعنی آیا واقعاً می توانیم ضرایب هر دو سطح مدل را به طور همزمان یاد بگیریم ...؟ یا راه بهتری برای تدوین چنین مدلی وجود دارد؟ اگر این روش توضیح منطقی نیست، به من اطلاع دهید و من سعی می کنم نموداری ارائه دهم/توضیح بیشتری به آن بدهم. با تشکر | یادگیری یک مدل خطی سلسله مراتبی - مسائل بیش از حد برازش / شناسایی؟ |
44949 | من در حال حاضر از یک چارچوب بیزی سلسله مراتبی برای بررسی مشکلی با یک متغیر پاسخ باینری واحد و متغیرهای کمکی باینری، $P(Y=1 | X_i=1)، i=1،\ldots،n$ استفاده می کنم. با استفاده از R/JAGS میتوانم ضرایب را مشخص کنم، نسبتهای شانس را پیدا کنم، و غیره. هر گونه پیشنهاد برای رویکرد یا اشاره به ادبیات قدردانی خواهد شد. | رگرسیون لجستیک معکوس با متغیرهای کمکی باینری |
7173 | من یک مطالعه مورد-شاهدی دارم که در آن موارد، شرکتهای دارای بیمه سلامت و کنترلها شرکتهایی هستند که بیمه سلامت ندارند. من در حال مطالعه عوامل موثر بر ثبت نام در بیمه سلامت هستم و بنابراین از یک رگرسیون لجستیک استفاده می کنم که شامل چندین متغیر کمکی بر روی ویژگی های شرکت است که در یک نظرسنجی اندازه گیری شد. من به طور تصادفی شرکت ها را از یک پایگاه داده که شامل دو قشر است، نمونه برداری کرده ام: شرکت های بیمه شده و شرکت های بدون بیمه. از هر گروه 65 تا انتخاب کردم. با این حال، در داخل گروه نیز از چهار قشر که مربوط به صنعت بودند نمونهبرداری کردم. بنابراین من نمی دانم که آیا من نیاز به استفاده از رگرسیون لجستیک مشروط، در مقابل رگرسیون لجستیک غیرشرطی دارم؟ با این حال، من تحت این تصور بودم که رگرسیون لجستیک مشروط برای مطالعات مورد-شاهدی همسان یا مطالعات پانل است. در بازخوردهای دیگری که دریافت کردهام، به من گفته شده است که چون نتیجه را نمونهبرداری کردهام، باید از مدل شرطی استفاده کنم. کسی میتونه کمکم کنه بفهمم کدوم m؟ هر گونه مرجع نیز بسیار قدردانی می شود. متشکرم. | چگونه بین رگرسیون لجستیک یا رگرسیون لجستیک مشروط تصمیم گیری کنیم؟ |
7172 | من توسط برنارد سیلورمن مفهوم شکار گوش خرگوش روش تعاملی برای تخمین چگالی آمدم. آیا کسی می داند: 1. یک مرجع توصیه شده برای این روش؟ 2. توضیح/توجیه برای اینکه چه زمانی باید «کار کند»؟ 3. معیارهای تعاملی موقت دیگری برای تخمین چگالی پیشنهاد شده است؟ | چه زمانی/چرا باید تخمین تراکم شکار گوش خرگوش کار کند؟ |
41511 | من مدل خطی زیر را با استفاده از OLS مطابقت دادم، که در آن $X_{5}$ و $X_{6}$ هر دو متغیر ساختگی هستند و بقیه پیوسته هستند: $Y=\beta_{0} + \beta_{1}X_{1 }+ \beta_{2}X_{2} + \beta_{3}X_{3} + \beta_{4}X_{4} + \beta_{5}X_{5} + \beta_{6}X_{6} + u$ اگر میخواهم یک کنتراست ساده را آزمایش کنم، بگویید که $\beta_{5}$ = 0 میتوانم کارهای زیر را انجام دهم (یا به نسخه چاپی از هر برنامه رگرسیونی نگاه کنم، اما فقط برای مثال): فرضیه صفر: Ho: $\beta_{6}(1) - \beta_{6}(0)$ =0 استفاده از بسته خودرو در R: cVec<-c(0,0,0,0,0,1,0) car::linearHypothesis(mod,cVec, verbose=TRUE) اگر بخواهم تست کنم که $\beta_{5}$ = 0 و $ \beta_{6}$ = 0 بردار را تنظیم کنید تا در برابر بردار ضریب به صورت زیر ضرب شود: cVec<-c(0,0,0,0,0,1,1) آزمون فرضیه صحیح نیست و در واقع باید از یک ماتریس برای این آزمون همزمان استفاده کرد: cMatrix<-t(cbind(c(0 ,0,0,0,0,1,0),c(0,0,0,0,0,0,1))) car::linearHypothesis(mod,cMatrix, verbose=TRUE) «cVec<-c(0,0,0,0,0,1,1)» واقعاً در حال آزمایش کردن چرا و چیست اگر تفاوتی بین $\beta_{0} + \beta_{1 وجود ندارد }X_{1}+ \beta_{2}X_{2} + \beta_{3}X_{3} + \beta_{4}X_{4} + \beta_{5}(1) + \beta_{6}(1)$ AND $\beta_{0} + \beta_{1}X_{1}+ \beta_{2}X_{2} + \beta_{3}X_{3} + \beta_{ 4}X_{4} + \beta_{5}(0) + \beta_{6}(0)$ | کنتراست خطی OLS - همزمان |
41518 | من چند فرضیه را بیان کردم و یک پرسشنامه انجام دادم. فقط بعد از اینکه پرسشنامه ظاهر شد، سوالات را به هم ریختم. این سؤالات در واقع به من اجازه نمی دهند که فرضیه های تعیین شده را رد یا حفظ کنم. بنابراین سوال من این است که چه کار کنم؟ رد کنم یا حفظ کنم؟ | فرضیه های صفر را با داده های ناکافی رد یا حفظ کنید |
30029 | من در حال تجزیه و تحلیل یک RCT دوسوکور و کنترل شده با دارونما با استفاده از ANCOVA در R هستم، که در آن اثر درمان پیش بینی شده قبل از انجام درمان ظاهر می شود! هدف از این مطالعه تعیین این است که آیا درمان یک بیماری یک رفتار خاص را کاهش می دهد یا خیر. افراد مبتلا به این بیماری و رفتار به طور تصادفی 50-50 در گروه های درمان و کنترل دارونما قرار گرفتند. همانطور که پیشبینی شد، بین مداخله و وضعیت اولیه بیماری تعامل معنیداری وجود داشت (همه متغیرها بهجز «مداخله» که یک متغیر فاکتور دو سطحی شناساییکننده درمان در مقابل گروه کنترل است، فاصله دارند): مدل 1: تماس: lm (فرمول) = follow_up_behavior ~ baseline_behavior + baseline_disease * مداخله، داده = د) Estimate Std. خطای t مقدار Pr(>|t|) (برق) 11.28464 0.51177 22.050 <2e-16 *** baseline_behavior 0.77872 0.05112 15.234 <2e-16 *** Baseline_Disease *** Baseline_Disease 0.2216.17103. 0.1146 مداخله درمان 0.74738 0.70254 1.064 0.2895 بیماری_پایه: مداخله درمان -0.64681 0.31374 -2.062 0.0414 * تداخل درمان از حالت اولیه بیماری بسیار مؤثر است، زیرا مداخله در طول بیماری بسیار مؤثر است، نزدیک 0 تا خیلی زیاد از این رو، افراد مبتلا به بیماری پایه بالا بیشترین سود را از این درمان گرفتند و بنابراین باید بیشترین کاهش را در پاسخ رفتاری داشته باشند. تا اینجای کار خیلی خوبه. روی یک لک، من یک مدل بسیار مشابه از رفتار **پایه** را اجرا کردم: مدل 2: فراخوانی: lm(فرمول = رفتار_پایه ~ بیماری_پایه * مداخله، داده = د) برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) -0.6350 0.7620 -0.833 0.4062 baseline_Disease 0.7422 0.5016 1.480 0.1415 مداخله درمانی 1.1941 1.01251. baseline_disease:interventiontreatment -1.3320 0.6510 -2.046 0.0428 * همانطور که می بینید، یک تعامل بسیار مشابه بین وضعیت بیماری و گروه مداخله وجود دارد، حتی اگر مداخله هنوز انجام نشده باشد. به نظر می رسد این یک شکست تصادفی است. نگرانی اصلی من این است که از آنجایی که follow_up_behavior بسیار با رفتار_پایه همبستگی دارد، تعامل قابل توجه در مدل اول به دلیل تعامل از قبل موجود در مدل دوم است و بنابراین نتیجه مداخله نیست. سوالات من این است: 1. آیا من واقعاً مشکلی دارم؟ 2. اگر چنین است، آیا گنجاندن baseline_behavior به عنوان متغیر کنترل در مدل 1 مشکل را برطرف می کند، یعنی تضمین می کند که تعامل قابل توجه در این مدل نتیجه تعامل از قبل موجود در مدل 2 نیست، بلکه به دلیل مداخله است. ? 3. اگر شامل کردن baseline_behavior به عنوان یک کنترل کافی نیست، آیا کاری وجود دارد که بتوانم مطالعه را نجات دهم؟ پیشاپیش از هرگونه کمک یا دیدگاهی متشکرم. | چگونه RCT را در جایی که تفاوت های پایه قابل توجهی با وجود تصادفی سازی وجود دارد، تجزیه و تحلیل کنیم؟ |
14762 | من دو متغیر دارم: a: 12،13،15،10،9،8 b: 15،15،15،15،15،15 متغیر 'a' اعداد مجموع انتخاب یک پاسخ خاص (0 یا 1) برای هر یک است. مورد (6 مورد در این مثال). بنابراین برای مثال برای مورد اول، 12 نفر از 15 شرکت کننده، 1، 13 از 15 در مورد دوم، 15 از 15 در سومین مورد و غیره را انتخاب کردند. متغیر 'b' پاسخ های رفتاری را برای هر مورد پیش بینی می کند. در اینجا پیشبینی میکند که برای هر مورد، اکثر شرکتکنندگان باید گزینه 1 را انتخاب کنند. برای مقایسه «a» با «b» من تفاوت بین هر پاسخ کل را محاسبه کردم: تفاوت: 3،2،0،5،6،7 که یک مجموع: 23 من می خواهم یک فاصله اطمینان برای این امتیاز محاسبه کنم. | محاسبه فاصله اطمینان از توزیع دو جمله ای |
86595 | من سعی میکنم بفهمم چه چیزی باعث میشود تخمین توزیع پسین اینقدر مشکل باشد. بنابراین، تصور کنید که باید توزیع پسینی را روی مجموعهای از پارامترها با توجه به دادههای y تخمین بزنم، بنابراین مقدار $P(\theta|y)$ و $\theta$ عموماً ابعاد بالایی دارد. قبلی بیش از $\theta$ یک گاوسی چند متغیره است، یعنی $P(\theta) \sim N(\theta; 0, \Sigma)$. احتمالات گاوسی اکنون، به نظر می رسد که توزیع پسین نیز گاوسی باشد. آیا این درست است؟ ثانیاً با مرور کتاب بیشاپ، به نظر میرسد که توزیعهای پسین شرطی و توزیعهای حاشیهای نیز گاوسی خواهند بود (با فرض اینکه توزیع مشترک روی پارامترها و دادهها گاوسی باشد) و باید یک راه حل شکل بسته داشته باشد. اگر اینطور است، چرا این مشکل حل نشدنی است؟ اگر من نیاز به یافتن پارامترهای این توزیع پسین داشته باشم، آیا نمی توان آن را به عنوان یک مسئله بهینه سازی در جایی که میانگین و کوواریانس گاوسی خلفی را تخمین زدم تنظیم کرد؟ من اساساً در تجسم اینکه چرا این مشکل پیچیده است مشکل دارم؟ | در مورد کشش پذیری توزیع های خلفی |
86628 | من بارها نگرانی در مورد شکنندگی آنتروپی و اطلاعات متقابل به عنوان معیارهای عملکرد برای برازش آماری و این واقعیت که منجر به بیش از حد برازش می شود شنیده ام. شما می توانید نمونه ای از این نگرانی را در این پست وبلاگ مشاهده کنید. با این حال، در درک اینکه دقیقاً «شکنندگی» در این زمینه به چه معناست، و در چه مواردی مبنایی برای بیش از حد برازش خواهد بود، مشکل دارم. * در چه مواردی نباید از آنتروپی و اطلاعات متقابل استفاده کرد؟ * در صورت استفاده از آنها، چگونه می توانید اطمینان حاصل کنید که بیش از حد برازش اتفاق نمی افتد؟ | چه زمانی و چرا «شکنندگی» اطلاعات متقابل باعث تطبیق بیش از حد می شود؟ |
40646 | میانگین در این مورد خوب نیست، زیرا گالری هایی هستند که یک هنرمند با رتبه بالا و چندین هنرمند دیگر با رتبه های بسیار پایین تر دارند. من به انجام یک میانگین وزنی فکر می کنم، اما نمی دانم چگونه وزن ها را به محدوده های رتبه بندی تقسیم کنم. هر ایده ای؟ متشکرم. | چگونه می توانم رتبه برخی از گالری ها را بر اساس رتبه بندی هنرمندان ارائه شده توسط آنها محاسبه کنم؟ |
44946 | من یک توزیع گسسته ناشناخته $f(x; a,b,c,d)$ دارم. از 4 پارامتر یکی اضافی است. من چند مورد محدود پیدا کرده ام: $$X\sim\text{Binomial}(g(a,b,c,d),c/(b+c)))\;\;\; b,c \gg a,b$$ $$X\sim\text{Poisson}(a/d)\;\;\; b \gg a > d \gg c$$ فعلاً $g$ را تعریف نشده میگذارم. من تعجب می کنم که کدام توزیع ها کاندیدای خوبی برای $f$ هستند. | توزیع های عمومی که دوجمله ای و پواسون موارد ویژه ای هستند |
14765 | من سعی کرده ام تابع anovan را در متلب درک کنم تا ANOVA n-way را انجام دهم تا اثرات چندین عامل را روی داده های خود آزمایش کنم. چیزی که وقتی صفحه راهنمای این تابع را خواندم توجه من را جلب کرد این است که، در مثال آنها، مقدار p برای فاکتور 'X1' از ناچیز بودن (p>0.05) به معنیدار (p<0.05) تغییر میکند. از پیش فرض(خطی) به تعامل تغییر کرد. چگونه باید این نتیجه را تفسیر کنم؟ همچنین اگر ندانم دو فاکتوری که تست می کنم با هم تداخلی دارند یا نه، از کدام مدل استفاده کنم؟ | تفسیر نتایج ANOVA n-way با استفاده از مدل های مختلف در MATLAB |
38213 | من با SVM خطی (با استفاده از SVMlight) کار می کنم و به یک پدیده عجیب کمک می کنم. الگوریتم آموزشی برخی از ویژگی ها را 0 وزن کرد. آیا این بدان معناست که چنین ویژگی هایی برای طبقه بندی بی ربط هستند؟ با نگاهی به مجموعه داده دریافتم که بردارهای حاوی چنین ویژگیهایی فقط به یک دسته تعلق دارند. و به نظر من این ویژگی ها برای طبقه بندی یک مشاهده جدید بسیار مرتبط هستند. علاوه بر این، من نمونه هایی از ویژگی های دیگر متعلق به یک دسته را دارم که وزنی غیر صفر دارند و من را بیشتر گیج می کند. آیا این رفتار درست است یا من چیزی را گم کرده ام؟ | معنی وزن خطی صفر وزن در SVM |
103282 | بر اساس دانشی که از سایر ویژگیهای این دو متغیر داریم، دلایلی داریم که باور کنیم تغییرات در پذیرشهای یک بخش بر یک پیامد بد خاص در آن بخش تأثیر دارد (این تعداد ماهانه جمعآوری میشود): > ساختار dput(admits) c(3 لیتر، 4 لیتر، 3 لیتر، 22 لیتر، 54 لیتر، 74 لیتر، 35 لیتر، 58 لیتر، 59 لیتر، 45 لیتر، 38 لیتر، 52 لیتر، 37 لیتر، 29 لیتر، 39 لیتر، 27 لیتر، 14 لیتر، 4 لیتر، 6 لیتر، 15 لیتر، 31 لیتر، 10 لیتر، 12 لیتر، 14 لیتر، 11 لیتر، 18 لیتر، 36 لیتر، 33 لیتر، 42 لیتر، 36 لیتر، 33 لیتر، 42 لیتر، 42 لیتر، 35 لیتر 26 لیتر، 41 لیتر، 26 لیتر، 41 لیتر، 40 لیتر، 34 لیتر، 31 لیتر، 23 لیتر، 34 لیتر، 22 لیتر، 21 لیتر، 11 لیتر، 29 لیتر، 13 لیتر، 27 لیتر، 40 لیتر، 41 لیتر)،. 12)، کلاس = ts) > dput(نتیجه بد) ساختار(c(12L، 14L، 13L، 12L، 42L، 55L، 47L، 29L، 25L، 28L، 17L، 22L، 54L، 30L، 30L، 54L، 30L، 30L. 26 لیتر، 9 لیتر، 12 لیتر، 7 لیتر، 14 لیتر، 17 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 12 لیتر، 15 لیتر، 20 لیتر، 17 لیتر، 30 لیتر، 35 لیتر، 41 لیتر، 18 لیتر، 19 لیتر، 26 لیتر، 15 لیتر، 12 لیتر، 5 لیتر، 15 لیتر، 12 لیتر، 5 لیتر، 12 22L, 19L, 21L, 12L, 8L, 7L, 15L, 12L), .Tsp = c(2010, 2014.16666666667, 12), class = ts) از آنجایی که داده ها به صورت سریالی همبسته هستند، درک من از استقلال این است که به صورت مجموع برای تکنیک های رگرسیون منظم نقض شده است. سپس مراحل و تکنیکها برای تعیین اینکه آیا اعتراف به طور قابل توجهی با نتیجه بد مرتبط است چیست؟ | چگونه تعیین کنیم که آیا دو سری زمانی به طور قابل توجهی با یکدیگر مرتبط هستند یا خیر |
47916 | من میخواستم یک سوال با الهام از پاسخ عالی به سؤال در مورد شهود برای توزیع بتا بپرسم. من می خواستم درک بهتری از اشتقاق برای توزیع قبلی برای میانگین ضربه زدن داشته باشم. به نظر می رسد دیوید پارامترها را از میانگین و محدوده خارج می کند. با این فرض که میانگین $0.27$ و انحراف استاندارد $0.18$ است، آیا می توانید با حل این دو معادله $\alpha$ و $\beta$ را پس بگیرید: \begin{equation} \frac{\alpha}{\alpha+ \beta}=0.27 \\\ \frac{\alpha\cdot\beta}{(\alpha+\beta)^2\cdot(\alpha+\beta+1)}=0.18^2 \end{equation} | میانگین ضربه زدن بیزی قبل |
105770 | چگونه می توانم یک مجموعه داده آموزشی برای طبقه بندی اسناد با استفاده از LSA ایجاد کنم؟ من یک ماتریس اصطلاح به سند ایجاد کرده ام و دارای برچسب های کلاس نیز هستم. نمیدانم این برچسبهای کلاس را در یک ماتریس سند اصطلاح اضافه کنم یا ماتریس بساک ایجاد کنم. من نمی دانم مراحل دقیقی برای ایجاد داده های آموزشی باید دنبال شود. | طبقه بندی معنایی نهفته |
47913 | 1. آیا Pandas، Statsmodels و scikits پیاده سازی های متفاوتی از یادگیری ماشین/عملیات آماری هستند یا مکمل یکدیگر هستند؟ 2. کدام یک از اینها جامع ترین عملکرد را دارد؟ 3. کدام یک به طور فعال توسعه یافته و/یا پشتیبانی می شود؟ 4. من باید رگرسیون لجستیک را پیاده کنم. پیشنهادی دارید که از کدام یک از اینها استفاده کنم؟ | پانداها / Statsmodel / Scikits-learn |
13935 | سوال: **مشکلات و مفروضات اصلی برای تحلیل ریسک رقابتی چیست؟** _پیشینه_ من سعی می کنم ریسک های رقابتی را یاد بگیرم و از بسته cmprsk در R بر اساس الگوریتم گری استفاده می کنم. من کتاب ملانیا پینتیلی، ریسکهای رقابتی: دیدگاه عملی را خواندهام، اما اگرچه مقدمه بسیار خوبی برای این رشته است، من فهرستی از دامهای رایج را ندارم. مربی من به من هشدار داده است که تجزیه و تحلیل ریسک رقیب هنوز یک زمینه در حال توسعه است و بنابراین من واقعاً ممنون می شوم اگر بتوانم نظرات شما را در این مورد دریافت کنم. در پاسخ به این سوال ذکر شده است: > فقط مطمئن شوید که متوجه شده اید چه فرضیاتی را مطرح می کنید همانطور که من متوجه شدم فرض اصلی خطرات متناسب است، مشابه مدل کاکس، اما به غیر از این فرض، مطمئن نیستم که من می دانم که باید به دنبال چه فرضیات و مشکلات دیگری باشم. | مفروضات و مشکلات در مدل ریسک های رقابتی |
82177 | آیا معرفی توابع فعالسازی لجستیک/سیگموئید در شبکههای مصنوعی با شواهد بیولوژیکی، راحتی عملی یا هر دو توجیه میشد؟ چند مرجع خوب در این زمینه چیست؟ | توابع لجستیک در شبکه عصبی مصنوعی الهام گرفته از بیولوژیک؟ |
86620 | آیا کسی می تواند به من کمک کند تا چگالی مشترک $Y_1$ و $Y_2$ را در زمانی که $Y_1=X_1+X_2$ و $Y_2=X_1-X_2$ پیدا کنم؟ | چگونه تراکم مفصل را پیدا کنم؟ |
41127 | من امیدوار هستم که مقداری کد الگوریتم رد را در R بنویسم تا توزیع $\text{Gamma}(k,\lambda)$ را تقریبی کنم. مشکل بیشتر برای اهداف آموزشی است تا پیاده سازی در دنیای واقعی. با توجه به توزیع $\text{نمایی}(\lambda)$ با PDF: $$f_{\lambda}(x) = \lambda\text{exp}(-\lambda x)$$، CDF را می توان به صورت زیر بیان کرد: $$F_{\lambda}(x) = 1 - \text{exp}(-\lambda x)$$ که در آن $x>0$ و $\lambda>0$. و معکوس CDF را می توان به صورت زیر بیان کرد: $$F^{-1}(U) = -\text{log}(1-U)/\lambda$$ که در آن $U$ یک عدد تصادفی است که به این صورت : $U \sim \text{U}[0,1]$. با فرض اینکه: $$X_{1}، X_{2}، \dots، X_{k} \stackrel{\text{ iid }}{ \sim }\text{Exponential}(\lambda)$$ و: $$ Y = X_{1} + X_{2} + \dots + X_{k}$$ سپس: $$Y \sim \text{Gamma}(k، \lambda)$$ اکنون، روش فوق برای شبیهسازی یک $\text{Gamma}(k,\lambda)$ از مجموع متغیرهای تصادفی $k$ $\text{نمایی}(\lambda)$، طبیعتاً فقط در جایی کار میکند که $k باشد. \در {\bf N}$، اما بیایید فرض کنیم هدف شبیهسازی $\text{Gamma}(k,\lambda)$ است که در آن $k \notin {\bf N}$. پیشنهاد شده است که از یک رویکرد پذیرش-رد با یک تابع پاکت استفاده شود که تراکم $\text{Gamma}(\lfloor{k}\rfloor,\lambda-1)$ است، که در آن $\lfloor{k}\rfloor$ تابع floor(k) است. **ویرایش:** در مثال بالا، واضح است که توزیع هدف با: $$f(x) = \frac{\lambda^{k}}{\Gamma(k)}x^{k-1 داده میشود }e^{-\lambda x}$$ اما برای تثبیت این مفاهیم، کسی می تواند شکل توزیع شبیه سازی ($h(x)$)، تابع پاکت ($g(x) = را ارائه دهد. M*h(x)$) و البته مقدار بهینه $M$؟ تثبیت این ایده ها واقعاً به من کمک می کند. ### مرتبط نزدیک نمونهگیری رد برای توزیع گامای اصلاحشده چگونه میتوان X را به سرعت نمونهبرداری کرد اگر exp(X) ~ Gamma باشد؟ (یک پاسخ پیاده سازی هوشمندانه «R» را ارائه می دهد). | با استفاده از نمونه گیری رد با روش وارونگی |
86624 | من می خواهم خطای استاندارد را در یک پیش بینی دریافت کنم. با استفاده از R `glm`، می توانم SE مناسب برای یک پیش بینی خاص را بدست بیاورم: mod <- glm(y~wa_WSI, data=mydata, family=gaussian(link=identity)) predict.glm(mod,newdata =newdata, type=response, se.fit=T) اما وقتی پیشبینیها را با مقادیر واقعی مقایسه میکنم، این عدد بسیار کوچک به نظر میرسد. من فرمولی برای خطای استاندارد تخمین پیدا کردم که $\sqrt{s/(n-p)}$ است که $s$ مجموع مجذورهای باقیمانده، $n$ تعداد نقاط داده و $p است. $ تعداد عبارات موجود در رگرسیون است. این به من نتیجه بسیار بزرگتری می دهد، اما برای یک پیش بینی واحد نیست. سوال من این است که آیا فرمول SE بالاتر از فرمولی است که باید استفاده کنم و آیا راهی وجود دارد که بتوان آن را از مقداری که R برای se.fit به من می دهد به دست آورد تا برای یک پیش بینی خاص باشد؟ | SE تناسب در مقابل SE پیش بینی |
13932 | من میخواهم راهحلی برای اجرای مدل اثر ترکیبی رگرسیون چندک پیدا کنم. از جستجوی گوگل من، نتوانستم پیاده سازی R را برای چنین رویه ای پیدا کنم (فقط هشدار می دهد که این برای افراد ضعیف نیست). من می خواهم یک موقعیت ساده را حل کنم که در آن یک x یک y و یک متغیر موضوع داریم. هر گونه پیشنهادی در مورد اینکه با این چه باید کرد؟ | آیا پیاده سازی R برای برخی از مدل های ترکیبی رویه آماری رگرسیون چندک وجود دارد؟ |
13931 | من با مجموعه داده Digit1 کار می کنم که توسط کتاب آموزش نیمه نظارتی توسط chapalle et معرفی شده است. al، به عنوان یکی از مجموعه داده های معیار در این زمینه. در توضیحات مجموعه داده واقع در: http://olivier.chapelle.cc/ssl-book/benchmarks.pdf آمده است: > برچسب کلاس با توجه به زاویه شیب، با مرز > مربوط به یک رقم عمودی تنظیم شده است. در جای دیگری از سند آمده است که فقط 2 کلاس در این مجموعه داده وجود دارد. از این دو توضیح هنوز نمی توانم بفهمم که برچسب ها دقیقاً چگونه تعریف شده اند. اگه کسی بتونه در این مورد کمکم کنه ممنون میشم | برچسبها در مجموعه داده Digit1 برای یادگیری نیمه نظارتی |
38210 | این ممکن است یک سوال نسبتا احمقانه باشد. با این حال، من قبلاً با یک آمارگیر صحبت کرده ام و او در مورد پاسخ مطمئن به نظر نمی رسد، بنابراین شاید برای دیگران مفید باشد. مطالعه معمولی نیست، بنابراین لطفاً تا زمانی که سعی می کنم آن را توضیح دهم با من تحمل کنید. من حدود 75000 جمله مکالمه انگلیسی برای نمونه دارم. من علاقه مندم که آیا جملات با ساختار دستوری خاص (مخصوصاً عبارات فعل از دست رفته) تمایل به جمع شدن دارند یا خیر. ابتدا فراوانی نسبی (احتمال تجربی) این جملات را محاسبه کردم و 910 بازدید/75000 کل جملات ≈ 0.012 به دست آوردم. برای بدست آوردن فواصل اطمینان برای این آمار، من از بوت استرپ با 10000 نمونه مجدد از کل مجموعه داده با جایگزینی استفاده کردم و متوجه شدم که فاصله اطمینان 99٪ حدود 0.0109 - 0.0134 است. برای اینکه ببینم این جملات در دادهها به هم نزدیک هستند یا نه، یک نمونه فرعی جدید ساختم. برای هر جمله با یک عبارت فعل مفقود، شمارش کردم که چند جمله در پنج جمله قبلی نیز عبارات فعل گمشده داشتند. بنابراین، من پنج شاخه دارم، که هر کدام با بسامد نسبی از تعداد دفعاتی که جملات در آن شکاف فاقد عبارات فعل هستند (یعنی جمله بلافاصله قبل یک شکاف است، سپس جمله قبلی و غیره). این به من نتایجی مانند این می دهد: شکاف 1: 56 بازدید / 910 جملات = 0.061 شکاف 2: 32 بازدید / 902 کل جملات = 0.035 و غیره... سوال من این است. آیا می توانم این فرکانس های نسبی را برای هر شکاف با فاصله اطمینانی که از کل مجموعه داده محاسبه کردم مقایسه کنم؟ به عبارت دیگر، اگر شکاف 1 دارای فرکانس نسبی 0.061 باشد، که فراتر از فاصله اطمینان 99% از بوت استرپ من از کل مجموعه داده است، بنابراین آیا این ادعا که این مقدار بالاتر از حد انتظار در آن شکاف است معتبر است. ? و اگر اینطور نیست، آیا راه نسبتاً ساده ای برای کارکرد آن وجود دارد؟ | استفاده از فاصله اطمینان از نمونه کامل برای آزمایش آمار از یک نمونه فرعی کوچک؟ |
47918 | من به دنبال یک مقدار عددی هستم که بیان کند که چگونه یک نمونه (در این مورد غیرتصادفی) از یک جامعه در مورد توزیع یک ویژگی خاص نماینده است. به عنوان مثال، توزیع سنی در یک کشور و در هیئت منتخب نمایندگان آن را در نظر بگیرید. من می خواهم این مقدار را در بسیاری از ابعاد مقایسه کنم، بنابراین مقدار باید به نوعی عادی شود و به ماهیت بعد بستگی ندارد. برخی از ابعاد عددی و پیوسته (سن، درآمد)، برخی دیگر گسسته با تعداد زیادی (شهر محل سکونت، حرفه آموزش دیده) یا با طبقات کم (جنسیت) خواهد بود. هدف این است که بفهمیم در کدام یک از این ابعاد، نمونه بیشتر (یا کمترین) نماینده است، یعنی انتخاب غیرتصادفی (فرایند انتخابات) از چه طریقی مغرضانه است. یادداشت ها: در اینجا تقریباً یک سؤال با همین عنوان وجود دارد، اما فکر می کنم در مورد چیز دیگری صحبت می کند، و این سؤال دیگر نیز به نظر می رسد چیز بسیار مشابهی را مطرح کند، اما در آنجا نیز پاسخ خوبی برای من وجود ندارد. | اندازه گیری نمایندگی یک انتخاب (غیر تصادفی). |
109231 | تنها تجربه من با یادگیری ماشین دوره Coursera Andrew Ng است، اما من آن را به خوبی انجام دادم و با 100% گذراندم. تصمیم گرفتم با طرح چند مشکل و حل آنها تمرین کنم. ایده من این بود که یک بازی تیک تاک ساده ایجاد کنم و آن را فقط میلیون ها بازی تصادفی انجام دهم و از داده ها برای یادگیری پیش بینی حرکت بعدی بر اساس دنباله هایی که در گذشته برنده شده اند استفاده کنیم. **آیا انتظار پیش بینی یک حرکت خوب از 1 میلیون نمونه بازی که بازیکن X برنده شده است منطقی است؟** من یک تابع getWinSequences('X', 1000000) دارم که لیستی از دنباله هایی که برنده شده اند را برمی گرداند. X. یک دنباله نشان دهنده مجموعه ای از انتخاب ها، 1 تا 9، در صفحه بازی است. صفحه به این صورت خواهد بود: 1|2|3 ----- 4|5|6 ----- 7|8|9 بنابراین «WinsX» به این شکل است: [ [4,2,5,3, 6]، [1،4،2،8،3]، [1،2،4،3،5،8،9] ] بنابراین در سکانس اول، به این معنی است که بازیکن X 4 را انتخاب کرد، O 2، X را انتخاب کرد. انتخاب کرد 5، O 3 را انتخاب کرد، X 6 را انتخاب کرد بنابراین X با 3 پیاپی، 4،5،6 برنده شد ([ **4**،2، **5**،3، **6** ]) اکنون، من یادگیری ماشینی را روی دنبالههای برنده انجام نمیدهم، زیرا میخواهم برنامه یک موقعیت تابلوی فعلی داشته باشد نه یک دنباله. به عبارت دیگر، **با توجه به تخته ای با هیچ یا چند X و O، با فرض اینکه نوبت بازیکن X است، یک حرکت خوب (1-9) را بر اساس مشاهدات گذشته یک تخته، و آگاهی از حرکت بعدی انتخاب شده پیش بینی کنید** بنابراین من تابعی دارم که یک دنباله برنده را به یک سری از موقعیت های تخته تبدیل می کند، و یک برچسب که می گوید کدام حرکت بعدی است. بنابراین دادههای واقعی که من روی آن آموزش میدهم مانند این است X[0] = [0,2,2, 1,1,0, 0,0,0] y[0] = 6 **0 به معنی خالی، 1 به معنای یک X وجود دارد، 2 یعنی Y وجود دارد. بنابراین، بر اساس دنبالههای برندهام، میتوانم به طور خودکار آن موقعیت را به عنوان 6 برچسبگذاری کنم، زیرا تابلو بازآفرینی چیزی است که تخته درست قبل از اینکه به طور تصادفی با انتخاب 6 برنده شویم، به نظر میرسید.** زیرا میخواهم باشم. میتوانم حرکت خوبی را پیشبینی کنم حتی اگر حرکت برندهای وجود نداشته باشد، پس هر زمان که دنباله برندهای داشتم، ** من فقط یک تابلو درست نمیکنم که درست قبل از برد بود، من برای هر مرحله یک تابلو ایجاد میکنم. راه یک سکانس برنده، و آن را با حرکت بعدی از دنباله برنده برچسب بزنید.** بنابراین یک دنباله برنده معمولاً به 3 تا 5 نمونه از موقعیت تخته منجر می شود، و یک برچسب (1-9) نشان می دهد که حرکت چیست. برای آن هیئت مدیره باید باشد. من فکر کردم که با میلیونها نمونه از سکانسهای برنده، و موقعیتهای تختهای که منجر به برد شد، میتوانم حرکت بعدی را پیشبینی کنم. **آیا این منطقی است؟** اگر چنین است، راه خوبی برای آموزش داده ها چیست؟ وقتی روی 1 میلیون مثال آموزش دیدم، از GradientBoostingClassifier نمره 0.29 گرفتم. کد مربوطه به این شکل است: winsX = getWinSequences('X', 1000000) samplesX = samplesFromWins(winsX) X = [ردیف[:9] برای ردیف در نمونه X] y = [ردیف[9] برای ردیف در نمونه X] X_train, X_test = X[:700000]، X[700000:] y_train، y_test = y[:700000]، y[700000:] print(داده دریافت کردم، آماده آموزش) clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, max_depth=1, random_state=0).fit(X_train,y) ) print(clf.score(X_test, y_test)) ** من فقط می خواهم بدانم که آیا در مسیر درستی هستم یا اینکه آیا یک نقص اساسی در کاری که انجام می دهم وجود دارد.** | آموزش مغز تیک تاک - آیا در مسیر درستی هستم؟ |
76279 | من می خواهم تاثیر آماری معنی دار حدود 15 متغیر مستقل مختلف را بر روی یک متغیر وابسته باینری نشان دهم (من آمارگیر نیستم). برخی از متغیرهای مستقل من تعداد ترم در متن هستند، بنابراین احتمالاً با طول متن که یکی از متغیرهای مستقل است نیز مرتبط هستند. من این مجموعه از متغیرها را انتخاب کردم زیرا به نظر می رسید حداقل به صورت جداگانه بر نتیجه تأثیر می گذارد. من تطبیق را بر روی متغیر طول انجام دادم تا سعی کنم این اثر را کنترل کنم (طول به تنهایی واریانس زیادی را در متغیر نتیجه/وابسته من توضیح می دهد). اکنون میخواهم بفهمم کدام متغیرها در حضور سایر متغیرها هنوز اهمیت دارند و اهمیت نسبی آنها چقدر است. سوال 1: بهترین راه برای مقابله با هم خطی بودن متغیرهای مستقل من چیست؟ نوع 1: term_counts را با باقیمانده ها پس از رگرسیون در طول جایگزین کنید. نوع 2: ابتدا مدل رگرسیون لجستیک را روی همه متغیرها انجام دهید. همه عواملی که پارامتر به طور قابل توجهی با صفر متفاوت است، فاکتورهای مهمی هستند (این ادعایی است که من می خواهم مطرح کنم). و سپس مدلهایی که در آن یک متغیر منفرد را حذف میکنم و نشان میدهم که تناسب بهطور قابلتوجهی بدتر میشود تا نشان دهم که هر یک از آنها اهمیت دارد، و تا چه اندازه (نحوه انجام این کار دقیقاً منجر به سؤال 2 میشود). سوال 2: یک روش معقول و استاندارد برای ارزیابی برازش برتر مدل های مختلف رگرسیون لجستیک چیست؟ (همچنین به ارزیابی مدل های رگرسیون لجستیک مراجعه کنید) از چه معیاری برای مقایسه برازش استفاده کنم؟ احتمال واقعاً کار نمی کند زیرا همیشه برای مدل های پیچیده تر بهتر می شود. طبقه بندی احمقانه به نظر می رسد زیرا برآوردهای تجربی ما برای p(Y=1) تنها 20-40٪ است. ما همچنین در مورد رسم p_empirical در مقابل p_model پس از ترکیب مشاهدات متعدد برای دریافت تصویر واضحتر فکر میکردیم. من مطمئن هستم که مردم قبلاً این کار را انجام داده اند و بسیار خوشحال خواهم شد اگر بتوانید به من اشاره کنید که چگونه تناسب / عملکرد را تجسم کنم. سوال 3: بهترین راه برای عادی سازی ویژگی ها چیست تا بتوانم پارامترهای مدل را با هم مقایسه کنم (یعنی چقدر یک ویژگی نسبت به دیگری اهمیت دارد؟)؟ آیا معقول است که همه چیز را بین صفر و یک قرار دهیم؟ آیا باید «منهای میانگین، تقسیم بر std» باشد. من تعدادی متغیر وابسته ترتیبی، چند باینری و چند متغیر وابسته دارم. با تشکر | رگرسیون لجستیک و نحوه قضاوت برازش مدل و تأثیر پارامتر |
109234 | من تست DW را برای مدل رگرسیونی خود در R اعمال کردم و آمار آزمون DW برابر با 1.78 و p-value برابر با 2.2e-16 = 0 دریافت کردم. با مقدار p کوچک یا به این معنی است که اگرچه آمار نزدیک به 2 است، مقدار p کوچک است و بنابراین ما فرضیه صفر را رد می کنیم خود همبستگی وجود ندارد؟ | آمار آزمون دوربین واتسون |
5586 | من چندین مدل OLS با s.e قوی دارم که یک متغیر نتیجه Y را پیشبینی میکنند، به عنوان مثال: مدل 1 $Y=B_0 +B_1X_1$ مدل 2 $Y=B_0 + B_1X_1 + B_2X_2$ مدل 3 $Y=B_0 +B_1X_1 + B_2X_ B_3X_3$ من علاقه مند به دادن یک افکت متوسط برای $B_1$ در مدلهای 1-3 با 95% CI همراه. آیا می توانم میانگین B_1$ را در مدل های 1-3 و میانگین خطاهای استاندارد را برای ایجاد فاصله اطمینان خود در نظر بگیرم؟ اسم این چیه؟ | اثر متوسط در چندین مدل خطی؟ |
14761 | آیا می توانید یک الگوریتم و احتمالاً یک کد واقعی برای یادگیری چند خروجی به من پیشنهاد دهید، که در آن ورودی مدل بردار حدود 10000 مقدار است و خروجی برای هر بردار ورودی، یک بردار خروجی با 1500 بعد است (بنابراین، این یک نوع است مجموعه داده بزرگ)؟ به نظر من شبکه عصبی می تواند این تعداد مقادیر را مدیریت کند، اما چه چیز دیگری؟ SOM تحت نظارت؟ یادگیری چند هسته ای چند کلاسه؟ هر نمونه ای از مدل داده های دنیای واقعی با همان نوع یادگیری (خروجی چندگانه بزرگ؟) هر گونه پیشنهاد و نظر برای من بسیار ارزشمند خواهد بود. به روز رسانی: نمونه داده را می توانید در اینجا پیدا کنید - http://pastebin.com/Z4E87d3d | یادگیری چند خروجی |
38216 | آیا اجرای محبوب **فیلدهای تصادفی شرطی** در **پایتون** وجود دارد؟ به نظر نمی رسد که من چیزی را پیدا کنم که به طور گسترده مورد استفاده و محبوب باشد! | پیاده سازی CRF در پایتون |
50841 | من مقداری داده خام دارم که از یک شبیه سازی به دست می آید. من نقاط نمونه را می گیرم و یک متغیر میانگین متحرک تولید می کنم و آن را بر اساس زمان رسم می کنم. بنابراین سیگنالی را تصور کنید که دارای قله ها و دره ها باشد. قله ها دوره های فعالیت زیاد و دره ها دوره های کم فعالیت را نشان می دهند. چه فیلتری می توانم روی این داده ها اعمال کنم تا پنجره های فعالیت زیاد را گزارش کنم؟ می توانیم فرض کنیم که پنجره ها با هم همپوشانی ندارند. ویرایش: کلمات چه فیلتری می توانم اعمال کنم به درستی استفاده نمی شود. من به دنبال فیلتر نیستم. من به دنبال تکنیکی برای **پیدا کردن ویندوز** هستم. من با دادهها شروع میکنم، و تنها کاری که میخواهم انجام دهم این است که پنجرههای جالب فعالیت بالا را پیدا کنم تا بتوانم آنها را تجزیه و تحلیل کنم. می توانید بگویید فقط به آنها نگاه کنید، اما من با مجموعه داده های زیادی سروکار دارم به طوری که مقیاس نمی شود. | تکنیک ریاضی برای یافتن پنجره های فعالیت در نمودار میانگین متحرک |
11273 | در اصل یک سوال ساده: توزیع کشش چیست؟ (تمام چیزی که من می توانم متوجه شوم این است که توزیع وزنی بر اساس خطای برآوردگرها حول مقدار واقعی است.) من به تعریف دقیق ریاضی علاقه مند هستم، چگونه، چرا، و چه زمانی از آن استفاده کنم، انتظار می رود چگونه به نظر برسد. مانند، و اگر هر دو مقادیر تخمینگر و مقدار true خطاهایی مرتبط با آنها دارند، اینها را به صورت مربع جمع آوری کنید. PS: با خیال راحت تگ ها را اضافه یا تغییر دهید، من هیچ برچسب خوبی پیدا نکردم. | توزیع کشش چیست؟ |
37678 | در انتخاب بهترین تناسب بین منحنیهای مختلف، با فرض اینکه خطاها به طور معمول توزیع شده باشند، میتوانم کارهای زیر را انجام دهم: * محاسبه کاهش $\chi_r^2=\frac{\chi^2}{N_b-N_p}$، که در آن $ N_b$ تعداد bin ها و $N_p$ تعداد پارامترها است، برای همه جاها و کوچکترین را انتخاب کنید. * معیار اطلاعات Akaike $AIC=\chi^2+\frac{2N_p(N_p+1)}{N_b-N_p-1}$ را برای همه موارد محاسبه کنید و کوچکترین را انتخاب کنید. چه رابطه ای (در صورت وجود) بین این دو روش وجود دارد؟ | رابطه بین کای دو کاهش یافته و معیار آکایک |
13936 | در این سوال آنها می پرسند که چگونه می توان پیرسون r را برای دو گروه مستقل (مانند مردان در مقابل زنان) مقایسه کرد. پاسخ و نظرات دو راه پیشنهاد شده است: 1. از فرمول شناخته شده فیشر با استفاده از تغییر z r استفاده کنید. 2. از مقایسه شیب ها (ضرایب رگرسیون) استفاده کنید. دومی را می توان به راحتی فقط از طریق یک مدل خطی اشباع انجام داد: $Y = a + bX + cG + dXG$، که در آن $X$ و $Y$ متغیرهای همبسته هستند و $G$ یک متغیر ساختگی (0 در مقابل 1) است. دو گروه را نشان می دهد. بزرگی $d$ (ضریب عبارت تعامل) دقیقاً تفاوت در ضریب $b$ بعد از مدل $Y = a + bX$ است که در دو گروه به صورت جداگانه انجام شد، و بنابراین اهمیت آن ($d$) آزمون است. تفاوت در شیب بین گروه ها حال، ضریب شیب یا رگرسیون. هنوز یک ضریب همبستگی نیست. _اما اگر $X$ و $Y$ را - به طور جداگانه_ در دو گروه استاندارد کنیم - آنگاه $d$ برابر با تفاوت _r در گروه 1 منهای r در گروه 0_ خواهد بود و بنابراین اهمیت آن آزمون تفاوت بین دو همبستگی خواهد بود: ما در حال آزمایش شیب ها هستیم اما به نظر می رسد [انگار -؟] در حال آزمایش همبستگی ها هستیم. درسته که نوشتم؟ اگر بله، این سوال باقی می ماند که کدام آزمون بهتری برای همبستگی است - این مورد توصیف شده یا فیشر؟ زیرا آنها نتایج یکسانی ندارند. نظر شما چیست؟ **ویرایش بعدی:** از **@Wolfgang** برای پاسخش تشکر میکنم، با این وجود احساس میکنم که درک _چرا_ آزمون فیشر، آزمونی برای r صحیحتر از رویکرد مقایسه شیب-زیر استانداردسازی است که در بالا توضیح داده شد، ندارم. بنابراین، پاسخ های بیشتر استقبال می شود. متشکرم. | آیا می توان همبستگی بین گروه ها را با مقایسه شیب های رگرسیون مقایسه کرد؟ |
19060 | من یک مبتدی در برنامه نویسی R هستم و سعی کرده ام ANCOVA اندازه گیری های مکرر را با دما به عنوان متغیر وابسته، سایت به عنوان متغیر مستقل، تاریخ به عنوان متغیر کمکی و سال به عنوان اندازه گیری های مکرر انجام دهم. مجموعه داده من شامل دماهای 4 سایت، بیش از 20 روز، در طول 2 سال مختلف است. به نظر می رسد اثر قابل توجهی از مکان، تاریخ و سال بر روی دما وجود دارد، اما هیچ تعامل قابل توجهی بین سایت و سال یا سایت و تاریخ وجود ندارد. من در ابتدا دو ANCOVA جداگانه اجرا کردم، اما همکارم آنها را در یک مدل میخواهد. تا آنجا که من می توانم بگویم، هیچ راه ساده ای برای انجام ANCOVA اندازه گیری های مکرر مانند ANOVA وجود ندارد. من سعی کردهام از: «lm(فرمول = Temp~Site*Date + Year)» استفاده کنم، اما آیا این فقط سال را به عنوان یک تعامل که بر مدل تأثیر نمیگذارد قرار نمیدهد؟ هر کمکی که می توانید ارائه دهید بسیار قدردانی خواهد شد! | ANCOVA با اندازه گیری های مکرر در R |
38214 | من مجموعه ای از داده ها را دارم که از دو متغیر $X$ و $Z$ تشکیل شده است که $Z = X + Y$ است. من می خواهم در مورد رابطه بین $X$ و $Y$ بیان کنم. به عنوان مثال، من می خواهم ادعا کنم که $X$ و $Y$ با هم متفاوت هستند یا همبستگی دارند. آیا راهی برای انجام این کار فقط با اندازه گیری از $X$ و $Z$ وجود دارد؟ به عنوان یک چروک اضافی، در نظر بگیرید که X و Z توسط مقداری نویز $X$-noise و $Z$-noise خراب شده اند. $X$ در واقع $X + X$-نویز و $Z$ $X + Y + Z$-نویز است. علاوه بر این، $X$ با مقداری ضریب $a_X$ و $Z$ با مقداری ضریب دیگر $a_Z$ مقیاس بندی می شود. بنابراین، دادههایی که من جمعآوری کردم، که اندازهگیریهای زوجی هستند، $[a_X*(X + X-\text{noise})، a_Z*(X + Y + Z-\text{noise})]$ هستند. آیا هنوز می توانم $Y$ را از اندازه گیری های خود تخمین بزنم؟ اگر من $a_X$ یا $a_Z$ را نمی دانم آیا این مشکل قابل حل نیست؟ | آیا می توان رابطه بین X و Y را فقط با X و Z که در آن Z = X + Y تعیین کرد؟ |
38218 | بنابراین، من یک مبتدی در زمینه ML هستم و سعی می کنم برخی از طبقه بندی ها را انجام دهم. هدف من پیش بینی نتیجه یک رویداد ورزشی است. من برخی از داده های تاریخی را جمع آوری کرده ام و اکنون سعی می کنم یک طبقه بندی کننده را آموزش دهم. من حدود 1200 نمونه گرفتم، 0.2 تای آنها را برای اهداف آزمایشی جدا کردم، بقیه را در جستجوی شبکه (شامل اعتبارسنجی متقابل) با طبقهبندیکنندههای مختلف قرار دادم. من SVM را با هسته های خطی، rbf و چند جمله ای و جنگل های تصادفی تا به حال امتحان کرده ام. متأسفانه، من نمی توانم دقت قابل توجهی بزرگتر از 0.5 (همان انتخاب تصادفی کلاس) دریافت کنم. آیا این بدان معناست که من نمی توانم نتیجه چنین رویداد پیچیده ای را پیش بینی کنم؟ یا میتونم حداقل دقت 0.7-0.8 بگیرم؟ اگر امکان پذیر است، پس باید به چه چیزی نگاه کنم؟ * داده های بیشتری دریافت کنید؟ (من می توانم مجموعه داده را تا 5 بار بزرگ کنم) * طبقه بندی های مختلف را امتحان کنید؟ (رگرسیون لجستیک، kNN، و غیره) * مجموعه ویژگی های من را دوباره ارزیابی می کنم؟ آیا ابزارهای ML برای تجزیه و تحلیل وجود دارد که کدام ویژگی منطقی است و کدام نیست؟ شاید، من باید مجموعه ویژگی های خود را کاهش دهم (در حال حاضر 12 ویژگی دارم)؟ | دقت طبقه بندی پایین، بعد چه باید کرد؟ |
97871 | در حداقل مربعات معمولی، زمانی که یک یا چند رگرسیور با نویز افزایشی اندازهگیری میشوند، میتوانیم از مدل خطا در متغیرها استفاده کنیم تا اثرات سوگیری تضعیف را بهبود بخشد. فقط باید پایایی $r = \left( 1-\frac{\text{noise variance}}{\text{total variance}} \right)$ را بدانیم. 1. آیا نتیجه مشابهی برای تخمین اثر یک رگرسیون باینری طبقه بندی شده اشتباه بر یک نتیجه پیوسته یا باینری وجود دارد که متکی به استفاده از یک متغیر ابزاری نیست؟ 2. اگر بخواهم چیزی در مورد خطاهای طبقه بندی اشتباه فرض کنم، آیا می توانم ضریب تخمینی را بر $(1-p-q)$ تقسیم کنم، که در آن عبارت های کسر شده نشان دهنده نرخ خطای نوع I و II هستند تا ببینم برآوردهای من چقدر حساس هستند؟ * * * در اینجا یک رویکرد رگرسیون ناپارامتریک ممکن توسط چن، هو و لوبل وجود دارد. آیا کسی تا به حال از این روی داده های واقعی استفاده کرده است که بتوانم آن را تکرار کنم تا مطمئن شوم که این کار را درست انجام می دهم؟ | تخمین اثر حاشیه ای یک رگرسیور باینری طبقه بندی نادرست بدون ابزار |
43347 | من سعی می کنم روشی برای شناسایی تبلیغات کلاهبرداری در وب سایت خود ارائه کنم. من فکر میکنم این مشکل با شناسایی ایمیلهای هرزنامه (که طبقهبندیکننده ساده بیزی راهحل رایجی برای آن است) مشترک است، زیرا بسیاری از سیگنالهایی که نشان دهنده یک کلاهبرداری هستند در متن آگهی پیدا میشوند. با این حال، اطلاعات دیگری وجود دارد که میتواند نشانگرهای کلاهبرداری خوبی باشد، اما مطمئن نیستم که آیا یک طبقهبندی کننده بیز میتواند از آنها استفاده کند یا نه، زیرا آنها شامل مقادیر عددی هستند (با مقادیری که در انتهای محدوده مشکوک هستند) از مقادیر باینری ساده مربوط به وجود یا عدم وجود یک کلمه در متن. به عنوان مثال، بسیاری از تبلیغات کلاهبرداری قیمت کالا را بسیار پایین تنظیم می کنند (برای جذب بازدیدهای زیاد)، بنابراین من می خواهم قیمت پایین تر از حد معمول نشان دهنده قوی بودن این تبلیغ باشد. آیا Bayes هنوز برای نیاز من مناسب است، اگر نه، میتوانید روش دیگری را توصیه کنید؟ | آیا طبقهبندیکننده بیزی رویکرد خوبی برای متن با متا دادههای عددی است؟ |
38215 | من یک سوال در مورد استفاده از SPSS برای محاسبه آلفای کرونباخ معیاری دارم که از دو نوع آیتم استفاده میکند: یکی دادههای ترتیبی و دیگری دوگانه. داده های ترتیبی از طریق آیتم های رتبه بندی 4 امتیازی و داده های دوگانه از طریق سوالات درست و نادرست تولید می شوند. آیا استفاده از گزینه تجزیه و تحلیل قابلیت اطمینان برای محاسبه آلفای کرونباخ برای اندازه گیری هنوز برای من مشکلی ندارد؟ | داده های پیوسته و دوگانه آلفای کرونباخ در SPSS |
103283 | من در حال انجام یک مقاله آماری گذشته برای امتحان سال اول هستم و در پاسخ به سوال زیر مشکل دارم. کسی میتونه لطفا کمکم کنه؟ با تشکر «نشان دهید که اگر 3 رویداد $\\{A، B، C\\}$ مستقل باشند، پس $(A \cup B)$ و $C$ نیز مستقل هستند. | اثبات رویداد مستقل |
13686 | من یک مجموعه داده با حدود 30 متغیر مستقل دارم و می خواهم یک GLM بسازم تا رابطه بین آنها و متغیر وابسته را بررسی کنم. من می دانم که روشی که برای این وضعیت به من آموزش داده شد، رگرسیون گام به گام، اکنون یک گناه آماری محسوب می شود. در این شرایط از چه روش های مدرن انتخاب مدل باید استفاده کرد؟ | جایگزین های مدرن و به راحتی برای رگرسیون گام به گام کدامند؟ |
76276 | در این هفته ها الگوریتم کلاسیک تخصیص دیریکله نهفته (LDA) توسط دیوید بلی و همکارانش (2003) و نوع LDA بر اساس نمونه گیری گیبس که توسط تام گریفیث معرفی شده بود را مطالعه می کردم. تفاوت اصلی این دو روش چیست؟ | تفاوت اصلی بین تخصیص دیریکله نهفته نمونه گیری کلاسیک و گیبس چیست؟ |
19061 | 1000 نمونه گرفته شده از یک توزیع ناشناخته را در نظر بگیرید. تفاوت بین دو روش زیر برای محاسبه میانگین نمونه و واریانس نمونه چیست؟ 1. میانگین نمونه و واریانس نمونه را در تمام 1000 نمونه بیابید. 2. یافتن میانگین نمونه بیش از 500 نمونه اول و واریانس نمونه بر روی 500 نمونه باقی مانده. تفاوت چیست و کدام روش ترجیح داده می شود؟ | محاسبه میانگین نمونه و واریانس نمونه در همه نمونه ها در مقابل زیر مجموعه های مجزا |
47919 | من یک مدل لگ نرمال را در برخی از نقاط داده با استفاده از هر دو رویکرد متداول و بیزی (با استفاده از یک پیشین غیر اطلاعاتی) برازش می کنم. با این حال، نتایج متفاوتی گرفتم. کدها و خروجیهای من در اینجا آمده است: Frequentist: > data1 = c(0.32618457, 0.29166954, 0.27427996, 0.23844847, 0.25148180) > n=length(data1) =(data1) =((data1) =((data1) =(if) par >(parll) (-> sum(log(dlnorm(exp(data1),par[1],par[2])))) else return(Inf) } > optim(c(0,0.1),lln1) > > mu sigma [1] 0.27641155 0.03091169 بیزی با 20000 MCMC و 4000 رایت: مدل { for( i in 1 : N ) { x[i] ~ dlnorm(mu، tau) } mu ~ dunif(0، 1) tau ~ dunif(0، 1) sigma <- 1/tau} لیست(N = 5، x = c(0.32618457، 0.29166954، 0.27427996، 0.23844847، 0.25148180)) خطای میانگین گره sd MC 2.5% میانه 97.5% شروع نمونه mu 0.2417 0.2182 0.001976 0.006612 0.1759 0.8226 4000 4000 sima 16006.2226. 0.01899 1.049 2.015 7.755 4000 16001 از آنجایی که من از یک پیشین غیر اطلاعاتی استفاده می کنم، تعجب کردم که چرا تخمین های mu و sigma متفاوت است. | تفاوت نتایج: Frequentist در مقابل Bayesian |
11277 | به طور خلاصه، این چیزی است که من دارم: * برآوردهای سالانه جمعیت برای ایالت * سن دوره ای (5 ساله)، جمعیت، و داده های سرشماری اولیه در هر منطقه در اینجا چیزی است که می خواهم انجام دهم: * ایجاد یک مدل ساده برای تولید داده ها برای سالهای از دست رفته بین دوره برای هر منطقه، و مجموع مبالغ به جایی که برآورد جمعیت سالانه ایالت است جمع شود. در مجموع، من به دنبال یک مدل آماری غیر پیچیده هستم که قادر به تولید مقادیر با دقت قابل قبول (لازم نیست فوق العاده بالا باشد). | آیا مدل سادهای برای تفکیک دادههای سرشماری بر اساس سالها و مناطق کوچکتر وجود دارد؟ |
43341 | من دانشجوی پایان نامه کارشناسی ارشد هستم و در رابطه با تحصیلم سوالی دارم. من با داده های کشوری برای 25 کشور کار می کنم و به دنبال ارزش های فرهنگی، نگرش ها و جمعیت شناسی اجتماعی به عنوان پیش بینی کننده رفتار محیطی هستم. برای متغیر وابسته رفتار زیست محیطی من می خواهم چندین جنبه را ترکیب کنم (تولید زباله، تصفیه زباله، انتشار گازهای گلخانه ای، مصرف انرژی، هزینه حمل و نقل عمومی، استفاده از ماشین، هزینه های حفاظت از محیط زیست) لطفاً در مورد نحوه ترکیب این موارد به من توصیه کنید. به یک متغیر ترکیبی؟ اگر من هر متغیر را به چارک تبدیل کنم (1 حفاظت از محیط زیست و 4 تخریب محیط زیست است) آیا می توانم رتبه بندی را اضافه کنم و یک ترکیب تشکیل دهم؟ یا این روش معتبری برای ایجاد کامپوزیت نیست؟ همچنین، آیا ترکیب متغیرها در یک متغیر وابسته مرکب ایده خوبی است یا باید روی ایجاد رگرسیون برای هر جنبه از رفتار محیطی به طور جداگانه تمرکز کنم؟ من از نرم افزار Eviews و SPSS استفاده می کنم. لطفا اگر من به اندازه کافی واضح نیستم به من اطلاع دهید تا جزئیات بیشتری ارائه کنم. | چگونه یک متغیر ترکیبی برای استفاده به عنوان متغیر پاسخ ایجاد کنیم؟ |
19069 | من سعی می کنم بفهمم که چگونه داده های تبدیل شده را با استفاده از ANOVA تجزیه و تحلیل کنم. اگر دادههای من با فرض نرمال بودن مطابقت نداشته باشند، و من آنها را با استفاده از یک تبدیل گزارش برای رفع آن تغییر شکل داده باشم، آیا تحلیل خود را روی امتیازهای تبدیل شده اجرا میکنم و مقادیر تبدیلشده را ذکر میکنم؟ **ویرایش:** به طور خاص، زمانی که داده ها را تبدیل کرده اید تا با فرض نرمال بودن مطابقت داشته باشد و سپس یک ANOVA یک طرفه را روی امتیازات تبدیل شده اجرا کنید، اگر می خواهید داده ها را نمودار کنید، باید از نمرات تبدیل شده نیز استفاده کنید. یا وسیله اصلی؟ از آنجایی که نمودار رابطه بین متغیرها را نشان می دهد، حدس می زنم از مقادیر تبدیل شده استفاده کنم. | آیا هنگام انجام ANOVA بر روی داده های تبدیل شده، داده های تبدیل نشده را گزارش کنیم؟ |
89269 | من با بخشی از یادداشت های سخنرانی اکچوئری که دارم می خوانم مشکل دارم. در اینجا تکههایی از یادداشتها آمده است: پورتفولیویی متشکل از $n$ خطمشیهای مستقل را در نظر بگیرید. مجموع ادعاهای حاصل از خطمشی $i$-th با متغیر تصادفی $S_{i}$ نشان داده میشوند، جایی که $S_{i} $ دارای توزیع پواسون مرکب با پارامترهای $\lambda_{i}$ (همه i.i.d)، $\textbf{ناشناخته}$، و CDF توزیع مبالغ ادعای فردی F(x)$ است، شناخته شده است. سپس یادداشت ها می گویند که این بدان معناست که همه $S_{i}$s i.i.d هستند. این حس شهودی دارد. با این حال، بخش بعدی همان تنظیمات را دارد، اما اکنون پارامترهای توزیع پواسون همه $\lambda$ هستند. یادداشت ها بیان می کنند اگر مقدار $\lambda$ مشخص بود، پس $S_{i}$ i.i.d است. یعنی $S_{i}|\lambda$ i.i.d هستند. به این معنی که خود $S_{i}$ (یعنی با $\lambda$ $\textbf{ناشناخته}$) وابسته هستند. به نظر می رسد که این با بخش اول تناقض دارد. اگر بتوانید به من کمک کنید تا به طور شهودی به این موضوع رسیدگی کنم، کمک بزرگی خواهد بود. خیلی ممنون | توزیع پواسون مستقل در مقابل ترکیب وابسته |
88793 | وقتی اهمیت متغیر را روی یک جنگل تصادفی (یا هر مدل دیگری) اجرا میکنم، نام متغیرهای فاکتور/ردهبندی، نام فاکتور را به عنوان پسوند دارد. برای مثال، SALARY ~ STATE + CITY + AGE + …، نتیجه varImp(model) می تواند به نظر برسد، > varImp(model) rf اهمیت متغیر تنها 20 متغیر مهم نشان داده شده است (از 1050) اهمیت AGE 100.00 STATECA 91.84 STATEAZ 86.24 CITYSTANFORD 74.15 STATEVT 71.27 بر حسب از اهمیت نسبی، آیا درست است که این را به عنوان AGE مهم ترین پیش بینی کننده، و پس از آن STATE و سپس CITY تفسیر کنیم؟ مقادیر اهمیت همچنین چیزی در مورد رابطه بین پیش بینی کننده و نتیجه نمی گویند - برای مثال، آیا سن بالاتر برابر با حقوق بالاتر است، آیا STATE CA به معنای حقوق بالاتر است، و غیره. هر گونه پیشنهادی در مورد چگونگی به دست آوردن چنین اقداماتی برای مدل های جعبه سیاه مانند جنگل تصادفی، gbm و غیره بسیار مفید خواهند بود. | تفسیر اهمیت متغیر (varImp) برای متغیرهای عامل |
13687 | این سوال به توزیع نرمال میپردازد، اما من نمیدانم در مورد توزیع انحراف معیار نمونهای با اندازه _n_ که از یک توزیع دلخواه گرفته شده است، چه چیزی شناخته شده است. به طور خاص، انحراف معیار انحراف معیار چیست؟ برای توزیع نرمال، s.d. از s.d. $\sigma \over{\sqrt{2n}}$ است. آیا این تقریباً برای توزیع دلخواه به صورت $n \rightarrow \infty$ درست است؟ | توزیع انحراف معیار |
89268 | من از یک رویکرد فناوری اطلاعات و استنتاج چند مدلی با برخی داده های شمارش استفاده می کنم. من از میانگینگیری مدل برای به دست آوردن تخمین پارامترها از چندین GLMM با خطاهای پواسون-lognormal (خانواده پواسون به اضافه اثر تصادفی سطح مشاهده) استفاده کردهام. تخمین پارامترهای میانگین مدل به شرح زیر است: (برق) 1.9522 استفاده از زمین -2.0318 درمان -0.8861 hedge -0.6943 sun -0.5191 landuse:treatment 1.0529 bound.area -0.2389 اکنون در تلاش هستم تا این تخمین های نقطه ای را از روی این تخمین ها انجام دهم. کاربری زمین یک عامل دو سطحی (a و p) است. درمان یک فاکتور دو سطحی (AF و MC) است. Hedge، sun و bound.area همگی متغیرهای پیوسته هستند. بنابراین رهگیری درمان = AF و استفاده از زمین = a است. من علاقه مند به برآورد نقطه ای برای این هستم: 1. درمان = AF هنگام استفاده از زمین = a 2. درمان = AF هنگام استفاده از زمین = p 3. درمان = MC هنگام استفاده از زمین = a 4. درمان = MC هنگام استفاده از زمین = p من Grueber et دارم مقاله 2011 al در مورد MMI اما من مطمئن نیستم که آیا به درستی توانسته ام روش های آنها را (به تفصیل در ضمیمه مقاله) روی پارامتر خود اعمال کنم یا خیر. برآوردها پیشبینیکنندههای من با میانگین 0 و انحراف معیار 0.5 استاندارد شده بودند، بنابراین میدانم که باید پیشبینیکنندههای استاندارد شده را جایگزین کنم و سپس مدل را برای برآورد مورد نیاز با میانگین (یعنی 0) همه پیشبینیکنندههای دیگر حل کنم. بنابراین برای مثال برای یک تخمین نقطه ای از درمان = AF زمانی که استفاده از زمین = a، آیا می توانم به سادگی exp(intercept) را انجام دهم؟ [که همان exp(1.9522 – 2.0318*0 - 0.8861*0 - 0.6943*0 - 0.5191*0 + 1.0529*0*0 – 0.2389*0).] اما چگونه می توانم آن را برای هر یک از موارد دیگر حل کنم ترکیبات؟ آیا درمان = AF و استفاده از زمین = p به این شکل انجام می شود؟ : exp(1.9522 – 2.0318 - 0.8861*0 - 0.6943*0 - 0.5191*0 + 1.0529 – 0.2389*0) احساس می کنم چیزی را از دست داده ام / اشتباه متوجه شده ام... در نهایت، آیا درست فکر می کنم که می توانم یک اثر درمانی به خودی خود ایجاد می کند (همانطور که در یک تعامل)؟ هر گونه کمک بسیار قدردانی می شود. | محاسبه تخمین نقطه از پارامترهای میانگین مدل |
65014 | من یک مدل Cox PH ساخته ام. من احتمال بقای پیش بینی شده را به دست آوردم. سؤالات من عبارتند از: 1. چگونه می توان زمان بقای پیش بینی شده یا زمان تا رویداد را با استفاده از احتمالات بقا بدست آورد؟ 2. من نیاز به اعتبارسنجی با استفاده از نمودارهای بالابر دارم، به عنوان مثال در تعداد رویدادهایی که مدل در سه دهک اول ثبت می شود. | نمودار افزایش افزایش خطر متناسب کاکس |
11270 | مطالعه من در مورد درک مشتریان از اثربخشی وبلاگ شرکت مالزی است. در مطالعه من، ادراک مشتریان از اثربخشی به عنوان سهولت استفاده درک شده، تعامل درک شده، و قابل اعتماد بودن درک شده تعریف شد. در حالی که وبلاگ شرکتی به عنوان نرم افزار انتشار وبلاگ، سیستم نظرات وبلاگ، و وبلاگ بلاگ و پیوند وبلاگ تعریف می شود. در مطالعه خود، من می خواهم تعیین کنم که آیا رابطه ای بین: الف) درک مشتریان از سهولت استفاده و نرم افزار انتشار وبلاگ وجود دارد. ب) درک مشتریان از تعامل و سیستم نظرات وبلاگ؛ و ج) ادراک مشتریان از قابلیت اعتماد و بلاگ وبلاگ و لینک. در پرسشنامه، هر بخش (درک شده آسان برای استفاده، تعامل درک شده، قابل اعتماد درک شده، نرم افزار انتشار وبلاگ، سیستم نظرات وبلاگ، و وبلاگ وبلاگ و لینک) شامل 5 سوال است. به عنوان طراحی پرسشنامه در مقیاس 7 لیکرت (اندازه گیری ترتیبی)، از همبستگی ناپارامتریک (همبستگی اسپیرمن) برای تجزیه و تحلیل داده ها استفاده می کنم. علاوه بر این، مانند فصل 1 پایان نامه من، برخی فرضیه های تحقیق وجود دارد. بنابراین من یک دم اهمیت انتخاب شده ام. ### سوالات: 1. آیا همبستگی اسپیرمن روش مناسبی برای تجزیه و تحلیل داده های من است؟ 2. از آنجایی که هر بخش دارای 5 سؤال است (به عنوان مثال: درک سهولت استفاده و نرم افزار انتشار وبلاگ)، خروجی آماری دارای 10 ضریب همبستگی است، اما چگونه باید این 10 ضریب همبستگی را به یک نتیجه تفسیر کنم که آیا رابطه ای بین مشتریان وجود دارد یا خیر. درک سهولت استفاده و انتشار وبلاگ نرم افزار؟ 3. اگر بخواهم برای سهولت استفاده درک شده توسط مشتریان (5 سوال) و نرم افزار انتشار وبلاگ (5 سوال) رگرسیون انجام دهم، از کدام رگرسیون استفاده کنم؟ | چگونه یک مطالعه را تجزیه و تحلیل کنیم که به رابطه بین یک مجموعه پنج موردی (پیشبینیکنندهها) و مجموعه دوم از پنج آیتم (نتیجهها) نگاه میکند. |
50842 | دقیقا سوال رو کپی کردم آیا کسی می تواند پاسخ من را بررسی کند؟ من بین انتخاب ها بسیار گیج شده ام، به نظر می رسد همه آنها قابل اجرا هستند. > یک شرکت مشتریان خود را بر اساس مدت زمانی که برای پرداخت صورتحساب هایشان طول می کشد به سه گروه تقسیم می کند: سریع (< 1 ماه)، آهسته (1 تا 6 ماه)، > بسیار آهسته (> 6 ماه). آنها از سوابق قبلی خود می دانند که > نسبت مشتریان سریع 0.3، نسبت مشتریان > پرداخت کند 0.65 و نسبت مشتریانی که به طور باورنکردنی کند > 0.05 است. در میان آنهایی که به طور باورنکردنی کند هستند، نیمی از آنها هنوز در مدت > دو سال پرداخت خواهند کرد، و بقیه هرگز پرداخت نمی کنند. > > کدام یک از عبارات زیر صحیح است؟ > > 1. از هر 40 نفر یک نفر هرگز صورتحساب خود را پرداخت نمی کند > 2. مشتری که 1 ماه صورتحساب خود را پرداخت نکرده است، احتمال 0.0357> > عدم پرداخت وجود دارد. > 3. احتمال اینکه مشتری ظرف 6 ماه پرداخت کند، بیشتر از زمان > بیشتر از 1 ماه > 4 است. با توجه به اینکه یک فرد سریع یا بسیار کند است، احتمال بیشتری دارد که فرد > بسیار کند باشد > پاسخ من 2 3 است. 4. دلایل: 1. از هر 40 نفر یک نفر هرگز صورت حساب خود را پرداخت نمی کند. - نادرست از نظر احتمال، ما معمولاً یک #میانگین 2 را اضافه می کنیم. یک مشتری ... احتمال 0.0357 هرگز پرداخت نمی کند. - درست در نظر بگیرید فضای نمونه 0.65+0.05=0.7 را در نظر بگیرید شانس هرگز پرداخت را در نظر بگیرید = 0.025 0.025/0.7=0.0357... 3. به احتمال زیاد ... بیشتر از 1 ماه طول می کشد. - احتمال واقعی (در عرض 6 ماه) = 0.3+0.65=0.95 احتمال (بیشتر از 1 ماه) = 0.65+0.025=0.675 (فرض: افرادی که پرداخت نمی کنند) 4. با توجه به یک فرد .. بسیار کند است. - True By 2 case P(fast)=0.3 P(slow)=0.7 | سوالات احتمالی مشروط (تکالیف) |
103273 | بنابراین این برای من کمی پیچیده شده است و امیدوارم کسی بتواند به من کمک کند. من سابقه ریاضی ندارم. من یک سری زمانی از بارندگی روزانه به مدت 50 سال برای یک مکان خاص دارم. آن مکان با یک فصل بارانی بسیار مشخص مشخص می شود (به طور معمول از حدود هفته اول ژوئن هر سال شروع می شود). بنابراین شما انتظار دارید که یک موج ناگهانی بارندگی در حوالی ژوئن وجود داشته باشد که تقریباً 2-3 ماه طول می کشد و سپس کاهش می یابد. برایم جالب بود که بدانم چه نوع تکنیکهای آماری یا ریاضی را میتوان برای مشخص کردن تاریخهای هر سالی که بادهای موسمی شروع میشود استفاده کرد. اساساً من میخواهم تاریخهای شروع اولیه را برای هر سال محاسبه کنم. ببخشید اگر این سوال کمی مبهم است. با تشکر | نقطه ای را پیدا کنید که در آن منحنی به طور قابل توجهی بالا می رود |
88796 | من در حال بررسی احتمال پرواز در یک پرنده دریایی (1=پرواز، 0=عدم پرواز) با استفاده از رگرسیون لجستیک دو جمله ای هستم. پیشبینیکنندههای من فاصله تا یک اختلال (مستمر)، ساعت از روز (پیوسته)، مکان (عامل)، فصل (عامل)، وضعیت دریا (دوگانه)، و اندازه گروه (دوگانه) هستند. من استفاده از رگرسیون تکهای را در رابطه با فاصله تا یک اغتشاش بررسی کردهام، زیرا این متغیر محدوده بزرگی (تا ۷۴ کیلومتر) را در بر میگیرد و هیچ راهی وجود ندارد که این روی پرواز در بزرگترین فاصله تأثیر بگذارد. هنگامی که مدل فقط با اشاره به فاصله تا اختلال در برنامه R بخش بندی شده مناسب بود، به شکست در داده ها در 3.9 کیلومتر اشاره می کند. شیب تا این فاصله منفی و از نظر آماری معنی دار است در حالی که برآورد شیب برای فواصل بیشتر از 3.9 کیلومتر صفر و غیر معنی دار برآورد شده است. اکنون میخواهم بهطور متوالی عبارات دیگری را به مدل اضافه کنم تا ببینم آیا در هنگام اضافه شدن عبارتهای اضافی، کاهشی در انحراف وجود دارد یا خیر. آیا می توان یک اصطلاح را فقط به بخش قبل یا بعد از استراحت اضافه کرد؟ به نظر می رسد نمی توانم اطلاعاتی در این زمینه در ادبیات پیدا کنم سؤالات من این است که آیا می توانم این کار را انجام دهم؟ یا باید داده ها را به دو قسمت قبل و بعد از نقطه شکست تقسیم کنم و اصطلاحات اضافی را از این طریق بررسی کنم. همچنین انگیزه انجام این تحلیل بیشتر برای یافتن و شناسایی نقطه شکست است. آیا به جای اضافه کردن عبارت ها پس از ارزیابی نقطه انفصال، باید نقطه شکست را در یک مدل شامل همه عبارت ها بررسی کنم؟ آیا این شکست در دادهها را در رابطه با سایر عبارات پیدا میکند یا الگوریتم هنگام جستجوی فاصلهای در متغیر فاصله تا اختلال، سایر عبارات مدل را کاملاً نادیده میگیرد. با تشکر | افزودن اصطلاحات اضافی به یک رگرسیون تکهای |
65017 | من داده هایی از دو آزمایش کشاورزی دارم، یکی در 101 سایت، دیگری در 97 سایت. در هر دو آزمایش، متغیر پاسخ، $Y$، یک شمارش با بیش از صفر است و یک متغیر کمکی باینری، $I$ وجود دارد که نشان میدهد آیا سایت درمان خاصی را دریافت کرده است یا خیر. در آزمایش اول، این دادهها با موفقیت با یک مدل پواسون تورم صفر (ZIP) مدلسازی شدند، که تخمینهایی را برای احتمال صفر، $\phi$ ارائه میکرد، به طوری که $\phi=0$ با یک مدل پواسون معمولی مطابقت داشت، و برای اثر درمانی با این حال، در آزمایش دوم نیز یک متغیر کمکی پیوسته به نام $I$ وجود دارد که با $\phi$ مرتبط است. چگونه می توانم این داده ها را مدل کنم تا بتوانم ارتباط بین $\phi$ و $X$ و همچنین اثر درمان را تخمین بزنم؟ | مدل سازی پارامتر تورم صفر در مدل رگرسیون ZIP |
96464 | من در مورد آزمون آماری که باید استفاده کنم کمی سردرگم هستم. مورد من به شرح زیر است: من در حال اندازه گیری ویژگی های شخصیتی شرکت کنندگان (موافق بودن، برون گرایی، وظیفه شناسی، گشاده رویی، روان رنجوری) هستم و از آنها پرسیدم که چقدر احتمال دارد که پنج عمل مختلف را در مقیاس 7 درجه ای انجام دهند (اجازه دهید آنها را A بنامیم. ، ب، ج، د، ای). بنابراین، دادههایی که من دارم، 5 ویژگی شخصیتی است که اندازهگیری میکنم و 5 اقدام پاسخ در مقیاس 7 درجهای. چیزی که میخواهم بدانم این است که آیا احتمال انجام این اعمال را میتوان با امتیاز هر یک از ویژگیهای شخصیتی توضیح داد. به عنوان مثال؛ کسی که در روان رنجورخویی نمره بالایی می گیرد، احتمال بیشتری دارد که در عمل A شرکت کند تا یکی از اقدامات دیگر. من به یک آنووا با اندازهگیریهای مکرر فکر میکردم زیرا 5 برابر عمل پاسخ برای هر شرکتکننده را اندازهگیری میکنم، اما چگونه میتوانم 5 ویژگی شخصیتی را کنترل کنم زیرا آنها نیز درون موضوع هستند. | در مورد آزمون آماری برای استفاده سردرگم هستم |
13939 | این سوال مربوط به تابع CHIDIST اکسل در متلب است. حداقل پاسخ بزرگتر از صفر که در اکسل می توانم دریافت کنم، حدود 2.2e-308 است که با realmin در متلب مطابقت دارد. با این حال، در MATLAB حداقل پاسخ 2.2e-16 یا «eps(1.0)» است. من متوجه شدم که این به این دلیل است که ابتدا «chi2cdf» را محاسبه میکنم که برای مقادیر بزرگ نزدیک به 1 است، و دقت در این مورد «eps(1.0)» است. آیا راه دیگری برای بازتولید CHIDIST اکسل و عدم کاهش دقت وجود دارد؟ آیا دقیقاً می دانید CHIDIST چگونه کار می کند؟ **ویرایش:** باید چندین بار این تست را انجام دهم و در بسیاری از موارد مقادیر p حاصل نزدیک به صفر هستند. من باید p-value ها را رتبه بندی کنم، به همین دلیل است که من به دقت بالایی در محاسبه p-value نیاز دارم. | تابع CHIDIST اکسل در MATLAB برای مقادیر بزرگ |
43345 | نمایش گرافیکی صحیح برای این داده های هزینه هفتگی (به دلار) برای نوشابه برای 20 نفر چیست: 12،13،17،21،24،24،26،27،27،30،32،35،37،38 ,41,43,44,46,53,58 من می خواهم داده ها را به 5 سطل جدا کنم: 10-20 (f=3)، 20-30(f=6)، 30-40(f=5)، 40-50(f=4)، 50-60(f=2) و محور عنوان I: «هزینه هفتگی (مبلغ دلار)». کدام یک برای محور y مناسب تر است؟ (که برای آن «f=3،6،5،4،2» قرار دادهام.) | نمایش گرافیکی هزینه های هفتگی |
103276 | من در حال نوشتن پایان نامه در مورد پیش بینی اینکه کدام اهداف تصاحب شرکتی، پیشنهاد دهنده رقیب را جذب می کند، می نویسم. من ابتدا یک مدل را با استفاده از رگرسیون لجستیک تخمین زدم. نمونه شامل 1350 هدف تک مناقصهگر و 51 هدف چند مناقصهگر است. من میخواهم توانایی پیشبینی را با یک نمونه نگهدارنده آزمایش کنم و از این پیشبینی برای ساختن پرتفویی استفاده کنم که بازدهی بیشتری نسبت به بازار (CAR) ایجاد کند. با این حال، این نمونه نگهدارنده دارای 250 هدف تک مناقصهگر و تنها 13 هدف چند پیشنهادی است. 1. آیا برای نمونه نگهدارنده اهمیتی دارد که تعداد هدف چند پیشنهاد دهنده خیلی کم باشد؟ 2. آیا برای آزمایش توانایی پیشبینی، «تأیید اعتبار متقاطع ترک یک بیرون» (LOOCV) بهتر از نمونه نگهدارنده است؟ یعنی دقت مدل نیست 3. چگونه می توانم با استفاده از spss یک ارائه اعتبار متقاطع (LOOCV) را انجام دهم؟ | برای رگرسیون لجستیک رویدادهای نادر در SPSS یک اعتبار متقاطع را کنار بگذارید |
64765 | من فکر می کنم این یک سوال نسبتاً باز است. فرض کنید من داده های دو بعدی $(x_i، y_i)$ دارم. من مدل معقولی برای حاشیهها دارم، مثلاً توزیعهای $F_X$ و $F_Y$ (پارامتری). چگونه می توان به طور منطقی یک مدل دو بعدی برای توزیع مشترک $(X,Y)$ ساخت که به همبستگی بین $X$ و $Y$ یا یک لحظه بالاتر دیگر احترام می گذارد؟ البته من تغییرات نرمال را در نظر نمی گیرم. پیشاپیش متشکرم | بازسازی توزیع مشترک از حاشیه ها |
19067 | من در حال تجزیه و تحلیل برخی از داده های رفتاری از چندین شرکت کننده در Matlab هستم. من قبلاً در SPSS تدابیر تکراری انجام می دادم. اما آیا این همان اضافه کردن موضوع به عنوان یک عامل، و انتخاب آن به عنوان یک اثر تصادفی است؟ یعنی ماتریس دادههای اندازهگیریهای مکرر عادی من x شبیه به این حالت است A شرط B موضوع 1 x(1,1) x(1,2) موضوع 2 x(2,1) x(2,2) ... ... . .. موضوع 7 x(7,1) x(7,2) بنابراین برای Matlab، COND = [1 2 SUBJ = [1 1 1 2 and 2 2 ... ... 1 2] 7 7] را امتحان کردم سپس دوید `anovan(x(:), {COND(:), SUBJ(:)}, 'random',2 )` اکنون به نظر نمی رسد که نتایج مشابه SPSS را برای اندازه گیری های مکرر به من بدهد... شاید من آیا پارامتر تصادفی را اشتباه متوجه شده اید - فکر کردم شما می توانید یک تست اندازه گیری های مکرر از آن بسازید؟ | آیا اثرات تصادفی به من امکان انجام اقدامات مکرر را می دهد؟ |
96463 | من با فرضیه صفر مشکل دارم. فرض کنید من مجموعهای از دادههای یک جمعبندی را دارم و میخواهید آزمایش کنید که آیا این نمونه عمری بیش از 2000 دارد یا خیر. | آزمون فرضیه و تعیین فرضیه صفر |
60229 | علاوه بر غوغای ارائه شده توسط برندان هالپین برای Stata، آیا راهی برای دنبال کردن یک تطابق بهینه با استفاده از بسته R «TraMineR» وجود دارد که عملیات ابتدایی OM را با طول قسمت [1] معکوس وزن می کند؟ [1]: نگاه کنید به Halpin، B. (2010) تحلیل تطبیق بهینه و داده های دوره زندگی: اهمیت مدت زمان، روش ها و تحقیقات جامعه شناختی 38 (3): 365-388. | الگوریتم تطبیق بهینه وزن دار با استفاده از R |
43340 | آیا کسی می تواند به من مرجعی در مورد تئوری هیستوگرام های اعمال شده برای داده های چند متغیره بدهد؟ آیا قوانینی مانند Freedman-Diaconis یک بعدی برای موارد با ابعاد بالا وجود دارد؟ رایج ترین معایب چیست؟ من قصد دارم از هیستوگرام برای تخمین چگالی استفاده کنم. | منابع مربوط به قوانین هیستوگرام های چند بعدی |
69061 | من داده هایی دارم که می توانم آنها را به صورت تصویر بیان کنم. در داخل این داده ها من چند خوشه پیدا کردم (در تصویر زیر نشان داده شده است). من فقط می توانم رنگ های مختلف را به خوشه های مختلف اختصاص دهم و تصویر را تجسم کنم، اما اگر این کار را به طور تصادفی انجام دهم، رابطه فضایی را که می توان در تصویر مشاهده کرد از دست می دهم.  برای حل آن به منظور اجازه دادن به خوشه های نزدیک رنگ های نزدیک، فکر کردم که راه حل خوبی است. ممکن است نگاشت این فضا به یک نقشه رنگی (یا برعکس) فقط برای این باشد که بگویم حدس میزنم که باید از نقشه رنگی طوری استفاده کنم که در مرکز آن سیاه باشد تا سفید فقط برای نمایش اهداف. (نشانگر سفید در بوم سفید زیاد نمایش داده نمی شود ؛) )  یک راه حل ممکن این است که مستقیماً PCA مرکزهای من را به صورت سه بعدی نگاشت کنم. سیستم مختصات و از این یکی برای ترسیم رنگ HSV استفاده کنید.  Centroid های نزدیک رنگی مشابه دارند، اما تفاوت در اشباع و روشنایی باعث می شود که در همان نزدیکی متفاوت باشد و نزدیک به سایر مرکزهای دور دور اول است. دو مختصات اما در مختصات سوم بسته می شود. یک راه حل این است که از همان مختصات برای اشباع و روشنایی استفاده کنید که منجر به این رنگ می شود (یا حتی فقط از رنگ استفاده کنید) ! بالا را می توان به راحتی متمایز کرد در حالی که خوشه های پایین همه شبیه به هم (تاریک) به نظر می رسند. از سوی دیگر استفاده از تنها رنگ منجر به کاهش زیر مجموعه رنگ ها می شود. اشباع را می توان به عنوان فاصله از مرکز ترسیم کرد، اما همچنان فضای رنگی به درستی برای داشتن بهترین رنگ استفاده نمی شود. هدف نهایی این است که دوباره رنگ آمیزی خوشه ها را به یک تصویر بازتاب دهیم تا تصویری رنگی از بافت آن بدست آوریم، به شرح زیر:  با تشکر. | چگونه به درستی خوشه ها را برای تجسم رنگ آمیزی کنیم |
79928 | من در حال طراحی یک نظرسنجی هستم که داده ها را از کاربران خدمات ارائه شده توسط سازمان من جمع آوری می کند. ما دادهها را از همه آن کاربران (سایر سازمانهای کوچکتر) که با ما کار میکنند جمعآوری میکنیم. بنابراین، ما اطلاعاتی در مورد کل جمعیت خواهیم داشت. ما نظرسنجی را به گونه ای طراحی خواهیم کرد که فقط مشاهدات عددی را بدست آوریم: متغیرهای پیوسته، گسسته و مقوله ای. در ابتدا فکر میکردم از تجزیه و تحلیل دادههای تابلویی استفاده کنم، اما مشکل این است که در ابتدا فقط در یک بازه زمانی دادهها را خواهم داشت. سوال این است که آیا هنوز هم می توانم از تحلیل داده های تابلویی استفاده کنم؟ کدام روش دیگر با این نوع مجموعه داده مناسب تر است؟ | کدام روش مناسب برای تجزیه و تحلیل داده ها در یک دوره زمانی است؟ |
82626 | من می خواهم از بین دو متغیر دیگر یک متغیر هم ترازی ایجاد کنم. به این معنی که اگر دو ارزیاب (مثلا مدیر و کارمند) به یکدیگر امتیاز دهند، همسویی زیاد است، اما اگر به یکدیگر امتیاز دهند، همسویی پایین است. من سعی کردم معیارهای IRR مانند ICC و کاپا کوهن را بررسی کنم، اما به نظر می رسد که آنها فقط یک امتیاز هم ترازی کلی ایجاد می کنند. من به دنبال ایجاد یک مقدار تراز برای هر جفت ارزیاب رتبه بندی یکدیگر هستم - به طور موثر یک متغیر تراز جدید ایجاد می کنم. چگونه می توانم این کار را انجام دهم؟ از نظر فنی من از SPSS استفاده می کنم، اما مهم ترین چیز برای من این است که بفهمم از چه تکنیک عمومی استفاده کنم. | چگونه از متغیرهای رتبه بندی متقابل یک متغیر هم ترازی ایجاد کنیم |
19681 | این سوالی است که فرانک هارل در اینجا نوشته است: > طبق تجربه من، اندازه نمونه مورد نیاز برای دقیق بودن توزیع t اغلب بزرگتر از اندازه نمونه موجود است. تست رتبه علامت دار Wilcoxon همانطور که شما گفتید بسیار کارآمد است و قوی است، بنابراین من تقریباً همیشه آن را بر آزمون t ترجیح می دهم اگر آن را درست متوجه شده باشم - هنگام مقایسه مکان دو نمونه بی همتا، ترجیح می دهیم از آن استفاده کنیم. اگر حجم نمونه ما کوچک باشد، آزمون مجموع رتبهای ویلکاکسون نسبت به آزمون t غیر جفتی. **آیا موقعیتی نظری وجود دارد که ما تست مجموع رتبه ویلکاکسون را بر آزمون t غیر زوجی ترجیح دهیم، حتی اگر حجم نمونه دو گروه ما نسبتاً بزرگ باشد؟** انگیزه من برای این سوال از مشاهده این موضوع ناشی می شود که برای یک آزمون t نمونه تکی، استفاده از آن برای یک نمونه نه چندان کوچک از توزیع اریب، خطای نوع اول اشتباهی را به همراه خواهد داشت: n1 <- 100 mean1 <- 50 R <- 100000 P_y1 <- عددی(R) برای(i در seq_len(R)) { y1 <- rexp(n1, 1/mean1) P_y1[i] <- t.test(y1 , mu = mean1)$ p.value } sum(P_y1<.05) / R # برای n1=n2=100 -> 0.0572 # خطای نوع I اشتباه. | چه زمانی از آزمون مجموع رتبه ویلکاکسون به جای آزمون t-paired استفاده کنیم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.