_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
3086
|
در حال حاضر من در حال تجزیه و تحلیل حدود 300 مورد در زمینه آموزش هستم. من به ابعاد مجموعه داده علاقه مند هستم. بنابراین من یک ماتریس از همبستگی تتراکوریک را محاسبه می کنم. هدف انجام تحلیل عاملی بر روی این ماتریس است. من با کنجکاوی با ماتریس همبستگی پیرسون مقایسه می کنم و نتایج متفاوت است. وقتی تفاوتهای بین ماتریسها را محاسبه میکنم، تفاوتهای جزئی دارم: هیچ معنی تهی با حداقل و حداکثر از -0.3$ تا $0.3$ متغیر است. هر ایده ای؟ معمولاً می خوانید که برای آیتم های دوگانه، مقادیر بسته هستند. علاوه بر این، مقادیر گم شده ای دارم، زیرا به دلیل موارد بسیار سخت و بسیار آسان، برخی از مدالیته ها هرگز با هم رعایت نمی شوند. در این مورد آیا پیشنهاد (و دلیل) خوبی برای رسیدگی به این مشکل دارید؟ سرکوب این موارد، Imputation، ...
|
تفاوت بین تتراکوریک و همبستگی پیرسون
|
58335
|
$IQ = b_0 + b_1گروه + b_2سن + b_3درآمد + b4\ بار گروه\ بار سن$ گروه به صورت ساختگی کدگذاری شده است ($0,1$) من فرض می کنم که تعامل گروه x سن تفاوت گروه را در شیب IQ در مقابل آزمایش می کند. خط رگرسیون سن در حین کنترل درآمد. من می خواهم نمودار پراکندگی داده ها را برای هر گروه نشان دهم که شیب و برش را نشان می دهد تا تفاوت شیب بین گروه ها را در رابطه سنی نشان دهم. من میدانم وقتی فقط یک متغیر پیشبینیکننده پیوسته این کار را انجام دهم، اما مطمئن نیستم که چگونه حضور دومین پیشبینیکننده پیوسته را در مدل بالا مدیریت کنم. من به کمک نیاز دارم 1) چه مقادیری را برای نمودار IQ در مقابل سن رسم کنم (با توجه به اینکه Age بر روی درآمد در مدل رگرسیون باقی مانده است)؟ 2) چگونه می توان شیب و خط رگرسیون را برای هر گروهی که رابطه IQ در مقابل سن آنها را نشان می دهد از مدلی استخراج کرد که شامل درآمد به عنوان متغیر پیش بینی کننده دوم است؟
|
چگونه می توانم شیب و وقفه را برای هر گروه در مدل رگرسیون با یک متغیر پیش بینی کننده طبقه بندی و 2 متغیر مستمر استخراج کنم؟
|
68581
|
من با مفاهیم R و داده کاوی نسبتاً تازه کار هستم و سعی می کنم پکیج rpart را در R درک کنم. در مورد نقش اولویت ها و ضررها در ایجاد درخت تصمیم گیری کمی سردرگم هستم. من به سند http://cran.r-project.org/web/packages/rpart/vignettes/longintro.pdf مراجعه میکنم و از هرگونه توضیحی در مورد این موضوع سپاسگزارم. به طور دقیق تر، منظور از احتمالات قبلی هر کلاس چیست؟ آیا این بدان معناست که درخت قبلاً ساخته شده است و اکنون سعی می کنیم خطر یا ضرر را کاهش دهیم؟
|
پیشینیان و ضرر در R
|
112305
|
من سعی می کنم موقعیت هایی را که حاوی مقادیر ثابت هستند از رشته های داده های تصادفی حذف کنم. به عنوان مثال حذف رشته ISBN از یک کد isbn کتاب بدون اطلاع قبلی از اینکه رشته ای ثابت است یا در کجای رشته وجود دارد، اما با آگاهی از اینکه حرکت نمی کند. یک عارضه این است که آنها نیازی به تعمیر کامل ندارند، فقط بیشتر. در اینجا پیاده سازی فعلی است: لیستی از رشته ها به من داده می شود {0113, 0124, 0132, 0242}; هدف من این است که مشخص کنم کدام موقعیت ها عمدتاً یکسان هستند. نسبتهای هر کاراکتر را در هر موقعیت میگیرم: 0 1 2 3 4 موقعیت 0 : { 1, 0, 0 0 0 } sd: 0.43... position 1 : { 0, 0.75، 0.25، 0، 0 } sd: 0.31... موقعیت 2 : { 0، 0.25، 0.25، 0.25, 0.25} sd: 0 position 3 : { 0, 0, 0.5, 0.25, 0.25} sd: 0.18... سپس واریانس این مجموعه داده های موقعیت را محاسبه می کنم. به نظر می رسد که این به عنوان یک نوع خوب تست تناسب در برابر توزیع یکنواخت (که کاملاً در موقعیت 2 قرار می گیرد) کار می کند. سپس میتوانم آستانهای را مشخص کنم که در آن همه چیز در بالا (عمدتاً) مقدار ثابت است. این اشتباه به نظر می رسد. اگر تعداد کاراکترهای موجود را تغییر دهم، مثلاً با افزودن 5، این مقدارها را تغییر می دهد. در واقع sd را کاهش می دهد، به طوری که کمتر مطمئن هستم {1,0,0,0,0, 0} یک رشته ثابت نسبت به {1,0} است، که به نظر می رسد برعکس آن چیزی است که کار می کند. که انجام می دهند اتفاقاً متوجه شدم که شاید فقط تعیین حد آستانه راهی برای رفتن باشد، اما گمان میکنم چیزی قویتر وجود داشته باشد و میخواهم بدانم شخصی که آن پیادهسازی را نوشته است، در واقع سعی در دستیابی به آن داشته است. اگر من نسبتها را در اندازه مجموعه کاراکتر ضرب کنم، متغیر کمتری خواهد بود، به عنوان مثال «موقعیت 0 : { 5، 0، 0 0 0}»، اما این نیز درست به نظر نمیرسد.
|
مشخص کردن کاراکترهای ثابت در (مثلا) یک شماره ISBN
|
68752
|
از آنچه من فهمیدم، رویدادهای A و B برای اهداف تئوری احتمال مستقل در نظر گرفته می شوند، زمانی که $$ p(A \cap B) = p(A) \cdot p(B) $$ حال، فرض کنید من دو را برگردانم. سکه ها من احتمالات نتایج مشترک را به صورت $\left(\frac{1}{4}, \frac{1}{4}, \frac{1}{4}, \frac{1}{4}\ مینویسم راست)$ و ببینید که تک تک سکه ها مستقل هستند. اما چگونه این احتمالات را بدانیم؟ خب، سکه اول می تواند سر یا دم با احتمال $\frac{1}{2}$ بالا بیاید، سپس در مورد سرها می دانیم که احتمالات سکه دوم هنوز $\frac{1}{2 است. }$… اما به نظر میرسد که فرض کنیم $p(A|B) = p(A)$، که از نظر ریاضی فقط یک بازآرایی از فرمول بالا است، بنابراین مانند استدلال دایرهای به نظر میرسد. بنابراین، توضیح چیست؟ چرا استقلال نظری با استقلال عملی به شکلی نه به ظاهر دایره ای مطابقت دارد؟
|
چگونه رابطه بین احتمالات مستقل و استقلال دنیای واقعی را درک کنیم؟
|
112307
|
مشکل این است که یک طبقهبندی کننده برای هر کار بر اساس مجموعهای از ویژگیهای یک موجودیت با مقادیر متفاوت در زمانهای مختلف ارائه کنیم. به عنوان مثال در مورد بازیکنان فوتبال و آمار بازی آنها که از مسابقه ای به مسابقه دیگر متفاوت است فکر کنید (شوت های دقیق، پاس، مالکیت و غیره) سپس می توانید با استفاده از این مقادیر آماری، مدلی را برای هر کاری آموزش دهید. با این حال، دیدگاه های مختلفی برای استفاده از چنین داده هایی وجود دارد. یکی استفاده از مقادیر هر مسابقه بازیکن به عنوان مثال متفاوت، دومی در نظر گرفتن میانگین همه آمار یا آخرین استفاده از میانگین آخرین آمار بازی است. من این سوال را مطرح می کنم، شاید چیزی متفاوت یا مناسب تر برای چنین مشکلات داده های مختلف وجود داشته باشد و من می خواهم ایده های شما را بشنوم؟ برای خاص بودن، دوباره مجموعه ای از بازیکنان و آمار بازی آنها در صدها مسابقه به شما داده می شود. برخی از این بازیکنان همچنین با توانایی های خود در حمله، دفاع با تغییر امتیاز از 0 به 10 رتبه بندی می شوند. وظیفه شما این است که مدلی داشته باشید که امتیازات توانایی یک بازیکن جدید را بر اساس آمار بازی او پیش بینی کند. چنین مشکلی را از دیدگاه خود چگونه ارزیابی می کنید؟
|
چگونه می توان از مجموعه ای از ویژگی های یک موجودیت در زمان های مختلف برای تحلیل پیش بینی استفاده کرد؟
|
3352
|
اگر $X$ یک متغیر طبقهبندی است، و من به توزیعهای پسین $\beta_1$ علاقهمندم، که $\beta_1$ بردار ضرایبی است، یکی برای هر سطح X، آیا این مدلها معادل هستند؟ مدل 1: $$Y \sim ( \beta_0 + \beta_1X_1,\sigma^2)$$ $$\beta_1 \sim N(0,\tau)$$ مدل 2: $$Y \sim(\beta_1X_1,\ sigma^2)$$ $$\beta_1 \sim N(\beta_0,\tau)$$ در هر دو مدل، $\beta_0$ یک پیشین آگاه دارد، $\tau$ یک پیشین ضعیف دارد: $$\beta_0\sim \text{Gamma}(6,3)$$ $$\tau \sim \text{Gamma}(0.1,0.1)$$ اگر اینها معادل نیستند ، چرا که نه؟ من می پرسم زیرا اگرچه فکر می کردم اینها یکسان باشند، اما وقتی در JAGS پیاده سازی شد، زنجیره MCMC برای $\beta_0$ از مدل اول دارای همبستگی خودکار بسیار بالاتری نسبت به دومی است. من کد R خود را اینجا گذاشته ام SO.test.tgz می توان آن را از خط فرمان اجرا کرد، با نصب rjags، به این ترتیب: wget https://netfiles.uiuc.edu/dlebauer/www/SO.test.tgz tar -zxf SO.test.tgz R --vanilla < SO.test.R
|
آیا این بازنمودهای معادل همان مدل بیزی سلسله مراتبی هستند؟
|
68589
|
**چرا سلسله مراتبی؟ :** من سعی کردم در مورد این مشکل تحقیق کنم، و از آنجایی که متوجه شدم، این یک مشکل سلسله مراتبی است، زیرا شما به جای مشاهده مستقیم از آن جمعیت، مشاهداتی را در مورد مشاهدات یک جمعیت انجام می دهید. مرجع: http://www.econ.umn.edu/~bajari/iosp07/rossi1.pdf **چرا بیزی؟ :** همچنین، من آن را بهعنوان بیزی برچسبگذاری کردهام، زیرا ممکن است یک راهحل مجانبی/تکراری برای یک «طراحی تجربی» وجود داشته باشد که در آن به هر «سلول» مشاهدات کافی اختصاص داده شده است، اما برای اهداف عملی مجموعههای دادههای دنیای واقعی/غیر تجربی ( یا حداقل مال من) جمعیت کمی دارند. دادههای انبوه زیادی وجود دارد، اما سلولهای فردی ممکن است خالی باشند یا فقط چند مشاهده داشته باشند. **مدل به صورت انتزاعی:** اجازه دهید U جمعیتی از واحدهای ${u_1، u_2، u_3 ... u_N}$ باشد که میتوانیم برای هر یک از آنها یک درمان، $T$، یا $A$ یا $ اعمال کنیم. B$، و از هر کدام i.i.d را مشاهده می کنیم. مشاهدات 1 یا 0 موفقیت و شکست. اجازه دهید $p_{iT}$ برای $i \in \{1...N\}$ احتمال موفقیت یک مشاهده از شی $i$ تحت درمان $T$ باشد. توجه داشته باشید که $p_{iA}$ ممکن است با $p_{iB}$ مرتبط باشد. برای امکانپذیر ساختن تحلیل، (a) فرض میکنیم که توزیعهای $p_A$ و $p_B$ هر کدام نمونهای از یک خانواده خاص از توزیعها هستند، مانند توزیع بتا، (b) و برخی از توزیعهای قبلی را برای فراپارامترها انتخاب میکنیم. **نمونه ای از مدل** من یک کیسه واقعا بزرگ Magic 8 Balls دارم. هر 8 توپ، وقتی تکان داده شود، می تواند بله یا خیر را نشان دهد. همچنین، میتوانم آنها را با توپ از سمت راست به بالا یا وارونه تکان دهم (با فرض اینکه Magic 8 Balls ما وارونه کار میکند...). جهت توپ ممکن است احتمال نتیجه بله یا نه را کاملاً تغییر دهد (به عبارت دیگر، در ابتدا شما هیچ اعتقادی ندارید که $p_{iA}$ با $p_{iB}$ همبستگی دارد). **سوالات:** شخصی به طور تصادفی تعدادی $n$ از واحدهای جمعیت را نمونه برداری کرده است و برای هر واحد تعداد دلخواه مشاهدات تحت درمان $A$ و تعداد دلخواه مشاهدات تحت درمان $ را گرفته و ثبت کرده است. B$. (در عمل، در مجموعه دادههای ما، اکثر واحدها فقط تحت یک درمان مشاهداتی خواهند داشت) با توجه به این دادهها، باید به سؤالات زیر پاسخ دهم: 1. اگر یک واحد جدید $u_x$ را بهطور تصادفی از جمعیت بگیرم، چگونه میتوانم توزیع مشترک خلفی $p_{xA}$ و $p_{xB}$ را (به صورت تحلیلی یا تصادفی) محاسبه کنید؟ (در درجه اول برای اینکه بتوانیم تفاوت مورد انتظار را در نسبت ها تعیین کنیم، $\Delta=p_{xA}-p_{xB}$) 2. برای یک واحد خاص $u_y$، $y \in \{1،2،3. ..,n\}$، با مشاهده موفقیتهای $s_y$ و شکستهای $f_y$، چگونه میتوانم توزیع خلفی مشترک را محاسبه کنم (تحلیلی یا تصادفی) $p_{yA}$ و $p_{yB}$، دوباره برای ایجاد توزیع $\Delta_y$ از تفاوت در نسبت $p_{yA}-p_{yB}$ سوال جایزه: اگرچه ما واقعاً انتظار داریم $p_A$ و $p_B$ بسیار همبسته باشد، ما به صراحت آن را مدلسازی نمی کنیم. در مورد احتمالی یک راه حل تصادفی، من معتقدم که این باعث می شود که برخی از نمونه برداران، از جمله گیبس، در کاوش توزیع پسین موثرتر باشند. آیا این مورد است و اگر چنین است، آیا باید از نمونهگر متفاوتی استفاده کنیم، به نحوی همبستگی را بهعنوان یک متغیر مجزا مدلسازی کنیم و توزیعهای $p$ را به گونهای تبدیل کنیم که همبستگی نداشته باشند، یا فقط نمونهگر را طولانیتر اجرا کنیم؟ **معیارهای پاسخ** من به دنبال پاسخی هستم که: * کد داشته باشد، ترجیحاً از Python/PyMC استفاده کند، یا آن JAGS را که من قادر به اجرای آن هستم منع کند * بتواند ورودی هزاران واحد را مدیریت کند * داده شده واحدها و نمونه های کافی، قادر به خروجی توزیع برای $p_A$، $p_B$، و $\Delta$ به عنوان پاسخ به سوال 1 است، که می تواند مطابق با توزیع های زیربنایی جمعیت (با برگه های اکسل ارائه شده در بخش مجموعه های داده چالش بررسی شود) * با توجه به واحدها و نمونه های کافی، می تواند توزیع های مناسب را برای $p_A$، $p_B$، و $\Delta$ تولید کند (I' از برگههای اکسل ارائه شده در بخش «مجموعههای داده چالش» برای بررسی) به عنوان پاسخ به سؤال 2 استفاده میکنیم و دلیل درستی این توزیعها را ارائه میدهیم * ~~اگر پاسخ مشابه آخرین مدل JAGS است که من پست کردم، توضیح دهید که چرا با پیشین های `dpar(0.5,1)` کار می کند اما با پیشین های `dgamma(2,20)` کار نمی کند.~~ با تشکر از Martyn Plummer در انجمن JAGS برای گرفتن خطا در مدل JAGS من. در تلاش برای تنظیم یک قبل از گاما (شکل = 2، مقیاس = 20)، من dgamma(2،20) را صدا می زدم که در واقع یک پیشین گاما (شکل = 2، مقیاس معکوس = 20) = گاما (شکل=) را تعیین می کرد. 2، مقیاس = 0.05). **مجموعههای داده چالش** من چند مجموعه داده نمونه در اکسل ایجاد کردهام، با چند سناریو ممکن مختلف، تغییر تنگی توزیعهای p، همبستگی بین آنها، و تغییر سایر ورودیها را آسان میکند. https://docs.google.com/file/d/0B_rPBjs4Cp0zLVBybU1nVnd0ZFU/edit?usp=sharing (~8Mb)  **راه حل(های) تلاش شده/جزئی من تا به امروز** **1)** من پایتون 2.7 و PyMC 2.2 را دانلود و نصب کردم. شروع کنید
|
تحلیل بیزی سلسله مراتبی در مورد تفاوت نسبت ها
|
58998
|
من از SPSS و این منوی کشویی استفاده می کنم: «Analyze -> General Linear Model -> Univariate». DV: تعداد دفعاتی که بیمار طی یک سال به پزشک مراجعه کرده است سطح فاکتور 1: 2: دو داروی مختلف فاکتور 2: 2 سطح: جنسیت فاکتور 3: 4 سطح: فاکتور نژاد 4: 3 سطح: دارو مصرف شده صبح، بعد از ظهر، عصر متغیر کمکی: سن (مداوم) وجود دارد 500 موضوع فقط 10 مقدار از دست رفته، همه در فاکتور با 4 سطح. اثر اصلی که من واقعاً به آن علاقه مند هستم، مربوط به فاکتور 1 است. در یک آنالیز واریانس یک طرفه، بسیار مهم بود. وقتی 3 عامل بعدی را اضافه کردم و متغیر کمکی در یک مدل فاکتوری کامل معنیدار نشد (هیچ یک از فاکتورها معنیدار نبودند، هر چند وقتی من فقط 3 عامل + متغیر کمکی 2 از عوامل را داشتم). * آیا فاکتورهای زیادی (+ متغیر کمکی) را وارد کرده ام تا بتوانم تأثیر اصلی قابل توجهی برای هر یک از عوامل داشته باشم؟ به نوعی مدل را بیش از حد بارگذاری کرد؟ * وقتی یک مدل سفارشی را امتحان کردم، تمام تعاملات را از مدل حذف کردم، 2 عامل در حال حاضر قابل توجه بودند، که همان چیزی بود که انتظار داشتم. آیا این مشروع است؟
|
ANOVA با 4 عامل، 1 متغیر کمکی و 500 موضوع
|
78493
|
من سعی کردهام راهی برای انجام LASSO با عملکرد از دست دادن L1 (به جای از دست دادن L2) پیدا کنم، اما در مورد نحوه انجام آن کاملاً گیج شدهام. من سعی کردم از تابع flare.slim() بسته flare استفاده کنم اما خطای Sparse Linear Regression با L1 Regularization را دریافت کردم. خطا در cor(xx, yy): آرگومان استفاده نشده (yy) آیا به هر حال می توان از glmnet یا lars برای انجام این کار استفاده کرد؟ من به اینها اشاره می کنم زیرا به نظر می رسد آنها بسته های کمند معمولی هستند. من همچنین می خواهم نتایج خروجی را با استفاده از تابع ضرر L2 با کمند مقایسه کنم. ممنون از وقتی که گذاشتید. من در واقع به کمند به شکل $$||y -Ax|| اشاره می کنم + \lambda ||w||$$ به جای $$(y-Ax)^2 + \lambda ||w||$$ بنابراین ضرر L1 و جریمه L1، به جای ضرر L2 و جریمه L1. من می دانم چگونه می توانم جریمه را تغییر دهم اما عملکرد ضرر را نه.
|
LASSO با عملکرد از دست دادن L1
|
63477
|
من واقعاً در مورد نحوه محاسبه دقت و یادآوری در الگوریتم یادگیری ماشین نظارت شده با استفاده از طبقهبندی کننده NB با بیش از دو کلاس سردرگم هستم. مثلاً بگویید 1. من سه کلاس $A$، $B$، و $C$ 2 دارم. من 10000$ اسناد دارم که از این تعداد 2000$ به مجموعه نمونه آموزشی می رود (کلاس $A=500$، کلاس $B= 1000$، کلاس $C=500$) 3. اکنون بر اساس مجموعه نمونه آموزشی بالا، سایر اسناد 8000$ را با استفاده از طبقه بندی NB 4 طبقه بندی کنید. با طبقهبندی، اسناد 1000 دلاری به کلاس A$ میرود و اسناد 6000 دلاری به کلاس B$ میرود و اسناد 1000 دلاری به 5 دلار C$ میرود. حال چگونه میتوان دقت و فراخوانی را برای همه کلاسها محاسبه کرد؟ من دقت را فهمیدم و برای دو کلاس به یاد آوردم در اینجا همه چیز پیش میرود. فرض کنید دو کلاس $A$، $B$ وجود دارد حالا وقتی آزمایشی برای اسناد با برچسب $A$ اجرا میشود، دو طبقهبندی ممکن برای هر سند وجود دارد: اگر طبقهبندی $A$ است، 1 را به A true (TA) اضافه کنید، اگر طبقه بندی $B$ است، 1 را به نادرست B (FB) اضافه کنید. به طور مشابه برای $B$: اگر طبقه بندی $A$ است، 1 را به نادرست A (FA) اضافه کنید و اگر طبقه بندی B است، 1 را به واقعی B (TB) اضافه کنید. من همان وضعیت بالا را می خواهم زمانی که بیش از دو کلاس وجود دارد
|
محاسبه دقیق و یادآوری
|
108032
|
من یک سوال در مورد تابع ضرر در طبقه بندی Bayes دارم. اجازه دهید مورد مشابه تابع ضرر را در طبقهبندی خطی ببینیم: دادههای با توجه به $(x,y)=${$(x_1,y1)....(x_n,y_n)$} برای برچسبگذاری $T=${-1 است. ، 1}. تابع ضرر آن روش توسط $$L=\sum(y-T)^2$$ داده می شود اگر از طبقه بندی bayes استفاده کنم، تابع ضرر آن روش کدام است؟ خیلی ممنون http://en.wikipedia. org/wiki/Naive_Bayes_classifier
|
از کدام تابع ضرر می توانم برای طبقه بندی خطی استفاده کنم؟
|
49402
|
من باید یک برنامه کامپیوتری برای تصادفی سازی افراد با استفاده از تصادفی سازی طبقه ای با تصادفی سازی بلوک های جابجا شده ایجاد کنم، بنابراین می خواهم مطمئن شوم که فکرم درست است: فرض کنید در یک آزمایش، دو گروه (کنترل و درمان) وجود دارد و ما می خواهیم بلوک بر دو عامل: جنسیت (مرد، زن) و نژاد (سفید، غیر سفید، و آسیایی). بنابراین، اقشار $2\times3=6$ وجود دارد: لایه 1: لایه نر/سفید 2: نر/غیر سفید لایه 3: لایه مرد/آسیایی 4: لایه ماده/سفید 5: لایه ماده/غیر سفید لایه 6: ماده /آسیایی ما از اندازه بلوک های ثابت چهار و نسبت تخصیص استفاده می کنیم 1:1، بنابراین شش توالی تخصیص ممکن عبارتند از: AABB، ABAB، ABBA، BBAA، BABA، و BAAB اکنون، برای هر موضوع، از آنجایی که آزمودنی ها به صورت تکراری در مطالعه ثبت نام می شوند (ما انتظار داریم $n = 180$)، ما از روش زیر استفاده می کنیم. فرض کنید موضوع اول زن و سفید است. 1. موضوع را به یکی از شش قشر اختصاص دهید. در این مثال، موضوع به لایه 4 اختصاص داده می شود. 2. یک دنباله تخصیص تصادفی را انتخاب کنید، به عنوان مثال، AABB 3. موضوع را به گروه اختصاص دهید. اگر A = کنترل و B = درمان، آزمودنی به گروه کنترل اختصاص داده می شود. موضوع دوم، سوم و چهارم اختصاص داده شده به لایه 4 به ترتیب به گروه های A، B و B اختصاص داده می شود. زمانی که موضوع پنجم به این قشر اختصاص داده شود، بلوک تصادفی دیگری انتخاب می شود و به همین ترتیب. رویه فوق به طور کامل از کاربر وارد کننده داده پنهان می شود و تنها می بیند که موضوع به کدام گروه اختصاص داده شده است. آیا درک من درست است؟ با تشکر فراوان.
|
تصادفی سازی طبقه ای با تصادفی سازی بلوک های جایگزین
|
68588
|
داده های زیر را در نظر بگیرید. (متغیر وابسته: شاخص توسعه انسانی (HDI)) Coefficient Std. خطای t-ratio p-value const -0.260523 0.129316 2.0146 0.05693 * LITRATE 0.0031374 0.000965695 3.2488 0.00384 *** LIFEXP 1026.707. 1.8995 0.07133 * GINI 0.00598775 0.00175813 3.4057 0.00266 *** R-squared 0.826974 Adjusted R-squared 0.802256 S.D. وابسته var 0.053285 S.E. از رگرسیون 0.023695 مجموع مربع باقی مانده 0.011791 دوربین واتسون 0.618921 چگونه این نتایج را تفسیر می کنید؟ با توجه به اینکه متغیرهای مستقل قابل توجه هستند، اما ضریب کوچکی به دست می آید، اما مجذور R بالا است؟
|
چگونه یک ضریب کم و در عین حال معنی دار آماری را با یک R-squared بالا تفسیر می کنید؟
|
30247
|
روش A نمونه های بیولوژیکی را با استفاده از اثر انگشت چند متغیره که از حدود 30 متغیر مختلف تشکیل شده است، توصیف می کند. متغیرهای مختلف توزیع معمولی متفاوتی را نشان میدهند و بسیاری از آنها ارتباط نزدیکی با یکدیگر دارند. از تجربه قبلی فرض بر این است که ما نمی توانیم بسیاری از متغیرها را به توزیع نرمال تبدیل کنیم. روش B به عنوان نسخه بهبود یافته روش A طراحی شده است و ما می خواهیم تکرارپذیری این دو روش را با هم مقایسه کنیم. اگر با یک متغیر سر و کار داشتیم، آنالیزهای مستقل چند نمونه را انجام میدادیم و از آنالیز واریانس برای مقایسه تنوع درون روش و بین روش استفاده میکردیم. اما در اینجا ما با خروجی های چند متغیره سروکار داریم و مایل به انجام یک تحلیل برای هر متغیر نیستیم. رویکردهای صحیح به این سوال چیست؟ # Resolution پاسخ توسط پاسخ gui11aume، اطلاعات مفید و ارزشمندی را ارائه می دهد. من برنامه پایین دستی را از پاسخ gui11aume با 7 تحلیل یک طرفه مطابق با پیشنهاد AdamO تطبیق خواهم داد.
|
چگونه می توان تکرارپذیری نتایج چند متغیره و روش خاص را ارزیابی کرد؟
|
78496
|
من داوطلب دکتری هستم و برای تحقیق پایان نامه خود از دو مقیاس استاندارد شده به عنوان متغیر مستقل استفاده می کنم. از آنجایی که اینها با جمعیت خاص من استفاده نشده است، من نیاز به تأیید اعتبار داشتم. هر دو آلفاهای خوبی تولید کردند، اما وقتی نوبت به CFA رسید، هر دو شکست خوردند. به من گفته شده است که می توانم مدل را ساده کنم و از نمرات جهانی استفاده کنم و آنها را به عنوان متغیرهای مشاهده شده در نظر بگیرم. آیا این حقیقت دارد؟ اگر چنین است، من باید در مورد این موضوع بیشتر بدانم و برای استاد ارشدم توجیهی برای این رویکرد ارائه کنم. نمونه هایی که دیگران این کار را انجام داده اند نیز بسیار مفید خواهد بود!
|
آیا می توانم یک متغیر پنهان را تبدیل کنم به عنوان یک متغیر مشاهده شده در نظر گرفته شود؟
|
78495
|
سندی که سالها پیش خواندم (در رابطه با آموزش اکچوئری؛ متأسفم نمیتوانم به نسخهای پیوند دهم) از تستهای مجذور کای برای ارزیابی عدم تناسب مدلهای مختلف با نرخ مرگ و میر استفاده کرد که بهعنوان دوجملهای (مقیاسشده) یا دوجملهای در نظر گرفته شدند. پواسون یا طبق معمول این قانون از یک قانون کلی برای برخورد با مدلهایی که با «نگاه به دادهها» شناسایی میشوند، از جمله قرار دادن گرهها برای اسپلاینها حمایت میکند: کسر 25 درصد از درجههای آزادی را توصیه میکند (این علاوه بر هر گونه از دست دادن برای تعداد است. پارامترهای برازش شده). اکنون واضح است که آمار حاصل خی دو نخواهد بود، و 25 درصد هیچ اشاره ای به آنچه در واقع انجام شده است ندارد، و سند اعتراف می کند که تا حدودی خودسرانه است (... به نظر من این یک کم بیان بزرگ است) . [این سند حاوی بسیاری از توصیه ها و پیشنهادات کم و بیش گیج کننده دیگر است. این شامل ارجاعات یا منابع کمی برای چنین چیزهایی است، که بیشتر آنها برای چندین دهه بهعنوان شگفتانگیز منتقل شدهاند، اساساً بهعنوان فولکلور تا حدودی موجه، و به نظر میرسد منشأ آنها فراموش شده است. با این وجود، طی یک دوره زمانی، من توانستم منابعی را برای تقریباً همه پیشنهادات و اظهاراتی که قبلاً واضح یا استاندارد نبودند - معمولاً مقالات قدیمی - پیدا کنم. با این حال، این آخری از من فراری است. _او به من تکلیف می کند، و من او را خواهم داشت._ ] حتی اگر توزیع را کنار بگذارم و فقط روی انتظار کار کنم، نمی توانم هیچ راه معقولی برای توجیه هر عدد خاصی ببینم، چه 10٪ یا 50٪ یا هر چیز دیگری. **آیا می توانید منبع احتمالی را در نظر بگیرید که چنین عددی ممکن است توجیهی داشته باشد؟** **در صورت عدم موفقیت، آیا ممکن است راهی برای توجیه/شهود کاهش 25 درصدی درجات آزادی فکر کنید؟* * هر گونه اشاره یا ایده مفید خواهد بود.
|
شهود یا توضیح قاعده سرانگشتی برای از دست دادن درجات آزادی در مربع کای برای انتخاب مدل / قرار دادن گره؟
|
58333
|
من سه مجموعه داده مانند این دارم: data1: {A, A, B, C, D, ..} data2: {A, B, B, C, E, ...} data3: {A, C, D, D, E, ...} چگونه می توانم آزمایش کنم که آیا این سه مجموعه داده از یک توزیع هستند؟
|
اگر سه یا چند مجموعه داده نمونه طبقه بندی شده از یک توزیع هستند، از چه روشی می توان برای آزمایش استفاده کرد؟
|
96885
|
 من مطمئن هستم که این یک سوال بسیار آسان برای کسی است که به خوبی با شبکه های عصبی آشناست، اما من را وادار به دویدن در پیچ و خم کرده است. در حالی که من درک می کنم که چگونه این کار در اصل انجام می شود، یعنی تنظیم مجدد وزن ها با توجه به آستانه ها، اما یک راه حل یا حداقل یک راه حل جزئی بسیار مفید خواهد بود. متشکرم
|
چگونه خروجی این شبکه عصبی را محاسبه کنیم؟
|
30244
|
من 100 متغیر دارم، هر متغیر مجموعه ای از مقادیر بین {0100} دارد. فرضیه صفر من این است: برای همه متغیرها، حداکثر مقدار مجموعه مقادیر بیشتر از 10 نیست چگونه این فرضیه صفر را از نظر آماری آزمایش کنیم؟
|
چگونه می توانم این فرضیه را آزمایش کنم که حداکثر یک توزیع از یک عدد از پیش تعیین شده تجاوز نمی کند؟
|
95136
|
بنابراین، ایده یک آزمون t دو نمونه بسیار ساده است. دو نمونه، هر کدام با مقادیری که از یک مجموعه معین گرفته شده است. تفاوت میانگین دو نمونه - میانگین و واریانس توزیع آن را در نظر بگیرید. سپس، آمار t و در نهایت p-value را با این فرض محاسبه کنید که این تفاوت از توزیع t پیروی می کند. برای مثال وقتی دو نمونه از اعداد صحیح تشکیل شده باشند، این امر منطقی به نظر می رسد زیرا تفاوت می تواند هر عدد صحیحی بین -Inf و +Inf باشد (و میانگین می تواند منطقی باشد). اما در مورد مواردی که دو نمونه فقط از نتایج باینری تشکیل شده اند چه می توان گفت؟ پیوند اینجا - http://stattrek.com/hypothesis-test/proportion.aspx انجام آزمایش جایگشت را پیشنهاد می کند. تنها تفاوت در نحوه محاسبه واریانس است. جدای از آن، آنها همچنان از توزیع نرمال در امتیاز z برای مقدار p استفاده می کنند. با این حال، تفاوت بین میانگین ها در دو نمونه هرگز نمی تواند بیشتر از 1 باشد. اما یک توزیع نرمال در [-Inf,+Inf] زندگی می کند، آیا استفاده از آن برای محاسبه مقدار p مناسب است؟ به طور مشابه برای مواردی که دو نمونه فقط از مقادیر کسری تشکیل شده اند (همه بین [0،1]). چگونه باید مقدار p بدون فرض نرمال بودن محاسبه شود زیرا توزیع نرمال نیست (حداکثر مقدار 1).
|
دو آزمایش نمونه بر روی مقادیر با دامنه های محدود
|
31119
|
من از طریق بسته HMM R کار می کردم و از الگوریتم خلفی و همچنین از الگوریتم Viterbi استفاده کردم: R> hmm = initHMM(c(A,B), c(L,R), transProbs=matrix(c( 0.8،.2،.2،.8)،2)، + emissionProbs=ماتریس(c(.6،.4،.4،.6)،2)) R> مشاهدات = c(L, L, R, R) # محاسبه احتمالات خلفی حالات R> posterior = posterior(hmm, مشاهدات) R> print(pasterior) وضعیت های شاخص 1 2 3 4 A 0.6037344 0.56639 0.43361 0.3962656 B 0.3962656 0.43361 0.56639 0.6037344 R> viterbi = viterbi(hmm,مشاهدات) R> print(viterbi) [1] A A A A بنابراین در مثال بالا اگر من نتایج پسین را در نظر بگیرم و دنباله ای از پنهان را بگیرم با توجه به بالاترین احتمال در هر موقعیت، من A A B B را دریافت می کنم اما الگوریتم ویتربی به من می گوید که دنباله A A A A است سوال من این است که به کدام دنباله اعتماد کنم و چرا؟
|
احتمال پسین در مقابل الگوریتم ویتربی
|
78498
|
فرض کنید هر فرد فقط می تواند یکی از سه رنگ چشم آبی، قهوه ای یا سبز را داشته باشد. علاوه بر این، فرض کنید که من دو بردار دارم که برای N فرد احتمال (شبیهسازی شده) را توصیف میکند که رنگ چشم آن فرد آبی (p1) و رنگ چشم قهوهای (p2) باشد. چگونه می توانم یک رنگ چشم منحصر به فرد را به هر یک از افراد N اختصاص دهم اگر p1 و p2 (بنابراین احتمال داشتن چشم های آبی و قهوه ای) و همچنین وقوع کلی هر رنگ در جمعیت را بدانم؟ توجه داشته باشید که p1 و p2 شبیهسازی شدهاند، بنابراین ممکن است برای یک فرد، هر دو بزرگ باشند (مانند p1>0.8 و p2>0.8).
|
احتمالات نهفته را به تحقق های طبقه بندی شده تبدیل کنید
|
30243
|
من اخیراً با استفاده از الگوریتم MCMC (عملکرد MCMCglmm در R در واقع) برازش مدلهای ترکیبی رگرسیون در چارچوب بیزی را آغاز کردهام. من معتقدم که درک کرده ام که چگونه می توان همگرایی فرآیند تخمین را تشخیص داد (ردیابی، نمودار geweke، خودهمبستگی، توزیع پسین...). یکی از چیزهایی که در چارچوب بیزی به من توجه می کند این است که به نظر می رسد تلاش زیادی برای انجام آن تشخیص ها صرف شده است، در حالی که به نظر می رسد بسیار کمی از نظر بررسی باقی مانده های مدل برازش شده انجام شود. برای مثال در MCMCglmm تابع residual.mcmc() وجود دارد اما در واقع هنوز پیاده سازی نشده است (یعنی برمی گرداند: باقیمانده ها هنوز برای اشیاء MCMCglmm پیاده سازی نشده اند؛ همان داستان برای predict.mcmc()). به نظر میرسد که در بستههای دیگر نیز وجود ندارد، و به طور کلی در ادبیاتی که من پیدا کردهام کمتر مورد بحث قرار گرفته است (به غیر از DIC که به شدت مورد بحث قرار گرفته است). آیا کسی می تواند به من اشاره کند به برخی از منابع مفید، و در حالت ایده آل کد R که می توانم با آن بازی کنم یا آن را تغییر دهم؟ با تشکر فراوان.
|
تشخیص باقیمانده در مدلهای رگرسیون مبتنی بر MCMC
|
108033
|
همانطور که عنوان می گوید، من نتایج جالبی از gbm.perf دریافت می کنم. اولین باری که به مشکل برخوردم بعد از یک اجرا بود که n.trees روی 7000 تنظیم شده بود. وقتی gbm.perf هم 7000 برگشت، مشکوک شدم. بنابراین من آزمایشی را انجام دادم که در آن n.trees 7 بود. مقدار gbm.perf: 7.
|
gbm.perf با روش = test n.trees را از آخرین اجرا برمی گرداند
|
59831
|
من سعی می کنم یک سری زمانی (log_consomation) را در یک ARIMA (p,d,q) با استفاده از «Stata» مدل کنم. بنابراین من با تعیین d با تبدیل سری زمانی خود برای ثابت کردن آن شروع می کنم. سوال من این است که هنگام انجام تست دیکی فولر تقویت شده برای تست ثابت بودن، باید تعداد تاخیرها را انتخاب کنم. آیا این تعداد تاخیرها مربوط به p مدل ARMA(p,q) است که بعداً تخمین می زنم؟ چگونه می توان بدون استفاده از «dfgls» آن را تعیین کرد؟ من سعی کردم از چندین تاخیر مختلف استفاده کنم اما مطمئن نیستم که چگونه انتخاب کنم: جدولی از نتایجی که به دست میآورم اضافه میکنم. dfuller log_consommation, lags(0) regress regress D.log_consommation l1.log_consommation estat ic dfuller log_consommation, lags(1) regress regress D.log_consommation l1.log_consommation l1.(D.log_consommation l1,(D.log_consommation 2 رگرسیون رگرسیون D.log_consommation l1.log_consommation l1.(D.log_consommation) l2.(D.log_consommation) ic dfuller log_consommation، تاخیر(3) رگرسیون D.log_consommation l1.log_consommation l1.log_consommation(D.log_consommation l. l2.(D.log_consommation) l3.(D.log_consommation) ic dfuller log_consommation، تاخیر(4) رگرسیون رگرسیون D.log_consommation l1.log_consommation l1.(D.log_consommation) l2.(D.log_consommation) l2.(D.log_consommation. log_consomation) l4.(D.log_consomation) آماری به دست میآورم: رگرسیونهای آزمون دیکی-فولر افزوده شده و آمار آزمون -- (1) (2) (3) (4) (5) (6) بدون تاخیر 1 تاخیر 2 تاخیر 3 تاخیر 4 تاخیر 5 تاخیر -- L.log_cons~n -0.0137*** -0.0105*** -0.00741*** -0.00678** -0.00662** -0.00574* (-8.06) (-5.12) (-3.40) (-2.96) (-2.76) (-2.31) LD.log_con~n 0.173* 0.181 0.10 (0.110.1) (1.50) (1.28) (1.21) (1.16) L2D.log_co~n 0.283** 0.249** 0.245* 0.228* (3.34) (2.82) (2.62) (2.43) L3D.log_0.7001~n (0.68) (0.57) (0.22) L4D.log_co~n 0.0195 -0.00939 (0.22) (-0.10) L5D.log_co~n 0.119 (1.32) _cons 0.176*** 0.1352 0.135*** 0.135*** 0.135 0*** 0. 0.0855** 0.0743* (8.57) (5.34) (3.52) (3.07) (2.85) (2.39) aic -888.5 -889.0 -890.1 -881.7 -871.4 -871.4 -863.4 -871.4 -863.4 -87.8 -87.8 -87.8 -87.8 bic -854.7 -844.0 t_ADF -8.062 -5.118 -3.399 -2.965 -2.759 -2.310 t آمار در پرانتز * p<0.05، ** p<0.01، *** p<0.001
|
تست های تقویت شده دیکی-فولر: چگونه تاخیر را انتخاب کنیم؟
|
30245
|
فرض کنید $N$ متغیرهای تصادفی مستقل $X_1$، $\ldots$، $X_n$ با میانگین محدود $\mu_1 \leq \ldots \leq \mu_N$ و واریانس $\sigma_1^2$، $\ldots$، $\sigma_N^2$. من به دنبال مرزهای بدون توزیع در مورد احتمال این هستم که هر $X_i \neq X_N$ بزرگتر از سایر $X_j$, $j \neq i$ باشد. به عبارت دیگر، اگر برای سادگی، توزیعهای $X_i$ را پیوسته فرض کنیم (بهطوریکه $P(X_i = X_j) = 0$)، من به دنبال کرانهایی در: $$ P( X_i = \max_j X_j ) \ فضا را در بر می گیرد. $$ اگر $N=2$، میتوانیم از نابرابری چبیشف برای بدست آوردن: $$ P(X_1 = \max_j X_j) = P(X_1 > X_2) \leq \frac{\sigma_1^2 + \sigma_2^2}{ \sigma_1^2 + \sigma_2^2 + (\mu_1 - \mu_2)^2} \enspace. $$ من میخواهم برای $N$ عمومی چند حد ساده (نه لزوماً محکم) پیدا کنم، اما نتوانستم نتایج (از لحاظ زیباییشناختی) خوشایند برای $N$ عمومی پیدا کنم. لطفاً توجه داشته باشید که متغیرها i.i.d فرض نمی شوند. هر گونه پیشنهاد یا ارجاع به کار مرتبط پذیرفته می شود. * * * به روز رسانی: به یاد بیاورید که با فرض، $\mu_j \geq \mu_i$. سپس می توانیم از کران بالا استفاده کنیم تا به: $$ P(X_i = \max_j X_j) \leq \min_{j > i} \frac{\sigma_i^2 + \sigma_j^2}{\sigma_i^2 + \ sigma_j^2 + (\mu_j - \mu_i)^2} \leq \frac{\sigma_i^2 + \sigma_N^2}{\sigma_i^2 + \sigma_N^2 + (\mu_N - \mu_i)^2} \enspace. $$ این به معنای $$ ( \mu_N - \mu_i ) P( X_i = \max_j X_j ) \leq (\mu_N - \mu_i) \frac{\sigma_i^2 + \sigma_N^2}{\sigma_i^2 + \ sigma_N^2 + (\mu_N - \mu_i)^2} \leq \frac{1}{2} \sqrt{ \sigma_i^2 + \sigma_N^2 } \enspace. $$ این به نوبه خود دلالت بر $$ \sum_{i=1}^N \mu_i P( X_i = \max_j X_j ) \geq \mu_N - \frac{N}{2} \sqrt{ \sum_{i= 1}^{N-1} (\sigma_i^2 + \sigma_N^2) } \enspace. $$ من اکنون در تعجب هستم که آیا این کران را می توان به چیزی که به طور خطی به $N$ بستگی ندارد بهبود داد. به عنوان مثال، آیا موارد زیر برقرار است: $$ \sum_{i=1}^N \mu_i P( X_i = \max_j X_j ) \geq \mu_N - \sqrt{ \sum_{i=1}^N \sigma_i^2 } \enspace؟ $$ و اگر نه، چه مثالی می تواند باشد؟
|
چگونه می توانیم احتمال حداکثر بودن یک متغیر تصادفی را محدود کنیم؟
|
3359
|
من به کارایی های ماشه نگاه می کنم، به این معنی که دستگاهی دارم که روی $k$ از $n$ رویدادها فعال می شود. در پایان من به تخمینی از بازده $\epsilon$ علاقه مند هستم که احتمال شلیک در یک رویداد تصادفی داده شده است. با استفاده از یک رویکرد بیزی با قبل یکنواخت بیش از $[0,1]$، میتوانم توزیع احتمال $\epsilon$ را به عنوان توزیع بتا $\beta(\epsilon; k+1، n-k+1)$ مدلسازی کنم. اکنون این سؤال پیش میآید: من کارایی را با استفاده از bootstrapping محاسبه میکنم، به این معنی که بازده ماشه نهایی حاصلضرب دو بازده ماشه است، که هر دو را میتوان به عنوان توزیعهای بتا مدلسازی کرد. چگونه می توانم این محصول دو فایل PDF بتا را برای مقادیر بزرگ $k_{1,2}$ و $n_{1,2}$ به طور موثر محاسبه کنم؟ آیا فرم بسته ای از محصول وجود دارد (آفایک نیست)؟ در حال حاضر من این کار را به صورت عددی انجام می دهم، اما این نسبتاً کند است. این سوال پاسخی دارد که چگونه انتگرال های توزیع بتا را برای مقادیر آرگومان بزرگ ارزیابی کنیم، اما این در اینجا کمکی نمی کند. امیدوارم سوالم واضح باشه و کاملا احمقانه نباشه...
|
محصول توزیع بتا
|
49400
|
چه کسی می تواند به من در حل این تمرین آماری کمک کند؟ زیر مسیر: Caio به یک بانک بروید، تعداد مشتریان جلوتر از او توسط یک متغیر تصادفی پواسون با پارامتر a>0 توصیف می شود. میانگین زمان انتظار را با دانستن اینکه: -زمان انتظار با مجموع زمان خدمت یک نفر محاسبه می شود. - زمانبندی خدمات مشتری که قبل از آن بهعنوان متغیرهای تصادفی، مستقل، با نمایی حاشیهای از پارامتر لامبدا > 0 مدلسازی میشوند. ///// من فکر کردم که میانگین زمان انتظار با قضیه میانگین شرطی داده می شود: E[X]=E[E[X|Y]]; سپس تماس بگیرید: Ta میانگین زمان انتظار -> (Ta=جمع Ts) ,Ts سرویس زمان مشتری ,X تعداد مشتری. E[Ta]=E[E[Ta|X]] درست است؟ الان چیکار کنم؟. با تشکر از همه!
|
میانگین زمان انتظار
|
108035
|
من سعی می کنم از بسته R urca استفاده کنم. دارای توابع cajorls و carools است که به ترتیب رگرسیون OLS VECM محدود و نامحدود را انجام می دهند. هر دو تابع در VECM تخمین زده شده با استفاده از آزمون یوهانسن می گیرند و پارامترهای رگرسیون و بردارهای هم انباشته را برمی گردانند. من نمی دانم چرا نیاز به انجام رگرسیون OLS VECM وجود دارد؟ استفاده از آزمون جوهانسن روی داده ها (با فراخوانی ca.jo) بردارهای هم انباشته کننده را به من می دهد. تفاوت بین بردارهای همجمعی VECM و رگرسیون OLS VECM چیست؟
|
چرا نیاز به انجام رگرسیون OLS VECM وجود دارد؟
|
58339
|
من سعی می کنم نحوه پیش بینی را با بسته rugarch، به ویژه دستور ugarchforecast، درک کنم. من با درک دستور n.roll و out.sample مشکل دارم. دستور n.ahed برای من واضح است. این نشان می دهد که من می خواهم چقدر قدم های آینده را پیش بینی کنم. اگر بیش از 1 دوره باشد، داده های قبلی دیگر کافی نیست و روش از مقدار پیش بینی پیش بینی یک گام جلوتر برای محاسبه پیش بینی دو گام جلوتر استفاده می کند. باشه اینو میفهمم توانایی رول کردن پیش بینی 1 مرحله ای در یک زمان با آرگومان n.roll اجرا می شود که کنترل می کند چند بار پیش بینی n.ahead اجرا شود. آرگومان پیشفرض n.roll = 0 نشاندهنده عدم حرکت است و پیشبینی استاندارد n.ahead را برمیگرداند. از آنجایی که n.roll به دادههای موجود بستگی دارد که بر اساس آن پیشبینی غلبه بر اساس آن است، تابع ugarchfit باید با آرگومان out.sample فراخوانی شود که حداقل به بزرگی آرگومان n.roll باشد، یا در مورد از مشخصات به جای یک شیء مناسب استفاده می شود، آرگومان out.sample مستقیماً در تابع پیش بینی. من نمیخواهم از یک رویکرد چرخشی استفاده کنم، بنابراین نمیخواهم مدل را در هر مرحله دوباره تخمین بزنم، بنابراین نمیدانم n.roll و out.sample چه چیزی به من میدهد؟ منظور از پیش بینی 1 مرحله ای چیست؟ منظورم این است که اگر پیشبینیهای n.ahead=1 را انجام دهم، آنگاه پارامترهای ثابتی دارم، زیرا هر بار مرحلهای مدل را دوباره تخمین نمیزنم و سپس پیشبینیهای ساده یک گام جلوتر را انجام میدهم. بنابراین من از یک مشاهده جدید برای انجام پیش بینی استفاده می کنم.
|
rugarch: پیش بینی را درک کنید
|
78729
|
کنجکاو بودم که آیا محدودیت یا رویکردی برای بدست آوردن تخمین های خوب برای یک احتمال از فرآیند تولید زیر وجود دارد یا خیر. فرض کنید 2 مجموعه از اشیاء $A$ و $B$ داریم که هر دو مجموعه بزرگ و احتمالا بی نهایت هستند. فرآیند تولید به این صورت است که $a \ در A$ از توزیع طبقهای بر روی $A$ استخراج میشود. سپس $a$ توزیع طبقهبندی دیگری را بر روی $B$ دیکته میکند که از آن یک $b$ گرفته میشود. از این سناریو میخواهم P($b_i$ | $b_j$) = $\sum_{a \in A} P(b_i | a) P(a | b_j)$ را تخمین بزنم. به عبارت دیگر با توجه به اینکه $b_j$ ایجاد شده است، چه احتمالی وجود دارد که $b_i$ بتواند به جای آن تولید شود؟ من به برخی از محدوده ها یا رویه هایی علاقه مند هستم که می توانند به من کمک کنند تا این را با نمونه برداری از $a$ کافی تخمین بزنم. اگر کسی با مدلی آشنا باشد که می تواند در این شرایط استفاده شود، بسیار عالی خواهد بود.
|
مرزها (یا مدل) برای تخمین احتمال از فرآیند تولید
|
31115
|
دوست من استیکر جمع می کند. 200 استیکر منحصر به فرد برای چسباندن به آلبوم وجود دارد. همانطور که آلبوم کاملتر می شود، کمتر و کمتر احتمال دارد که برچسبی که به تازگی به دست آورده اید در آلبوم نباشد. من احتمال گرفتم که هر استیکر به یک اندازه به دست آید و تعداد مورد انتظار استیکرهایی که برای پر کردن کامل آلبوم لازم است جمع آوری شود، یعنی 200 استیکر منحصر به فرد به دست آمده است، مجموع انتظار 200 استیکر تصادفی هندسی است. متغیرها: $E(n) = \sum_{x=1}^{200} \frac{200}{x} \approx 1176$ 1. آیا این درست است؟ 2. من واریانس را، تحت فرض (در مورد او، بسیار غیر واقعی) استقلال، به عنوان مجموع واریانس های این متغیرهای تصادفی محاسبه کردم. آیا این درست است؟ $Var(n) = \sum_{x=1}^{200} \frac{1-\frac{x}{200}}{(x/200)^2} \تقریباً 64422 دلار. 3. چگونه می توانم به او فاصله اطمینانی در مورد تعداد استیکرهایی که به احتمال زیاد باید برای کامل کردن آلبوم جمع آوری کند، بدهم؟ PS: این تکلیف نیست که من از روی کنجکاوی میپرسم، اما هیچ برچسب مناسبی پیدا نکردم و فکر میکنم کمی شبیه به تکالیف است.
|
فاصله اطمینان برای تعداد آزمایشها قبل از مشاهده هر نتیجه در فضای نمونه؟
|
96657
|
Stata دارای تابع بسیار مفید «ivprobit» است. به عنوان مثال: از http://www.stata-press.com/data/r11/laborsup.dta استفاده کنید ivprobit fem_work fem_educ kids (other_inc = male_educ) آیا بسته ای برای انجام این کار در R وجود دارد؟
|
IV Probit در R؟
|
78722
|
من دو شکل برای ضرایب تخمینی دیدهام، نمیدانم تفاوت چیست (اگر وجود داشته باشد)، یا چیزی را از دست دادهام: از مدلهای رگرسیون کتاب $$b = (X'X)^{-1}(X 'X)Y$$ از ویکی پدیا و سخنران من $$b = (X'X)^{-1}(X')Y$$
|
فرم بسته برای ضرایب رگرسیون چندگانه
|
31113
|
کد زیر PredictNew <- predict (glm.fit، newdata = پیش بینی، X1 =X1، Y1 = Y1، type = response، se.fit = TRUE) یک data.frame 3 ستونی تولید می کند - PredictNew، مقادیر برازش شده، خطاهای استاندارد و یک ترم مقیاس باقیمانده. عالی... با این حال با استفاده از مدلی که با «zeroinfl {pscl}»: PredictNew <- پیش بینی کنید (zeroinfl.fit، newdata = پیش بینی، X1 =X1، Y1= Y1، type = response، se.fit = TRUE) یا PredictNew <- پیش بینی (zeroinfl.fit, newdata = Predict, X1 =X1, Y1= Y1, type = response, se.fit = TRUE، MC = 2500، conf = 0.95)) تنها یک بردار ستونی با مقادیر برازش ایجاد می کند. با این حال، من بسیار مشتاق هستم که خطاهای استاندارد داشته باشم. همه چیزهایی که خوانده ام می گوید که باید تولید شوند.. (کد تا حدودی ساده شده است، من در واقع چهار متغیر و یک افست دارم - هیچ مشکلی با predict.glm و se.fit = TRUE تولید کننده SE نیست.)
|
چگونه می توان خطاهای استاندارد را از رگرسیون داده های شمارش صفر صفر دریافت کرد؟
|
78725
|
من در حال انجام تحلیلی هستم که به میزان مشارکت فردی رایدهندگان میپردازد که در آن 1 برای رای دادن و 0 برای عدم رای دادن است. من اطلاعاتی در مورد افراد از جمله سن، جنسیت و چندین سال سابقه رای دادن در گذشته دارم. من همچنین میتوانم اطلاعات را به صورت جغرافیایی کدگذاری کنم و انواع دیگر دادههای گروهبندی شده یا خوشهای از جمله سطح ناحیه مدرسه، سطح شهرستان، سطح شهرستان، سطح شهر/روستا، و گروه بلوک و دادههای سطح بلوک سرشماری را اضافه کنم. از آنجایی که من چندین سال گذشته از داده های سابقه رای دهندگان دارم، می خواهم داده های خاص سال مانند داده های نظرسنجی، نرخ بیکاری، درآمد شخصی و غیره را اضافه کنم. سوال من دو برابر است، آیا GLMM بهترین راه حل برای این مشکل است؟ اگر چنین است، من در تعیین اینکه کدام سطح داده (سطح جغرافیایی یا سطح سال/زمان) باید در خط موضوع ساختار داده باشد، و کدام داده (در صورت وجود) باید در خط اندازه گیری های مکرر باشد، مشکل دارم. من معتقدم (و اگر اشتباه می کنم مرا تصحیح کنید) که داده های سطح جغرافیایی باید در بخش موضوع و سال/زمان باید در بخش اندازه گیری های مکرر باشد. هر فکری؟
|
مشاوره راه اندازی ساختار داده SPSS GLMM
|
31110
|
آیا کسی می تواند یک مرجع مقدماتی را توضیح دهد یا به من اشاره کند که به مفهوم پراکندگی در مدل سازی بیزی می پردازد؟ مفهوم پراکندگی واقعاً به چه معناست؟ القای پراکندگی به چه معناست؟ چگونه «پیشهای پراکنده» شناسایی و استفاده میشوند؟ در واقع آنها چه هستند؟
|
القای پراکندگی در مدل بیزی
|
67200
|
من میدانم که آزمونهای چندجملهای و آزمونهای دوجملهای هر دو آزمونهای نسبت احتمال برای آزمایش هستند اگر نمونهای دارای توزیع طبقهبندی یا برنولی باشد. تستهای G همچنین تستهای نسبت احتمال برای آزمایش هستند اگر نمونهای دارای توزیع خاصی باشد. بنابراین سوال من این است: آیا تست های چند جمله ای و دو جمله ای متعلق به تست های G هستند؟ با تشکر
|
آیا تست های چند جمله ای و دو جمله ای متعلق به تست های G هستند؟
|
44351
|
با توجه به یک جمعیت محدود منفرد به اندازه N، اگر من نمونههای تصادفی S را از دادهها به دست بیاورم (بعد از هر یک جایگزین کنیم)، و به طور تصادفی آنها را به 2 مجموعه از نمونههای تصادفی S/2 تقسیم کنم، آیا میتوانم این دو توزیع نمونه را از نظر آماری مستقل در نظر بگیرم؟ اگر به نحوی بتوانم موارد تکراری را شناسایی کنم، آیا این دو مجموعه از نظر آماری مستقل هستند؟
|
استقلال آماری ترکیب نمونه های تصادفی
|
58338
|
پاسخ به صورت $\frac{Control-Observation}{Control}*100\%$ محاسبه شد. مقادیر خام $Control$ و $Observation$ در دسترس نیستند، من فقط مقادیر را محاسبه کرده ام. هر مقدار دو بار اندازه گیری شد. نمودار پراکندگی دو اندازه گیری در شکل ![دو اندازه گیری] (http://i.stack.imgur.com/JYehn.png) ارائه شده است. همانطور که مشاهده می شود، خطا ناهمسان است و به مقدار پاسخ بستگی دارد. توجه داشته باشید که در واقع احتمال اینکه پاسخ محاسبه شده منفی واقعاً منفی باشد بسیار اندک است. بنابراین می تواند از 0 تا 5 (نمره بی ادب) آزمودنی با مقادیر واقعاً منفی وجود داشته باشد، بنابراین همه منفی های دیگر نشان دهنده خطاهای آزمایش هستند. هدف مدل بیشتر پیش بینی است تا ارزیابی اهمیت پیش بینی کننده ها. هنگام برازش مدل، انتخاب متغیر را انجام خواهم داد. من خواندهام که رگرسیون لجستیک یا پروبیت برای مدلسازی درصدها خوب است، اما نحوه برخورد با اندازهگیریهای مکرر و ناهمسانی ناشناخته است. در حال حاضر میخواهم خطای استاندارد متحرک آزمایش را پیدا کنم و سپس از وزنهای مربوطه در لس (یا شاید SVM وزنی) استفاده کنم. 1. چه روشی در مورد توصیف شده مناسب تر است؟ (روش های انعطاف پذیر غیر خطی ترجیح داده می شوند) 2. اگر پیشنهاد من خوب است، چه الگوریتم های غیرخطی وزنی در R موجود است؟ Upd1: در اینجا نمودار مقیاس مکان مدل «response~subject» است که واریانس وابسته باقیماندهها را نشان میدهد! اهداف هدف من توضیح دقیق تنوع بین موضوعات است. بنابراین در حال حاضر من مقادیر متوسط (برای هر موضوع) پاسخ را با پیش بینی کننده های احتمالی برازش می کنم و به هر مقدار میانگین وزن می دهم. من حدود 600 متغیر احتمالی دارم، اگرچه فقط تعداد کمی از آنها (1-5) می توانند مرتبط باشند. در اینجا نمودارهای باقیمانده برای تک متغیره کمکی با بهترین تناسب با و بدون وزن وجود دارد.  هر دو افتضاح هستند. آیا باید این مسیر را برای جستجوی فهرست کامل متغیرهای کمکی مرتبط ادامه دهم؟
|
چه روشی برای مدلسازی درصد پاسخ با هر آزمودنی دو بار اندازه گیری شده و خطای هتروسکداستیک بهتر است؟
|
78723
|
من شش گروه را روی شش وب سایت مختلف آزمایش می کنم که در دو دسته قرار می گیرند (وب سایت های واکنش گرا و وب سایت های تلفن همراه). هر گروه شامل 10 شرکت کننده است. یک گروه به یک سایت در یک دسته امتیاز می دهد. بدون همپوشانی گروه ها با استفاده از مقیاس قابلیت استفاده (10-1) مورد آزمایش قرار گرفتند. یک رویکرد آماری مناسب برای تفسیر داده ها چیست؟ H1 - بین قابلیت استفاده درک شده بین وب سایت های واکنش گرا و وب سایت های تلفن همراه تفاوت وجود خواهد داشت.
|
آزمون فرضیه برای گروه های متعدد در دو محیط
|
31118
|
من آزمایشی را انجام دادم که در آن خانوادههای مختلفی را که از دو جمعیت منبع متفاوت بودند، بزرگ کردم، که در آن هر خانواده به درمانهای متفاوتی تقسیم شد. پس از آزمایش، چندین صفت را در هر فرد اندازهگیری کردم. برای آزمایش تأثیر درمان یا منبع و همچنین تأثیر متقابل آنها، از یک مدل خطی اثر مختلط با خانواده به عنوان عامل تصادفی استفاده کردم، یعنی lme(fixed=Trait~Treatment*Source,random=~1|Family,method= ML) تا اینجا خوب است، اکنون باید مولفه های واریانس نسبی را محاسبه کنم، یعنی درصد تغییراتی که توسط درمان یا منبع و همچنین با توضیح داده می شود. تعامل بدون یک اثر تصادفی، میتوانم به راحتی از مجموع مربعها (SS) برای محاسبه واریانس توضیح داده شده توسط هر عامل استفاده کنم. اما برای یک مدل مختلط (با تخمین ML)، هیچ SS وجود ندارد، بنابراین فکر کردم میتوانم از درمان و منبع نیز به عنوان اثرات تصادفی برای تخمین واریانس استفاده کنم، یعنی lme(fixed=Trait~1,random=~(Treatment*Source )|Family, method=REML) با این حال، در برخی موارد، lme همگرا نمی شود، بنابراین من از lmer از بسته lme4: lmer(Trait~1+(Treatment*Source|Family),data=DATA) جایی که من واریانس ها را از مدل با استفاده از تابع خلاصه استخراج می کنم: model<-lmer(Trait~1+(Treatment*Source|Family) ,data=regrexpdat) results<-model@REmat variances<-results[,3] من همان مقادیری را که با تابع VarCorr. سپس از این مقادیر برای محاسبه درصد واقعی تغییرات با در نظر گرفتن مجموع به عنوان کل تغییرات استفاده می کنم. جایی که من درگیر آن هستم، تفسیر نتایج حاصل از مدل اولیه lme (با درمان و منبع به عنوان اثرات ثابت) و مدل تصادفی برای تخمین مولفه های واریانس (با درمان و منبع به عنوان اثر تصادفی) است. من در اغلب موارد متوجه می شوم که درصد واریانس توضیح داده شده توسط هر عامل با اهمیت اثر ثابت مطابقت ندارد. به عنوان مثال برای صفت HD، lme اولیه تمایل به تعامل و همچنین اهمیت برای درمان را نشان می دهد. با استفاده از یک روش معکوس، متوجه شدم که درمان تمایلی نزدیک به قابل توجه دارد. با این حال، با تخمین مولفههای واریانس، متوجه میشوم که Source بیشترین واریانس را دارد که تا 26.7٪ از کل واریانس را تشکیل میدهد. lme: anova(lme(fixed=HD~as.factor(Treatment)*as.factor(source),random=~1|as.factor(Family),method=ML,data=test),type= m) numDF denDF F-value p-value (Intercept) 1 426 0.044523 0.8330 as.factor(Treatment) 1 426 5.935189 0.0153 as.factor(Source) 1 11 0.042662 0.8401 as.factor(Treatment):as.factor(Source) 1 426 3.754113 و 3.750113 خلاصه (lmer(HD~1+(as.factor(درمان)*as.factor(منبع)|خانواده)،data=regrexpdat)) مدل ترکیبی خطی متناسب با فرمول REML: HD ~ 1 + (به عنوان عامل(درمان) * as.factor(Source) |. داده ها: regrexpdat AIC BIC logLik deviance REMLdev -103.5 -54.43 63.75 -132.5 -127.5 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Family (Intercept) 0.0113276 0.106431 as.factor (درمان) 0.0063710 0.079819 0.405 as.factor (منبع) 0.0235294 0.153393 -0.1574 -0.153393 -0.1574 as.factor(Treatment)L:as.factor(Source) 0.0076353 0.087380 -0.578 -0.589 -0.585 Residual 0.0394610 0.198648 تعداد obs: 441، گروهها: Fi. مقدار خطای t (Intercept) -0.02740 0.03237 -0.846 از این رو سؤال من این است که آیا کاری که من انجام می دهم درست است؟ یا باید از روش دیگری برای تخمین مقدار واریانس توضیح داده شده توسط هر عامل (یعنی درمان، منبع و تعامل آنها) استفاده کنم. به عنوان مثال، آیا اندازه های افکت راه مناسب تری برای استفاده است؟ با تشکر کی لوچک
|
نحوه تخمین مولفه های واریانس با lmer برای مدل های دارای اثرات تصادفی و مقایسه آنها با نتایج lme
|
43112
|
من در حال مقایسه مقادیر آنتروپی شانون (برای اشغال منطقه) هستم که توسط بازیکنان فوتبال در طول بازی های کوچک در ابعاد سه زمینی به دست آمده است. من همچنین تفاوت های بین سطح تخصص (بازیگران در سطح ملی یا منطقه ای) را بررسی می کنم. بنابراین، من از یک مدل خطی عمومی RM ANOVA استفاده کردم، با فاکتور درون موضوعی 3 بعد زیر و بم و عامل بین موضوع تخصص (2 سطح - ملی و منطقه ای). من نرمال بودن تک متغیره و چند متغیره را بررسی کرده ام و مشکلی ندارد، اما من فقط 16 شرکت کننده دارم (8 بازیکن منطقه ای و 8 بازیکن ملی). آیا انجام این آزمایش مشکلی ندارد، حتی اگر مسائل عادی وجود نداشته باشد؟ من همچنین اثر متقابل قابل توجهی بین pitch_dim*expertise دریافت کردم. برای بررسی دقیق تفاوتهای آماری، آیا انجام یک آزمون t مستقل با نمونهبرداری مجدد 1000 بوت استرپ را توصیه میکنید (از آنجایی که من فقط 8 بازیکن در هر گروه دارم)؟
|
اندازه نمونه RM-ANOVA
|
67208
|
من در حال ساخت یک برنامه کوچک برای محاسبه خوشه ها از مجموعه ورودی هستم (ماتریس n x p). پس از اتمام اجرای الگوریتم برای بدست آوردن k خوشه، مرکز هر خوشه (ماتریس k x p) را نیز بدست میآورم. سپس من باید نتایج را رسم کنم، بنابراین Principal Components Analysis را اجرا می کنم تا مجموعه ورودی را در 2 بعد (یک ماتریس n x 2) ترسیم کنم. مشکل من این است که می خواهم مرکز هر خوشه را در همان نمودار رسم کنم. اما من مطمئن نیستم که چگونه ماتریس مرکزها (k x p) را در ماتریس k x 2 پیش بینی شده نگاشت کنم. من قبل از اجرای الگوریتم PCA این کار را با افزودن centroids به عنوان ورودی جدید به مجموعه ورودی انجام میدادم، اما فکر میکنم این کار مقداری سوگیری به فرآیند اضافه میکند. چگونه می توانم این کار را انجام دهم؟
|
ابعاد مجموعه داده و مرکز خوشههای آن را کاهش دهید
|
31114
|
من یک مدل چندسطحی مختلط را در R با استفاده از بسته nlme برازش میکنم، و نمیدانم تفاوت بین ساختارهای کوواریانس «corAR1» و «corCAR1» چیست. کسی میتونه کمکم کنه؟
|
تفاوت بین ساختارهای همبستگی corAR1 و corCAR1 چیست؟
|
93448
|
من سعی می کنم توزیع یک متغیر را تخمین بزنم. اولین قدم برای انجام این کار ترسیم یک نمودار احتمال عادی است. این چیزی است که من به دست آورده ام (با استفاده از R): qqnorm(x) qqline(x)  این هیستوگرام داده ها است :  همانطور که می بینید، یک الگوی درجه دوم در نمودار احتمال عادی وجود دارد، اما بیشتر نقطه بالاتر از خط مرجع قرار می گیرد. هدف نهایی این تجزیه و تحلیل، شناسایی نقاط پرت است. تخمین توزیع این متغیر به من این امکان را می دهد که آستانه تنظیم برای تعیین مقادیر پرت را تعیین کنم. چه چیزی از نمودار نرمال و هیستوگرام، از نظر توزیع x و نقاط پرت، می توانیم استنباط کنیم؟ متشکرم!
|
تخمین توزیع یک متغیر
|
11440
|
آیا کسی می داند که چرا هنگام تخمین مدل توبیت نمی توان باقیمانده های استاندارد شده را محاسبه کرد؟ در اینجا یک مثال کوتاه از چیزی است که من در مورد آن صحبت می کنم: > نیاز (AER) # برای دستورات تخمین توبیت > نیاز (MASS) # برای محاسبه باقیمانده های استاندارد شده > تعداد داروها <- rpois(84, 5)+1 > Healthvalue <- rpois( 84،5) > توب <- توبیت(ارزش سلامت ~ تعداد داروها) > باقیمانده ها(توب) # خوب کار می کند > stdres(tob) # خوب کار نمی کند مشکل کجاست؟
|
باقیمانده های استاندارد شده یک مدل توبیت در R
|
29600
|
من در حال بررسی تأثیر 3 مداخله مختلف بر روی DV با سن و جنسیت هستم که در مدل من گنجانده شده است. اکنون، کنجکاو هستم که آیا میتوانم دقیقاً همان تحلیلها را برای آزمایش عدم حقارت اعمال کنم؟ به طور خاص، همانطور که جدول ANOVA را بررسی می کنم، تفاوت میانگین تعدیل شده بین مداخله 2 و مداخله 1 (و مداخله 3 و مداخله 1 برای آن موضوع) به من ارائه می شود. آیا من درست فکر میکنم که میتوانم از این تفاوتها + خطاهای استاندارد (همچنین در جدول ANOVA) برای ایجاد 95٪ CI از تفاوت میانگینها (دوباره، بین I1 و I2 و I1 و I3) برای آزمایش عدم وجود استفاده کنم. حقارت پس از تصمیم گیری در مورد آستانه مناسب غیر حقارت؟
|
تست عدم حقارت با ضرایب و خطاهای استاندارد از جدول ANOVA در MLR؟
|
34096
|
من یک مجموعه داده چند متغیره دارم که در طول زمان تغییر می کند. من برخی از ویژگی ها را استخراج کرده ام (و عادی سازی کرده ام) و از k-means برای تولید خوشه ها در کل گستره مجموعه داده استفاده کرده ام. اکنون میخواهم ببینم که آیا خوشهها در طول زمان به طور قابل توجهی تغییر میکنند یا خیر. بنابراین، کار معکوس، و در نتیجه کاهش مجموعه داده تا x-ماه، آیا می توانم کاهش قابل توجهی را در خوشه های خاص مشاهده کنم؟ به نظر من این می تواند در حوزه خوشه بندی سری های زمانی قرار گیرد. من امیدوار بودم که از پیچیده کردن رویکرد جلوگیری کنم، زیرا خوشهها در حال حاضر معنادار هستند و رویکرد نسبتاً ساده است. لطفاً کسی می تواند مرا راهنمایی کند که چگونه این کار را انجام دهم؟ شهود من این است که مجموعه دادهها را ماههای x کاهش دهم و سپس دادهها را برای مقایسه (با استفاده از k-means) خوشهبندی کنم. با این حال، من ممکن است قوانین را در اینجا زیر پا بگذارم و یک مشکل پیچیده را بیش از حد ساده کنم.
|
خوشه بندی و سری زمانی
|
43114
|
فقط کنجکاو بودم من داشتم این فیلم کمیک دکترا رو نگاه میکردم که یکی از اساتید میگه مقالات رو طوری درجه بندی کنید که توزیع گوسی با میانگین 81 و انحراف معیار 12 داشته باشه. من کمی گیج شدم، برای بدست آوردن اطلاعات برای دنبال کردن چنین توزیعی، باید داده ها یا نمره هایی که قبلا داده ام را تغییر دهید. آیا روش استانداردی برای این کار وجود دارد؟ منظورم این است که بگوییم قبلاً نمره داده ام. بنابراین چگونه می توانم آن را به توزیع داده شده تغییر دهم
|
نحوه تبدیل به توزیع گاوسی با میانگین و انحراف استاندارد
|
103413
|
من از تابع 'fourier()' R استفاده می کنم که دارای آرگومان های x,h,K است. لطفاً هر بدنی می تواند به من توضیح دهد که K در این عملکرد چیست و چه کاربردی دارد. پیشاپیش ممنون
|
K در تابع فویر R چیست؟
|
103410
|
1. من یک مدل GBM در R با تابع ضرر به عنوان bernoulli و n.trees=1000 اجرا کردم. من میخواهم وزنهای تعیینشده برای پیشبینیهای 1000 درخت را ببینم. آیا دستوری در R وجود دارد که این کار را انجام دهد؟ 2. چگونه GBM گره ها را در حین ساخت درختان تقسیم می کند؟ چگونه اولین متغیری را که در هنگام ساختن درخت طبقه بندی تقسیم می شود، تعیین می کند؟ آیا از ایندکس جینی استفاده می کند یا بهره اطلاعاتی؟ 3. آیا از الگوریتم نزول گرادیان برای تخمین وزن پیش بینی های هر درخت استفاده می شود؟ اگر نه، برای چه استفاده می شود؟
|
چگونه می توانم وزن پیش بینی های اختصاص داده شده به هر درخت در GBM را با استفاده از R تخمین بزنم؟ چگونه GBM گره ها را تقسیم می کند؟
|
86013
|
من در مورد محاسبه در مشکل زیر سردرگم هستم. به ما Var(X) و Var(e) داده شده است، اما عبارت 2^2 از کجا آمده است (یا این یک Z^2 است؟)؟ در اینجا از چه فرمولی برای محاسبه واریانس استفاده می شود؟ 
|
محاسبه واریانس Y در مدل رگرسیون خطی با توجه به واریانس X و e که e = عبارت خطا
|
25956
|
چه فرمولی در تابع انحراف معیار `sd` در R استفاده می شود؟
|
چه فرمولی برای انحراف معیار در R استفاده می شود؟
|
109072
|
تلاش برای ساخت یک معماری شبکه عصبی خاص و آزمایش آن با استفاده از اعتبارسنجی متقاطع 10 برابری یک مجموعه داده. اکنون ساختن مدل کار خسته کننده ای است و Weka از من انتظار دارد که برای هر یک از 10 برابر آن را 10 بار بسازم. آیا نمی توانم فقط برای اولین بار مدل را بسازم و از weka بخواهم که از همان مدل برای 9 تای باقی مانده استفاده کند؟ همچنین، از آنجایی که ساخت شبکه های عصبی در weka بسیار آسان است، آیا می توانم ساختار شبکه عصبی را برای استفاده بیشتر به matlab وارد کنم؟
|
مدل اعتبارسنجی متقاطع 10 برابری در weka
|
67209
|
من یک مبتدی هستم که سعی می کنم با استفاده از ترکیبی از فروش قبلی (مدل AR فصلی)، شاخص های کلان اقتصادی مانند CPI، شاخص احساسات مصرف کننده و غیره، فروش خودرو را پیش بینی کنم و مهمتر از آن، از داده های هفتگی از روندهای جستجوی گوگل برای خودرو استفاده می کنم. و متغیرهای دیگر از دسته (خودرو) در ترندهای گوگل. (کد با استفاده از مقاله Choi و Varian در سال 2009 ایجاد شد). این مدل اساساً به مدت سه هفته قبل از ماه مورد نظر به شاخصهای روند جستجو نگاه میکند. در حال حاضر، به نظر میرسد که مدل نسبتاً رضایتبخش عمل میکند، با میانگین خطای متوسط = 5.4 (فروش ماهانه در محدوده 10000 است)، اما روندهای فصلی واضحی در تفاوت بین متغیرهای پیشبینیشده و فروش واقعی وجود دارد که به نظر میرسد منطبق باشند. با تبلیغات فروش و سایر رویدادهای تبلیغاتی. بنابراین سوال من این است: چگونه می توانم این روندهای فصلی را در حین استفاده از GBM در نظر بگیرم؟ یا برای مدل خطی؟
|
در نظر گرفتن فصلی بودن هنگام استفاده از تقویت گرادیان
|
29609
|
من در سطح مقدماتی آمار را برای کسب و کار می خوانم و در رسیدگی به حجم اطلاعات مشکل دارم، تا حدی به این دلیل که بعد از 5 سال برای مطالعه برمی گردم و آمار زیادی در مدرسه انجام ندادم. من توزیع دوجمله ای، استنتاج و انواع «خطاها» در کتاب درسی ام را نمی فهمم. من در 2 تکلیف اول، بر اساس الگوهای اکسل ارائه شده توسط دوره و برخی تفکر عقل سلیم، به خوبی انجام دادم. سوال من این است که چند نکته کلیدی که باید در مورد آمار بدانم چیست؟ از هر کمکی قدردانی می کنم.
|
اهداف برای دانش آموزان در یک دوره مقدماتی
|
73867
|
$\rho$ در اینجا یک همبستگی خطی نامیده می شود. آیا این همبستگی دلالت بر همبستگی ساختاری یا جمعیتی بین دو متغیر X و Y دارد؟
|
$\rho$ در معادله چیست $b = \text{Cov}(X,Y)/\text{Var}(X) = \rho \sqrt{{\rm Var}(Y)} / \sqrt{ {\rm Var}(X)}$ در رگرسیون
|
31116
|
امیدوارم کسی بتواند در مورد این سوال به من کمک کند. برای مطالعه، من یک تجزیه و تحلیل مسیر انجام دادم که به این صورت است: IV --> Mediatior --> DV IV --> بنابراین من دو IV منتهی به واسطه خود دارم. با SPSS دو تحلیل رگرسیون از IV تا Mediator انجام دادم. اکنون میخواهم آزمایش کنم که آیا دو ضریب رگرسیون تفاوت معنیداری با یکدیگر با استفاده از SPSS دارند یا خیر، اما نمیدانم چگونه این کار را انجام دهم. با این تفاوت که من فرض می کنم که باید از آزمون تی استفاده کنم، اما نمی دانم چگونه. من دو ضریب رگرسیون، انحراف معیار آنها و N خود را دارم (این n برای هر دو رگرسیون یکسان است، زیرا همه از یک نمونه است). من گمان می کنم که این برای برخی بسیار ابتدایی است، اما مهارت های من در آمار چندان عالی نیست. بنابراین کمک بسیار قدردانی خواهد شد!
|
آزمایش اینکه آیا دو ضریب رگرسیون به طور قابل توجهی متفاوت هستند یا خیر
|
34094
|
ویرایش شده تا یکی از توزیعهای گاما را به یک توزیع نمایی محدود کند، و هر دو معنی را به 1.0 وادار کند، و پیوندهای آلفای wolfram را اضافه کند: من دو توزیع دارم، هر دو با میانگین 1، و میخواهم cdfهای آنها را با $0 \lt مقایسه کنم. x \lt 1$. یکی از توزیع ها نمایی و توزیع دیگر گاما است. من فکر می کنم که در دامنه $0 \lt x \lt 1$، cdf توزیع نمایی همیشه حداقل به اندازه توزیع گاما است، اما من هنوز نتوانسته ام آن را ثابت کنم. توزیع نمایی علاقه به طور کامل با میانگین آن 1.0 مشخص شده است و می توان آن را برای مثال در اینجا یا اینجا با استفاده از wolfram alpha مشاهده کرد. توزیع گامای علاقه مجبور است میانگین 1.0 داشته باشد اما در مقایسه با توزیع نمایی دارای درجه آزادی بیشتری است. من میخواهم توزیع گاما توزیعی با میانگین 1.0 باشد که با جمع کردن $k \ge 1$ i.i.d توزیعهای نمایی هر کدام با میانگین $1 / k$ بدست میآید. با استفاده از نماد wolfram alpha این را می توان در اینجا مشاهده کرد (لینک شکسته). توجه داشته باشید که وقتی $k=1$ توزیع گاما برابر با توزیع نمایی با میانگین 1.0 است و به طور کلی cdf آن $\Pr(X \le x) = Q(k, 0, k x)$ است. این نمودار آلفای ولفرام (پیوند شکسته) نشان می دهد که برای چند $k$ و برای $x \in (0,1)$، به نظر می رسد cdf به عنوان تابعی از $x$ افزایش و به عنوان تابعی از $k کاهش می یابد. $. من می خواهم بتوانم یکنواختی را در $k$ ثابت کنم. یکنواختی در $x$ فقط نتیجه تعریف cdf است. توجه داشته باشید که یکنواختی در $k$ ادامه نمی یابد (پیوند شکسته) هنگامی که $x \ge 1$ است.
|
آیا cdf چپ از میانگین توزیع نمایی بیشتر از توزیع گاما است؟
|
57200
|
من به نوعی در مورد بهترین گزینه برای تجزیه و تحلیل این داده ها مطمئن نیستم. در اینجا مورد مطالعه من است: متغیر پاسخ یک معیار مورفومتریک است، برای هر فرد. در طول 10 سال، مثلاً 2000-2009، افراد برای جمع آوری داده ها (متغیر پاسخ) در طول دو ماه خاص (همیشه در طول دوره مطالعه یکسان) در تعداد متغیری از موارد به میدان رفتند. به عنوان مثال، در سال 2000 داده ها از سه نظرسنجی انجام شده در روزهای 4، 40 و 56، در سال 2001 داده ها از دو نظرسنجی انجام شده در روزهای 10 و 49، در سال 2002 داده ها از چهار نظرسنجی انجام شده در روزهای 2، 34، و 45 بدست آمده است. و 60 و غیره. عدد روز زمانی که اولین روز فاصله دو ماهه مشخص شود برابر با 1 و زمانی که آخرین روز آن فاصله دو ماهه باشد برابر با 60 است. تعداد مشاهدات (اندازه گیری از افراد) برای هر نظرسنجی یکسان نیست، اما یک فرد هرگز دو بار نمونه گیری نمی شود. همچنین، برای هر سال من یک مقدار منحصر به فرد از سه متغیر محیطی دارم - من علاقه مندم ببینم آیا اینها با متغیر پاسخ من تعامل دارند یا خیر. بنابراین، پیشبینیکنندههای من از یک سو، روزی هستند که اقدامات از آن آغاز شد و از سوی دیگر متغیرهای محیطی. همانطور که می بینید، مطالعه کاملا نامتعادل است. من سعی میکنم این دادهها را با استفاده از یک مدل اثرات مختلط تحلیل کنم که در آن متغیر پاسخ به روز به اضافه سه متغیر محیطی بستگی دارد و عامل تصادفی آن بررسی خواهد بود (شمارهگیری از 1 برای اولین نظرسنجی در سال 2000 و مثلاً 49 برای آخرین بررسی در سال 2009) در زیر سال قرار گرفت. در «R» کد «nlme» این است: mixmod <- lme(morph ~ poly(day) + env1 + env2 + env3, random=~1|year/survey, data=data) که در آن «poly(day)» تست می شود برای اثر خطی و درجه دوم «روز» و جایی که «env1»، «env2» و «env3» متغیرهای محیطی هستند و به صورت تصادفی ساختار به عدد پیمایش تو در تو در سال اشاره دارد. من نرمال بودن و homoskedastic بودن باقیمانده ها را بررسی کرده ام. من واقعاً از هر نظر و پیشنهادی در این مورد سپاسگزارم.
|
مدل جلوه های ترکیبی برای طراحی شدیدا نامتعادل
|
3826
|
چگونه می توان d کوهن و فواصل اطمینان را پس از لاجیت در Stata محاسبه کرد؟
|
چگونه می توان d کوهن و فواصل اطمینان را پس از لاجیت در Stata محاسبه کرد؟
|
3822
|
من 6 ماتریس شباهت دارم که نزدیکی 100 جفت صدا را منعکس می کند. شاخصهای شباهت در محدوده [0،1] قرار دارند و مقادیر بالاتر نشاندهنده صداهایی است که شبیهتر درک میشوند. مناسب ترین معیاری که می توانم برای تخمین پایایی بین ارزیاب بین آنها استفاده کنم چیست؟ خیلی ممنون
|
قابلیت اطمینان بین ارزیاب بین ماتریس های شباهت
|
25953
|
من لیستی از جفت های (x,y) دارم که یک خوشه از نقاط را تشکیل می دهند. من توانستم میانگین خوشه را پیدا کنم، اما دوست دارم بتوانم انحراف معیار خوشه را پیدا کنم. چگونه می توانم انحراف معیار را تعریف کنم؟ من میانگین را به عنوان نقطه تعریف کردم (میانگین مقادیر x، میانگین مقادیر y). چه نوع مقدار انحراف استاندارد برای خوشه هایی مانند این معمول است؟ تصور میکنم میتوانم انحراف معیار گسترش یا چیزی شبیه به آن را داشته باشم؟ این خوب به نظر می رسد. گاوسی روی یک خوشه:  **چگونه این کار را انجام دهم؟**
|
انحراف معیار یک خوشه
|
103411
|
من از روش بوت استرپ برای اعتبارسنجی داخلی یک مدل چند متغیره استفاده می کنم که با رگرسیون لجستیک استاندارد یا شبکه الاستیک ساخته شده است. روشی که من استفاده می کنم به شرح زیر است: 1) ساخت مدل با استفاده از کل مجموعه داده، به دست آوردن مقادیر پیش بینی شده، و محاسبه AUC (AUC_ap، ظاهری) 2) تولید 100-500 نمونه بوت استرپ مشتق شده از مجموعه داده اصلی 3) برای هر نمونه بوت استرپ، دنبال کنید. رویه مشابه در شماره 1، و بدست آوردن مقادیر پیش بینی شده و auc برای i) نمونه بوت استرپ فعلی، و 2) مجموعه داده اصلی 4) محاسبه تفاوت بین i) و ii) (در شماره 3) برای هر یک از 100-500 نمونه بوت استرپ، و میانگین --> خوش بینی را در نظر بگیرید. بهتر است در یک مقاله ارائه شود؟ به عنوان مثال، ROC مشتق شده در مرحله شماره 1 یک انتخاب است، اما به وضوح خوش بینانه است. روش دیگر، من سعی کردهام یک ROC متوسط را با استفاده از بسته R ROCR بر اساس منحنیهای ROC مشتق شده در مرحله 3 (ii) ایجاد کنم. با این حال، AUC برای [میانگین این منحنیهای ROC] به نظر من معادل مقدار بهدستآمده در مرحله 5 نیست. هر ورودی بسیار قدردانی می شود! -م
|
اعتبار سنجی داخلی از طریق بوت استرپ: چه منحنی ROC ارائه شود؟
|
109073
|
* من 50 سند متنی دارم * 500 کلمه ممکن است، پس از اعمال لیست توقف وجود دارد * ماتریس پراکنده عبارت/سند من 50x500 است بنابراین میخواهم این اسناد را خوشهبندی کنم. یک راه آسان برای انجام این کار از طریق k-means است، اما این کار مستلزم ارائه مختصات هر سند در یک نمودار 2 بعدی است. من شنیده ام که می توانم بردارهای طولانی 500 کلمه ای را با استفاده از کاهش ابعاد، به ویژه PCA کاهش دهم. آیا این واقع بینانه است که بتوانم ماتریس 50x500 خود را به یک جدول 50x2 کاهش دهم و آن مقادیر را رسم کنم؟
|
کاهش ابعاد (PCA) برای رسم اسناد متنی بر روی یک نمودار
|
3820
|
از من یک سوال پرسیده شده است - اگر مقداری sd را محاسبه کنم، آیا می توانم یک مقدار را تغییر دهم و همچنان همان sd را حفظ کنم. پاسخ به سادگی بله است. به عنوان مثال: sd(c(2,3,4)) sd(c(3,4,5)) اما چیزی که در آن زمان تعجب کردم این است که با فرض تغییر مقادیر k، تحت چه قوانینی آنها را تغییر می دهید تا همیشه این مقدار را حفظ کنید. همان sd (آیا این درست است که بپرسیم درجات آزادی در اینجا چقدر است؟!) من مطمئن نیستم که چگونه این برای هر چیز عملی صدق می کند، اما تصور می کنم مقدار زیادی کار نظری روی چنین سؤالاتی وجود داشته است - اما نمی دانم کجا حتی به دنبال آنها بگردم با تشکر
|
چه زمانی sd ثابت می ماند، حتی پس از تغییر مقادیر در نمونه؟
|
103414
|
من در حال انجام آزمایشاتی بر روی مجموعه داده ای هستم که به راحتی جمع آوری شده است. این یک مجموعه داده مبتنی بر داده های تاریخی است که بیشتر آنها دیجیتالی نیستند. من توزیع دقیق داده های تاریخی را می دانم اما خود داده ها را ندارم. در عوض من یک زیر مجموعه ناقص دارم. با نگاهی به توزیع این زیرمجموعه با مجموعه کامل کاملاً متفاوت است. من میتوانم با انتخاب تصادفی انتخابی با توزیع مشابه دادههای تاریخی، نمونهام را مجبور کنم که توزیع یکسانی داشته باشد. سوال من این است که آیا این ایده خوبی است یا خیر؟ آیا با داشتن یک مجموعه بزرگتر با توزیع متفاوت یا یک مجموعه توزیع شده منطبق کوچکتر سود بیشتری کسب می کنم؟ با تشکر فراوان
|
نمونه گیری آسان - اجبار توزیع؟
|
23468
|
اخیراً در مورد مفهوم منظم سازی مفاصل در بینایی کامپیوتر مطالب زیادی مطالعه کرده ام. منظمسازی مشترک مبتنی بر این مشاهدات است که هنگام یادگیری مفاهیم مرتبط متعدد، برای مثال «گربه» و «سگ»، بیشترین ویژگیهای مفید برای طبقهبندی چیزی به عنوان «گربه» باید برای طبقهبندی چیزی به عنوان «سگ» مفید باشد. بنابراین یک اصطلاح منظم سازی خاص مشکل طراحی شده است. در موردی که قبلاً توضیح دادم، اصطلاح تنظیمسازی «اشتراکگذاری» ویژگیهای مفید مفید را با ترکیب شرایط تنظیمسازی $L_1$ و $L_inf$ تشویق میکند. به این حالت منظم سازی مفصل می گویند. بنابراین، سؤالات من عبارتند از: 1. آیا انواع دیگری از مشکلات (احتمالاً خارج از بینایی رایانه) وجود دارد که در آنها از نوعی نظمدهی ویژه مشکل استفاده شده و موفقیت آمیز است؟ 2. آیا ترکیبات دیگری از اصطلاحات منظم سازی وجود دارد که با موفقیت اعمال شده است؟
|
تنظیم خاص مشکل
|
72407
|
در مورد خطای اندازه گیری سردرگمی وجود دارد. تعریف در آمار و تعریف در روان سنجی چیست؟ به نظر نمیرسد که آمار خطای اندازهگیری را که بهعنوان تعصب سازه در روانسنجی نامیده میشود، تشخیص دهد.
|
تفاوت مفهوم و درمان خطای اندازه گیری در روان سنجی و آمار چیست؟
|
91256
|
من سعی می کنم یک رابطه دوز-پاسخ بین بروز سرطان (متغیر وابسته، تعداد) و دوز تشعشع (متغیر مستقل به رنگ خاکستری) را مدل کنم. آیا می توانم واحد متغیر مستقل را از خاکستری به میلی گری (خاکستری × 1000) تغییر دهم و همان پاسخ را داشته باشم؟ من دو مدل ساخته ام، 1 با متغیر مستقل به عنوان خاکستری، و مدل دوم با خاکستری × 1000 به عنوان متغیر مستقل. آیا مدل باید تخمین پارامترهای مشابهی داشته باشد، فقط با ضریب 1000 متفاوت باشد؟ من این را امتحان کردهام و پارامتر من برای دوز-پاسخ در دو مدل جداگانه از 1.000764 در هر میلیگرم به 2.14 در هر خاکستری میرسد.
|
تغییر واحدها برای یک متغیر مستقل در مدل پواسون
|
103417
|
یک سکه منصفانه پرتاب می شود تا زمانی که یک سر برای اولین بار بالا بیاید. احتمال وقوع این اتفاق در پرتاب اعداد فرد است؟ چگونه با این مشکل برخورد کنم؟
|
یک سکه منصفانه پرتاب می شود تا زمانی که یک سر برای اولین بار بالا بیاید. احتمال وقوع این اتفاق در پرتاب اعداد فرد است؟
|
34637
|
«درباره مسئله بهرن-فیشر: مروری» نوشته سئوک-هو کیم و آلن اس کوهن _ژورنال آمارهای آموزشی و رفتاری_، جلد 23، شماره 4، زمستان، 1998، صفحات 356-377 * * * در حال بررسی هستم. این چیزی است و می گوید: > فیشر (1935، 1939) آمار $$ را انتخاب کرد \tau = \frac{\delta-(\bar x_2 - > \bar x_1)}{\sqrt{s_1^2/n_1+s_2^2/n_2}} = t_2\cos\theta - t_1\sin\theta $ $ > [که $t_i$ یک نمونه معمول $t$-statistic برای $i=1,2$] است که در آن > $\theta$ در اولین مورد گرفته شده است ربع و $$ \tan\theta = > \frac{s_1/\sqrt{n_1}}{s_2/\sqrt{n_2}}.\tag{13} $$ [ . . . ] توزیع > $\tau$ توزیع Behrens–Fisher است و با سه پارامتر $\nu_1$، $\nu_2$، و $\theta$ تعریف میشود، پارامترهای $\nu_i$ قبلاً به صورت تعریف شده بودند. $n_i-1$ برای $i=1,2$. اکنون چیزهایی که در اینجا قابل مشاهده نیستند $\delta$ هستند و دو جمعیت به معنای $\mu_1$، $\mu_2$ هستند که تفاوت آنها $\delta$ است و در نتیجه $\tau$ و دو $t$-statistics است. SDهای نمونه $s_1$ و $s_2$ قابل مشاهده هستند و برای تعریف $\theta$ استفاده می شوند، به طوری که $\theta$ یک آمار قابل مشاهده است، نه یک پارامتر جمعیت غیر قابل مشاهده. با این حال می بینیم که از آن به عنوان یکی از پارامترهای این خانواده از توزیع ها استفاده می شود! آیا میتوانستند میگفتند که این پارامتر به جای $\dfrac{s_1/\sqrt{$\dfrac{\sigma_1/\sqrt{n_1}}{\sigma_2/\sqrt{n_2}} است. n_1}}{s_2/\sqrt{n_2}}$؟
|
پارامترسازی توزیع های Behrens-Fisher
|
57208
|
من یک ماتریس داده به شرح زیر دارم: نام نمونه نمونه طول طول گوش میکرونایر DFG562 A 17 32 6 54 SGE512 A 12 23 5 29 TRE762 B 13 52 2 42 DFS509 C 17 24 5 786 64 D14 FWE523 A 14 42 1 92 WES715 B 52 67 9 81 RWQ635 D 24 92 3 72 HNG715 c 15 65 5 34 من می خواهم گونه گیاهی را بر اساس ویژگی ها (طول، قد گوش، با توجه به اینکه چگونه میکرونی و قد را مطمئن نیستم) انتخاب کنم. برای رفتن در مورد آن. من می خواهم بهترین واریته ها را از نظر هر مشخصه و همچنین واریته هایی که برای همه خصوصیات با هم بهترین هستند را بدست بیاورم. من می دانم که از طریق رگرسیون امکان پذیر است، اما نیاز به شروعی دارم، زیرا در تجزیه و تحلیل آماری جدید هستم.
|
رگرسیون برای انتخاب گونه های گیاهی
|
67207
|
من اغلب این را شنیده ام که فرآیندهای گاوسی یک عملیات هموارسازی است. من متوجه منظور آنها از آن نشدم. بچه ها توضیحی دارید؟
|
هموارسازی در فرآیندهای گاوسی چیست؟
|
92387
|
من 2 متغیر مستقل با توزیع دارم: $X \sim \text{beta}(\alpha_1,\beta_1)$ و $Y \sim \text{beta}(\alpha_2,\beta_2)$ میخواهم $P را تخمین بزنم. (X * Y >= \text{val})$، و من به دنبال یک روش ساده، احتمالاً تقریبی، هستم تا نیازی به کار با محصول توزیع نداشته باشم. روش های ممکن (ساده) برای حل این مشکل چیست؟ احتمالاً میتوانم سؤال را با پذیرش/رد این فرض که آیا $X*Y=\text{val}$ با اطمینان 95% سادهتر کنم، اما مطمئن نیستم که کمک کند یا خیر. ببخشید اگر سوال احمقانه است، من تازه شروع به یادگیری آمار کردم.
|
تخمین حاصل ضرب 2 متغیر مستقل
|
67202
|
من با مدلی کار می کنم که می توان آن را تقریباً به صورت $$ \left\{ \begin{array}{ll} y^* & = & \beta_0 + x'\beta + \epsilon_{\{x,v\} توصیف کرد. } \\ w^* & = & \gamma_0 + v'\gamma + \delta_{\{x,v\} } \\ y & = & 1[y^* >0 ] \\ w & = & 1[w^* >0 ] \end{array} \right. $$ اگرچه یکی از $y$ یا $w$ می تواند ترتیبی باشد. (من این را به طور کلی با بسته Stata 'cmp' توسط رودمن (2011) تطبیق می دهم.) وقتی مجموعه های رگرسیور $x$ و $v$ خالی هستند، $y^*$ و $w^*$ به شدت همبستگی دارند. . (و بنابراین نسخه های گسسته آنها $y$ و $w$ هستند). این همبستگی است که من انتخاب مدل خود را هدف قرار دادهام: باید آن را کوچک کنم، که میدانم میتوانم اتفاق بیفتد زیرا تأثیرات متداول روی $y$ و $w$ از متغیرهای توضیحی $x$ و $v وجود دارد. $ (که من در نماد خود متمایز نگه داشتم، اما آنها احتمالاً متغیرهای مشترک زیادی در عمل خواهند داشت). سوالات من این است: 1. راه های انجام انتخاب مدل در اینجا چیست؟ تا کنون، من از یک الگوریتم جستجوی حریصانه استفاده میکنم که هر بار یک متغیر را به $x$ و/یا $v$ اضافه میکند، بررسی کنید که اندازه (یا بهتر، اهمیت) $\epsilon$-$\delta$ چگونه است. تصحیح تحت تأثیر قرار می گیرد و متغیری را انتخاب می کند که بهترین بهبود را ارائه می دهد. 2. آیا باید نگران متغیرهای حذف شده مورد نیاز برای شناسایی باشم؟ (داستان کمی طولانیتر و دقیقتر این است که معادله $y$ یک معادله انتخاب است و معادله $w$ معادله پاسخی است که فقط برای مواردی با $y=1$، در تغییری از Heckman اعمال میشود. این که آیا انتخاب واقعاً به $w$ بستگی دارد، همانطور که در مدل عرضه نیروی کار استفاده شده توسط هکمن نشان داده شده است، هر کسی می گوید، اما در زمینه من نیازی به این نیست. کاربرد). 3. چه سوالات دیگری باید بپرسم؟ یک مشکل تقریباً مشابه اصلاح مدل شما تا زمانی که یک آمار آزمون خاص بیاهمیت شود، در مدلسازی معادلات ساختاری با آن مواجه است و فکر نمیکنم آنها پاسخی داشته باشند که من آن را رضایتبخش بدانم.
|
انتخاب مدل با هدف ناچیز بودن «ناسازگاری» از نظر آماری انجام شد
|
66156
|
هدف من مقایسه عملکرد پیشبینی چندین مدل سری زمانی است. من یک مجموعه داده دو متغیره دارم و سه مدل مختلف برای آن اعمال کردم: **1)** یک مدل **Arima** تک متغیره (که برای اولین متغیر اعمال می شود) با استفاده از تابع انتخاب سفارش خودکار auto.arima(). مدل برآورد شده **Arima(1،1،1)** **2)** یک Verctorautoregression با استفاده از هر دو متغیر است. مدل شناسایی شده (با استفاده از بسته vars) VAR(1) است، و **3)** یک مدل فضای حالت تک متغیره (دوباره برای اولین متغیر اعمال می شود) با استفاده از بسته dlm. من یک فرم فضای حالتی از مدل Arima(1,1,1) را مشخص کردم، همانطور که توسط 'auto.arima()' پیشنهاد شد، یعنی یک مدل متشکل از یک ** روند تصادفی** و از یک **arma ساختم. ** مدل با یک پارامتر **ar** و یک **ma** (برای جزئیات به کد مراجعه کنید). سپس پیش بینی هایی را ایجاد کردم که نتایج را به صورت گرافیکی مقایسه کردم و از اینکه دیدم مدل فضای حالت من چقدر ضعیف عمل می کند شگفت زده شدم. نتایج Arima کاملاً مشابه هستند، فقط مدل VAR(2) نسبتاً خوب عمل می کند. آیا این نتیجه ضعیف مدل فضای حالت واقع بینانه است یا مشخصات مدل من اشتباه است؟ داده <- read.table(...) library(vars) library(forecast) library(dlm, lib.loc=C:/Users/incognito/Documents/R/win-library/3.0) # زیرمجموعه the data: data.s<-data[1:528,1] # تخمین مدل آریما تک متغیره و ایجاد پیشبینی: arima.m<-auto.arima(data.s.g) arima.f<-forecast(arima.m,h=30) # تخمین نمایش فضای حالت مدل Arima(1,1,1) و پیشبینی: level0 < - data.s.g[1] slope0 <- mean(diff(data.s.g)) buildGap <- function(u) { trend <- dlmModPoly(dV = 1e-7، dW = exp(u[1: 2])، m0 = c(سطح0، شیب0)، C0 = 2 * diag(2)) شکاف <- dlmModARMA(ar = ARtransPars(u[4 ])، ma=u[5]، sigma2 = exp(u[3])) بازگشت (روند + شکاف)} شروع <- c(-3، -1، -3، 0.4، 0.4) outMLE <- dlmMLE(data.s.g، init، buildGap) dlmGap <- buildGap(outMLE$par) filt<-dlmFilter(data.s.g, dlmGap) forc<-dlmForecast(filt,nAhead=30) # یک دو متغیره مدل VAR و پیشبینی: var<-VAR(data.s) var.f<-predict(var,n.ahead=30) # رسم نتایج: plot(data.s.g,xlim=c(400,560),ylim=c خطوط (1.5،4)، type=l) (529:558,forc$f) lines(529:558,var.f$fcst$gas[,1],col=3) lines(529:558,data$gas[529:558],col=4) lines(529:558,arima.f $mean,col=2) legend(topleft,legend=c(state space،arima،var),lty=1,col=c(1,2,3)) 
|
نتایج پیشبینی ضعیف یک مدل فضای حالت
|
72405
|
دانش آموزان یک آزمون شامل 20 سوال در هر دو T1 و T2 را با مداخله در فاصله تکمیل کرده اند. نمرات هر سوال 0 (نادرست) یا 1 (درست) است. من علاقه مندم بدانم که آیا بهبود در نمرات دانش آموزان برای برخی از سوالات به طور قابل توجهی بیشتر از سایر سوالات بوده است یا خیر. من فکر می کنم که این ممکن است شامل تمدید آزمون مک نمار باشد، اما برای همه پیشنهادات باز است. با تشکر
|
برای ارزیابی اهمیت آماری تغییرات متغیرهای وابسته چند جمله ای از T1 به T2 از کدام آزمون استفاده کنم؟
|
34630
|
من علاقه مندم بدانم که آیا مدت زمان درمان روی درمان با دو داروی مختلف تأثیر دارد یا خیر. ما از دو داروی مختلف برای درمان ایسکمی مغزی (آسیب مغزی) استفاده کرده ایم و درمان را به مدت 30 روز ادامه داده ایم. ما اثرات را از نظر نمرات رفتاری (داده های کمی) در روزهای 1، 3، 7، 15 و 30 روز پس از درمان مشاهده کرده ایم و علاقه مند به دانستن سه مورد زیر هستیم: 1. دوره زمانی که داروی A و داروی B (دو گروه جداگانه) بیشترین تأثیر را داشت. دوره بین روزهای 3 و روز 7) 3. از داده ها می توانیم تعیین کنیم که یک داروی خاص فقط باید برای مدت زمان مشخصی (مثلاً 15 روز) تجویز شود، زیرا پس از این هیچ بهبود قابل توجهی وجود ندارد. * * * **ویرایش: دادههای نمونه** این دادههای واقعی نیستند زیرا دادههای واقعی کمی جذابتر به نظر میرسند و ممکن است درک مفهوم آن آسان نباشد. +----------+----------+---------------------+ |نقطه زمانی|امتیاز دارو|نمره دارو| کنترل| |(روزهای بعد | الف| ب| | | جراحی)| | | | +--------------------+-------------------------------------------------- 1| 36| 32| 44| +--------------------+-------------------------------------------------- 3| 28| 30| 42| +--------------------+-------------------------------------------------- 7| 24| 29| 38| +--------------------+-------------------------------------------------- 14| 20| 24| 32| +--------------------+-------------------------------------------------- 30| 12| 18| 25| +--------------------+-------------------------------------------------- 60| 11| 15| 19| +--------------------+-------------------------------------------------- 120| 10| 14| 17| +--------------------+-------------------------------------------------- 150| 9| 13| 15| +-------------------------------------------
|
تأثیر طول مدت درمان بر نتیجه در مقاطع زمانی مختلف
|
25952
|
اگر مقداری توپولوژی ثابت غیر بازگشتی (DAG) (مجموعه ثابتی از گره ها و یال ها، اما الگوریتم یادگیری می تواند وزن لبه ها را تغییر دهد) نورون های سیگموئید با نرون های ورودی $n$ داشته باشم که فقط می توانند رشته ها را در $\{ بگیرند. -1،1\}^n$ به عنوان ورودی و منتهی به یک خروجی (که یک مقدار واقعی را خروجی می کند که ما آن را به 1 بالا می کنیم یا اگر یک مقدار باشد به -1 کاهش می دهیم. آستانه ثابت معینی به دور از 0). آیا راهی سریع برای محاسبه (یا تقریب) بعد VC این شبکه وجود دارد؟ * * * ### یادداشت ها من یک فرمول مجدد الگوریتمی کمی دقیق تر در CS.SE پرسیدم: محاسبه کارآمد یا تقریب بعد VC یک شبکه عصبی
|
محاسبه ابعاد VC یک شبکه عصبی
|
76987
|
**سوال:** فرض کنید معادله زیر را داریم: $$\widehat{\Theta}(\rho) = \frac{1}{(1-\rho)\Delta t} \ln\left(\frac{ 1}{T} \sum_{t=1}^T \left(\frac{1+r_t}{1+rf_t}\right)^{1-\rho} \right) \\\ \ \cdots \ (1)$$ جایی که: $T =$ تعداد کل مشاهدات $\Delta t =$ مدت زمان بین مشاهدات $r_t =$ یک متغیر با مقادیر تصادفی در هر $t$ $rf_t =$ یک متغیر با مقادیر تصادفی در هر $t$ $\rho =$ یک ضریب ثابت (توجه: برای کسانی که با اصطلاحات مالی آشنا هستند، $r_t$ بازده دارایی است. در زمان $t$ و $rf_t$ نرخ بدون ریسک در زمان $t$ است.) محاسبه $\widehat{\Theta}$ نیازی به توزیع خاصی برای $r_t$ یا $rf_t$ ندارد. من نمونه بزرگی از داده ها دارم (یعنی $T = 162401$) برای $r_t$ و $rf_t$. حالا $\hat{\rho}$ را تعریف کنید که در آن $\hat{\rho}$ $\widehat{\Theta}(\hat{\rho}) = 0$ را برآورده کند. حل برای $\hat{\rho}$ با استفاده از روش نیوتن-رافسون یا سایر روشهای بهینهسازی خطی نسبتاً ساده است. هدف من این است که توزیع مجانبی را برای $\hat{\rho}$ استخراج کنم، یعنی به صورت $T \rightarrow \infty$: 1. در مورد توزیع مجانبی $\hat{\rho}$ چه می توانیم بگوییم؟ 2. آیا می توانیم توزیع خاصی را استخراج کنیم که با آن همگرا شود؟ 3. آیا می توانیم واریانس مجانبی / میانگین آن را استخراج کنیم؟ 4. چه ویژگی مجانبی دیگری را می توانیم استخراج کنیم؟ * * * **تلاش:** تلاش من تاکنون به جای کار مستقیم با Eqn.$(1)$، به یک تقریب خطی مرتبه دوم به Eqn.$(1)$ مربوط بوده است. با استفاده از بسط سری تیلور و ویژگی های میانگین تعمیم یافته، می توانیم نشان دهیم که: $$\widehat{\Theta}(\rho) \approx \frac{1}{\Delta t} \left[\overline{x} + \ frac{1-\rho}{2} \left(s_x^*\right)^2\right] \ \ \ \ \ \cdots \ (2)$$ جایی که: $\overline{x} = \frac{1}{T} \sum_{t=1}^T x_t$ که در آن $x_t = r_t - rf_t$ $\left(s_x^*\right)^2 = \left( \frac{T-1}{T}\right)s_x^2$ که $s_x^2 = \frac{1}{T-1}\sum_{t=1}^T (x_t - \overline{x})^2$ از معادله.$(2)$، تقریبی به $\hat{\rho}$ توسط: $$\hat{\rho} \approx \frac{2\overline{ x}}{\left(s_x^*\right)^2} +1 $$ از آنجایی که هیچ راه حل شکل بسته ای برای $\hat{\rho}$ از معادله $(1)$ وجود ندارد، چگونه می توانیم استخراج کنیم خواص مجانبی تقریبی $\hat{\rho}$ با استفاده از معادله $(2)$؟
|
استخراج توزیع مجانبی یک معادله خاص
|
11448
|
من یک سری امتیاز در کار تشخیص سیگنال دارم. برای هر بلوک نمرات (یعنی مجموعه ای از نمرات یک شرکت کننده در یک روز) یک نمره d' را محاسبه کرده ام که از آن به عنوان شاخص عملکرد استفاده می کنم. این امتیازات با گذشت زمان افزایش می یابد که نتیجه جالبی است. آیا راهی وجود دارد که بتوانم محاسبه کنم که آیا تغییر از نظر آماری معنی دار است؟
|
آیا راهی برای تعیین اهمیت تغییر در نمره d' وجود دارد؟
|
50064
|
کد ما چندین مرحله بررسی را طی می کند. مایلم از تعداد عیوب در مرحله اولیه بازبینی به عنوان تخمین تراکم نقص برای مراحل بعدی استفاده کنم. گاهی اوقات پیش میآید که کد در مرحله اولیه بازبینی هیچ نقصی نداشته باشد. این برای من مشکل ایجاد می کند، زیرا اگر $\lambda = 0$، آنگاه $P(k)=\frac{e^{-\lambda t}(\lambda t)^k}{k!}=0$ برای همه $k $. R در واقع فقط یک خطا در این مورد ایجاد می کند: foo = 0:10 bar = 2 * foo glm(bar ~ log(foo), family = poisson) # شکست می خورد زیرا log(0) = -Inf من می توانستم این را دور بزنم چندین روش: * مکان های دارای صفر را نادیده بگیرید (این باعث کاهش 1486 نقطه از 4476 نقطه داده من می شود) * همه صفرها را با یک عدد جایگزین کنید * یک عدد را به همه اضافه کنید. بهترین راه برای رسیدگی به این موضوع چیست؟
|
برخورد با صفرها در رگرسیون پواسون
|
23463
|
سلام اخیراً یک سؤال شبیه به ML در مورد cstheory stackexchange وجود داشت و من پاسخی را ارسال کردم که روش پاول، نزول گرادیان یا الگوریتمهای ژنتیک یا سایر «الگوریتمهای تقریبی» را توصیه میکرد. در یک نظر شخصی به من گفت که این روشها ابتکاری و _نه_ الگوریتمهای تقریبی هستند و اغلب به بهینه نظری نزدیک نمیشوند (زیرا آنها اغلب در حداقلهای محلی گیر میکنند). سوال من، آیا دیگران با آن موافق هستند؟ همچنین به نظر من این حس وجود دارد که الگوریتمهای اکتشافی را میتوان تضمین کرد که به بهینههای نظری نزدیک میشوند، اگر برای کاوش بخش بزرگی از فضای جستجو تنظیم شده باشند (مثلاً تنظیم پارامترها / اندازههای گام کوچک)، اگرچه من ندیدهام. که در یک کاغذ آیا کسی می داند که آیا این در یک مقاله در جایی نشان داده شده یا ثابت شده است؟ (اگر برای یک کلاس بزرگ از الگوریتم ها نباشد، شاید برای یک کلاس کوچک بگوییم NN و غیره)
|
آیا تکنیک های یادگیری ماشین «الگوریتم های تقریبی» هستند؟
|
34639
|
میخواهم بدانم آیا استفاده از مدل اثرات مختلط برای تجزیه و تحلیل دادههای تودرتو در جایی که پایینترین واحدهای سلسلهمراتب بهطور تصادفی نمونهبرداری نشدهاند، اما از نظر فضایی در یک شبکه مجاور یکدیگر هستند، معتبر است یا خیر. از نظر بیولوژیکی، واحدهای نمونه برداری مجاور فضایی می توانند شرایط مختلفی را تجربه کنند، اما ممکن است بسیار شبیه هم باشند. **جزئیات آزمایش:** من در حال تجزیه و تحلیل داده های یک آزمایش جنگلداری هستم که در آن تعداد نهال درختان را در قطعه های 12 متر در 12 متر شمارش کردیم. ما 10 قطعه داریم که پنج قطعه برای حذف علفخواران حصارکشی شده بود و پنج قطعه شاهد بدون حصار بودند. برای اهداف بررسی، هر قطعه به 36 قطعه فرعی به ابعاد 2 متر در 2 متر تقسیم می شود. تعداد نهال در هر کرت فرعی از 0 تا 150>> متغیر است، سم پراکنده و احتمالاً صفر است. بنابراین، کرتهایی که در آن کرتهای فرعی تو در تو قرار میگیرند، میتوانند از دو جنبه متفاوت باشند: تعداد کل نهالها که در تمام کرتهای فرعی جمع شدهاند، و تعداد کرتهای فرعی که حداقل یک نهال در آنها وجود دارد. یک نمودار منفرد چیزی شبیه به این است، جایی که هر حرف نشان دهنده یک طرح فرعی 2 x 2 است: a b c d e f g h i j k l m n o p q r s t u v w x y z & @ # A B C D E F G **سوالات:** * _1)_ *آیا تحلیل این داده ها در سطح طرح فرعی و استفاده از آن معتبر است. یک اثر تصادفی، یا تجمع فضایی از داده ها از من می خواهند که آن ها را در سطح طرح تجزیه و تحلیل کنم؟ * _2)_ *آیا می توانم با اضافه کردن یک سطح دیگر به سلسله مراتب، با گروه بندی نمودارهای فرعی مجاور همراه با یک اثر تصادفی دیگر، تجمع فضایی خرده پلات ها را نشان دهم (به عنوان مثال، گروه بندی نمودارهای فرعی بالا a، b، c، g، h، i، و m، n، o با هم).
|
آیا می توانم از یک مدل جلوه های ترکیبی برای تجزیه و تحلیل داده هایی استفاده کنم که از نظر مکانی کاملاً جمع شده اند؟
|
73860
|
من سعی می کنم تجزیه و تحلیل بقا را با استفاده از توابع Surv و survfit از بسته survival در R اجرا کنم. بیشتر داده های من کوتاه شده اند و مطمئن نیستم که آنها را در Surv وارد کنم یا خیر. ` درست عمل کند. متغیر پاسخ من زمان (بر حسب سال اندازهگیری میشود) است که از زمانی شروع میشود که پل به عنوان ناقص طبقهبندی میشود و زمانی که فرو میریزد به پایان میرسد. من می توانم وضعیت کمبود هر پل را از سال 2012 تا 1992 دنبال کنم، اما نه بیشتر. سانسور به این دلیل رخ می دهد که بسیاری از پل ها از زمان فروریختن آنها تا سال 1992 به عنوان ناقص طبقه بندی شده بودند، و بنابراین من دقیقاً نمی دانم چه زمانی دچار کمبود شدند، و بنابراین من طول عمر واقعی آنها را نمی دانم (تعداد سال از طبقه بندی ناقص تا فروپاشی). مثلاً یک پل در سال 1995 فروریخت و در سال های 1995، 1994، 1993 و 1992 به عنوان ناقص طبقه بندی شد. ممکن است اولین بار در سال 1992 به عنوان ناقص طبقه بندی شده باشد، همچنین ممکن است به عنوان نقص طبقه بندی شده باشد. از سال 1984. بنابراین من معتقدم که سانسور من کوتاه شده است. چند نمونه داده: Year0 = c(1992، 1992، 1999، 1992، 1993، 2007، 2005، 1992) # سال هایی که برای اولین بار هر پل به عنوان نقص مشاهده شد. سال 1 = c(1993، 1994، 2002، 1996، 2004، 2012، 2011، 2000) # سال هایی که در آن هر پل فروریخت Defyears = Year1 - Year0 + 1 # تعداد سال هایی که می توانم زمان کمبود هر پل را مشاهده کنم. = Year0 - 1992 # از آنجایی که می خواهم مقیاس زمانی از 0 باشد به جای 1992 - 2012 به 21، من 1992 را از هر بار مشاهده کم می کنم. # اکنون این نقطه شروع برای طول عمر هر پل می شود. time2 = Defyears + time1 # این نقطه پایان طول عمر هر پل است. n = طول (time2) توجه کنید که از هشت پل، چهار پل کوتاه شده اند، پل 1، 2، 4 و 8. برای پلهای 3، 5، 6 و 7، من از عمر دقیق آنها از زمانی که پس از سال 1992 دچار کمبود شدند، میدانم، بنابراین این مشاهدات سانسور نمیشوند. سپس مدل را برازش میکنم: bridges = survfit(Surv(time = time1, time2 = time2, event = rep(1,n)) ~ 1) # رویداد = rep(1,n) را انجام میدهم زیرا هر پل فرو ریخت. من فقط مطمئن نیستم که این مدل درست باشد. برای یک چیز، در مستندات می گوید که زمان برای داده های سانسور شده درست یا زمان شروع برای داده های سانسور شده فاصله است. برای دیگری، من نمیدانم که چگونه این مدل مشاهداتی را که سانسور نشدهاند توضیح میدهد. آیا کسی می تواند به من بگوید که آیا این درست است، و اگر نه، چه چیزی را باید تغییر دهم و چرا؟ هر گونه کمکی بسیار قدردانی می شود. خیلی ممنون
|
چگونه می توانم از بسته بقا و تابع Surv در R با داده های کوتاه شده به چپ استفاده کنم؟
|
34633
|
من مدل رگرسیون مقطعی $\hat{Y}_i = a + bX_i + e_i$ دارم که بیش از 200 مشاهدات مقطعی تخمین زده است. $\hat{Y}_i$ در 200 رگرسیون سری زمانی ایجاد شد و به همین ترتیب خطای اندازه گیری نیز وجود دارد. فرض کنید که خطای اندازه گیری می تواند با $\hat{Y}_i = Y_i - u_i$، با $u_i \sim N(0,\sigma^2)$ مدل شود. سپس $Y_i - u_i = a + b X_i + e_i$ ..$\Rightarrow$.. $Y_i = a + b X_i + (e_i + u_i) = Y_i = a + b X_i + \epsilon_i$ داریم، که در آن $ (e_i + u_i) = \epsilon_i$. این بدان معناست که قطر ماتریس کوواریانس واریانس باقیمانده بزرگتر است. ماتریس کوواریانس واریانس با $\Sigma = E[\epsilon \epsilon^T]$ داده می شود. تحت این عبارت، هر عنصر مورب در $E[\epsilon \epsilon^T]$ بزرگتر از هر عنصر مورب $E[e e^T]$ است. با توجه به فرمول ماتریس کوواریانس واریانس ضریب، ضریب SE از $E[\epsilon \epsilon^T](X^T X)^{-1}$ بزرگتر از $[e e^T](X^T X خواهد بود. )^{-1}$، منجر به خطاهای فراوان نوع 2 می شود. راه دیگری برای بیان این مشکل به شرح زیر است. فرض کنید $u_i$ و $e_i$ همبستگی ندارند، ما داریم $var(e_i + u_i) = var(\epsilon_i) = \sigma_e^2 + \sigma_u^2 > var(e_i) = \sigma_e^2$ .. خطاهای استاندارد ضریب ما نادرست خواهد بود. اسلاید 4 از این موضوع را توضیح می دهد (اما نشان می دهد. بدون نسخه). بنابراین، از چه تخمینگری برای کاهش نمونه خطاهای قدرت ضعیف/خطاهای بزرگ نوع 2 در این مدل اقتصادسنجی استفاده کنم؟
|
انتخاب یک برآوردگر قوی برای محاسبه خطای اندازه گیری در متغیر وابسته
|
76980
|
من سعی می کنم برخی از داده هایی را که اخیراً به دستم رسیده است تجزیه و تحلیل کنم، اما کاملاً مطمئن نیستم که از کدام مدل استفاده کنم. یک پیشنهاد یک مدل ترکیبی، ANOVA اندازه گیری های مکرر بوده است، اما مطمئن نیستم که چنین مدلی بتواند به سوالات مورد علاقه پاسخ دهد یا خیر. **داده**: دو نفر (A و B) مقادیر بسیار متفاوتی داشته اند (V1، V2، V3، ...، Vn) که چهار بار اندازه گیری شده اند (T0، T1، T2 و T3). فاصله بین زمان ها متفاوت است مقادیر مختلف در دسته بندی ها (C1، C2، C3، ...، Cn) گروه بندی شده اند. یک مقدار ممکن است متعلق به هیچ، یک یا چند دسته باشد. هر یک از دسته ها یک مقدار پیوسته دارند (Response_C1, Response_C1, ..., Response_Cn) که مجموع مقادیر اندازه گیری شده متعلق به آن دسته است. علاوه بر این، به فرد B یک دارو در T1 داده شد. آنچه اکنون می خواهم بررسی کنم این است: 1. آیا اثر قابل مشاهده ای پس از مصرف دارو وجود دارد. 2. دارو بر روی کدام دسته ها تأثیر داشته است. 3. اگر تأثیری روی یک دسته باشد، اندازه اثر 4 چقدر است. چگونه اثر در طول زمان تغییر می کند. و نمونهها، اما اگر بتوانید مقالهها/روشهایی را برای این نوع تحلیل پیشنهاد کنید، قدردانی میکنیم. ** چیزی که من تاکنون امتحان کرده ام ** فقط ANOVA اندازه گیری های مکرر است، با استفاده از R: test.aov <- aov(Response_C ~ Category * Timepoint * Treatment + Error(Sample), data=df) اما مطمئن نیستم که مدل درست است، نه مطمئن هستم که واقعاً به سؤالات من پاسخ می دهد، حتی اگر سعی کنم آن را به عنوان یک مدل ترکیبی مدل کنم. هر گونه کمک بسیار قدردانی می شود. لطفاً در صورت نیاز به اطلاعات اضافی به من اطلاع دهید **ویرایش 1:** پس از مطالعه بیشتر، به نظر می رسد یک مدل خطی تعمیم یافته با توزیع دوجمله ای منفی (از آنجایی که این نوع داده ها معمولاً بیش از حد پراکنده هستند) مناسب تر است. برای این نوع داده ها، اما هنوز مطمئن نیستم که چنین مدلی به سوالات پاسخ دهد یا خیر. بهطور بالقوه میتوانم مدلی را برای هر دستهبندی بگنجانم، اما این خطای Type-I را افزایش میدهد، و بنابراین برای آزمایشهای متعدد باید اصلاح کنیم. **ویرایش 2:** مقداری مطالعه بیشتر، و من فکر کردم که بسته lme4 R راه خوبی برای تطبیق یک مدل ترکیبی خطی با داده های من است و فقط مقایسه های جداگانه هر دسته را انجام می دهم. این مدلی است که من سعی کردم برازش کنم: lm1 <- lmer(پاسخ ~ درمان * نقطه زمانی + (1|موضوع)، داده=my_data) اول از همه، مطمئن نیستم که Timepoint باید فاکتوریل باشد یا عددی. همانطور که اشاره کردم، نقاط زمانی به طور مساوی توزیع نمی شوند (به طور دقیق، من برای زمان 0، 2 روز، 14 روز، 90 روز دارم)، با این حال، طراحی متعادل است. اگر Timepoints را به عنوان یک مقدار عددی وارد کنم، هیچ تخمینی از مقدار در هر نقطه زمانی معینی دریافت نمیکنم، بلکه فقط تعدادی اعداد برای همبستگی اثرات ثابت دریافت میکنم که واقعاً نمیتوانم از آنها برای هیچ چیز استفاده کنم. از سوی دیگر، اگر نقاط زمانی را به عنوان فاکتور وارد کنم، در هر نقطه زمانی یک مقدار تخمینی برای اثر دریافت میکنم، اما مطمئن نیستم که این مقدار چقدر مطمئن یا قابل اعتماد است.
|
تجزیه و تحلیل داده های طولی با نقاط بسیار کم
|
91252
|
من هزاران نوع رویداد دارم. برخی بسیار مکرر، اما اغلب نسبتاً نادر. من میخواهم انواع رویدادهایی را شناسایی کنم که میتوانند به دلیل این واقعیت که در زمان نسبتاً نزدیک اتفاق میافتند، مرتبط باشند. مایلم بتوانم تشخیص همبستگی را به گونه ای تنظیم کنم که بسیار لیبرال تا بسیار محافظه کار باشد.
|
چگونه می توانم ارتباط بین انواع رویداد را در طول زمان شناسایی کنم
|
100143
|
معیار خوبی برای ارزیابی کیفیت یک pca چیست؟ من این الگوریتم را روی یک مجموعه داده اجرا کردم. هدف من کاهش تعداد ویژگی ها بود (اطلاعات بسیار زائد بود). میدانم درصد واریانس نگهداشتهشده نشاندهنده خوبی برای میزان اطلاعاتی است که ما نگهداری میکنیم، آیا معیارهای اطلاعات دیگری وجود دارد که بتوانم برای اطمینان از حذف اطلاعات اضافی و «از دست دادن» چنین اطلاعاتی استفاده کنم؟
|
ارزیابی تجزیه و تحلیل اجزای اصلی
|
100148
|
من به دنبال نمونه هایی از TIC بودم و هیچ کدام را پیدا نکردم. به ویژه میخواهم بدانم که مدت مجازات را در TIC دقیقاً چگونه برآورد میکنید. این اصطلاح، همانطور که در جایی پیدا کردم، شامل تابع امتیاز و اطلاعات فیشر است. آیا منابع آنلاینی وجود دارد که بتوانم آن را پیدا کنم؟
|
کجا می توانم نمونه هایی از معیار اطلاعات Takeuchi (TIC) را در محل کار پیدا کنم؟
|
74588
|
من سعی می کنم کدی بنویسم (من از MATLAB استفاده می کنم) برای تخمین خوبی تناسب کوپول بر اساس تبدیل روزنبلات (دوبریچ و اشمید 2007، http://dx.doi.org/10.1016/j.csda.2006.08 0.012) سوال من این است: در الگوریتم می گوید: مشاهدات i.i.d. از کوپولا با پارامتر تتا (من نمی توانم از تابع copularnd استفاده کنم زیرا فقط چند خانواده را پوشش می دهد ورودی من به تابع copula خواهد بود؟
|
چگونه از کوپول توسط تابع cdf شرطی معکوس کوپول تولید کنیم؟
|
91255
|
من سخنرانی اندرو ng در مورد یادگیری ماشین را تماشا می کردم و در سخنرانی SVM با حاشیه هندسی روبرو شدم. من گیج هستم که او معادله نقطه B را به دست آورد؟  توجه داشته باشید که هایپرپلن خط مایل است که در آن $w^Tx + b = 0$ سوال اصلی: او چگونه به دست آورد $$B = x^{(i)} - \gamma^{(i)} \frac{w}{||w||}$$ من چندین سوال دارم که بپرسم: 1. پاره خط است $AB$ عمود بر مرز تصمیم (هیپرصفحه که در آن $w^Tx + b = 0$)؟ 2. گیج کننده ترین بخش برای من این است: چرا او $x^{(i)} منهای$ را انجام می دهد؟ واقعاً از نظر هندسی به چه معناست؟ ممنون میشم اگه کسی ایده های پشت این رو توضیح بده.
|
درک حاشیه هندسی SVM
|
55250
|
من شنیده ام که اصطلاح PMF و توزیع گسسته به جای یکدیگر استفاده می شود. آیا هر اصطلاح معنای متفاوتی دارد؟
|
تفاوت بین تابع جرم احتمال و توزیع گسسته چیست؟
|
72408
|
من در استفاده از آزمون t-statistic یا white-robust-t گیج هستم، زیرا آماره t برای homoskedastic و white-robust-t برای خطای heteroskedastic است. پس از تصحیح دادههای heteroskedastic با استفاده از e-views از کدام آزمون استفاده کنم؟ این داده ها قبل از تصحیح خطاهای متغیر وابسته ناهمگونی است: روش LOG_WAGE: حداقل مربعات نمونه: 1 514 مشاهدات شامل: 514 متغیر ضریب Std. خطا t-Statistic Prob. C 1.758689 0.099402 17.69275 0.0000 EDUC 0.089089 0.007015 12.69990 0.0000 EXPER 0.041822 0.0046824 2004 EXPER 0.0046824 805 -0.000737 0.000109 -6.784465 0.0000 R-squared 0.330308 میانگین وابسته var 3.237487 Adjusted R-squared 0.326369 S.D. وابسته var 0.505323 S.E. از رگرسیون 0.414744 معیار اطلاعات آکایک 1.085441 مجموع مربع باقی مانده 87.72638 معیار شوارتز 1.118454 احتمال ورود -274.9583 معیار Hannan-Quinn. 1.098380 F-statistic 83.84807 Durbin-Watson stat 1.812307 Prob(F-statistic) 0.000000 این داده ها پس از تصحیح متغیر وابسته است: LOG_WAGE روش: حداقل مربعات نمونه: 1 514 مشاهدات سفید شامل5 خطاهای استاندارد سازگار با ناهمگونی و کوواریانس متغیر ضریب Std. خطا t-Statistic Prob. C 1.758689 0.102406 17.17369 0.0000 EDUC 0.089089 0.007513 11.85735 0.0000 EXPER 0.041822 0.00426307 809. -0.000737 0.000104 -7.101447 0.0000 R-squared 0.330308 میانگین وابسته var 3.237487 Adjusted R-squared 0.326369 S.D. وابسته var 0.505323 S.E. از رگرسیون 0.414744 معیار اطلاعات آکایک 1.085441 مجموع مربع باقی مانده 87.72638 معیار شوارتز 1.118454 احتمال ورود -274.9583 معیار Hannan-Quinn. 1.098380 F-statistic 83.84807 Durbin-Watson stat 1.812307 Prob(F-statistic) 0.000000 من باید یک آزمون فرضیه انجام دهم آیا رابطه غیر خطی بین متغیرها وجود دارد. من فقط گیج شدم از کدام تست استفاده کنم.
|
اگر خطای استاندارد که Heteroskedastic است با استفاده از E-views تصحیح شود، آیا به homoskedastic تبدیل می شود؟
|
50068
|
زمینه: این تابع هزینه آموزش چند وظیفه ای متوسط منظم است. این یک مدل یادگیری رگرسیون خطی معمولی است، با تنها تفاوت این است که چندین نمونه از آموزش ها به طور همزمان در حال انجام است. بنابراین X یک بعد 3 اضافی دارد و W و Y یک بعد 2. X دادههای آموزشی، Y اهداف، W وزنها، m تعداد وظایف (بعد سوم)، d تعداد ویژگیها، n تعداد نمونهها است. $X\in R^{n_i\times d \times m}$, $Y\in R^{n_i\times m }$, $W\in R^{d \times m}$  سوال: با توجه به تابع هزینه $$ J =\min_W \frac{1}{2}||XW-Y||_F^2+\lambda\sum_{i=1}^m||W_i-\frac{1}{m}\sum_{s=1}^ mW_s||^2_2 $$ $\frac{\partial}{\partial W}J$ چیست؟ من باید مشتقات جزئی را محاسبه کنم که می توان با شیب تندترین الگوریتم بهینه سازی نزول شیب استفاده کرد. من به این فکر می کردم که مشتق را هم با توجه به یک وزن و هم برای کل ماتریس محاسبه کنم. پاسخ من را برای محاسبات من تا کنون ببینید.
|
چگونه مشتق جزئی تابع هزینه میانگین یادگیری چند کاره منظم شده را محاسبه کنیم؟
|
6176
|
من علاقه مند به یادگیری بیشتر در مورد تکنیک های بیزی ناپارامتریک (و مرتبط) هستم. سوابق من در علوم کامپیوتر است و با وجود اینکه هرگز دوره ای را در مورد تئوری اندازه گیری یا نظریه احتمال گذرانده ام، آموزش رسمی محدودی در زمینه احتمال و آمار داشته ام. آیا کسی می تواند یک مقدمه خواندنی برای این مفاهیم را برای شروع به من توصیه کند؟
|
مقدمه ای خواندنی برای تئوری اندازه گیری
|
72402
|
من اخیراً ایمیل زیر را دریافت کردم: > من یک نمونه از 100 و تقریباً 6-7٪ داده از دست رفته در هر > متغیر مستقل مورد علاقه، و IVهای غیرعادی توزیع شده دارم. من > IVهای غیرعادی را ریشه مربع تبدیل کرده ام، بنابراین می توانم از imputation EM در > SPSS برای منتسب کردن داده های از دست رفته استفاده کنم. سپس متغیرها را با مربع کردن آنها تغییر دادم. ### سوالات * آیا برای استفاده از imputation EM چه در SPSS یا به طور کلی، لازم است متغیرهایی به طور معمول توزیع شوند؟ * آیا منطقی است که متغیرها را پس از انتساب تبدیل کنیم؟
|
آیا باید متغیرهای غیر نرمال را قبل از انجام انتساب EM تبدیل کرد؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.