_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
57452
چگونه می‌توانیم نشان دهیم که در طرح اسپلیت پلات، مقدار مورد انتظار مجموع مربعات عامل مسدودکننده، مقدار مورد انتظار برابر با $k\sigma^2_{\text{block}} + \sigma^2_{\ است. متن{خطا}}$؟ سعی کردم عوامل درون و بین را شناسایی کنم و از تعریف کوواریانس، درون و بین عوامل بلوکی استفاده کردم. **برای جلب توجه این سوال باید چه کار کنم؟ کسی میتونه لطفا در موردش کمک کنه؟ ممنون **
مقدار مورد انتظار مجموع مربعات یک عامل مسدود کننده در طرح اسپلیت پلات
33129
من سؤال زیر را دارم، هر اشاره ای واقعاً قابل استقبال است: من سعی می کنم با اجرای دو رگرسیون جداگانه، یکی برای هر کشور، و آزمایش $H_0:\,b_1=b_2$ (با استفاده از آزمون های Wald)، یک مقایسه دو کشور انجام دهم. ، که $b_1$ ضریب یک متغیر توضیحی در گروه رگرسیون 1 و $b_2$ ضریب همان متغیر توضیحی در گروه رگرسیون 2 است ( دو گروه اندازه نابرابر دارند). با این حال، من به نتیجه زیر رسیدم: $b_1$ از نظر آماری معنی‌دار است، $b_2$ از نظر آماری بی‌اهمیت است، و $H_0$ را نمی‌توان رد کرد، یعنی تفاوت بین دو ضریب از نظر آماری ناچیز است. من می دانم که این نتیجه از نظر آماری ممکن است، اما از نظر منطق کمی مشکل به نظر می رسد. چگونه کسی می تواند معقولانه آن را توجیه کند؟
مقایسه ضرایب بین دو رگرسیون خطی: توجیه تفاوت ناچیز زمانی که پیش‌بینی‌کننده فقط در یک گروه معنادار است.
74386
من یک داده ماتریسی دارم شاید برخی از داده ها در یک خوشه و دیگری در برخی خوشه ها. مقیاس داده بین [0-1000] است (فقط به عنوان مثال). و من می خواهم به [0-1] و از نظر میانگین و واریانس نرمال شود. یعنی من می خواهم دید خوبی در میانگین و واریانس داشته باشم. برای توضیحات بیشتر، میانگین و واریانس را در مکان مناسبی انتخاب کنید که همه داده ها را در نظر بگیرید و داده های نویز را نادیده نگیرید. برای مثال، یک راه zi=xi−min(x)max(x)−min(x) است، اما به این ترتیب اگر بیشتر داده‌ها در یک خوشه و تعداد کمی از داده‌ها در خوشه دیگر، میانگین و واریانس بین خوشه بزرگ و خوشه انتخاب شود. به داده های پر سر و صدا توجه نکنید لطفا یک مقاله (اگر جدیدتر بهتر است) یا راهی برای حل این مشکل به من معرفی کنید. متشکرم
چگونه داده ها (با نویز) را در مقیاس خوب از نظر میانگین و واریانس در محدوده 0-1 عادی کنیم؟
70601
من فقط می خواهم ریاضی خود را در محاسبه احتمال اینکه یک نمونه تصادفی شامل یک رکورد معیوب باشد بررسی کنم. من 20000000 رکورد دارم. اگر 7000 رکورد از 20000000 مورد نقص وجود داشته باشد، احتمال اینکه یک نمونه 10% دارای 1 مورد از نقص باشد چقدر است؟ یک نمونه 10 درصدی شامل 2000000 رکورد می شود. احتمال اینکه 1 رکورد یکی از رکوردهای معیوب باشد: 7,000/20,000,000 = 0.00035. احتمال معیوب نبودن یکی از نمونه ها: (1 - 0.00035) = 0.99965 است. احتمال معیوب نبودن 2 نمونه عبارت است از: 0.99965 * 0.99965 = 0.9993. احتمال معیوب نبودن 2000000 نمونه عبارت است از: 0.99965^(2000000) = 8.73 x 10^(-305). احتمال اینکه حداقل یکی از 2,000,000 نمونه یکی از 7,000 نقص باشد: 1 - 0.99965^(2,000,000) که بسیار بسیار نزدیک به 100% است. چه اندازه نمونه با احتمال 0.999999 حداقل 1 نمونه از 7000 نمونه را دارد؟ $.999999 $ = 1 - 0.99965^{(SampleSize)}$$ یک اندازه نمونه تقریباً 39465 دارای احتمال 0.999999 است که شامل 1 مورد از 7000 نقص است.
احتمال اینکه یک نمونه دارای نقص باشد
64752
من در حال انجام تجزیه و تحلیل بقا بر روی یک گروه خاص تحت مطالعه هستم که شامل هزاران نفر است. من به دنبال بهترین راه برای به دست آوردن یک جمعیت مرجع از کل جمعیت (میلیون ها نفر) هستم. جمعیت مرجع باید بر اساس سن مطابقت داده شود، به عنوان مثال. توزیع سنی یکسانی با جمعیت مورد مطالعه دارند. از آنجایی که کل جمعیت بسیار بزرگتر از جمعیت مورد مطالعه است، جامعه مرجع همسان نیز می تواند بسیار بزرگتر باشد. ساده‌ترین راه برای ادامه، کشیدن یک نمونه فرعی از کل جمعیت به همان اندازه جمعیت مورد مطالعه (مطابق با سن) است. انجام این کار به این معنی است که اکثریت قریب به اتفاق کل جمعیت هرگز استفاده نمی شوند، که ممکن است باعث تعصب شود و مطمئناً فواصل اطمینان را در جمعیت مرجع افزایش می دهد. برای جلوگیری از این موضوع، من در حال حاضر دو رویکرد نمونه گیری مجدد را در نظر دارم. من از تخمین‌گر Kaplan-Meier برای تابع بازمانده $\hat{S}(t)$ استفاده می‌کنم. **رویکرد اول** 1. بوت استرپ کل جمعیت برای رسم تعداد زیادی زیرنمونه (مطابقت) (مثلاً $n_{boot}$ نمونه از $n_{study}$ افراد، مطابق با سن)، 2. جمع آوری مقدار نمونه‌های فرعی در یک جمعیت بزرگ $\mathcal{P}_{aggr}$ که حاوی موارد تکراری است ($| \mathcal{P}_{aggr}| = n_{boot} \times n_{مطالعه}$ افراد غیر منحصر به فرد)، 3. محاسبه تابع بازمانده مرجع بر اساس $\mathcal{P}_{aggr}$، 4. استفاده از بازه‌های اطمینان گرین‌وود نمایی (تبدیل _log-log_) . **رویکرد دوم** 1. بوت استرپ کل جمعیت برای رسم تعداد زیادی زیرنمونه (مطابقت) (مثلاً $n_{boot}$ نمونه از $n_{study}$ افراد، مطابق با سن)، 2. محاسبه بازمانده تابع در هر نمونه فرعی: $\hat{S}_i(t)، i=1..n_{boot}$، 3. برآوردهای کل تابع بازمانده، برآورد جهانی بازمانده $\hat{S}(t)=\frac{\sum_{i=1}^{n_{boot}} \hat{S}_i(t)}{n_{boot}}$, 4 است فواصل اطمینان را می توان مستقیماً از مجموعه تخمین های تابع بازمانده به دست آورد. آیا عوامل آماری قوی وجود دارد که باید به نفع/علیه هر یک از این رویکردها در نظر بگیرم؟ آیا راه بهتری برای به دست آوردن جمعیت مرجع همسان وجود دارد؟ من در حال حاضر به استفاده از رویکرد اول تمایل دارم زیرا پیاده سازی آن تا حدودی ساده تر است و یک فرم بسته معمولاً برای فواصل اطمینان دارد.
روش مناسب برای تطبیق یک جمعیت مرجع برای تجزیه و تحلیل بقا
75039
وقتی از رگرسیون لاجیت یا خطی استفاده می کنیم، آیا عوامل تعیین کننده یکسان خواهند بود (P، F، R sq و R adj)؟
معیارهای تصمیم گیری برای تحلیل لاجیت و رگرسیون
33127
من یک مجموعه داده {x_i} دارم که 3-10 خوشه را تشکیل می دهد. آیا تابع تحلیلی {x_i} وجود دارد که بتوانم از آن برای تخمین تعداد خوشه‌ها در مجموعه داده استفاده کنم؟ این واقعیت که ممکن است 3-10 خوشه وجود داشته باشد در واقع دانش دامنه ای است که من برای مشکل خود دارم.
آیا تابع تحلیلی وجود دارد که تعداد خوشه ها را تقریبی کند؟
75037
من مقادیر متغیرهای خاصی را برای 20 سال برای کشورهای مختلف دارم... من نمی توانم درک کنم که چگونه از مقادیر یک متغیر خاص برای 20 سال استفاده کنم. کسی می تواند راهنمایی کند که چگونه باید در این مورد اقدام کنم؟ متغیرهای پیش بینی کننده: * واردات کالاها و خدمات * ارزش افزوده صنعت * تجارت خدمات * درآمد بدون کمک بلاعوض * GNI سرانه * صرفه جویی ناخالص * رتبه بندی سیاست مالی CPIA متغیرهای نتیجه: * رشد تولید ناخالص داخلی (تغییر سالانه به عنوان درصد) * تولید ناخالص داخلی سرانه * تورم قیمت مشتری
چگونه می توانم بفهمم که تغییرات در سیاست های مالی یک کشور چگونه بر سلامت اقتصادی آن کشور تأثیر می گذارد؟
3575
من یک جدول داده‌ای دارم مانند: ID Low Color Med Color High Color 1 234 123 324 2 4 432 3423 سطرها ویجت‌ها هستند، ستون‌ها سطوح رنگ هستند. آیا این جدول را ویجت ها بر اساس سطح رنگ یا سطح رنگ بر اساس ویجت می نامید؟
آیا ردیف به ستون یا ستون به سطر است؟
70608
من مجموعه ای از 492 مشاهدات دارم که بین یک منحنی نمایی یا لگاریتمی قرار می دهم. هر دو منحنی دارای مقدار یکسانی از متغیرهای توضیحی هستند. سوال من این است که برای استفاده از قاعده کلی که DeltaAIC < 2 است، باید داده ها را بین 1 تا 10 تغییر مقیاس دهیم؟ در اینجا جدول نتیجه، AIC برای منحنی های نمایی و Log، و مجموع آنها (باقی مانده ^2) است. AIC expon AIC log Res^2 expo Res^2 log -798.6752 -346.68 0.9005307 4.5773081 -711.1705 -950.659 1.2336707 0.5212761 0.5212761 -5974 -59484. 2.1066076 1.3545968 -800.1217 -390.1025 0.8958573 3.9153901 -688.1213 -886.8839 1.3403152 = 0.6553689 1.3403152 0.6553689 - 0.6553689 - 0.6553689 = این AIC دلتا است، آیا باید مقیاس آن را بر 100 تقسیم کنم؟ منجر به Delta AIC - 1,23 می شود، بنابراین هر دو مدل به یک اندازه توضیح می دهند؟
تغییر مقیاس مقادیر AIC برای انتخاب مدل
84143
من مدل MEMM را با استفاده از برچسب گذاری POS مطالعه می کنم. سوالی که متوجه شدم مدل MEMM یک اشکال دارد - مشکل سوگیری برچسب. به طور رسمی تر، > انتقالی که یک حالت معین را ترک می کند، تنها با یکدیگر رقابت می کند، به جای > با همه انتقال های دیگر در مدل... زمینه های تصادفی شرطی: > مدل های احتمالی برای بخش بندی و برچسب گذاری داده های توالی. من نمی توانم این اشکال را در برچسب گذاری POS برنامه درک کنم. اگر بتوانید این ایراد را با مثال برچسب گذاری POS برای من توضیح دهید خوشحال می شوم.
مشکل سوگیری برچسب MEMM
113375
چگونه می توانم این مشکل را با استفاده از احتمال در R حل کنم؟ داده های زیر زمان بقا (در سال) برای 10 بیمار بالای 65 سال پس از تشخیص نوع خاصی از سرطان است: 10.5 0.2 7.4 0.8 5.3 3.2 11.9 3.7 2.6 0.6 فاصله اطمینان 95% را برای λ دریافت کنید: i) Wald 95 درصد؛ ii) بیزی، با در نظر گرفتن گامای پیشینی غیر اطلاعاتی. من می دانم که ll <- (lambda^n)*exp(-lambda*sum(n)) متشکرم
مشکل احتمال با توزیع نمایی با استفاده از R
60688
من حدود 70 مورد دارم که همه آنها با مقیاس لیکرت 5 درجه ای اندازه گیری شده اند. کاری که من می خواهم انجام دهم این است که مقدار میانگین آنها را در نظر بگیرم و اقلام را بر اساس میانگین آنها اما با توجه به اهمیت آماری از نظر تفاوت در میانگین رتبه بندی کنم. بنابراین اقلامی که دارای میانگین آماری معنی دار نیستند، رتبه یکسانی را کسب می کنند. آیتم - میانگین لیکرت - رتبه A - 5 - 1 B - 4 - 2 C - 3.1 - 3 D - 3.099 - 3 E - 2 - 4 F - 1 - 5 چگونه می توانم این کار را انجام دهم؟
چگونه اقلام اندازه گیری شده با مقیاس لیکرت را رتبه بندی کنیم؟
18581
من در حال حاضر در حال بررسی و ارزیابی یک سیستم توصیه‌گر شخصی هستم که روی آن کار می‌کنم، که به نظر کار بزرگی است. ارزیابی یک سیستم توصیه گر ایستا نسبتاً آسان است و می تواند با یک چارچوب ساده بیزی به روش سریع انجام شود. اما مشکل من در این است که چگونه می توان یک راه خوب برای اندازه گیری درجه و کیفیت شخصی سازی بدون بازخورد بیش از حد کاربر پیدا کرد. تعامل کاربر خوب است، اما کل کار باید بدون اینکه کاربر بازخورد صریح زیادی ارائه دهد کار کند. آیا متا استراتژی خوبی برای مقابله با این مشکل وجود دارد؟ چه مقادیر خوبی باید اندازه گیری کنم؟ در حال حاضر به مقادیری فکر می‌کنم که مستقیماً به بازخورد آگاهانه کاربر (یعنی «رضایت») وابسته نیستند، اما به عوامل آماری قابل استنباط بیشتری مانند ضریب همگرایی الگوریتم یادگیری و غیره بستگی دارند. ممنون بچه ها من به یک استراتژی کامل نیازی ندارم، بیشتر امیدوار هستم که هر کسی منابع خوبی برای مقابله با انواع این مشکلات پیدا کرده باشد، سپس من فقط می‌توانم ببینم چه چیزی برای مورد خاص من مناسب است. بهترین مارتین
روشهای ارزیابی برای توصیه شخصی
47749
می توان احتمال امتیاز صحیح یک مسابقه فوتبال را توسط پواسون (تعداد گل های تیم 1، میانگین گل های تیم 1) x پواسون (تعداد گل های تیم 2، میانگین میانگین 2 گل های تیم) محاسبه کرد، بنابراین برای امتیاز 0:0، پواسون (0، 1.05) x پواسون (0، 2.5) اگر میانگین Team1 1.05 و میانگین Team2 2.5 باشد. اما چگونه می توان احتمال / شانس تیم میزبان برای برد دقیقا با یک گل را محاسبه کرد؟ اضافه کردن دو پواسون برای هر امتیاز 2:1، 1:0، 3:2 و غیره ممکن است یکی از روش‌ها باشد، اما کار خسته‌کننده‌ای خواهد بود و من در حال حاضر سعی می‌کنم از اکسل اجتناب کنم تا ساده‌ترین روش را برای محاسبه پیدا کنم. این چگونه تیم دیگر را در محاسبات خود مشارکت می دهید؟ امید بود راه ساده‌تر و آسان‌تری وجود داشته باشد (چیزی مانند محاسبه P=0 و سپس 1-P(0) برای یافتن شانس P>=1).
چگونه می توان احتمالات پواسون تجمعی را بدون اضافه کردن هر یک در صورت خیر محاسبه کرد. از نتایج بزرگ است و بنابراین، اضافه کردن (بدون اکسل) دشوار است؟
29790
می‌خواهم ببینم آیا در زمان‌های بین ورود یک رویداد تکرارشونده در زمان گسسته، نظمی وجود دارد یا خیر. من می‌دانم که می‌توانم توزیع‌ها را با توزیع زمان بین‌آوری تطبیق دهم، اما آیا امکان‌های دیگری برای تشخیص و توصیف نظم‌ها برای توزیع زمان بین ورود وجود دارد؟ من می خواهم بدانم که چگونه توزیع طول های مختلف زمان های بین ورود در امتداد محور زمان همبستگی دارد.
چگونه می توان نظم ها را در توزیع زمان های بین ورود یک رویداد تکراری پیدا کرد و توصیف کرد؟
110270
من دو نمونه مستقل از بخش های نگهداری و مواد در رابطه با اثربخشی ماژول های SAP دارم. من داده های مقیاس لیکرت در مقیاس پنج دارم. آیا از آزمون تی نمونه مستقل برای مقایسه دو ماژول استفاده کنم؟
آیا استفاده از آزمون t برای مقایسه دو ماژول در SAP توصیه می شود؟
33124
من در حال مقایسه 2 مجموعه داده از مکان های نزدیک هستم تا ببینم آیا آنها در کیفیت هوا تفاوت قابل توجهی دارند یا خیر. من نمی توانم هیچ آزمایش زوجی انجام دهم زیرا داده ها در یک مکان لزوماً با داده های مکان دیگر مطابقت ندارند (یعنی یک نمونه در مکان A از دوشنبه تا جمعه گرفته شده است، نمونه دیگری در مکان B از سه شنبه تا جمعه گرفته شده است. شنبه). علاوه بر این، من چند نمونه تکراری دارم (2 نمونه در همان چند روز در یک مکان گرفته شده، اما نمونه های فیزیکی جداگانه، نه آنالیزهای تکراری یک نمونه) به من توصیه شده است که CDF این دو مکان را مقایسه کنم. آیا این توصیه خوبی است؟ اگر چنین است، می توانم از آزمون k-s در اینجا استفاده کنم. آیا تست های دیگری وجود دارد که بتوانم از آن استفاده کنم؟
جایگزین های آزمون کولموگروف-اسمیرنوف
70603
این یک مشکل تکلیف است. من توزیع زیر را از قسمت قبلی در مسئله به دست آورده ام $$ f_{X_1,X_2}(x_1,x_2) = \dfrac{\Gamma(x_1+x_2+r)\alpha_1^{x_1}\alpha_2^{x_2}\theta^r}{\Gamma(r)x_1!x_2!(\alpha_1+\alpha_2+\theta)^{x_1 +x_2+r}}$$ که در آن $\alpha_1، \alpha_2، r، \theta>0$ و x_1، x_2 = 0،1،...$. من باید این را در یک فرم خانواده نمایی قرار دهم و آمار کافی برای $(\alpha_1,\alpha_2,\theta)$ را پیدا کنم که در آن $r$ شناخته شده است و $r=1$. این تلاش من است: $\begin{align*} f_{X_1,X_2}(x_1,x_2) &= \dfrac{\Gamma(x_1+x_2+1)\alpha_1^{x_1}\alpha_2^{x_2}\theta}{x_1!x_2!(\alpha_1+\alpha_2+\theta)^{x_1+x_2+1}}\ \\ &= \dfrac{\Gamma(x_1+x_2+1)}{x_1!x_2!}e^{(\log{\alpha_1})x_1+(\log{\alpha_2})x_2-(\log{\alpha_1+\alpha_2+\ تتا})(x_1+x_2+1)+\log{\theta}}\\\ &= \dfrac{\Gamma(x_1+x_2+1)}{x_1!x_2!}e^{\left(\log{\tfrac{\alpha_1}{\alpha_1+\alpha_2+\theta}}\right)x_1+\left( \log{\tfrac{\alpha_2}{\alpha_1+\alpha_2+\theta}}\right)x_2-\log{\tfrac{\alpha_1+\alpha_2+\theta}{\theta}}}\\\ &= h(x_1,x_2)e^{\sum_{j=1}^3\eta_1(\alpha_1,\alpha_2,\theta)T_j(x_1,x_2)-B(\alpha_1,\alpha_2,\theta) } \end{align*}$ بنابراین آمار کافی من است $T(X_1,X_2)=(X_1,X_2,1)$؟؟؟ احساس میکنم کار اشتباهی کردم
3 پارامتر نمایی خانواده و آمار کافی
18483
برای یادگیری GHSOM متوجه شدم که باید SOM را به عنوان اولین قدم مطالعه کنم. اکنون، من اصول اولیه SOM را در مورد بردارهای وزنی و فواصل اقلیدسی می دانم: زمانی که مغز انسان به راحتی نمی تواند بیش از دو بعد داده را پردازش کند، SOM خوشه بندی می شود، یا به عبارت دیگر، داده ها را از ابعاد بالا به ابعاد پایین تر ترسیم می کند. این لینک عالی). من متوجه شدم که رئوس اوزان و تشابه چه کاری انجام می دهند، اما هنوز نتوانستم دقیقاً بفهمم GHSOM چگونه کار می کند. من در یک مقاله خواندم که با لایه های SOM کار می کند. با چند مثال امیدوارم بتوانم آن را بهتر درک کنم. لطفا یک مرجع مناسب برای یک مبتدی برای مطالعه در مورد آن به من بگویید؟ یا کسی می تواند توضیح دهد که الگوریتم چگونه کار می کند؟ پیشاپیش ممنون
در حال رشد نقشه های خود سازماندهی سلسله مراتبی
26006
ما معمولاً به مشتریان در مورد تعصب بالقوه یک حالت نسبت به حالت دیگر (مثلاً نظرسنجی های آنلاین در مقابل نظرسنجی کاغذی) و تعصبی که یک مقیاس می تواند هنگام طراحی پرسشنامه داشته باشد، آموزش می دهیم. مشتری اخیراً از من می پرسد که چگونه می توانیم این سوگیری را آزمایش کنیم و من به دنبال ایده هستم؟
هنگام طراحی پرسشنامه های نظرسنجی، سوگیری حالت و اثرات مقیاس را چگونه ارزیابی می کنید؟
26007
هنگام بررسی تناسب مدل رگرسیون لجستیک من از طریق دستور linktest در Stata، نتایج نشان می‌دهد که hatsq به دلیل همخطی بودن حذف شده است. آیا این نتیجه نشان می دهد که متغیری که توسط linktest توصیه می شود با یکی از متغیرهای پیش بینی هم خط است؟ آیا این نتیجه را به عنوان نشانه ای تفسیر می کنم که هیچ پیش بینی کننده اضافی توصیه نمی شود؟
رگرسیون لجستیک و لینک تست در Stata
86788
من همیشه به عبارت خطا در مدل رگرسیون خطی به عنوان یک متغیر تصادفی با مقداری توزیع و واریانس فکر می کنم. بنابراین اگر عبارات خطا از این متغیر تصادفی می آیند، چرا می گوییم که واریانس ثابت دارند؟
چرا می گوییم واریانس عبارات خطا ثابت است؟
33780
من R را یاد گرفتم اما به نظر می رسد که شرکت ها بسیار بیشتر به تجربه SAS علاقه مند هستند. مزایای SAS نسبت به R چیست؟
R در مقابل SAS، چرا SAS توسط شرکت های خصوصی ترجیح داده می شود؟
86816
من از Stata برای انجام آنالیز ANOVA استفاده می کنم. من می خواهم در مورد نحوه تنظیم داده ها کمک بخواهم. این یک تحلیل بافت است و من چهار مجموعه داده (چهار نقطه زمانی مختلف) دارم![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LB0NB.png)
چیدمان داده ANOVA
70609
من 42 DV دارم که به صورت جداگانه در مقابل همان IV تک مدل‌سازی کرده‌ام - با استفاده از GAMها از طریق بسته mgcv در R. این مجموعاً 42 مدل مجزا برای هر یک از DVهای من و p-vlaues مربوطه تولید کرده است. سوال من این است: آیا باید مقادیر p را در شرایط فوق تنظیم کنم؟ من می‌دانم که اگر یکی بیش از 1 IV داشته باشد، مقدار p به سادگی بر تعداد IV تقسیم می‌شود (یعنی 0.05/20 - در مورد 20 IV). با این حال، زمانی که تنها یک IV در نظر گرفته می شود، در تلاش برای یافتن اطلاعاتی برای حمایت از این رویکرد هستم.
تنظیم مقادیر p برای یک پیش‌بینی‌کننده واحد
110277
در فرآیند گاوسی (GP)، هسته (تابع کوواریانس) برای اندازه گیری شباهت بین یک نقطه و یک نقطه داده شده استفاده می شود. توابع کرنل بسیار زیادی برای GP وجود دارد، و من نمی دانم چگونه یک هسته مناسب را انتخاب کنم. به عنوان مثال، اگر داده های سری زمانی من دوره ای نیستند، آیا باید هسته نمایی مربعی (SE) را انتخاب کنم؟ علاوه بر این، آیا کسی می تواند توضیح دهد که چرا هسته SE نیز بسیار محبوب است؟ ویژگی این کرنل چیست؟ پیشاپیش از کمک شما متشکرم
چگونه هسته را برای فرآیند گاوسی انتخاب کنیم؟
94496
این یک نوع سوال بعدی از این پست است: نزول گرادیان در مقابل تابع lm() در R؟ آیا ادبیاتی برای مفهوم تجزیه QR موجود در تابع lm() در R وجود دارد؟
تابع lm() در R
38668
من داده های نظرسنجی بزرگ، یک متغیر نتیجه باینری و بسیاری از متغیرهای توضیحی از جمله باینری و پیوسته دارم. من در حال ساخت مجموعه‌های مدل هستم (با GLM و GLM ترکیبی آزمایش می‌کنم) و از رویکردهای نظری اطلاعات برای انتخاب مدل برتر استفاده می‌کنم. من به دقت توضیحات (هم پیوسته و هم مقوله ای) را برای همبستگی بررسی کردم و فقط از مواردی در همان مدل استفاده می کنم که ضریب پیرسون یا فیکور کمتر از 0.3 دارند. من مایلم به همه متغیرهای پیوسته خود فرصت مناسبی برای رقابت برای مدل برتر بدهم. در تجربه من، تبدیل کسانی که به آن نیاز دارند بر اساس چولگی، مدلی را که آنها در آن شرکت می کنند (AIC پایین) بهبود می بخشد. اولین سوال من این است: آیا این بهبود به این دلیل است که تبدیل خطی بودن را با لاجیت بهبود می بخشد؟ یا آیا تصحیح انحراف تعادل متغیرهای توضیحی را به نوعی با متقارن کردن داده ها بهبود می بخشد؟ ای کاش دلایل ریاضی پشت این را می فهمیدم، اما در حال حاضر، اگر کسی بتواند این را به آسانی توضیح دهد، عالی خواهد بود. اگر مرجعی دارید که بتوانم از آن استفاده کنم، واقعا ممنون می شوم. بسیاری از سایت های اینترنتی می گویند که چون عادی بودن یک فرض در رگرسیون لجستیک باینری نیست، متغیرها را تغییر ندهید. اما من احساس می‌کنم که با تغییر ندادن متغیرهایم، برخی را در مقایسه با سایرین در مضیقه قرار می‌دهم و ممکن است مدل برتر را تحت تأثیر قرار دهد و استنتاج را تغییر دهد (خوب، معمولاً اینطور نیست، اما در برخی از مجموعه‌های داده اینطور است). برخی از متغیرهای من زمانی که log تبدیل می‌شوند عملکرد بهتری دارند، برخی زمانی که مربع می‌شوند (جهت متفاوت انحراف) و برخی بدون تبدیل. آیا کسی می‌تواند راهنمایی‌ای به من بدهد که در هنگام تبدیل متغیرهای توضیحی برای رگرسیون لجستیک به چه نکاتی دقت کنم و اگر این کار را انجام نمی‌دهم، چرا که نه؟
تبدیل متغیرهای پیوسته برای رگرسیون لجستیک
86787
در نظر بگیرید که ما با یک مدل بیزی خاص شروع می کنیم، مثلاً یک مدل مخلوط نامتناهی با فرآیند دیریکله به عنوان قبلی. من می دانم که انواع زیادی در این موضوع وجود دارد، از فرآیند دیریکله سلسله مراتبی، فرآیند دیریکله تودرتو، فرآیند دیریکله تبدیل شده و سایر نسخه های وابسته که سعی در ترکیب وابستگی های مکانی یا زمانی دارند. و سپس ما دنیای آینه را با فرآیند بتا و الحاقات آن داریم. به طور مستمر در این زمینه، دانشمندان یکی از پیشینیان را در یک فرآیند و پیشین(های) متناظر، ترجیحاً با استفاده از برخی استعاره های ناهار خوری، بازنویسی می کنند. و voila، یک کاغذ دیگر. آیا کسی سعی کرده در این فضا جستجو کند؟ اعتراف می کنم که بزرگ است. با این حال، این احتمال وجود دارد که اگر این جستجو به درستی انجام شود، ما نیازی به محاسبه مجدد همه چیز نداریم. اگر من یک خمره با تیله‌هایی داشته باشم که همه آنها آبی هستند، و حالا یک سنگ مرمر را از دیم دیگری انتخاب کنم که قرمز شده است، منطقی است که قبلاً مربوط به این رویداد باشد. می‌توان آن را با پیشین در «سطح رنگ» یا در سطح انتزاعی‌تر «یکنواختی» اداره کرد. جستجو از طریق فضای پیشینیان، به نظر من جالب ترین جستجو در دنیای بیزی هاست... برخی از نکات برای کار در این جهت عالی خواهد بود!
آیا نظریه جستجوی بیزی در مورد جستجو در فضای مدل های بیزی وجود دارد؟
76607
بنابراین من با دو استاد در این مورد صحبت کرده ام و هنوز گیج هستم. شاید لازم باشد آن را به صورت کتبی ببینم (من یک یادگیرنده بصری هستم). این آزمایشی با مگس سرکه (Drosophila) است. در حال حاضر، نمونه های ما هر کدام حداقل 30 میلیون خوانده می شوند. با توجه به اینکه ما 3 تکرار بیولوژیکی در هر شرایط داریم، 90 میلیون مطالعه به ما می دهد. فرض کنید ما فقط 50 درصد از تراز شده‌ها را دریافت می‌کنیم و فقط بخش‌های 100bp را می‌شماریم (اگرچه Illumina دارای پایان جفت است، من فکر می‌کنم که این فقط دقت نقشه‌برداری را بهبود می‌بخشد). این به ما 45e6 x 100 = 45e8 bp خواندن می دهد. اگزوم مگس سرکه (شامل ژن های غیر کدکننده) 17e3 ژن x میانگین 6e3 جفت باز در هر ژن = 1e8 جفت باز است. 45e8bp از خواندن / 1e8 bp کدگذاری و غیر کدگذاری exome = پوشش 45 برابر. لطفاً اگر محاسبات را درست انجام داده ام به من اطلاع دهید. حدس زدن زیاد است. اعداد من برای اگزوم مگس سرکه از اینجا آمده است: http://flybase.org/static_pages/docs/release_notes.html یک عارضه دیگر: با توجه به ماهیت آزمایش، تنها حدود 1/3 حیوان تحت تأثیر آزمایش من قرار گرفته است. وضعیت. نگرانی من این است که 2/3 دیگر تغییرات بیان ژنی را که ممکن است در بافت آسیب دیده ببینم، پوشانده خواهد شد. سؤال این است که من واقعاً قادر خواهم بود چند ژن را که به طور متفاوت در این پوشش 45 برابری بیان می‌شوند شناسایی کنم؟ آیا من فقط قادر به تشخیص ژن هایی با فراوانی بالا هستم؟ آیا افزایش آن به 75 برابر کمک می کند یا فقط هدر دادن پول است؟ یکی از اساتید به من گفت نگران نباشید و یکی دیگر به من گفت که این یک تست هایپرهندسی است. خیلی ممنون p.s. من این ابزار را برای انجام تجزیه و تحلیل توان با RNA-seq پیدا کرده ام: http://euler.bc.edu/marthlab/scotty/scotty.php اما داده های آزمایشی ندارم (و کاملاً نمی دانم چگونه درست کنم داده های شبیه سازی شده) برای استفاده از آن.
تخمین تعداد دفعات RNA-seq مورد نیاز برای تشخیص بیان دیفرانسیل
33788
من می خواهم یک مطالعه پیشنهادی در مورد فراوانی یک اختلال خواب، یعنی فلج خواب، انجام دهم و آزمایش کنم تا ببینم آیا یک ویژگی برای ذهن آگاهی با آن ارتباط دارد یا خیر. یک پرسشنامه برای افرادی که ممکن است این اختلال را داشته باشند داده می شود تا تایید شود که دارند و مقیاسی برای اندازه گیری ذهن آگاهی نیز داده خواهد شد. بنابراین مقیاس‌های مقیاس برای ذهن‌آگاهی در مقیاس لیکرت 6 درجه‌ای هستند، بنابراین فکر می‌کنم مقیاس فاصله‌ای باشد. حدس می زنم بعد از دریافت نتایج از نظرسنجی فلج خواب می توانم فرکانس های تجربه را بر اساس آن دسته بندی کنم تا همبستگی را نشان دهم..؟ بنابراین ایده این است که به سادگی این فرضیه جایگزین را آزمایش کنیم که افرادی که اغلب فلج خواب را تجربه می‌کنند، ویژگی کمتری برای تمرکز حواس دارند... بنابراین می‌دانم که این از نظر طراحی همبستگی دارد، اما دقیقاً از چه آماری استفاده کنم مطمئن نیستم...
آمار همبستگی
75030
درست قبل از شروع سوال، مایلم همه شما بدانید که من موضوعات دیگر را برای گرفتن گزارش متغیرها بررسی کرده ام اما هنوز فکر می کنم سوالی دارم که هنوز به آن پرداخته نشده است. همچنین می‌خواهم از whuber به خاطر پاسخ طولانی‌اش به یک سوال دیگر در اینجا تشکر کنم. این سوال به طور خاص به یکی از دلایلی که چرا ما لاگ می گیریم، یعنی تبدیل توزیع داده ها، مربوط می شود. وقتی لاگ یک متغیر را می گیریم معمولاً به این دلیل است که توزیع متغیر کج است و می خواهیم به آن توزیع نرمال بدهیم. یک مثال رایج از این امر در رگرسیون OLS در اقتصاد، متغیری است که نشان دهنده دستمزد، درآمد، تولید ناخالص داخلی و غیره است. CLT می گوید که مجموع بسیاری از متغیرهای تصادفی به طور معمول توزیع می شود حتی اگر توزیع های اساسی آنها به طور معمول توزیع نشده باشد. اگر خطا حاصل مجموع متغیرهای تصادفی $X$ و $Y$، $\epsilon = Y - X\beta$ باشد، مطمئناً خطا بدون توجه به توزیع $X$ و $Y$ توزیع خواهد شد. اگر این مورد برقرار است (و به نظر می رسد CLT در شرایط بسیار ضعیفی باقی می ماند) پس چرا باید متغیر را تبدیل کنیم؟
گرفتن گزارش از متغیرها
86785
تخمین پارامترهای فرمولی برای چولگی-نرمال چیست؟ اگر می توانید، استخراج از طریق MLE یا Mom نیز عالی خواهد بود. با تشکر **ویرایش**. من مجموعه‌ای از داده‌ها را دارم که می‌توانم به صورت بصری با نمودارها متوجه شوم که کمی به سمت چپ انحراف دارند. من می‌خواهم میانگین و واریانس را تخمین بزنم و سپس تست خوبی انجام دهم (به همین دلیل است که به تخمین پارامترها نیاز دارم). آیا من درست فکر می کنم که فقط باید انحراف (آلفا) را حدس بزنم (شاید چندین انحراف انجام دهم و آزمایش کنم که کدام بهتر است؟). من مشتق MLE را برای درک خودم می خواهم - MLE را به MoM ترجیح می دهم زیرا با آن بیشتر آشنا هستم. مطمئن نبودم که بیش از یک انحراف معمولی وجود داشته باشد - منظورم فقط یک انحراف است! در صورت امکان، تخمین پارامترهای توان نمایی انحرافی نیز مفید خواهد بود!
تخمین پارامترها برای توزیع نرمال چوله
94495
من یک سوال تکلیف دارم. من بسیاری از آن را قبلاً حل کرده‌ام، اما مطمئن نیستم که چگونه با یک بخش خاص که شامل پیش‌بینی است (قسمت B و C) ادامه دهم. من به دنبال کسی نیستم که فقط به من پاسخ دهد، اما امیدوار بودم کسی به من در جهت درستی که چگونه این بخش از سوال را حل کنم راهنمایی کند. اگر اینجا مکان مناسبی برای جستجوی این نوع کمک نیست، عذرخواهی می کنم. این کاری است که من تاکنون انجام داده ام: > یک مدیر فروش مایل است رابطه بین تعداد > مایل هایی که نمایندگان فروش او سفر می کنند و میزان > فروش ماهانه آنها را بررسی کند. او می‌خواهد از این اطلاعات برای فرمول‌بندی معادله‌ای استفاده کند که > از آن برای پیش‌بینی فروش (متغیر y یا وابسته، دلار) بر اساس > «MilesTraveled» (متغیر x یا مستقل) استفاده کند. اطلاعات زیر جمع آوری شد: > > > مایل های طی شده: 50، 120، 200، 250، 300 > فروش: 2500، 10000، 15000، 17500، 21000 > > > الف) معادله خط رگرسیون $ را بنویسید: > 4$ _y = 101.695 + 71.186x_ > > **ب) پیش بینی فروش برای شخصی که 150 مایل سفر می کند: > > ج) پیش بینی فروش برای شخصی که 205 مایل سفر می کند:** > > د) مقدار ضریب همبستگی پیرسون چیست؟ > > $\quad$ _r= 0.9903، p = 0.001_ > > e) رگرسیون را به طور خلاصه تعریف کنید: > > $\quad$ _رگرسیون تلاش می کند وابستگی یک متغیر را به یک > (یا چند) متغیر توضیحی توصیف کند._ > > و) توضیح دهید که شیب 71.186 چه چیزی را نشان می دهد: > > $\quad$ _71.186 نشان دهنده میانگین تغییری است که در متغیر وابسته > (فروش) رخ داده است._ > > g) توضیح دهید که قطع y از 101.695 چه چیزی را نشان می دهد: > > $\quad$ _101.695 نقطه ای است که خط رگرسیون > y را قطع می کند. -محور._
همبستگی و پیش بینی رگرسیون
70600
@cbeleites در پاسخ به این سوال اشاره می کند که چگونه بهترین نقطه برش و فاصله اطمینان آن را با استفاده از منحنی ROC در R تعیین کنیم؟ که اگر بتوان رابطه بین منفی کاذب و مثبت کاذب را مشخص کرد (مثلاً منفی کاذب 10 برابر بدتر از مثبت کاذب است) نزدیکترین نقطه به گوشه ایده آل را اصلاح می کند. آیا راهی ریاضی برای یافتن این مقدار وجود دارد؟ اگر چنین است می توانید به من در جهت یافتن آن اشاره کنید؟
برش منحنی ROC
86782
مجموعه داده ای به من داده می شود تا تحلیل عاملی را روی آن اجرا کنم. تعداد متغیرها بیشتر از تعداد موارد بود، بنابراین من باید تصمیم می گرفتم که کدام متغیرها را حذف کنم. من این کار را با نگاهی به ماتریس همبستگی انجام دادم، آن دسته از متغیرهایی را که همبستگی خیلی زیاد (تقریباً کامل) داشتند حذف کردم. بنابراین در اینجا چند سوال وجود دارد: **1) بهترین روش برای خلاص شدن از شر متغیرها در هنگام مواجهه با چنین مشکلی چیست؟** تعداد موارد من 48 است در حالی که من تعداد متغیرها را به 24 کاهش داده ام. نسبت تعداد مشاهدات به تعداد متغیرها باید حداقل 5 باشد، اما من تصمیم ندارم چه متغیرهای دیگری را حذف کنم. من تحلیل عاملی را روی این مجموعه داده اجرا کردم و این خطا را دریافت کردم: > حداقل محلی پیدا نشد، استخراج پایان یافت. فرض می‌کنم که باید به مناسب نبودن مجموعه داده‌های من برای تحلیل عاملی مربوط باشد. خب حالا باید چیکار کنم؟ **2) آیا خطا را دریافت می کنم زیرا هنوز متغیرهای زیادی دارم که تعداد مشاهدات کافی برای آنها ندارم؟**
مشکلات اجرای تحلیل عاملی
94317
فرض کنید یک آزمایش را به طور یکسان و مستقل 100 بار تکرار می کنیم. هر بار که از طریق توزیع t یک بازه اطمینان 99% برای $\mu$ ایجاد می کنیم. اجازه دهید X = تعداد دفعاتی که بازه اطمینان حاوی مقدار واقعی $\mu$ نیست. توزیع X به این صورت است: نرمال با $\mu=0$ و $\sigma^2 = 1$، آیا این درست است؟ از آنجایی که در Normal، میانگین باید صفر و واریانس همیشه یک باشد. از آنجایی که این یک توزیع t است، باید نرمال باشد. من فکر کردم که ممکن است پاسخ دیگری برای آن نرمال باشد با $\mu = 99$ و $\sigma^2 = 0.99$ آیا کسی می تواند توضیح دهد که کدام یک می تواند صحیح باشد، اگر اصلا درست باشد؟
این چه نوع توزیع از طریق توزیع t است
725
**تصویر فراطیفی** یک تصویر چند بعدی با بیش از 200 باند طیفی است، یعنی تصویری که برای آن هر پیکسل بردار ابعاد 200 است (اغلب این یک منحنی طیفی نمونه برداری شده است که در تصاویر ماهواره ای یا تصاویر پزشکی مشاهده می شود). **پکیج پیاده سازی شده** (من به ویژه به بسته های R علاقه مند هستم اما اگر الگوریتم های رایگان دیگری وجود داشته باشد، آنها را امتحان خواهم کرد) برای **تشخیص مرز** و (بدون نظارت) **بخش بندی** این نوع تصاویر چیست؟ ?
بسته‌های R پیشنهادی برای تخمین مرزی یا تقسیم‌بندی تصاویر فراطیفی
18054
من در این زمینه کاملاً تازه کار هستم، بنابراین امیدوارم اگر سؤال ساده لوحانه است مرا ببخشید. (زمینه: من در حال یادگیری اقتصاد سنجی از کتاب تئوری و روش های اقتصاد سنجی دیویدسون و مک کینون هستم، و به نظر نمی رسد که آنها این را توضیح دهند؛ همچنین به کتاب بهینه سازی لونبرگر نگاه کرده ام که به پیش بینی ها در سطح کمی پیشرفته تر می پردازد، اما بدون شانس). فرض کنید که من یک طرح متعامد $\mathbb P$ با ماتریس طرح ریزی مرتبط $\bf P$ دارم. من علاقه مندم که هر بردار را در $\mathbb{R}^n$ در فضای فرعی $A \subset \mathbb{R}^n$ نشان دهم. _سوال_: چرا به دنبال این است که $\bf{P}=P$$^T$، یعنی $\bf P$ متقارن است؟ برای این نتیجه به چه کتاب درسی می توانم نگاه کنم؟
چرا ماتریس طرح ریزی یک طرح ریزی متعامد متقارن است؟
83492
بهترین رویکرد برای مقابله با مقادیر اسمی غیرمنتظره، که توسط درختان تصمیم در زمان آموزش دیده نمی شوند، چیست؟
درختان تصمیم: مقادیر اسمی که در زمان آموزش دیده نمی شوند
38662
من در حال اجرای یک تست بازاریابی هستم که بنر A را با بنر B با بنر C مقایسه می کند. هر بنر بیش از 10 میلیون نوردهی دریافت کرد و بر اساس نرخ پاسخ، در اوایل آزمایش به این نتیجه رسیدیم که بنرهای B و C هر دو بر بنر A ضربه می زنند. با این حال، پس از تست نتایج را تجزیه و تحلیل کردیم و اکنون به نظر می رسد که بنر A بنر شماره 2 ما است و بنر B به پایین سقوط کرده است. این نتایج اخیر نیز از نظر آماری قابل توجه است. اولین غریزه من این است که باید چیزی از نظر ساختاری در مورد آزمایش تغییر کرده باشد تا این اتفاق بیفتد. به عنوان مثال، من فکر می کردم که شاید جمعیت شناسی مخاطبان در معرض تغییر تغییر کرده و باعث نتیجه متفاوتی شود. اما به نظر می رسد تا کنون هیچ تغییر ساختاری صورت نگرفته است. با همه اینها به عنوان زمینه، لطفاً کسی می تواند توضیح دهد که چگونه می خواهید این نتایج را تفسیر کنید؟ آیا به یافته های اولیه اعتماد دارید یا به یافته های اخیر؟ آیا من درست معتقدم که این واقعیت که یافته های دیرهنگام با یافته های اولیه در تضاد هستند، نشان دهنده تغییر ساختاری چیزی در مورد آزمون است؟ به هر حال، از نقطه نظر آماری، تغییر نتایج اولیه با نمایش مداوم تبلیغات، بسیار بعید نیست. به همین دلیل است که آزمون را برای معناداری آماری اجرا می کنیم. من از هر توضیح یا توصیه ای که کسی می تواند ارائه دهد بسیار قدردانی می کنم.
پاسخ های متناقض از آزمون بازاریابی: هر دو پاسخ از نظر آماری معنی دار هستند
38663
فرض کنید من مجموعه داده های زیر را به نام فایل «نتایج» دارم. من می خواهم یک برنامه بوت استرپ با استفاده از SAS و R بنویسم تا فاصله اطمینان را برای نسبت میانگین تعیین کنم. اگر دانش آموزی بیش از 50 نمره کسب کند، قبولی است و در غیر این صورت مردود است. تعداد تکرار باید 1000 عدد باشد. 78 85 78 30
برنامه نویسی فاصله اطمینان بوت استرپ
83496
پروژه فعلی من ممکن است از من بخواهد که یک مدل برای پیش بینی رفتار گروه خاصی از مردم بسازم. مجموعه داده های آموزشی فقط شامل 6 متغیر است (شناسه فقط برای اهداف شناسایی است): شناسه، سن، درآمد، جنسیت، دسته شغل، هزینه ماهانه که در آن هزینه ماهانه متغیر پاسخ است. اما مجموعه داده آموزشی شامل تقریباً 3 میلیون ردیف است و مجموعه داده (که شامل «شناسه، سن، درآمد، جنسیت، دسته شغلی» اما بدون متغیر پاسخ است) که باید پیش‌بینی شود حاوی 1 میلیون ردیف است. سوال من این است: آیا اگر ردیف های زیادی (در این مورد 3 میلیون) را در یک مدل آماری پرتاب کنم، مشکل احتمالی وجود دارد؟ می دانم که هزینه های محاسباتی یکی از نگرانی هاست، آیا نگرانی دیگری وجود دارد؟ آیا کتاب / مقاله ای وجود دارد که به طور کامل مسئله اندازه مجموعه داده ها را توضیح دهد؟
چرا یک مدل آماری اگر مجموعه داده عظیمی به آن داده شود، بیش از حد مناسب است؟
18587
من در حال مقایسه حقوق و دستمزد بسته به 2 شهر هستم. بسیار شبیه به این وب سایت است، بنابراین شما یک شهر مبدا، سپس یک شهر مقصد، حقوق فعلی خود را در شهر مبدا انتخاب می کنید و حقوق «مقایسه» در شهر مقصد را تولید می کند. من می خواهم تأیید کنم که کاری که انجام می دهم درست است، فقط یک دقیقه با من صحبت کنید. من برای شما مثال می زنم. همه داده ها ساختگی هستند. شهر منبع: کلیولند، OH شهر مقصد: سیاتل، WA کلیولند حقوق: 120,000 دلار روشی که من مقایسه می‌کنم این است که قیمت مسکن، قیمت حمل‌ونقل را می‌گیرم و می‌بینم کجا بالاتر/پایین‌تر است. بنابراین، بیایید فرض کنیم که من فقط این دو بخش از هزینه را در نظر خواهم گرفت: مسکن و حمل و نقل. به طور متوسط ​​مسکن 30 درصد از هزینه ها را تشکیل می دهد، در حالی که حمل و نقل 20 درصد است. بیایید فرض کنیم که مسکن در سیاتل 10٪ گران تر است، در حالی که حمل و نقل 5٪ ارزان تر است. حالا اینجا جایی است که من از شما کمک می خواهم. آیا این کار را درست انجام می دهم؟ 1. 30% + 20% = 50% در حقوق نوسان خواهد داشت (چون من فقط این دو هزینه را در نظر می‌گیرم) 2. کل مبلغی که از حقوق منبع در نوسان است: 120000 دلار - 50% = 60K 3. مسکن 30% است ( = 36000 دلار) از 60 هزار 4. حمل و نقل 20٪ است (= 24,000 دلار) از 60 هزار 5. مسکن 10 درصد بالاتر است، بنابراین 36 هزار + 10 درصد (3,6 هزار) = 39,600 دلار 6. حمل و نقل 5 درصد کمتر است، بنابراین 24 هزار - 5 درصد (1,2 هزار) = 22,800 دلار 7. حقوق قابل مقایسه در سیاتل (دست نخورده) 60 هزار + 39600 خواهد بود + 22,800 = 122,400 دلار آیا این محاسبات به نظر شما درست است؟
حقوق قابل مقایسه در محاسبات شهری متفاوت
30476
به نظر می‌رسد که متخصصان تجسم داده‌ها عموماً نمودارهای اندازه‌گیری را تأیید نمی‌کنند (اینجا را ببینید: نموداری را که شبیه نمودار نیم دایره‌ای با سوزن نشان‌دهنده درصد است، چه می‌نامید؟). دلیل اصلی این است که نمودار گیج نسبت داده به جوهر پایینی دارد. از زمانی که در معرض این مفاهیم (چند کتاب توفت) قرار گرفتم، به طور کلی با آنها موافق بودم، اما امروز این تعجب برای من ایجاد شد: اگر گیج ها در انتقال اطلاعات اینقدر ناکارآمد هستند، پس چرا ماشین ها/قایق ها/هواپیماها دارای گیج های زیادی هستند. داشبورد آنها؟ و آیا پاسخ به سوال _that_ نوعی ارتباط با ایجاد داشبورد نرم افزاری برای شرکت های بزرگ دارد؟ ویرایش شده تا حاوی اطلاعات بیشتری باشد که پیدا کردم: اصطلاحی پیدا کردم، کابین کابین شیشه ای که به کابین هواپیما اشاره دارد که گیج های مکانیکی آن با صفحه نمایش LCD جایگزین شده است. این به استدلال «کنوانسیون» ارائه شده توسط وین اعتبار می بخشد. http://en.wikipedia.org/wiki/Glass_cockpit در اینجا یک برنامه iPad وجود دارد که تصویری شبیه به داشبورد از تله متری خودروی شما ارائه می دهد، بدون اینکه سنج دیده شود. http://itunes.apple.com/us/app/dashcommand-obd-ii-gauge- dashboards/id321293183?mt=8 من همچنین یک نمونه ناخالص از گیج های دیجیتال برای خودروها را پیدا کردم (به صلاحدید بیننده توصیه می شود). http://www.chetcodigital.com/index-Automotive.htm
اگر نمودارهای گیج بد هستند، چرا خودروها گیج دارند؟
33785
من سوال زیر را پرسیدم و (فکر نکنید) واقعاً پاسخ کاملی دریافت کردم. من برداشت خود را در مورد مناسب بودن پاسخ واجد شرایط می دانم، زیرا شاید فاقد دانش پیش نیاز هستم. I. در رگرسیون خطی معمولی بدون متغیرهای کمکی اسمی، یعنی $y= b_o + b_1 \times x_1 + b_2 \times x_2 + e$ که در آن $x_1$ و $x_2$ متغیرهای کمکی عددی هستند، آیا محدودیتی برای $b_1$ و $ وجود دارد. b_2$ (من می دانم که ماتریس طراحی X زمانی که متغیرهای ساختگی و بیش از 2 سطح از یک پیش بینی کننده اسمی معین وجود داشته باشد معکوس نخواهد بود - از این رو در اینجا فقط متغیرهای کمکی عددی را ذکر می کنم). اگر هیچ محدودیتی برای ضرایب $b_1$ و $b_2$ وجود ندارد، پس چرا محدودیت‌هایی روی $f_1(x)$ و $f_2(x)$ در یک GAM وجود دارد؟ از متن سایمون وود: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ve6gR.jpg) II. آیا این محدودیت ها هنگام در نظر گرفتن یک خطی تعمیم یافته مورد نیاز است مدل افزودنی؟
محدودیت های مرکزی برای رگرسیون - به ویژه GAM
70602
در مسئله طبقه‌بندی چند کلاسه، اگر نورون‌های خروجی توسط تابع $tanh$ فعال شوند، چگونه تخصیص کلاس را برای الگو تعیین کنیم؟ در مورد سیگموئید، همه نورون‌های خروجی دارای ارزش [0,1]$ هستند و با استفاده از رمزگذاری 1-of-C متغیر پاسخ، خطا به خوبی تعریف شده و کلاس توسط نورون با حداکثر مقدار تعیین می‌شود. در صورت استفاده از مماس هذلولی، مقادیر نورون ها در $[-1,1]$ خواهد بود و اگر از رمزگذاری 1-of-C استفاده کنیم، خطاها بسیار زیاد خواهد بود و مشخص نیست که چگونه الگو را بر اساس الگوی طبقه بندی کنیم. خروجی شبکه؟ شاید باید پاسخ را با $\\{-1، +1\\}$ با $+1$ برای کلاس صحیح و $-1$ برای بقیه رمزگذاری کنیم؟
شبکه های عصبی: تابع فعال سازی $tanh$ در لایه خروجی
83493
من مجموعه ای از داده ها دارم که سعی می کنم بر اساس آن رگرسیون انجام دهم و شکست می خورم. وضعیت: * هزاران نفر از اپراتورهای ربات جنگی با استفاده از ربات های جنگی در حال نبرد بین یکدیگر هستند. * برخی از ربات های جنگی قوی و قدرتمند هستند و برخی دیگر ضعیف هستند. افراد قوی بیشتر برنده می شوند و آسیب بیشتری وارد می کنند. * مهارت‌های اپراتورهای ربات متفاوت است، و افراد ماهرتر بیشتر برنده می‌شوند و آسیب بیشتری وارد می‌کنند. * ما می دانیم که آنها از چه ربات های جنگی در نبردهای خود استفاده کرده اند و چند بار (از جمله اینکه در چه تعداد از آن نبردها پیروز شده اند) و کل خسارت آنها (از دو نوع آسیب A و آسیب B) در کل می دانیم * برخی از ربات ها در ایجاد آسیب A بهتر است، در حالی که سایرین آسیب B * برای اپراتورهای ربات جنگی ناشناخته فقط بر اساس اینکه از چه روبات هایی در نبردها استفاده کرده اند (و چند بار)، ما می خواهیم تخمین بزنیم که چه مقدار خسارت از هر نوع وارد می شود و چه درصدی از نبردهایی که به احتمال زیاد برنده شده اند به عنوان مثال: * جان از ربات A برای 4 نبرد و ربات B برای 2 نبرد استفاده کرده است و 240 واحد خسارت وارد کرده است * جیمز از ربات A برای 1 نبرد و ربات B برای 10 نبرد استفاده کرده است. ، و 1010 واحد خسارت وارد کرده است، بنابراین می توانم تخمین بزنم که ربات A احتمالاً 10 واحد خسارت A در هر نبرد وارد می کند، در حالی که ربات B به ازای هر نبرد 100 واحد خسارت A وارد می‌کند، و بنابراین اگر از ماتیو که فقط هر یک از دو ربات را برای 2 نبرد بازی کرده است، از شما خواسته شود خسارت A را تخمین بزند، 220 == (10*2 + 100*2) تخمین زده می‌شود. متأسفانه، داده های واقعی آنقدرها هم تمیز و ساده نیستند، احتمالاً به این دلیل: * به دلیل مهارت اپراتور ربات، واریانس قابل توجهی وجود دارد، به عنوان مثال، یک اپراتور خوب می تواند 20 واحد آسیب را با ربات A وارد کند در حالی که یک اپراتور بد فقط 5 واحد. * مقداری واریانس تصادفی به دلیل ترسیم حریفان در صورت نمونه کوچک وجود دارد (مثلاً شخصی یک حریف قوی را ترسیم می کند و با وجود داشتن ربات بهتر از حریف بازنده می شود)، اگرچه در نهایت یکنواخت می شود * ممکن است یک سوگیری جزئی در انتخاب وجود داشته باشد. که بهترین اپراتورهای ربات موفق می‌شوند بهترین ربات‌ها را برای حضور بیشتر در نبرد انتخاب کنند. مجموعه داده‌های واقعی در اینجا موجود است (630 هزار ورودی از نتایج اپراتورهای نبرد شناخته شده): http://goo.gl/YAJp4O مجموعه داده ها به صورت زیر سازماندهی شده است، با یک ورودی اپراتور ربات در هر ردیف: * ستون 1 بدون برچسب - شناسه اپراتور * نبردها - کل نبردهایی که این اپراتور در آنها شرکت کرده است * پیروزی ها - کل نبردهایی که این اپراتور برنده شده است * شکست ها - کل نبردها این اپراتور از دست داده است * آسیب A - کل خسارت وارد شده به A * آسیب B - کل خسارت وارد شده B * 130 جفت ستون به شرح زیر است: * battles_[robotID] - نبردها با استفاده از ربات [robotID] * victories_[robotID] - پیروزی‌هایی که با استفاده از ربات [robotID] به‌دست‌آمده‌ام آنچه تا کنون انجام داده‌ام: * چند مدل خطی را با استفاده از بسته R `biglm` امتحان کردم که فرمولی مانند این را می‌سازد. به عنوان «damageA ~ 0 + battles_1501 + battles_4201 + ...» برای تلاش برای برازش مقادیر «مورد انتظار» برای هر یک از ربات ها * همان، اما حذف رهگیری مبدأ اجباری با درج نکردن «0 +» در فرمول * همان، بلکه شامل «Victories_[robotID]» در متغیرهای مستقل است. به اعداد شکست خود نزدیک هستند * یک مدل رگرسیون خطی برای damageA ~ 0 + battles_1501 + battles_non_1501 که در آن «battles_non_1501» همه نبردها در روبات‌هایی غیر از ربات مدل 1501 هستند. سپس برای همه انواع ربات‌های دیگر تکرار می‌شوند. من با مشاهده مقادیر خسارت A و خسارتB پیش‌بینی‌شده و همچنین مقایسه نسبت پیروزی/نبرد با نسبت پیروزی/نبرد واقعی که در واقع می‌توانیم برای هر یک از ربات‌ها دقیقاً محاسبه کنیم، سلامت عقل را بررسی کردم. در همه موارد، در حالی که نتایج کاملاً خاموش نبودند، به اندازه کافی خاموش بودند تا ببینیم که مدل کاملاً کار نمی کند. به عنوان مثال، برخی از ربات‌ها به اعداد آسیب منفی می‌رسند که واقعاً نباید اتفاق بیفتد زیرا نمی‌توانید در یک نبرد آسیب منفی وارد کنید. در مواردی که من از مقادیر شناخته شده Victories_[robotID] در فرمول استفاده کردم، بسیاری از ضرایب battle_[robotID] اعداد منفی بزرگی بودند، بنابراین سعی کردم عملگر میانگین را با battle_ تخمین بزنم. [robotID] + winctories_[robotID] / 2` اما این نیز نتایج معقولی به همراه نداشت. من الان تا حدودی بی فکر هستم.
شکست در رگرسیون خطی / پیش بینی در یک مجموعه داده واقعی
102735
این توسعه دهنده از چه نوع نموداری استفاده می کند؟ ![graph](http://i.stack.imgur.com/NHsZL.png) از اینجا کپی شده است.
این نمودار که نمادهای هنرمندان را در یک محور افقی نشان می دهد که تعداد کلمات منحصر به فرد استفاده شده را نشان می دهد، چه نامی بگذاریم؟
18586
من مجموعه ای از شخصیت های بازی با یک شکل (A) اما اندازه های متفاوت (کوچک (1) تا بزرگ (5)) دارم و بنابراین مجموعه شخصیت ها (A1، A2، A3، A4، A5) است. آنها در یک شبکه بازی به صورت جفتی با یکدیگر تعامل دارند، تعاملی که طی آن یکی پیروز می شود و یکی در یک نبرد بازنده می شود. این برای مدت زمان محدودی ادامه دارد. آیا راهی وجود دارد که بتوانم از استنتاج بیزی استفاده کنم: 1. رتبه بندی این شخصیت ها را بر اساس اینکه چه کسی بیشترین برنده شده را ایجاد کرده است، و 2. ایجاد متغیری که نشان دهنده کسب تدریجی دانش در مورد تفاوت در اندازه بین شخصیت ها باشد؟ من در حال حاضر فهرستی از متغیرهای بتا برای مشخص کردن رتبه دارم، و می‌توانم ببینم چگونه می‌توان از نوعی استنتاج برای رتبه‌بندی آنها استفاده کرد، اما مطمئن نیستم که قسمت دوم کار کند. تفاوت اندازه باید به طریقی برای اطلاع از یک متغیر استفاده شود، اما من بیش از آن مطمئن نیستم. بنابراین در مجموع، کمک زیادی در مورد نقاط 1 و 2 قدردانی می شود.
رتبه بیزی شخصیت های بازی
108554
آیا آزمون فرضیه دودویی اصطلاح آماری بهتری برای چیزی است که هوش تجاری اغلب به آن تست A/B می گویند؟ ویکی‌پدیا پیشنهاد می‌کند که این اصطلاحی است که در جامعه آماری استفاده می‌شود، اما ویکی‌پدیا قابل اعتماد نیست و هیچ برچسبی برای چنین اصطلاحی در اینجا وجود ندارد. از آنجایی که مقایسه آماری آزمایش‌های تصادفی چند گروهی مربوط به اصطلاح آزمون A/B و حوزه هوش تجاری است، من به وجود یک اصطلاح مشکوک هستم. آیا آنطور که ویکی‌پدیا پیشنهاد می‌کند، صرفاً «آزمایش فرضیه‌های دودویی» است؟ برخی از زمینه های تاریخی نیز قدردانی می شود.
آیا آزمون فرضیه باینری اصطلاح آماری بهتری نسبت به آزمون A/B است؟
30474
من در حال بررسی استفاده از یک شبکه عصبی در سری های زمانی مالی هستم، اما به جای آموزش شبکه بر روی داده های واقعی، قصد دارم بر روی مدلی از داده ها آموزش ببینم که توسط نویز تصادفی مختل می شود. در این صورت، من به طور بالقوه مقادیر نامحدودی از داده های آموزشی مدل را خواهم داشت. با این حال، من نمی‌خواهم حجم عظیمی از داده تولید کنم و سپس مدل را آموزش دهم، زیرا ممکن است زمان زیادی طول بکشد تا به یک راه‌حل برسیم، و من نمی‌دانم واقعاً چه مقدار داده تولید کنم. کاری که من به انجام آن فکر می کنم این است که مقدار کمی از داده های مدل را آموزش دهم (مثلاً 5000 مثال) و مقادیر گره های پنهان را بدست آوریم، این مقادیر را ثبت کنیم و سپس دوباره تکرار کنیم، در نتیجه توزیعی از مقادیر برای هر گره ایجاد کنیم. سپس این توزیع‌ها می‌توانند بوت استرپ شوند تا مقدار میانگین هر گره را به دست آورند، و کل فرآیند زمانی که تغییر در مقادیر میانگین راه‌اندازی به زیر یک آستانه معین کاهش یابد، متوقف می‌شود. ویرایش - هدف شبکه طبقه‌بندی/برچسب‌گذاری سری‌های زمانی در گذشته نزدیک به‌عنوان یکی از حالت‌های محدود است، به عنوان مثال. روند رو به بالا/پایین، حرکت به طرفین، در ازدحام و غیره. این حالت ها را می توان با استفاده از داده های مصنوعی با برچسب های شناخته شده مدل سازی کرد و سپس بر روی داده های واقعی، وظیفه شبکه تشخیص این است که داده های واقعی به کدام حالت بیشتر شبیه هستند. این به عنوان ورودی برای یک فرآیند تصمیم گیری جداگانه استفاده می شود. سوال من این است - آیا دلیلی وجود دارد که چرا این _رویکرد معتبری برای اتخاذ نیست؟
آموزش شبکه های عصبی بر روی داده های نظری نامحدود
113370
من این را در math.stackexchange.com بدون شانس پرسیدم.. نظری دارید؟ من در حال حاضر در حال خواندن متنی در شبکه‌های بیزی هستم و متن تفسیرهای بسیار خامی از آنچه به نظر می‌رسد برخی از مهم‌ترین پایه‌های موضوع باشد ارائه می‌دهد. این بیانگر موارد زیر است: > قضیه 1.2.7 (شرط مارکوف والدین): شرط لازم و کافی برای اینکه توزیع احتمال P نسبتی مارکوف باشد a > [گراف غیر چرخه ای جهت دار] G این است که هر متغیر مستقل از همه > غیرفرزندان آن باشد. (در G)، مشروط به والدین آن است. من پیش فرض را درک می کنم که اینجا چه اتفاقی می افتد. با توجه به نقطه ای X در نمودار، اگر همه گره های والد را شرط بندی کنید، باید مستقل از همه غیرفرزندها باشد. حدس می‌زنم این سردرگمی برای من در مورد اینکه چگونه این روند مارکوف را نسبی می‌کند به وجود می‌آید. شاید این بخش ضعیف درک من باشد. لطفاً کسی می تواند نمونه ای از نموداری را ارائه دهد که این شرط را ندارد و بنابراین نسبت به این نمودار مارکوین نیست؟ من مطالعاتی در مورد زنجیره مارکوف انجام داده‌ام و احساس می‌کنم شاید تعاریف آنها به نحوی متفاوت باشد که برای من گم شده است. با تشکر
وضعیت مارکوف والدین
38669
من یک سوال در مورد معنی مقادیر p هنگام آزمایش یک تعامل بین یک متغیر پیوسته و یک متغیر طبقه بندی (با بیش از 2 دسته) دارم. وقتی این کار را در یک مدل glm با استفاده از R انجام می‌دهم، یک مقدار p برای هر کلاس از متغیر طبقه‌ای در مقابل یک متغیر پیوسته به دست می‌آورم. با این حال، من می خواهم مقدار p را برای خود تعامل با استفاده از R بدست بیاورم و بفهمم که معنای این p-value چیست. نمونه ای از کد و نتایج: model_glm3=glm(cog~lg_hag+race+pdg+sex+as.factor(educa)+(lg_hag:as.factor(educa))، data=base_708) ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 21.4836 2.0698 10.380 < 2e-16 *** lg_hag 8.5691 3.7688 2.274 0.02334 * raceblack -8.47415-8.47415 -8.47415 -4.6.6.1. *** racemexican -3.0483 1.7073 -1.785 0.07469. racemulti/other -4.6002 2.3098 -1.992 0.04687 * pdg 2.8038 0.4268 6.570 1.10e-10 *** sexfemale 4.5691 1.1203 4.05educ-205. 13.8266 2.6362 5.245 2.17e-07 *** as.factor(educa)3 21.7913 2.4424 8.922 < 2e-16 *** as.factor(educa)4 19.0179 2.741-2.541 *** as.factor(educa)5 23.7470 2.7406 8.665 < 2e-16 *** lg_hag:as.factor(educa)2 -21.2224 6.5904 -3.220 0.00135 ** lg_hag:38. 6.1255 -3.234 0.00129 ** lg_hag:as.factor(educa)4 -8.5502 6.6018 -1.295 0.19577 lg_hag:as.factor(educa)5 -17.2230 (educa) ** -17.2230 1 -0 6.3 داشتن p-value تعامل و معنی آن (یعنی فقط یک p-value برای کل تعامل، نه یک p-value برای هر دسته)**
معنی مقادیر p برای تعامل بین یک متغیر طبقه‌بندی (w/>2 cats) و متغیر پیوسته
33878
آیا تابعی در R وجود دارد که بتواند رگرسیون مقطعی GLS را برای چندین مورد به طور همزمان انجام دهد؟ به عنوان مثال، هنگام بازگشت بازده سهام بیش از بتا برای 100 سهم در یک سری زمانی 10 ساله برای هر مورد. با این حال، معادله باید همه 100 رگرسیون را حل کند و تنها یک نتیجه، یک رگرسیون چندگانه بدهد.
انجام رگرسیون مقطعی GLS با استفاده از R
30475
من سعی می‌کنم یک سیستم صف (از طریق شبیه‌سازی) را مدل‌سازی کنم تا ببینم آیا می‌توانم تکالیف کاری مختلفی را برای بهبود عملکرد کلی انجام دهم (بر اساس تعدادی از معیارها). من سوابق تاریخی از وظایف گذشته دارم که شامل زمان ورود آنها به سیستم، افرادی که برای انجام آن وظیفه تعیین شده اند و زمان خدمات را شامل می شود. در شبیه ساز من می خواهم این گزینه را داشته باشم که این سوابق تاریخی را مجدداً بازپخش کنم تا کمیت کنم که چگونه سیاست های تخصیص مختلف می تواند بر معیارهای عملکرد در این خلاف واقع ها تأثیر بگذارد. کارگران با سرعت‌های متفاوتی کار می‌کنند (یعنی توزیع‌های زمان سرویس متفاوتی دارند)، بنابراین من می‌خواهم این را در شبیه‌سازی‌های خلاف واقع خود در نظر بگیرم. * **بهترین راه برای پیش‌بینی اینکه کارگر $A$ چه مدت طولانی‌تر وظیفه $X$ را انجام می‌دهد چیست، در حالی که تنها چیزی که در مورد کار $X$ می‌دانم این است که کارگر $B$ چقدر طول کشید تا آن را تکمیل کند؟** * در موارد دیگر کلمات، من دو توزیع از یک نوع دارم اما با پارامترهای مختلف و با توجه به $x$ از توزیع $A$ آمده است، **$x'$ اگر از توزیع $B$ آمده باشد چه خواهد بود؟** رویکرد فعلی من این است که احتمال x$ را پیدا کنیم در $A$، و سپس یک عدد برای $x'$ دریافت کنید که احتمال مشابهی در $B$ دارد. به‌علاوه، من به‌طور کلی با شبیه‌سازها و تئوری صف‌ها خیلی تازه کار هستم، بنابراین اگر فکر می‌کنید می‌توانم به روشی بهتر به این موضوع بپردازم، در صورت تمایل می‌توانید راهنمایی یا پیوندهای بیشتری به منابع ارائه دهید.
چگونه می توان پیش بینی کرد که یک کارگر چقدر طول می کشد تا یک کار را انجام دهد در حالی که عملکرد آن کار فقط برای سایر کارگران شناخته شده است؟
31784
من یک آرایه داده $X$ دارم که اندازه آن $T \times N \times K$ است که $T = 1500$، $N = 1500$ و $K = 10$ است. از نظر فیزیکی، اولین شاخص $1، 2، \ldots، T$ نشان دهنده روز است، در حالی که دومین شاخص $1، 2، \ldots، N$ نشان دهنده مکان ها است، و شاخص سوم $1، 2، \ldots، K$ نشان دهنده K $ است. $ ویژگی ها/متغیرهای اندازه گیری شده در هر مکان در هر روز. متغیر وابسته یک آرایه دیگر $Y$ است که اندازه $T \times N$ است. البته در جهت های زمانی و مکانی همبستگی هایی وجود دارد. همچنین بین متغیرها/ویژگی‌های $K$ در هر مشاهده همبستگی وجود دارد. [برخی اطلاعات جانبی: برای هر روز $t$، داده های مقطع می توانند ساختار چند سطحی داشته باشند، مشروط به معیارهای گروه بندی مختلف. معیارهای گروه بندی مختلفی را می توان تعریف کرد. ] ما علاقه مند به پیش بینی هستیم: با توجه به همه مشاهدات تا $T$، مایلیم Y را در روز $T+1$ پیش بینی کنیم. در اینجا، برخی از داده‌های $X$ هرگز در طول زمان تغییر نمی‌کنند. برخی دیگر از داده‌های X$ در طول زمان متفاوت هستند. بنابراین، در روز $T$، زمانی که می‌خواهیم $Y$ را در $T+1$ پیش‌بینی کنیم، برخی از داده‌های $X$$X_{T+1}$ ناشناخته هستند زیرا پویا هستند و در طول زمان متفاوت هستند. . روش های مدرن و کاربردی برای دست زدن به چنین داده هایی چیست؟ آیا کسی می تواند لطفاً در مورد این موضوع توضیح دهد؟
روش های مدرن و کاربردی برای پیش بینی داده های مقطع سری زمانی
76609
من در حال اجرای آزمایشی برای آزمایش زمان واکنش تحت شرایط مختلف هستم. من یک نمونه داده در اینجا دارم و یک نمودار گرافیکی از داده های خود را در زیر اضافه کرده ام تا درک شما را آسان کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/owWXn.png) I می‌خواهم بررسی کنم که آیا تشخیص ضعیف احساسات نسبت به سایر شرایط دارای نرخ خطای قابل‌توجهی بالاتری است یا خیر. به من گفته شد که راه مناسب برای انجام این کار یک ANOVA اندازه گیری مکرر است. من متوجه شده ام که این کار را می توان از طریق تابع 'stats::aov()' R انجام داد. من با R از طریق RPy در ارتباط هستم و ممکن است کد دقیق من را در زیر این نوت بوک ببینید. من خلاصه نتیجه زیر را دریافت می کنم: خطا: ID Df Sum Sq Mean Sq F مقدار Pr(>F) باقیمانده 6 0.022 0.003666 خطا: درون Df Sum Sq Mean Sq F مقدار Pr(>F) COI 6 0.02628 0.0304388 باقیمانده ها 36 0.04547 0.001263 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 چگونه به من کمک می کند مشکلم را برطرف کنم؟ بعلاوه، در بحث حاصل از این سوال دیگر به من گفته شد که در حالی که آنوا در برخی موارد (مانند این مورد) قابل قبول است، مدل‌های خطی مانند مدلی که توسط «nlme::lme()» تولید می‌شود، ارجحیت دارند. من از این تابع در این نوت بوک دیگر استفاده کرده ام، و خروجی به صورت زیر است: جلوه های ثابت: ER ~ COI Value Std. Error DF t-value p-value (Intercept) 0.01928571 0.01514819 36 1.273137 0.273137 0.2101010101010101111111111111111111111111111111111111111111111111111111111111011. 0.01899579 36 3.700069 0.0007 COIsc-11 0.00403687 0.01899579 36 0.212514 0.8329 COIsc-15 0.0170001369 0.894935 0.3768 COIsc-19 0.00417857 0.01899579 36 0.219974 0.8271 COIsc-23 0.00432488 0.01899520202026 COIsc-27 0.00417857 0.01899579 36 0.219974 0.8271 چگونه می توانم آن مقادیر p را در زمینه نکته ای که می خواهم بیان کنم تفسیر کنم؟ همچنین، چرا اولین COI (COIem-easy) من در لیست وجود ندارد؟ به عنوان یک نکته کلی، من نیز بسیار خوشحال خواهم شد که بشنوم از کدام یک از این 2 رویکردی که شما توصیه می کنید باید استفاده کنم.
آمار R's::aov() و توابع nlme::lme() برای اندازه گیری مکرر anova
31780
من با R نسبتاً تازه کار هستم و با مجموعه داده بسیار بزرگی کار می کنم که ترکیبی از نمرات عددی (به عنوان مثال، درآمد خانوار) ​​و همچنین مقادیر متنی (یعنی نژاد) دارد. من قصد داشتم از PCA برای تجزیه و تحلیل این مجموعه داده استفاده کنم اما فقط روی داده های عددی کار می کند. آیا جایگزین خوبی وجود دارد؟
چگونه می توان هم متن و هم اعداد را برای PCA در R مدیریت کرد؟
18053
من $(X,Y_1)$ با توزیع نرمال دو متغیره مشترک دارم. همچنین، $Y_1$ مشروط به $X$ است. بنابراین $\rho$ غیر صفر است. فرض کنید من $Y_2$ دارم که معمولاً توزیع شده است و $\mu_{Y_2} = \mu_{Y_1}$ و $\sigma_{Y_2}=\sigma_{Y_1}$. رابطه بین $\text{Var}(Y_1|X)$ و $\text{Var}(Y_2)$ چیست؟ من نمونه‌هایی از $Y_1|X$ و $Y_2$ تولید کرده‌ام و به نظر می‌رسد که برای اندازه‌های نمونه بزرگ، تفاوت $|\text{Var}(Y_1|X)$ - $\text{Var}(Y_2) $| به یک عدد خاص (کوچک) همگرا می شود. این با نتیجه نظری که من با محاسبه $\sigma_{Y_1|X} = \sigma_{Y_1}\sqrt{1-\rho^2}$ به دست آوردم، مخالف است. تعبیر آن چیست؟
چگونه می توان واریانس یک توزیع نرمال دو متغیره مشترک را به واریانس یک توزیع نرمال منفرد مرتبط کرد؟
33874
من یک رگرسیون مقطعی ساده را اجرا می‌کنم که در آن ابتدا رگرسیون‌ها را برای هر سال مشاهدات اجرا می‌کنم و سپس این کد را اجرا می‌کنم تا خطاهای استاندارد تصحیح شده نیوی وست را دریافت کنم: فهرست ods close; ods output parameterestimates=pe; proc reg data=dset; بر اساس سال؛ مدل depvar = indvars; اجرا؛ ترک کردن فهرست شانس؛ proc به معنی داده=pe mean std t probt; برآورد var; متغیر کلاس؛ اجرا؛ proc sort data=pe; توسط متغیر؛ اجرا؛ %let lags=3; ods output parameterestimates=nw; بسته شدن فهرست شانس proc model data=pe; توسط متغیر؛ ابزار / intonly; برآورد=a; برآورد مناسب / هسته gmm=(bart,%eval(&lags+1),0); اجرا؛ ترک کردن فهرست شانس؛ proc print data=nw; متغیر id; var برآورد --df; قالب تخمین stderr 7.4; اجرا؛ بهترین راه برای به دست آوردن R2 پس از تصحیح خطاهای استاندارد برای رگرسیون مقطعی چیست؟
R2 را از GMM Newey-West در SAS دریافت کنید
76608
من داده‌های بیان ژنی دارم، کاهش ابعاد و خوشه‌بندی را با نقشه‌های خودسازمان‌دهنده انجام می‌دهم، اما نقشه‌های خود سازماندهی با داده‌های من عملکرد خوبی ندارند. من می‌خواهم با استفاده از توابع مختلف هسته، داده‌هایم را برای فضای ویژگی نقشه‌برداری کنم و سپس این داده‌ها را به عنوان ورودی به نقشه‌های خود سازماندهی بدهم تا عملکرد آنها را مقایسه کنم. داده های ورودی من دارای ابعاد $m\times n$ است و با اعمال یک هسته داده شده به یک ماتریس مربع تبدیل می شود که من نمی خواهم. چگونه می توانم بدون تغییر ابعاد ماتریس ورودی خود، داده های خود را برای فضای ویژگی نقشه برداری کنم؟
اعمال تابع هسته برای ورودی داده قبل از دادن آن به الگوریتم
33876
مدل های زیر را خطی یا غیر خطی تشخیص دهید. در مورد مدل غیر خطی، مدل را با تبدیل مناسب به مدل خطی تبدیل کنید. $$\eqalign{ (a)\quad&y=\beta_0+\beta_1 x+\beta_2 x^2+e \\\ (b)\quad&y=\frac{x}{\beta_0+\beta_1 x}+e\\\ ( ج)\quad&y=\frac{\exp(\beta_0+\beta_1 x)}{1+\exp(\beta_0+\beta_1 x)}+e }$$ که در آن $e\sim\mathcal{N}(0,\sigma^2).$ می‌دانم که مدل $(a)$ خطی است. من فکر می کنم $(b)$ & $(c)$ غیر خطی هستند. چگونه می توانم آنها را مدل های خطی بسازم؟
چگونه مدل ها را خطی یا غیرخطی تشخیص دهیم؟
30478
مجذور eta جزئی نشان می دهد که جنسیت 5 درصد از واریانس مواد مخدر را توضیح می دهد و قومیت 6 درصد از واریانس مواد مخدر را توضیح می دهد. اینها اندازه های افکت کوچک هستند. من مطمئن نیستم که این را بفهمم زیرا وقتی به جدول ANOVA تولید شده توسط SPSS نگاه می کنم می گوید که مجذور ETA جزئی برای جنسیت 0.045 و برای قومیت 0.060 است. آیا این ارقام فقط گرد شده و روی چند رقم اعشار جابجا شده اند؟
چگونه می توان مجذور eta جزئی 5% باشد و در عین حال SPSS 0.045 را بیان کند؟
40724
من زمانی که متغیر پاسخ (رفتار) یک عامل ترتیبی است (سطوح: $0,1,2,3,4$) مدلی را اجرا می کنم و در حال آزمایش رابطه با دو عامل اثر ثابت (سال: $A,B,C) هستم. ,D$ مستعمره; من می‌خواهم تخمین‌هایی از تأثیر سال و کلنی بر رفتار استخراج کنم. در یک GLM معمولی، می‌دانم که این ساده است، اما برای یک مدل ترتیبی، مطمئن نیستم که چگونه نقاط برش را برای سطوح ترتیبی با تخمین‌های اثر ثابت ترکیب کنم. از خواندن در مورد مدل های ترتیبی، به نظر می رسد که ممکن است شما یک ماتریس از احتمالات را به دست آورید، به طوری که برای کلنی یک ماتریس $2 \ برابر 5 $ و برای سال یک $ 4 \ برابر 5 $ بدست آورید. آیا من این را درست می فهمم؟ و اگر چنین است، به نظر نمی‌رسد که بتوان هیچ نوع مقدار باقیمانده را برای کنترل رفتار برای اثرات ثابت استخراج کرد؟
برآورد اثرات ثابت برای رگرسیون ترتیبی
88535
من یک مشکل طبقه بندی باینری دارم. من مجموعه داده خود را با استفاده از یک ماشین بردار پشتیبانی (SVM) آموزش دادم. حالا می‌خواهم مدلی را که آموزش داده‌ام را به یک شخص ثالث گزارش کنم تا بتوانند از آن استفاده کنند. برای پروم اولیه SVM، معادله طبقه‌بندی‌کننده به این شکل است، y = w.x + b که در آن «w» بردار وزن است، «b» ثابت و «x» نمونه جدید است. بسته به مقدار `y`، می توانیم کلاس را پیش بینی کنیم. من می توانم بردار وزن w و ثابت b را که مدل من به دست آمد گزارش کنم. اما اگر بخواهم مدل خود را با استفاده از اعتبارسنجی متقاطع آزمایش کنم، چگونه مدل خود را گزارش کنم؟ هر بار که اعتبار متقاطع می کنم، معادله طبقه بندی کننده ساخته شده تغییر می کند.
چگونه می توان یک مدل SVM را پس از تایید متقابل به شخص ثالث گزارش داد؟
42947
در نمونه گیری طبقه ای ملاحظات بهینه سازی چیست؟ به عنوان مثال، حجم نمونه به ازای هر طبقه را می توان با تخصیص متناسب به صورت $n_h=n\frac{N_h}{N}$ تعریف کرد، که در آن $N_h$ اندازه جمعیت برای طبقه $h$ است، $N$ کل جمعیت است. اندازه، $n$ حجم کل نمونه است، و $n_h$ اندازه نمونه برای لایه $h$ است. برای یک متغیر باینری، می توانم $n$ را انتخاب کنم تا حاشیه خطای $e$ 1٪، 5٪ یا 10٪ باشد. $$e=z_{1-\frac{\alpha}{2}} \sqrt{\frac{pq}{n}}$$ من همچنین می‌توانم $n = \sum_{h=1}^H n_h را انتخاب کنم $ به طوری که حاشیه خطا برای هر لایه $e_h$ 1٪، 5٪ یا 10٪ است. $$e_h=z_{1-\frac{\alpha}{2}} \sqrt{\frac{pq}{n_h}}$$ اما سوال/نگرانی من این است که چند ملاحظات مختلف وجود دارد و کدام یک مهمترین آنها در زمینه نمونه گیری طبقه ای؟
بهینه‌سازی‌ها یا اهدافی که باید در هنگام استفاده از نمونه‌گیری طبقه‌ای در نظر گرفته شوند چیست؟
33871
هنگام انجام یک رگرسیون خطی بر روی مجموعه داده من، Durbin-Watson بسیار پایین بود (0.276). من یک آموزش آنلاین پیدا کردم که پیشنهاد انجام همبستگی خودکار پریس-وینستون را می داد. این آموزش با اسکرین شات هایی از SPSS در مورد نحوه انجام آنالیز ارائه شد. با این حال، اسکرین شات ها از SPSS 14 هستند. من SPSS 16 دارم، و نمی توانم همان تست را در هیچ کجای ساختار منو پیدا کنم. لطفاً اسکرین شات های آموزش (بالا) و من (زیر) را در اینجا ببینید: ![http://i.imgur.com/gN0jG.png](http://i.stack.imgur.com/4ygJ2.png) آیا کسی می تواند مرا به جایی هدایت کنید که رگرسیون خودکار Prais-Winsten در SPSS 16 یافت می شود؟
چگونه می توان رگرسیون خودکار Prais-Winsten را در SPSS 16 انجام داد؟
18052
من در مورد یک پروژه جدید فکر می کنم، بنابراین هنوز داده ای ندارم، اما قصد دارم اطلاعات GIS را برای خانه های یک ایالت جمع آوری کنم. معمولاً در ایالات متحده، این خیابان‌های بن‌بست دارای دایره بزرگی برای چرخش ماشین‌ها هستند، به این معنی که جلوی هر خانه در بن‌بست به سمت مرکز دایره است. به طور کلی، سوال من این است که چگونه می توان یک زیرمجموعه از داده ها را که در یک الگوی دایره ای خوشه بندی شده اند در یک شبکه دو بعدی قرار داد. اگر همین تکنیک به من اجازه دهد بن بست ها را بیابم، مفید خواهد بود، اما لازم نیست. احتمالاً باید از یک طبقه‌بندی کننده لجستیک استفاده کنم، اما مطمئن نیستم که این فرضیه چگونه باشد. اگر این یک مشکل شناخته شده است، من کلمات کلیدی را برای انجام یک جستجوی مناسب در گوگل نمی دانستم، بنابراین اشاره گرها در آن جهت نیز مفید خواهند بود.
شناسایی culs-de-sac (ترتیب های مسکن دایره ای) با داده های GIS
18058
...با فرض اینکه بتوانم دانش آنها را در مورد واریانس به صورت شهودی افزایش دهم (درک واریانس به صورت شهودی) یا با گفتن: این فاصله میانگین مقادیر داده ها از میانگین است - و از آنجایی که واریانس مربع است. واحدها، جذر را می گیریم تا واحدها ثابت بماند و به آن انحراف معیار می گویند. بیایید فرض کنیم که این مقدار توسط «گیرنده» بیان شده و (امیدواریم) درک شود. حال کوواریانس چیست و چگونه می توان آن را به زبان انگلیسی ساده بدون استفاده از هیچ گونه اصطلاح/فرمول ریاضی توضیح داد؟ (یعنی توضیح شهودی. ؛) لطفاً توجه داشته باشید: من فرمول ها و ریاضیات پشت این مفهوم را می دانم. من می خواهم بتوانم همان را به روشی آسان و بدون در نظر گرفتن ریاضی توضیح کنم. یعنی حتی کوواریانس به چه معناست؟
چگونه کوواریانس را برای کسی که فقط میانگین را می‌فهمد توضیح می‌دهید؟
76602
وقتی درباره R-Squared و ارتباط آن با اندازه‌گیری عملکرد یک مدل جنگل تصادفی یا GBM بحث می‌کنم، اغلب سطوح مختلفی از پاسخ‌ها دریافت می‌کنم. به طور کلی، RMSE معیار بهتر و مناسب تری است، اما من گاهی اوقات با مواردی مواجه می شوم که RMSE قابل قبول است، اما R-Squared بسیار پایین است، به عنوان مثال در آزمایش اخیر 0.18. این را چگونه باید تفسیر کرد؟ همچنین، re: پارامترهای تنظیم در GBM - من از caret در R استفاده می‌کنم و طبق معمول محدوده‌ای از مقادیر را برای درخت (به عنوان مثال 1:100)، برای عمق تعامل و غیره تنظیم می‌کنم. من باید تأثیر نسبی متغیرها را پس از اجرای GBM و در سطوح مختلف تنظیم (به عنوان مثال، انقباض = 0.01 در مقابل انقباض 0.001) بررسی کنم. تأثیر متغیرها می تواند بسیار متفاوت باشد. آیا این نشان‌دهنده چیزی است که اساساً در رابطه با داده‌ها است یا برعکس، چگونه همه به طور کلی به چنین مسئله‌ای رسیدگی می‌کنند (یعنی در چه نقطه‌ای تنظیم بیشتر را متوقف می‌کنید، با توجه به اینکه هر اجرا زمان زیادی طول می‌کشد (مجموعه داده‌های بزرگ از 100 هزار ردیف x) و مدلی را در نظر بگیرید. مانند مجموعه ای از پارامترهای تنظیم به عنوان نهایی). اگرچه GBM n درخت و عمق بهینه را انتخاب می کند، تنظیم دقیق تر می تواند آن انتخاب را تغییر دهد و در نتیجه نتایج اهمیت متغیر را تغییر دهد. همین سوال برای Random Forests نیز وجود دارد. پیشاپیش از نظر شما در این مورد سپاسگزارم.
اهمیت مربع R در پارامترهای تنظیم جنگل تصادفی / GBM و GBM
31788
فرض کنید $\\{Y_{t}: t \in \mathbb{Z} \\}$ یک سری زمانی میانگین صفر ثابت است. فضای هیلبرت $\mathcal{H}$ را در نظر بگیرید که توسط متغیرهای تصادفی $\\{Y_t: t \in \mathbb{Z} \\}$ با محصول داخلی $$ \langle X, Y \rangle = E(XY )$$ و هنجار $$||X||^2 = E|X|^2$$ فضای فرعی $\mathcal{M}$ ایجاد شده توسط تصادفی را در نظر بگیرید متغیرهای $\\{Y_u: u \leq t \\}$. چرا مقادیر آینده با فرافکنی در زیرفضای $\mathcal{M}$ پیدا می‌شوند؟ برای مثال، چرا $Y_{t+1}$ توسط $\mathcal{P}_{\mathcal{M}}Y_{t+1}$ یافت می‌شود؟
فضاها و سری های زمانی هیلبرت
76601
من اطلاعاتی در مورد یک سری شرط بندی برنده و باخت در 5 دور شرط بندی دارم که پس از هر دور از بین می رود. من از درخت تصمیم مانند زیر برای نمایش داده ها استفاده می کنم. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/qvQAQ.jpg) گره هایی که به سمت بالای درخت هستند آنهایی هستند که شرط های برنده دارند و گره هایی که به سمت پایین درخت هستند دارای شرط بندی هستند. دوره های شرط بندی باخت من می خواهم به (الف) فرسایش در هر گره (ب) تغییرات در اندازه میانگین شرط در هر گره نگاه کنم. من به نرخ ساییدگی در هر گره از گره قبلی و نرخ بقا (با استفاده از مقدار مورد انتظار افراد در هر گره اگر احتمال 50٪ باشد) نگاه می کنم. به عنوان مثال، اگر احتمال 50% در هر گره باشد، از 1000 نفری که شروع شده است، تقریباً 500 نفر باید در هر یک از گره های دوم W و L باشند. فرضیه این است که (الف) میزان ساییدگی پس از از دست دادن بیشتر است. شرط ها (ب) اندازه میانگین شرط پس از بازنده ها کاهش می یابد و پس از برنده ها افزایش می یابد. من فقط می خواهم این کار را ابتدا در یک تنظیم تک متغیره بسیار ساده انجام دهم. چگونه می توانم یک آزمون t انجام دهم تا نشان دهم که تغییر در اندازه میانگین شرط از گره WW به گره WWW از نظر آماری معنادار است اگر 50 نفر از ادامه تحصیل خارج شده باشند؟ من مطمئن نیستم که این رویکرد درستی باشد: هر شرط بعدی مستقل است، اما افراد پس از بازنده ها کنار می روند، بنابراین نمونه مطابقت ندارد. اگر این فقط یک مورد بود که یک کلاس یک سری امتحانات را پشت سر هم می داد و هیچ کس انصراف نمی داد، من می فهمیدم که چگونه آزمون t مناسب را انجام دهم، اما فکر می کنم این کمی متفاوت است. چگونه می توانم این کار را انجام دهم؟ همچنین، اگر نتایج توسط تعداد کمی از مشتریان منحرف شود، چگونه می‌توانم 5 درصد بالا و 5 درصد پایین را حذف کنم؟ فقط مشتریانی که دارای بالاترین اندازه سهام تجمعی هستند را از شرط 1 تا 3 حذف کنید؟ من داده ای را دارم که شکل از آن تولید شده است، بنابراین میانگین، std، خطای std و غیره را در هر گره دارم.
تست کنید که آیا افراد پس از باخت های مکرر شرط ها را کنار می گذارند یا کاهش می دهند
102732
فرض کنید من مدل های N مارکوف از حالت های M دارم که نشان دهنده الگوهای رفتاری 2 گروه مختلف است (توجه داشته باشید: مدل های کاملاً قابل مشاهده، بدون حالت های پنهان)، و هر مدل را به عنوان ماتریسی از احتمالات انتقال برای یک موضوع آزمایشی خاص ذخیره کرده ام. من می خواهم آزمایش کنم که آیا احتمال انتقال از یک حالت به حالت دیگر در یک گروه با دیگری متفاوت است یا خیر. اولین فکر من این بود که هر یک از احتمالات انتقال MxM را به‌عنوان یک متغیر تصادفی در نظر بگیرم و هر فرضیه را (یعنی میانگین‌های RVs متفاوت است) به طور مستقل آزمایش کنم. این متغیر یک احتمال شبیه به یکی از پارامترهای یک توزیع چند جمله ای است، بنابراین یک فاصله اطمینان مبتنی بر نسبت دو جمله ای قابل اجرا به نظر می رسد. تصحیح برای آزمایش فرضیه های MxM به طور همزمان از همان داده ها نیز ضروری به نظر می رسد. اکنون سه سوال برای من باقی مانده است: 1. آیا اصلاً این رویکرد درستی است؟ 2. آیا باید از آزمون دیگری استفاده کنم؟ 3. آیا باید اصلاحی را برای آزمون فرضیه های چندگانه همانطور که توضیح داده شد در CI ها اعمال کنم؟ من قبلاً این سؤال را خوانده‌ام، اما به این موضوع مربوط می‌شود که آیا ماتریس‌ها در کل یکسان هستند، نه اینکه آیا هر کدام از پارامترها متفاوت هستند یا خیر. به نظر نمی رسد چیز دیگری در SE برای این موضوع موجود باشد.
چگونه باید تفاوت های آماری قابل توجهی بین دو مدل مارکوف پیدا کنم؟
89638
اگر فقط ضرایب رگرسیون از دو مدل به شما داده شود، چگونه می توان تشخیص داد که بین دو پیش بینی همبستگی قوی، ضعیف یا بدون وجود دارد؟ یک مدل شامل یک پیش بینی و مدل دیگر شامل هر دو پیش بینی کننده است.
تغییرات در ضرایب رگرسیون در مورد همبستگی بین پیش بینی کننده ها چه چیزی را نشان می دهد؟
1160
R به ما اجازه می دهد تا کدی را برای اجرا در ابتدا/پایان یک جلسه قرار دهیم. چه کدهایی را پیشنهاد می کنید در آنجا قرار دهید؟ من سه مثال جالب می‌دانم (اگرچه در اینجا «چگونه آنها را انجام دهم» زیر انگشتانم ندارم): 1. ذخیره کردن سابقه جلسه هنگام بستن R. 2. اجرای a fortune() در ابتدای جلسه R. 3. من به داشتن یک ذخیره خودکار در فضای کاری فکر می کردم. اما من تصمیم به حل مسئله مدیریت فضا نداشتم (بنابراین همیشه X مقدار فضایی برای آن پشتیبان استفاده می شود) آیا ایده دیگری دارید؟ (یا نحوه اجرای ایده های بالا) p.s: مطمئن نیستم که این را در اینجا قرار دهم یا در stackoverflow. اما من احساس می‌کنم مردم اینجا کسانی هستند که می‌توانند از آنها بپرسند.
چه کدی را قبل/بعد از جلسه R خود قرار می دهید؟
89181
این بیشتر یک سوال کلی در مورد نحوه برخورد تابع پیش بینی با متغیرهای طبقه بندی و نحوه تفسیر خروجی از پیش بینی است. من یک مدل zeroinfl برای پیش‌بینی تعداد حیواناتی که با آن‌ها مواجه می‌شوند دارم: b9 <- zeroinfl(Count ~ as.factor(Area) + as.factor(Season) | 1, dist=negbin, data=total) که در آن شمارش مقدار است تعداد حیوانات و متغیرهای توضیحی منطقه و فصل هستند که هر دو به عنوان فاکتور در مدل کدگذاری شده‌اند. منطقه دارای سه سطح و فصل دارای 4 سطح است. کدگذاری این دو به عنوان فاکتور به R اجازه می دهد تا متغیرهای ساختگی را برای هر متغیر برای استفاده در مدل ایجاد کند. وقتی از تابع پیش بینی برای پیش بینی تعداد حیوانات برای یک مجموعه داده بزرگتر استفاده می کنم، می خواهم مطمئن شوم که متوجه آنچه اتفاق می افتد هستم. داده های جدید من برای پیش بینی این است: newdata<- as.data.frame(Season, Area). هر دو متغیر به عنوان فاکتور کدگذاری می شوند و چارچوب داده در قالب طولانی است. رکوردهایی برای هر ترکیب فصل و منطقه وجود دارد که مربوط به سفرهای انجام شده در طول 8 سال است. 113804 ردیف داده در قاب داده‌های جدید وجود دارد. str(newdata) 'data.frame': 113804 obs. از 2 متغیر: $ فصل: فاکتور w/ 4 سطح 1،2،3،4: 1 1 1 1 1 1 1 1 1 1 ... $ منطقه : فاکتور w/ 3 سطح 625631Bay: 3 3 3 3 3 3 3 3 3 3 ... مثال: Season Area 1 1 Bay 2 1 625 3 1 631 4 2 Bay 5 2 625 6 2 631 7 3 Bay 8 3 625 9 3 631 10 4 Bay 11 4 625 12 4 631 1. آیا باید متغیرهای ساختگی را برای همه سطوح برای همه سطوح ایجاد کنم پیش بینی می کند، یا عملکرد پیش بینی مانند آن عمل می کند zeroinfl که در آن اگر متغیرها به عنوان فاکتور کدگذاری شوند، این به طور خودکار توسط R انجام می شود. 2. مقادیر 0.0461 - 0.6015 را پیش بینی کنید. اگر بخواهم تعداد حیوانات را پیش بینی کنم چگونه این را تفسیر کنم؟ از آنجایی که هیچ مقدار پیش‌بینی‌شده بزرگ‌تر از 1 نیست و من به اعداد کامل نیاز دارم، داده‌های پیش‌بینی‌شده را گرد کردم تا هر مقدار کمتر از 0.5 برابر با 0 و هر مقدار بزرگ‌تر از 0.5 برابر با 1 باشد. آیا این درست به نظر می‌رسد؟ برای هر کمکی متشکرم
پیش بینی تابع و متغیرهای طبقه بندی در R
89189
من می خواهم پارامترهای یک مدل مخلوط پواسون را با 2 (و بعداً 3) توزیع پواسون تخمین بزنم. من می خواهم از Matlab استفاده کنم و مشکلات عددی برای حل منطقی بودن مدل مخلوط داشته باشم (مقادیر به بالا یا پایین می رسند). کسی میدونه چطور میشه با این مشکل کنار اومد؟ من قبلاً سعی کردم یک تابع مشابه مانند logLikePoisMix بنویسم (https://r-forge.r-project.org/scm/viewvc.php/pkg/HTSCluster/R/logLikePoisMix.R?view=markup&root=htsfilter&sortby=rev&pathrev=60 ) که از ترفند محاسبه از پانوس (؟) استفاده می کند، اما این نیز جواب نداد. با تشکر از کمک شما!
تخمین پارامتر یک مدل مخلوط پواسون
33879
با استفاده از `mgcv` من 5 مدل ساخته ام که هر کدام از زیرمجموعه ای از داده های من استفاده می کند که توسط چندک ها تعریف شده است. متغیرهای پاسخ / توضیحی در هر مورد یکسان هستند، اما انحراف توضیح داده شده توسط هر یک در هر مدل، همراه با مقادیر P متفاوت است. آیا روشی هوشمندانه برای مقایسه سهم هر متغیر توضیحی در هر مدل وجود دارد؟ بهترین چیزی که من به آن دست یافته‌ام این است که از بخش‌هایی از خروجی «خلاصه (GAMx)» برای ایجاد یک جدول هیولایی با «انحراف Δ توضیح داده شده»، «Δ AIC» و «مقدار P» برای هر مدل، با ردیف ها متغیرهای هموار و پارامتریک هستند.![جدول هیولایی](http://i.stack.imgur.com/EMG15.png) این بسیار زشت است و تفسیر آن سخت است. آیا توابع یا بسته‌هایی در «R» وجود دارد که امکان مقایسه مدل‌ها را فراهم کند - با جزئیات کافی برای نشان دادن سهم هر متغیر؟ کد قابل تکرار: library(mgcv) set.seed(0) n<-200;sig2<-4 x0 <- runif(n, 0, 1);x1 <- runif(n, 0, 1) x2 <- runif( n، 0، 1) y<-x0^2+x1*x2 +runif(n،-0.3،0.3) g1<-gam(y~s(x0,x1,x2)) g2<-gam(y~s(x0,x1,x2)) g3<-gam(y~s(x0,x1,x2)) g4< -gam(y~s(x0,x1,x2)) g5<-gam(y~s(x0,x1,x2)) همه 5 مدل اینجا یکسان خواهند بود، اما در واقع نباید مهم باشد
مقایسه چند مدل با استفاده از متغیرهای توضیحی یکسان
18056
من از یک توزیع، $f(x)$ نمونه‌های تصادفی می‌گیرم، اما سعی می‌کنم اطلاعاتی در مورد توزیع دیگر، $g(x)$ بدست بیاورم. من یک تابع وزنی، $w(x)=Cg(x)/f(x)$ برای تصحیح آن دارم. نتیجه این است که من نمونه‌های مستقل $N$، با وزن‌های مختلف، $w_i$، به آنها متصل شده‌ام. سوال این است که تخمین خوبی برای تعداد نمونه های مستقلی که من واقعا دارم چقدر است. به عنوان مثال، اگر وزن من {0.49، 0.48، 0.01، 0.01، 0.01} باشد، تقریباً نزدیک به 2 نمونه مستقل دارم. اگر آنها {0.3، 0.3، 0.4} هستند، من حدود 3 دارم. احتمالاً یک راه کمی برای انجام این کار وجود دارد. همچنین، چگونه می توانم با توجه به $f(x)$ و $w(x)$ تعیین کنم که بازده نمونه گیری چقدر است (یعنی به طور متوسط ​​چند نمونه مستقل از $g(x)$ را برای $ دریافت می کنم. N$ نمونه از $f(x)$)؟
تعداد نمونه های مستقل برای نمونه های وزنی؟
77953
من سعی می کنم یک مدل رگرسیونی را جا بزنم که در آن متغیر وابسته تعداد پیام های دریافت شده (*MsgReceived** در داده های نمونه زیر) توسط یک فرد/کاربر است، و متغیرهای مستقل ترکیبی از متغیرهای تعداد و باینری مانند ** هستند. TimeActive**، **BioAvailable** و غیره. در اینجا، **TimeActive** تعداد هفته‌هایی است که کاربر فعال بوده است و **BioAvailable** یک شناسه 1-0 است که بیان می کند آیا کاربر بیوگرافی خود را پر کرده است یا خیر در اینجا چند نمونه داده وجود دارد: TimeActive,BioAvailable,X1,X2,X3,X4,X5,X7,X8,X9,X10,X11,Count1 ,Count2,Count3,MsgReceived 35,1,1,0,0,0,1,1,0,1,0,0,3,0,3,16 34,1,1,0,1,1,0,1,0,1 ,0,0,20,23,37,11 34,0,0,0,1,0,0,1,0,1,1,1,6,8,22,19 35,0,0,0,1,1,1,1,0,1,0,0,3,23,5,13 32,0,0,0,1,0,1,1,0,1 ,1,1,0,75,11,40 0,0,0,0,0,0,0,1,0,1,1,1,0,0,0,7 21,0,0,0,0,0,0,0,0,0,0,0,3,33,39,97 13,1,1,0,0,0,0,1,0,0 ,1,1,1,0,0,12 34,0,0,0,1,1,0,1,0,1,0,0,35,52,2,37 33,1,0,0,1,1,0,1,0,1,0,0,0,9,16,136 31,1,1,0,1,1,0,1,1,1,1 ,0,5,1,12,46 0,0,0,0,1,0,1,1,0,1,1,1,0,3,8,20 29,1,1,0,1,1,1,1,0,1,0,0,44,161,45,8 من نمی دانم که آیا برازش یک مدل خطی تعمیم یافته با استفاده از توزیع پواسون هنوز بهترین تناسب است، حتی اگر تعداد پیام ها در طول عمر فعالیت کاربر است و نه فقط یک جلسه. فرض اینکه طول عمر کاربر یک دوره است منصفانه به نظر می رسد. آیا این درست است؟ اگر نه، کدام روش توزیع و رگرسیون مناسب تر است؟
بهترین روش توزیع و رگرسیون هنگام مدل سازی داده های شمارش؟
80538
من داده های 4 ساله با متغیرهای سال، ماه و حجم فروش دارم. من می خواهم حجم پایه و ولوم افزایشی را پیدا کنم. من می خواهم از مدل سازی ترکیبی بازاریابی استفاده کنم. آیا کسی می تواند بگوید چگونه معادله مدل را با این متغیرها تعریف کنم و چگونه می توانم از SPSS/R برای همان استفاده کنم؟ آیا تنها با این متغیرها می توان مدل ساخت؟ آیا راه یا روش آماری دیگری برای یافتن این حجم وجود دارد؟ لطفا جواب بدید...پیشاپیش ممنون....
مدل سازی ترکیبی بازاریابی برای داده های فروش
108553
من دو مدل دارم، یکی با تصحیح درون زایی (شامل اصطلاحات تصحیح به دست آمده با استفاده از Heckman) و دیگری بدون. شرایط تصحیح در مدل مرحله دوم قابل توجه است، با این حال مقادیر AIC/BIC مدل بدون اصلاح درون‌زایی کمتر است. اصطلاحات اصلاحی قابل توجه وجود درون زایی و در نتیجه نیاز به تصحیح آن را نشان می دهد. با این حال، مقادیر AIC/BIC نشان می دهد که اصلاح لازم نیست. مدل با عبارت تصحیح برای من منطقی تر است، اما می خواهم از جامعه در مورد این ناهنجاری بشنوم و اینکه چگونه می توانم استفاده از مدل را با عبارت های تصحیح با وجود AIC بالاتر توجیه کنم.
مدل بدون تصحیح درون زایی دارای AIC کمتری نسبت به مدل با اصلاح است
30788
من با R و به طور کلی آمار بسیار جدید هستم، اما باید یک نمودار پراکنده بسازم که فکر می کنم ممکن است فراتر از ظرفیت های اصلی آن باشد. من چند بردار مشاهدات دارم و می‌خواهم با آنها یک نمودار پراکنده بسازم و هر جفت به یکی از سه دسته تقسیم می‌شود. من می خواهم یک نمودار پراکنده بسازم که هر دسته را از نظر رنگ یا نماد جدا می کند. من فکر می کنم این بهتر از تولید سه پراکندگی مختلف باشد. من یک مشکل دیگر با این واقعیت دارم که در هر یک از دسته ها، در یک نقطه خوشه های بزرگ وجود دارد، اما خوشه ها در یک گروه بزرگتر از دو گروه دیگر هستند. کسی راه خوبی برای این کار میدونه؟ بسته هایی که باید نصب کنم و نحوه استفاده را یاد بگیرم؟ کسی کاری مشابه انجام داده است؟ با تشکر
راه خوبی برای استفاده از R برای ایجاد یک نمودار پراکنده که داده ها را بر اساس درمان جدا می کند چیست؟
89186
من به یک تابع چگالی احتمال نیاز داشتم که روی بازه $[0,1]$ کار کند، به نوعی شکل زنگی داشته باشد و یک حالت قابل تنظیم / پیک $p$ داشته باشد. من به یک pdf $f(x|p)$ فکر کردم که با \begin{معادله} f(x|p) = \left\\{ \begin{array}{l l l } \frac{ (x^{- \ ln 2/\ln p})^2 \cdot (1-x^{- \ln 2/\ln p})^2 }{ \log(p) \left( \frac{x^{1-\frac{4 \log 2}{\log p}}}{\log(p) - 4\log(2)} -\frac{2 x^{1-\frac{ 3 \log 2}{\log p}}}{\log(p) - 3\log(2)} +\frac{x^{1-\frac{2 \log 2}{\log p}}} {\log(p) - 2\log(2)} \right) } &\quad \text{ for } 0<x<1 \\\ 0 &\quad \text{ در غیر اینصورت} \end{array} \right. \end{equation} که * یک اوج در $x=p$ برای $0<p<1$ دارد. * $P(X\le 0) = P(X\ge 1) = 0$ * شکلی شبیه به شکل زنگ دارد * برای $p>1$ به سمت چپ و برای $0<p< به سمت راست به نظر می رسد. 1$ یا معادل آن: \begin{معادله} f(x|p) = \left\\{ \begin{array}{l l } \frac{ (x^a)^2 \cdot (1-x^a)^2 } { (4a+1)^{-1} - 2(3a+1)^{-1} + (2a+1)^{-1} } &\quad \text { for } 0<x<1 \\\ 0 &\quad \text{ در غیر اینصورت} \end{array} \right. \end{equation} که اوج آن $p=-\frac{\log 2}{\log x}$ است آیا پی‌دی‌اف مشابهی (یا دقیقاً همین) در ادبیات استفاده می‌شود؟ اسمش چیه؟ **PS**: توجه داشته باشید که pdf داده شده متقارن نیست: $f(x|1-p) \neq f(1-x |p) $
تابع چگالی احتمال در [0,1] با حالت مشخص
15266
اجازه دهید $X_1$ و $X_2$ متغیرهای تصادفی توزیع شده نرمال و مستقل با میانگین مساوی $\mu$ اما انحراف استاندارد غیر برابر $\sigma_1$ و $\sigma_2$ باشند. فرض کنید $\sigma_1$ و $\sigma_2$ را می شناسم و $n$ نمونه $x_{11},\ldots,x_{1n}$ از $X_1$ و m نمونه $x_{21}, \ldots, x_ دارم {2 میلیون دلار از X_2$، بهترین برآوردگر برای $\mu$ چیست؟ توزیع آن چگونه است؟ (ویرایش: من عمدتاً به مورد n=1، m=1 علاقه مند هستم)
ترکیب دو توزیع نرمال نابرابر
108555
من یک طرح مختلط با 25 آزمودنی دارم که هر کدام با 4 اندازه گیری مکرر در هر یک از سه گروه درمانی متفاوت بین آزمودنی ها (مجموع n=75). من می‌خواهم خطای استاندارد میانگین را برای هر گروه تولید کنم، اما نمی‌دانم چگونه این کار را به گونه‌ای انجام دهم که واریانس درون موضوعی را محاسبه کند. اگر به سادگی هر اندازه گیری را مستقل در نظر بگیرم، به طور مصنوعی SEM را با گنجاندن تعداد زیادی سوژه کاهش می دهد (یعنی 100 به جای 25)، اما اگر فقط از 25 استفاده کنم، SEM را بیش از حد تخمین می زنم زیرا واریانس از 100 موضوع مستقل در نظر گرفته می شود. نه 25. من صرفاً استفاده از مقدار متوسط ​​را برای هر موضوع در نظر گرفتم، اما با رد کردن این واریانس به نظر تقلب است. در ابتدا من از مقادیر SE تولید شده از خروجی SPSS خود استفاده می کردم، اما این مقادیر یک SE کلی برای مقادیر ANOVA محاسبه شده از مدل را نشان می دهد و SEM را برای هر گروه ارائه نمی کند. همکاران من مقادیر SEM گروهی فهرست شده را می خواهند.
چگونه می توانم واریانس درون موضوعی را برای ایجاد خطای استاندارد میانگین برای گروه های مختلف بین موضوعی محاسبه کنم؟
20450
من در نقطه ای هستم که به طور تصادفی به چیزی برخوردم که کاملاً درک نمی کنم. من باید ماتریس کوواریانس را با استفاده از این فرمول محاسبه کنم: $$\Sigma=\frac{1}{m}\sum_{i=1}^{m}(x^{(i)}-\mu_{y^{ (i)}})(x^{(i)}-\mu_{y^{(i)}})^{T}$$ با $$\mu_0=\frac{\sum_{i=1}^{m}1\\{y^{(i)}=0\\}x^{(i)}}{\sum_{i=1 }^{m}1\\{y^{(i)}=0\\}}$$ و $$\mu_1=\frac{\sum_{i=1}^{m}1\\{y^{(i)}=1\\}x^{(i)}}{\sum_{i=1 }^{m}1\\{y^{(i)}=1\\}}.$$ سؤال من، $\Sigma$ یک ماتریس است درست است؟ $\mu_0$ و $\mu_1$ نیز ماتریس هستند. و در اینجا چیزی است که من دریافت نمی کنم. $x^{(i)}$ یک مثال آموزشی است، فرض کنید با 2 ویژگی، عرض و ارتفاع. $\Sigma$ باید یک ماتریس مربع باشد.
ماتریس کوواریانس در تحلیل تفکیکی گاوسی
77951
من مشکل تخمین یک رویداد واقعی (یک نقص فنی اتفاق می‌افتد، که واقعیت آن در بازه‌های زمانی منظم بررسی می‌شود) را به مشکل زیر کاهش داده‌ام: ما یک سکه غیرعادلانه داریم که تقریباً برای هر پرتاب یک سر می‌دهد. اگر به ندرت دم می دهد. فرض کنید هر ثانیه سکه را پرتاب می کنیم. بعد از یک ساعت یک دم بالا می آید. بعد از دو دقیقه، یکی دیگر. بعد از 2 ساعت، یکی دیگر. چگونه می‌توانیم احتمال وقوع یک دنباله را تخمین بزنیم، و چگونه می‌توانیم حدس خوبی در مورد قابلیت اطمینان تخمین پس از تعداد معینی (مثلاً چند ده) از یک دم داشته باشیم؟ مشکل من این است که این رویداد به قدری نادر است که به دست آوردن یک اندازه گیری قابل اعتماد برای برخی از طولانی ترین دوره های زمانی که رخ نمی دهد بسیار دشوار است (فقط زمان زیادی می برد).
چگونه می توان احتمال یک رویداد نادر را که مشاهدات مربوط به آن را فقط در زمان کوانتیزه انجام داد، تخمین زد؟
40726
من می خواهم آنتروپی منبعی را تخمین بزنم که بردارهای دوتایی به طول M را که بسیار پراکنده هستند (فقط چند ثانیه) با استفاده از تخمینگر ساده (تجربی) $\hat{H}=-\sum\hat{p}( x)\log\hat{p}(x)$. آیا نتیجه ای در مورد تعداد نمونه های مورد نیاز برای انجام این کار با دقت خاصی وجود دارد، یا به طور معادل، خطا در محاسبه این مقدار با توجه به تعداد محدود نمونه؟
تعداد نمونه های مورد نیاز برای تخمین آنتروپی
66510
کاری که من باید انجام دهم این است که مدلی پیدا کنم که بتواند پیش بینی کند که **مشاهده** با توجه به ورودی **عامل** چگونه باید باشد. من یک تناسب خطی ساده در R انجام می دهم (یعنی `lm(مشاهده~0+عامل، داده=d)`). $R^2=0.002$، که واقعاً کوچک است. با این حال، هنگامی که من یک مشاهده AVG SELECT با ضریب براکت 0.001 را انجام می دهم، نتیجه چیزی شبیه به این است: فاکتور | مشاهده متوسط ​​-----------------------------------------0.003 -2 -0.002 -2 -0.001 -1 0.000 1 0.001 0 0.002 1 0.003 2 قطعاً به نظرم می رسد که در اینجا یک الگو وجود دارد، اما به نوعی این الگو توسط یک مدل خطی گرفته نشده است. آیا درک من درست است؟
چرا در حالی که به نظر می رسد در داده های من وابستگی وجود دارد، r-squared آنقدر کوچک است؟
88589
من در حال حاضر روی برخی از داده ها کار می کنم که از من می خواهد از مدل ترکیبی خطی استفاده کنم. **توضیح داده** * آزمایش داروها روی موش * من 3 دارو و 1 کنترل دارم * تعداد نامتعادل موش برای هر دارو و شاهد (4 تا 13) * اندازه گیری بر اساس روز (محدوده از 0 تا حداکثر 33) * جنبه اندازه گیری شده حجم تومور است ** افکار من ** * اثر ثابت: روز * تداخل دارویی * اثر تصادفی: ~Day|MouseID (البته شناسه موش رهگیری تصادفی است زیرا هر موش حجم تومور متفاوتی دارد؛ و منطقی است فکر کنیم که هر تومور نرخ رشد منحصر به فردی در هر موش دارد) * خروجی را بررسی کنید: * اثر تصادفی StdDev [آیا می توانم محاسبه کنید که چه مقدار از باقیمانده با اثر تصادفی توضیح داده می شود -> (Intercept+Slope) / (Intercept+Slope+Residual)] * اثر ثابت: مقادیر p را برای دارو و تداخل بررسی کنید * همبستگی: نمی دانم از این قسمت چه چیزی می توانیم بدانیم **سوال من** * آیا محاسبه اینکه چه مقدار از باقیمانده با اثر تصادفی توضیح داده می شود منطقی است؟ * چگونه قسمت همبستگی را تفسیر کنیم؟ * آیا عوامل یا موقعیت های دیگری وجود دارد که باید به آن فکر کنم؟ * در خلاصه یک مدل lme کدام عدد یا قسمت مهمتر است و چگونه باید آن را تفسیر کنیم؟ * آیا ایده های ساخت مدل بهتری وجود دارد؟ پیشاپیش ممنون!!
پیشنهاد ساخت مدل مختلط خطی
48347
امیدوارم بتوانید چند پیشنهاد به من بدهید. من در یک کالج بسیار متنوع (ساخته شده از گروه های اقلیت) تدریس می کنم و دانشجویان اکثرا رشته های روانشناسی هستند. بیشتر دانش‌آموزان تازه وارد دبیرستان هستند، اما برخی از آنها دانش‌آموزان مسن‌تری هستند که بالای 40 سال بازگشته‌اند. بیشتر دانش‌آموزان مشکلات انگیزشی و بیزاری از ریاضی دارند. اما من همچنان به دنبال کتابی هستم که برنامه درسی پایه را پوشش دهد: از توصیفی گرفته تا نمونه گیری و آزمایشی تا ANOVA، و همه در چارچوب روش های تجربی. دپارتمان از من می خواهد که از SPSS در کلاس استفاده کنم، اما من ایده ساختن آنالیز در صفحه گسترده ای مانند اکسل را دوست دارم. p.s. معلمان دیگر از کتابی استفاده می کنند که من آن را دوست ندارم، زیرا به فرمول های محاسباتی اتکا دارد. من استفاده از این فرمول‌های محاسباتی را - به جای فرمول شهودی‌تر و فشرده‌تر محاسباتی که با الگوریتم منطقی و اساسی سازگار است - غیر شهودی، غیر ضروری و گیج‌کننده می‌دانم. این کتابی است که من به اصول آمار برای علوم رفتاری، ویرایش هفتم، دانشگاه ایالتی فردریک جی گریوتر نیویورک، براکپورت لری بی. والنائو دانشگاه ایالتی نیویورک، براکپورت ISBN-10: 049581220X مراجعه می کنم، متشکرم که خواندید!
پیشنهادی برای یک کتاب درسی خوب مقدماتی در مقطع کارشناسی برای آمار دارید؟
77952
من اثر تعدیل کننده متغیر X' را بر رابطه بین X و Y آزمایش کردم. نتایج مثبت و معنی دار بود. با این حال، وقتی نتایج را ترسیم کردم، متوجه شدم که این دو خط در سطوح بالاتر بسیار بسیار به هم نزدیک می شوند، اما یکدیگر را قطع نمی کنند. نمی‌دانم که آیا این نتایج منطقی هستند... من سعی می‌کنم روشن کنم که آیا X' در واقع رابطه بین X-Y را تعدیل می‌کند (طرح داستان مرا گیج می‌کند). با تشکر
عبارت تعامل معنی دار است اما در طرح خطوط همدیگر را قطع نمی کنند
94596
من پاسخ هایی را دیده ام که در مورد پیچیدگی آموزش SVM ها و شبکه های عصبی بحث می کنند، اما برای _پیش بینی پاسخ های جدید_ پس از آموزش یک مدل چطور؟ برای زمینه، من روی برنامه‌ای کار می‌کنم که باید با داده‌های پیکسلی دریافتی، پیش‌بینی‌هایی را در زمان واقعی تولید کند و به دنبال الگوریتم یادگیری ماشینی هستم که بتواند صفحات جداکننده پیچیده را مدیریت کند و با بیشترین سرعت ممکن پیش‌بینی کند.
پیچیدگی محاسباتی پیش بینی با استفاده از SVM و NN؟
15261
من این سریال را دارم: r <- c(14.1649994,17.3997831,32.8877030,6.1547551,6.3594748,101.9584077,196.8411517 ,23.8292043,11.7583992,2.2915478,5.5088687,16.8188390,2.3077979,2.6666377,2.095 5362,0.9319688,0.6688078,1.0523184,6.8158264,13.1813211,17.8467944,1.9876636,7 .0219306,3.9272217,4.3325448,7.8778125,1.1878058,1.7207762,2.9655665,5.8571428) من از بسته strucchange برای تشخیص تغییرات ساختاری استفاده می کنم. نتیجه این است: > sctest(r~1) داده های آزمون CUSUM بازگشتی: r ~ 1 S = 0.7785، p-value = 0.1579 چگونه ممکن است که آزمون تغییرات را شناسایی نکرده باشد؟ یک حرکت بسیار بزرگ در حدود 200 افزایش می یابد. به طرح سریال زیر نگاهی بیندازید. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iwvB2.png)
این سری چگونه می تواند آزمون تغییرات ساختاری را پشت سر بگذارد؟
89183
من یک اسکریپت R دارم که یک فایل CSV را پردازش می کند و نتیجه را به عنوان CSV بیرون می دهد. این در محیط دسکتاپ به خوبی کار می کند. اکنون می‌خواهم برخی از این فکرها را پیاده‌سازی کنم: 1. یک ایمیل تنظیم کنید که کاربر بتواند فایل CSV را به عنوان پیوست ارسال کند. دقیقاً نمی دانم چگونه این کار را انجام دهم، اما من افرادی را در تیم دارم که این کار را انجام می دهند. نتیجه یک فایل CSV جدید است. 4. نتیجه را با ارسال ایمیل به کاربر برگردانید. من به نوعی روی شماره 3 گیر کرده ام. آیا کسی R (یا سرور R) را راه اندازی کرده است تا به این شکل اجرا شود. هر گونه پیشنهاد بسیار قدردانی می شود.
R به عنوان یک موتور پردازش باطن
87551
فکر می‌کنم یک سوء تفاهم اساسی از آنچه که بردارهایی که معمولاً روی یک نمودار nMDS (مقیاس‌گذاری چند بعدی غیر متریک) ترسیم می‌شوند به من می‌گویند، دارم. من متوجه هستم که جهت بردارها به جهت بیشترین تغییر در نمودار اشاره می کند. اما درک من این بود که طول هر فلش (محاسبه شده از مقادیر R2) بر اساس اهمیتی است که هر بردار در ساختار نمودار دارد. بنابراین یک فلش بلند تأثیر زیادی بر موقعیت هر نقطه در طرح دارد و بالعکس. اما نگرانی من اینجاست - داده های ساخته شده زیر 8 گونه را در 10 مکان مختلف نشان می دهد. 8 گونه نشان دهنده افراط های مختلف تغییر جامعه ممکن است. کتابخانه (گیاهخوار) # فراوانی زیاد، HALC کم تغییر <- c(100,99,101,98,99,100,100,101,99,100) # کم فراوانی, کم تغییر LALC <- c(1,2,1,2,2,2,1, 2،1،2) # فراوانی زیاد، تغییر مطلق زیاد HHAHAC <- c(100,99,98,91,86,50,45,30,21,9) # فراوانی زیاد، تغییر مطلق بالا LAHAC <- c(9,21,30,45,50,86,91,98, 99100) # فراوانی بالا، تغییرات 10% HA10C <- c(100,101,102,103,104,104,106,107,108,110) # فراوانی کم، تغییرات 10% LA10C <- c(1,1.01,1.02,1.03,1.04,1.04,1,01,01,10 فراوانی زیاد. تغییرات 100% HA100C <- c(100,110,120,130,140,140,170,175,187,200) # فراوانی کم, تغییرات 100% LA100C <- c(1.00،1.10،1.20،1.30،1.40،1.40،1.70،1.75،1.87،2.00) DF <- c(HALC,LALC,HAHAC,LAHAC,HA10C,LA10C,HA100C,LA100C) DF <- data.frame(HALC,LALC,HAHAC,LAHAC,HA10C,LA10C,HA100C,LA100C) row.names (DF) <- c(1,2,3,4,5,6,7,8,9,10) # مطمئن نیستم که تبدیل بهتر، 'total' یا 'norm' RWideHab <- decostand(DF, method='norm') چیست؟ set.seed(999) mdsHab <- metaMDS(RWideHab, dist='bray',trymax=99) # تابعی برای محاسبه اهمیت هر گونه با استفاده از آنالیز Procustes # (از Jari Oaksanen در یک سوال متفاوت) impo <- numeric( 8) for(i در 1:8) impo[i] <- procrustes(mdsHab, metaMDS(RWideHab[,-i]))$ss IMPO <- data.frame(impo) row.names(IMPO) <- c('HALC','LALC','HAHAC','LAHAC','HA10C' ,'LA10C','HA100C','LA100C') # NMDS را به عنوان نمودار عادی (mdsHab, display='sites',type='t') # برای دریافت بردارهای محیطی از envfit استفاده کنید envfitHab <- envfit(mdsHab, RWideHab,perm=999) # پیکان همپوشانی در نمودار بالا (envfitHab) VectHab <- as.data.frame (نمرات (envfitHab,display='vectors')) AbVecHab <- abs(VectHab) Sweep <- sweep(AbVecHab, 2, colSums(AbVecHab), /) DFVec <- data.frame(envfitHab$vectors$arrows, envfitHab$vectors$r, envfitHab$vectors$pval <EnvfitHab$vectors$pval)-v data.frame(DFVec,VectHab,Sweep) نام‌های colname(Env_Vector)<- c(NMDS1_Raw، NMDS2_Raw، R2، p، NMDS1_Scaled، NMDS2_Scaled، NMDS1_Relative، NMDRel، NMDS2)_ IMPO Env_Vector متغیر «IMPO» باید معیاری از اهمیت باشد که از تجزیه و تحلیل Procrustes محاسبه می‌شود، بنابراین هرچه عدد Procrustes بیشتر باشد، گونه‌ها در تعیین ترکیب کرت اهمیت بیشتری دارند. با این حال، در این مورد، اعداد Procrustes تمایلی به مطابقت با طول های برداری در نمودار ندارند (داده های طول برداری در متغیر Env_Vector یافت می شود). به خصوص با گونه ای که به عنوان LALC (فراوانی کم، تغییر کم) تعیین شده است، که در IMPO رتبه بالایی دارد، اما بردار بسیار کوتاهی دارد. بنابراین «IMPO» (تحلیل پروکروستس) و برازش بردار به نظر نمی رسد با هم موافق باشند، و من فرض می کنم که متوجه اشتباهم اطلاعات بزرگی بردار در مورد اهمیت گونه های مختلف در طرح من شده است.
برازش برداری در نمودار nMDS دقیقاً چه چیزی را در مورد ساختار جامعه به من می گوید؟
47183
آیا کسی می تواند به من بگوید که فرمول باقیمانده های پیرسون در یک مدل لاجیت چند جمله ای چیست؟ سعی کردم دنبالش بگردم اما چیزی پیدا نکردم.
فرمول باقیمانده پیرسون در مدل لاجیت چند جمله ای