_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
80462
یک مثال سوال من را نشان می دهد. در اینجا من از بسته «FNN» در «R» برای یافتن شاخص‌های 400 نزدیک‌ترین نقطه برای هر نقطه در مجموعه 1 تا 10000 استفاده می‌کنم: داده‌های نیازمند (FNN) = 1:10000 x = knn.index (داده، k = 400، algo = kd_tree) حالا فرض کنید از مجموعه داده دیگری استفاده می کنم که هنوز 10000 امتیاز دارد، اما فقط 100 امتیاز دارد. منحصر به فرد: داده = نمونه (1:100، 10000، جایگزین = درست) x = knn.index (داده، k = 400، الگوی = kd_tree) اجرای هر دوی این مثال ها تقریباً زمان یکسانی را می طلبد. اما آیا نمی توان وظیفه دوم را خیلی سریعتر از اولی انجام داد، زیرا تنها 100 امتیاز منحصر به فرد در کار دوم وجود دارد؟ اگر چنین است، کجا می توانم برای یافتن چنین الگوریتمی جستجو کنم؟ جدول 1 در این مقاله به طور بالقوه مرتبط است، اگرچه من به اندازه کافی با روش های مختلف آشنا نیستم تا بتوانم هر یک از آنها را به عنوان راه حل تشخیص دهم.
k نزدیکترین همسایه با نقاط تکراری
94913
رگرسیون قوی - درک بهتر
45965
بعد از اینکه توصیه‌هایی را که در آن وب‌سایت داده‌ام دنبال کردم، توانستم به نتایجی دست پیدا کنم، متأسفانه در درک آنچه به دست آورده‌ام مشکل دارم: پست اصلی: اینجا ویرایش: پیوند مستقیم به تصویر نتایج در اینجا، بنابراین من به مقداری نیاز دارم. سرنخ هایی در مورد اینکه چگونه ببینم آنچه دارم مرتبط است یا خیر. همچنین، 1، 2، 3 (به عنوان مثال: ماه: **1**، ماه: **2**، ماه: **3**) چه چیزی را نشان می دهد؟ امیدوارم کسی بتواند به من کمک کند پیشاپیش متشکرم! ویرایش: بنابراین من پیوندی را از پست اصلی دنبال کردم و از کتابخانه VGAM به جای mlogit استفاده کردم زیرا اطلاعات من برای آن فرمت نشده بود. سپس تابع vglm را اجرا کردم و خلاصه ای را اجرا کردم. در نهایت آن نتایج را گرفتم. من ارائه‌ای را که در این وب‌سایت موجود است قرمز دارم: http://www.stats24x7.com/3dMultinomialLogisticRegression.pdf که می‌گوید (نقل می‌کنم): > Educ مهم نیست (با مقادیر کوچک مقادیر t نشان داده می‌شود) - اجرا > مدل بدون آموزش بنابراین می‌خواستم بدانم منظور از قدرهای کوچک چیست، آیا باید از ماه و سن خلاص شوم (یعنی آیا تفاوت بین اعداد به حساب می‌آید یا این واقعیت که نزدیک به 0 است؟) همچنین چگونه می‌توانم مقدار p را بدست بیاورم. ?
99757
من در spss نتایج عجیبی گرفتم و نمی دانم چگونه آنها را از نظر آماری توضیح دهم. من بین: 1) شخصیت و هوش هیجانی (EI) 2) شخصیت و شایستگی عاطفی (EC) همبستگی ایجاد کردم. همبستگی (r-Pearson) نشان داد که شخصیت با EC ارتباط زیادی دارد، اما تقریباً هیچ ارتباطی با EI ندارد. همه چیز خوب بود تا اینکه مقایسه های بین گروهی را انجام دادم (ANOVA). من 4 گروه از افراد را تشکیل دادم: * با EC بالا و EI بالا * با EC بالا و EI پایین * با EC پایین و EI بالا * با EC پایین و EI پایین بررسی کردم که آیا تفاوت های قابل توجهی بین این گروه ها در پروفایل های شخصیتی وجود دارد یا خیر. و نتایج نشان داد که: * اگر دو گروه دارای سطح هوشیاری یکسانی باشند، از نظر شخصیتی تفاوتی ندارند (حتی اگر سطح EC متفاوتی داشته باشند). * و هنگامی که گروه ها با EI متفاوت هستند، از نظر شخصیتی نیز متفاوت هستند (حتی اگر EC یکسان باشد). این نتایج برای من غیرقابل توضیح است زیرا همبستگی نشان داد که شخصیت با EC مرتبط است نه با EI! نظرت چیه...یعنی چی؟ من بررسی کردم که آیا همه آنالیزها را به درستی انجام داده ام یا خیر.
نتایج متناقض همبستگی و مقایسه بین گروهی
48871
نمی دانم آیا کسی می تواند در مورد استفاده از نسبت ها به عنوان یک متغیر وابسته در یک مدل خطی تعمیم یافته به من توصیه کند. من یک متغیر دارم که به افزایش اندازه در زمان 1 به اندازه در زمان 2 برای افراد $n=37$ اشاره دارد. من می‌خواهم متغیر وابسته من درصد افزایش از زمان 1 به زمان 2 باشد. از آنجا که اندازه در زمان 2 برابر یا بزرگتر از اندازه در زمان 1 است، ممکن است وابسته من از 0 تا + بی نهایت باشد. من علاقه مند به آزمایش تعدادی از متغیرهای توضیحی بالقوه برای این افزایش درصد هستم و در عین حال یک عامل مخدوش کننده بالقوه (که به عنوان یک متغیر پیوسته نشان داده می شود) را نیز در نظر می گیرم. خوانده‌ام که ممکن است متغیر وابسته خود را تبدیل کنم و از GLM برای انجام تجزیه و تحلیل استفاده کنم. این به من این امکان را می دهد که عامل مخدوش کننده خود را به عنوان یک متغیر کمکی در تحلیل لحاظ کنم تا تأثیر آن را اندازه گیری کنم. سوال من این است که آیا می توانم تأثیر اندازه در زمان 1 را به عنوان یک متغیر توضیحی نیز آزمایش کنم؟ پیامدهای استفاده از متغیری که قبلاً برای محاسبه وابسته استفاده می شد به عنوان پیش بینی کننده چیست؟
80467
من اینجا شرایطی دارم من داده ها را از سیستم ODE دریافت کردم و می خواهم مقداری را تخمین بزنم. مشکل این است که برای تخمین خطی، من از این رابطه Y = C + C_a A + C_b B + C_d استفاده کردم که در آن 'C' نقطه قطع است و بقیه 'C' ها ضرایب هستند. من می خواهم این تخمین برای یک محدوده خالی کار کند، اما مشکل از رهگیری است. من می توانم رهگیری را از قبل پیدا کنم. وقتی A, B, D را در یک محدوده کوچک تقریب می‌زنم و می‌گویم [0.01، 0.05]، وقفه کاملاً مطابقت دارد، اما وقتی دامنه را افزایش می‌دهم می‌گویم [0، 0.5] بین فاصله‌ای که از طریق تخمین دریافت می‌کنم تفاوت زیادی وجود دارد و اونی که میتونم از قبل پیدا کنم من معتقدم که نباید آنقدر تفاوت بین رهگیری تخمین زده شده و چیزی که می توانیم قبل از تخمین بدست آوریم وجود داشته باشد. در این مورد چه باید بکنم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/BHf3Q.png) برای 625 نمونه در محدوده [0، 0.5]، این تخمین را دریافت می کنم `YY = 1.50651907424 - 0.295152822848*31292969 * A - 0. *ب - 7.59056025338e-09*DD - 0.656723555386*EE` برای 108 نمونه در محدوده [0، 0.5]، این تخمین را دریافت می‌کنم: YY = 1.62459346269034 - 0.396760767976905 1.302971457454*B - 7.39245088646173e-09*DD - 0.827832435224737*EE` برای 256 نمونه در محدوده [0.01، 0.05]، این تخمین را دریافت می کنم. 0.729590804005662*A - 2.56393407417859*B - 7.39245088646173e-09*DD - 1.29876329140818*EE` رهگیری دقیق قبل از تخمین 4`16704 است.
تحلیل رگرسیون (کمک رهگیری مورد نیاز)
66334
من در حال آماده شدن برای استفاده از R برای انجام تجزیه و تحلیل پراکنده بر روی داده های خود هستم. من سعی کردم با یک مثال موقت شروع کنم، اما نتیجه بازسازی واقعا ضعیف بود. می‌پرسم آیا در کد اشتباهی مرتکب شده‌ام، یا آیا با اشکالات ذاتی روش مواجه شده‌ام؟ داده ها به صورت موقتی هستند: > prod [,1] [,2] [,3] [,4] [,5] [1,] 1 1 1 1 2 [2,] 1 2 1 2 3 [3،] 0 1 0 1 1 [4،] 0 0 1 1 1 [5،] 0 1 0 1 1 و من از این rst = nsprcomp(prod, retx=T، nneg=T) برای انجام PCA پراکنده غیر منفی. من داده ها را به این شکل بازسازی می کنم: recon = rst$x %*% t(rst$rotation) + matrix(1,5,1) %*% rst$center نتیجه نهایی واقعا ضعیف بود: > abs(prod - recon) [,1] [,2] [,3] [,4] [,5] [1,] 0.386523767 0.2432819 0.1186152 0.3535836 0.3770144 [2،] 0.184944985 1.1214659 0.6230812 1.2173770 1.8819417 [3،] 0.01930.085 0.2249522 0.4825192 0.6942987 [4،] 0.009206957 0.5044193 0.2917920 0.6059221 0.8703587 [5،] 0.010610.085 0.2249522 0.4825192 0.6942987 هر ایده یا نظری قابل قدردانی است. ## ویرایش این بسته nsprcomp نام دارد
چرا چنین نتیجه ضعیفی از بسته PCA R پراکنده؟
109636
رویکرد الگوریتم غیر EM به مدل مخلوط؟
19139
آزمایش برای مخدوش کردن
99755
در یک درخواست بازبین از یک دست‌نوشته ارسال‌شده، آنها درخواست کردند که به جای نسبت‌های شانس از **نسبت‌های شیوع ** استفاده کنم. بازبینی کننده می گوید: > استفاده از رگرسیون لجستیک زمانی که شیوع پیامد بیشتر از 5-8 درصد است > یا تولید می کند که اغراق آمیز خطر نسبی واقعی است. در این مطالعه، شیوع آن 50 درصد بود. شاید بهتر باشد > نسبت های شیوع را در نظر بگیرید. این مطالعه بالینی اندازه گیری یک ناحیه خاص از بدن (K، متغیر پیوسته) و ارتباط آن با بیماری X (حال/غیر حاضر) بود. مشاهده مطالعه این است که هر چه K بزرگتر باشد، OR ابتلا به بیماری X بیشتر است. تعداد افراد 200 نفر است. من از مدل تناسب لجستیک در JMP برای محاسبه یا استفاده کردم، اما هنوز دستورالعمل‌هایی در مورد چگونگی به دست آوردن نسبت‌های شیوع برای این نرم‌افزار خاص پیدا نکرده‌ام. من می دانم که SAS یک روال برای این کار دارد، اما نمی دانم که آیا کسی می تواند به من راهنمایی کند که چگونه نسبت های شیوع را با دست یا روش های دیگر محاسبه کنم. من خوشحال خواهم شد که اطلاعات / داده های اضافی را ارائه دهم.
چگونه نسبت های شیوع را محاسبه کنیم؟
66333
من 1 موضوع رتبه بندی 40 شرکت کننده در پنج ویژگی شخصیتی بزرگ و متغیرهای دیگر دارم. این 40 شرکت کننده در 2 شرایط (هر کدام 20 نفر) هستند. من می خواهم مقایسه کنم که آیا تفاوتی بین نحوه امتیازدهی آزمودنی به دو شرط وجود دارد یا خیر. می دانم که شبیه نمونه های جفت شده به نظر می رسد، اما آیا نمونه های جفت شده تفاوت 2 پاسخ را برای یک شرکت کننده مقایسه نمی کنند؟ من یک موضوع دارم که 40 پاسخ می دهد. همچنین از نظر عملی، چگونه باید مجموعه داده خود را بسازم؟ نمونه های جفت شده نمی توانند تفاوت بین شرایط را آزمایش کنند. من باید برای شرط 2 متغیرهای جدیدی بسازم و سپس آنها را با هم مقایسه کنم. با این حال، در SPSS به نظر نمی رسد که شرکت کننده 1 و شرکت کننده 20 یک نفر باشند، زیرا ستون های آنها در مجموعه داده ها در کنار یکدیگر قرار دارند. راهنمایی در مورد اینکه از چه تحلیلی استفاده کنیم؟ من باید چند روز دیگر مطالعه را تحویل دهم، بنابراین توصیه سریع قدردانی می شود!
از کدام آزمون آماری استفاده کنیم؟ نمونه جفتی یا نمونه مستقل؟
48012
من دو مجموعه داده دارم: یکی دارای متغیر پاسخ پیوسته است در حالی که دیگری گسسته است. من از یک مدل خطی برای داده های پیوسته و یک مدل لاجیت و پروبیت برای داده های گسسته استفاده خواهم کرد. کاری که من می‌خواهم انجام دهم این است که تجزیه و تحلیل داده‌های اکتشافی را برای هر دو مجموعه داده انجام دهم. من متعجبم که از چه نمودارهایی می توان برای ارزیابی مفروضات مدل استفاده کرد. من هم برای افکار جدید باز هستم. هر گونه کمکی بسیار قدردانی خواهد شد.
تجزیه و تحلیل داده های اکتشافی
48879
SEM یا تجزیه و تحلیل مسیر با استفاده از AMOS، مسائل مربوط به اندازه نمونه و پیچیدگی مدل
49845
من به دنبال معیاری از پراکندگی هستم، مانند انحراف استاندارد، که بتوان از آن در هنگام توزیع در یک مجموعه _نامرتب_ استفاده کرد. به طور خاص: توزیع _سطلی_ یک مقدار غیر منفی به هر _سطل_ در یک مجموعه محدود اختصاص می دهد. مجموع تمام مقادیر اختصاص داده شده یک است. (تا اینجا مثل توزیع احتمال است). با این حال: سطل های موجود در مجموعه قابل تشخیص هستند اما نظم ندارند. این است که آن را از توزیع احتمال متفاوت می کند. ما می‌توانیم توزیع‌های سطلی را به‌عنوان فهرست‌هایی از اعداد غیرمنفی در حال کاهش نشان دهیم که مجموع آنها 1 است. مثلاً [1] یا [1/2,1/2] یا [1/3,1/3,1/6,1/6] یا [1/2,1/4,1/8,1/16...]. من می‌خواهم بتوانم میزان پراکندگی یک توزیع سطلی خاص را اندازه‌گیری کنم. بطور شهودی، [1] دارای 0 پراکندگی، [9/10,1/10] مقداری، [9/10,1/20,1/20] دارای بیشتر، [1/3,1/3,1/6، 1/6] موارد بیشتری دارد و غیره. اما من نتوانستم این را کمیت کنم. من سعی کردم از انحراف معیار، واریانس، ممان اینرسی و غیره استفاده کنم. اما راه خوبی برای این کار پیدا نکردم. من می توانم خودسرانه ترتیب سطل ها را رتبه بندی کنم، اما به نظر می رسد خوب، خودسرانه است. * * * _(من پوستر اصلی هستم، اما به نظر نمی رسد بیشتر از این نظری بدهم)_ ری: کار عالی است، از به اشتراک گذاری این تحقیق اصلی متشکرم. اگر بتوانید اطلاعات بیشتری در مورد نحوه توسعه آن ارائه دهید، جذاب خواهد بود. whuber: آیا هنوز احساس می‌کنید که آنتروپی معیار بهتری نسبت به $k'$ است؟ چرا؟ به طور شهودی، $k'$ مانند یک دستکش مناسب است. _فقط متوجه شدم:_ مدخل ویکی‌پدیا http://en.wikipedia.org/wiki/Diversity_index هم $k'$، آنتروپی و سایر معیارهای تنوع را نشان می‌دهد. اما، افسوس، هیچ مقایسه ای وجود ندارد (مفروضات اساسی هر کدام چیست، چه زمانی مناسب تر است، و غیره)
99752
من یک آزمون t از طریق SPSS و سپس یک ANCOVA (تحلیل کوواریانس) انجام داده ام. حالا می‌پرسم آیا درست است که مقدار t و سپس F-مقدار ANCOVA را گزارش کنیم؟ اما آیا این دو ارزش واقعا قابل مقایسه هستند؟ یا باید ابتدا یک ANOVA به جای آزمون t اجرا کنم؟ من می دانم که اگر من فقط دو گروه داشته باشم از نظر فنی نباید تفاوتی بین نتایج آزمون t و ANOVA یک طرفه وجود داشته باشد، اما این واقعاً من را گیج می کند. علاوه بر این، معیارهای همگنی واریانس ها برآورده نمی شود - آیا راهی برای اصلاح آن در هنگام انجام ANCOVA وجود دارد؟
مقایسه t-value و F-value
48013
من داده‌های یک طرح اسپلیت پلات را دارم که در آن A کل ضریب ثابت نمودار من با دو سطح است و B عامل فرعی من با 2 سطح و C عامل بلوک تصادفی من است. چگونه می توانم این داده ها را تجزیه و تحلیل کنم تا DF مناسب (=1 برای هر عامل ثابت و تعامل) را با استفاده از GLMM در بسته lme4 در R بدست آوریم؟ من Response~A*B+(A/B)+(1/C) را امتحان کردم که همان نتیجه ای را می دهد که وقتی (A/B) را به طور کامل از معادله خارج می کنیم. بنابراین من مطمئن نیستم که چگونه در معادله وارد کنم که فاکتور B در A تودرتو است. من همچنین response~A*B+(1|C/A/B) را امتحان کردم، اگرچه این احتمالاً اشتباه است، اما همه کدها اینطور هستند. نتایج متفاوتی به من می دهد و نمی توانم بگویم کدام یک درست به نظر می رسد، زیرا هیچ DF در خلاصه وجود ندارد و خروجی بصری داده های من چندان واضح نیست. آیا کسی می تواند در مورد لانه سازی کمک کند؟ همچنین اگر تصمیم بگیرم که فاکتورهای ثابت من در واقع متقاطع هستند و نه تودرتو (هنوز باید دوباره فکر کنم)، آیا کد متفاوت به نظر می رسد؟
تحلیل طرح اسپلیت پلات در lme4 در R
99753
**مشکل:** من یک نمایش گسسته از یک نقشه سطح/ارتفاع $z = f(x,y)$ دارم که می‌خواهم آن را به عنوان مخلوطی از گاوسی‌ها مدل کنم (لطفاً توزیع‌های احتمال را برای لحظه‌ای از ذهن خود حذف کنید. ). به طور دقیق تر، $ z = f(x) = \sum\limits_{i=1}^{n_g} a_i \; g(x; c_i، \Sigma_i)$ جایی که * $x \در R^d$ * $g(x; c_i، \Sigma_i) = exp\\{-\frac{(x-c_i)^T\Sigma_i^ {-1}(x-c_i)}{2} \\}$، * $a_i \geq 0$ حداکثر ارتفاع مولفه گاوسی یکم است، * $c_i \در R^d$ مرکز مولفه ith گاوسی است و * $\Sigma_i$ کوواریانس مولفه i'th گاوسی است که پشتیبانی آن را در فضا و جهت آن را تعیین می کند. با توجه به داده‌های سطح، من می‌خواهم این مدل را برازش کنم، یعنی پارامترهای $[...,a_i, c_i, \Sigma_i, ...]$ را با به حداقل رساندن تابع هدف حداقل مربعات که در زیر چند حدس اولیه معقول ارائه شده است تخمین بزنم: $E(a,c,\Sigma) = \sum\limits_{j=1}^N \left(z_j - f(x_j; a, c, \Sigma)\right)^2$ _Constraints:_ * $a_i \geq 0$، * $\Sigma_i$ باید متقارن ($\Sigma_i = \Sigma_i^T$) و مثبت-معین ($u^T\) باشد. Sigma_i u > 0 \; \forall{u} \in R^d$). می‌خواهم تأکید کنم که می‌خواهم برای ماتریس‌های کوواریانس کامل $\Sigma_i$ بهینه‌سازی کنم (حتی مورب نیز کافی نیست). **رویکرد تا کنون** من در زیر رویکردی را که تاکنون به دنبال آن بوده‌ام شرح خواهم داد، اما من _واقعاً از هر ایده دیگری در تطبیق این مدل با داده‌ها قدردانی می‌کنم یا حداقل به من به ادبیات مناسب برای خواندن اشاره می‌کنم (گوگل کردن مرا به این سمت می‌برد. ادبیات زیادی در مورد برازش یک مدل مخلوط به یک توزیع احتمال با استفاده از EM). من ممکن است تعداد زیادی از اجزاء در مخلوط داشته باشم. بنابراین خوب خواهد بود اگر بتوانید پاسخ های خود را با نظراتی در مورد پیچیدگی محاسباتی، کیفیت راه حل (چقدر از حداقل جهانی فاصله دارد) و حساسیت به مقداردهی اولیه (چقدر حدس های اولیه نزدیک باشد) تکمیل کنید. ایده اولیه من استفاده از الگوریتم های کمینه سازی تکراری مانند الگوریتم گاوس-نیوتن یا الگوریتم لونبرگ-مارکوارت است. بنابراین من با استخراج مشتقات تابع خطا/هدف $E(a,c,\Sigma)$ با توجه به هر یک از پارامترهای آن شروع کردم: $\begin{eqnarray} \frac{\partial E}{\partial a_i } & = & -2\sum\limits_{j=1}^N \left(z_j - f(x_j; a, c, \Sigma)\right) \frac{\partial f(x_j; a, c, \Sigma)}{\partial a_i} \\\ & = & -2\sum\limits_{j=1}^N \left(z_j - f(x_j; a، c، \Sigma)\right) g(x_j؛ c_i، \Sigma_i) \end{eqnarray}$\begin{eqnarray} \frac{\partial E}{\partial c_i} & = & -2\sum\limits_{j=1}^N \left(z_j - f(x_j; a, c, \Sigma)\right) \frac{ \partial f(x_j; a, c, \Sigma)}{\partial c_i} \\\ & = & -2\sum\limits_{j=1}^N \left(z_j - f(x_j; a, c, \Sigma)\right) \; a_i \frac{\partial g(x_j; c_i, \Sigma_i)}{\partial c_i} \\\ & = & -2 \sum\limits_{j=1}^N \left(z_j - f(x_j; a , c, \Sigma)\right) \; a_i \; g(x_j; c_i، \Sigma_i) \; \Sigma_i^{-1} (x_j - c_i) \end{eqnarray}$ $\begin{eqnarray} \frac{\partial E}{\partial \Sigma_i} & = & -2\sum\limits_{j=1 }^N \left(z_j - f(x_j; a, c, \Sigma)\right) \frac{\partial f(x_j; a, c, \Sigma)}{\partial \Sigma_i} \\\ & = & -2\sum\limits_{j=1}^N \left(z_j - f(x_j; a, c, \Sigma)\ راست) \; a_i \frac{\partial g(x_j; c_i، \Sigma_i)}{\partial \Sigma_i} \\\ & = & -2 \sum\limits_{j=1}^N \left(z_j - f(x_j; a, c, \Sigma)\right) \; a_i \; g(x_j; c_i، \Sigma_i) \; \frac{\Sigma_i^{-T} (x_j - c_i)(x_j - c_i)^T\Sigma_i^{-T}}{2} \end{eqnarray}$ اکنون در حالی که تابع خطای $E(a) را به حداقل می‌رسانم ,c,\Sigma)$ با استفاده از یکی از الگوریتم‌های کمینه‌سازی تکراری، می‌خواهم ماتریس‌های کوواریانس را اعمال کنم. $\Sigma_i$ متقارن و قطعی مثبت هستند. و من نمی دانم چگونه آن محدودیت را اعمال کنم؟_ (آیا باید سعی کنم عناصر یک طرف مورب را بهینه کنم که به نوعی آن را به دامنه ماتریس های متقارن نشان می دهد اما لزوماً قطعی نیست؟) من حدس می زنم که این یک در حال حاضر مشکل حداقل به طور منطقی حل شده است. خیلی خوب می شود اگر بتوانید ادبیات این مشکل را به من معرفی کنید تا بتوانم به جلو بروم. از طرف دیگر، از یک پیشینه بینایی کامپیوتری + یادگیری ماشینی، نمی توانم مقاومت کنم جز اینکه به استفاده از الگوریتم انتظار-بیشینه سازی فکر کنم. بطور شهودی، اگر می‌دانستم هر مکان (x,y,z) متعلق به کدام مؤلفه گواسی است (به معنای ساده) آنگاه می‌توانم پارامترهای مؤلفه‌های گاوسی را محاسبه کنم. و اگر پارامترهای مخلوط گواسی را بدانم، می توانم میزان تعلق هر مکان (x,y,z) به هر جزء در مخلوط را محاسبه کنم. و، الگوریتم‌های انتظار-بیشینه‌سازی در پایان به کمینه‌سازی یک تابع هدف با استفاده از نزول مختصات خلاصه می‌شوند. بنابراین خوب است اگر می‌توانید به هر ادبیاتی که می‌توانید به من اشاره کنید که رویکرد EM برای این مشکل دارد، به من اشاره کنید.
رگرسیون مخلوط گاوسی در ابعاد بالاتر
48010
من رگرسیون لجستیک را با استفاده از «glm» در R روی داده‌ها اجرا می‌کنم که دارای چند متغیر نشانگر است. دو مورد از آن‌ها چندین سطح دارند و به ترتیب به عنوان پیش‌بینی‌کننده‌های ساختگی جدید (#سطح-1) بازنویسی شده‌اند. در مورد انتخاب متغیر، من از step (انتخاب متغیر به عقب بر اساس AIC) استفاده می‌کنم، جایی که با مشکل مواجه می‌شوم: حتی اگر همه ساختگی‌های نشانگر اولیه حفظ یا حذف شدند، نمی‌دانم اگر یک ساختگی منفرد (یعنی یک نفر) چه کاری انجام دهد. مجموعه ای از آدمک های مرتبط) در طول انتخاب متغیر حذف شد؟ به هر حال، این بدان معناست که من اطلاعات رمزگذاری شده برای سطح پایه را از دست می دهم (زیرا در همه ساختگی های دیگر با 0 نشان داده شده است). کسی میتونه بگه اگه همچین موردی پیش اومد چیکار کنم؟ با تشکر و احترام
متغیرهای شاخص و حذف به عقب با GLM
110757
هنگام مدل‌سازی سری‌های زمانی، می‌توان (1) ساختار همبستگی عبارات خطا را به عنوان مثال مدل‌سازی کرد. یک فرآیند AR(1) (2) شامل متغیر وابسته عقب افتاده به عنوان یک متغیر توضیحی (در سمت راست) است. با این حال، **دلایل روش شناختی** برای انجام هر دو (1) یا (2) یا حتی هر دو چیست؟
92883
تابع متغیر تصادفی
95661
اولین متغیر 'SMOKE' است که نشان می دهد آیا فرد سیگاری است یا نه. متغیر دوم «روزانه» با شرط «اگر» به متغیر اول مرتبط است: اگر فرد سیگاری است، آیا روزانه سیگار می‌کشد یا خیر. چگونه می توانم این دو متغیر را در مدل خود قرار دهم؟ پیشاپیش متشکرم، ویرایش: (1) من ترجیح می دهم از سفارش آشکار از غیرسیگاری به سیگاری به سیگاری روزانه سوء استفاده کنم. (اگر این در مدل من قابل توجه باشد) (2) سیگار یک متغیر مستقل در مدل من است (در واقع، این یک عامل خطر برای یک بیماری است)
نحوه قرار دادن متغیرهای مرتبط با یک شرط IF در یک مدل
7775
R اجرای ضریب تعیین جزئی
57909
سوال من کاملا به موضوع متن کاوی مرتبط نیست، اما شاید شما بتوانید کمک کنید. من به دنبال مجموعه ای از کلمات کلیدی هستم که دارای معیارهای زیر است: \- فقط حاوی کلمات انگلیسی/n-grams یا موجودیت های نامگذاری شده است \- برچسب های دستی (برچسب شده توسط انسان) اخبار جهانی \- دارای برخی موضوعات اصلی (5-10) ، به عنوان مثال فناوری، کسب‌وکار، ورزش، ... \- باید نسبتاً بزرگ باشد (بیش از 10000 برچسب) \- به روز باشد \- چه خوب است که کلمات کلیدی دارای وزن فرکانسی باشند. من فکر کردم که چند تا از بزرگترین پورتال های خبری دارای برچسب ابری هستند که (تا حدی) با معیارها مطابقت دارد. اما من چیزی در اخبار بی بی سی، اخبار سی ان ان، رویترز، ... پیدا نکردم، جالب است که من برخی از پورتال ها را به زبان مادری خود (مجارستانی) پیدا کردم، باورم نمی شود که چیزی در سطح جهانی وجود ندارد. من نیازی به API ندارم، در صورت لزوم می توانم HTML را تجزیه کنم. شاید corpora بتواند مفید باشد. با تشکر
یک کلمه کلیدی به روز که در اخبار جهانی تنظیم شده است
50843
رگرسیون چند خطی را طوری انجام دهید که علامت ضریب با علامت همبستگی یکسان باشد
48017
من روی روشی برای طبقه بندی دوتایی توالی های DNA کار کرده ام. با جزئیات بیشتر، در اینجا چیزی است که این روش انجام می دهد. با توجه به خانواده ای از توالی های DNA، به عنوان مثال نقوش توالی DNA، سعی می کنم با اندازه گیری شباهت آنها به توالی های موجود در خانواده، پیش بینی کنم که آیا توالی های دیگر به این خانواده تعلق دارند یا خیر. روش من توزیعی را به دنباله‌ها برازش می‌کند، و سپس یک pvalue را به دنباله‌هایی که در خانواده نیستند اختصاص می‌دهد. در داده‌هایی که من استفاده می‌کنم، توالی‌ها همه دارای طول 28 هستند. توالی‌هایی که من تجزیه و تحلیل می‌کنم در اینجا هستند، به‌ویژه 12 RSS انسان و 12 RSS ماوس. از آنجایی که مقایسه با روش‌های موجود همیشه چیز خوبی است، می‌پرسم اگر وجود دارد، روش‌های استاندارد برای شکست دادن چیست؟ من با روش ها/الگوریتم های موجود خیلی آشنا نیستم. من در حال آزمایش MEME هستم. به نظر می رسد این دقیقاً آن چیزی را که من می خواهم انجام نمی دهد، و نمی دانم که آیا بتوانم آن را متقاعد کنم یا خیر. به طور خاص، من مطمئن نیستم که بتوانم به آن بگویم که سکانس‌های 28 طولی موتیف هستند یا خیر. من از مستندات این تصور را گرفتم که تصمیم می‌گیرد که موتیف‌ها به خودی خود چیست یا چیز دیگری. این احتمالاً بیشتر در مورد یک سایت بیوانفورماتیک است، اما SE در حال حاضر یکی ندارد، بنابراین من در اینجا تلاش می کنم. در صورت لزوم می توانم جزئیات بیشتری ارائه دهم. توجه: من فکر می‌کنم خوب است که یک برچسب بیوانفورماتیک در اینجا ایجاد و استفاده شود. به نظر می رسد در حال حاضر وجود ندارد. به‌روزرسانی: فکر می‌کنم سؤال اصلی من ضعیف نوشته شده بود و جزئیات کافی نداشت، بنابراین جزئیات بیشتری (امیدوارم مفید) اضافه می‌کنم. من دو مجموعه داده RSS را تجزیه و تحلیل می کنم، که هر کدام مجموعه ای از توالی هستند، همانطور که در بالا بیان کردم. هدف اصلی تجزیه و تحلیل انجام پیش بینی است. بنابراین، من از روش اعتبارسنجی متقابل استفاده کردم. من هر مجموعه داده را به 5 قسمت تقسیم کردم و به نوبه خود از 4 قسمت از پنج قسمت به عنوان مجموعه آموزشی استفاده کردم. (عدد 5 در اینجا کمی دلخواه است، اما از آنجایی که می‌خواهم نتایج را در هر مجموعه آموزشی درج کنم، نمی‌خواهم تعداد آن‌ها خیلی بزرگ باشد.) پس از قرار دادن یک مدل در مجموعه آموزشی، سپس از این مدل برای پیش بینی به شرح زیر است. مجموعه داده‌های RSS در بخش‌های ژنی، معمولاً یک یا دو RSS در هر بخش ژنی موجود است. بخش های ژن اغلب بسیار بزرگتر از RSS هستند. اینها 12 RSS هستند، بنابراین هر RSS دارای طول 28 است. من تمام بخش‌های ژنی را که می‌توانستم پیدا کنم که حاوی یک RSS هستند، برداشتم و از بین آنها تمام توالی‌های پیوسته به طول 28 را انتخاب کردم. و 624400 برای دیگری. تعداد متناظر RSS 118 و 201 بود. توجه داشته باشید که این مجموعه ها لزوماً حاوی همه مقادیر متمایز نیستند. بنابراین، من از مدل مشتق شده از مجموعه آموزشی برای محاسبه pvalue برای همه این تقریباً 500000 دنباله استفاده کردم. (من برخی از جزئیات را در اینجا حذف می کنم، اما فکر نمی کنم مهم باشد که دقیقاً چگونه مقادیر را محاسبه کردم.) سپس دنباله ها را بر اساس کاهش pvalue رتبه بندی کردم. ایده این بود که دنباله‌های RSS در این رتبه‌بندی رتبه بالایی داشته باشند، و در صورت رتبه‌بندی. اکنون، من می خواهم الگوریتمی پیدا کنم که بتواند رویه مشابهی را انجام دهد. تا کنون شانس چندانی نداشته‌ام - در انبوهی از مقالات و نتایج گیج‌کننده که عمدتاً توسط زیست‌شناسان نوشته شده‌اند و در نتیجه درک آن برایم سخت است، رد شده‌ام. به نظر می رسد بسیاری از مطالب مرتبط در مورد کشف موتیف de novo باشد، که در مورد یافتن جادویی نقوش ظاهراً بدون مجموعه آموزشی است. همچنین، به نظر نمی‌رسد که بسیاری از نرم‌افزارها برای مقابله با توالی‌ها به اندازه مثال من طراحی شده باشند. شخصی tomtom را از MEME پیشنهاد کرده است، اما تا کنون من آن را به کار نبرده ام.
طبقه بندی باینری توالی موتیف DNA (بیوانفورماتیک)
12465
کد R برای دو نمونه t-test در صورت وجود واریانس مساوی
95665
من سعی می کنم معادله ای را با داده ها تطبیق دهم. من شکل معادله را می دانم اما باید پارامترهای ثابت را در معادله بدانم. من از تکنیک های برازش و بهینه سازی غیر خطی استفاده کردم اما نتوانستم نتایج امیدوارکننده ای به دست بیاورم. این می‌تواند یک سوال ساده باشد، اما نمی‌دانم که آیا می‌توان با استفاده از الگوریتم‌های یادگیری ماشینی مانند فرآیند استدلال، شبکه عصبی و غیره، یک معادله را با داده‌ها تطبیق داد. به عنوان مثال، من داده‌ای دارم و می‌خواهم این معادله را مطابقت دهم: a*sin(x) +b*cos(x). آیا می توان ثابت های a و b را پیدا کرد؟
مدل برازش داده ها با استفاده از الگوریتم های یادگیری ماشین؟
78354
ماتریس کنتراست دقیقاً چیست و دقیقاً چگونه ماتریس کنتراست مشخص شده است؟ یعنی ستون ها چیست، ردیف ها چیست، محدودیت های آن ماتریس چیست و اعداد در ستون «j» و ردیف «i» به چه معناست؟ من سعی کردم به اسناد و وب نگاه کنم، اما به نظر می رسد که همه از آن استفاده می کنند، اما هیچ تعریفی وجود ندارد. من می‌توانم تضادهای از پیش تعریف‌شده موجود را مهندسی معکوس کنم، اما فکر می‌کنم این تعریف باید بدون آن در دسترس باشد. > contr.treatment(4) 2 3 4 1 0 0 0 2 1 0 0 3 0 1 0 4 0 0 1 > contr.sum(4) [,1] [,2] [,3] 1 1 0 0 2 0 1 0 3 0 0 1 4 -1 -1 -1 > contr.helmert(4) [,1] [,2] [,3] 1 -1 -1 -1 2 1 -1 -1 3 0 2 -1 4 0 0 3 > contr.SAS(4) 1 2 3 1 1 0 0 2 0 1 0 3 0 0 1 4 0 0 0
تعریف ماتریس کنتراست
7774
یک کران پایین محکم در زمان جمع آوری کوپن چیست؟
48014
من این تکلیف را از کلاس Generalized Linear Model گرفتم. در نگاه اول به نظر می رسید کار آسانی است، اما چیزهای ظریف زیادی (حداقل به نظر من) وجود دارد که می خواهم با کسی آنها را روشن کنم. بنابراین مشکل اینجاست: فرض کنید که ما به متغیر تصادفی $Y=e^Z$ علاقه مندیم. متغیر $Z$ از رگرسیون خطی ساده یعنی $Z=a+bX+\varepsilon$ به دست می آید که $\varepsilon \sim N(0,4)$ است. با توجه به 100 مشاهده از $(Z,X)$، ما ویژگی های تجربی زیر را داریم $\bar x=2$، $\sigma^2_x=1$، $\bar z = -1$ و $\operatorname {cov} (z ,y)=-1 دلار. 1. چگونه فاصله اطمینان 95% والد _تقریبی را برای پارامتر $\theta = E(Y|X=1/2)$ بسازیم، با استفاده از این واقعیت $E e^{\lambda U} = e^{a \lambda+\ sigma^2\lambda^2/2}$، وقتی $U \sim N(a، \sigma^2)$؟ 2. چگونه فاصله اطمینان 95% والد را برای پیش بینی فردی $Y$ در زمانی که $X=1/2$ بسازیم؟ 3. حال فرض کنید که ما واریانس $\varepsilon$ را نمی دانیم و از آن 100 مشاهده می دانیم که واریانس تجربی $Z$، $\sigma^2_z=4$ است. من با وصل کردن آمار تجربی برای مشخص کردن بخش رگرسیون ساده شروع کردم و $Z=1-X+\varepsilon$ گرفتم، بنابراین $$\operatorname{\log} Y =1-X+\varepsilon. $$ از آنجایی که $\operatorname {log} Y$ به طور معمول توزیع شده است، پس توزیع میانگین $Y$ باید منطقی باشد؟ اگر $Y$ نرمال است، نمی توانم آن را به شکل خانواده نمایی متعارف بنویسم $$\operatorname{exp}\left\\{ \frac{y \theta-b(\theta)}{a(\phi )}-c(y,\phi) \right\\},$$ زیرا من $\operatorname{log}y$ دارم به جای $y$ ضربدر $\theta$. این بدان معناست که من نمی دانم $b(\theta)$ و سایر پارامترها چیست که برای تخمین خطای استاندارد به آنها نیاز دارم. بنابراین هر راهنمایی در مورد پاسخ حداقل به اولین سوال عالی خواهد بود!
فواصل اطمینان برای ثبت پاسخ های عادی
78358
من یک مدل پواسون با باد صفر را در WinBUGS بدون مشکل اجرا کردم و اکنون سعی می کنم دوجمله ای منفی معادل آن را اجرا کنم. با این حال، من یک پیام تله نتیجه واقعی تعریف نشده را بارها و بارها دریافت می کنم. در اینجا مجموعه داده http://www.megafileupload.com/en/file/474809/data1.html #کتابخانه مدیریت داده (R2WinBUGS) setwd('') # دایرکتوری کاری dget('data1') data1 <- data1[ order(data1$C)، ] n = nrow(data1) n0 = length(which(data1$C == 0)) sink(ZINB.txt) cat( model { # Pr(Y=0|x,z) # احتمال صفرها K <- 10000 for(i در 1:n0){ zeros0[i] <- 0 zeros0[i] ~ dpois(mu0[i]) mu0[i] <- -log(p00[i] + (1-p00[i])*pow(overd[i]، r)) + K overd[i] <- r/(r + lambda0[i]) p00[i] <- min( 0.999999، max(. 000001,p0[i]) ) # اجتناب از stackoverflow logit(p0[i]) <- a0 + b0.A*A[i] + b0.M*M[i] + b0.cat*cat[i] + b0.d*d[i] log(lambda0[i])<- a + logh[i] + b.A*A[i] + b.M *M[i] + b.cebo*cebo[i] + b.descart*descart[i] + b.d*d[i] } # Pr(Y>0|x,z) # احتمال از تعداد مثبت برای (j در (n0+1):n){ صفر[j] <- 0 صفر[j] ~ dpois(mu[j]) mu[j] <- -log((1-p1[j ])*fnb[j]) + K lfnb[j] <- r*log(overd[j]) + C[j]*log(1 - overd[j]) + loggam(C[j] + r) - loggam(r) - loggam(C[j] + 1) # - log(1 - pow(overd[j], r)) fnb[j] <- exp( lfnb[j] ) overd[j] <- r/(r + exp(lambda[j])) p1[j] <- min( 0.999999، max(.000001, p[j]) ) logit(p[j]) <- a0 + b0.A*A[j] + b0.M*M[j] + b0.cat*cat[j] + b0.d*d[j] + b0. descart*descart[j] log(lambda[j])<- a + logh[j] + b.A*A[j] + b.M*M[j] + b.cebo*cebo[j] + b.descart*descart[j] + b.d*d[j] + b.dcos*dcos[j] pred[j] <- (1 - p1[j])*lambda[j] # مقدار پیش‌بینی‌شده (به Zuur et مراجعه کنید) al 2009) var[j] <- (1 - p1[j])*(lambda[j] + lambda[j]*lambda[j]/r) + lambda[j]*lambda[j]*(p1[j]*p1[j] + p1[j]) # واریانس (نگاه کنید به Zuur و همکاران 2009) res[j] <- (C[j] - lambda[j] ]*(1 - p[j]))/sqrt( var[j] ) # باقیمانده پیرسون disp[j] <- pred[j]/var[j] # پراکندگی } # پیشینهای مبهم برای ضرایب مدل r ~ dunif(0،10) a0 ~ dnorm(0.001) a ~ dnorm(0.001) b.A ~ dnorm(0.0.001) b0.A ~ dnorm(0.0.00) b.M ~ dnorm(0,0.001) b0.M ~ dnorm(0.0.001) b.d ~ dnorm(0.001) b0.d ~ dnorm(0.0.001) b.descart ~ dnorm(.0.0.001) b0.descart ~ dnorm(0.0.00) .cat ~ dnorm(0,0.001) b.dcos ~ dnorm(0,0.001) b.cebo ~ dnorm(0,0.001) } ,fill=TRUE) sink() # داده ارسال شده به WinBUGS win.data <- list( C = data1$C, A = as.numeric(data1$A)، M = as.numeric(data1$M)، d = as.numeric(scale(data1$dcol))، dcos = as.numeric(scale(data1$dcos))، cebo = as.numeric(data1$cebo)، descart = as.numeric(data1$descart)، cat = as.numeric(data1$cat)، logh = log(data1$h)، n = n، n0 = n0 ) # مقادیر اولیه init <- function(){ list( r = runif(1, 1, 5)، a0 = rnorm(1)، a = rnorm(1)، b.A = rnorm(1)، b0.A = rnorm(1 b.M = rnorm(1)، b0.M = rnorm(1)، b.d = rnorm(1)، b0.d = rnorm(1)، b.descart = rnorm(1)، b0.descart = rnorm(1)، b0.cat = rnorm(1)، b.dcos = rnorm(1)، b.cebo = rnorm(1) } # پارامترهای پارامتر <- c( r، mu، lambda، a، a0، b.A، b0.A، b.M، b0.M، b.d، b0.d، b.descart، b0.descart، b0.cat، b.dcos، b.cebo، res، pred، var) # تنظیمات MCMC nc <- 3 ni <- 30000 nb <- 3000 nt <- 3 # اجرای WinBUGS از <- اشکالات (داده = win.data، inits = inits، parameters.to.save = params، model.file = ZINB.txt، n.thin = nt، n.chains = nc، n.burnin = nb، n.iter = ni، اشکال زدایی = TRUE ) print(out, dig = 2) تله از قسمت Pr(Y > 0) مدل ناشی می شود زیرا Pr(Y = 0) بدون مشکل اجرا می شود. من شروع و پیشین های مختلف را امتحان کردم بی فایده بود.
نتیجه واقعی تعریف نشده در یک دوجمله ای منفی با تورم صفر
57906
آیا کسی می داند چگونه با استفاده از الگوریتم EM، فواصل اطمینان را برای پارامترهای تخمینی مخلوطی از گاوسیان پیدا کند؟
الگوریتم های EM - تخمین فاصله اطمینان
29253
فرض بر این است که یکی از مسائل اصلی یافتن یک ساختار کوواریانس مناسب برای طرح‌های اندازه‌گیری مکرر است [Ref1]. SAS' PROC MIXED شامل تعدادی ساختار کوواریانس است. علیرغم _گزینه های زیادی در بین مدل ها برای تناسب با مجموعه داده های داده شده در تنظیمات مدل مختلط... [و] همیشه باید به یاد داشته باشیم که همه مدل ها اشتباه هستند (زیرا آنها ساده سازی های ایده آل طبیعت هستند)، اما برخی از آنها مفید هستند_ [نقل از ]. توصیه‌های مختلفی برای انتخاب از بین مدل‌های کوواریانس وجود دارد که [Ref2]، [Ref3] شناخته می‌شوند. من آزمایش‌هایی را با طراحی RM ANOVA (متعادل و نامتعادل) درون آزمودنی‌های یک طرفه بدون فاکتور بین موضوعی که در اینجا توضیح داده شده است، انجام می‌دهم. سوال من این است که *اگر یک **شرط** (_نه زمان_) به عنوان یک عامل درون موضوعی داشته باشم چه اهمیتی دارد و چگونه ساختار کوواریانس مناسب را در این مورد انتخاب کنم*؟ شاید این مورد عجیبی باشد زیرا من یک ماده بومی و مشتقات شیمیایی آن با ساختارهای مولکولی مشابه دارم. پس احتمالا من همبستگی ناشی از خود ماده دارم؟
چگونه یک ساختار کوواریانس مناسب برای طراحی ساده یک طرفه درون آزمودنی RM ANOVA انتخاب کنیم؟
7771
آیا راهی برای محاسبه اندازه اثر برای آماره Z Kolmogorov-Smirnov (در SPSS یا با دست) وجود دارد؟ یا باید به آزمون من ویتنی پایبند باشم، حتی اگر اندازه گروه من کمتر از n=25 باشد؟
78352
من یک مجموعه داده دارم که از لیستی از تاپل ها تشکیل شده است: (1، 0.5)، (3، 0.7)، (1،.1)، (23،.8)،... در هر تاپل، عنصر دوم میانگین قیمت است و اولین عنصر تعداد اقلام است. به عنوان مثال، (3، 0.7) به این معنی است که سه کالا با قیمت متوسط ​​0.7 خریداری شده است. از این فهرست داده‌ها، من می‌خواهم دنباله قانون توان را بگنجانم (اگرچه من واقعاً به نسخه کلی برازش توزیع به داده‌های تا حدی انباشته شده، به روشی ناپارامتریک علاقه‌مندم). روش‌های متداول برای تقسیم، مثلاً (3، 0.7) به سه مشاهده جداگانه، یا به‌طور کلی‌تر، چگونه باید با این داده‌های تا حدی جمع‌آوری شده رفتار کنم، چیست؟
تخمین توزیع از داده های تا حدی تجمیع شده
79088
من در تلاش برای درک روش توصیف شده در این مقاله هستم که یک چارچوب آزمون فرضیه برای نسبت های ایزوتوپ پایدار را توصیف می کند. داده‌ها در یک فضای ایزوتوپی دو متغیره قرار دارند و معیارهایی که برای من مورد استفاده قرار می‌گیرند، مکان‌های مرکز گروه، فاصله میانگین مشاهدات تا مرکز و گریز از مرکز هستند. تعیین این مقادیر نسبتاً ساده است (من از Mathematica برای تجزیه و تحلیل داده ها استفاده می کنم). مشکل زمانی به وجود می آید که نویسندگان آمار آزمون را با توزیع های تهی تولید شده توسط یک روش جایگشت باقیمانده (RPP) مقایسه می کنند. نویسندگان این روش را به شیوه ای رضایت بخش برای کسانی که با جبر خطی و R راحت هستند توصیف می کنند. با این حال من نمی توانم خودم را در هیچ یک از این دسته بندی ها قرار دهم. من معتقدم روش کلی پیشنهادی این است که بردارهای هر مرکز گروه را با بردارهای یک مرکز کلی با استفاده از یک آمار آزمون چند متغیره مقایسه کنیم، در این مورد، T^2$ هتلینگ. (دوباره، من در اینجا در حال جستجو در قلمرو خارجی هستم؛ اما فعلاً فرض می‌کنم که می‌توانم آنالوگ چند متغیره آزمون t را کشف کنم.) چیزی که من را گیج می‌کند استفاده از عبارت _residual_ است: > همه آمار آزمون با توزیع های صفر تولید شده توسط یک روش جایگشت باقیمانده مقایسه شد که با به هم زدن بردارهای باقیمانده کار می کند، که در آن هر مشاهده به عنوان یک بردار باقیمانده از مرکز کلی > مرکز و همچنین به عنوان یک بردار باقیمانده از مرکز هر گروه. آیا کسی می تواند به من در درک نحوه تولید توزیع های تهی کمک کند؟ همچنین، آیا کسی می تواند تایید کند که این نوع تحلیل، در اصل یک آزمون فرضیه صفر مشابه آزمون t تک متغیره است؟ در زیر زیر مجموعه ای از داده ها آمده است، اگر در پاسخ به سؤال کمک کننده باشد. نمونه 1 = {{6.9، 11.3}، {10.5، 8.6}، {9.2، 12.2}، {10.5، 0.4}، {13.9، -1.7}} نمونه 2 = {{8.4، 13.7}، {10.2، 14.8}، { 14.4، 14.3}، {11.6، 13.1}، {9.5، 7.9}}
تولید توزیع‌های صفر با روش جایگشت باقی‌مانده
79089
اگر من پیش‌بینی را با یک مدل خطی تعمیم‌یافته انجام می‌دهم و دسته جدیدی از ورودی‌ها با مقادیر گمشده همراه هستند، از چه استراتژی‌هایی می‌توانم برای به حداقل رساندن از دست دادن اطلاعات از ورودی‌های گمشده استفاده کنم؟ بیایید فرض کنیم که برخی از پیش‌بینی‌کننده‌ها ممکن است همبستگی داشته باشند و ورودی‌های گمشده تصادفی باشند. اولین حدس من این است که از میانگین داده های آموزشی استفاده کنم. من چیزهای بدی در مورد انتساب میانگین خواندم، اما همه آنها در هنگام انجام تخمین بودند، نه پیش بینی. آیا در این مورد انتخاب بهتری است؟
مقدار ورودی از دست رفته در طول پیش بینی یک مدل خطی تعمیم یافته
109429
آیا کسی می تواند اشتقاقی برای تعدیل ویلسون برای CI نسبت نمونه ارائه دهد؟ فرمول این است: $$\tilde{p} \approx \frac{x+2}{n+4}$$ که $x$ تعداد موفقیت‌ها و $n$ اندازه نمونه است. به طور خاص، من می خواهم بدانم: ** 2 و 4 از کجا می آیند؟** این اعداد به نظر من کمی دلخواه به نظر می رسند، و من هیچ شانسی با گوگل نداشته ام. فقط سعی می کنم کنجکاوی خود را در اینجا خنثی کنم ...
تعدیل ویلسون برای نسبت نمونه
109424
من سعی می‌کنم از طبقه‌بندی کننده ساده بیز برای طبقه‌بندی مجموعه داده‌ام استفاده کنم. سؤالات من عبارتند از: 1- معمولاً وقتی می‌خواهیم شباهت را محاسبه کنیم از فرمول استفاده می‌کنیم: P(c|x)= P(c|x1) * P(c |x2)*...P(c|xn)*P(c) . اما در برخی از مثال ها می گوید برای جلوگیری از گرفتن نتایج بسیار کوچک از P(c|x)= exp(log(c|x1) + log(c|x2)+...log(c|xn) + logP استفاده می کنیم. (ج)). آیا کسی می تواند تفاوت بین این دو فرمول را بیشتر برای من توضیح دهد و اینکه آیا هر دو برای محاسبه مثل استفاده می شوند یا دومی برای محاسبه چیزی به نام درآمد اطلاعات استفاده می شود. 2- در برخی موارد که سعی می کنیم مجموعه داده های خود را طبقه بندی کنیم، برخی از مفاصل پوچ هستند. برخی از ppl از تکنیک LAPLACE smoothing برای جلوگیری از اتصالات پوچ استفاده می کنند. آیا این تکنیک بر دقت طبقه بندی ما تأثیر نمی گذارد؟ پیشاپیش بابت تمام وقت شما متشکرم. من تازه با این الگوریتم آشنا هستم و سعی می کنم بیشتر در مورد آن بیاموزم. بنابراین آیا مقاله توصیه شده ای وجود دارد که باید بخوانم؟ خیلی ممنون
محاسبه طبقه بندی کننده ساده لوح بیز
78359
من دو مجموعه داده دارم. اولین مورد شامل اندازه گیری هایی با تاریخ مشخص است. مجموعه داده دوم شامل اندازه گیری در امتداد یک محور فاصله است. مجموعه داده دوم به صورت متوالی (به عنوان مثال یک هسته یخی) با نرخ رشد نامشخص قرار می گیرد. انتظار می رود مقادیر در دو مجموعه داده با یک خطای تصادفی خاص مطابقت داشته باشند. یک مثال: منحنی <- data.frame(date = as.Date(c('01/09/11', '01/10/11', '01/11/11', '01/12/11', '01/01/12'، '01/02/12'، '01/03/12'، '01/04/12'، '01/05/12'، '01/06/12'، '01/07/12'، '01/08/12'، '01/09/12')، قالب = %d/%m/ %y)، مقدار = c(3.33، 3.80، 4.19، 4.43، 4.56، 4.76، 4.71، 4.96، 4.72، 4.66، 4.35، 4.12، 3.88)) امتیاز <- data.frame(فاصله = 1:10، مقدار = c(3.5، 4.2، 4.5، 4.4، 4.7، 4.8، 5.1، 4.8، 5.1، 4.1، 4.9) ) کتابخانه (ggplot2) library(scales) a <- ggplot (منحنی، aes(x = تاریخ، y = مقدار)) + geom_line() + scale_x_date(name = Month, breaks = date_breaks (months), labels = date_format (% b)) b <- ggplot(نقاط، aes(x = فاصله، y = مقدار)) + geom_point() grid.arrange(a,b,ncol=1) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fQNxg.png) من مجموعه داده با تاریخ شناخته شده را منحنی می نامم زیرا تعداد اندازه‌گیری‌ها بسیار بزرگ‌تر از مجموعه داده با محور فاصله (داده‌داده نقطه) است. در واقع هر دوی آنها از نقاط اندازه‌گیری تشکیل شده‌اند، اما فکر می‌کنم می‌توانم مجموعه داده‌های منحنی را با استفاده از لس یا اسپلاین به یک منحنی واقعی تقریب بزنم. من می‌خواهم مجموعه داده «نقطه» را با تغییر محور x (یا نرخ رشد) برای مجموعه داده «نقطه» با محدودیتی که نرخ رشد > 0 (فاصله بین «نقاط») را تغییر دهد، به مجموعه داده «منحنی» برازش دهم. . من فرض می کنم که یک مدل رشد برای محور فاصله ایجاد می کنم. بهترین روش برای انجام این نوع اتصالات چیست؟ آیا بسته R برای این نوع مشکلات توسعه یافته است؟
برازش دو مجموعه از مقادیر با تغییر محور x
34283
من آزمایشی را برای مقایسه دو برنامه کامپیوتری معکوس انجام دادم، یعنی $A$ و $B$، که در آن آنها را مجبور کردم 50 بار با یکدیگر بازی کنند و $A$ وون $B$ 31 بار. اکنون می‌خواهم آزمایش کنم که آیا $A$ قوی‌تر از $B$ است، یعنی احتمال $p$ برای برنده شدن $A$$B$ (نه مساوی یا باخت) بیشتر از 1/2 با سطح معنی‌داری $\ است. آلفا دلار طبق مقاله ویکی‌پدیا در مورد تست دوجمله‌ای، می‌توانم $\frac{\binom{50}{31}+\dots+\binom{50}{50}}{2^{50}}$ را محاسبه کرده و با $\alpha مقایسه کنم. $. چیزی که من نمی بینم این است که چرا باید مبلغی را در نظر بگیرم و احتمال برنده شدن را 31، 32، ... یا 50 بار در نظر بگیرم. اگر من با یک متغیر تصادفی پیوسته سر و کار داشته باشم، مطمئناً منطقی است که یک جمع (یعنی ادغام) برای به دست آوردن احتمال از چگالی احتمال به دست آوریم، زیرا چیزی به نام احتمال منطبق بودن متغیر دقیقا با مشاهده شده وجود ندارد. ارزش اما من با متغیر گسسته سر و کار دارم و می توانم احتمال برنده شدن را دقیقاً 31 بار محاسبه کنم. پس چرا باید مبلغی را بگیرم (یا واقعاً باید مبلغی را بگیرم)؟ ویرایش: اشتباهاتم را تصحیح کردم و سوالم را روشن کردم.
یک سوال ابتدایی در مورد آزمون دوجمله ای: چرا باید یک جمع بگیرم؟
109426
فرض کنید من می‌خواهم کوواریانس $n$$p$-بعدی iid بردارهای تصادفی $X_i$ را تخمین بزنم، جایی که $n>p$. من در چندین جا خوانده ام که اگر $n-p$ کوچک باشد، تخمین ماتریس کوواریانس MLE ضعیف خواهد بود (مخصوصاً مقادیر ویژه کوچک). با این حال، برآورد MLE از میانگین خوب خواهد بود اگر $n$ بزرگ باشد (نه لزوما بزرگتر از $p$). آیا دلیل شهودی وجود دارد که چرا تخمین کوواریانس دشوارتر از برآورد میانگین است؟
تخمین کوواریانس
88888
متغیرهای وابسته
71615
چرا ممکن است تبدیل log (لگاریتم طبیعی) نتایج پیش‌بینی SVM (*رگرسیون**، eps-svm) را بهبود بخشد؟ آیا SVM مبتنی بر فرض توزیع نرمال است یا چیز دیگری؟ به روز رسانی 1. من از هسته تابع پایه شعاعی استفاده می کنم.
پشتیبانی از ماشین برداری (SVM) و تبدیل لاگ
32284
توزیع گاما و کرامر-رائو محدود شده است
59503
من دنباله ای از متغیرهای تصادفی $S_1، S_2 \dots S_N$ دارم که تضمین شده است که $S_1 + S_2 + \cdots + S_N = 0$$ را برآورده کند. تفاوت آنها: $$S_{ij} = S_i - S_j$$ من معمولاً مشاهدات زیادی از هر تفاوت دارم $S_{ij}$ - مشاهدات $s_{ij}^{(1)}\dots s_{ij}^{(n_{ij})}$ را فراخوانی کنید. هر مشاهده مقداری خطا دارد - من خوشحالم که فرض می کنم خطا برای هر مشاهده یکسان است و مستقل از $i$ و $j$ است. من می خواهم میانگین S_i$ را تخمین بزنم (و احتمالاً یک فاصله اطمینان برای میانگین دریافت کنم). من می توانم یک ماتریس $\hat{S}_{ij}$ از مقادیر برآورد شده برای میانگین تفاوت ها به روش زیر تشکیل دهم: $$\hat{S}_{ij} = \frac{1}{n_{ ij}} \sum_{t=1}^{n_{ij}} s_{ij}^{(t)}$$ نکته مهم این است که من همه تفاوت‌های ممکن را مشاهده نمی‌کنم، بنابراین ماتریس مقداری NA دارد ( قرار دادن به روش دیگر، برخی از $n_{ij}$ صفر هستند). من می توانم فرض کنم که ماتریس مجاورت مقادیر غیر NA دقیقاً یک جزء متصل دارد. چگونه می توانم یک تخمین $\hat{S}_j$ برای میانگین مقادیر اصلی و بدون تفاوت داشته باشم؟
تخمین مقادیر یک دنباله از تفاوت های مشاهده شده
96660
مقایسه تفاوت تغییر در متغیرهای ترتیبی اندازه گیری های مکرر بین دو گروه
59502
این کتاب چند مثال در مورد توصیه های مبتنی بر محتوا ارائه می دهد. نمونه ای از آنچه من فهمیدم در زیر است. > ویژگی های یک فیلم مقادیری بین $1 تا $10 $ هستند. ویژگی duration > مقادیری بین $1$ و $100$ دریافت می کند. اگر از این مقادیر خام برای محاسبه > مسافت استفاده کنیم، مدت زمان صرفاً به دلیل گستره وسیع تر غالب خواهد بود، بنابراین باید > آن مقدار را نرمال کنیم. فرمول های استانداردسازی معمولاً مقادیر کمتر از $1 را ایجاد می کنند. ممکن است بین 1$ تا -1$ باشد. اما اگر مقادیر را بین $1 و $10 دلار مقیاس کنم، چگونه این عادی سازی می تواند درست باشد؟ من انتظار دارم که ارزش مدت 1 دلار باید نشان دهنده 1 دلار باشد و ارزش مدت 100 دلار باید نشان دهنده 10 دلار باشد. اما همانطور که می دانید فرمول استانداردسازی باعث کمتر از 1 دلار می شود. چرا اینطور است؟ آیا باید مجدداً نتیجه را برای محدوده 1-10 دلار تغییر دهم؟ به عنوان مثال، اگر نتیجه 0.43 دلار باشد، بنابراین باید 4 دلار را نشان دهد؟
چرا مقادیر Normalization (Standardization) باید کوچکتر از $1 باشد؟
59509
من به تازگی یاد گرفتم که سه راه برای ساخت آمار آزمون بر اساس احتمال وجود دارد: آزمون نسبت درستنمایی، آزمون والد و آزمون نمره. فکر می کنم به خوبی تست های مختلف را دسته بندی می کند و من آن را بسیار دوست داشتم 1. می خواهم بدانم که آیا این سه می توانند همه یا اکثر تست های خاص را پوشش دهند. نمونه‌های معمولی از وظایف آزمون خاص و قوانین آزمون که به هر یک از این سه مورد تعلق دارند، چیست؟ آیا تکلیف تست و قانون تستی وجود دارد که به هیچ یک از آنها تعلق ندارد؟ به خصوص اینکه آیا آزمون های ناپارامتریک متعلق به کدام یک از آنهاست؟ 2. چه ایده‌ها یا روش‌های اکتشافی دیگری برای ساخت آمار آزمون، به جز سه مورد مبتنی بر احتمال وجود دارد؟ با دیگری، آنها می توانند مبتنی بر احتمال باشند یا نباشند. با تشکر و احترام!
راه های انتخاب آمار آزمون: بر اساس احتمال یا نه؟
78684
فرض کنید در حال تلاش برای تصمیم گیری برای استفاده از مدل رگرسیون ترتیبی یا رگرسیون اسمی هستیم. اگر می دانیم که متغیر نتیجه مرتب است، آیا باز هم از یک مدل رگرسیون اسمی برای مقایسه با یک مدل ترتیبی استفاده می کنیم؟
مدل های رگرسیون ترتیبی در مقابل مدل های رگرسیون اسمی
80279
من از تابع scipy.stats.linregress برای مجموعه داده خود استفاده کردم. 5 متغیر خروجی را برمی گرداند. > Slope = 0.0453 > > Intercept = 14.905 > > r-value = 0.91 > > p-value = 0 > > خطای استاندارد تخمین = 0.00015 اگر کسی مایل به دیدن Scipy رگرسیون خطی است، این لینک مستندات است. خروجی؟ سوالاتی که می خواهم بپرسم این دو متغیر بسیار همبسته هستند. مقدار r چیزی است که فکر می‌کنم به همبستگی اشاره می‌کند، اما از آنجایی که 1.0 نیست، چه راه‌هایی وجود دارد که بفهمیم کدام یک از این محدودیت‌ها را برآورده نمی‌کنند، آیا می‌توانم از هر یک از پارامترها در اینجا استفاده کنم؟ به طور کلی وقتی چنین ارزش هایی را می بینید چگونه آنها را درک کنید؟
تفسیر خروجی رگرسیون خطی
96666
این را ببینید: http://ms.mcmaster.ca/peter/s743/poissonalpha.html احتمال اینکه یک بازه اطمینان نشان را از دست بدهد یا نتواند حاوی مقدار واقعی پارامتر هدف خود $\theta$ باشد، اغلب یک عملکرد غیر صاف با توجه به $\theta$. من به طور مبهم به یاد دارم که این را برای توزیع دوجمله ای نیز دیدم... کسی می داند چرا این توطئه ها اینقدر وحشی هستند/بدرفتاری می کنند؟ همچنین، به نظر اشتباه است که $Pr(\theta \notin CI_\theta)>\alpha$ برای هر $\theta$. چه چیزی را از دست داده ام؟
5135
صفحات راهنما در R فرض می کنند که من می دانم آن اعداد به چه معنا هستند. من نمی دانم :) من سعی می کنم واقعاً به طور مستقیم همه اعداد را در اینجا درک کنم. من فقط خروجی را ارسال می کنم و در مورد آنچه فهمیدم نظر خواهم داد. ممکن است (خواهد شد) اشتباهاتی وجود داشته باشد، زیرا من فقط آنچه را که فرض می کنم می نویسم. لطفا من را تصحیح کنید، قسمت های اشتباه را ویرایش خواهم کرد. عمدتاً می‌خواهم بدانم مقدار t در ضرایب به چه معناست و چرا آنها خطای استاندارد باقیمانده را چاپ می‌کنند. امیدوارم کسی بتواند آن را روشن کند. تماس: lm(فرمول = iris$Sepal.Width ~ iris$Petal.Width) باقیمانده ها: حداقل 1Q میانه 3Q Max -1.09907 -0.23626 -0.01064 0.23345 1.17532 A 5-points-in-in-sumary ؟). می توان از اعداد استفاده کرد (من در اینجا حدس می زنم) تا به سرعت ببینیم که آیا مقادیر پرت بزرگ وجود دارد یا خیر. همچنین اگر باقیمانده‌ها از توزیع نرمال دور باشند (که باید باشند) می‌توانید آن را در اینجا ببینید. ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 3.30843 0.06210 53.278 < 2e-16 *** iris$Petal.Width -0.20936 0.04374 -4.786 4.07e-06 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 برآورد $\hat{\beta_i}$، محاسبه شده توسط رگرسیون حداقل مربعات. همچنین، خطای استاندارد $\sigma_{\beta_i}$. من می خواهم بدانم این چگونه محاسبه می شود. همچنین، هیچ ایده ای وجود ندارد که مقدار t و p مربوطه از کجا آمده است. من می دانم که $\hat{\beta}$ باید توزیع نرمال باشد، اما مقدار t چگونه محاسبه می شود؟ خطای استاندارد باقیمانده: 0.407 در 148 درجه آزادی $\sqrt{ \frac{1}{n-p} \epsilon^T\epsilon }$، حدس می‌زنم. اما چرا ما آن را محاسبه می کنیم و به ما چه می گوید؟ R-squared چندگانه: 0.134، Adjusted R-squared: 0.1282 $ R^2 = \frac{s_\hat{y}^2}{s_y^2} $، که برابر است با $ \frac{\sum_{i=1} ^n (\hat{y_i}-\bar{y})^2}{\sum_{i=1}^n (y_i-\bar{y})^2} $. اگر نقاط روی یک خط مستقیم قرار گیرند، نسبت به 1 و اگر تصادفی باشند 0 است. R-squared تنظیم شده چیست؟ آماره F: 22.91 در 1 و 148 DF، p-value: 4.073e-06 F و p برای مدل **کل**، نه تنها برای $\beta_i$s مانند قبلی. مقدار F $ \frac{s^2_{\hat{y}}}{\sum\epsilon_i} $ است. هر چه بزرگتر شود، بعید است که $\beta$ ها هیچ تاثیری نداشته باشند.
تفسیر خروجی lm()R
78681
من یک پیش بینی SARIMA از داده های فروش املاک در سراسر ایالت دارم.. اما از آن راضی نیستم. پارامترهای SARIMA حداقل گیج کننده هستند. من متوجه شدم که مدل فعلی به اندازه کافی بالا پیش بینی نمی کند، اگرچه نوسانات ماه به ماه منطقی به نظر می رسد. در حال حاضر سال پیش بینی شده 4.9 درصد بالاتر از سال جاری است. اما سود سال به سال برای سال جاری حدود 10% + است، بنابراین به طور خلاصه این مدل به اندازه کافی برای تغییر سال اخیر وزن ندارد. بین اجزای ARIMA و Seasonal نمی‌توانم ببینم چگونه می‌توان آن را رفع/تعیین کرد؟ بدون توجه به تعداد نسخه هایی که من می خوانم، توضیحات پارامتر یک راز باقی می ماند. با نگاهی به نمودار مشخص می شود که نرخ رشد در سه سال اخیر بالاتر از پیش بینی فعلی است، مطمئناً راه ساده ای برای مقابله با این نوع مشخصات در SARIMA وجود دارد، اگر برای انسان های فانی صرف قابل درک باشد!؟ کد R دنبال می شود (داده های منبع عمومی است) من در R نیز یک تازه کار واقعی هستم. نیاز(RCurl) myCsv <- getURL(https://docs.google.com/spreadsheet/pub?key=0Ak_wF7ZGeMmHdFZtQjI1a1hhUWR2UExCa2E4MFhiWWc&single=true&gid=1-output=c full=c read.csv(textConnection(myCsv)، stringsAsFactors = FALSE) fullmatrix$date <- as.Date(fullmatrix$date, format = %m/%d/%y) fullmatrix$Unit.Sales <- as.numeric( gsub(،، fullmatrix$Unit.Sales)) fullmatrix$Average.Selling.Price <- as.numeric(gsub(،، fullmatrix$Average.Selling.Price)) fullmatrix$Median.Selling.Price <- as.numeric(gsub()، fullmatrix$Median.Selling.Price)) fullmatrix$Total.For.Sale <- as.numeric(gsub(،، fullmatrix$Total.For.Sale)) order.date <- order(fullmatrix$date ) fullmatrix <-fullmatrix[order.date, ] library(xts) need(forecast ) نیازمند (astsa) sarima (fullmatrix$Unit.Sales,12, 0, 1, 1, 0,1,0) # (عرض کمی بالاتر) fore <- sarima.for(fullmatrix$Unit.Sales,12, 12, 0, 1, 1,0,1,12)#مشخص می کند همان مدل fullmatrix.xts <- as.xts(x= fullmatrix[,-1],order.by=fullmatrix$date) unitsales.xts <- as.xts(as.numeric(fullmatrix.xts$Unit.Sales),order.by=index(fullmatrix.xts)) forecast.xts <- as.xts(as.numeric(fore$pred), order.by=as.Date(c(2013-11-01,2013-12-01,2014-01-01,2014-02-01,2014-03-01, 201 4-04-01، 2014-05-01، 2014-06-01، 2014-07-01، 2014-08-01، 2014-09-01، 2014- 10-01))) orig_fore <-rbind(unitsales.xts,forecast.xts) colnames(orig_fore) <- Unit.Sales plot(orig_fore) ![Actual with Forecast](http://i.stack.imgur.com/v26XT.png )
تلاش برای اصلاح مدل های SARIMA
59000
set.seed(11) a = runif (12) b = rep(c(1،2،3)،4) summary(lm(a~b))$coeff خلاصه(lm(a~b-1))$ coeff p.value برای intercept به چه معناست؟ فرمول دوم چه تفاوت هایی دارد؟ چرا در فرمول دوم p.value کمتر و مجذور R بیشتر است؟ ستون اول (تخمین) به چه معناست؟ خیلی ممنون از کمک شما
سؤالات اساسی در مورد تفسیر نتایج حاصل از خلاصه (lm(...~...)) در R
97395
در مورد حساسیت، ویژگی و مساحت زیر منحنی ROC (AUC) سردرگم شده است.
91141
من با R کاملاً جدید هستم و در حالی که می توانم اصول اولیه را انجام دهم، هنوز قادر به درک نتایج خروجی نیستم. به عنوان مثال: «خلاصه(lmodel)» موارد زیر را ایجاد می‌کند: تماس: lm(فرمول = دما ~ ارتفاع + فاصله دریا، داده = داده‌های هوایی) باقیمانده‌ها: حداقل 1Q Median 3Q Max -1.40156 -0.46083 -0.04078 0.5049841 St. . خطای t مقدار Pr(>|t|) (تقاطع) 19.736000 0.257222 76.728 < 2e-16 *** ارتفاع -0.016509 0.004006 -4.121 0.000714 *** دریا.531110 *** فاصله دریا.53111 1.282 0.216927 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.7425 در 17 درجه آزادی چندگانه R-squared: 0.864، R-squared تنظیم شده: 0.848 F آمار: 54 در 2 و 17 DF، p-value: 4.317e-08 من در مورد «?خلاصه»، «کمک(خلاصه)» اطلاع دارم و با مفاهیم اولیه آشنا هستم، اما لطفاً توضیح کاملی در مورد خلاصه در رابطه با مدل خود دارم ( «باقیمانده»، «ضرایب»، «آمار F»، «خطای استاندارد باقیمانده» و غیره). به نظر می رسد که چندین سؤال مشابه پاسخ داده شده در این انجمن وجود دارد، اما هیچ کدام دقیقاً با مورد من مطابقت ندارند. هر گونه کمکی پذیرفته می شود. پیشاپیش ممنون
R: توضیح خلاصه رگرسیون خطی چندگانه
115304
من در حال یادگیری ساخت مدل های رگرسیون خطی با نگاه کردن به کد R دیگران هستم. در اینجا نمونه ای از داده هایی است که من استفاده می کنم: پاسخ v1 v2 v3 0.417655013 -0.012026453 -0.528416414 48.55555556 -0.018445979 -0.460809371 0.460809371 0.07364013 0.07364013 0.07364014 -0.246110341 0.092230159 0.057435968 49.14444444 -0.521980295 -0.428499038 0.119640369 51.0880886836 -0.224215856 -0.153917427 48.97777778 0.41522316 0.050609412 -0.642394965 48.5 -0.07349941 0.548101285 -0.07349941 0.548101285 53.95555556 -0.313950353 0.207853678 0.713903994 48.16666667 0.404643796 -0.326782199 -0.7858484204 -0.785848428 -0.424323318 0.289313911 49.34444444 0.720822953 -0.166712488 0.323246062 50.78888889 -0.4308232851 -0.4308232071 - 0.543823856 52.65555556 -0.964175294 0.661700584 -0.11905972 51.03333333 -0.178955757 -0.1114851414888888889 -0. 0.488388035 0.515903257 -0.087738159 48.68888889 -0.097527627 0.188292773 0.207321867 49.8666646615 0.21142728 -0.226700254 48.38888889 1.139561277 -0.293574756 0.574855693 54.55555556 0.1040717176256 0.1040717176201 48.61111111 من در داده ها می خوانم و از فراخوانی به `lm()` برای ساختن یک مدل استفاده می کنم: > my_data<- read.table(data.csv, header = T, sep = ,) > my_lm <- lm (پاسخ ~ v1 + v2 + v3 + v1:v2 + v1:v3 + v2:v3، data=my_data) > خلاصه (my_lm) تماس: lm(فرمول = پاسخ ~ v1 + v2 + v3 + v1:v2 + v1:v3 + v2:v3، داده = my_data) باقیمانده ها: حداقل 1Q Median 3Q Max -2.0603 -0.6615 -0.1891 -0.1895 1.039 1.039 -0. : Estimate Std. خطای t مقدار Pr(>|t|) (برق) 49.33944 0.42089 117.226 < 2e-16 *** v1 0.06611 0.82320 0.080 0.93732 v2 -0.367355 -0.367355 1.0 1.0 0.72741 1.00973 0.720 0.48508 v1: v2 -2.54544 2.21663 -1.148 0.27321 v1:v3 0.80641 2.77603 0.263 v1 - 2.54544 0.263 v1: v3 0.80641 2.77603 0.263 v1 0.70 - 0.27 3.62473 -3.355 0.00573 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 1.375 در 12 درجه آزادی چندگانه R-squared: 0.697، R-squared تنظیم شده: 0.5455 F آمار: 4.6 در 6 و 12 DF، p-value: 0.01191 همراه با کد آنها، سپس از فراخوانی به `anova()` استفاده می کنم: > my_lm_anova <- anova(my_lm) > my_lm_anova تجزیه و تحلیل جدول واریانس پاسخ: پاسخ Df Sum Sq Mean Sq F مقدار Pr(>F ) v1 1 0.0010 0.0010 0.0005 0.982400 v2 1 0.2842 0.2842 0.1503 0.705036 v3 1 9.8059 9.8059 5.1856 0.041891 * v1:v2 1 4.3653 4.3653 4.3653 4.3653 4.3654 0.041891 v1:v3 1 16.4582 16.4582 8.7034 0.012141 * v2:v3 1 21.2824 21.2824 11.2545 0.005729 ** باقیمانده 12 22.8921-22.6921 S. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با این حال، مطمئن نیستم: 1. چرا از تماس با ANOVA در این موقعیت استفاده کنم، و 2. جدول ANOVA به من در مورد متغیرهای پیش بینی می گوید. از کد به نظر می رسد که از جدول ANOVA به صورت زیر استفاده می کنند. برای متغیر پیش بینی v1، نتیجه * اضافه کردن ورودی 'Sum Sq' برای v1 به همراه نیمی از ورودی 'Sum Sq' برای v1:v2 و نیمی از ورودی 'Sum Sq' برای v1:v3، * تقسیم بر مجموع کل ستون 'Sum Sq' و * ضرب در 100 درصد واریانس متغیر پاسخ را به دست می دهد که توسط متغیر پیش بینی v1 در توضیح داده شده است. مدل «lm()». من نمی‌دانم چرا این و نیمی از ورودی «Sum Sq» برای v1:v2 به v1 و نیمی به v2 نسبت داده می‌شود. آیا این فقط راحتی است؟
تفسیر خروجی از anova() هنگام استفاده از lm() به عنوان ورودی
37889
من اخیراً پرسیده ام که آیا درست است که داده های اندازه گیری های مکرر را هم به عنوان داده های درون موضوعی و هم داده های بین موضوع تلقی کنیم و تجزیه و تحلیل هر دو را مقایسه کنیم تا ببینم آیا تفاوت هایی وجود دارد یا خیر. انگیزه سوال من یک مقاله خاص (PDF) در مورد پرسشنامه های حضور بود که، به نظر من، به این معنی است که چنین پرسشنامه هایی اساساً در طرح های بین موضوعی قابل استفاده نیستند، زیرا افراد فقط می توانند به طور قابل اعتمادی حس حضور خود را در یک موضوع خاص ارزیابی کنند. محیط نسبت به محیط دیگر این فرض در برخی از پاسخ‌ها مورد تردید قرار گرفت، و از این رو من در این فکر بودم که آیا برخورد با داده‌های یکسان به‌عنوان داده‌های بین آزمودنی‌ها و درون‌آزمودنی‌ها می‌تواند به یک تفاوت سیستماتیک منجر شود؟ یعنی اگر من داده‌ها را به‌عنوان درون‌آزمودنی‌ها تجزیه‌وتحلیل کنم، اما زمانی که به‌عنوان بین‌آزمودنی‌ها تجزیه و تحلیل می‌شود، نشان داده نشود، ممکن است اثری نشان داده شود؟ با استفاده از یک مثال بسیار ساختگی، فرض کنید که من از آزمودنی‌ها می‌خواهم در مقیاس 1 تا 10 رتبه‌بندی کنند که چقدر پیشنهاد آبجو رایگان را دوست دارند. در یک شرط به مردم یک لیتر آبجو رایگان و در شرایط دوم دو لیتر آبجو به صورت رایگان به مردم ارائه می شود. اگر من این آزمایش را با طرح بین موضوعی اجرا می کردم، شخصاً فرض می کردم که هیچ تفاوت قابل تشخیصی بین این دو شرط وجود ندارد، زیرا - هی، آبجو رایگان! اما به‌عنوان یک طرح درون موضوعی، فکر می‌کنم شانس معقولی برای دیدن یک اثر دارم، زیرا آبجو رایگان بیشتر از آبجو رایگان کمتر بهتر است.
آیا داده های درون و بین آزمودنی ها می توانند به طور سیستماتیک متفاوت باشند؟
78688
آیا کتاب(ها) / وب سایتی وجود دارد که انواع مختلف توزیع ها و استفاده در دنیای واقعی یا کاربرد را برای هر یک از آنها (فراتر از موارد شناخته شده معمولی مانند نرمال، دوجمله ای، پویسون و غیره) فهرست کند. به دنبال اطلاعات کاربردی کاربردی هستید که به شما امکان می دهد خانواده مناسبی را برای مشکلی که باید به آن رسیدگی کنید انتخاب کنید.
توصیه کتاب/وب سایت در مورد استفاده از توزیع های احتمالی
105472
من در حال یادگیری روش های آزمون آماری اکتشافی در R هستم. به طور خاص سعی می کنم رگرسیون خطی تک متغیری را یاد بگیرم. من امیدوار بودم که کسی بتواند در مورد اطلاعاتی که به عنوان خروجی داده می شود توضیحی بدهد. سلب مسئولیت: من در آمار مبتدی هستم و چندان مسلط نیستم، بنابراین به دلیل ماهیت کلی این سوال عذرخواهی می کنم. کد من (من از یک مجموعه داده با 177 امتیاز استفاده می کنم): `Plot(b$Months.On.Program, b$leads)` ضرایب خروجی: (Intercept) b$Months.on.Program 0.4420 0.2537 می فهمم رهگیری چیست یعنی نمی دانم .2537 چیست..(شیب؟) کد: `fit<-lm(b$Leads~ b$Months.on.Program)` ``خلاصه(مناسب` خروجی: باقیمانده: حداقل 1Q میانه 3Q حداکثر -10.844 -3.740 -0.949 0.036 59.171 ضرایب: تخمین مقدار P std. خطا t (>|t|) (تقاطع) 0.4420 1.0368 0.426 0.67 b$Months.on.برنامه 0.2537 0.0483 5.253 4.31e-07 *** کدهای علامت: 0 '***' 0.001 '**' 0.01 '*' 0.05 '0.05' استاندارد : 8.616 در 175 درجه آزادی، R-squared چندگانه: 0.1362، R-squad تعدیل شده: 0.1313 F-آمار: 27.59 در 1 و 175 DF، p-value: 4.313e-07 متوجه می شوم که کمبود دانش من در آمار اولیه است. من اینجا هستم، اما امیدوار بودم که کسی اطلاعاتی را که دریافت می کنم تجزیه کند اینجا هر گونه پیوند به منابع آماری جامد نیز بسیار قدردانی می شود. چیزهایی که سعی می کنم بفهمم: آیا رگرسیون خطی من دقیق است؟ (من شک دارم که b/c از نقاط پرت نباشد) چگونه آزمایش کنم تا ببینم دقیق است؟ اگر اینطور نیست چگونه می توانم برای اقلام پرت جبران کنم؟ چه اطلاعات دیگری می توانم از آمار خلاصه به دست بیاورم؟ پیشاپیش متشکرم
تفسیر آمار R
68775
در زیر یک صفحه چاپی خلاصه (lm(..)) آمده است. من متغیر پاسخ را «پاسخ» نامیدم که با یک متغیر پیوسته «X» و یک عامل «Y» توضیح داده شده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mOEAG.png) من سعی می کنم معنای این خروجی را بفهمم (نه در حد درک الگوریتم های مورد استفاده برای محاسبه این نتایج) . ممکنه سوالاتم تکراری باشه ولی هیچ جا جوابشو پیدا نکردم یا اگه پیدا کردم نفهمیدم! * مدل `response = -4.461010 + blabla..` است. p.value برای این رهگیری به چه معناست؟ آیا به این معنی است که خط پیش بینی شده از داده های من به طور قابل توجهی از مبدا عبور نمی کند؟ * 'عامل (Y)2' قابل توجه است. آیا به این معنی است که برای زیرمجموعه «داده» که «Y» برابر با 2 است، مقادیر «پاسخ» به طور قابل توجهی با زیر مجموعه‌ای که «Y» برابر با 1 است (که به عنوان مرجع در نظر گرفته می‌شود) متفاوت است؟ * نموداری را تصور کنید که در آن خطوط «زیرمجموعه (داده ۲، Y==1)» و «زیرمجموعه (داده ۲، Y==2)» شبیه به هم هستند، اما خط زیر مجموعه (داده ۲، Y==3)» کاملاً است. متفاوت است. اگر عامل(Y)3 به عنوان مرجع در نظر گرفته شود، دو عامل دیگر را معنی دار می گیریم و اگر عامل(Y)1 به عنوان مرجع در نظر گرفته شود، عامل(Y)3 معنی دار خواهد بود اما عامل (Y)2 نیست. آیا درست است؟ * برای تعاملات «X:Y2» و «X:Y3». آیا مقادیر p. پایین به این معنی است که برای هر دو زیرمجموعه «Y==2» و «Y==3»، متغیر «X» متفاوت از زیر مجموعه «Y==1» عمل می‌کند؟ با تشکر فراوان برای کمک شما!
تفسیر خروجی Rlm(..) زمانی که یک متغیر به عنوان یک عامل استفاده می شود
37885
من یک مرد بیوشیمی هستم، بنابراین آمارهای موجود در این مقاله برای من واقعاً سخت است. > Kliman، RM، Irving، N و Santiago، M. تضادهای انتخاب، ژن > بیان، و روند استفاده از کدون در مخمر. J Mol Evol (2003) 57:98-109 > (نسخه PDF) در این مقاله من با سختی می‌توانم بفهمم که دقیقاً چه کاری برای یافتن عوامل 1 و 2 انجام داده‌اند. در صفحه 3، بند 4 آنها فقط مختصرترین توضیحات را ارائه می دهند. آنها از فرکانس های کدون های مترادف برای هر کلاس AA استفاده می کنند و به طور مرموزی این مقادیر را وارد تحلیل عاملی می کنند. این جمله دقیقا به چه معناست؟
درک برنامه تحلیل عاملی
97396
تجزیه و تحلیل توان برای آزمون تعقیبی آنالیز واریانس با گروه های متعدد
69737
توضیح واریانس در مدل اثر مختلط خطی
37886
می‌خواستم بدانم آیا قوانین سرانگشتی (یا الگوریتم‌هایی) وجود دارد که با توجه به مجموعه‌ای از مشاهدات می‌تواند کمک کند: 1. انتخاب تعداد اولیه بازه‌های کلاس. 2. آن انتخاب را به یک عدد بهتر اصلاح کنید. من می توانم صحبت از استفاده از ریشه مربع (N) پیدا کنم، که در آن N تعداد مشاهدات به عنوان حدس اولیه تعداد فواصل کلاس است. پیشاپیش ممنون
قوانین سرانگشتی برای انتخاب تعداد اولیه فواصل کلاس و اصلاح آن انتخاب (به طور بالقوه به طور خودکار)
105882
در حین تحقیق در مورد ارزیابی بازیابی اطلاعات، LETOR را پیدا کردم. این مجموعه آزمایشی است که برای ارزیابی الگوریتم های رتبه بندی استفاده می شود. از آنجایی که داده ها حاوی قضاوت های مربوط به پرس و جو هستند، می توانند به عنوان مجموعه آزمایشی برای ارزیابی بازیابی اطلاعات (دقت، یادآوری...) نیز استفاده شوند. من کل سایت را بررسی کردم، اما سوالات و اسنادی را که پایه قضاوت های مرتبط هستند، پیدا نکردم. **از کجا می توانم داده های واقعی را پیدا کنم؟** (می ترسم آزادانه در دسترس نباشد)
مجموعه داده های LETOR، که شامل پرسش ها و اسناد است؟
37880
من دو عامل $a,b \در R^M$ دارم که می‌خواهم از متغیرهایم $Y \in R^{M \times N}$ خارج شوم. $b$ تابعی از متغیرهای $Y$ است و به صورت زیر تعریف می‌شود: $b = \frac{1}{N}Y1$ با رگرسیون متغییرها به صورت سریال، فرمول من این است: $$\begin{eqnarray} Y_ {\perp a} &=& Y - m(m^Tm)^{-1}m^TY \\\ Y_{\perp a,b} &=& Y_{\perp a} - b_{\perp a}(b_{\perp a}^Tb_{\perp a})^{-1}b_{\perp a}^TY_{\perp a} \\\ \text{معادل:} \\\ Y_{\perp a,b} &=& Y - [a,b]([a,b]^T[a,b])^{-1}[a,b]^TY \end{eqnarray}$$ آیا راهی رسمی برای اثبات اینکه پسرفت $[a,b]$ به طور همزمان برای بدست آوردن $Y_{\perp a,b}$ معادل است با پسرفت $a$ و سپس محاسبه $b_ وجود دارد {\perp a}$ در باقیمانده، $Y_{\perp a}$ و پسرفت آن برای به دست آوردن همان $Y_{\perp a,b}$ . من این را به صورت تجربی در matlab آزمایش کرده‌ام و به نظر می‌رسد که این درست باشد، اما نمی‌توانم به اثبات رسمی برسم.
چه زمانی فاکتورهای پسرفت به صورت سریال معادل یک مدل همزمان است؟
37883
من یک طرح اندازه گیری مکرر با داده های جمع آوری شده در 8 تیمار، با 5-6 تکرار برای هر درمان در فواصل زمانی نزدیک دارم (زمان در مطالعه مهم نیست). من فقط 4 آزمودنی در مطالعه دارم و یکی دو سوم راه را رها کرد. تا آنجا که من می بینم، من سه گزینه برای تجزیه و تحلیل این داده ها دارم: 1) استفاده از یک مدل ترکیبی با موضوع به عنوان یک اثر تصادفی. مشکل اصلی در اینجا این است که تنها 4 موضوع وجود دارد و بنابراین برآورد واریانس اثرات تصادفی نادقیق خواهد بود. 2) موضوع را به عنوان یک اثر ثابت در نظر بگیرید. کسی این را به من پیشنهاد کرد، اما من نمی دانم چگونه این واقعیت را نشان می دهد که اندازه گیری های مکرر مستقل نیستند. مطمئنا اینطور نیست؟ 3) داده ها را در مقیاس های مکرر جمع کنید تا متغیر پاسخ یا مجموع یا میانگین همه مقادیر تکرار شده برای یک ترکیب موضوع/درمان معین باشد. این نیاز به طراحی اقدامات مکرر را برطرف می کند، اما به نظر می رسد که من مقداری قدرت را از دست می دهم. با تنها 4 موضوع، من تمایل دارم گزینه 3 را انتخاب کنم، اما دوست دارم نظرات مردم را بشنوم.
اقدامات مکرر: اثرات کل، ثابت، یا اثرات تصادفی؟
105883
مستندات بسته «MASS» روش محاسبه باقیمانده‌های استاندارد شده با استفاده از «stdres()» را شرح نمی‌دهد. می‌خواهم مطمئن شوم که با روشی که قصد استفاده از آن را دارم مطابقت دارد: residuals/(stdevres*sqrt(1-hat)) آیا کسی می‌داند که آیا این محاسبه در این تابع است؟
روش محاسبه stdres در {MASS} چیست؟
86815
معکوس ماتریس کوواریانس
105885
من می‌خواهم نمونه‌ای از مقدمه اقتصاد توسط G. S. Maddala را در «R» با استفاده از تابع «tsls» از بسته «sem» بازتولید کنم. من گیج شده ام که چگونه متغیرهای ابزاری را برای معادلات شناسایی کنم. هر کمکی بسیار قدردانی خواهد شد. با تشکر ## ---- fm42 ---- fm42 <- tsls(فرمول = Q~R+RD+X، ابزار = ~R+RD+RS #مطمئن نیست، داده = Data2SLS) خلاصه (fm42) خلاصه (fm42 )$coeff ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8ua46.png)
شناسایی متغیرهای ابزاری برای استفاده در تابع tsls در بسته sem R
46080
دقت طبقه بندی با نویز اضافه شده بهتر است؟
105880
من سعی می‌کنم خروجی‌های دو مدل غیر تودرتو در مجموعه داده‌ام را مقایسه کنم و از «coxtest» در بسته R «lmtest» استفاده می‌کنم و نمی‌دانم چگونه خروجی را تفسیر کنم. من دو پیش‌بینی‌کننده دارم که فقط دو روش برای طبقه‌بندی یک مقیاس طبقه‌بندی یکسان هستند: یکی کلی‌تر از دیگری است و سطوح عامل را به دو دسته تقسیم می‌کند. بررسی کلی من این است که ببینم آیا 2 دسته می توانند تغییر و همچنین 5 را نیز در نظر بگیرند. شاید مدل با 5 تناسب کمی بهتر داشته باشد، اما آیا این به طور قابل توجهی بهتر است با توجه به اینکه ما به پنج گروه عامل برای توضیح رفتار نیاز داریم، زمانی که 2 کار شایسته ای انجام می دهد؟ من از مجموعه داده «diamonds» از «ggplot2» برای نشان دادن آنچه می‌خواهم انجام دهم استفاده خواهم کرد. library(ggplot2) diamonds$cut2 <- diamonds$cut #ایجاد یک ستون جدید برای طبقه‌بندی برش به روش‌های مختلف سطوح (diamonds$cut2) <- c(B، B، B، A ، A) mod1<- lm(قیمت ~ برش + قیراط، داده = الماس) mod2<- lm (قیمت~ برش 2 + قیراط، داده = الماس) سپس من را اجرا می کنم `coxtest`: library(lmtest) coxtest(mod1, mod2) و من این خروجی را دریافت می کنم: تست کاکس مدل 1: قیمت ~ برش + قیراط مدل 2: قیمت ~ برش2 + قیراط Estimate Std. خطای z مقدار Pr(>|z|) fitted(M1) ~ M2 0 1.1825e-10 -8.8620e-01 0.3755 fitted(M2) ~ M1 -947 1.3691e-10 -6.9171e+12 <2e-16 ** * --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 من مستندات «lmtest» را در اینجا خوانده‌ام، اما هنوز واقعاً نمی‌دانم این اعداد چه می‌گویند. به طور عمده، من می خواهم بدانم که آیا این مدل به نفع یک مدل است یا دیگری، و آیا واقعاً می توانم استدلال کنم که یکی بهتر است. همچنین، وقتی هر دو ردیف قابل توجه هستند، آیا این بدان معنی است که هر مدل چیزهای مختلفی را ارائه می دهد؟
مقایسه مدل های غیر تودرتو - نحوه تفسیر خروجی coxtest در R
105889
آیا کسی راهنمایی دارد که چگونه می توان پس از یک دستور gsem (برای مدل مسیر لاجیت) در Stata verion 13 اطلاعات مناسبی را به دست آورد؟ یا توصیه می کنید به جای آن از BIC و AIC استفاده کنید؟ برای هر کمکی از شما متشکرم! با احترام
gsem خوبی تناسب
26646
نمونه ای از 102 به دو گروه تقسیم شده بر اساس فاکتور علاقه گروه 1، $n=77$، گروه 2، $n=25$ تلاش برای کشف چگونگی آزمایش اینکه آیا جمعیت شناختی (سن، نژاد/قومیت، جنسیت، سطح تحصیلات) ، بچه دار شدن، و غیره) شکست بین گروه ها به طور قابل توجهی متفاوت است. من نسبت‌ها را محاسبه کرده‌ام و به نظر می‌رسد که بیشتر آنها خوب خواهند بود، اما چند مورد وجود دارد که به نظر می‌رسد می‌توانند به طور قابل توجهی متفاوت باشند. امیدوارم بتوانم این را در SPSS اجرا کنم.
چگونه می توانم آزمایش کنم که آیا نسبت های جمعیت شناختی بین دو گروه با اندازه نابرابر از نظر آماری متفاوت است؟
105884
من می خواهم برخی از داده های بقا را تجزیه و تحلیل کنم. من اندازه‌گیری یک نشانگر زیستی (متغیر با ارزش واقعی) را قبل از اولین درمان، بعد از اولین درمان، و سپس بعد از درمان دوم (متفاوت با درمان اول) دارم. من همچنین سن بیمار و مرحله بیماری (متغیر ترتیبی) را هنگام ثبت نام دارم. من به ویژه به این موضوع علاقه مند هستم که چگونه ارزش های نشانگر زیستی بر بقا تأثیر می گذارد. اگر همه چیز برابر باشد، حدس می‌زنم تحلیل کاکس را اجرا کنم. با این حال، دلیلی داریم که باور کنیم اثربخشی درمان ممکن است به ارزش بیومارکر بستگی داشته باشد و اولین درمان ممکن است نشانگر زیستی را در برخی بیماران تغییر دهد. به عنوان مثال، اگر نشانگر زیستی قبل از درمان بالا باشد، درمان اول ممکن است موثر باشد، اما ممکن است نشانگر زیستی را کاهش دهد و دامنه اثربخشی درمان دوم را کاهش دهد. من می‌توانم تحلیل کاکس را اجرا کنم، برای مثال با استفاده از نشانگر زیستی خام پیش از درمان و تغییرات نسبی از این مقدار در دو نقطه زمانی بعدی، به عنوان متغیرهای توضیحی. با این حال، من نتوانستم خودم را متقاعد کنم که این به اندازه کافی وابستگی های زمانی احتمالی را مدل می کند (آیا؟). چگونه باید این داده ها را تجزیه و تحلیل کنم؟ حجم نمونه ما حدود 45 است، بنابراین من شک دارم که فضایی برای یک مدل پیچیده وجود داشته باشد. پیشاپیش ممنون
نحوه تجزیه و تحلیل داده های بقا با وابستگی های زمانی احتمالی
49059
آیا می توان خوشه های با کیفیت بالا را در هر مجموعه داده یافت؟
81483
من اطلاعاتی دارم که نتایج کنکور آتش نشانی را نشان می دهد. من در حال آزمایش این فرضیه هستم که نتایج امتحانات به قومیت بستگی دارد. برای آزمایش این، من یک آزمون کای دو پیرسون را در R انجام دادم. نتایج نشان می‌دهد که من چه انتظاری داشتم، اما این اخطار را داد که در chisq.test(a): تقریب مجذور کای ممکن است نادرست باشد. > یک اسپانیایی اسپانیایی سیاه پوست سفید پاس 5 2 2 0 noShow 0 1 0 0 شکست خورده 0 2 3 4 > chisq.test(a) داده های آزمون Chi-squared Pearson: a X-squared = 12.6667، df = 6، p-value = 0.04865 پیام هشدار: در chisq.test(a): تقریب مجذور کای ممکن است نادرست باشد آیا کسی می داند چرا اخطار داده است؟ آیا به این دلیل است که من از روش اشتباه استفاده می کنم؟ پیشاپیش متشکرم
105881
من می‌خواهم زمان‌های بقا را از مدل $\lambda(t|X_1,X_2) = \lambda_0(t) \exp(\gamma_1X_1+\gamma_2X_2)$ شبیه‌سازی کنم که در آن متغیرهای کمکی با $X_1\sim$Binomial(1,0.5) داده می‌شوند. , $X_2\sim$Uniform(0,1)، مقادیر پارامتر واقعی هستند $\gamma_1=-0.5$، $\gamma_2=1.5$ و تابع خطر خط پایه واقعی به شرح زیر است $ \lambda_0(t)= \left\\{ \begin{array}{ll} \exp(-0.3t) ; & 0<t\leq 1 \\\ \exp(-0.3); & 1<t\leq2.5 \\\ \exp(0.3(t-3.5)); & t>2.5 \end{آرایه} \راست. $ زمان سانسور از توزیع نمایی با میانگین 2.5 است. برای یک تابع خطر ساده پایه (به عنوان مثال $\lambda_0(t)=\lambda$)، از الگوریتم زیر برای ایجاد زمان بقا استفاده کردم $$T=H_0^-\\{-\log(u) \times \exp( \gamma_1X_1+\gamma_2X_2)\\} =\lambda^-\\{-\log(u) \times \exp(\gamma_1X_1+\gamma_2X_2))\\}$$ جایی که $u\sim$Uniform(0,1). کدهای R به شرح زیر هستند گاما <- c(-0.5، 1.5) X1 <- rbinom(n=200,size=1,prob=.5) X2 <- round(runif(n=200,0,1) 2) زمان <- (1/.3)*(-log(runif(200))/exp(گاما[1]*X1+گاما[2]*X2)) سن <- rexp(200,rate=1/2.5) رویداد <- as.numeric(time <= cen) اما من در تلاش برای ایجاد تابع مخاطره پایه تکه ای که در بالا ذکر کردم، هستم. لطفاً کسی به من کمک کند تا با استفاده از R زمان بقا را برای تنظیمات فوق ایجاد کنم.
نحوه شبیه سازی زمان بقا با استفاده از تابع خطر خط پایه واقعی
26649
من یک سری زمانی از ناهنجاری ها در برخی داده ها دارم که در مجموع 69 مشاهده وجود دارد. من می خواهم از نظر آماری آزمایش کنم که آیا تعداد ناهنجاری ها در سری های زمانی در طول زمان افزایش یافته است؟ آیا می توانم از آزمون t برای این منظور استفاده کنم، احتمالاً با تقسیم داده های خود به 2 یا 3 گروه و سپس مقایسه این گروه ها؟ در صورتی که من کاملاً خاموش هستم، لطفاً یک آزمایش/رویکرد بهتر پیشنهاد دهید. آمار، متاسفانه، کت و شلوار قوی من نیست.
آزمایش تغییر در طول زمان در یک سری زمانی
92577
فرض کنید گروهی از مردم ارتفاع درختان را تخمین می زنند. فرض کنید انواع مختلفی از درختان دارید، برخی درختان با ارتفاع بسیار کم و برخی دیگر بسیار بلند. فرض کنید هر یک از افراد گروه ارتفاع هر نوع درخت را تخمین می زنند. چیزی شبیه به زیر: | سرهنگ گوسر | درخت 1 درخت 2 درخت 3 -----------+------------------------------- -- 1 | 7 متر 39 متر 65 متر 2 | 5 متر 33 متر 64 متر 3 | 10 متر 45 متر 70 متر 4 | 9 متر 44 متر 70 متر -----------+---------------------------------- واضح ، ممکن است امتیاز z را برای حدس های هر درخت محاسبه کنیم و نمرات ترکیبی را با استفاده از کوواریانس بسازیم، مانند شکل زیر: http://www.psychassessment.com.au/pdf/mod5.pdf اما ساختار فوق از داده های زوجی استفاده می کند و کوواریانس جفت ها در ساخت استفاده می شود (مثلاً حدس 2 به طور مداوم کم است و حدس 3 به طور مداوم بالا). اگر یک گروه از مردم درخت 1 را حدس بزنند، گروه دوم درخت 2 و گروه سومی درخت 3 را حدس بزنند، چه اتفاقی می افتد، مانند شکل زیر: | سرهنگ گوسر | درخت 1 درخت 2 درخت 3 -----------+------------------------------- -- 1 | 7 متر مربع | 5 متر 3 | 10 متر 4 | 9 متر 5 | 40 متر 6 | 35 متر 7 | 43 متر 8 | 62 متر 9 | 68 متر 10 | 75 متر 11 | 72 متر 12 | 68 متر -----------+----------------------------------- در این مورد ، داده ها به صورت معنی دار جفت نشده اند. آیا راهی برای گروه بندی امتیازهای z که برای حدس های مختلف به دست می آورید در یک مجموعه واحد از نمرات z وجود دارد؟
آیا می توانید امتیازهای z را از جمعیت های مشابه اما غیر یکسان ترکیب کنید؟
92574
من یک سری آزمایش فیشر را برای تجزیه و تحلیل برخی جداول احتمالی 2x2 با مقادیر کوچک اجرا می کنم. من اهمیت پیدا کرده ام آیا چیزی معادل Cramer's V یا Odds Ratio یا نوعی آزمون پس از آن وجود دارد که بتوانم از آن برای توضیح بیشتر در مورد نتایجم استفاده کنم؟
تست های پس از آزمون برای تست دقیق فیشر
50307
هنگامی که من یک مدل سری زمانی خطی (مانند ARMA) را با تخمین حداکثر درستنمایی تخمین می زنم، اگر نوسانات را با مدلی مانند GARCH (یا مدل دیگری) نیز تخمین بزنم و از آن مقدار واریانس در روش MLE استفاده کنم، آیا تخمین یعنی به هیچ وجه؟ آیا این رویه تکراری است یا تک شات، به این معنی که من یک ARMA را نصب می‌کنم، سپس GARCH را روی باقیمانده‌ها اجرا می‌کنم، سپس آن را وصل می‌کنم، سپس ARMA را دوباره نصب می‌کنم و به همین ترتیب تا زمانی که همگرا شود، یا فقط ابتدا GARCH را اجرا می‌کنم سپس ARMA را اجرا می‌کنم و روش را پایان می‌دهم. ? با تشکر
تخمین MLE همراه با تخمین نوسانات
66214
ما $E(\exp(z))$ را با روش مونت کارلو شبیه سازی می کنیم، جایی که $z\sim{}N(0,1)$. برای اندازه‌های نمونه $2^{16}$ و $2^{17}$، خطاهای واریانس به ترتیب 0.00531 و 0.00364 هستند. نسبت این دو خطا تقریباً 1.5 دلار است. سوالات من این است: (1) چه اطلاعاتی می توانیم از این نسبت بیاموزیم؟ (2) چرا با نزدیک شدن حجم نمونه به بی نهایت، نسبت باید به $\sqrt 2$ نزدیک شود؟
یک سوال در مورد مونت کارلو
92575
من با آمار کاملاً تازه کار هستم، بنابراین ممکن است احمقانه باشد. من مجموعه‌ای از مدل‌ها را بر روی داده‌های تولید شده تصادفی اجرا کرده‌ام تا درک خود را از خطای نوع 1 توسعه دهم. من متوجه شده‌ام که با استفاده از «glm(family=binomial)» خطاهای نوع 1 را بیشتر از آنچه که باید دریافت می‌کنم هنگام ارائه ورودی دوجمله‌ای (ماتریس دو ستونی موفقیت و شکست). در کد زیر، اولین حلقه هزار مدل رگرسیون لجستیک برای داده های تصادفی ایجاد می کند، اما من در حدود 15 درصد مواقع با خطای نوع 1 (p < 0.05) مواجه می شوم! حلقه دوم چیزی شبیه به آزمایش برنولی را اجرا می کند (فقط بردار تک صفر و یک در y). در اینجا چیزی را که می خواهم ببینم دریافت می کنم، حدود 50 خطای نوع 1 در هر 1000 مدل. کسی می تواند این را برای من توضیح دهد؟ من می بینم که اگر مقادیر احتمالی اعداد تصادفی را در ماتریس y موفقیت/شکست خود تغییر دهم (متغیری که در اینجا محدوده نامیده می شود) می توانم خطاهای نوع 1 را کاهش دهم، اما دلیل آن را نمی دانم. این به من حدود سه برابر تعداد خطاهای نوع 1 را می دهد که انتظار دارم. #Glm دوجمله ای fit.p=c() for(i در 1:1000){ range=0:10 y=ماتریس(نمونه(محدوده،2000،جایگزین=T)،ncol=2،nrow=1000) x=rnorm (1000,100,50) fit=glm(y~x,family=binomial(link='logit')) fit.p[i]=anova(fit,test='Chisq')[2,5] } print(length(which(fit.p<.05))) این به خوبی کار می کند. حدود 50 خطا در هر 1000 #Bernoulli glm fit2.p=c() for(i در 1:1000){ y=sample(0:1,1000,replace=T) x=rnorm(1000,100,50) fit2= glm(y~x,family=binomial(link='logit')) fit2.p[i]=anova(fit2,test='Chisq')[2,5] } print(length(which(fit2.p<.05)))
glm inflated error...چرا؟
50300
من از بسته lmrob در R برای تخمین مدل هایی با توزیع دم سنگین باقیمانده ها استفاده کرده ام، که حتی با تبدیل متغیر وابسته نمی توانم آن را اصلاح کنم. اکنون قصد داشتم مدل‌ها را به یک چارچوب HLM ارتقا دهم، اما می‌خواهم بدانم آیا روشی برای تخمین HLM قوی (شاید در بسته lmer؟) وجود دارد، حتی اگر لازم باشد چیزی را به صورت دستی کدنویسی کنیم. هر گونه بینش در اینجا استقبال می شود.
تطبیق مدل های HLM با توزیع دم سنگین: رویکرد قوی به lmer؟
43406
> **تکراری احتمالی:** > چگونه باید داده های غیر منفی از جمله صفر را تبدیل کنم؟ من یک متغیر پیوسته دارم که مقادیر زیادی صفر دارد و نرمال نیست، بنابراین نمی توانم از آمار پارامتریک روی آن استفاده کنم. من سعی کردم از تبدیل‌های ln و root-squared استفاده کنم، اما آنها کار نکردند.
بهترین تبدیل ریاضی برای یک متغیر با مقادیر صفر زیاد چیست؟
1447
من می خواهم مفهوم $r^2$ را به طور کامل درک کنم که میزان تغییرات بین متغیرها را توصیف می کند. هر توضیح وب کمی مکانیکی و مبهم است. من می خواهم مفهوم را دریافت کنم، نه اینکه فقط به صورت مکانیکی از اعداد استفاده کنم. به عنوان مثال: ساعات مطالعه در مقابل نمره آزمون $r$ = 0.8 $r^2$ = 0.64 * بنابراین، این به چه معناست؟ * 64 درصد تنوع نمرات آزمون را می توان با ساعت توضیح داد؟ * چگونه می‌توانیم آن را فقط با مربع کردن بفهمیم؟
ضریب تعیین ($r^2$): من هرگز به طور کامل تفسیر را درک نکرده ام
46084
سوال این است: بگذارید $ \\{N(t) , t \geq 0 \\} $ یک $PP(\lambda)$ باشد. $$P(N(t) = k | N(t = s را محاسبه کنید. ) = k + m)، $$ که در آن k و m اعداد صحیح غیر منفی هستند و $ t، s \geq 0 $ هر عدد واقعی هستند. بنابراین من این کار را انجام دادم: با استفاده از تعریف احتمال مشترک، به دست می آورید: $$ P(N(t) = k | N(t = s) = k + m) = \frac{P(N(t) = k، N(t + s) = k + m)}{P(N(t + s) = k + m)} $$ سپس کمی گیر کردم، با نگاه کردن به پاسخ ها، این اتفاق می افتد: از کاری که انجام دادم، می رود به: $$P(N(t) = k | N(t = s) = k + m) = \frac{P(N(t) = k، N(t + s) - N(t) =m)} {P(N(t + s) = k + m)} $$ زیرا یک PP افزایش مستقل دارد: $$= \frac{ \left( e^{ \lambda t} \frac{ (\lambda t)^k {k!} \right) \cdot \left(e^{\lambda s} \frac{(\lambda s)^m}{m!} \right) } { \left(e^{ \lambda (t + s)} \ frac{(\lambda (t + s))^{(k+m)}}{(k+m)!} \right) } $$ زیرا افزایش ها توزیع پواسون $$= دارند \begin{pmatrix} k + m & k \end{pmatrix} \frac{t^k s^m}{(t + s)^{k+m} } $$ سؤالاتی که من دارم اینها هستند: 1) چرا شما از $ N(t + s) = k + m $ به $ N(t + s) - N(t) = m$ می روید؟ اگر این کار را نکنی فرقی می کند؟ 2) چرا هنگام نوشتن -N(t) آن را در شکل نمایی آن نادیده می گیرید؟ 3) آخرین بیت nCr به چه معناست؟
93441
فرض کنید می‌خواهم متغیری را روی یک متغیر کمکی رگرسیون کنم که مقدار مشخصی صفر دارد اما همه مقادیر دیگر تابع صافی را دنبال می‌کنند؟ می تواند به عنوان مثال سال‌های مادر بودن (زمانی که مادر شدید با 0 سال تفاوت زیادی دارید، یعنی اثر رفتن از 0 به 0.0001 سال باید یک جهش باشد، اما از 0.0001 تا 0.0002 روح آرام باشد). یا ممکن است زمانی که سرطان دهانه رحم را مطالعه می کنیم، قرار گرفتن در معرض زمان قرار گرفتن در معرض HPV باشد؟ یک چیز ساده می‌تواند اضافه کردن دو متغیر کمکی «سال‌های مادر بودن» و «آیا مادر هستید (بله/نه)»، اما همه مقادیر دقیقاً زمانی که متغیر دیگر «۰» باشد، «نه» خواهند بود. هر ایده ای؟ مدل سلسله مراتبی؟ اگر چنین است، چگونه؟
چگونه برای یک متغیر پیوسته تنظیم کنیم وقتی مقدار 0 به طور مشخص با بقیه متفاوت است؟
39195
> **تکراری احتمالی:** > چگونه باید داده های غیر منفی از جمله صفر را تبدیل کنم؟ من یک سوال دارم: > فرض کنید یک نقطه داده $(0,10)$ داریم. سپس به یک مقیاس log تبدیل می کنیم. Excel > از شر این نقطه داده خلاص می شود زیرا حداقل x-value $1 است. چگونه این نقطه داده را نگه داریم؟ **ویرایش** نمی توانید مختصات x را به $1 تغییر دهید؟ بنابراین به جای $(1,10)$ به جای $(0,10)$ داریم. بقیه مقادیر تغییر نمی کنند.
چگونه هنگام گرفتن لاگ نقاط نزدیک به صفر را حفظ کنیم؟
47065
> **تکراری احتمالی:** > چگونه باید داده های غیر منفی از جمله صفر را تبدیل کنم؟ من می خواهم رگرسیون تبدیل log را در ابزار R انجام دهم اما مشکل این است که نمی دانم چگونه با شرایطی که داده ها حاوی 0 هستند رفتار کنم زیرا log 0 بی نهایت است... لطفا راهنمایی کنید.
نحوه مدیریت داده هایی که حاوی 0 در رگرسیون تبدیل log با استفاده از ابزار R هستند
49057
من دو سوال دارم: **سوال اول:** می خواهم انحراف معیار وزنی را با هسته سه مکعبی محاسبه کنم. من از تابع lowess در R برای محاسبه میانگین وزنی با استفاده از هسته سه مکعبی استفاده می کنم. اما متاسفانه تابع lowess در R std را نمی دهد (یا من از آن اطلاعی ندارم). سوال من این است که اگر از 1. مقادیر میانگین محاسبه شده توسط R استفاده کنم، 2. وزن را (با استفاده از هسته سه مکعبی) برای هر نقطه با دهانه (آلفا) 0.01 محاسبه کنم. 3. و هر چیزی را در فرمول در اینجا قرار دهم. std محاسبه شده درسته یا نه؟ (به عنوان مثال، آیا وزن هایی که من محاسبه کرده ام دقیقاً مشابه وزن هایی هستند که توسط lowess برای محاسبه میانگین استفاده می شود؟) **سوال دوم:** چرا مقادیر پایین ترین محاسبه شده توسط R با مقادیر محاسبه شده در صاف تفاوت دارند. عملکرد در متلب؟ خیلی ممنون از کمک شما
31672
> **تکراری احتمالی:** > چگونه باید داده های غیر منفی از جمله صفر را تبدیل کنم؟ من می‌خواهم برخی از داده‌هایم را تغییر شکل دهم، زیرا آزمون همگنی واریانس‌های Levene، قبل از اجرای یک ANOVA متعادل دو طرفه، فرضیه صفر را برای آن مجموعه‌ها رد کرد. اکنون، برخی از داده‌هایی که جمع‌آوری کردم دارای مقادیر تهی هستند، زیرا مربوط به پنجه‌های گیاهان من است و برخی از آنها هیچ‌گونه نداشتند. بنابراین برای تبدیل log خود، آیا باید به سادگی از فرمول «=LOG(x+1)» (در LibreOffice Calc) استفاده کنم تا آن مقادیر تهی به 0 برگردند؟ یا مقدار ثابتی که اضافه می کنم بستگی به نحوه ظاهر مجموعه داده ها دارد؟ به عنوان مثال، وزن‌هایی از 0 تا 12 گرم، وزن‌های دیگر بین 0 تا 1.5 گرم و سطح برگ از 0 تا 565 سانتی‌متر مربع را دارم. آیا «=LOG(x+1)» برای داده هایی از 0 تا 565 خوب است، اما برای داده هایی از 0 تا 1.5 خوب نیست؟ در اینجا چند هیستوگرام برای نشان دادن نحوه توزیع داده‌های من وجود دارد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3DNEN.png) نظر شما چیست؟ پیشاپیش متشکرم
تبدیل داده ها با مقادیری = 0
47296
خطا در boxcox.default(y ~ x): متغیر پاسخ باید مثبت باشد. هنگامی که در حال انجام تبدیل Box-Cox بر روی داده هستم، این خطا را در «R» دریافت می‌کنم. چرا این خطا اتفاق می افتد؟ در اینجا داده های من است. این یک داده سری زمانی است و من باید رگرسیون لگاریتمی شکل را انجام دهم: $$y=a+b(\log x_1)+c(\log x_2)$$ باید a، b، c را پیدا کنم و سپس، بررسی کنید که آیا چنین نوع رابطه ای وجود دارد یا خیر.
خطا در boxcox.default(y ~ x): متغیر پاسخ باید مثبت باشد
23037
بیشتر یک سوال کلی من یک rbf SVM را برای مدل سازی پیش بینی اجرا می کنم. من فکر می کنم برنامه فعلی من قطعا نیاز به کمی سرعت دارد. من از scikits با جستجوی شبکه ای درشت تا ظریف + اعتبارسنجی متقاطع استفاده می کنم. هر اجرا SVM حدود یک دقیقه طول می کشد، اما با همه تکرارها، هنوز آن را خیلی کند می دانم. با فرض اینکه من در نهایت بخش اعتبار سنجی متقاطع را روی چندین هسته چند رشته کنم، آیا توصیه ای برای افزایش سرعت برنامه من وجود دارد؟ آیا پیاده سازی سریع تری از SVM ها وجود دارد؟ من در مورد برخی از SVM های GPU شنیده ام اما زیاد در مورد آن تحقیق نکرده ام. هر کاربر و آیا سریعتر است؟ با تشکر
سریعترین پیاده سازی SVM
68457
در 'SPSS'، تجزیه و تحلیل رگرسیون دو نوع ضریب (استاندارد و غیر استاندارد) به دست می دهد. ضریب استاندارد شده از نظر آماری چیست؟
چگونه بین ضریب استاندارد و غیراستاندارد تمایز قائل شویم؟
23032
با توجه به یک سری از ماتریس‌ها {$M_i$($m_i\times n_i$),`i=1...k`,$m_j,n_j \in$`تصادفی`} اگر همه ماتریس‌ها را به یک مقدار معین تغییر اندازه (تغییر اندازه) کنیم. اندازه، به عنوان مثال، «pxq» سپس سؤالات زیر ظاهر می‌شوند: 1. آیا جمع همه ماتریس‌ها از نظر عنصر از نظر آماری برای هر نوع متغیری که در سلول‌ها وجود دارد، قانونی است؟ به متغیرهای افزودنی و غیرافزودنی فکر کنید و در نظر بگیرید که از نظر اندازه با ساپورت های مختلفی مرتبط هستند. 2. آیا یافتن ماتریس همبستگی بین آن ماتریس ها قانونی است؟ 3. آیا همبستگی به افزایشی بودن اهمیت می دهد؟ 4. آیا آمار / روش دیگری برای بررسی شباهت بین آن ماتریس ها وجود دارد؟ **به روز رسانی:** شکل زیر این روش را نشان می دهد. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/TohDA.png) **نکته 1:** که متغیر مورد علاقه غیرافزودنی است که به معنای مقدار اندازه گیری شده برای یک اندازه خاص است. نمونه به طور خطی با آنچه که می توان برای اندازه های مختلف اندازه گیری کرد مرتبط نیست. **نکته 2:** یک مثال برای متغیرهای غیرافزودنی می تواند متغیر مصرف انرژی برای نرم کردن یک بلوک سنگ به عنوان مرحله اولیه در فرآوری مواد معدنی در نظر گرفته شود. به طور تجربی ثابت شده است که انرژی مورد استفاده برای نرم کردن یک بلوک کوچک هیچ رابطه خطی با بلوک بزرگتر ندارد. در حالی که برای درجه (غلظت یک عنصر) اندازه گیری مجدد اندازه گیری از بلوک های کوچک برای بزرگتر صحیح است، این برای مصرف انرژی معتبر نیست زیرا غیرافزودنی است.
شباهت بین ماتریس‌های اندازه‌های مختلف، مسئله مقیاس‌گذاری مجدد
23036
من یک سابقه مبتدی در سری های زمانی دارم (برخی تخمین/پیش بینی ARIMA) و با مشکلی مواجه هستم که کاملاً درک نمی کنم. هر گونه کمکی بسیار قدردانی خواهد شد. من در حال تجزیه و تحلیل چندین سری زمانی هستم، همه در یک بازه زمانی و همه فرکانس یکسان، همه نوع مشابهی از داده را توصیف می کنند. هر سری فقط یک متغیر است، هیچ پیش‌بینی‌کننده دیگری وجود ندارد که من به آنها نگاه می‌کنم. از من خواسته شده است که یک مدل واحد را تخمین بزنم که همه سری‌ها را توصیف می‌کند - برای مثال، تصور کنید بتوانم یک ARIMA (p,d,q) با همان ترتیبات، ضرایب و غیره پیدا کنم که می‌تواند برای همه سری‌ها مناسب باشد. سرپرست من نمی‌خواهد هر سری را جداگانه تخمین بزنم، و همچنین نمی‌خواهد نوعی مدل VAR با وابستگی بین سری‌ها انجام دهم. سوال من این است: من اصلاً چنین مدلی را چه می نامم و چگونه می توانم آن را تخمین / پیش بینی کنم؟ اگر استفاده از نمونه کد برای شما راحت تر است، من هم SAS و هم R صحبت می کنم.
تخمین مدل مشابه در چند سری زمانی