_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
68162 | من اخیراً در رابطه با مطالعه خود در مورد تعارضات و عملکرد با مشکلی مواجه شدم. دو نوع تضاد در مطالعه، تضاد وظیفه و رابطه، هر دو با عملکرد $(-.39، P <.01)$ و $(-.37، P <.01)$ همبستگی داشتند. وقتی اینها را در یک رگرسیون قرار دادم، مدل رگرسیون قابل توجه بود و $22.1\%$ از واریانس $(F\ (3, 82) = 7.76,\ P <.01)$ را توضیح داد. با این حال، هیچ یک از دو IV ضرایب قابل توجهی نداشتند! هیچ متغیر دیگری در تحلیل رگرسیون وجود نداشت. چگونه می تواند این باشد؟ | دو متغیر مستقل هر دو با متغیر وابسته همبستگی دارند، اما هیچ کدام در تحلیل رگرسیون معنادار نیستند |
110078 | این یک سوال از یک دوره آموزشی است: فرض کنید مجموعهای از مثالها داریم و برایان وارد میشود و هر نمونه را کپی میکند، سپس بهطور تصادفی نمونهها را دوباره ترتیب میدهد. ما اکنون دو برابر بیشتر نمونه داریم، اما اطلاعات بیشتری در مورد مشکل نسبت به قبل نداریم. اگر ورودی های تکراری را حذف نکنیم، کدام یک از روش های زیر تحت تأثیر این تغییر قرار نمی گیرد، از نظر زمان کامپیوتر (مثلاً زمان بر حسب ثانیه) طول می کشد تا به همگرایی نزدیک شود؟ الف) یادگیری کامل دسته ای ب) یادگیری آنلاین که در آن برای هر تکرار به طور تصادفی یک مورد آموزشی را انتخاب می کنیم ج) یادگیری مینی دسته ای که در آن برای هر تکرار به طور تصادفی 100 مورد آموزشی را انتخاب می کنیم. پاسخ این است ب. اما من تعجب می کنم که چرا c اشتباه است. آیا آموزش آنلاین یک مورد خاص از مینی دسته نیست که در آن هر تکرار فقط یک مورد آموزشی دارد؟ با تشکر | دسته کامل v.s. یادگیری آنلاین v.s. مینی دسته |
106236 | من میخواهم نسخه بیزی پرسپترون را که در کتاب مکانیک آماری یادگیری، نوشته انگل ون دن بروک خواندهام، پیادهسازی کنم. ایده برای بهبود عملکرد این است که از بسیاری از پرسپترونهای گیبس J برای تعریف یک پرسپترون طلایی با استفاده از مرکز جرم آنها $J^\beta$ استفاده کنیم. به طور رسمی: $$J^\beta = \lim_{m\rightarrow \infty} \sqrt N \frac{\sum^M_{i=1}J^{(i)}}{\sqrt{(\sum^M_ {i=1}J^{(i)})^2}}.$$ مشکل این است: چگونه باید این تعداد $J$ را محاسبه کنم؟ آیا باید از بسیاری از شرایط اولیه مختلف استفاده کنم؟ آیا باید از $J$ های متفاوتی که در دوره های مختلف یادگیری پرسپترون گرفته شده استفاده کنم (به ویژه این فکر من است)؟ آیا باید داده ها را مختل کنم؟ آیا باید یک $J$ خاص را به طرق مختلف تصادفی مزاحم کنم؟ | پرسپترون بیزی - چگونه می توانم پرسپترون های مختلف تولید کنم؟ |
51214 | من در حال خواندن کتاب عناصر یادگیری آماری هستم (Hastie _et al_, فصل 7) و در مورد انواع مختلف خطاهای ذکر شده در کتاب 1 سردرگم هستم. خطای تست $$Err_\tau=E(L(y, \hat {f}(X)|\tau))$$ 2. خطای پیشبینی مورد انتظار $$Err=E(L(y, \hat{f}(X))=E[Err_\tau]$$ 3. خطای آموزش: $$\bar{err}=\frac{1}{N}\sum_{i=1}^{N }L(y_i,\hat{f}(x_i))$$ 4. خطای نمونه: $$Err_{in}=\frac{1}{N}\sum_{i=1}^{N}E_{Y^0}[L(Y_i^0,\hat{f}(x_i))]$ $ 5. خطای نمونه اضافی: $$Err_\tau=E_{X^0,Y^0}(L(Y^0, \hat{f}(X^0)|\tau))$$ کسی میتواند بدهد چند ایده به اینها را به خوبی درک کنید و چند مثال ساده قدردانی می شود؟ | چند نمونه از خطاها در ESL؟ |
25037 | با توجه به یک توزیع گسسته دلخواه و یک توزیع مشاهده شده حاصل از شبیه سازی مونت کارلو، هدف من این است که بتوانم بگویم که آیا توزیع مشاهده شده همان توزیع داده شده است یا نه، به طوری که من به درستی توزیع متفاوت را با احتمال بیشتر شناسایی کنم. از 1 در 10000 باید بگویم که شبیه سازی مونت کارلو در 10^10 تکرار اجرا می شود. تاکنون از ترکیبی از فواصل اطمینان (که از توزیع داده شده به دست آمده است) برای آزمایش میانگین مشاهده شده و همچنین آزمون کای دو استفاده کرده ام. در اصل، به نظرم می رسید که این ترکیب، در چندین تکرار، دقت مطلوبی را که هدف من است، ارائه می دهد. اما پس از تفکر بیشتر، به ذهنم خطور کرد که این تست ها مستقل نیستند زیرا من از آنها در همان مشاهده استفاده می کنم. در نتیجه، من فقط میتوانم دقیقترین آزمایش را انجام دهم. آیا این حقیقت دارد؟ من چندین سوال دیگر دارم: آیا تفسیر من از فواصل اطمینان درست است که وقتی می گویم وقتی از فاصله اطمینان 95٪ استفاده می کنم (مثلا) می گویم که احتمال اینکه میانگین مشاهده شده خارج از فاصله اطمینان باشد زمانی که توزیع مشاهده شده یکسان است. توزیع داده شده 5٪ است؟ به همین ترتیب، اگر موارد فوق صحیح باشد، آیا تفسیر نتیجه خی دو مشابه است؟ به عبارت دیگر، با مقدار آلفا 0.05، آیا این درست است که وقتی توزیع مشاهده شده با توزیع داده شده یکسان است، احتمال اینکه نتیجه خی دو خارج از این حد باشد، درست است؟ در نهایت، آیا روش خوبی برای دستیابی به دقت مورد نظر من وجود دارد؟ پیشاپیش از شما متشکرم | تفسیر مناسب برای تحلیل خطا |
96038 | من مجموعه داده ای از فایل های باینری دارم. من نمی توانم استخراج ویژگی را روی آنها انجام دهم. من فقط فاصله بین هر جفت فایل در مجموعه داده را با یک متریک فاصله (NCD = فاصله فشرده سازی عادی) محاسبه کردم. بنابراین من یک ماتریس فاصله دارم. هدف من خوشه بندی این فایل هاست. بهترین راه برای انجام آن چیست؟ | چه الگوریتم خوشه بندی را می توان با ماتریس فاصله و بدون ویژگی استفاده کرد؟ |
112538 | من در حال مدلسازی تأثیر تعداد نوع خاصی از شرکت (شرکتهای پایین هرمی (BOP) یعنی شرکتهایی که به فقیرترین مصرفکنندگان خدمات میدهند) بر قیمت بازار میگذارم. من دو مدل زیر را در نظر گرفتم: (1) مدل اول برای ثبت اثرات علی طراحی شد. ما تعداد شرکتهای BOP را برای تخمین رابطه علی بین تعداد شرکتهای BOP با میانگین قیمت بازار ابزار کردیم. من از این مدل راضی هستم (2) من در مورد مدل دومی که در نظر دارم کمی متحیر هستم. کاری که اکنون سعی می کنم انجام دهم این است که کل درآمد را تخمین بزنم در صورتی که هیچ شرکت BOP وارد بازار نشده بود و کل درآمد بازار اگر این شرکت ها زودتر وارد بازار شده بودند. حدود 100 بازار مختلف در حال بررسی هستند که حدود 10 سال را پوشش می دهند. فرض کنید اگر هیچ شرکت BOP در هیچ یک از آنها وارد نشد، کل درآمد این بازارها را تخمین زدیم. با استفاده از مدل قسمت (1)، و وارد کردن تعداد شرکت های BOP به عنوان صفر، می توانم پیش بینی کنم که اگر شرکت های BOP در طول سال های مشاهده شده وجود نداشت، چه اتفاقی می افتاد. از این نقطه، من اساساً می توانم کل درآمد بازار را محاسبه کنم. سوال من این است: سوال: آیا استفاده از مدل مرحله (1) در مرحله (2) درست است؟ آیا واقعاً باید به درون زایی اهمیت بدهم وقتی آنچه می خواهم انجام یک پیش بینی از نوع (2) است؟ دردسرسازتر، واقعاً اشتباه است که وقتی میخواهم مرحله (2) را انجام دهم، خودم را به مدلی از نوع (1) محدود کنم؟ | آیا هنگام انجام پیش بینی های خلاف واقع به مدل های علی نیاز دارید؟ |
96140 | من سعی میکنم بفهمم کدام الگوریتمهای یادگیری نظارتشده نیاز به نرمالسازی/مقیاسسازی ویژگیها دارند. به نظر می رسد زمانی که یک الگوریتم با محاسبه احتمال شرطی کار می کند (بیز ساده، تحلیل تشخیص خطی)، نرمال سازی لازم نیست. با این حال، برای الگوریتمهایی که از هر نوع متریک فاصله (K-نزدیکترین همسایه، ماشین بردار پشتیبانی) استفاده میکنند، نرمالسازی ضروری است. آیا این درست است؟ من یک n00b کامل هستم، پس لطفاً وارد شوید و هر جا مناسب است مرا اصلاح کنید. | چه زمانی برای الگوریتم های یادگیری نظارت شده مقیاس/نرمال کنیم؟ |
82256 | یک مدل مخلوط گاوسی از پارامترهای ناشناخته را در نظر بگیرید که فقط یک یا دو جزء دارد. من می خواهم یک آزمون آماری برای تعیین تعداد کلاس ها طراحی کنم ($H_0$: مدل تک جزء در مقابل $H_1$: مدل دو جزء). من نمی دانم چگونه این را فرموله کنم. آیا کسی می تواند به من کمک کند تا شروع کنم؟ | آزمون فرضیه تک کلاسی در مقابل دو کلاسه |
51218 | میانگین و انحراف معیار یک نمونه تصادفی با اندازه گیری $n$ به ترتیب برابر با 33.9 و 3.3 است. یک فاصله اطمینان 95% برای $n = 100$ بسازید. از این رو سعی می کنم حاشیه خطا را محاسبه کنم و سپس از آن برای استخراج حجم نمونه و سپس ساختن نمودار خود استفاده کنم. اما به نظر می رسد اطلاعات ارائه شده کافی نیست. | اگر حجم نمونه داده نشود چگونه می توان حاشیه خطا را محاسبه کرد؟ |
82254 | در امتحان شفاهی من یکی از معلمانم پرسید که آیا این جامعه در یک «مطالعه تجربی» وجود دارد یا خیر. پاسخ دادم: بله، جامعه در یک «تحقیق تجربی» وجود دارد و من آن را از موضوع مورد علاقه خود خواهم گرفت. اما او پاسخ را رد کرد و به من گفت که این جامعه در «مطالعه تجربی» وجود ندارد، اما در «مطالعه مشاهدهای» وجود دارد. من آن را درک نکرده ام. اگر جامعه در یک «مطالعه تجربی» وجود نداشته باشد، چگونه می توانم نمونه خود را دریافت کنم؟ | آیا جمعیت در یک مطالعه تجربی وجود دارد؟ |
51216 | من از بسته depmixS4 برای قرار دادن HMM استفاده می کنم. من سه کلاس مختلف داده دارم و 3 HMM مجزا را با استفاده از توابع depmixS4 depmix و fit نصب کردهام و با توجه به دنبالهای جدید از مشاهدات، میخواهم بتوانم احتمال (یا شانس ورود به سیستم) آن دنباله مشاهده جدید را محاسبه کنم. هر یک از سه مدلی که قبلا آموزش داده شده اند. من میدانم که این معمولاً با استفاده از الگوریتم Viterbi انجام میشود، اما نمیدانم چگونه میتوان آن را در depmixS4 پیادهسازی کرد. به دلیل عملکرد depmixS4 من نمی توانم از بسته های HMM یا HiddenMarkov استفاده کنم از کمک شما بسیار قدردانی می شود! پیشاپیش از شما متشکرم | سوال در مورد طبقه بندی با مدل های پنهان مارکوف با استفاده از depmixS4 |
33236 | > **موضوع تکراری:** > F غیرمعنادار اما ضریب قابل توجهی در رگرسیون خطی چندگانه > در تحقیقم، از خوش بینی به عنوان IV، رضایت شغلی به عنوان DV و غنی سازی کار-خانواده به عنوان میانجی استفاده کردم. تحلیل مدل مسیر با استفاده از AMOS نشان میدهد که IV و DV به طور معنیداری همبستگی دارند، اما آزمون رگرسیون معنیدار نبود. از این چه نتیجه ای می توانیم بگیریم؟ | چگونه می توان همبستگی معنادار بین آزمون رگرسیون مستقل و وابسته اما غیرمعنادار را در حضور میانجی توضیح داد؟ |
104308 | من میخواهم یک مدل خطی برای یک فنوتیپ $y_i$ که توسط یک مدل آستانه بدهی تعریف شده است، با استفاده از دادههای قابل مشاهده $x_i، c_i$ تخمین بزنم. $$y_i = \mu + \بتا x_i + \epsilon_i$$ $$\text{Pr}(\epsilon_i | x_i، \beta، \mu) \sim B(1، p_i) - p_i$$ $p_i$ است یک تابع پیچیده از CDF معمولی خطای اساسی برای مدل آستانه بدهی، که خود بر اساس یک مدل خطی با مجموعهای از پارامترها است. اما برای هدف این مشکل، فکر میکنم تنها واقعیت مهم این است که نمیتوانیم فرض کنیم که $\epsilon_i$ از یک توزیع برای هر $i$ منفرد گرفته شده است. من میخواهم تخمین حداکثر احتمال پارامترها را انجام دهم، و به طور خاص، قدرت تخمینها را بیابم، اما مطمئن نیستم چه کار کنم زیرا خطاها نه تنها ناهمسان هستند، بلکه به فرد بستگی دارند. | تخمین توان برای مدل خطی با خطای توزیع شده برنولی |
106233 | من می خواهم داده ها را از منابع مختلف ترکیب کنم. فرض کنید میخواهم یک ویژگی شیمیایی را تخمین بزنم (مثلاً یک ضریب تقسیمبندی): دادههای تجربی دارم که به دلیل خطای اندازهگیری حول میانگین متغیر است. و ثانیاً، من مدلی دارم که تخمینی را از اطلاعات دیگر پیشبینی میکند (مدل نیز تا حدی عدم قطعیت دارد). چگونه می توانم این دو مجموعه داده را ترکیب کنم؟ [برآورد ترکیبی در مدل دیگری به عنوان پیش بینی استفاده خواهد شد]. متاآنالیز و روش های بیزی مناسب به نظر می رسد. با این حال، منابع و ایده های زیادی برای پیاده سازی آن پیدا نکرده ام (من از R استفاده می کنم، اما با پایتون و C++ نیز آشنا هستم). با تشکر **به روز رسانی** خوب، در اینجا یک مثال واقعی تر آورده شده است: برای تخمین سمیت یک ماده شیمیایی (معمولاً به صورت $LC_{50}$ = غلظتی که 50٪ حیوانات می میرند بیان می شود) آزمایش های آزمایشگاهی انجام می شود. خوشبختانه نتایج آزمایش ها در یک پایگاه داده (EPA) جمع آوری شده است. در اینجا مقادیری برای حشره کش لیندان آمده است: ### سمیت لیندان در ug/L epa <- c(850,6300,6500,8000, 1990,516, 6442,1870,1870,2000,2006,200 2600,1000,485,1190,1790,390,1790,750000,1000,800 ) hist(log10(epa)) # یا بر حسب مول/لیتر وزن مولکولی لیندان mw = 290.83 # [g/mol] hist(log10 (epa/ (mw * 1000000))) با این حال، مدل هایی نیز برای پیش بینی سمیت از خواص شیمیایی (QSAR) در دسترس هستند. یکی از این مدلها سمیت را از ضریب تقسیم اکتانول/آب پیشبینی میکند ($log~K_{OW}$): $$ log~LC_{50} [mol/L] = 0.94~(\pm 0.03)~log~K_{ OW}~-~1.33 (\pm~0.1)$$ ضریب پارتیشن بندی لیندان $log~K_{OW} = 3.8$ و سمیت پیش بینی شده $ log~LC_{50} [mol/L] = -4.902 $ است. lkow = 3.8 mod1 <- -0.94 * lkow - 1.33 mod1 آیا روش خوبی برای ترکیب این دو اطلاعات مختلف (آزمایشهای آزمایشگاهی و پیشبینیهای مدل) وجود دارد؟ hist(log10(epa/ (mw * 1000000))) abline(v = mod1، col = 'steelblue') $LC_{50}$ ترکیبی بعداً در یک مدل به عنوان پیش بینی استفاده خواهد شد. بنابراین، یک مقدار واحد (ترکیب) یک راه حل ساده خواهد بود. با این حال، یک توزیع نیز ممکن است مفید باشد - اگر این در مدل سازی امکان پذیر باشد (چگونه؟). | ترکیب داده ها از منابع مختلف |
106235 | من مجموعه ای از داده ها (~ 90 مورد) و نتیجه یک آزمایش تشخیصی دارم. من عواملی را جمع آوری کرده ام که قبل از آزمون تعیین شده اند و می توانند نتیجه آزمون را پیش بینی کنند. اکنون برخی از داده ها باینری هستند، برخی پیوسته هستند (تست های آزمایشگاهی)، یکی طبقه بندی شده است (تشخیص اصلی منجر به علامت با 5 دسته می شود). آمارگیر (در SPSS) یک رگرسیون لجستیک چندگانه روی اکثر پارامترها و سپس یک انتخاب گام به گام به عقب انجام داد که مدلی را تولید کرد که یکی از عوامل به شدت معنی دار بود (001/0) و بقیه ناچیز بود (دو مورد از آنها در 01/0 بود. محدوده -0.05). سوال همکاران من طبیعی بود - چرا این یا آن عامل احتمالی گنجانده نشده است و این دو عامل در واقع مهم هستند یا می توان گفت تقریباً اهمیت دارند. باید بگویم که دوست ندارم اهمیت نزدیک را تفسیر کنم، اما باید با همکارانم کار کنم. از آمارگیر خواستم تحلیل دیگری انجام دهد، این بار با مجموعه کامل عوامل، و نتیجه متفاوت است، تنها یکی از عوامل (مهمترین آنها) در مدل جدید باقی مانده است، هنوز به شدت قابل توجه است اما عوامل دیگری نیز وجود دارد. ، همچنین در محدوده 0.01-0.05، که من را دوباره به مشکل نزدیک به اهمیت می رساند. من همچنین با R و Rcmdr با داده های یکسان امتحان کردم و انتخاب گام به گام بر اساس AIC یا BIC نتایج متفاوتی ایجاد می کند (فقط یک عامل ثابت می ماند). اکنون می بینم که با توجه به اینکه روش های مختلف انتخاب گام به گام مدل های مختلفی را با فاکتورهای ناچیز تولید می کنند، وجود این عوامل در مدل تصادفی است. به همین دلیل دوست دارم آنها را درج نکنم. بیشتر از همه، من نمی خواهم حضور آنها را در مدل تفسیر کنم، زیرا همکاران فکر می کنند که من باید آنطور که آنها به اهمیت نزدیک می شوند. سوال 1: برای ساده تر کردن کارها، آیا می توان یک باتری از رگرسیون های لجستیک تک متغیره را روی همه متغیرها اجرا کرد؟ این هر دو مشکل من را حل می کند - من یک مدل مهم ساده با مهم ترین متغیر را خواهم داشت و مجبور نیستم با تفسیر نزدیک به اهمیت در سایرین سر و کار داشته باشم. سوال 2: آیا اصلاحی در مورد اهمیت وجود دارد که در رگرسیون لجستیک چندگانه استفاده شود، همانطور که با مقایسه های متعدد وجود دارد، بنابراین من می توانم با استدلال نزدیک به اهمیت برخورد کنم؟ | آیا رگرسیون لجستیک چندگانه انتخاب درستی است یا باید از رگرسیون لجستیک تک متغیره استفاده کنم؟ |
24921 | من می دانم که توزیع واریانس نمونه $$ \sum\frac{(X_i-\bar{X})^2}{\sigma^2}\sim \chi^2_{(n-1)} $$ $$ \ sum\frac{(X_i-\bar{X})^2}{n-1}\sim \frac{\sigma^2}{n-1}\chi^2_{(n-1)} $$ این از این واقعیت که $(X-\bar{X})^2$ را می توان به شکل ماتریس، $xAx'$ (که در آن A: متقارن) بیان کرد، و می تواند دوباره در: $x'QDQ'x$ بیان شود (که در آن Q : متعامد، D: ماتریس مورب). در مورد $\sum(Y_i-\hat{\beta}_0-\hat{\beta}_1X_i)^2$، با توجه به فرض $(Y - \beta_0 - \beta_1X)\sim \mathcal{N}(0) ، \sigma^2)$ ? به نظر من $$\sum\frac{(Y_i-\hat{\beta}_0-\hat{\beta}_1X_i)^2}{\sigma^2}\sim \chi^2_{(n-2)} .$$ اما من نمی دانم چگونه آن را ثابت کنم یا نشان دهم. آیا دقیقاً به صورت $\chi^2_{(n-2)}$ توزیع می شود؟ | توزیع مجموع مربعات خطا برای رگرسیون خطی؟ |
24929 | من سیستمهای معادلههای همزمان را در R تخمین میزنم و سعی میکنم محدودیتهای همگنی و تقارن را بر معادلات اعمال کنم. من از بسته systemfit استفاده می کنم. من موفق شده ام با استفاده از 'restrict.matrix' (همانطور که در مثال زیر می بینید) یک محدودیت را روی یکی از eqn ها اعمال کنم. چگونه می توانم همه محدودیت ها را همزمان اعمال کنم (restrict1، limited2، limited3 و غیره)؟ eqn1 <- s1 ~ p1 + p2 + p3 + p4 + q eqn2 <- s2 ~ p1 + p2 + p3 + p4 + q eqn3 <- s3 ~ p1 + p2 + p3 + p4 + q eqlist <- فهرست (eqn1, eqn2 , eqn3) system_eqn <- systemfit(eqlist, method=SUR) limited1 <- eq1_p1 + eq1_p1 + eq1_p3 + eq1_p4 = 0 محدودیت2 <- eq2_p1 + eq2_p1 + eq2_p3 + eq2_p4 = 0 محدودیت3 <- eq1_p2 - eq2_p1 = 0 Restrice system_eq ماتریس = محدودیت 1) | با استفاده از بسته systemfit چندین محدودیت بر روی سیستم های eqns در R اعمال کنید |
93046 | من یک مجموعه داده آموزشی برای مشکل طبقه بندی $X \rightarrow y$ دارم. در جایی که $X$ یک بردار واقعی بعدی $n$ام است، $y$ یک عدد صحیح در $\\{0، 1\\}$ است. من می خواهم مشکل بعدی را حل کنم: تا آنجا که ممکن است خطوط $y = 1$ را با سطح خطا بیش از $\alpha = 10\%$ پیش بینی کنید. به عبارت دیگر، من میخواهم مجموعه داده ($N$ نمونه) را در دو مجموعه تقسیم کنم: 1) $k$ - نمونههای پیشبینی شده $y = 1$، که در آن $y = 0$ موارد کمتر از $k * \alpha$ هستند. 2) نمونه های $N-k$ - برای من مهم نیست. من باید $k$ را با $\alpha$ داده شده به حداکثر برسانم. من تجربه زیادی در طبقه بندی با ML دارم، اما این مشکل برای من غیرعادی است. لطفاً به من کمک کنید که چگونه این مشکل را برای ML رسمی کنم. کدام و چگونه باید از الگوریتم ML برای مشکل استفاده کنم؟ من خوشحال خواهم شد که در مورد ایده کلی راهنمایی دریافت کنم. | ML برای مشکل طبقه بندی خاص |
25039 | من به دنبال تقویت طبقه بندی جنگل تصادفی با استفاده از اطلاعات متقابل شانون-ویور به عنوان یک فراابتکاری برای تقسیم مجموعه داده های نامزد هستم. به طور خاص، من سعی می کنم تعیین کنم که آیا چنین رویکردی هم قابل حمل است و هم زمان همگرایی بهبود یافته ای را نسبت به روش های bruteforce و طبقه بندی تصادفی جنگل به تنهایی بدون کاهش عمده در طبقه بندی ارائه می دهد. فرض کنید مجموعهای از مجموعههای داده داریم، $K$، که شامل ردیفهای $\\{k1، k2، ...، kn\\}$ است. هر یک از این ردیف ها دارای یک زبان ناشناخته $L$ در زمینه یک تابع نویز ناشناخته و یکنواخت است. فرضیه ما این است که حداقل برخی از زیرمجموعههای این ردیفهای داده اطلاعات را به اشتراک میگذارند: یعنی برای برخی از ردیفها، $I(kx,ky) > 0$ برای ${kx,ky} \در K$. علاوه بر این، ما فرض می کنیم که اطلاعات متقابل چند متغیره $I(kx,ky,...) \not= 0$ برای مجموعه ای از روابط چند متغیره. به این معنی که نمودار ما حاوی ترکیباتی است که در زمینه روابط چند زنجیره ای آموزنده تر هستند، یا حاوی برخی روابط XOR شکل هستند. اگر بخواهیم این فضا را bruteforce کنیم، چون اطلاعات متقابل جابهجایی است، به زمان و مکان n-دوجملهای-n نیاز داریم. به عبارت دیگر، برای محاسبه اطلاعات متقابل همه ترکیبها در مجموعه $D$، به زمان $\sum\limits_{x=1}^n\binom{n}{x}$ نیاز داریم، با فرض سادگی که مقایسه هر ردیف یک عملیات $O(1)$ است. سپس مجموعه دادههای خروجی را با استفاده از یک مقدار قطع ثابت، $v$، هرس میکنیم، و فقط اتصالات را در جایی که $I(kx،...) > v$ حفظ میکنیم. سپس این مجموعه را به ترتیب نزولی تعداد عبارتها مرتب میکنیم و از آن برای ساختن یک نمودار بدون جهت استفاده میکنیم، با اتصال ویژگیهایی که اطلاعات متقابل مثبت را به اشتراک میگذارند و وقتی اطلاعات متقابل چند متغیره منفی است، شاخههایی تشکیل میدهیم. کاهش آشکار این پیچیدگی، با هزینه محدود به خطا در استحکام، استفاده از تجزیه و تحلیل تصادفی جنگل است. من میخواهم این محاسبات را بیشتر سادهتر کنم، با محاسبه اطلاعات متقابل فضای جفتی برای هر جفت ردیف، سپس با استفاده از یک مقدار برش شبیه به $v$، مجموعههایی بسازیم که فقط شامل گرههای شرکتکننده هر یک از این نمودارها هستند. سپس این مجموعهها به طبقهبندیکننده جنگل تصادفی ما وارد میشوند تا شکل نمودارها را در یک زمان کاهشیافته برای همگرایی تعیین کنیم. آیا این رویکرد قابل اجرا است؟ حتی اگر چنین است، آیا رویکردهای بهتری برای مرحله هرس این مشکل وجود دارد؟ (در ابتدا در CSTheory.SE ارسال شده است) | قابلیت جابجایی الگوریتمهای طبقهبندی مجموعه اطلاعات افزوده متقابل |
65356 | من علاقه مندم بدانم چگونه می توان ضریب را از بسته VGAM (رگرسیون عمومی پواسون) بدست آورد، زیرا وقتی می خواهم ضریب را بدست بیاورم، فقط می توانم تخمین را با @ بدست بیاورم تا تخمین را بدست بیاورم. یک ضریب دیگر می تواند تمام قسمت را از ضریب با $ دریافت کند... برنامه من مانند این است: library(VGAM) fit <- vglm(y ~ x1, genpoisson,trace = TRUE) summary(fit) hasilgp <- summary(fit) koefgp <- hasilgp@coefficients و فقط تخمین را می توان ضمیمه کرد... هر کسی به من کمک کند... | نحوه دسترسی به ضریب از بسته VGAM (رگرسیون پواسون تعمیم یافته) |
106238 | من یک معادله با چندین جزء تصادفی را چندین بار محاسبه می کنم، و برای انتخاب پاسخ نهایی خود، آن را با حداقل مقدار برای $\chi^2$ انتخاب می کنم. امیدوارم راهی پیدا کنم تا تصمیم بگیرم که چقدر احتمال دارد که به این مقدار $\chi^2_{min}$ دست پیدا کنم تا تعداد آزمایشهای استفاده شده را در نظر بگیرم. در ابتدا فکر کردم این درست است: $Probability = \frac{e^{-\chi^2_{min}}}{\sum_i^{N_{trials}}e^{-\chi^2_{i}}}$ بنابراین اساساً احتمال نمایی کمترین $\chi^2$ محاسبه شده است، تقسیم بر مجموع همه مقادیر exp($-\chi^2$) محاسبه شده. این به نوعی معقول به نظر می رسد، زیرا اگر طیفی از نتایج با مقدار کم برای $\chi^2$ وجود داشته باشد (همانطور که در مورد تعداد زیادی آزمایش وجود دارد) آنگاه شمارشگر به سمت 1 متمایل خواهد شد در حالی که اهریمنی با تعداد آزمایشی رشد می کند و احتمال کلی انتخاب بهترین پاسخ را کوچکتر می کند. با این حال، واقعاً کاری را که من میخواهم انجام نمیدهد: در مثال exteme که من فقط 1 آزمایش دارم، بدون در نظر گرفتن کیفیت پاسخ، همیشه به '1' ارزیابی میشود. در معادله خود من چندین متغیر تصادفی گاوسی دارم، و چیزی که واقعاً میخواهم این است که اندازهای از «فاصله» یک نتیجه بر حسب میانگین این گاوسها داشته باشم و این را در نحوه تعریف «احتمال» لحاظ کنم. به عنوان مثال: اگر من دو نتیجه با $\chi^2$ مشابه داشته باشم اما مولفه های تصادفی یکی بسیار نزدیک به میانگین باشد و دیگری چند $\sigma$ دور باشد، اولین مورد را به عنوان احتمال بیشتر انتخاب می کنم. نتیجه آیا تکنیکی برای انجام چنین کاری وجود دارد؟ امیدوارم این به اندازه کافی واضح باشد که بتوانم درک کنم - من مطمئن نیستم که چگونه ادامه دهم و از هر پیشنهادی بسیار استقبال می شود. **ویرایش برای افزودن یک ایده جدید:** من به این فکر میکنم که کاری که میتوانم برای در نظر گرفتن همه این عناصر انجام دهم این است که کاری انجام دهم: $Probability = \frac{e^{-\chi^2_{min }} \times e^{-a} \times e^{-b}}{\sum_i^{N_{trials}}e^{-\chi^2_{i}} \times e^{-a} \ بارها e^{-b}}$ که در آن $a$ و $b$ (در $e^{-a}$ و $e^{-b}$) نشان دهنده فاصله از میانگین متغیرهای گاوسی است. افکار بسیار خوش آمدید! | اندازه گیری احتمال به دست آوردن $\chi^2$ معین با توجه به تعداد آزمایشات |
112511 | من می دانم که این سوال در اینجا به شکل کمی متفاوت پرسیده شده است. اما سوال من متفاوت است و به دلیل قوانین انجمن نمی توانم در آن تاپیک پست بگذارم. من 2 متغیر مستقل دارم، n=32، رگرسیون چندگانه بسیار معنی دار، اما فقط رهگیری/ثابت دارای مقدار p معنی دار است. همچنین، من چند خطی بودن را آزمایش کردهام، در بازخوانی R زیر نیست، اما ضریب تورم واریانس برای 2 متغیر وابسته 2.02 است. دوربین-واتسون، نمودار متغیر اضافه شده، نمودار P-P، نمودار باقیمانده استاندارد شده، و فاصله آشپز همه نرمال هستند. در اینجا خواندن R است - لطفا به من بگویید که چه فکر می کنید.  بنابراین: این موضوع به طور مرتبط متفاوت است زیرا; آنچه من در جستجوی آن هستم و هنوز پیدا نکرده ام، توضیحی واقعی برای معنای داشتن یک رگرسیون قابل توجه و نداشتن پیش بینی کننده قابل توجه است. اگر این یافته دقیق باشد، چگونه می توان توضیح داد؟ @Glen_b، من آن قسمت از پست جرومی را دیدهام (نظر دوم من را در بالا ببینید) اما چگونه آن را به نثر توضیح دهم؟ آیا درست است که بگوییم متغیرها با هم بر نتیجه تأثیر دارند - اما تأثیر آنها را نمی توان از یکدیگر جدا کرد؟ | چگونه یک رگرسیون می تواند معنی دار باشد اما هر دو پیش بینی کننده غیر معنی دار باشند؟ |
92934 | در حال انجام یک تکلیف برای کلاس هستم و به دیوار برخورد کرده ام. من مطمئن نیستم که در مرحله بعد چه کار کنم. با استفاده از نمونه ای با 12 عنصر گسسته، سعی در آزمون فرضیه ای دارم مبنی بر اینکه میانگین جامعه 243 با سطح معنی داری 0.05 است. این چیزی است که من تاکنون داشته ام (این تأیید شده است): n = 12 x bar = 244.33 s = 12.382 t = (244.33 - 243) / (12.382 / sqrt(12)) = 0.3720 مرحله بعدی باید محاسبه باشد مقدار P، که من با جستجوی 0.3720 در جدول t با df = انجام می دهم. n-1 = 11، اما هیچ مقداری در جدول t کمتر از 1 وجود ندارد. بنابراین من نمی دانم چگونه 0.3720 را جستجو کنم. احساس میکنم دانش مهمی وجود دارد که از دست دادهام و مانع از تکمیل این مشکل میشود. من واقعاً از کمک در دانستن نحوه محاسبه P-value از اینجا سپاسگزارم. خیلی ممنون. به روز رسانی: من از نظرات همه قدردانی می کنم، اما احساس می کنم که پاسخ های پیچیده زیادی دریافت می کنم. این یک سوال خارج از کتاب درسی من است و قرار نیست به نرم افزار خاصی یا چیز دیگری نیاز داشته باشد، فقط یک ماشین حساب ساده و یک جدول t. شاید راحتتر باشد که این سؤال را از متن آگهی به طور کلمه بپرسیم: * یک نمونه تصادفی از n = 12 شام منجمد از یک نوع خاص از تولید در یک دوره خاص انتخاب شد و محتوای کالری هر یک مشخص شد. در اینجا مشاهدات حاصل آمده است. محتوای کالری اعلام شده 243 است. یک آزمون رسمی از این فرضیه که میانگین جمعیت = 243 است، با سطح معنی داری 0.05 انجام دهید. مشاهدات: 255 244 239 242 265 245 259 248 225 226 251 233 * | وقتی مقدار t کمتر از 1 است چگونه P-Value را بدست آوریم؟ |
106230 | در مدلهای آماری مختلف، معادله پایه (مانند ساده بیز $$\mathrm{classify}(f_1,\dots,f_n) = \underset{c}{\operatorname{argmax}} \ p(C=c) \displaystyle\ prod_{i=1}^n p(F_i=f_i\vert C=c)$$ تحت توزیعهای مختلف (مانند گاوسی) تغییر میکند بیز ساده $$p(x=v|c)=\frac{1}{\sqrt{2\pi\sigma^2_c}}\,e^{ -\frac{(v-\mu_c)^2}{ 2\sigma^2_c} ,$$ دوباره برای چندجمله ای گاوسی ساده بیز، $$p(F|C) = \frac{(\sum_i است F_i). تعاریف توزیع های مربوطه، اما پاسخ کمی پیش بینی شده است و ممکن است رضایت بخش نباشد، بنابراین فکر کردم از کارشناسان اینجا بپرسم گیج شده ام که چگونه این معادلات تغییر می کنند، مثلاً اگر معادلات پایه را بگیرم و مدل های توزیع مناسب را اعمال کنم، اگر یکی از اعضای محترم ممکن است کمک کند؟ | احتمال مشروط یا مشترک تحت توزیع های مختلف |
82258 | من با دادههای ریزآرایه کار میکنم و سعی میکنم ژنهایی با بیان متفاوتی که تحت تأثیر میکروبیوتای روده در موشها قرار دارند، پیدا کنم. من 6 آزمودنی دارم که از این تعداد 4 نمونه مختلف یکی از سلول های L منفی و دیگری از سلول های L مثبت از هر دو بافت کولون و روده گرفتم. در ادامه می توانید ماتریس طراحی شده برای هر فایل ریزآرایه را مشاهده کنید: > > فایل موضوع gutMic بافت Lcells > ---------------------------- ---------------- > IPCR1 1 CR ایلئوم Lpos > CPCR1 1 CR کولون Lpos > INCR1 1 CR ایلئوم Lneg > CNCR1 1 CR کولون Lneg > IPCR2 2 CR ایلئوم Lpos > CPCR2 2 CR کولون Lpos > INCR2 2 CR ایلئوم Lneg > CNCR2 2 CR کولون Lneg > IPCR3 3 CR ایلئوم Lpos > CPCR3 3 CR کولون Lpos3 CRN3 CR CR کولون Lneg > IPGF1 4 GF ایلئوم Lpos > CPGF1 4 GF کولون Lpos > INGF1 4 GF ایلئوم Lneg > CNGF1 4 GF کولون Lneg > IPGF2 5 GF ایلئوم Lpos > CPGF2 5 GF روده بزرگ Lpos > INGF2 Lneg5 GF > IPGF3 6 GF ایلئوم Lpos > CPGF3 6 GF کولون Lpos > INGF3 6 GF ایلئوم Lneg > CNGF3 6 GF کولون Lneg > اکنون می خواهم تأثیر میکروبیوتای روده را در L-منفی در مقایسه با سلول های L-مثبت بدون توجه به نوع بافت تجزیه و تحلیل کنم. یعنی GF ~ CR در Lneg و مقایسه آن با GF ~ CR در Lpos). من می دانم که برای داده هایی که از یک موضوع بدست می آیند، باید افزایش همبستگی از اندازه گیری در همان موضوع را در نظر بگیرم تا نتیجه مغرضانه را کاهش دهم. اما در اینجا من نمی دانم چگونه می توانم اثر نمونه هایی که از بافت های مختلف یک موضوع می آیند را کاهش دهم؟!! به عنوان مثال فایلهای INGF3 و CNGF3 از یک موضوع اما بافتهای متفاوتی میآیند و من میخواهم آنها را به عنوان تکراری از یک نمونه در نظر بگیرم. | مشکل ایجاد مدل رگرسیون خطی مناسب برای آزمایش من |
97345 | من نمی دانم که آیا می توان یک مدل شانس متناسب را به عنوان تابعی از مدل های لجستیک باینری نوشت؟ در واقع من داده هایی در مقیاس پاسخ ترتیبی (خفیف، متوسط، ضعیف) دارم. گزینههایی برای دوقطبی کردن دادهها وجود دارد، زیرا ما فقط باید دو درمان را اعمال کنیم. اما البته می توان از یک مدل ترتیبی برای طبقه بندی استفاده کرد، سپس انتخاب دو درمان را می توان بر این اساس اعمال کرد. سوال این است که کدام مدل روی داده ها خوب عمل می کند؟ چگونه «خوب انجام دادن» را کمی کنیم؟ راه حل های موجود عبارتند از: 1) مدل ها را بسازید و به AUC برای باینری و VUS برای ترتیبی نگاه کنید و آنها را مقایسه کنید. 2) به امتیاز بریر برای مدل ترتیبی و باینری نگاه کنید. اما من هنوز فکر میکنم راهحلهای اساسی بر روی تأثیراتی است که ما مدلسازی میکنیم ($\beta$) چگونه آنها برای این دو مدل ارتباط دارند. | نوشتن یک ترتیبی (مدل شانس نسبت) به عنوان تابعی از رگرسیون باینری |
82251 | فرض کنید من هفت خود همبستگی اول را برای یک متغیر $x$ دارم. و فرض کنید آنها -0.2، 0.15، -0.05، -0.10، -0.05، -0.14، 0.04 هستند. | خودهمبستگی و شواهد iid |
25036 | من در پیچیدن مغزم به دور این مشکل به ظاهر ساده و در عین حال مفهومی مشکل دارم. همانطور که از عنوان پیداست، سوال این است: چگونه تعداد پارامترهای مورد نیاز برای Naïve Bayes، LDA، و رگرسیون لجستیک (غیرقانونی) به عنوان تابعی از تعداد ویژگی ها مقیاس می شود؟ اگر Y بولی با X_1$ باشد ... ویژگی های X_p$: من می فهمم که برای رگرسیون لجستیک ما یک رابطه خطی بین تعداد پارامترها داریم که بر اساس تعداد ویژگی ها بر اساس درجه آزادی در یک مدل تهی که از مقدار کم شده است. درجات آزادی باقیمانده زمانی که یک تابع glm انجام می شود. یعنی $1 + p$ برای بیز ساده، فکر می کنم این را می فهمم، اما مطمئن نیستم: $P(Y) = p \cdot (\mu(Y=1)، \mu(Y=0)، \sigma (Y=1)، \sigma(Y=0)) = 1 + 4p$ برای LDA؟ من گم شده ام کسی بینشی داره؟ | چگونه تعداد پارامترها با تعداد ویژگی ها مقیاس می شود؟ |
51217 | تفاوت بین این دو چیست و چرا سطح اهمیت باید همیشه بالاتر یا مساوی اندازه آزمون باشد؟ | اندازه آزمون و سطح اهمیت |
64406 | من خودم در حال مطالعه مدل های آماری خطی کاربردی توسط مایکل کوتنر، کریستوفر ناچشیم، جان نتر، ویلیام لی هستم. آیا کد R برای متدها در کتاب وجود دارد؟ | کد R برای مدل های آماری خطی کاربردی کوتنر و همکاران؟ |
64400 | اجازه دهید $x_t = O_p(1)$، به این معنی که برای همه $\varepsilon > 0$، $M_{\varepsilon} < \infty$ s.t وجود دارد. $P(|X_t| > M_{\varepsilon}) < \epsilon$ برای همه $t \in \mathbb{N}$. آیا به این معنی است که $\sup_{t} Ex_t < \infty$، یعنی اینکه آیا انتظار یک متغیر تصادفی که در احتمال محدود شده است محدود است یا خیر؟ اگر اینطور نیست، می توانید یک مثال متقابل برای من بیاورید؟ | محدود به احتمال و انتظار محدود |
51213 | من یک جمعیت (بزرگ) دارم که در آن به طور تصادفی به گروههایی تقسیم شدم، و یک گروه را تحت یک شرایط آزمایشی قرار دادم (آن را تغییر _A_ نامید) که به طور کلی بهبود قابل توجهی در متغیر هدف نشان داد. این اتفاق می افتد که نوع متغیر هدف یک نسبت است. با این حال، تاثیر تغییر _A_ احتمالا برای همه زیر گروه ها یکسان نیست. فرض کنید من جمعیت خود را به مردان و زنان تقسیم کردم. آیا تغییر _A_ فقط برای زنان بهتر است؟ من فقط برایم مهم است که این تفاوت تغییر جهت باشد، یعنی برای من مهم نیست که برای زنان 15 درصد بهبود و برای مردان 45 درصد بهبود داشته باشد، فقط برای من مهم است که برای زنان 10 درصد بدتر و برای زنان 20 درصد بهتر باشد. آقایان، در این صورت من باید تغییر را فقط برای آقایان اعمال کنم. این تغییر بدون هزینه است، اما برای اعمال آن فقط به صورت مشروط کمی پیچیدگی میافزاید، بنابراین اگر برای یک زیرگروه بهتر است و برای زیرگروه دیگر تفاوت معنیداری نشان نمیدهد، ترجیح میدهم تغییر را در سراسر صفحه اعمال کنم. من فقط به این علاقه دارم که آیا تغییر برای یک گروه به طور قابل توجهی مثبت و در گروه دیگر به طور قابل توجهی منفی است. تقسیم به زیر گروهها تا حدودی دلخواه است، مردان و زنان احتمالاً چیزی در حدود 50/50 تقسیم میشوند، اما برخی از تقسیمبندیهایی که میتوانم انجام دهم، مرتبههایی کوچکتر از جمعیت اصلی هستند، مانند مصرف برند محصول یا شهرستان یا چیزی شبیه به آن، که در آن تفاوت ممکن است برای بخش های جداگانه به دلیل اندازه زیرجمعیت چندان قابل توجه نباشد. آیا این ایده خوبی است که ردیابی اثربخشی تغییر _A_ را برای استانهای منفرد دنبال کنید و آن را فقط برای مناطقی فعال کنید که تغییر مثبت بوده است؟ در برخی از شهرستان ها تغییر بهتر و در برخی بدتر بود. چگونه می توانم بگویم که آیا تفاوت ها به دلیل تغییرات تصادفی نیست؟ | تست کنید که آیا تغییر جهت زیرگروه ها متفاوت است؟ |
2587 | آیا این دو مترادف هستند؟ دلیلی که می پرسم این است که کاغذی دارم که مقدار p معینی را به عنوان دنباله بالای توزیع فوق هندسی محاسبه می کند: $\Sigma_{k}^{m} = \frac{\binom{m}{k}\ binom{N-m}{n-k}}{\binom{N}{n}}$ میخواهم پیشنهاد آنها را با استفاده از پایتون پیادهسازی کنم. Scipy یک توزیع فوق هندسی ارائه می دهد و می تواند تابع بقای آن توزیع را از یک نقطه مشخص محاسبه کند. بنابراین من در تعجب هستم که آیا این دو یکسان هستند؟ آیا می توانم فقط از آن تابع استفاده کنم؟ | آیا عملکرد بقا همانند دم بالایی است؟ |
65353 | من متعجب بودم که «فرایند ثابت مرتبه دوم» او در مقدمه براکول و دیویس بر سری های زمانی و پیش بینی چگونه تعریف شده است: > کلاس مدل های سری زمانی خطی، که شامل کلاس > مدل های میانگین متحرک اتورگرسیو (ARMA) می شود. یک چارچوب کلی برای مطالعه فرآیندهای ثابت فراهم می کند. در واقع، هر **فرایند ثابت مرتبه دوم** یا یک فرآیند خطی است یا می تواند با تفریق یک جزء قطعی به یک فرآیند خطی تبدیل شود. این نتیجه به عنوان تجزیه وولد شناخته می شود و در بخش 2.6 مورد بحث قرار گرفته است. در ویکیپدیا، حالت ایستایی مرتبه دوم زمانی به وجود میآید که الزامات ایستایی سخت > فقط برای جفت متغیرهای تصادفی از سریهای زمانی اعمال میشود. اما من فکر میکنم این کتاب تعریف متفاوتی با تعریف ویکیپدیا دارد، زیرا در این کتاب از ایستگاهی کوتاه برای ایستایی با حس عریض استفاده میشود، در حالی که ویکیپدیا از کوتاه ثابت برای ایستایی دقیق استفاده میکند. با تشکر و احترام! | فرآیند ثابت مرتبه دوم چیست؟ |
9599 | مثلاً بگویید سه سکه داریم. با توجه به چندین آزمایش، ما 95% فاصله اطمینان برای X (درصد سر) هر سکه داریم. سکه A 0-5٪، سکه B 1-9٪ و سکه C 40-70٪ است. [برای افراد کنجکاو، این CI با استفاده از CDF دو جمله ای معکوس، بر اساس نمونه کوچکی از 30 تلنگر از سکه ایجاد شده است. جای تعجب نیست که ما هیچ سرنخی در مورد ترکیب کیسه سکه ای که این سکه ها از آن کشیده شده اند نداریم.] آیا می توانیم در مورد تعداد سرهایی که انتظار داریم ببینیم اگر هر سه را برگردانیم، چیزی بگوییم؟ یا اگر یک سکه را به صورت تصادفی انتخاب کرده و آن را برگردانیم؟ بر اساس CI محاسبه شده به تنهایی؟ اگر بتوانیم از اطلاعاتی که ما را به آن CI ها هدایت کرده است نیز استفاده کنیم، چه؟ **ویرایش: بگذارید خیلی بیشتر در مورد مشکلم به شما بگویم.** ما 50 سکه داریم که همه آنها مشکوک هستیم که هدهای با احتمال بسیار پایین هستند (خیلی کمتر از 5٪). ما 30 آزمایش انجام می دهیم که هر آزمایش شامل برگرداندن تمام سکه ها و ثبت تمام نتایج است. مقداری که ما به دنبال آن هستیم، یک CI در میانگین تعداد سرها در یک آزمایش است. یک رویکرد ثبت 30 تعداد سر و انجام یک تقریب معمولی استاندارد است. مشکل این است که بسیاری از این 30 عدد 0 و 1 هستند، بنابراین در حالی که میانگین صحیح را دریافت میکنیم، میترسم CI به دست آمده بسیار محکمتر از آن چیزی باشد که حقش را دارد. کاری که من میخواهم انجام دهم این است که با استفاده از 30 نتیجه باینری آن، یک CI برای هر سکه محاسبه کنم. من محاسبه کرده ام که برای 0 هد از 30، این منجر به 95٪ CI بین 0-11.5٪ (البته با میانگین 0) می شود. من این کار را با جایگزین کردن مقادیر P در تابع توزیع تجمعی(1) توزیع دوجمله ای n=30 p=P در Wolfram Alpha انجام دادم تا اینکه نتیجه حدود 0.025 شد. برای 1 هد از 30، CI بین 0-17.2% دریافت می کنم، پس از انجام این کار، آیا می توانم به هر طریقی CI را جمع کنم؟ | آیا می توان فواصل اطمینان را اضافه کرد؟ |
99122 | انتظار شرطی خطا در رگرسیون این است: $E[Y-X\beta|X=x]$ برابر با 0 نیست. چرا اینطور است؟ اگر همه متغیرهای پیش بینی کننده را برطرف کنید، چرا $E[Y]$ - $X\beta$ برابر با 0 نیست؟ | چرا انتظار شرطی خطای پیشبینی در رگرسیون صفر نیست؟ |
97348 | من مجموعه داده ای دارم که هر ماه به روز می شود. من قبلاً یک شبکه عصبی را بر روی یک نمونه توسعه آموزش داده ام و آن را تأیید کرده ام. برای فرآیند ساخت، از پکیج nnet R استفاده کردم. نورالنت رو هم امتحان کردم. من از مدل راضی هستم. با این حال هر ماه یک مجموعه داده به روز دریافت می کنم. چگونه می توانم با استفاده از هر یک از این بسته ها به آموزش شبکه موجود ادامه دهم؟ پیشاپیش از شما بسیار سپاسگزارم، ن | چگونه می توانم به آموزش شبکه عصبی در R ادامه دهم؟ |
2639 | من مقادیر تولید (q) را از 4 روش مختلف در 4 ماتریس ذخیره کرده ام. هر یک از 4 ماتریس حاوی مقادیر q از یک روش متفاوت است: Matrix_1 = 1 ردیف x 20 ستون Matrix_2 = 100 سطر x 20 ستون Matrix_3 = 100 سطر x 20 ستون Matrix_4 = 100 سطر x 20 ستون تعداد ستون ها نشان دهنده تعداد ستون ها است. سال 1 ردیف حاوی مقادیر تولید مربوط به 20 سال است. 99 ردیف دیگر برای ماتریس 2، 3 و 4 فقط تحقق های مختلف (یا اجرای شبیه سازی) هستند. بنابراین اساساً 99 ردیف دیگر برای ماتریس 2،3 و 4 موارد تکراری هستند (اما نه با مقادیر دقیق به دلیل اعداد تصادفی). «ماتریس_1» را به عنوان حقیقت مرجع (یا مورد پایه) در نظر بگیرید. اکنون میخواهم 3 ماتریس دیگر را با Matrix_1 مقایسه کنم تا ببینم کدام یک از این سه ماتریس (هر کدام با 100 تکرار) با Matrix_1 بهتر مقایسه میشود یا از نزدیک تقلید میکند. چگونه می توان این کار را در Matlab انجام داد؟ من بهصورت دستی میدانم که با ترسیم «میانگین ماتریس_1»، و رسم هر توزیع «میانگین ماتریس_2»، «میانگین ماتریس_3» و «میانگین ماتریس_4» از فاصله اطمینان (CI) استفاده میکنیم. بزرگترین CI در بین ماتریس 2، 3 و 4 که حاوی حقیقت مرجع (یا «میانگین ماتریس_1») است، پاسخ خواهد بود. میانگین Matrix_1 = (1 ردیف x 1 ستون) میانگین Matrix_2 = (100 سطر x 1 ستون) میانگین Matrix_3 = (100 سطر x 1 ستون) میانگین Matrix_4 = (100 سطر x 1 ستون) امیدوارم سوال واضح باشد و مربوط به SA. در غیر این صورت لطفاً هر چیزی را که در این مورد است ویرایش/پیشنهاد کنید. با تشکر | چگونه توزیع های مختلف را با مقدار حقیقت مرجع در Matlab مقایسه کنیم؟ |
106344 | [من قبلاً در سایت جستجو کردم و نتوانستم پاسخ این سوال را پیدا کنم] با یک مثال ساده: یک مدل رگرسیون لجستیک برای پیش بینی اینکه آیا یک خریدار آنلاین پس از کلیک روی مجموعه ای از یک محصول (نتیجه: خرید) را خریداری می کند یا خیر استفاده می شود. تبلیغات آنلاین (پیش بینی کننده ها: Ad1، Ad2 و Ad3). نتیجه یک متغیر باینری است: 1 (خرید شده) یا 0 (خرید نشده). پیش بینی کننده ها نیز متغیرهای باینری هستند: 1 (کلیک شده) یا 0 (کلیک نشده). بنابراین همه متغیرها در یک مقیاس هستند. اگر ضرایب حاصل از Ad1، Ad2 و Ad3 0.1، 0.2 و 03 باشد، می توان نتیجه گرفت که Ad3 از Ad2 مهمتر است و Ad2 مهمتر از Ad1 است. علاوه بر این، از آنجایی که همه متغیرها در یک مقیاس هستند، ضرایب استاندارد و غیر استاندارد باید یکسان باشند و میتوان نتیجه گرفت که Ad2 از نظر تأثیر آن بر سطح logit (log-odds) دو برابر از Ad1 مهم است. اما در عمل ما بیشتر به نحوه مقایسه و تفسیر اهمیت نسبی متغیرها از نظر سطح p (احتمال خرید) اهمیت می دهیم، نه logit (log-odds). بنابراین سؤال این است: آیا رویکردی برای کمی کردن اهمیت نسبی این متغیرها بر حسب p وجود دارد؟ خیلی ممنون | چگونه می توان اهمیت متغیر نسبی را در رگرسیون لجستیک بر حسب p تعیین کرد؟ |
2580 | من دادههایی با پیک دوگانه دارم که سعی میکنم آنها را مدل کنم، و به اندازهای همپوشانی بین پیکها وجود دارد که نمیتوانم آنها را به طور مستقل درمان کنم. هیستوگرام داده ها ممکن است چیزی شبیه به این باشد:  من دو مدل برای این کار ایجاد کرده ام: یکی از دو توزیع پواسون استفاده می کند و دیگران از دو توزیع دوجمله ای منفی (برای توضیح بیش از حد پراکندگی) استفاده می کنند. راه مناسب برای تشخیص اینکه کدام مدل با داده ها مطابقت بیشتری دارد چیست؟ فکر اولیه من این است که می توانم از آزمون کولموگروف-اسمیرنوف برای مقایسه هر مدل با داده ها استفاده کنم، سپس یک تست نسبت احتمال انجام دهم تا ببینم آیا یکی از آنها به طور قابل توجهی تناسب بیشتری دارد یا خیر. آیا این منطقی است؟ اگر چنین است، من دقیقاً مطمئن نیستم که چگونه تست نسبت احتمال را انجام دهم. آیا خی دو مناسب است و من چند درجه آزادی دارم؟ اگر کمک کند، برخی از کدهای R (بسیار ساده) برای مدلها ممکن است چیزی شبیه به این باشد: ## دادههای اولیه یک <- read.table(data) #create model data model.pois = c(rpois(1000000, 200),rpois(500000250)) model.nb = c(rnbinom(1000000,200,0.5),rnbinom(500000,275,0.5) #تست کولموگروف-اسمیرنوف #استفاده از ks.boot، زیرا داده های شمارشی است که ممکن است حاوی مقادیر تکراری باشد kpois = ks.boot(model.pois,a ) knb = ks.boot(model.nb,a) #اینجاست من یک نوع تست نسبت احتمالی # انجام می دهم فاصله دو جمله ای برای توضیح بیش از حد) مناسب تر است text](http://i.stack.imgur.com/NE6Vq.png) (قرمز - داده، سبز - مدل) | اندازهگیری خوبی برازش در مدلی که دو توزیع را ترکیب میکند |
20546 | من یک سری زمانی از داده ها (حدود 300-750 عنصر، بسته به نمونه) و مدلی دارم که دارای برخی باقیمانده های تصادفی است. من از آزمون کولموگروف-اسمیرنوف استفاده کردم تا مطمئن شوم که فرضیه نرمال بودن را نمی توان رد کرد، بنابراین فرض می کنم که باقیمانده ها به طور معمول توزیع شده اند. اما حالا حدس می زنم باید تست کنم که آیا آنها مستقل از یکدیگر هستند - تا اتورگرسیون وجود نداشته باشد؟ از کدام تست (ترجیحا تستی که به راحتی در جاوا قابل پیاده سازی باشد) استفاده کنم؟ | آزمون استقلال متغیرهای تصادفی |
78096 | من در حال اجرای یک تحلیل هستم و رویکردهای بسیار متفاوتی را امتحان کرده ام، برخی مکرر و برخی بیزی. حالا من می خواهم عملکرد یا تناسب مدل ها را با هم مقایسه کنم و فکر می کردم چگونه می توانم این کار را انجام دهم. اگر من فقط مدلهای بیزی داشتم، میتوانستم مدلها را بر اساس DIC، عوامل بیز و/یا بررسیهای پیشبینی پسین مقایسه کنم. اگر من فقط مدل های متداول داشتم، می توانستم برای مثال از AIC یا BIC استفاده کنم. آیا اعتبار سنجی متقاطع کنار گذاشته شود در اینجا مناسب است؟ | مقایسه مدل های بسیار متفاوت |
99126 | درک معنای نمونه تصادفی و همچنین متغیر تصادفی iid با مشکل مواجه شده ام. من سعی کردم معنی را از چندین منبع پیدا کنم، اما بیشتر و بیشتر گیج شدم. من آنچه را که سعی کردم و دانستم را اینجا پست می کنم: احتمال و آمار Degroot می گوید: > نمونه های تصادفی / i.i.d. / اندازه نمونه: یک احتمال > توزیع را روی خط واقعی در نظر بگیرید که می تواند با یک p.f نمایش داده شود. یا a > p.d.f. F$. گفته می شود که $n$ متغیرهای تصادفی $X_1، . . . اگر این متغیرهای تصادفی > مستقل و p.f حاشیه ای باشند، X_n$ از این توزیع یک نمونه تصادفی > تشکیل می دهند. یا p.d.f. هر یک از آنها $f$ است. به چنین متغیرهای تصادفی > مستقل و به طور یکسان > توزیع شده، به اختصار i.i.d نیز گفته می شود. ما به تعداد n متغیرهای تصادفی > به عنوان حجم نمونه اشاره می کنیم. اما یکی از کتابهای آماری دیگری که دارم میگوید: > در یک نمونهگیری تصادفی، ما تضمین میکنیم که هر واحد فردی در > جمعیت شانس (احتمال) مساوی برای انتخاب شدن دارد. بنابراین، من این احساس را دارم که i.i.d.s عناصری هستند که نمونه تصادفی را می سازند، و روش نمونه گیری تصادفی، نمونه گیری تصادفی است. درست میگم؟ P.S.: من در مورد این موضوع بسیار سردرگم هستم، بنابراین از پاسخ دقیق سپاسگزارم. با تشکر | آیا «نمونه تصادفی» و «متغیر تصادفی iid» مترادف هستند؟ |
107541 | از آنجایی که رویداد من به خصوص نادر نیست، من بیشتر به نسبتهای ریسک علاقهمندم تا نسبتهای شانس برای مسئله مدلسازی خطی تعمیمیافته فعلیام، که به رگرسیون منظم نیاز دارد. من در حال انجام رگرسیون منظم با «glmnet» هستم. من میدانم که میتوانید اثرات نسبت ریسک را به جای اثرات نسبت شانس با برازش رگرسیون پواسون با واریانس خطای قوی بدست آورید، که ترجیح داده میشود زیرا عدم استفاده از واریانس خطای قوی، فواصل اطمینان شما را افزایش میدهد. خوب «glmnet» فواصل اطمینان را ارائه نمی دهد، بنابراین من فقط به تخمین های نقطه ای نگاه می کنم. سوال من این است که آیا میتوانم یک رگرسیون پواسون را با استفاده از «glmnet» به دادههای باینری بگنجانم، بدون اینکه ضرایبی به صفر کاهش یابد، زیرا «glmnet» با واریانس خطا رفتار نمیکند. متشکرم. | رگرسیون پواسون در نتایج باینری با glmnet؟ |
79968 | من یک سوال در مورد رگرسیون مولفه اصلی (رگرسیون یک DV روی اجزای اصلی) دارم. من 4 جزء در PCR خود دارم و جزء سوم به عنوان یک پیش بینی کننده غیر قابل توجه است. این به چه معناست؟ جالب است که مؤلفه چهارم ضعیفتر با این حال قابل توجه است. کسی می تواند این را برای من توضیح دهد؟ | مولفه های اصلی غیر معنی دار به عنوان پیش بینی کننده در یک رگرسیون |
97346 | من یک سوال دارم که برایم گیج کننده است و امیدوارم بتوانم پاسخ هایی را در اینجا پیدا کنم :). فرض کنید سیگنال های زیادی دارم، مثلاً چهار $X_1، X_2، X_3، X_4$ فرض کنید من مجموعه ای از پنجره های $w_1، w_2، \dots، w_n $ دارم، در هر پنجره، هر سیگنال از توزیع پواسون پیروی می کند، به عنوان مثال: $ X_i \sim Poisson(\lambda_i) $. کاری که میخواهم انجام دهم این است که پنجرههایی را پیدا کنم که برای برخی از سیگنالها ارزش بالایی نشان میدهند و برای برخی دیگر نه، به عنوان مثال دارای ارزش بالا برای X_1، X_2 دلار و سیگنال کم برای X_3، X_4 دلار هستند. یک ایده که به ذهن من میرسد. این است که از یک روش ANOVA مانند استفاده کنید که در آن گروه اول شامل $ X_1، X_2 $ و دوم شامل $ X_3، X_4 $ است و آزمایش کنید که آیا مقادیر گروه به طور قابل توجهی **بزرگتر** است یا خیر. **پایینتر** از دیگری. از آنجایی که داده ها به طور معمول توزیع نمی شوند، من فکر می کنم از یک مدل GLM استفاده می کنم، اما به نظر می رسد بسته glm موجود در R و پایتون برای برابری تست می شود (امیدوارم اشتباه باشد). آیا این رویکرد معقول به نظر می رسد؟ اگر چنین است چگونه می توان این تست را با استفاده از بسته statsmodel R یا python انجام داد. پیشاپیش ممنون | بررسی کنید که آیا گروهی از سیگنال ها دارای ارزش قابل توجهی کمتر یا بالاتر از گروه دیگری با استفاده از GLM هستند |
97343 | من باید واگرایی KL را بین توزیع $q$ و توزیع قبلی $p$ محاسبه کنم، که هر دو گاوسی تک متغیره هستند، یعنی $KL(q|p)، q \sim \mathcal{N}(\mu, \ sigma^2)، p \sim \mathcal{N}(\mu', \sigma'^2)$. این اصطلاح بخشی از یک فرمول بزرگتر است که به نوعی توجیه شده است که به این سؤال مربوط نیست. حالا، راستش را بخواهید، نمیخواهم فرضیات _any_ را روی $p$ قرار دهم، جز اینکه گاوسی است. شهود من این است که بگویم اگر این کار را انجام دهم، فقط می توانم بگویم $p=q$ و بنابراین $KL(p|q) = 0$. نمیدانم راهی برای بیان این شهود به ریاضی مناسب وجود دارد یا خیر. من در مورد پیشین های غیر اطلاعاتی مطالعه کردم، اما چیزی در مورد محاسبه واگرایی KL در این سناریو پیدا نکردم. **به روز رسانی:** سعی می کنم سوال را واضح تر بیان کنم. من دو توزیع دارم. یکی قبلی است، دیگری توسط داده ها هدایت می شود. پیشین من به هیچ محدوده پارامتری مرتبط نیست (مثلاً به شکل پیشین مزدوج)، بلکه فقط در شکل عملکردی آن (یعنی خانواده توزیع) مشخص شده است. در چارچوبهای معمولی بیزی، به چنین چیزی، پیشین اطلاعاتی گفته میشود. آیا همین مفهوم برای توابع هدف مبتنی بر KL وجود دارد؟ | واگرایی KL بین یک گاوسی غیر اطلاعاتی (؟) و یک گاوسی |
97347 | چگونه می توانم دقت کد رگرسیون لجستیک خود را که دقت را با استفاده از تکنیک اعتبارسنجی متقاطع 10 برابری آزمایش می کند، بهبود بخشم؟ من این کد را با استفاده از 'glmfit' و 'glmval' پیاده سازی کرده ام. دقت مورد نظر تا حدودی بالاتر است و نیاز به یافتن پارامترها با استفاده از برآوردگر حداکثر درستنمایی دارد. همچنین وقتی این کد را در متلب اجرا می کنم، با خطای زیر مواجه می شوم > Warning: X is ill conditioned یا مدل overparameterized و برخی > ضرایب قابل شناسایی نیستند. در انجام > پیش بینی ها باید احتیاط کنید. در glmfit در 245 در LR در 8 کد این است: تابع LR( X,y) y(y==-1)=0; X=[اونی(اندازه(X,1),1) X]; disp(اندازه(X,2)); indices = crossvalin('Kfold',y,10); برای آزمون i = 1:10 = (شاخص ها == i); قطار = ~ آزمون; b = glmfit(X(train,:),y(train),'dunomial','logit'); y_hat= glmval(b,X(test,:),'logit'); y_true=y(تست،:); error(i)=mean(abs(y_true-y_hat)); دقت پایان=(1-خطا)*100; fprintf('accuracy= %f +- %f\n',mean(accuracy),std(accuracy)); پایان | چگونه می توانم دقت کد رگرسیون لجستیک خود را که دقت را با استفاده از تکنیک اعتبارسنجی متقاطع 10 برابری آزمایش می کند، بهبود بخشم؟ |
24925 | در مطالعهام، چندین متغیر پیشبینیکننده و همچنین متغیر/نتیجههای وابسته دارم. من فشار نظری زیادی برای انتخاب هر متغیری نسبت به متغیر دیگر ندارم و تصمیمگیری درباره رگرسیونها ناامیدکننده است. بنابراین من همبستگی بین همه متغیرها، IV و DV را اجرا کردم تا ببینم کدام یک رابطه دارند. آیا این مورد اخم است؟ آیا می توانم از این اطلاعات برای اطلاع از اینکه کجا بیشتر جستجو کنم استفاده کنم؟ آیا همبستگی ها مستعد خطای خانوادگی هستند؟ | آیا انجام همبستگی و سپس رگرسیون مناسب است؟ |
113839 | من از تابع nls در R برای انجام یک رگرسیون غیرخطی استفاده می کنم و باید باقیمانده های دانشجویی را محاسبه کنم. آیا این چیزی است که باید به صورت دستی انجام دهم؟ به نظر می رسد که برای انجام این کار باید به صورت دستی یک تجزیه QR انجام دهم و ماتریس کلاه را محاسبه کنم. من با انجام این کار مشکلی ندارم اما می خواستم بپرسم آیا کسی راه ساده تری برای انجام این کار می داند؟ | باقیمانده های دانشجویی در رگرسیون غیرخطی |
2635 | من باید نرخ شکست (به عنوان قطعی) را بر اساس نرخ جدید خرابی در مورد همان سیستم به روز کنم (این نیز قطعی است). من در مورد پیشینهای مزدوج و توزیع گاما به عنوان مزدوج برای فرآیند پواسون مطالعه کردم. همچنین، من می توانم مقدار میانگین فاصله گاما را معادل سازی کنم. ($\beta/\alpha$) به نرخ جدید (به عنوان مقدار متوسط) اما اطلاعات دیگری مانند انحراف معیار، ضریب تغییرات، مقدار صدک 90 و ... ندارم. آیا یک راه جادویی برای دستکاری آن و یافتن پارامترهای گامای قبلی وجود دارد، بنابراین من گامای پسین را نیز دریافت می کنم؟ | مزدوج قبل برای توزیع گاما |
12922 | من از عرض Silhouette برای محاسبه بهترین مقدار برای k در k-means استفاده می کنم. همانطور که در حال انجام خوشهبندی اسناد هستم، مقادیر «a» و «b» را به صورت زیر در پایتون محاسبه میکنم: a = distance(data[index]، centroids[clusters[index]]، metric=metric، p=p) b = min([فاصله(داده[شاخص]، ج) برای i,c در enumerate(سنتروئیدها) اگر i != نمایه فعلی]) امتیاز = شناور(b - a) / max(a, b) if max(a, b) > 0 else 0.0 فرمول اصلی از صفحه ویکی پدیا به شرح زیر است:  من از یک معیار تشابه «کسینوس» برای محاسبه فواصل استفاده میکنم و در این فکر بودم که آیا این فرمول نیاز به تغییر دارد یا میتوان آن را همانطور که هست رها کرد. در قطعه کد بالا، تابع 'distance' متریک شباهت کسینوس را محاسبه می کند. | آیا فرمول silhouette بسته به متریک فاصله تغییر می کند؟ |
78091 | من سعی می کنم مدل ARIMAX را پیاده سازی کنم. من ویژگی های برون زا زیادی دارم و نمی دانم کدام یک در پیش بینی متغیر درون زا من مهم هستند. آیا ARIMAX دارای نوعی انتخاب ویژگی بومی است که فقط وزن کمتری را برای متغیرهایی که اهمیت ندارند و وزن بیشتری را برای متغیرهایی که مهم هستند قرار می دهد؟ اگر نه، آیا باید از نوعی الگوریتم انتخاب ویژگی برای تعیین اینکه کدام متغیرها مهم هستند استفاده کنم؟ | انتخاب ویژگی ARIMAX |
113836 | اغلب ما گرافیک های مرتبط را برای درک بهتر یک مشکل ترکیب می کنیم. ما این کار را برای گفتگوهای پوستری در تحقیقات انجام می دهیم (اگرچه ما متن را اضافه می کنیم). بسیاری از اینفوگرافیک ها نیز مانند داشبورد این کار را انجام می دهند. مشکل این است که من اصطلاح مناسبی را برای **ترکیب گرافیک های مرتبط**، از جمله نمودارهای استاتیک، نمی دانم. گرافیک های شبکه ای، وجهی، یا شبکه ای (زیرمجموعه ای از آنچه Tufte آن را چندگانه می نامد) که در آن داده ها به دو یا چند متغیر گروه بندی تقسیم می شوند، چیزی نیستند که در مورد آن صحبت می کنم زیرا هر وجهی همان نوع گراف است. منظور من از ترکیب نمودارهای مرتبط معمولاً بدون متن است، همانطور که در یک پوستر انجام می دهیم. در اینجا مثالی در «ggplot2» آمده است که در آن شخصی چندین گرافیک را در اطراف یک رویداد خاص ترکیب کرده است:  من این کار را با «arrangeGrob» انجام می دهم، grid.arrange یا par(mfrow=c()) \+ layout (گاهی اوقات) در R. مایلم این را صدا کنم یک داشبورد به عنوان یک اطلاعات گرافیکی می تواند این نوع نمایشگر باشد، اما یک اطلاعات گرافیکی ممکن است فقط یک نمودار داشته باشد (من معمولاً فکر می کنم اکثر نمودارها نمودار اطلاعاتی هستند). این وب سایت می گوید که استفان فیو در مورد داشبوردها می گوید: > داشبورد نمایشی بصری از مهم ترین اطلاعات مورد نیاز برای > رسیدن به یک یا چند هدف است. ادغام و مرتب شده بر روی یک صفحه > به طوری که اطلاعات را می توان در یک نگاه نظارت کرد. به نظر می رسد این نزدیک ترین اصطلاحی است که من مطرح می کنم، اما مطمئن نیستم. به این معنی است که نمایشگر باید روی رایانه باشد. توضیحات من محدود به کامپیوتر نیست، به عنوان مثال می توانم آن را روی کاغذ چاپ شده در یک مجله نمایش دهم. شاید اصطلاح(های) بهتری نسبت به داشبورد وجود داشته باشد. **واژه(های) مورد استفاده برای ترکیب انواع مختلف نمودارها (یعنی غیر وجهی) و در عین حال مرتبط در یک نمایشگر منفرد چیست؟** | نامی برای ترکیب گرافیک های مرتبط |
78095 | فاصله اقلیدسی با شباهت هسته خطی مطابقت دارد از طریق: $$d_\text{Euclidean}(x,y)^2=\sum_i (x_i-y_i)^2=\sum_i x_i^2 + y_i^2 - 2 x_i y_i = \left<x,x\right>+\left<y,y\right>-2\left<x,y\right>$$ آیا مطابقت هسته با فاصله منهتن و سایر هنجارهای $L_p$ وجود دارد (مینکوفسکی معیارها)؟ یا به نحوی تابع هسته را نیز ارائه نمی دهند؟ من سعی می کنم بفهمم این خانواده محبوب معیارها چگونه با شباهت هسته ارتباط دارند. | تفسیر هسته فاصله منهتن / هنجارهای Lp |
97349 | من داشتم به مثال زیر نگاه می کردم اما هیچ راه حلی پیدا نکردم... > اقلام از تعداد زیادی یک به یک بررسی می شوند تا اینکه موارد r با نقص ساخت نادر > پیدا شود. نسبت اقلام با این نوع نقص > در لات $'p'$ شناخته شده است. اجازه دهید $X$ تعداد مواردی را که باید بررسی شوند را نشان دهد. توزیع احتمال $X$ را استخراج کنید و > $E\left (X \right)$ را پیدا کنید. من فکر می کنم این مربوط به تابع بیش از حد هندسی است، اما نمی توان جلوتر رفت. | توزیع احتمال بیش از حد هندسی در مسئله نقص آیتم |
113835 | میخواهم بفهمم رگرسیونهای حداقل مربعات وزندار چگونه برای پیادهسازی آن در زمینه پیچیدهتر کار میکنند. فکر میکنم قدم خوبی در این فرآیند هستم، اما هنوز در این فکر هستم که روش صحیح محاسبه ضرایب استاندارد شده برای یک رگرسیون وزنی چیست. من یک مدل ساده با Y به عنوان وابسته و X1-X3 به عنوان متغیرهای مستقل و وزن W. همبستگی کتابخانه (MASS) ایجاد کردم. ماتریس <- matrix(c(1,0,0,0,0,1,0,0,0 ,0,1,0,0,0,0,1),nrow=4) نمونه.اندازه <- 500 میانگین.بردار <- c(1,2,3,0) پیوسته.داده <- به عنوان. 2*X[,1]+1*X[,2]+4*X[,3]+sqrt(2)*E+2 W <- runif(500,0,1) Wd<-diag(W) Xi <- cbind(rep(1500),X) سپس استراتژیهای محاسباتی مختلف را آزمایش کردم و آنها را با نتایج SPSS مقایسه کردم. چرا SPSS؟ زیرا تخمینهای استاندارد و غیراستانداردی را برای رگرسیونهای وزنی ارائه میکند و افرادی که من برای آنها کار میکنم معمولاً از SPSS استفاده میکنند. رگرسیون های بدون وزن (1 و 2) البته مشکلی ندارند و همیشه بین محاسبات R من و SPSS برابر هستند. نتایج رگرسیون وزنی غیراستاندارد نیز بین رویکردهای محاسباتی برابر و برای من واضح است (3). با این حال، با (4) من کاملاً متوجه نمی شوم که چرا SPSS از متغیرهای استاندارد شده به عنوان ورودی استفاده می کند، آنها را وزن می کند و دوباره آنها را استاندارد می کند (4c). من فکر کردم که این درست نیست و انتظار داشتم که 4b درست باشد. نظری در مورد این موضوع دارید؟ 1) رگرسیون غیر استاندارد بدون و با قطع // برابر با حل SPSS(t(X)%*%X)%*%(t(X)%*%Y) lm(Y~X[,1]+X[, 2]+X[،3]، وزنها=W) حل (t(Xi)%*%Xi)%*%(t(Xi)%*%Y) lm(Y~0+X[,1]+X[,2]+X[,3],weights=W) 2) رگرسیون استاندارد // برابر با SPSS Xs <- scale(X) Ys <- scale(Y ) حل (t(Xs)%*%Xs)%*%(t(Xs)%*%Ys) حل (cor(X))%*%cor(X,Y) حل(var(Xs))%*%cov(Xs,Ys) lm(Ys~Xs[,1]+Xs[,2]+Xs[,3]) 3) رگرسیون وزنی غیر استاندارد بدون و با قطع // برابر به SPSS Xw <- X*sqrt(W) Yw <- Y*sqrt(W) حل(t(Xw)%*%Xw)%*%(t(Xw)%*%Yw) حل(t(X)%*%Wd%*%X)%*%(t(X)%*% Wd%*%Y) lm(Ys~Xs[,1]+Xs[,2]+Xs[,3],weights=W) 4a) رگرسیون وزنی استاندارد (اول استاندارد شده، سپس وزندار) // نه!!! برابر با SPSS Xsw <- Xs*sqrt(W) Ysw <- Ys*sqrt(W) حل(t(Xsw)%*%Xsw)%*%(t(Xsw)%*%Ysw) حل(t(Xs )%*%Wd%*%Xs)%*%(t(Xs)%*%Wd%*%Ys) حل(var(Xsw))%*%cov(Xsw,Ysw) 4b) رگرسیون وزنی استاندارد شده (اول وزن شده، سپس استاندارد شده) // نه!!! برابر با SPSS Xws <- scale(Xw) Yws <- scale(Yw) حل(t(Xws)%*%Xws)%*%(t(Xws)%*%Yws) حل(cor(Xw))%* %cor(Xw,Yw) 4c) رگرسیون وزنی استاندارد شده (اول استاندارد شد، سپس وزن شد، سپس دوباره استاندارد شد) // برابر با SPSS با Intercept! Xsws <- مقیاس(Xsw) Ysws <- مقیاس(Ysw) حل(t(Xsws)%*%Xsws)%*%(t(Xsws)%*%Ysws) حل(cor(Xsw))%*%cor( Xsw,Ysw) با تشکر جان-مایکل | حداقل مربعات وزنی با ضرایب استاندارد |
95783 | لطفا ابتدا به این پیوند نگاهی بیندازید: http://en.wikipedia.org/wiki/Ljung%E2%80%93Box_test#Formal_definition نوشته شده است $\chi_{1-\alpha,h}^2$ $\alpha$-quantile توزیع مربع خی با درجه آزادی $h$. آیا $\chi_{1-\alpha,h}^2$ به این معنی است: 1. ناحیه زیر نمودار $\chi^2(h)$ از $\chi_{1-\alpha,h}^2$ تا $\infty$ است $\alpha$ یا 2. ناحیه زیر نمودار $\chi^2(h)$ از $\chi_{1-\alpha,h}^2$ تا $\infty$ است $1-\alpha$؟ | چندک آلفا مربع کای |
78093 | من یک رگرسیون لجستیک بر روی تأثیر دوز، سن، PS، یائسگی و pairID بر متغیر پاسخ اعمال میکنم. دادهها از یک مطالعه مورد-شاهدی به دست میآیند که در آن کنترلها بر اساس سن، PS و یائسگی همسان یا جفت شدند. سپس شناسه جفت به عنوان PairID ثبت می شود و همچنین یک متغیر کمکی در مدل است. حالت این است: mod2 <- glm (پاسخ ~ دوز + سن + PS + یائسگی + شناسه زوجی، خانواده = دوجمله ای (لینک = logit)، داده = داده) خروجی مدل ضریب تخمینی را نشان می دهد: خلاصه (mod2) انحراف باقیمانده: حداقل 1Q Median 3Q Max -0.89847 -0.36858 -0.05885 -0.02615 3.00978 ضرایب: (2 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -32.73273 11.42767 -2.864 0.004179 ** MaxDose 0.07984 0.02287 3.491 0.000482 *** سن 0.000482 *** سن 0.62249.0 0.021910 * PS1 -0.39054 0.89232 -0.438 0.661628 PS2 17.09581 1268.45566 0.013 0.989247 PS3 15.763341 15.76332011501. 0.993139 menopausalpost -12.55850 5.28287 -2.377 0.017444 * یائسگی -23.87464 10.51685 -2.270 0.023200 * 143200 * 143200. 0.088754. PairID3 3.60030 2.20299 1.634 0.102200 PairID4 -13.42706 6.47253 -2.074 0.038036 * PairID5 -0.16041 1.50785 -0.1015 -0.16041 -0.16041 PairID4 -13.20065 1268.45572 -0.010 0.991697 PairID7 -19.62178 1833.21665 -0.011 0.991460 PairID8 -7.08125 3.555920 -1. -0.05779 1.84367 -0.031 0.974994 PairID10 -6.59761 3.44665 -1.914 0.055593. PairID11 3.13177 1.55304 2.017 0.043744 * PairID12 9.04193 4.16930 2.169 0.030106 * PairID13 15.00443 7.033744 PairID12 7.033528 1.00987 1.58307 0.638 0.523527 PairID15 5.45367 2.91475 1.871 0.061336. PairID16 -3.13399 2.18068 -1.437 0.150672 PairID17 6.85244 3.63025 1.888 0.059081. PairID18 5.60300 3.02755 1.851 0.064217. PairID19 NA NA NA NA PairID20 -11.53556 5.23541 -2.203 0.027569 * PairID21 -11.09677 5.23554 -2.120 0.034048 * 0.034048 * 0.034048 * 2.203.31196. 0.051799 . PairID23 NA NA NA NA PairID24 -18.62866 1268.45749 -0.015 0.988283 PairID25 4.83989 1.81209 2.671 0.007565 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 226.13 در 540 درجه آزادی انحراف باقیمانده: 167.6 در 511 درجه آزادی AIC: 227.62 تعداد تکرارهای Fisher Scoring: 17 از این خروجی به نظر می رسد که یائسگی متغیر تأثیر قابل توجهی دارد. با این حال، اگر تجزیه و تحلیل انحراف را برای آزمایش اهمیت هر یک از متغیرهای کمکی اعمال کنم، یائسگی متغیر df=0 را نشان می دهد. کسی میدونه چرا؟ drop1 (mod2، تست = Chisq) حذفهای یکباره مدل: جمعشده ~ MaxDose + Age + PS + یائسگی + PairID Df Deviance AIC LRT Pr(>Chi) <هیچ> 167.62 227.62 MaxDose 1 213.085 213.0827 1.557e-11 *** سن 1 175.22 233.22 7.602 0.005829 ** PS 3 173.49 227.49 5.868 0.118227 یائسگی 0 167.602 227. 186.31 202.31 18.684 0.664773 | چرا تحلیل انحراف glm برای یک متغیر کمکی df=0 می دهد؟ |
24078 | آیا می توان تحلیل مؤلفه های اصلی را روی متغیرهایی که تعداد ردیف های داده متفاوتی دارند انجام داد؟ به عنوان مثال، اگر فقط سه متغیر وجود داشت - Var1، Var2، Var3 - که در آن Var1 دارای 100 ردیف داده، Var2 دارای 50 ردیف و Var3 دارای 20 ردیف است. آیا PCA روی چنین مجموعه داده ای قابل انجام است؟ اگر PCA امکان پذیر است، آیا به سادگی موارد خالی را صفر کنم یا به نوعی تغییر نیاز است؟ اگر ابعاد همه متغیرها یکسان بود (به عنوان مثال Var1، Var2، Var3 همه دارای 100 ردیف داده هستند)، مشکلی وجود نداشت. متأسفانه مجموعه داده های من چندان بی اهمیت نیست. لطفا راهنمایی کنید. با تشکر | استفاده از تحلیل مؤلفه های اصلی بر روی متغیرهای ابعاد مختلف؟ |
82259 | اخیراً با مدلهای شبکههای عصبی مصنوعی بازی میکردم و به مشکلی برخوردم که نمیتوانم آن را بفهمم. اساساً، من در حال بازی با مدلی هستم که بر روی یک نمونه نسبتاً کوچک آموزش داده شده است که عملکرد پیشبینی شده مدل شبکههای عصبی آموزشدیده از آن محدود است. با این حال، متوجه شدم که اگر چندین بار مدل را اجرا کنم، میانگین پیشبینی نمونه رضایتبخشتر است. سوال من این است که آیا این روش معتبری برای استفاده از نتایج پیش بینی شده است؟ آیا راه دیگری وجود دارد که من باید به دنبال رسیدن به هدفی مشابه باشم؟ | آیا برای محاسبه میانگین نتایج چند شبکه عصبی معتبر است؟ |
9595 | من از یک مدل تاخیر توزیع شده برای تجزیه و تحلیل داده های سری زمانی استفاده می کنم. مدت زمان مطالعه 18 سال است و مشاهده سالانه است. زمانی که یک اثر تاخیر 1 ساله لحاظ شود، اولین سال متغیر تاخیر از بین می رود. سپس، یک اثر تاخیر 2 ساله باعث می شود که دو داده اول متغیر تاخیر گم شوند و غیره. من قصد دارم پنج اثر تاخیر را در مطالعاتم تجزیه و تحلیل کنم، اما پنج متغیر تاخیر باعث 5 داده از دست رفته شدند. من فرض میکنم انتساب چندگانه ممکن است به من در غلبه بر از دست دادن اطلاعات در این متغیرهای تاخیر کمک کند، اما نتیجه انتساب معقول نیست. آیا ایده بهتری برای نسبت دادن داده های از دست رفته در متغیرهای تاخیر وجود دارد؟ | چگونه از دست دادن اطلاعات از متغیرهای تاخیر کم کنیم؟ |
24079 | من کاملاً مطمئن هستم که مقدار مطلق کوواریانس فاصله 1 را برآورده می کند. هویت غیر قابل تشخیص ها یا بدیهیات تصادفی) 3. d(x, y) = d(y, x) (تقارن) اما در مورد: 4) d(x, z) ≤ d(x, y) + d(y, z) (subadditivity / نابرابری مثلث) مطمئن نیستم. من به طور خاص به فضایی از سریالهای زمانی فکر میکنم، اما فکر نمیکنم که خیلی مهم باشد. | آیا قدر مطلق کوواریانس فاصله یک متریک است؟ |
107544 | R در پردازش داده ها خوب است. این یک توربو جینسو تحلیلی است. بنابراین LabVIEW در دریافت داده عالی است. به هر چیزی با الکترود متصل می شود. MatLab دارای simulink است. جعبه ابزارهایی برای جمع آوری داده ها وجود دارد. R چه چیزی دارد؟ آیا به سخت افزار متصل می شود یا برای آن خیلی آزمایشگاهی است؟ رابط R با سخت افزار برای جمع آوری داده هایی که به زیبایی تجزیه و تحلیل می کند چیست؟ در ارتباط با روش جمع آوری و با روش تجزیه و تحلیل است که می تواند متقابلا آموزنده باشد. اگر ورودی ویدیو دارم و میخواهم ردیابی تصویر دو بعدی انجام دهم، چرا از R استفاده کنم؟ من این کار را نمی کنم زیرا نمی تواند محصول نهایی را مطلع کند. این کتابخانه دارای کتابخانه های بزرگی است که وسعت حوزه ریاضیات را طی می کنند، که توسط بهترین های این رشته ساخته شده اند، بنابراین آنها به طور قابل ملاحظه ای صحیح هستند. این در دنیای محصول محور هیچ معنایی ندارد. شما باید بتوانید کار خود را تولید کنید. متلب دارای کامپایلر متلب است. LabVIEW کامپایل شده و دارای زمان اجرا مستقل است. هر دو از یک طرف به سخت افزار متصل می شوند و از طرف دیگر کاربر با ریاضیات خوب در وسط. R آن را ندارد - یا دارد؟ لیست بسته، مستندات و نمونه برای این پاسخ درخواست شده است. | اکتساب داده در R |
2585 | من نمونه بزرگی از دادههای بازار دارم - یعنی قیمتها و مقدار کالاهایی که توسط فروشندگان در مقاطع زمانی خاص، اما متناقض فروخته میشوند. با فرض اینکه من یک خریدار هستم و کیفیت کالا در کل بازار ثابت است (مثلاً کالاهای مصرفی یک تولید کننده)، چگونه این داده ها را نمودار می کنید؟ به خاطر داشته باشید که ممکن است موارد پرت وجود داشته باشد (فروش آتش سوزی یا قیمت های درخواستی متورم). از آنجایی که من فقط در یک لحظه خاص نگران کالاهای با کمترین قیمت هستم، میانگین بازار کار زیادی برای من انجام نمی دهد مگر اینکه بیشتر عرضه بازار را بخرم. من یک طرح جعبه ای را در نظر گرفتم، اما آن نیز به سمت متوسط/متوسط گرایش دارد. به نظر می رسد یک نمودار خط/منطقه/نوار ساده از پایین ترین قیمت ها در طول زمان اطلاعات کافی را ارائه نمی دهد، به خصوص اگر حجم زیادی با کمترین قیمت در دسترس نباشد. *من آدم آماری نیستم، پس راحت باش! | نمودار قیمت های ارزان قیمت کالاها در یک بازار در طول زمان |
24072 | من آزمایش ریشه واحد زیر (Dickey-Fuller) را روی یک سری زمانی با استفاده از تابع ur.df() در بسته urca اجرا می کنم. دستور این است: summary(ur.df(d.Aus، type = drift، 6)) خروجی این است: ####################### ####################### # تست ریشه واحد تست دیکی-فولر تقویت شده # ############################################# رانش رگرسیون تست تماس: lm(فرمول = z.diff ~ z.lag.1 + 1 + z.diff.lag) باقیمانده ها: حداقل 1Q Median 3Q Max -0.266372 -0.036882 -0.002716 0.036644 0.230738 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.001114 0.003238 0.344 0.73089 z.lag.1 -0.010656 0.006080 -1.753 0.08031. z.diff.lag1 0.071471 0.044908 1.592 0.11214 z.diff.lag2 0.086806 0.044714 1.941 0.05279. z.diff.lag3 0.029537 0.044781 0.660 0.50983 z.diff.lag4 0.056348 0.044792 1.258 0.20899 z.diff.lag5 0.1190447 0.119447 0.00811 ** z.diff.lag6 -0.082519 0.045237 -1.824 0.06874. --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 خطای استاندارد باقیمانده: 0.06636 در 491 درجه آزادی. -1.7525 1.6091 مقادیر بحرانی برای آمار آزمون: 1pct 5pct 10pct tau2 -3.43 -2.86 -2.57 phi1 6.43 4.59 3.78 1. کدهای اهمیت (کدهای Signif.) به چه معنا هستند؟ متوجه شدم که برخی از آنها مخالف نوشته شده اند: z.lag.1، z.diff.lag.2، z.diff.lag.3 (کد اهمیت .) و z.diff.lag.5 ( ** کد اهمیت). 2. خروجی دو (2) مقدار از آمار آزمون را به من می دهد: -1.7525 و 1.6091. من می دانم که آمار تست ADF اولین مورد است (یعنی -1.7525). اونوقت دومی چیه؟ 3. در نهایت، برای آزمایش فرضیه ریشه واحد در سطح معنی داری 95 درصد، باید آمار آزمون ADF خود را (یعنی -1.7525) با یک مقدار بحرانی که معمولاً از یک جدول بدست میآورم، مقایسه کنم. به نظر می رسد خروجی در اینجا مقادیر بحرانی را به من می دهد. با این حال، سوال این است: از کدام مقدار بحرانی بین tau2 و phi1 باید استفاده کنم. از پاسخ شما متشکرم. | تفسیر نتایج R's ur.df (آزمون ریشه واحد دیکی-فولر). |
97342 | من به مدل زیر علاقه مند هستم: ($1 \leq i \leq p$, $1 \leq j \leq n_{i}$) $$y_{i,j} = A (1+a_{i})(t_ {i,j}+\gamma_{i}) + \varepsilon_{i,j}$$ جایی که $A \in \mathbb{R}$, $(a_{i})_{1 \leq i \leq p}$ یک $p$-نمونه تصادفی از $\mathcal{N}(0,\sigma_{a}^{2})$ و $(\gamma_{i})_{1 \leq i \ leq p}$ یک $p$-نمونه تصادفی از توزیع $\mathcal{N}(0,\sigma_{\gamma}^{2})$ است، مستقل از $(a_{i})_{1 \leq i \leq p}$. $(\varepsilon_{i,j})_{i,j}$ یک نمونه تصادفی از $\mathcal{N}(0,\sigma^{2})$ است، مستقل از $(a_{i})_ {i}$ و $(\gamma_{i})_{i}$. با توجه به برخی مشاهدات $(y_{i,j},t_{i,j})_{i,j}$، میخواهم پارامترهای مدل را تخمین بزنم ($A,\sigma_{a}^{2},\ sigma_{\gamma}^{2}،\sigma^{2})$. من تعجب می کنم که آیا این امکان پذیر است؟ من برخی از دادههای مصنوعی را با استفاده از مدل در Matlab ایجاد کردم و سعی کردم پارامترهای مدل را با استفاده از `nlmefit` (برای مدلهای غیرخطی با اثرات مختلط) تخمین بزنم، اما مقادیر تخمین زده شده برای $A$ و $\sigma_{a}$ بود (به ترتیب ) سه برابر کوچکتر (و سه برابر) بزرگتر از مواردی که برای ایجاد داده استفاده کردم. این باعث می شود به این فکر کنم که آیا مدل قابل شناسایی است یا خیر. آیا می توانید دلیل دیگری برای این موضوع ببینید؟ | آیا این قابل شناسایی است؟ |
20970 | هنگام اجرای تابع مدلسازی خطی خودکار SPSS نسخه 20، مقدار دقت را برمی گرداند. هرچه دقت بالاتر باشد، مدل پیش بینی بیشتری دارد (من فرض می کنم). با این حال، این دقت واقعاً چه چیزی را نشان می دهد؟ R2 هست؟ R2 تنظیم شده؟ چیز دیگری؟ | دقت در خروجی مدلسازی خطی خودکار SPSS به چه معناست؟ |
78098 | مدل انتخاب هکمن را در نظر بگیرید که در آن متغیر وابسته من برای مرحله دوم به شکل گزارش است. من میخواهم تفاوت مشتق محاسباتی انتظارات غیرشرطی را هنگام استفاده از فرم ورود به سیستم در مقابل فرم سطح پیدا کنم. \begin{equation} \frac{\partial E(\log y)}{\partial x}- \frac{\partial E(y)}{\partial x} \end{equation} همچنین میخواهم بدانم که آیا \ begin{ equation} \frac{\partial E(\log y)}{\partial x} \end{equation} یکسان است با \begin{equation} \frac{\partial \log E(y)}{\partial x} \end{equation} یک اشاره یا ارجاع سریع به مقاله قابل قدردانی است. | استفاده از log در مقابل متغیر سطح در مرحله دوم هکمن |
20977 | ما آماردانان بسیاری از کلمات را به روش هایی استفاده می کنیم که کمی با روشی که دیگران از آنها استفاده می کنند متفاوت است. این باعث ایجاد مشکلات زیادی در هنگام آموزش یا توضیح آنچه انجام میدهیم میشود. من یک لیست را شروع می کنم (و اکنون برخی از تعاریف را برای هر نظر اضافه می کنم): * قدرت توانایی رد صحیح یک فرضیه صفر نادرست است. معمولاً این به معنای درست گفتن چیزی در حال رخ دادن است است. * سوگیری - یک آمار اگر به طور سیستماتیک با پارامتر جمعیت مرتبط با آن متفاوت باشد، مغرضانه است. * اهمیت - نتایج در شرایط زیر در برخی از درصد (اغلب 5٪) از نظر آماری معنیدار هستند: اگر جامعهای که نمونه از آن گرفته شده است دارای اثر واقعی 0 باشد، آماری حداقل به اندازه آماری که از نمونه به دست میآید، تنها خواهد بود. 5 درصد مواقع رخ می دهد. * تعامل - اگر رابطه بین متغیر وابسته و یک متغیر مستقل در سطوح مختلف متغیر مستقل دیگر متفاوت باشد، دو متغیر مستقل با هم تعامل دارند، اما باید بسیاری دیگر وجود داشته باشد! | گیج کننده ترین اصطلاحات آماری |
9592 | اینجا یک مشکل است. من یک زمین شناس هستم، پس اگر فکر می کنید می توانید به من کمک کنید ... خوب، آرام آرام برو لطفا. من می خواهم یک متغیر پیوسته مانند تخلخل را از داده های سنجش از دور پیش بینی کنم. فرض کنید من یک اندازه گیری از بازتاب سطح زمین دارم که به صورت متراکم از یک منطقه نمونه برداری شده است. و من تخلخل سنگ در برخی مکان ها دارم. بنابراین من می خواهم اولی را به دومی کالیبره کنم و بازتاب را به تخلخل تبدیل کنم. از آنجایی که تخلخل _p_ مجهول است، من به طور غریزی آن را بر روی محور _y_ و در برابر بازتاب _r_ روی _x_ رسم می کنم. سپس یک رگرسیون خطی انجام دهید (بیایید وانمود کنیم که زندگی برای یک ماه به همین سادگی است)، و معادله من $p = a r + b$ را بدست آورید، و به راه خوش خود ادامه دهید. اما این احساس اشتباه است. انعکاس به تخلخل بستگی دارد (در فرضیه من، و بگذارید بگوییم که می دانیم در طبیعت این کار را می کند). بنابراین در واقع باید بازتاب را روی محور y در مقابل تخلخل روی _x_ ترسیم کنم. سپس معادله خطی من را بدست آورید، سپس مرتب سازی مجدد کنید تا برای $p = (r - b)/a$ حل شود. این رویکردها پاسخ های متفاوتی می دهند. من این را کمی تعجب آور دیدم. اکثر افرادی که در این مورد پرسیده ام می گویند، آیا مهم است؟ دارد، و تفاوت می تواند بسیار بزرگ باشد (چند درصد). ** رویکرد صحیح کدام است؟ چرا؟** (با ارزش است، پاسخ من رویکرد دوم است، زیرا به طبیعت «احترام» میگذارد، تا کمی انسانسازی شود... مطمئن نیستم واقعاً بتوانم خودم را بهتر توضیح دهم). متشکرم برای هر بینشی که هر کسی می تواند ارائه دهد، مت | کدام پارامتر در محور x برای رگرسیون خطی؟ |
107547 | من علاقه مند به آزمایش نحوه عملکرد کاربران در سه رابط کاربری مختلف هستم. در هر یک از این سه رابط، یک نفر 12 کار را امتحان می کند. بنابراین، هر شرکتکننده وظیفه 1 را سه بار، وظیفه 2 را سه بار، و غیره انجام میدهد. بنابراین، در اصل آزمایش شبیه به 3 در 12 (رابط x وظیفه) در طرح آزمودنیها است (که در آن هر فرد 36 کار را انجام میدهد). حجم نمونه در قسمت کوچک خواهد بود (تقریباً 12 شرکت کننده). من تعجب می کنم که چگونه داده های تکمیل را تجزیه و تحلیل کنم، که باینری است. اگر شرکتکنندهای در انجام یک کار موفق باشد، آنگاه یک امتیاز دریافت میکند. برای شکست، آنها نمره 0 میگیرند. در حالت ایدهآل، من تحلیلی را میخواهم که چیزی شبیه ANOVA باشد تا بتوانم ببینم آیا در رابطها، وظایف یا تفاوتهایی وجود دارد یا خیر. یک تعامل اگر بخواهم انتخاب کنم، بیشتر به تفاوت بین رابط ها علاقه مندم. | نحوه تجزیه و تحلیل دوطرفه طراحی درون سوژه ها با داده های باینری |
24074 | چگونه می توانم نمودارهای سانکی ایجاد کنم؟ | ابزار خوبی برای ایجاد نمودارهای سانکی چیست؟ |
78097 | من داده هایی دارم که در طول زمان تغییر می کنند و با یک مدل ساده قابل توصیف نیستند. در واقع ما اصلاً اهمیتی نمیدهیم که مدل چیست، فقط میخواهیم بدانیم که آیا در هر مقطع زمانی به طور قابل توجهی غیر صفر است یا خیر. در حالت ایدهآل، نتیجه همچنین به ما میگوید که در چه نقاط زمانی دادهها به طور قابلتوجهی با 0 متفاوت است. میتوان بوت استرپینگ را انجام داد، اما من نمیدانم که آیا روش خاصی برای ارزیابی اهمیت وجود دارد (نوع خاصی از ANOVA یا t. -تست با اصلاحات برای مقایسه های متعدد - اما چگونه می توان تعداد مقایسه ها را تعیین کرد زیرا داده ها به وضوح در زمان همبستگی دارند.). پیشاپیش متشکرم - مطمئنم که این یک مشکل رایج است، اما پس از ساعت ها مطالعه هنوز نمی توانم پاسخ روشنی پیدا کنم.  | چگونه می توان آزمایش کرد که آیا یک سری زمانی به طور قابل توجهی غیر صفر در هر نقطه از زمان است؟ |
106345 | فرض کنید یک نظرسنجی دارای پنج گویه با مقیاس لیکرت شش درجه ای است. با برچسبهای بد شکل منتشر شده است: *(2) با تا حدودی مخالف به جای مخالف برچسب زده شد - و بالعکس (3) با مخالف برچسبگذاری شد * بد شکلگیری مشابه برای (4) ) و (5): تا حدودی موافق و تا حدودی مخالف با هم مخلوط شدند. پاسخ دهندگان به معنای واقعی کلمه با 132546-وضعیت به جای موقعیت 123456 برای _برخی از موارد. شروع نظرسنجی با برچسب درست مشخص شد. اگر پرسشنامه های پاسخ داده شده باید مبنایی برای مدل سازی معادلات ساختاری باشد، آیا می توان این را با یک روش تعمیر هوشمندانه و آماری به عنوان بخشی از تجزیه و تحلیل داده ها ترمیم کرد؟ از دیدگاه من: واضح است که خیر، پرسشنامه باید یک بار دیگر به شکل صحیح ارسال شود. حتی اگر یک شرطی کلی برای پاسخ دادن به این پرسشنامه وجود داشته باشد، زیرا برچسب ها به ترتیب درست بودند، شرطی کردن یک مفهوم 100٪ نیست. بنابراین، دو چیز وجود دارد که ما نمی دانیم: **چند نفر** پرسشنامه را به معنای واقعی کلمه گرفتند و **چه کسی** آن را به معنای واقعی کلمه دریافت کردند. این یک نویز دوم را به مدل معادلات ساختاری معرفی می کند که از مقادیر p و غیره برای کمی کردن نویز استفاده می کند. حالا دیگر نویز «نویز» و «دوم» را نمی توان از هم جدا کرد. حتی اگر مقدار نسبی پاسخهای شرطی را میدانستیم، باز هم نمیدانستیم چه کسی به شکلی بدون قید و شرط پاسخ داده است - که دوباره با «صدای دوم» غیرقابل تفکیک خاتمه مییابد. به طور معمول من واقعاً آنقدر خشن نیستم. به همین دلیل: هر گونه اعتراض به دیدگاه من - آیا موضع من خیلی تند است؟ | نظرسنجی نامناسب با تجزیه و تحلیل قابل تعمیر است؟ |
9043 | من به پدرم کمک می کنم تا متنی را از زبان مادری ام لتونی به انگلیسی ترجمه کند. با وجود اینکه من یک انگلیسی زبان منصف هستم و در گذشته کمی ریاضیات دارم، اما هرگز درک دقیقی از آمار نداشتم. :( اصطلاحی که من به دنبال آن هستم ربطی به محاسبه خطا دارد. یک دستگاه GPS مختصات را اندازه گیری می کند و سپس سعی می کند خطا را تخمین بزند. در ویکی پدیا با دو عبارت احتمالی متفاوت برخورد کردم - میانگین مربع خطا و ریشه میانگین مربع از آنجایی که من می توانم بفهمم، آنها یک چیز نیستند، اما معنای هر یک از آنها فراتر از من است تخمین خطا. نمیدانم این هم به چه معناست، میترسم. شاید کسی اینجا ایده بهتری داشته باشد؟ | نام انگلیسی اصطلاح آماری که من به دنبال آن هستم چیست؟ |
24073 | من در مورد رگرسیون انباشته، همانطور که برای مثال در اینجا توضیح داده شده است، مطالعه کرده ام. به نظر می رسد مهم است که وقتی در برابر اولین پیش بینی ها پسرفت می کنید، نیاز دارید که ضرایب رگرسیون غیر منفی باشند. چگونه این کار را در R انجام می دهد؟ | محدودیت ضریب غیر منفی در رگرسیون انباشته |
24077 | من آزمایشی را انجام می دهم که دارای موارد زیر است: * DV: مصرف برش (مداوم یا می تواند طبقه بندی شود) * IV: پیام سالم، پیام ناسالم، بدون پیام (شاهد) (3 گروه که در آن افراد به طور تصادفی تقسیم می شوند - دسته بندی) این یک پیام دستکاری شده در مورد سالم بودن برش. IVهای زیر را می توان به عنوان متغیرهای تفاوت فردی در نظر گرفت: * تکانشگری (این می تواند طبقه بندی شود، یعنی زیاد در مقابل کم یا مداوم و با مقیاس اندازه گیری می شود) * ترجیح طعم شیرین (این نیز با یک پرسشنامه که 3 گزینه برای انتخاب است اندازه گیری می شود. برای هر سوال) * BMI - شرکت کنندگان بر اساس آن اندازه گیری می شوند (این می تواند به صورت طبقه ای یا مداوم در نظر گرفته شود). از آنجایی که گروهها بهطور تصادفی به یکی از 3 گروه تخصیص مییابند، فرض میکنم که من یک ANOVA را انجام میدهم و احتمالاً از ANOVA فاکتوریال استفاده میکنم، زیرا علاقهمندم که کدام IV بیشتر بر DV تأثیر میگذارد، اما همانطور که تحقیقات نشان میدهد تعامل بین IVها نیز بیشتر است. که بین برخی از ترکیبات روابط وجود دارد. اما به دلیل نیاز به دانستن اینکه آیا بهتر است IV ها همه طبقه بندی شوند یا پیوسته یا مختلط از این موضوع مطمئن نیستم. یا اینکه ANCOVA یک احتمال یا حتی رگرسیون است اما مطمئن نیستم که با توجه به اینکه آنها به گروههایی اختصاص داده میشوند و سپس بر اساس پاسخهایشان به نظرسنجیها دستهبندی میشوند. امیدوارم این منطقی باشد و مشتاقانه منتظر شنیدن کسی در مورد سؤال من هستم. | چگونه در یک آزمایش طراحی شده بین ANOVA و ANCOVA یکی را انتخاب کنیم؟ |
9596 | غربالگری سلامت برای مهاجرت به ایالات متحده شامل غربالگری اجباری با اشعه ایکس قفسه سینه برای همه بزرگسالان با هدف تشخیص علائم سل است. اگر اشعه ایکس احتمال ابتلا به سل را نشان دهد، متقاضی نمونه های خلط را برای کشت ارسال می کند. این تعداد زیادی از اشعه ایکس است - و بسیاری از آنها منجر به کشت های مثبت نمی شود، به خصوص در میان متقاضیان مسن (که ریه های آنها به دلایل زیادی ممکن است بد بو باشد). در یک مطالعه، 1500 متقاضی (از 24000 متقاضی در طول دوره مطالعه) علاوه بر فرآیند غربالگری استاندارد، یک تشخیص جدید سل نیز دریافت کردند. -خلاق مثبت اکنون، محققان میخواهند بدانند (به عنوان مثال): اگر این تشخیص اضافی را روی همه متقاضیان انجام میدادیم، آزمایش چند نفر مثبت میشد؟ _از این تعداد_، چه تعداد از آنها رادیوگرافی نشان دهنده سل انجام می دادند؟ _از این تعداد_ چه تعداد از آنها فرهنگ مثبت داشتند؟ نتایج دموگرافیک، اشعه ایکس و کشت برای همه متقاضیان مشخص است. نتیجه تشخیصی جدید فقط برای شرکت کنندگان در مطالعه شناخته شده است. دو رویکرد برای این مطالعه پیشنهاد شده است. 1. یک رگرسیون لجستیک بر روی نمونه بسازید و از آن برای پیش بینی برای همه متقاضیان استفاده کنید. نگرانی هایی وجود دارد که خطاهای استاندارد بسیار کوچک باشد، زیرا سن، نتیجه اشعه ایکس و نتیجه کشت کاملاً مرتبط هستند. 2. شبه بوت استرپ. نمونه 24000 نتیجه از نتایج شرکتکنندگان (با جایگزینی)، با اختصاص یک احتمال نمونهبرداری به هر شرکتکننده بر اساس تعداد همه متقاضیان با ویژگیهای منطبق (دموگرافیک، نتیجه اشعه ایکس، نتیجه فرهنگ). از نمونه مجدد، مقادیر مورد نظر را محاسبه کنید. تکرار کنید، فواصل اطمینان را برای برآوردها محاسبه کنید. اگر یکی از این دو را داشته باشید از کدام یک استفاده می کنید؟ چرا؟ خوشحال میشم هر سوالی رو توضیح بدم با تشکر از کمک شما! *برخی جزئیات مطالعه برای محافظت از تعداد کلمات تغییر کرد. | استفاده از نمونه غیر تصادفی برای تخمین جمعیت |
99125 | برای تدریس باید نمودار زیر را برای دانشجویان مقطع کارشناسی توضیح دهم. این نمودار از ویرایش هفتم هاول روش های آماری برای روانشناسی گرفته شده است. دانشآموزان با نحوه محاسبه مجموع SS، بین SS، و درون SS برای طراحی گروههای مستقل یک طرفه آشنا هستند، اما چیزی بیش از این نمیدانند.  | یک روش شهودی برای توضیح تجزیه SS برای ANOVA مخلوط با 1 B/S و 1 W/S متغیر چیست؟ |
20973 | من در حال تجزیه و تحلیل (در SPSS 19) دادههای یک آزمایش میدانی با استفاده از یک مدل خطی مخلوط با اندازهگیریهای مکرر هستم. هنگام بررسی مدل، من همیشه مقادیر منفی را در جدول معیارهای اطلاعات به دست میآورم. من قانون سرانگشتی کوچکتر بهتر است را می دانم، اما این مقادیر منفی چگونه باید تفسیر شوند؟ به عنوان مثال، هنگامی که من یک نوع کوواریانس بدون ساختار را انتخاب می کنم، معیار اطلاعات بیزی (BIC) 642.868-$ است و با کوواریانس تقارن مرکب، 497.270$- را نشان می دهد. بنابراین، کدام نوع کوواریانس، بدون ساختار یا تقارن مرکب بهتر است؟ سوال دوم این است که پیام اخطار زیر را دریافت می کنم: ماتریس هسین نهایی قطعی مثبت نیست اگرچه همه معیارهای همگرایی برآورده می شوند. روش MIXED با وجود هشدار ادامه می یابد. اعتبار بعدی قابل اطمینان نیست. آیا می توانم آن را نادیده بگیرم یا من یک مشکل واقعی دارم؟ آیا راهی برای رفع آن وجود دارد؟ | مدل ترکیبی خطی، مقادیر معیار اطلاعات منفی و ماتریس هسین مثبت نیست |
68183 | از من خواسته شد تا برخی از تحلیلهای رگرسیون را روی دادههای ناشناس انجام دهم که هنوز آن را ندارم. این دارای چند ورودی دسته بندی و ~100 خروجی بولی است، چیزی شبیه به این: رده نوع اندازه فشار خون Y1 Y2 Y3 .... Y99 ------------------------------------------------ ------------------------------ cat persian small high 1 0 0 .... 1 cat persian big low 0 1 .. .. 0 سگ گرگ بزرگ معمولی 1 1 0 .... 0 ... ... ... ... ...... اسکوتر اردک کوچک بالاتر از حد معمولی 0 1 1 .... 1 (من فقط معانی را اینجا ساختم) . تعداد نمونه ها در مجموعه داده های واقعی حدود یک میلیون خواهد بود، بدون مقادیر از دست رفته. وظیفه پیش بینی خروجی است، به عنوان مثال «P(Y86 = 1 | {گربه، سیامی، بزرگ، کم})» و به طور کلی رابطه بین ورودی ها و خروجی ها را درک کنید. سؤالات من: 1. کدام رویکردها ارزش امتحان کردن را دارند، جوانب مثبت و منفی آن چیست؟ 2. کدام بسته های R می توانند کمک کننده باشند؟ | رگرسیون چند متغیره برای 100 متغیر خروجی باینری |
110943 | من از دادههای fMRI (n=25) برای پیشبینی عملکرد در یک کار رفتاری استفاده میکنم. در هر 12 نقطه زمانی، من یک مدل خطی را بر روی دادههای n-1 موضوع آموزش میدهم و از این مدل برای پیشبینی عملکرد سوژههای کنار گذاشته شده در یک دوره زمانی متفاوت استفاده میکنم. به عنوان مثال، من از داده های عصبی در نقطه زمانی 1 برای پیش بینی عملکرد در پنجره زمانی A و از داده ها در نقطه زمانی 2 برای پیش بینی عملکرد در طول پنجره زمانی B و غیره استفاده می کنم. همبستگی رتبه ای در مقادیر مشاهده شده و پیش بینی شده. این به من یک ضریب همبستگی در هر یک از نقاط زمانی من می دهد. من میخواهم میانگین پیشبینی را در تمام نقاط زمانی خود گزارش کنم، بنابراین من فیشر این مقادیر r را تبدیل کردم، نمرات z حاصل را میانگین گرفتم، سپس میانگین را به مقدار r تبدیل کردم. آیا از آنجایی که همبستگی های من همه در یک گروه از موضوعات محاسبه شده است، انجام این کار خوب است؟ بر اساس سوالات قبلی من _فکر می کنم_ این درست است، اما اگر اشتباه می کنم، لطفا اصلاح کنید. سوال بعدی من در مورد چگونگی گزارش اهمیت این میانگین r است. آیا این امکان پذیر است؟ این پاسخ مرا به این باور می رساند که گزارش یک فاصله اطمینان بهتر است، اما دقیقاً مطمئن نیستم که چگونه این کار را انجام دهم، یا مشکلی ندارد زیرا باز هم، همبستگی های من از داده های جمع آوری شده در زمان های مختلف از همان گروه محاسبه شده است. موضوعات از شما برای هر توصیه ای که ممکن است داشته باشید متشکرم! | اهمیت میانگین ضرایب همبستگی |
71857 | من با موقعیتی برخورد کردم که یک خرده فروش بزرگ در حال آزمایش یک برنامه خرده فروشی جدید است. برای آزمایش این برنامه فروشگاه های خرده فروشی آزمایشی خاصی را انتخاب کرد. سپس، گروه کنترلی از فروشگاههای خردهفروشی را انتخاب کرد تا تا حد امکان مشابه فروشگاههای خردهفروشی آزمایشی باشد. هر فروشگاه آزمایشی را بر اساس معیارهای اجتماعی جمعیت شناختی و تجاری متعدد با یک فروشگاه کنترل مطابقت داد. معیار انتخاب این بود که یک مقدار P از آزمون t دانشجویی تا حد ممکن تولید شود، که نشان دهنده تطابق خوب بین دو فروشگاه است. این همه حس خوبی داشت. از طرف دیگر، آنها به من گفتند که از آزمون t زوجی استفاده کرده اند. این یک سورپرایز بود. من فکر کردم که این یک وضعیت تست کلاسیک بدون جفت است. | آیا میتوانید از آزمون t زوجی در شرایطی که به نظر میرسد یک وضعیت آزمون t جفت نشده استفاده کنید؟ |
2631 | این در ادامه این سوال است. من در حال حاضر در تلاش برای پیاده سازی C-Index هستم تا از سلسله مراتبی از خوشه ها تعداد تقریباً بهینه خوشه ها را بیابم. من این کار را با محاسبه C-Index برای هر مرحله از خوشه بندی سلسله مراتبی (تراکمی) انجام می دهم. مشکل این است که C-Index برای خوشه های بسیار منحط حداقل است (به طور دقیق 0). این را در نظر بگیرید: $c = \frac{S-S_{min}}{S_{max}-S_{min}}$ در این مورد $S$ مجموع تمام فواصل بین جفت مشاهدات در یک خوشه در کل است. خوشه ها اجازه دهید $n$ تعداد این جفت ها باشد. $S_{min}$ و $S_{max}$ مجموع $n$ کمترین/بالاترین فاصله در همه جفت مشاهدات هستند. در مرحله اول خوشه بندی سلسله مراتبی، دو مشاهده نزدیک (حداقل فاصله) در یک خوشه ادغام می شوند. فرض کنید $d$ فاصله بین این مشاهدات باشد. اکنون یک جفت مشاهده در همان خوشه وجود دارد، بنابراین $n=1$ (همه خوشه های دیگر تک تن هستند). در نتیجه $S=d$. مشکل این است که $S_{min}$ نیز برابر است با $d$، زیرا $d$ کوچکترین فاصله است (به همین دلیل است که مشاهدات ابتدا ادغام شدند). بنابراین برای این مورد، C-Index همیشه 0 است. تا زمانی که تنها خوشه های تک تنی با هم ادغام شوند، 0 باقی می ماند. این بدان معناست که خوشهبندی بهینه بر اساس C-Index همیشه شامل دستهای از خوشهها شامل دو مشاهده و بقیه تکتنهها است. آیا این به این معنی است که C-Index برای خوشه بندی سلسله مراتبی قابل اجرا نیست؟ آیا من کار اشتباهی انجام می دهم؟ خیلی جستجو کردم ولی توضیح مناسبی پیدا نکردم. آیا کسی می تواند مرا به منبعی که به صورت رایگان در اینترنت در دسترس است معرفی کند؟ یا اگر نه، حداقل کتابی که ممکن است سعی کنم در کتابخانه دانشگاهم تهیه کنم؟ پیشاپیش متشکرم | آیا کسی می تواند C-Index را در زمینه خوشه بندی سلسله مراتبی توضیح دهد؟ |
64409 | در این سوال در مورد تغییرات AIC هنگام اضافه کردن یک متغیر پرسیدم. به نظر می رسد که تا حدودی به دلیل شکل گیری SAS از AIC است. با این حال، من اکنون دو مدل دارم که احتمال ورود به سیستم بسیار بهبود مییابد: این عنوان کد تست - فقط اجباری. FitStatistics SolutionF را انتخاب کنید. proc مخلوط داده = روش menfat.data = ml; کلاس &classvar; مدل bmd_legneck_change_per_year = &bmddef bmdlegneck_1/solution; اجرا؛ دارای -2LL از 1631.9 بود که یک متغیر با این عنوان کد Test - add packyrs اضافه کرد. FitStatistics SolutionF را انتخاب کنید. proc مخلوط داده = روش menfat.data = ml; کلاس &classvar; مدل bmd_legneck_change_per_year = &bmddef packyrs bmdlegneck_1/solution; اجرا؛ دارای -2LL 1607.6 بود (که تفاوت بسیار معنی دار 24.3 در 1 df است) اما تخمین پارامتر برای packyrs 0.0016 با SE 0.005 و p 0.77 بود. آیا این می تواند به دلیل بهبود برازش سایر متغیرها در مدل باشد؟ ویرایش: پاسخ به ماکرو. مدل یک رگرسیون خطی است که در آن متغیر وابسته تغییر در هر سال کیفیت فیزیکی (تراکم استخوان) و متغیرهای مستقل ترکیبی از متغیرهای بله/خیر و متغیرهای پیوسته است. | احتمال ورود با اضافه کردن یک متغیر غیر معنی دار بهبود می یابد |
97508 | من در درک تخمین یک فرآیند AR مشکل دارم. در برخی از کتاب های درسی، فرآیند AR(1) به صورت زیر تعریف شده است: $y_{t}=\theta y_{t-1}+ε_t$ (که دارای یک ثابت نیست). بنابراین برآوردگر OLS مغرضانه است. من در مورد علت تعصب سردرگم هستم. توضیح داده شده است که $y_{t-1}$ به $ε_{t-1}$ وابسته است اگرچه مستقل از $ε_t$ است. اما در رگرسیون خطی، اگر معادله دارای یک ثابت نباشد، نمیتوانیم اطمینان حاصل کنیم که انتظار اختلال صفر است. بنابراین برآوردگر OLS بایاس بدون ثابت است. آیا اگر یک ثابت در فرآیند AR اضافه کنم به این معنی است که برآوردگر OLS بی طرف است؟ | فرآیند AR با یک ثابت |
68230 | آیا می توان با ترکیب خطی تعداد محدودی از پیاده روی تصادفی، یک فرآیند پیاده روی تصادفی یکپارچه داشت؟ آیا می توان با ترکیب خطی فرآیندهای I(0) یک فرآیند پیاده روی تصادفی داشت؟ با تشکر | ترکیب خطی فرآیندها که مرتبه بالاتری از یکپارچگی را ایجاد می کند |
108745 | وضعیت من: * حجم نمونه کوچک: 116 * متغیر نتیجه باینری * لیست طولانی متغیرهای توضیحی: 44 * متغیرهای توضیحی از بالای ذهن من نیامدند. انتخاب آنها بر اساس ادبیات بود. * بیشتر موارد در نمونه و اکثر متغیرها دارای مقادیر گم شده هستند. رویکرد انتخاب ویژگی انتخاب شده: بسته glmnet LASSO R به من اجازه نمیدهد روال glmnet را اجرا کنم، ظاهراً به دلیل وجود مقادیر گمشده در مجموعه دادههای من. از برخی از پاسخهای سؤال قبلی من مشخص شد که قبل از بررسی روشهای انتساب، به مسائل اساسیتری پرداختهام. من می خواهم در اینجا سؤالات جدیدی در این زمینه اضافه کنم. در پاسخ پیشنهاد کدگذاری به عنوان مقدار ثابت و ایجاد یک متغیر جدید برای مقابله با مقادیر «غیر قابل اجرا» در متغیرهای پیوسته و استفاده از کمند گروهی: * آیا میگویید اگر از گروه LASSO استفاده کنم، آیا میتوانید از رویکرد پیشنهادی برای پیشبینیکنندههای پیوسته نیز برای پیشبینیکنندههای طبقهبندی استفاده کنید؟ اگر چنین است، من فرض میکنم که معادل ایجاد یک دستهبندی جدید است - من محتاطم که ممکن است تعصب ایجاد کند. اگر صلاح نیست، در مورد متغیرهای طبقه بندی چه می شود؟ * آیا کسی می داند که بسته glmnet R از گروه LASSO پشتیبانی می کند؟ اگر نه، آیا کسی یکی دیگر را پیشنهاد می کند که این کار را در ترکیب با رگرسیون لجستیک انجام دهد؟ چندین گزینه که از گروه LASSO نام می برند را می توان در مخزن CRAN یافت، آیا مناسب ترین پیشنهاد برای مورد من وجود دارد؟ شاید SGL؟ OBS: من آمارگیر نیستم. | نحوه برخورد با مقادیر غیر قابل اجرا در متغیرهای طبقه بندی شده |
68181 | من سعی میکنم رگرسیونهای همه احتمالی را پیادهسازی کنم تا بهترین پیشبینیکنندههای بازده سهام را از فهرستی جامع از متغیرهای اقتصادی/بنیادی بالقوه انتخاب کنم. متغیر پاسخ من _y_ (یعنی بازده سهام) پانلی از 3000 اوراق بهادار (مقطعی) است که هر کدام دارای 384 مشاهده (سری زمانی) است. آیا کسی لطفاً بهترین راه را برای مدیریت این رویه در R، در زمینه دادههای پانل پیشنهاد دهد؟ من با بسته جهش مواجه شدم، اما مورد _y_ را به عنوان یک پاسخ **بردار** به جای پاسخ **ماتریس** می پردازد. خیلی ممنون، | انجام رگرسیون های همه ممکن در R |
102850 | در انتخاب ویژگی برای مدلهای پیشبینی، معمولاً از آزمون جایگشت استفاده میشود. در این آزمون تمامی مقادیر یک متغیر به صورت تصادفی جابهجا میشوند و دقت پیشبینی برای هر جایگشت استخراج میشود. به عنوان مثال، اگر 3 متغیر (ویژگی) داشته باشیم، ACC با همه متغیرها 0.9 است. و در تست جایگشت، زمانی که متغیرهای اول، دوم و سوم جایگشت میشوند، به ترتیب 0.2، 0.1 و 0.9 ACC دریافت میکنیم. بنابراین، متغیر سوم را می توان حذف کرد زیرا برای پیش بینی کمکی نمی کند. با این حال، اگر متغیر را حذف کنیم یا همه مقادیر را به صفر تغییر دهیم، به جای تغییر تصادفی مقادیر، آیا در تست جایگشت همان نتیجه را می گیریم؟ | انتخاب ویژگی: تست جایگشت در مقابل حذف یک متغیر |
24070 | من در نهایت به دنبال اعمال اعتبار متقاطع برای سناریوی بسیار پیچیدهتر هستم، اما در حال حاضر کار ساده رگرسیون لجستیکی را در نظر بگیرید. وقتی مقدار سمت چپ را با مقدار پیشبینیشده مدل مربوطهاش مقایسه میکنید، فرض میکنم باید مقدار پیشبینیشده را به مقیاس احتمال تبدیل کنید، اما آیا مقدار پیشبینیشده را هم گرد میکنید تا ۰ یا ۱ باشد یا آن را بدون گرد رها کنید؟ هر ایده ای در مورد اینکه کدام رویکرد بهتر است (و شاید چرا)؟ داده های مثال و loocv دستی یک مدل لجستیک: myData = data.frame( x = seq(-2,2,length.out = 10) ) myData$y = rbinom(nrow(myData)1,plogis(myData) $x)) myData$preds = NA for(i در 1:nrow(myData)){ thisFit = glm( data = myData[(1:nrow(myData)!=i)،]، فرمول = y~x، خانواده = دوجمله ای ) myData$preds[i] = predict(thisFit,newdata=myData[(1:nrow(myData)== i)،]) } myData$predsProb = plogis(myData$preds) #یک رویکرد: myData$squaredError1 = (myData$y - myData$predsProb)^2 SSE1 = مجموع (myData$squaredError1) #متناوب: myData$squaredError2 = (myData$y - دور(myData$predsProb))^2 SSE2 = مجموع(myData$squaredError2) #which یک تخمین بهتر از خطای پیش بینی آینده، SSE1 یا SSE2؟ چرا؟ | چگونه می توان مدلی از داده های دوجمله ای توزیع شده را اعتبارسنجی متقابل کرد؟ |
108741 | من یک جدول داده دارم که ورودی ها به فرمت زیر هستند. ستون اول «دسته» است که نشان دهنده دسته محصول است. من 5 دسته از این قبیل دارم. ویژگی 1،2 و 3 ویژگی های مختلف مرتبط با هر یک از این دسته ها هستند. این ویژگی ها ممکن است دسته ای یا عددی باشند. من قصد دارم برای کشف این دادهها، «mvoutlier» را در بسته R به کار ببرم. من سوالات زیر را دارم که سعی می کنم به آنها پاسخ دهم: 1. آیا باید هر یک از این دسته بندی ها را جداگانه در نظر گرفت و تحلیل ها را مستقل از سایر مقوله ها انجام داد؟ 2. چگونه می توان مقادیر طبقه بندی شده در این داده ها را مدیریت کرد؟ با تشکر از دسته f1 f2 f3 a1 1 33.4 333 a1 0 23 444 a1 0 30 333 a1 0 34 300 a2 1 56 600 a2 1 60 609 a2 1 64 630 a2 1 690 a2 1 690 a2 320 a3 0 99 1000 a1 0 30 340 a2 0 59 600 | چگونه می توان تشخیص پرت چند متغیره را در داده های ترکیبی با دسته انجام داد؟ |
9040 | اول از همه، من یک برنامه نویس هستم، اما تجربه من با آمار واقعی در سطح A به پایان رسید، بنابراین من از همه شما برای کمک در مورد پروژه جانبی کوچکی که در حال سرهم کردنش بودم، می خواهم. در خانه من از Plex Media Center برای نمایش همه فیلم هایم استفاده می کنم. من یک ابزار صادراتی برای این کار ساختم تا یک فایل HTML حاوی اطلاعات در کتابخانه شما تولید کند تا دیگران بتوانند آن را به صورت آنلاین مشاهده کنند. پس از ساختن این ابزار، متوجه شدم که اکنون به انبوهی از داده ها در مورد فیلم ها و بازیگران آنها دسترسی دارم. و این جایی است که شما بچه ها (و دختران) امیدوارم وارد شوید. من می خواهم روابط بین بازیگران و فیلم ها را به نوعی تجسم کنم. در ابتدا من فقط از یک کتابخانه گراف گراف استفاده کردم تا همه بازیگرانی که در بیش از یک فیلم حضور داشته اند را به همه فیلم هایشان ترسیم کنم و به این نتیجه رسیدم: http://www.flickr.com/photos/dachande663/5574979625/ [بخش یک تصویر 5000x2500px] مشکل اینجاست که با هر چیزی بیش از 250 فیلم، فقط به یک آشغال اسپاگتی تبدیل میشود. دنبال کردن آن غیرممکن است من به نمودارهای قوسی نگاه کرده ام اما فکر می کنم که حتی گیج کننده تر است. بنابراین سوال من این است: چگونه می توانم این را تجسم کنم؟ اندازه مشکل چندانی نیست زیرا من دوست دارم این را روی یک بوم بزرگ چاپ کنم و در واقع آن را آویزان کنم. همچنین، در نهایت متن را با تصاویر فیلم ها و بازیگران مربوطه جایگزین خواهم کرد. چیزی که من سعی می کنم از آن اجتناب کنم این است که یک میلیون خط در همه جا مار می شوند. من سعی کردهام مهمترین فیلمها را پیدا کنم و آنها را بیشتر در مرکز قرار دهم، اما در حال حاضر این بیشتر حدسزنی است تا منطق واقعی. آیا کتابخانههایی وجود دارند که بتوانند این کار را بهتر انجام دهند، یا حتی راه بهتری برای نمایش دادهها (رها کردن بازیگران به عنوان گره و اضافه کردن آنها به عنوان برچسب لبه) انجام دهند؟ من در حال حاضر از نمودار دراکولا استفاده می کنم، که نقطه شروع خوبی را ارائه می دهد اما می تواند در صورت نیاز تغییر کند. هر ورودی بسیار قدردانی خواهد شد. به سلامتی | روابط فیلم/بازیگر را تجسم کنید |
30131 | من از تست Ramsey Reset آگاه هستم که ممکن است وابستگی های غیرخطی را تشخیص دهد. با این حال، اگر فقط یکی از ضرایب رگرسیون (صرفاً وابستگیهای خطی) را حذف کنید، بسته به همبستگیها ممکن است یک سوگیری دریافت کنید. این بدیهی است که با تست Reset تشخیص داده نمی شود. من تستی برای این مورد پیدا نکردم، اما این عبارت: شما نمی توانید برای OVB آزمایش کنید مگر با درج متغیرهای حذف شده بالقوه. احتمالاً بیانیه معقولی است، اینطور نیست؟ | آیا آزمونی برای بایاس متغیر حذف شده در OLS وجود دارد؟ |
68187 | من در شرایطی هستم که سعی می کنم یک متغیر خروجی پیوسته را با توجه به 100 متغیر و 100 هزار نقطه داده مدل کنم. نسبت سیگنال به نویز بسیار کم است و هم خطی بودن بسیار زیاد است. در میان متغیرها، ویژگیهای دودویی «سوزن در انبار کاه» وجود دارد. یک ویژگی با ارزش دودویی needle-in-a-haystack، $f$، یکی از ویژگی هایی است که $Pr[f==1]$ کوچک است (~0.01)، اما در آن مهم است که مدل ما بی طرفانه باشد. $f==1$. وقتی از OLS استفاده میکنم، وقتی $f==1$، مدل حاصل به درستی بیطرفانه است. با این حال، مدل دارای ویژگی های نامطلوب ناشی از نویز و خطی بودن است. هنگامی که من منظم سازی شبکه الاستیک را امتحان می کنم، مشکلات نویز/هم خطی از بین می روند. با این حال، به نظر میرسد که عمل منظم کردن باعث میشود که مدل نسبت به ویژگیهای سوزن در انبار کاه بیتوجهی کند. حتی زمانی که $f$ توسط مدل انتخاب میشود، مدل باقیماندههای غیرقابل قبول بزرگی را زمانی که $f==1$ تولید میکند، ایجاد میکند. من در تعجب هستم که چگونه می توانم بهترین های هر دو دنیا را بدست بیاورم. من در حال حاضر ابتدا یک مدل منظم با توری کشسان را آموزش میدهم و سپس یک مدل OLS دوم را برای پیشبینی باقیماندههای ویژگیهای سوزن در انبار کاه آموزش میدهم. به نظر می رسد که این به خوبی کار می کند، اما من نمی دانم که آیا راه استانداردتری وجود دارد. | رگرسیون منظم سوزن در انبار کاه |
4334 | من میخواهم مدل پیشنهادی در مدلسازی پویا اسپردهای برگردان میانگین را پیادهسازی کنم (کاستاس تریانتافیلوپولوس، جیووانی مونتانا). آنها مدل سازی یک سری زمانی Y_t را با معادلات زیر پیشنهاد می کنند: (1) Y_t = A_t + B_t * Y_(t-1) + e_t (2) A_t = Phi1 * A_(t-1) + nu1_t (3) B_t = Phi2 * B_(t-1) + nu2_t که می تواند به شکل فضای حالت بیان شود: (1') Y_t = F_t * theta_t + e_t (2') theta_t = Phi * theta_(t-1) + nu_t با F_t = (1, Y_t-1) Phi = diag (Phi1, Phi2) من می خواهم از R برای انجام به روز رسانی بیزی این مورد استفاده کنم مدل من بسته 'dlm' را مطالعه کرده ام اما در کتاب مدل های خطی پویا با R نوشته جیووانی پتریس (نویسنده بسته 'dlm') نوشته شده است (صفحه 113) > ماتریس F_t یک DLM نمی تواند به ارزش های گذشته مشاهدات». با این حال، به نظر می رسد که در مدل ارائه شده در بالا چنین است. آیا کسی می تواند این جمله آخر را بفهمد و در نهایت به من کمک کند تا این پیاده سازی را در R انجام دهم؟ متشکرم فرد | حالت فرم فضای زمان متغیر AR(1) |
2306 | من در مورد انتخاب ویژگی و یادگیری ماشین کمی گیج شده ام و می خواستم به من کمک کنید. من یک مجموعه داده ریزآرایه دارم که به دو گروه طبقه بندی شده و دارای 1000 ویژگی است. هدف من این است که تعداد کمی از ژن ها (ویژگی های من) (10-20) را در یک امضا به دست بیاورم که در تئوری بتوانم آن ها را برای دسته بندی بهینه آن نمونه ها در سایر مجموعه های داده اعمال کنم. از آنجایی که من آنقدر نمونه ندارم (<100)، من از یک مجموعه آزمایشی و آموزشی استفاده نمی کنم، بلکه از اعتبار سنجی متقاطع Leave-one-out برای کمک به تعیین استحکام استفاده می کنم. خواندهام که باید انتخاب ویژگی را برای هر تقسیم نمونهها انجام داد، یعنی 1. یک نمونه را به عنوان مجموعه آزمایشی انتخاب کرد. 2. در نمونههای باقیمانده انتخاب ویژگی را انجام داد. 3. اعمال الگوریتم یادگیری ماشین برای نمونههای باقیمانده با استفاده از ویژگیهای انتخابشده. آیا مجموعه آزمایشی به درستی طبقه بندی شده است. یعنی مرحله 6 چیست. منظور من از بهینه مجموعه ژن هایی است که هر مطالعه بعدی باید از آن استفاده کند. برای مثال، بگویید من یک مجموعه داده سرطان/طبیعی دارم و میخواهم 10 ژن برتر را پیدا کنم که نوع تومور را بر اساس SVM طبقهبندی میکنند. میخواهم مجموعهای از ژنها به اضافه پارامترهای SVM را بدانم که میتواند در آزمایشهای بعدی استفاده شود تا ببینم آیا میتوان از آن به عنوان یک آزمایش تشخیصی استفاده کرد. | انتخاب ویژگی برای مدل نهایی هنگام انجام اعتبارسنجی متقابل در یادگیری ماشین |
111319 | من با آمار کاملاً تازه کار هستم و به کمک شما نیاز دارم. من به تازگی نرم افزار R را نصب کردم و نمی دانم چگونه با آن کار کنم. من یک نمونه کوچک به شرح زیر دارم: گروه A: 10، 12، 14، 19، 20، 23، 34، 41، 12، 13 گروه B: 8، 12، 14، 15، 15، 16، 21، 36، 14، 19 من می خواهم از آزمون t استفاده کنم اما قبل از آن می خواهم از آزمون Shapiro استفاده کنم تا بدانم آیا نمونه من از جمعیتی است که دارای توزیع نرمال است. من می دانم که یک تابع shapiro.test() وجود دارد اما چگونه می توانم اعداد خود را به عنوان ورودی به این تابع بدهم؟ آیا می توانم به سادگی shapiro.test (10,12,14,19,20,23,34,41,12,13, 8,12, 14,15,15,16,21,36,14,19) را وارد کنم؟ | چگونه تست Shapiro را در R اعمال کنیم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.