_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
68162
من اخیراً در رابطه با مطالعه خود در مورد تعارضات و عملکرد با مشکلی مواجه شدم. دو نوع تضاد در مطالعه، تضاد وظیفه و رابطه، هر دو با عملکرد $(-.39، P <.01)$ و $(-.37، P <.01)$ همبستگی داشتند. وقتی اینها را در یک رگرسیون قرار دادم، مدل رگرسیون قابل توجه بود و $22.1\%$ از واریانس $(F\ (3, 82) = 7.76,\ P <.01)$ را توضیح داد. با این حال، هیچ یک از دو IV ضرایب قابل توجهی نداشتند! هیچ متغیر دیگری در تحلیل رگرسیون وجود نداشت. چگونه می تواند این باشد؟
دو متغیر مستقل هر دو با متغیر وابسته همبستگی دارند، اما هیچ کدام در تحلیل رگرسیون معنادار نیستند
110078
این یک سوال از یک دوره آموزشی است: فرض کنید مجموعه‌ای از مثال‌ها داریم و برایان وارد می‌شود و هر نمونه را کپی می‌کند، سپس به‌طور تصادفی نمونه‌ها را دوباره ترتیب می‌دهد. ما اکنون دو برابر بیشتر نمونه داریم، اما اطلاعات بیشتری در مورد مشکل نسبت به قبل نداریم. اگر ورودی های تکراری را حذف نکنیم، کدام یک از روش های زیر تحت تأثیر این تغییر قرار نمی گیرد، از نظر زمان کامپیوتر (مثلاً زمان بر حسب ثانیه) طول می کشد تا به همگرایی نزدیک شود؟ الف) یادگیری کامل دسته ای ب) یادگیری آنلاین که در آن برای هر تکرار به طور تصادفی یک مورد آموزشی را انتخاب می کنیم ج) یادگیری مینی دسته ای که در آن برای هر تکرار به طور تصادفی 100 مورد آموزشی را انتخاب می کنیم. پاسخ این است ب. اما من تعجب می کنم که چرا c اشتباه است. آیا آموزش آنلاین یک مورد خاص از مینی دسته نیست که در آن هر تکرار فقط یک مورد آموزشی دارد؟ با تشکر
دسته کامل v.s. یادگیری آنلاین v.s. مینی دسته
106236
من می‌خواهم نسخه بیزی پرسپترون را که در کتاب مکانیک آماری یادگیری، نوشته انگل ون دن بروک خوانده‌ام، پیاده‌سازی کنم. ایده برای بهبود عملکرد این است که از بسیاری از پرسپترون‌های گیبس J برای تعریف یک پرسپترون طلایی با استفاده از مرکز جرم آنها $J^\beta$ استفاده کنیم. به طور رسمی: $$J^\beta = \lim_{m\rightarrow \infty} \sqrt N \frac{\sum^M_{i=1}J^{(i)}}{\sqrt{(\sum^M_ {i=1}J^{(i)})^2}}.$$ مشکل این است: چگونه باید این تعداد $J$ را محاسبه کنم؟ آیا باید از بسیاری از شرایط اولیه مختلف استفاده کنم؟ آیا باید از $J$ های متفاوتی که در دوره های مختلف یادگیری پرسپترون گرفته شده استفاده کنم (به ویژه این فکر من است)؟ آیا باید داده ها را مختل کنم؟ آیا باید یک $J$ خاص را به طرق مختلف تصادفی مزاحم کنم؟
پرسپترون بیزی - چگونه می توانم پرسپترون های مختلف تولید کنم؟
51214
من در حال خواندن کتاب عناصر یادگیری آماری هستم (Hastie _et al_, فصل 7) و در مورد انواع مختلف خطاهای ذکر شده در کتاب 1 سردرگم هستم. خطای تست $$Err_\tau=E(L(y, \hat {f}(X)|\tau))$$ 2. خطای پیش‌بینی مورد انتظار $$Err=E(L(y, \hat{f}(X))=E[Err_\tau]$$ 3. خطای آموزش: $$\bar{err}=\frac{1}{N}\sum_{i=1}^{N }L(y_i,\hat{f}(x_i))$$ 4. خطای نمونه: $$Err_{in}=\frac{1}{N}\sum_{i=1}^{N}E_{Y^0}[L(Y_i^0,\hat{f}(x_i))]$ $ 5. خطای نمونه اضافی: $$Err_\tau=E_{X^0,Y^0}(L(Y^0, \hat{f}(X^0)|\tau))$$ کسی می‌تواند بدهد چند ایده به اینها را به خوبی درک کنید و چند مثال ساده قدردانی می شود؟
چند نمونه از خطاها در ESL؟
25037
با توجه به یک توزیع گسسته دلخواه و یک توزیع مشاهده شده حاصل از شبیه سازی مونت کارلو، هدف من این است که بتوانم بگویم که آیا توزیع مشاهده شده همان توزیع داده شده است یا نه، به طوری که من به درستی توزیع متفاوت را با احتمال بیشتر شناسایی کنم. از 1 در 10000 باید بگویم که شبیه سازی مونت کارلو در 10^10 تکرار اجرا می شود. تاکنون از ترکیبی از فواصل اطمینان (که از توزیع داده شده به دست آمده است) برای آزمایش میانگین مشاهده شده و همچنین آزمون کای دو استفاده کرده ام. در اصل، به نظرم می رسید که این ترکیب، در چندین تکرار، دقت مطلوبی را که هدف من است، ارائه می دهد. اما پس از تفکر بیشتر، به ذهنم خطور کرد که این تست ها مستقل نیستند زیرا من از آنها در همان مشاهده استفاده می کنم. در نتیجه، من فقط می‌توانم دقیق‌ترین آزمایش را انجام دهم. آیا این حقیقت دارد؟ من چندین سوال دیگر دارم: آیا تفسیر من از فواصل اطمینان درست است که وقتی می گویم وقتی از فاصله اطمینان 95٪ استفاده می کنم (مثلا) می گویم که احتمال اینکه میانگین مشاهده شده خارج از فاصله اطمینان باشد زمانی که توزیع مشاهده شده یکسان است. توزیع داده شده 5٪ است؟ به همین ترتیب، اگر موارد فوق صحیح باشد، آیا تفسیر نتیجه خی دو مشابه است؟ به عبارت دیگر، با مقدار آلفا 0.05، آیا این درست است که وقتی توزیع مشاهده شده با توزیع داده شده یکسان است، احتمال اینکه نتیجه خی دو خارج از این حد باشد، درست است؟ در نهایت، آیا روش خوبی برای دستیابی به دقت مورد نظر من وجود دارد؟ پیشاپیش از شما متشکرم
تفسیر مناسب برای تحلیل خطا
96038
من مجموعه داده ای از فایل های باینری دارم. من نمی توانم استخراج ویژگی را روی آنها انجام دهم. من فقط فاصله بین هر جفت فایل در مجموعه داده را با یک متریک فاصله (NCD = فاصله فشرده سازی عادی) محاسبه کردم. بنابراین من یک ماتریس فاصله دارم. هدف من خوشه بندی این فایل هاست. بهترین راه برای انجام آن چیست؟
چه الگوریتم خوشه بندی را می توان با ماتریس فاصله و بدون ویژگی استفاده کرد؟
112538
من در حال مدل‌سازی تأثیر تعداد نوع خاصی از شرکت (شرکت‌های پایین هرمی (BOP) یعنی شرکت‌هایی که به فقیرترین مصرف‌کنندگان خدمات می‌دهند) بر قیمت بازار می‌گذارم. من دو مدل زیر را در نظر گرفتم: (1) مدل اول برای ثبت اثرات علی طراحی شد. ما تعداد شرکت‌های BOP را برای تخمین رابطه علی بین تعداد شرکت‌های BOP با میانگین قیمت بازار ابزار کردیم. من از این مدل راضی هستم (2) من در مورد مدل دومی که در نظر دارم کمی متحیر هستم. کاری که اکنون سعی می کنم انجام دهم این است که کل درآمد را تخمین بزنم در صورتی که هیچ شرکت BOP وارد بازار نشده بود و کل درآمد بازار اگر این شرکت ها زودتر وارد بازار شده بودند. حدود 100 بازار مختلف در حال بررسی هستند که حدود 10 سال را پوشش می دهند. فرض کنید اگر هیچ شرکت BOP در هیچ یک از آنها وارد نشد، کل درآمد این بازارها را تخمین زدیم. با استفاده از مدل قسمت (1)، و وارد کردن تعداد شرکت های BOP به عنوان صفر، می توانم پیش بینی کنم که اگر شرکت های BOP در طول سال های مشاهده شده وجود نداشت، چه اتفاقی می افتاد. از این نقطه، من اساساً می توانم کل درآمد بازار را محاسبه کنم. سوال من این است: سوال: آیا استفاده از مدل مرحله (1) در مرحله (2) درست است؟ آیا واقعاً باید به درون زایی اهمیت بدهم وقتی آنچه می خواهم انجام یک پیش بینی از نوع (2) است؟ دردسرسازتر، واقعاً اشتباه است که وقتی می‌خواهم مرحله (2) را انجام دهم، خودم را به مدلی از نوع (1) محدود کنم؟
آیا هنگام انجام پیش بینی های خلاف واقع به مدل های علی نیاز دارید؟
96140
من سعی می‌کنم بفهمم کدام الگوریتم‌های یادگیری نظارت‌شده نیاز به نرمال‌سازی/مقیاس‌سازی ویژگی‌ها دارند. به نظر می رسد زمانی که یک الگوریتم با محاسبه احتمال شرطی کار می کند (بیز ساده، تحلیل تشخیص خطی)، نرمال سازی لازم نیست. با این حال، برای الگوریتم‌هایی که از هر نوع متریک فاصله (K-نزدیک‌ترین همسایه، ماشین بردار پشتیبانی) استفاده می‌کنند، نرمال‌سازی ضروری است. آیا این درست است؟ من یک n00b کامل هستم، پس لطفاً وارد شوید و هر جا مناسب است مرا اصلاح کنید.
چه زمانی برای الگوریتم های یادگیری نظارت شده مقیاس/نرمال کنیم؟
82256
یک مدل مخلوط گاوسی از پارامترهای ناشناخته را در نظر بگیرید که فقط یک یا دو جزء دارد. من می خواهم یک آزمون آماری برای تعیین تعداد کلاس ها طراحی کنم ($H_0$: مدل تک جزء در مقابل $H_1$: مدل دو جزء). من نمی دانم چگونه این را فرموله کنم. آیا کسی می تواند به من کمک کند تا شروع کنم؟
آزمون فرضیه تک کلاسی در مقابل دو کلاسه
51218
میانگین و انحراف معیار یک نمونه تصادفی با اندازه گیری $n$ به ترتیب برابر با 33.9 و 3.3 است. یک فاصله اطمینان 95% برای $n = 100$ بسازید. از این رو سعی می کنم حاشیه خطا را محاسبه کنم و سپس از آن برای استخراج حجم نمونه و سپس ساختن نمودار خود استفاده کنم. اما به نظر می رسد اطلاعات ارائه شده کافی نیست.
اگر حجم نمونه داده نشود چگونه می توان حاشیه خطا را محاسبه کرد؟
82254
در امتحان شفاهی من یکی از معلمانم پرسید که آیا این جامعه در یک «مطالعه تجربی» وجود دارد یا خیر. پاسخ دادم: بله، جامعه در یک «تحقیق تجربی» وجود دارد و من آن را از موضوع مورد علاقه خود خواهم گرفت. اما او پاسخ را رد کرد و به من گفت که این جامعه در «مطالعه تجربی» وجود ندارد، اما در «مطالعه مشاهده‌ای» وجود دارد. من آن را درک نکرده ام. اگر جامعه در یک «مطالعه تجربی» وجود نداشته باشد، چگونه می توانم نمونه خود را دریافت کنم؟
آیا جمعیت در یک مطالعه تجربی وجود دارد؟
51216
من از بسته depmixS4 برای قرار دادن HMM استفاده می کنم. من سه کلاس مختلف داده دارم و 3 HMM مجزا را با استفاده از توابع depmixS4 depmix و fit نصب کرده‌ام و با توجه به دنباله‌ای جدید از مشاهدات، می‌خواهم بتوانم احتمال (یا شانس ورود به سیستم) آن دنباله مشاهده جدید را محاسبه کنم. هر یک از سه مدلی که قبلا آموزش داده شده اند. من می‌دانم که این معمولاً با استفاده از الگوریتم Viterbi انجام می‌شود، اما نمی‌دانم چگونه می‌توان آن را در depmixS4 پیاده‌سازی کرد. به دلیل عملکرد depmixS4 من نمی توانم از بسته های HMM یا HiddenMarkov استفاده کنم از کمک شما بسیار قدردانی می شود! پیشاپیش از شما متشکرم
سوال در مورد طبقه بندی با مدل های پنهان مارکوف با استفاده از depmixS4
33236
> **موضوع تکراری:** > F غیرمعنادار اما ضریب قابل توجهی در رگرسیون خطی چندگانه > در تحقیقم، از خوش بینی به عنوان IV، رضایت شغلی به عنوان DV و غنی سازی کار-خانواده به عنوان میانجی استفاده کردم. تحلیل مدل مسیر با استفاده از AMOS نشان می‌دهد که IV و DV به طور معنی‌داری همبستگی دارند، اما آزمون رگرسیون معنی‌دار نبود. از این چه نتیجه ای می توانیم بگیریم؟
چگونه می توان همبستگی معنادار بین آزمون رگرسیون مستقل و وابسته اما غیرمعنادار را در حضور میانجی توضیح داد؟
104308
من می‌خواهم یک مدل خطی برای یک فنوتیپ $y_i$ که توسط یک مدل آستانه بدهی تعریف شده است، با استفاده از داده‌های قابل مشاهده $x_i، c_i$ تخمین بزنم. $$y_i = \mu + \بتا x_i + \epsilon_i$$ $$\text{Pr}(\epsilon_i | x_i، \beta، \mu) \sim B(1، p_i) - p_i$$ $p_i$ است یک تابع پیچیده از CDF معمولی خطای اساسی برای مدل آستانه بدهی، که خود بر اساس یک مدل خطی با مجموعه‌ای از پارامترها است. اما برای هدف این مشکل، فکر می‌کنم تنها واقعیت مهم این است که نمی‌توانیم فرض کنیم که $\epsilon_i$ از یک توزیع برای هر $i$ منفرد گرفته شده است. من می‌خواهم تخمین حداکثر احتمال پارامترها را انجام دهم، و به طور خاص، قدرت تخمین‌ها را بیابم، اما مطمئن نیستم چه کار کنم زیرا خطاها نه تنها ناهمسان هستند، بلکه به فرد بستگی دارند.
تخمین توان برای مدل خطی با خطای توزیع شده برنولی
106233
من می خواهم داده ها را از منابع مختلف ترکیب کنم. فرض کنید می‌خواهم یک ویژگی شیمیایی را تخمین بزنم (مثلاً یک ضریب تقسیم‌بندی): داده‌های تجربی دارم که به دلیل خطای اندازه‌گیری حول میانگین متغیر است. و ثانیاً، من مدلی دارم که تخمینی را از اطلاعات دیگر پیش‌بینی می‌کند (مدل نیز تا حدی عدم قطعیت دارد). چگونه می توانم این دو مجموعه داده را ترکیب کنم؟ [برآورد ترکیبی در مدل دیگری به عنوان پیش بینی استفاده خواهد شد]. متاآنالیز و روش های بیزی مناسب به نظر می رسد. با این حال، منابع و ایده های زیادی برای پیاده سازی آن پیدا نکرده ام (من از R استفاده می کنم، اما با پایتون و C++ نیز آشنا هستم). با تشکر **به روز رسانی** خوب، در اینجا یک مثال واقعی تر آورده شده است: برای تخمین سمیت یک ماده شیمیایی (معمولاً به صورت $LC_{50}$ = غلظتی که 50٪ حیوانات می میرند بیان می شود) آزمایش های آزمایشگاهی انجام می شود. خوشبختانه نتایج آزمایش ها در یک پایگاه داده (EPA) جمع آوری شده است. در اینجا مقادیری برای حشره کش لیندان آمده است: ### سمیت لیندان در ug/L epa <- c(850,6300,6500,8000, 1990,516, 6442,1870,1870,2000,2006,200 2600,1000,485,1190,1790,390,1790,750000,1000,800 ) hist(log10(epa)) # یا بر حسب مول/لیتر وزن مولکولی لیندان mw = 290.83 # [g/mol] hist(log10 (epa/ (mw * 1000000))) با این حال، مدل هایی نیز برای پیش بینی سمیت از خواص شیمیایی (QSAR) در دسترس هستند. یکی از این مدل‌ها سمیت را از ضریب تقسیم اکتانول/آب پیش‌بینی می‌کند ($log~K_{OW}$): $$ log~LC_{50} [mol/L] = 0.94~(\pm 0.03)~log~K_{ OW}~-~1.33 (\pm~0.1)$$ ضریب پارتیشن بندی لیندان $log~K_{OW} = 3.8$ و سمیت پیش بینی شده $ log~LC_{50} [mol/L] = -4.902 $ است. lkow = 3.8 mod1 <- -0.94 * lkow - 1.33 mod1 آیا روش خوبی برای ترکیب این دو اطلاعات مختلف (آزمایش‌های آزمایشگاهی و پیش‌بینی‌های مدل) وجود دارد؟ hist(log10(epa/ (mw * 1000000))) abline(v = mod1، col = 'steelblue') $LC_{50}$ ترکیبی بعداً در یک مدل به عنوان پیش بینی استفاده خواهد شد. بنابراین، یک مقدار واحد (ترکیب) یک راه حل ساده خواهد بود. با این حال، یک توزیع نیز ممکن است مفید باشد - اگر این در مدل سازی امکان پذیر باشد (چگونه؟).
ترکیب داده ها از منابع مختلف
106235
من مجموعه ای از داده ها (~ 90 مورد) و نتیجه یک آزمایش تشخیصی دارم. من عواملی را جمع آوری کرده ام که قبل از آزمون تعیین شده اند و می توانند نتیجه آزمون را پیش بینی کنند. اکنون برخی از داده ها باینری هستند، برخی پیوسته هستند (تست های آزمایشگاهی)، یکی طبقه بندی شده است (تشخیص اصلی منجر به علامت با 5 دسته می شود). آمارگیر (در SPSS) یک رگرسیون لجستیک چندگانه روی اکثر پارامترها و سپس یک انتخاب گام به گام به عقب انجام داد که مدلی را تولید کرد که یکی از عوامل به شدت معنی دار بود (001/0) و بقیه ناچیز بود (دو مورد از آنها در 01/0 بود. محدوده -0.05). سوال همکاران من طبیعی بود - چرا این یا آن عامل احتمالی گنجانده نشده است و این دو عامل در واقع مهم هستند یا می توان گفت تقریباً اهمیت دارند. باید بگویم که دوست ندارم اهمیت نزدیک را تفسیر کنم، اما باید با همکارانم کار کنم. از آمارگیر خواستم تحلیل دیگری انجام دهد، این بار با مجموعه کامل عوامل، و نتیجه متفاوت است، تنها یکی از عوامل (مهمترین آنها) در مدل جدید باقی مانده است، هنوز به شدت قابل توجه است اما عوامل دیگری نیز وجود دارد. ، همچنین در محدوده 0.01-0.05، که من را دوباره به مشکل نزدیک به اهمیت می رساند. من همچنین با R و Rcmdr با داده های یکسان امتحان کردم و انتخاب گام به گام بر اساس AIC یا BIC نتایج متفاوتی ایجاد می کند (فقط یک عامل ثابت می ماند). اکنون می بینم که با توجه به اینکه روش های مختلف انتخاب گام به گام مدل های مختلفی را با فاکتورهای ناچیز تولید می کنند، وجود این عوامل در مدل تصادفی است. به همین دلیل دوست دارم آنها را درج نکنم. بیشتر از همه، من نمی خواهم حضور آنها را در مدل تفسیر کنم، زیرا همکاران فکر می کنند که من باید آنطور که آنها به اهمیت نزدیک می شوند. سوال 1: برای ساده تر کردن کارها، آیا می توان یک باتری از رگرسیون های لجستیک تک متغیره را روی همه متغیرها اجرا کرد؟ این هر دو مشکل من را حل می کند - من یک مدل مهم ساده با مهم ترین متغیر را خواهم داشت و مجبور نیستم با تفسیر نزدیک به اهمیت در سایرین سر و کار داشته باشم. سوال 2: آیا اصلاحی در مورد اهمیت وجود دارد که در رگرسیون لجستیک چندگانه استفاده شود، همانطور که با مقایسه های متعدد وجود دارد، بنابراین من می توانم با استدلال نزدیک به اهمیت برخورد کنم؟
آیا رگرسیون لجستیک چندگانه انتخاب درستی است یا باید از رگرسیون لجستیک تک متغیره استفاده کنم؟
24921
من می دانم که توزیع واریانس نمونه $$ \sum\frac{(X_i-\bar{X})^2}{\sigma^2}\sim \chi^2_{(n-1)} $$ $$ \ sum\frac{(X_i-\bar{X})^2}{n-1}\sim \frac{\sigma^2}{n-1}\chi^2_{(n-1)} $$ این از این واقعیت که $(X-\bar{X})^2$ را می توان به شکل ماتریس، $xAx'$ (که در آن A: متقارن) بیان کرد، و می تواند دوباره در: $x'QDQ'x$ بیان شود (که در آن Q : متعامد، D: ماتریس مورب). در مورد $\sum(Y_i-\hat{\beta}_0-\hat{\beta}_1X_i)^2$، با توجه به فرض $(Y - \beta_0 - \beta_1X)\sim \mathcal{N}(0) ، \sigma^2)$ ? به نظر من $$\sum\frac{(Y_i-\hat{\beta}_0-\hat{\beta}_1X_i)^2}{\sigma^2}\sim \chi^2_{(n-2)} .$$ اما من نمی دانم چگونه آن را ثابت کنم یا نشان دهم. آیا دقیقاً به صورت $\chi^2_{(n-2)}$ توزیع می شود؟
توزیع مجموع مربعات خطا برای رگرسیون خطی؟
24929
من سیستم‌های معادله‌های همزمان را در R تخمین می‌زنم و سعی می‌کنم محدودیت‌های همگنی و تقارن را بر معادلات اعمال کنم. من از بسته systemfit استفاده می کنم. من موفق شده ام با استفاده از 'restrict.matrix' (همانطور که در مثال زیر می بینید) یک محدودیت را روی یکی از eqn ها اعمال کنم. چگونه می توانم همه محدودیت ها را همزمان اعمال کنم (restrict1، limited2، limited3 و غیره)؟ eqn1 <- s1 ~ p1 + p2 + p3 + p4 + q eqn2 <- s2 ~ p1 + p2 + p3 + p4 + q eqn3 <- s3 ~ p1 + p2 + p3 + p4 + q eqlist <- فهرست (eqn1, eqn2 , eqn3) system_eqn <- systemfit(eqlist, method=SUR) limited1 <- eq1_p1 + eq1_p1 + eq1_p3 + eq1_p4 = 0 محدودیت2 <- eq2_p1 + eq2_p1 + eq2_p3 + eq2_p4 = 0 محدودیت3 <- eq1_p2 ​​- eq2_p1 = 0 Restrice system_eq ماتریس = محدودیت 1)
با استفاده از بسته systemfit چندین محدودیت بر روی سیستم های eqns در R اعمال کنید
93046
من یک مجموعه داده آموزشی برای مشکل طبقه بندی $X \rightarrow y$ دارم. در جایی که $X$ یک بردار واقعی بعدی $n$ام است، $y$ یک عدد صحیح در $\\{0، 1\\}$ است. من می خواهم مشکل بعدی را حل کنم: تا آنجا که ممکن است خطوط $y = 1$ را با سطح خطا بیش از $\alpha = 10\%$ پیش بینی کنید. به عبارت دیگر، من می‌خواهم مجموعه داده ($N$ نمونه) را در دو مجموعه تقسیم کنم: 1) $k$ - نمونه‌های پیش‌بینی شده $y = 1$، که در آن $y = 0$ موارد کمتر از $k * \alpha$ هستند. 2) نمونه های $N-k$ - برای من مهم نیست. من باید $k$ را با $\alpha$ داده شده به حداکثر برسانم. من تجربه زیادی در طبقه بندی با ML دارم، اما این مشکل برای من غیرعادی است. لطفاً به من کمک کنید که چگونه این مشکل را برای ML رسمی کنم. کدام و چگونه باید از الگوریتم ML برای مشکل استفاده کنم؟ من خوشحال خواهم شد که در مورد ایده کلی راهنمایی دریافت کنم.
ML برای مشکل طبقه بندی خاص
25039
من به دنبال تقویت طبقه بندی جنگل تصادفی با استفاده از اطلاعات متقابل شانون-ویور به عنوان یک فراابتکاری برای تقسیم مجموعه داده های نامزد هستم. به طور خاص، من سعی می کنم تعیین کنم که آیا چنین رویکردی هم قابل حمل است و هم زمان همگرایی بهبود یافته ای را نسبت به روش های bruteforce و طبقه بندی تصادفی جنگل به تنهایی بدون کاهش عمده در طبقه بندی ارائه می دهد. فرض کنید مجموعه‌ای از مجموعه‌های داده داریم، $K$، که شامل ردیف‌های $\\{k1، k2، ...، kn\\}$ است. هر یک از این ردیف ها دارای یک زبان ناشناخته $L$ در زمینه یک تابع نویز ناشناخته و یکنواخت است. فرضیه ما این است که حداقل برخی از زیرمجموعه‌های این ردیف‌های داده اطلاعات را به اشتراک می‌گذارند: یعنی برای برخی از ردیف‌ها، $I(kx,ky) > 0$ برای ${kx,ky} \در K$. علاوه بر این، ما فرض می کنیم که اطلاعات متقابل چند متغیره $I(kx,ky,...) \not= 0$ برای مجموعه ای از روابط چند متغیره. به این معنی که نمودار ما حاوی ترکیباتی است که در زمینه روابط چند زنجیره ای آموزنده تر هستند، یا حاوی برخی روابط XOR شکل هستند. اگر بخواهیم این فضا را bruteforce کنیم، چون اطلاعات متقابل جابه‌جایی است، به زمان و مکان n-دوجمله‌ای-n نیاز داریم. به عبارت دیگر، برای محاسبه اطلاعات متقابل همه ترکیب‌ها در مجموعه $D$، به زمان $\sum\limits_{x=1}^n\binom{n}{x}$ نیاز داریم، با فرض سادگی که مقایسه هر ردیف یک عملیات $O(1)$ است. سپس مجموعه داده‌های خروجی را با استفاده از یک مقدار قطع ثابت، $v$، هرس می‌کنیم، و فقط اتصالات را در جایی که $I(kx،...) > v$ حفظ می‌کنیم. سپس این مجموعه را به ترتیب نزولی تعداد عبارت‌ها مرتب می‌کنیم و از آن برای ساختن یک نمودار بدون جهت استفاده می‌کنیم، با اتصال ویژگی‌هایی که اطلاعات متقابل مثبت را به اشتراک می‌گذارند و وقتی اطلاعات متقابل چند متغیره منفی است، شاخه‌هایی تشکیل می‌دهیم. کاهش آشکار این پیچیدگی، با هزینه محدود به خطا در استحکام، استفاده از تجزیه و تحلیل تصادفی جنگل است. من می‌خواهم این محاسبات را بیشتر ساده‌تر کنم، با محاسبه اطلاعات متقابل فضای جفتی برای هر جفت ردیف، سپس با استفاده از یک مقدار برش شبیه به $v$، مجموعه‌هایی بسازیم که فقط شامل گره‌های شرکت‌کننده هر یک از این نمودارها هستند. سپس این مجموعه‌ها به طبقه‌بندی‌کننده جنگل تصادفی ما وارد می‌شوند تا شکل نمودارها را در یک زمان کاهش‌یافته برای همگرایی تعیین کنیم. آیا این رویکرد قابل اجرا است؟ حتی اگر چنین است، آیا رویکردهای بهتری برای مرحله هرس این مشکل وجود دارد؟ (در ابتدا در CSTheory.SE ارسال شده است)
قابلیت جابجایی الگوریتم‌های طبقه‌بندی مجموعه اطلاعات افزوده متقابل
65356
من علاقه مندم بدانم چگونه می توان ضریب را از بسته VGAM (رگرسیون عمومی پواسون) بدست آورد، زیرا وقتی می خواهم ضریب را بدست بیاورم، فقط می توانم تخمین را با @ بدست بیاورم تا تخمین را بدست بیاورم. یک ضریب دیگر می تواند تمام قسمت را از ضریب با $ دریافت کند... برنامه من مانند این است: library(VGAM) fit <- vglm(y ~ x1, genpoisson,trace = TRUE) summary(fit) hasilgp <- summary(fit) koefgp <- hasilgp@coefficients و فقط تخمین را می توان ضمیمه کرد... هر کسی به من کمک کند...
نحوه دسترسی به ضریب از بسته VGAM (رگرسیون پواسون تعمیم یافته)
106238
من یک معادله با چندین جزء تصادفی را چندین بار محاسبه می کنم، و برای انتخاب پاسخ نهایی خود، آن را با حداقل مقدار برای $\chi^2$ انتخاب می کنم. امیدوارم راهی پیدا کنم تا تصمیم بگیرم که چقدر احتمال دارد که به این مقدار $\chi^2_{min}$ دست پیدا کنم تا تعداد آزمایش‌های استفاده شده را در نظر بگیرم. در ابتدا فکر کردم این درست است: $Probability = \frac{e^{-\chi^2_{min}}}{\sum_i^{N_{trials}}e^{-\chi^2_{i}}}$ بنابراین اساساً احتمال نمایی کمترین $\chi^2$ محاسبه شده است، تقسیم بر مجموع همه مقادیر exp($-\chi^2$) محاسبه شده. این به نوعی معقول به نظر می رسد، زیرا اگر طیفی از نتایج با مقدار کم برای $\chi^2$ وجود داشته باشد (همانطور که در مورد تعداد زیادی آزمایش وجود دارد) آنگاه شمارشگر به سمت 1 متمایل خواهد شد در حالی که اهریمنی با تعداد آزمایشی رشد می کند و احتمال کلی انتخاب بهترین پاسخ را کوچکتر می کند. با این حال، واقعاً کاری را که من می‌خواهم انجام نمی‌دهد: در مثال exteme که من فقط 1 آزمایش دارم، بدون در نظر گرفتن کیفیت پاسخ، همیشه به '1' ارزیابی می‌شود. در معادله خود من چندین متغیر تصادفی گاوسی دارم، و چیزی که واقعاً می‌خواهم این است که اندازه‌ای از «فاصله» یک نتیجه بر حسب میانگین این گاوس‌ها داشته باشم و این را در نحوه تعریف «احتمال» لحاظ کنم. به عنوان مثال: اگر من دو نتیجه با $\chi^2$ مشابه داشته باشم اما مولفه های تصادفی یکی بسیار نزدیک به میانگین باشد و دیگری چند $\sigma$ دور باشد، اولین مورد را به عنوان احتمال بیشتر انتخاب می کنم. نتیجه آیا تکنیکی برای انجام چنین کاری وجود دارد؟ امیدوارم این به اندازه کافی واضح باشد که بتوانم درک کنم - من مطمئن نیستم که چگونه ادامه دهم و از هر پیشنهادی بسیار استقبال می شود. **ویرایش برای افزودن یک ایده جدید:** من به این فکر می‌کنم که کاری که می‌توانم برای در نظر گرفتن همه این عناصر انجام دهم این است که کاری انجام دهم: $Probability = \frac{e^{-\chi^2_{min }} \times e^{-a} \times e^{-b}}{\sum_i^{N_{trials}}e^{-\chi^2_{i}} \times e^{-a} \ بارها e^{-b}}$ که در آن $a$ و $b$ (در $e^{-a}$ و $e^{-b}$) نشان دهنده فاصله از میانگین متغیرهای گاوسی است. افکار بسیار خوش آمدید!
اندازه گیری احتمال به دست آوردن $\chi^2$ معین با توجه به تعداد آزمایشات
112511
من می دانم که این سوال در اینجا به شکل کمی متفاوت پرسیده شده است. اما سوال من متفاوت است و به دلیل قوانین انجمن نمی توانم در آن تاپیک پست بگذارم. من 2 متغیر مستقل دارم، n=32، رگرسیون چندگانه بسیار معنی دار، اما فقط رهگیری/ثابت دارای مقدار p معنی دار است. همچنین، من چند خطی بودن را آزمایش کرده‌ام، در بازخوانی R زیر نیست، اما ضریب تورم واریانس برای 2 متغیر وابسته 2.02 است. دوربین-واتسون، نمودار متغیر اضافه شده، نمودار P-P، نمودار باقیمانده استاندارد شده، و فاصله آشپز همه نرمال هستند. در اینجا خواندن R است - لطفا به من بگویید که چه فکر می کنید. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Pv6p9.jpg) بنابراین: این موضوع به طور مرتبط متفاوت است زیرا; آنچه من در جستجوی آن هستم و هنوز پیدا نکرده ام، توضیحی واقعی برای معنای داشتن یک رگرسیون قابل توجه و نداشتن پیش بینی کننده قابل توجه است. اگر این یافته دقیق باشد، چگونه می توان توضیح داد؟ @Glen_b، من آن قسمت از پست جرومی را دیده‌ام (نظر دوم من را در بالا ببینید) اما چگونه آن را به نثر توضیح دهم؟ آیا درست است که بگوییم متغیرها با هم بر نتیجه تأثیر دارند - اما تأثیر آنها را نمی توان از یکدیگر جدا کرد؟
چگونه یک رگرسیون می تواند معنی دار باشد اما هر دو پیش بینی کننده غیر معنی دار باشند؟
92934
در حال انجام یک تکلیف برای کلاس هستم و به دیوار برخورد کرده ام. من مطمئن نیستم که در مرحله بعد چه کار کنم. با استفاده از نمونه ای با 12 عنصر گسسته، سعی در آزمون فرضیه ای دارم مبنی بر اینکه میانگین جامعه 243 با سطح معنی داری 0.05 است. این چیزی است که من تاکنون داشته ام (این تأیید شده است): n = 12 x bar = 244.33 s = 12.382 t = (244.33 - 243) / (12.382 / sqrt(12)) = 0.3720 مرحله بعدی باید محاسبه باشد مقدار P، که من با جستجوی 0.3720 در جدول t با df = انجام می دهم. n-1 = 11، اما هیچ مقداری در جدول t کمتر از 1 وجود ندارد. بنابراین من نمی دانم چگونه 0.3720 را جستجو کنم. احساس می‌کنم دانش مهمی وجود دارد که از دست داده‌ام و مانع از تکمیل این مشکل می‌شود. من واقعاً از کمک در دانستن نحوه محاسبه P-value از اینجا سپاسگزارم. خیلی ممنون. به روز رسانی: من از نظرات همه قدردانی می کنم، اما احساس می کنم که پاسخ های پیچیده زیادی دریافت می کنم. این یک سوال خارج از کتاب درسی من است و قرار نیست به نرم افزار خاصی یا چیز دیگری نیاز داشته باشد، فقط یک ماشین حساب ساده و یک جدول t. شاید راحت‌تر باشد که این سؤال را از متن آگهی به طور کلمه بپرسیم: * یک نمونه تصادفی از n = 12 شام منجمد از یک نوع خاص از تولید در یک دوره خاص انتخاب شد و محتوای کالری هر یک مشخص شد. در اینجا مشاهدات حاصل آمده است. محتوای کالری اعلام شده 243 است. یک آزمون رسمی از این فرضیه که میانگین جمعیت = 243 است، با سطح معنی داری 0.05 انجام دهید. مشاهدات: 255 244 239 242 265 245 259 248 225 226 251 233 *
وقتی مقدار t کمتر از 1 است چگونه P-Value را بدست آوریم؟
106230
در مدل‌های آماری مختلف، معادله پایه (مانند ساده بیز $$\mathrm{classify}(f_1,\dots,f_n) = \underset{c}{\operatorname{argmax}} \ p(C=c) \displaystyle\ prod_{i=1}^n p(F_i=f_i\vert C=c)$$ تحت توزیع‌های مختلف (مانند گاوسی) تغییر می‌کند بیز ساده $$p(x=v|c)=\frac{1}{\sqrt{2\pi\sigma^2_c}}\,e^{ -\frac{(v-\mu_c)^2}{ 2\sigma^2_c} ,$$ دوباره برای چندجمله ای گاوسی ساده بیز، $$p(F|C) = \frac{(\sum_i است F_i). تعاریف توزیع های مربوطه، اما پاسخ کمی پیش بینی شده است و ممکن است رضایت بخش نباشد، بنابراین فکر کردم از کارشناسان اینجا بپرسم گیج شده ام که چگونه این معادلات تغییر می کنند، مثلاً اگر معادلات پایه را بگیرم و مدل های توزیع مناسب را اعمال کنم، اگر یکی از اعضای محترم ممکن است کمک کند؟
احتمال مشروط یا مشترک تحت توزیع های مختلف
82258
من با داده‌های ریزآرایه کار می‌کنم و سعی می‌کنم ژن‌هایی با بیان متفاوتی که تحت تأثیر میکروبیوتای روده در موش‌ها قرار دارند، پیدا کنم. من 6 آزمودنی دارم که از این تعداد 4 نمونه مختلف یکی از سلول های L منفی و دیگری از سلول های L مثبت از هر دو بافت کولون و روده گرفتم. در ادامه می توانید ماتریس طراحی شده برای هر فایل ریزآرایه را مشاهده کنید: > > فایل موضوع gutMic بافت Lcells > ---------------------------- ---------------- > IPCR1 1 CR ایلئوم Lpos > CPCR1 1 CR کولون Lpos > INCR1 1 CR ایلئوم Lneg > CNCR1 1 CR کولون Lneg > IPCR2 2 CR ایلئوم Lpos > CPCR2 2 CR کولون Lpos > INCR2 2 CR ایلئوم Lneg > CNCR2 2 CR کولون Lneg > IPCR3 3 CR ایلئوم Lpos > CPCR3 3 CR کولون Lpos3 CRN3 CR CR کولون Lneg > IPGF1 4 GF ایلئوم Lpos > CPGF1 4 GF کولون Lpos > INGF1 4 GF ایلئوم Lneg > CNGF1 4 GF کولون Lneg > IPGF2 5 GF ایلئوم Lpos > CPGF2 5 GF روده بزرگ Lpos > INGF2 Lneg5 GF > IPGF3 6 GF ایلئوم Lpos > CPGF3 6 GF کولون Lpos > INGF3 6 GF ایلئوم Lneg > CNGF3 6 GF کولون Lneg > اکنون می خواهم تأثیر میکروبیوتای روده را در L-منفی در مقایسه با سلول های L-مثبت بدون توجه به نوع بافت تجزیه و تحلیل کنم. یعنی GF ~ CR در Lneg و مقایسه آن با GF ~ CR در Lpos). من می دانم که برای داده هایی که از یک موضوع بدست می آیند، باید افزایش همبستگی از اندازه گیری در همان موضوع را در نظر بگیرم تا نتیجه مغرضانه را کاهش دهم. اما در اینجا من نمی دانم چگونه می توانم اثر نمونه هایی که از بافت های مختلف یک موضوع می آیند را کاهش دهم؟!! به عنوان مثال فایل‌های INGF3 و CNGF3 از یک موضوع اما بافت‌های متفاوتی می‌آیند و من می‌خواهم آنها را به عنوان تکراری از یک نمونه در نظر بگیرم.
مشکل ایجاد مدل رگرسیون خطی مناسب برای آزمایش من
97345
من نمی دانم که آیا می توان یک مدل شانس متناسب را به عنوان تابعی از مدل های لجستیک باینری نوشت؟ در واقع من داده هایی در مقیاس پاسخ ترتیبی (خفیف، متوسط، ضعیف) دارم. گزینه‌هایی برای دوقطبی کردن داده‌ها وجود دارد، زیرا ما فقط باید دو درمان را اعمال کنیم. اما البته می توان از یک مدل ترتیبی برای طبقه بندی استفاده کرد، سپس انتخاب دو درمان را می توان بر این اساس اعمال کرد. سوال این است که کدام مدل روی داده ها خوب عمل می کند؟ چگونه «خوب انجام دادن» را کمی کنیم؟ راه حل های موجود عبارتند از: 1) مدل ها را بسازید و به AUC برای باینری و VUS برای ترتیبی نگاه کنید و آنها را مقایسه کنید. 2) به امتیاز بریر برای مدل ترتیبی و باینری نگاه کنید. اما من هنوز فکر می‌کنم راه‌حل‌های اساسی بر روی تأثیراتی است که ما مدل‌سازی می‌کنیم ($\beta$) چگونه آنها برای این دو مدل ارتباط دارند.
نوشتن یک ترتیبی (مدل شانس نسبت) به عنوان تابعی از رگرسیون باینری
82251
فرض کنید من هفت خود همبستگی اول را برای یک متغیر $x$ دارم. و فرض کنید آنها -0.2، 0.15، -0.05، -0.10، -0.05، -0.14، 0.04 هستند.
خودهمبستگی و شواهد iid
25036
من در پیچیدن مغزم به دور این مشکل به ظاهر ساده و در عین حال مفهومی مشکل دارم. همانطور که از عنوان پیداست، سوال این است: چگونه تعداد پارامترهای مورد نیاز برای Naïve Bayes، LDA، و رگرسیون لجستیک (غیرقانونی) به عنوان تابعی از تعداد ویژگی ها مقیاس می شود؟ اگر Y بولی با X_1$ باشد ... ویژگی های X_p$: من می فهمم که برای رگرسیون لجستیک ما یک رابطه خطی بین تعداد پارامترها داریم که بر اساس تعداد ویژگی ها بر اساس درجه آزادی در یک مدل تهی که از مقدار کم شده است. درجات آزادی باقیمانده زمانی که یک تابع glm انجام می شود. یعنی $1 + p$ برای بیز ساده، فکر می کنم این را می فهمم، اما مطمئن نیستم: $P(Y) = p \cdot (\mu(Y=1)، \mu(Y=0)، \sigma (Y=1)، \sigma(Y=0)) = 1 + 4p$ برای LDA؟ من گم شده ام کسی بینشی داره؟
چگونه تعداد پارامترها با تعداد ویژگی ها مقیاس می شود؟
51217
تفاوت بین این دو چیست و چرا سطح اهمیت باید همیشه بالاتر یا مساوی اندازه آزمون باشد؟
اندازه آزمون و سطح اهمیت
64406
من خودم در حال مطالعه مدل های آماری خطی کاربردی توسط مایکل کوتنر، کریستوفر ناچشیم، جان نتر، ویلیام لی هستم. آیا کد R برای متدها در کتاب وجود دارد؟
کد R برای مدل های آماری خطی کاربردی کوتنر و همکاران؟
64400
اجازه دهید $x_t = O_p(1)$، به این معنی که برای همه $\varepsilon > 0$، $M_{\varepsilon} < \infty$ s.t وجود دارد. $P(|X_t| > M_{\varepsilon}) < \epsilon$ برای همه $t \in \mathbb{N}$. آیا به این معنی است که $\sup_{t} Ex_t < \infty$، یعنی اینکه آیا انتظار یک متغیر تصادفی که در احتمال محدود شده است محدود است یا خیر؟ اگر اینطور نیست، می توانید یک مثال متقابل برای من بیاورید؟
محدود به احتمال و انتظار محدود
51213
من یک جمعیت (بزرگ) دارم که در آن به طور تصادفی به گروه‌هایی تقسیم شدم، و یک گروه را تحت یک شرایط آزمایشی قرار دادم (آن را تغییر _A_ نامید) که به طور کلی بهبود قابل توجهی در متغیر هدف نشان داد. این اتفاق می افتد که نوع متغیر هدف یک نسبت است. با این حال، تاثیر تغییر _A_ احتمالا برای همه زیر گروه ها یکسان نیست. فرض کنید من جمعیت خود را به مردان و زنان تقسیم کردم. آیا تغییر _A_ فقط برای زنان بهتر است؟ من فقط برایم مهم است که این تفاوت تغییر جهت باشد، یعنی برای من مهم نیست که برای زنان 15 درصد بهبود و برای مردان 45 درصد بهبود داشته باشد، فقط برای من مهم است که برای زنان 10 درصد بدتر و برای زنان 20 درصد بهتر باشد. آقایان، در این صورت من باید تغییر را فقط برای آقایان اعمال کنم. این تغییر بدون هزینه است، اما برای اعمال آن فقط به صورت مشروط کمی پیچیدگی می‌افزاید، بنابراین اگر برای یک زیرگروه بهتر است و برای زیرگروه دیگر تفاوت معنی‌داری نشان نمی‌دهد، ترجیح می‌دهم تغییر را در سراسر صفحه اعمال کنم. من فقط به این علاقه دارم که آیا تغییر برای یک گروه به طور قابل توجهی مثبت و در گروه دیگر به طور قابل توجهی منفی است. تقسیم به زیر گروه‌ها تا حدودی دلخواه است، مردان و زنان احتمالاً چیزی در حدود 50/50 تقسیم می‌شوند، اما برخی از تقسیم‌بندی‌هایی که می‌توانم انجام دهم، مرتبه‌هایی کوچک‌تر از جمعیت اصلی هستند، مانند مصرف برند محصول یا شهرستان یا چیزی شبیه به آن، که در آن تفاوت ممکن است برای بخش های جداگانه به دلیل اندازه زیرجمعیت چندان قابل توجه نباشد. آیا این ایده خوبی است که ردیابی اثربخشی تغییر _A_ را برای استان‌های منفرد دنبال کنید و آن را فقط برای مناطقی فعال کنید که تغییر مثبت بوده است؟ در برخی از شهرستان ها تغییر بهتر و در برخی بدتر بود. چگونه می توانم بگویم که آیا تفاوت ها به دلیل تغییرات تصادفی نیست؟
تست کنید که آیا تغییر جهت زیرگروه ها متفاوت است؟
2587
آیا این دو مترادف هستند؟ دلیلی که می پرسم این است که کاغذی دارم که مقدار p معینی را به عنوان دنباله بالای توزیع فوق هندسی محاسبه می کند: $\Sigma_{k}^{m} = \frac{\binom{m}{k}\ binom{N-m}{n-k}}{\binom{N}{n}}$ می‌خواهم پیشنهاد آنها را با استفاده از پایتون پیاده‌سازی کنم. Scipy یک توزیع فوق هندسی ارائه می دهد و می تواند تابع بقای آن توزیع را از یک نقطه مشخص محاسبه کند. بنابراین من در تعجب هستم که آیا این دو یکسان هستند؟ آیا می توانم فقط از آن تابع استفاده کنم؟
آیا عملکرد بقا همانند دم بالایی است؟
65353
من متعجب بودم که «فرایند ثابت مرتبه دوم» او در مقدمه براکول و دیویس بر سری های زمانی و پیش بینی چگونه تعریف شده است: > کلاس مدل های سری زمانی خطی، که شامل کلاس > مدل های میانگین متحرک اتورگرسیو (ARMA) می شود. یک چارچوب کلی برای مطالعه فرآیندهای ثابت فراهم می کند. در واقع، هر **فرایند ثابت مرتبه دوم** یا یک فرآیند خطی است یا می تواند با تفریق یک جزء قطعی به یک فرآیند خطی تبدیل شود. این نتیجه به عنوان تجزیه وولد شناخته می شود و در بخش 2.6 مورد بحث قرار گرفته است. در ویکی‌پدیا، حالت ایستایی مرتبه دوم زمانی به وجود می‌آید که الزامات ایستایی سخت > فقط برای جفت متغیرهای تصادفی از سری‌های زمانی اعمال می‌شود. اما من فکر می‌کنم این کتاب تعریف متفاوتی با تعریف ویکی‌پدیا دارد، زیرا در این کتاب از ایستگاهی کوتاه برای ایستایی با حس عریض استفاده می‌شود، در حالی که ویکی‌پدیا از کوتاه ثابت برای ایستایی دقیق استفاده می‌کند. با تشکر و احترام!
فرآیند ثابت مرتبه دوم چیست؟
9599
مثلاً بگویید سه سکه داریم. با توجه به چندین آزمایش، ما 95% فاصله اطمینان برای X (درصد سر) هر سکه داریم. سکه A 0-5٪، سکه B 1-9٪ و سکه C 40-70٪ است. [برای افراد کنجکاو، این CI با استفاده از CDF دو جمله ای معکوس، بر اساس نمونه کوچکی از 30 تلنگر از سکه ایجاد شده است. جای تعجب نیست که ما هیچ سرنخی در مورد ترکیب کیسه سکه ای که این سکه ها از آن کشیده شده اند نداریم.] آیا می توانیم در مورد تعداد سرهایی که انتظار داریم ببینیم اگر هر سه را برگردانیم، چیزی بگوییم؟ یا اگر یک سکه را به صورت تصادفی انتخاب کرده و آن را برگردانیم؟ بر اساس CI محاسبه شده به تنهایی؟ اگر بتوانیم از اطلاعاتی که ما را به آن CI ها هدایت کرده است نیز استفاده کنیم، چه؟ **ویرایش: بگذارید خیلی بیشتر در مورد مشکلم به شما بگویم.** ما 50 سکه داریم که همه آنها مشکوک هستیم که هدهای با احتمال بسیار پایین هستند (خیلی کمتر از 5٪). ما 30 آزمایش انجام می دهیم که هر آزمایش شامل برگرداندن تمام سکه ها و ثبت تمام نتایج است. مقداری که ما به دنبال آن هستیم، یک CI در میانگین تعداد سرها در یک آزمایش است. یک رویکرد ثبت 30 تعداد سر و انجام یک تقریب معمولی استاندارد است. مشکل این است که بسیاری از این 30 عدد 0 و 1 هستند، بنابراین در حالی که میانگین صحیح را دریافت می‌کنیم، می‌ترسم CI به دست آمده بسیار محکم‌تر از آن چیزی باشد که حقش را دارد. کاری که من می‌خواهم انجام دهم این است که با استفاده از 30 نتیجه باینری آن، یک CI برای هر سکه محاسبه کنم. من محاسبه کرده ام که برای 0 هد از 30، این منجر به 95٪ CI بین 0-11.5٪ (البته با میانگین 0) می شود. من این کار را با جایگزین کردن مقادیر P در تابع توزیع تجمعی(1) توزیع دوجمله ای n=30 p=P در Wolfram Alpha انجام دادم تا اینکه نتیجه حدود 0.025 شد. برای 1 هد از 30، CI بین 0-17.2% دریافت می کنم، پس از انجام این کار، آیا می توانم به هر طریقی CI را جمع کنم؟
آیا می توان فواصل اطمینان را اضافه کرد؟
99122
انتظار شرطی خطا در رگرسیون این است: $E[Y-X\beta|X=x]$ برابر با 0 نیست. چرا اینطور است؟ اگر همه متغیرهای پیش بینی کننده را برطرف کنید، چرا $E[Y]$ - $X\beta$ برابر با 0 نیست؟
چرا انتظار شرطی خطای پیش‌بینی در رگرسیون صفر نیست؟
97348
من مجموعه داده ای دارم که هر ماه به روز می شود. من قبلاً یک شبکه عصبی را بر روی یک نمونه توسعه آموزش داده ام و آن را تأیید کرده ام. برای فرآیند ساخت، از پکیج nnet R استفاده کردم. نورالنت رو هم امتحان کردم. من از مدل راضی هستم. با این حال هر ماه یک مجموعه داده به روز دریافت می کنم. چگونه می توانم با استفاده از هر یک از این بسته ها به آموزش شبکه موجود ادامه دهم؟ پیشاپیش از شما بسیار سپاسگزارم، ن
چگونه می توانم به آموزش شبکه عصبی در R ادامه دهم؟
2639
من مقادیر تولید (q) را از 4 روش مختلف در 4 ماتریس ذخیره کرده ام. هر یک از 4 ماتریس حاوی مقادیر q از یک روش متفاوت است: Matrix_1 = 1 ردیف x 20 ستون Matrix_2 = 100 سطر x 20 ستون Matrix_3 = 100 سطر x 20 ستون Matrix_4 = 100 سطر x 20 ستون تعداد ستون ها نشان دهنده تعداد ستون ها است. سال 1 ردیف حاوی مقادیر تولید مربوط به 20 سال است. 99 ردیف دیگر برای ماتریس 2، 3 و 4 فقط تحقق های مختلف (یا اجرای شبیه سازی) هستند. بنابراین اساساً 99 ردیف دیگر برای ماتریس 2،3 و 4 موارد تکراری هستند (اما نه با مقادیر دقیق به دلیل اعداد تصادفی). «ماتریس_1» را به عنوان حقیقت مرجع (یا مورد پایه) در نظر بگیرید. اکنون می‌خواهم 3 ماتریس دیگر را با Matrix_1 مقایسه کنم تا ببینم کدام یک از این سه ماتریس (هر کدام با 100 تکرار) با Matrix_1 بهتر مقایسه می‌شود یا از نزدیک تقلید می‌کند. چگونه می توان این کار را در Matlab انجام داد؟ من به‌صورت دستی می‌دانم که با ترسیم «میانگین ماتریس_1»، و رسم هر توزیع «میانگین ماتریس_2»، «میانگین ماتریس_3» و «میانگین ماتریس_4» از فاصله اطمینان (CI) استفاده می‌کنیم. بزرگترین CI در بین ماتریس 2، 3 و 4 که حاوی حقیقت مرجع (یا «میانگین ماتریس_1») است، پاسخ خواهد بود. میانگین Matrix_1 = (1 ردیف x 1 ستون) میانگین Matrix_2 = (100 سطر x 1 ستون) میانگین Matrix_3 = (100 سطر x 1 ستون) میانگین Matrix_4 = (100 سطر x 1 ستون) امیدوارم سوال واضح باشد و مربوط به SA. در غیر این صورت لطفاً هر چیزی را که در این مورد است ویرایش/پیشنهاد کنید. با تشکر
چگونه توزیع های مختلف را با مقدار حقیقت مرجع در Matlab مقایسه کنیم؟
106344
[من قبلاً در سایت جستجو کردم و نتوانستم پاسخ این سوال را پیدا کنم] با یک مثال ساده: یک مدل رگرسیون لجستیک برای پیش بینی اینکه آیا یک خریدار آنلاین پس از کلیک روی مجموعه ای از یک محصول (نتیجه: خرید) را خریداری می کند یا خیر استفاده می شود. تبلیغات آنلاین (پیش بینی کننده ها: Ad1، Ad2 و Ad3). نتیجه یک متغیر باینری است: 1 (خرید شده) یا 0 (خرید نشده). پیش بینی کننده ها نیز متغیرهای باینری هستند: 1 (کلیک شده) یا 0 (کلیک نشده). بنابراین همه متغیرها در یک مقیاس هستند. اگر ضرایب حاصل از Ad1، Ad2 و Ad3 0.1، 0.2 و 03 باشد، می توان نتیجه گرفت که Ad3 از Ad2 مهمتر است و Ad2 مهمتر از Ad1 است. علاوه بر این، از آنجایی که همه متغیرها در یک مقیاس هستند، ضرایب استاندارد و غیر استاندارد باید یکسان باشند و می‌توان نتیجه گرفت که Ad2 از نظر تأثیر آن بر سطح logit (log-odds) دو برابر از Ad1 مهم است. اما در عمل ما بیشتر به نحوه مقایسه و تفسیر اهمیت نسبی متغیرها از نظر سطح p (احتمال خرید) اهمیت می دهیم، نه logit (log-odds). بنابراین سؤال این است: آیا رویکردی برای کمی کردن اهمیت نسبی این متغیرها بر حسب p وجود دارد؟ خیلی ممنون
چگونه می توان اهمیت متغیر نسبی را در رگرسیون لجستیک بر حسب p تعیین کرد؟
2580
من داده‌هایی با پیک دوگانه دارم که سعی می‌کنم آن‌ها را مدل کنم، و به اندازه‌ای همپوشانی بین پیک‌ها وجود دارد که نمی‌توانم آنها را به طور مستقل درمان کنم. هیستوگرام داده ها ممکن است چیزی شبیه به این باشد: ![متن جایگزین](http://i.stack.imgur.com/EuTFp.png) من دو مدل برای این کار ایجاد کرده ام: یکی از دو توزیع پواسون استفاده می کند و دیگران از دو توزیع دوجمله ای منفی (برای توضیح بیش از حد پراکندگی) استفاده می کنند. راه مناسب برای تشخیص اینکه کدام مدل با داده ها مطابقت بیشتری دارد چیست؟ فکر اولیه من این است که می توانم از آزمون کولموگروف-اسمیرنوف برای مقایسه هر مدل با داده ها استفاده کنم، سپس یک تست نسبت احتمال انجام دهم تا ببینم آیا یکی از آنها به طور قابل توجهی تناسب بیشتری دارد یا خیر. آیا این منطقی است؟ اگر چنین است، من دقیقاً مطمئن نیستم که چگونه تست نسبت احتمال را انجام دهم. آیا خی دو مناسب است و من چند درجه آزادی دارم؟ اگر کمک کند، برخی از کدهای R (بسیار ساده) برای مدل‌ها ممکن است چیزی شبیه به این باشد: ## داده‌های اولیه یک <- read.table(data) #create model data model.pois = c(rpois(1000000, 200),rpois(500000250)) model.nb = c(rnbinom(1000000,200,0.5),rnbinom(500000,275,0.5) #تست کولموگروف-اسمیرنوف #استفاده از ks.boot، زیرا داده های شمارشی است که ممکن است حاوی مقادیر تکراری باشد kpois = ks.boot(model.pois,a ) knb = ks.boot(model.nb,a) #اینجاست من یک نوع تست نسبت احتمالی # انجام می دهم فاصله دو جمله ای برای توضیح بیش از حد) مناسب تر است text](http://i.stack.imgur.com/NE6Vq.png) (قرمز - داده، سبز - مدل)
اندازه‌گیری خوبی برازش در مدلی که دو توزیع را ترکیب می‌کند
20546
من یک سری زمانی از داده ها (حدود 300-750 عنصر، بسته به نمونه) و مدلی دارم که دارای برخی باقیمانده های تصادفی است. من از آزمون کولموگروف-اسمیرنوف استفاده کردم تا مطمئن شوم که فرضیه نرمال بودن را نمی توان رد کرد، بنابراین فرض می کنم که باقیمانده ها به طور معمول توزیع شده اند. اما حالا حدس می زنم باید تست کنم که آیا آنها مستقل از یکدیگر هستند - تا اتورگرسیون وجود نداشته باشد؟ از کدام تست (ترجیحا تستی که به راحتی در جاوا قابل پیاده سازی باشد) استفاده کنم؟
آزمون استقلال متغیرهای تصادفی
78096
من در حال اجرای یک تحلیل هستم و رویکردهای بسیار متفاوتی را امتحان کرده ام، برخی مکرر و برخی بیزی. حالا من می خواهم عملکرد یا تناسب مدل ها را با هم مقایسه کنم و فکر می کردم چگونه می توانم این کار را انجام دهم. اگر من فقط مدل‌های بیزی داشتم، می‌توانستم مدل‌ها را بر اساس DIC، عوامل بیز و/یا بررسی‌های پیش‌بینی پسین مقایسه کنم. اگر من فقط مدل های متداول داشتم، می توانستم برای مثال از AIC یا BIC استفاده کنم. آیا اعتبار سنجی متقاطع کنار گذاشته شود در اینجا مناسب است؟
مقایسه مدل های بسیار متفاوت
99126
درک معنای نمونه تصادفی و همچنین متغیر تصادفی iid با مشکل مواجه شده ام. من سعی کردم معنی را از چندین منبع پیدا کنم، اما بیشتر و بیشتر گیج شدم. من آنچه را که سعی کردم و دانستم را اینجا پست می کنم: احتمال و آمار Degroot می گوید: > نمونه های تصادفی / i.i.d. / اندازه نمونه: یک احتمال > توزیع را روی خط واقعی در نظر بگیرید که می تواند با یک p.f نمایش داده شود. یا a > p.d.f. F$. گفته می شود که $n$ متغیرهای تصادفی $X_1، . . . اگر این متغیرهای تصادفی > مستقل و p.f حاشیه ای باشند، X_n$ از این توزیع یک نمونه تصادفی > تشکیل می دهند. یا p.d.f. هر یک از آنها $f$ است. به چنین متغیرهای تصادفی > مستقل و به طور یکسان > توزیع شده، به اختصار i.i.d نیز گفته می شود. ما به تعداد n متغیرهای تصادفی > به عنوان حجم نمونه اشاره می کنیم. اما یکی از کتاب‌های آماری دیگری که دارم می‌گوید: > در یک نمونه‌گیری تصادفی، ما تضمین می‌کنیم که هر واحد فردی در > جمعیت شانس (احتمال) مساوی برای انتخاب شدن دارد. بنابراین، من این احساس را دارم که i.i.d.s عناصری هستند که نمونه تصادفی را می سازند، و روش نمونه گیری تصادفی، نمونه گیری تصادفی است. درست میگم؟ P.S.: من در مورد این موضوع بسیار سردرگم هستم، بنابراین از پاسخ دقیق سپاسگزارم. با تشکر
آیا «نمونه تصادفی» و «متغیر تصادفی iid» مترادف هستند؟
107541
از آنجایی که رویداد من به خصوص نادر نیست، من بیشتر به نسبت‌های ریسک علاقه‌مندم تا نسبت‌های شانس برای مسئله مدل‌سازی خطی تعمیم‌یافته فعلی‌ام، که به رگرسیون منظم نیاز دارد. من در حال انجام رگرسیون منظم با «glmnet» هستم. من می‌دانم که می‌توانید اثرات نسبت ریسک را به جای اثرات نسبت شانس با برازش رگرسیون پواسون با واریانس خطای قوی بدست آورید، که ترجیح داده می‌شود زیرا عدم استفاده از واریانس خطای قوی، فواصل اطمینان شما را افزایش می‌دهد. خوب «glmnet» فواصل اطمینان را ارائه نمی دهد، بنابراین من فقط به تخمین های نقطه ای نگاه می کنم. سوال من این است که آیا می‌توانم یک رگرسیون پواسون را با استفاده از «glmnet» به داده‌های باینری بگنجانم، بدون اینکه ضرایبی به صفر کاهش یابد، زیرا «glmnet» با واریانس خطا رفتار نمی‌کند. متشکرم.
رگرسیون پواسون در نتایج باینری با glmnet؟
79968
من یک سوال در مورد رگرسیون مولفه اصلی (رگرسیون یک DV روی اجزای اصلی) دارم. من 4 جزء در PCR خود دارم و جزء سوم به عنوان یک پیش بینی کننده غیر قابل توجه است. این به چه معناست؟ جالب است که مؤلفه چهارم ضعیفتر با این حال قابل توجه است. کسی می تواند این را برای من توضیح دهد؟
مولفه های اصلی غیر معنی دار به عنوان پیش بینی کننده در یک رگرسیون
97346
من یک سوال دارم که برایم گیج کننده است و امیدوارم بتوانم پاسخ هایی را در اینجا پیدا کنم :). فرض کنید سیگنال های زیادی دارم، مثلاً چهار $X_1، X_2، X_3، X_4$ فرض کنید من مجموعه ای از پنجره های $w_1، w_2، \dots، w_n $ دارم، در هر پنجره، هر سیگنال از توزیع پواسون پیروی می کند، به عنوان مثال: $ X_i \sim Poisson(\lambda_i) $. کاری که می‌خواهم انجام دهم این است که پنجره‌هایی را پیدا کنم که برای برخی از سیگنال‌ها ارزش بالایی نشان می‌دهند و برای برخی دیگر نه، به عنوان مثال دارای ارزش بالا برای X_1، X_2 دلار و سیگنال کم برای X_3، X_4 دلار هستند. یک ایده که به ذهن من می‌رسد. این است که از یک روش ANOVA مانند استفاده کنید که در آن گروه اول شامل $ X_1، X_2 $ و دوم شامل $ X_3، X_4 $ است و آزمایش کنید که آیا مقادیر گروه به طور قابل توجهی **بزرگتر** است یا خیر. **پایین‌تر** از دیگری. از آنجایی که داده ها به طور معمول توزیع نمی شوند، من فکر می کنم از یک مدل GLM استفاده می کنم، اما به نظر می رسد بسته glm موجود در R و پایتون برای برابری تست می شود (امیدوارم اشتباه باشد). آیا این رویکرد معقول به نظر می رسد؟ اگر چنین است چگونه می توان این تست را با استفاده از بسته statsmodel R یا python انجام داد. پیشاپیش ممنون
بررسی کنید که آیا گروهی از سیگنال ها دارای ارزش قابل توجهی کمتر یا بالاتر از گروه دیگری با استفاده از GLM هستند
97343
من باید واگرایی KL را بین توزیع $q$ و توزیع قبلی $p$ محاسبه کنم، که هر دو گاوسی تک متغیره هستند، یعنی $KL(q|p)، q \sim \mathcal{N}(\mu, \ sigma^2)، p \sim \mathcal{N}(\mu', \sigma'^2)$. این اصطلاح بخشی از یک فرمول بزرگتر است که به نوعی توجیه شده است که به این سؤال مربوط نیست. حالا، راستش را بخواهید، نمی‌خواهم فرضیات _any_ را روی $p$ قرار دهم، جز اینکه گاوسی است. شهود من این است که بگویم اگر این کار را انجام دهم، فقط می توانم بگویم $p=q$ و بنابراین $KL(p|q) = 0$. نمی‌دانم راهی برای بیان این شهود به ریاضی مناسب وجود دارد یا خیر. من در مورد پیشین های غیر اطلاعاتی مطالعه کردم، اما چیزی در مورد محاسبه واگرایی KL در این سناریو پیدا نکردم. **به روز رسانی:** سعی می کنم سوال را واضح تر بیان کنم. من دو توزیع دارم. یکی قبلی است، دیگری توسط داده ها هدایت می شود. پیشین من به هیچ محدوده پارامتری مرتبط نیست (مثلاً به شکل پیشین مزدوج)، بلکه فقط در شکل عملکردی آن (یعنی خانواده توزیع) مشخص شده است. در چارچوب‌های معمولی بیزی، به چنین چیزی، پیشین اطلاعاتی گفته می‌شود. آیا همین مفهوم برای توابع هدف مبتنی بر KL وجود دارد؟
واگرایی KL بین یک گاوسی غیر اطلاعاتی (؟) و یک گاوسی
97347
چگونه می توانم دقت کد رگرسیون لجستیک خود را که دقت را با استفاده از تکنیک اعتبارسنجی متقاطع 10 برابری آزمایش می کند، بهبود بخشم؟ من این کد را با استفاده از 'glmfit' و 'glmval' پیاده سازی کرده ام. دقت مورد نظر تا حدودی بالاتر است و نیاز به یافتن پارامترها با استفاده از برآوردگر حداکثر درستنمایی دارد. همچنین وقتی این کد را در متلب اجرا می کنم، با خطای زیر مواجه می شوم > Warning: X is ill conditioned یا مدل overparameterized و برخی > ضرایب قابل شناسایی نیستند. در انجام > پیش بینی ها باید احتیاط کنید. در glmfit در 245 در LR در 8 کد این است: تابع LR( X,y) y(y==-1)=0; X=[اونی(اندازه(X,1),1) X]; disp(اندازه(X,2)); indices = crossvalin('Kfold',y,10); برای آزمون i = 1:10 = (شاخص ها == i); قطار = ~ آزمون; b = glmfit(X(train,:),y(train),'dunomial','logit'); y_hat= glmval(b,X(test,:),'logit'); y_true=y(تست،:); error(i)=mean(abs(y_true-y_hat)); دقت پایان=(1-خطا)*100; fprintf('accuracy= %f +- %f\n',mean(accuracy),std(accuracy)); پایان
چگونه می توانم دقت کد رگرسیون لجستیک خود را که دقت را با استفاده از تکنیک اعتبارسنجی متقاطع 10 برابری آزمایش می کند، بهبود بخشم؟
24925
در مطالعه‌ام، چندین متغیر پیش‌بینی‌کننده و همچنین متغیر/نتیجه‌های وابسته دارم. من فشار نظری زیادی برای انتخاب هر متغیری نسبت به متغیر دیگر ندارم و تصمیم‌گیری درباره رگرسیون‌ها ناامیدکننده است. بنابراین من همبستگی بین همه متغیرها، IV و DV را اجرا کردم تا ببینم کدام یک رابطه دارند. آیا این مورد اخم است؟ آیا می توانم از این اطلاعات برای اطلاع از اینکه کجا بیشتر جستجو کنم استفاده کنم؟ آیا همبستگی ها مستعد خطای خانوادگی هستند؟
آیا انجام همبستگی و سپس رگرسیون مناسب است؟
113839
من از تابع nls در R برای انجام یک رگرسیون غیرخطی استفاده می کنم و باید باقیمانده های دانشجویی را محاسبه کنم. آیا این چیزی است که باید به صورت دستی انجام دهم؟ به نظر می رسد که برای انجام این کار باید به صورت دستی یک تجزیه QR انجام دهم و ماتریس کلاه را محاسبه کنم. من با انجام این کار مشکلی ندارم اما می خواستم بپرسم آیا کسی راه ساده تری برای انجام این کار می داند؟
باقیمانده های دانشجویی در رگرسیون غیرخطی
2635
من باید نرخ شکست (به عنوان قطعی) را بر اساس نرخ جدید خرابی در مورد همان سیستم به روز کنم (این نیز قطعی است). من در مورد پیشینهای مزدوج و توزیع گاما به عنوان مزدوج برای فرآیند پواسون مطالعه کردم. همچنین، من می توانم مقدار میانگین فاصله گاما را معادل سازی کنم. ($\beta/\alpha$) به نرخ جدید (به عنوان مقدار متوسط) اما اطلاعات دیگری مانند انحراف معیار، ضریب تغییرات، مقدار صدک 90 و ... ندارم. آیا یک راه جادویی برای دستکاری آن و یافتن پارامترهای گامای قبلی وجود دارد، بنابراین من گامای پسین را نیز دریافت می کنم؟
مزدوج قبل برای توزیع گاما
12922
من از عرض Silhouette برای محاسبه بهترین مقدار برای k در k-means استفاده می کنم. همانطور که در حال انجام خوشه‌بندی اسناد هستم، مقادیر «a» و «b» را به صورت زیر در پایتون محاسبه می‌کنم: a = distance(data[index]، centroids[clusters[index]]، metric=metric، p=p) b = min([فاصله(داده[شاخص]، ج) برای i,c در enumerate(سنتروئیدها) اگر i != نمایه فعلی]) امتیاز = شناور(b - a) / max(a, b) if max(a, b) > 0 else 0.0 فرمول اصلی از صفحه ویکی پدیا به شرح زیر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com /2mdKh.png) من از یک معیار تشابه «کسینوس» برای محاسبه فواصل استفاده می‌کنم و در این فکر بودم که آیا این فرمول نیاز به تغییر دارد یا می‌توان آن را همانطور که هست رها کرد. در قطعه کد بالا، تابع 'distance' متریک شباهت کسینوس را محاسبه می کند.
آیا فرمول silhouette بسته به متریک فاصله تغییر می کند؟
78091
من سعی می کنم مدل ARIMAX را پیاده سازی کنم. من ویژگی های برون زا زیادی دارم و نمی دانم کدام یک در پیش بینی متغیر درون زا من مهم هستند. آیا ARIMAX دارای نوعی انتخاب ویژگی بومی است که فقط وزن کمتری را برای متغیرهایی که اهمیت ندارند و وزن بیشتری را برای متغیرهایی که مهم هستند قرار می دهد؟ اگر نه، آیا باید از نوعی الگوریتم انتخاب ویژگی برای تعیین اینکه کدام متغیرها مهم هستند استفاده کنم؟
انتخاب ویژگی ARIMAX
113836
اغلب ما گرافیک های مرتبط را برای درک بهتر یک مشکل ترکیب می کنیم. ما این کار را برای گفتگوهای پوستری در تحقیقات انجام می دهیم (اگرچه ما متن را اضافه می کنیم). بسیاری از اینفوگرافیک ها نیز مانند داشبورد این کار را انجام می دهند. مشکل این است که من اصطلاح مناسبی را برای **ترکیب گرافیک های مرتبط**، از جمله نمودارهای استاتیک، نمی دانم. گرافیک های شبکه ای، وجهی، یا شبکه ای (زیرمجموعه ای از آنچه Tufte آن را چندگانه می نامد) که در آن داده ها به دو یا چند متغیر گروه بندی تقسیم می شوند، چیزی نیستند که در مورد آن صحبت می کنم زیرا هر وجهی همان نوع گراف است. منظور من از ترکیب نمودارهای مرتبط معمولاً بدون متن است، همانطور که در یک پوستر انجام می دهیم. در اینجا مثالی در «ggplot2» آمده است که در آن شخصی چندین گرافیک را در اطراف یک رویداد خاص ترکیب کرده است: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/vebLO.png) من این کار را با «arrangeGrob» انجام می دهم، grid.arrange یا par(mfrow=c()) \+ layout (گاهی اوقات) در R. مایلم این را صدا کنم یک داشبورد به عنوان یک اطلاعات گرافیکی می تواند این نوع نمایشگر باشد، اما یک اطلاعات گرافیکی ممکن است فقط یک نمودار داشته باشد (من معمولاً فکر می کنم اکثر نمودارها نمودار اطلاعاتی هستند). این وب سایت می گوید که استفان فیو در مورد داشبوردها می گوید: > داشبورد نمایشی بصری از مهم ترین اطلاعات مورد نیاز برای > رسیدن به یک یا چند هدف است. ادغام و مرتب شده بر روی یک صفحه > به طوری که اطلاعات را می توان در یک نگاه نظارت کرد. به نظر می رسد این نزدیک ترین اصطلاحی است که من مطرح می کنم، اما مطمئن نیستم. به این معنی است که نمایشگر باید روی رایانه باشد. توضیحات من محدود به کامپیوتر نیست، به عنوان مثال می توانم آن را روی کاغذ چاپ شده در یک مجله نمایش دهم. شاید اصطلاح(های) بهتری نسبت به داشبورد وجود داشته باشد. **واژه(های) مورد استفاده برای ترکیب انواع مختلف نمودارها (یعنی غیر وجهی) و در عین حال مرتبط در یک نمایشگر منفرد چیست؟**
نامی برای ترکیب گرافیک های مرتبط
78095
فاصله اقلیدسی با شباهت هسته خطی مطابقت دارد از طریق: $$d_\text{Euclidean}(x,y)^2=\sum_i (x_i-y_i)^2=\sum_i x_i^2 + y_i^2 - 2 x_i y_i = \left<x,x\right>+\left<y,y\right>-2\left<x,y\right>$$ آیا مطابقت هسته با فاصله منهتن و سایر هنجارهای $L_p$ وجود دارد (مینکوفسکی معیارها)؟ یا به نحوی تابع هسته را نیز ارائه نمی دهند؟ من سعی می کنم بفهمم این خانواده محبوب معیارها چگونه با شباهت هسته ارتباط دارند.
تفسیر هسته فاصله منهتن / هنجارهای Lp
97349
من داشتم به مثال زیر نگاه می کردم اما هیچ راه حلی پیدا نکردم... > اقلام از تعداد زیادی یک به یک بررسی می شوند تا اینکه موارد r با نقص ساخت نادر > پیدا شود. نسبت اقلام با این نوع نقص > در لات $'p'$ شناخته شده است. اجازه دهید $X$ تعداد مواردی را که باید بررسی شوند را نشان دهد. توزیع احتمال $X$ را استخراج کنید و > $E\left (X \right)$ را پیدا کنید. من فکر می کنم این مربوط به تابع بیش از حد هندسی است، اما نمی توان جلوتر رفت.
توزیع احتمال بیش از حد هندسی در مسئله نقص آیتم
113835
می‌خواهم بفهمم رگرسیون‌های حداقل مربعات وزن‌دار چگونه برای پیاده‌سازی آن در زمینه پیچیده‌تر کار می‌کنند. فکر می‌کنم قدم خوبی در این فرآیند هستم، اما هنوز در این فکر هستم که روش صحیح محاسبه ضرایب استاندارد شده برای یک رگرسیون وزنی چیست. من یک مدل ساده با Y به عنوان وابسته و X1-X3 به عنوان متغیرهای مستقل و وزن W. همبستگی کتابخانه (MASS) ایجاد کردم. ماتریس <- matrix(c(1,0,0,0,0,1,0,0,0 ,0,1,0,0,0,0,1),nrow=4) نمونه.اندازه <- 500 میانگین.بردار <- c(1,2,3,0) پیوسته.داده <- به عنوان. 2*X[,1]+1*X[,2]+4*X[,3]+sqrt(2)*E+2 ​​W <- runif(500,0,1) Wd<-diag(W) Xi <- cbind(rep(1500),X) سپس استراتژی‌های محاسباتی مختلف را آزمایش کردم و آنها را با نتایج SPSS مقایسه کردم. چرا SPSS؟ زیرا تخمین‌های استاندارد و غیراستانداردی را برای رگرسیون‌های وزنی ارائه می‌کند و افرادی که من برای آنها کار می‌کنم معمولاً از SPSS استفاده می‌کنند. رگرسیون های بدون وزن (1 و 2) البته مشکلی ندارند و همیشه بین محاسبات R من و SPSS برابر هستند. نتایج رگرسیون وزنی غیراستاندارد نیز بین رویکردهای محاسباتی برابر و برای من واضح است (3). با این حال، با (4) من کاملاً متوجه نمی شوم که چرا SPSS از متغیرهای استاندارد شده به عنوان ورودی استفاده می کند، آنها را وزن می کند و دوباره آنها را استاندارد می کند (4c). من فکر کردم که این درست نیست و انتظار داشتم که 4b درست باشد. نظری در مورد این موضوع دارید؟ 1) رگرسیون غیر استاندارد بدون و با قطع // برابر با حل SPSS(t(X)%*%X)%*%(t(X)%*%Y) lm(Y~X[,1]+X[, 2]+X[،3]، وزن‌ها=W) حل (t(Xi)%*%Xi)%*%(t(Xi)%*%Y) lm(Y~0+X[,1]+X[,2]+X[,3],weights=W) 2) رگرسیون استاندارد // برابر با SPSS Xs <- scale(X) Ys <- scale(Y ) حل (t(Xs)%*%Xs)%*%(t(Xs)%*%Ys) حل (cor(X))%*%cor(X,Y) حل(var(Xs))%*%cov(Xs,Ys) lm(Ys~Xs[,1]+Xs[,2]+Xs[,3]) 3) رگرسیون وزنی غیر استاندارد بدون و با قطع // برابر به SPSS Xw <- X*sqrt(W) Yw <- Y*sqrt(W) حل(t(Xw)%*%Xw)%*%(t(Xw)%*%Yw) حل(t(X)%*%Wd%*%X)%*%(t(X)%*% Wd%*%Y) lm(Ys~Xs[,1]+Xs[,2]+Xs[,3],weights=W) 4a) رگرسیون وزنی استاندارد (اول استاندارد شده، سپس وزن‌دار) // نه!!! برابر با SPSS Xsw <- Xs*sqrt(W) Ysw <- Ys*sqrt(W) حل(t(Xsw)%*%Xsw)%*%(t(Xsw)%*%Ysw) حل(t(Xs )%*%Wd%*%Xs)%*%(t(Xs)%*%Wd%*%Ys) حل(var(Xsw))%*%cov(Xsw,Ysw) 4b) رگرسیون وزنی استاندارد شده (اول وزن شده، سپس استاندارد شده) // نه!!! برابر با SPSS Xws <- scale(Xw) Yws <- scale(Yw) حل(t(Xws)%*%Xws)%*%(t(Xws)%*%Yws) حل(cor(Xw))%* %cor(Xw,Yw) 4c) رگرسیون وزنی استاندارد شده (اول استاندارد شد، سپس وزن شد، سپس دوباره استاندارد شد) // برابر با SPSS با Intercept! Xsws <- مقیاس(Xsw) Ysws <- مقیاس(Ysw) حل(t(Xsws)%*%Xsws)%*%(t(Xsws)%*%Ysws) حل(cor(Xsw))%*%cor( Xsw,Ysw) با تشکر جان-مایکل
حداقل مربعات وزنی با ضرایب استاندارد
95783
لطفا ابتدا به این پیوند نگاهی بیندازید: http://en.wikipedia.org/wiki/Ljung%E2%80%93Box_test#Formal_definition نوشته شده است $\chi_{1-\alpha,h}^2$ $\alpha$-quantile توزیع مربع خی با درجه آزادی $h$. آیا $\chi_{1-\alpha,h}^2$ به این معنی است: 1. ناحیه زیر نمودار $\chi^2(h)$ از $\chi_{1-\alpha,h}^2$ تا $\infty$ است $\alpha$ یا 2. ناحیه زیر نمودار $\chi^2(h)$ از $\chi_{1-\alpha,h}^2$ تا $\infty$ است $1-\alpha$؟
چندک آلفا مربع کای
78093
من یک رگرسیون لجستیک بر روی تأثیر دوز، سن، PS، یائسگی و pairID بر متغیر پاسخ اعمال می‌کنم. داده‌ها از یک مطالعه مورد-شاهدی به دست می‌آیند که در آن کنترل‌ها بر اساس سن، PS و یائسگی همسان یا جفت شدند. سپس شناسه جفت به عنوان PairID ثبت می شود و همچنین یک متغیر کمکی در مدل است. حالت این است: mod2 <- glm (پاسخ ~ دوز + سن + PS + یائسگی + شناسه زوجی، خانواده = دوجمله ای (لینک = logit)، داده = داده) خروجی مدل ضریب تخمینی را نشان می دهد: خلاصه (mod2) انحراف باقیمانده: حداقل 1Q Median 3Q Max -0.89847 -0.36858 -0.05885 -0.02615 3.00978 ضرایب: (2 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -32.73273 11.42767 -2.864 0.004179 ** MaxDose 0.07984 0.02287 3.491 0.000482 *** سن 0.000482 *** سن 0.62249.0 0.021910 * PS1 -0.39054 0.89232 -0.438 0.661628 PS2 17.09581 1268.45566 0.013 0.989247 PS3 15.763341 15.76332011501. 0.993139 menopausalpost -12.55850 5.28287 -2.377 0.017444 * یائسگی -23.87464 10.51685 -2.270 0.023200 * 143200 * 143200. 0.088754. PairID3 3.60030 2.20299 1.634 0.102200 PairID4 -13.42706 6.47253 -2.074 0.038036 * PairID5 -0.16041 1.50785 -0.1015 -0.16041 -0.16041 PairID4 -13.20065 1268.45572 -0.010 0.991697 PairID7 -19.62178 1833.21665 -0.011 0.991460 PairID8 -7.08125 3.555920 -1. -0.05779 1.84367 -0.031 0.974994 PairID10 -6.59761 3.44665 -1.914 0.055593. PairID11 3.13177 1.55304 2.017 0.043744 * PairID12 9.04193 4.16930 2.169 0.030106 * PairID13 15.00443 7.033744 PairID12 7.033528 1.00987 1.58307 0.638 0.523527 PairID15 5.45367 2.91475 1.871 0.061336. PairID16 -3.13399 2.18068 -1.437 0.150672 PairID17 6.85244 3.63025 1.888 0.059081. PairID18 5.60300 3.02755 1.851 0.064217. PairID19 NA NA NA NA PairID20 -11.53556 5.23541 -2.203 0.027569 * PairID21 -11.09677 5.23554 -2.120 0.034048 * 0.034048 * 0.034048 * 2.203.31196. 0.051799 . PairID23 NA NA NA NA PairID24 -18.62866 1268.45749 -0.015 0.988283 PairID25 4.83989 1.81209 2.671 0.007565 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 226.13 در 540 درجه آزادی انحراف باقیمانده: 167.6 در 511 درجه آزادی AIC: 227.62 تعداد تکرارهای Fisher Scoring: 17 از این خروجی به نظر می رسد که یائسگی متغیر تأثیر قابل توجهی دارد. با این حال، اگر تجزیه و تحلیل انحراف را برای آزمایش اهمیت هر یک از متغیرهای کمکی اعمال کنم، یائسگی متغیر df=0 را نشان می دهد. کسی میدونه چرا؟ drop1 (mod2، تست = Chisq) حذف‌های یک‌باره مدل: جمع‌شده ~ MaxDose + Age + PS + یائسگی + PairID Df Deviance AIC LRT Pr(>Chi) <هیچ> 167.62 227.62 MaxDose 1 213.085 213.0827 1.557e-11 *** سن 1 175.22 233.22 7.602 0.005829 ** PS 3 173.49 227.49 5.868 0.118227 یائسگی 0 167.602 227. 186.31 202.31 18.684 0.664773
چرا تحلیل انحراف glm برای یک متغیر کمکی df=0 می دهد؟
24078
آیا می توان تحلیل مؤلفه های اصلی را روی متغیرهایی که تعداد ردیف های داده متفاوتی دارند انجام داد؟ به عنوان مثال، اگر فقط سه متغیر وجود داشت - Var1، Var2، Var3 - که در آن Var1 دارای 100 ردیف داده، Var2 دارای 50 ردیف و Var3 دارای 20 ردیف است. آیا PCA روی چنین مجموعه داده ای قابل انجام است؟ اگر PCA امکان پذیر است، آیا به سادگی موارد خالی را صفر کنم یا به نوعی تغییر نیاز است؟ اگر ابعاد همه متغیرها یکسان بود (به عنوان مثال Var1، Var2، Var3 همه دارای 100 ردیف داده هستند)، مشکلی وجود نداشت. متأسفانه مجموعه داده های من چندان بی اهمیت نیست. لطفا راهنمایی کنید. با تشکر
استفاده از تحلیل مؤلفه های اصلی بر روی متغیرهای ابعاد مختلف؟
82259
اخیراً با مدل‌های شبکه‌های عصبی مصنوعی بازی می‌کردم و به مشکلی برخوردم که نمی‌توانم آن را بفهمم. اساساً، من در حال بازی با مدلی هستم که بر روی یک نمونه نسبتاً کوچک آموزش داده شده است که عملکرد پیش‌بینی شده مدل شبکه‌های عصبی آموزش‌دیده از آن محدود است. با این حال، متوجه شدم که اگر چندین بار مدل را اجرا کنم، میانگین پیش‌بینی نمونه رضایت‌بخش‌تر است. سوال من این است که آیا این روش معتبری برای استفاده از نتایج پیش بینی شده است؟ آیا راه دیگری وجود دارد که من باید به دنبال رسیدن به هدفی مشابه باشم؟
آیا برای محاسبه میانگین نتایج چند شبکه عصبی معتبر است؟
9595
من از یک مدل تاخیر توزیع شده برای تجزیه و تحلیل داده های سری زمانی استفاده می کنم. مدت زمان مطالعه 18 سال است و مشاهده سالانه است. زمانی که یک اثر تاخیر 1 ساله لحاظ شود، اولین سال متغیر تاخیر از بین می رود. سپس، یک اثر تاخیر 2 ساله باعث می شود که دو داده اول متغیر تاخیر گم شوند و غیره. من قصد دارم پنج اثر تاخیر را در مطالعاتم تجزیه و تحلیل کنم، اما پنج متغیر تاخیر باعث 5 داده از دست رفته شدند. من فرض می‌کنم انتساب چندگانه ممکن است به من در غلبه بر از دست دادن اطلاعات در این متغیرهای تاخیر کمک کند، اما نتیجه انتساب معقول نیست. آیا ایده بهتری برای نسبت دادن داده های از دست رفته در متغیرهای تاخیر وجود دارد؟
چگونه از دست دادن اطلاعات از متغیرهای تاخیر کم کنیم؟
24079
من کاملاً مطمئن هستم که مقدار مطلق کوواریانس فاصله 1 را برآورده می کند. هویت غیر قابل تشخیص ها یا بدیهیات تصادفی) 3. d(x, y) = d(y, x) (تقارن) اما در مورد: 4) d(x, z) ≤ d(x, y) + d(y, z) (subadditivity / نابرابری مثلث) مطمئن نیستم. من به طور خاص به فضایی از سریال‌های زمانی فکر می‌کنم، اما فکر نمی‌کنم که خیلی مهم باشد.
آیا قدر مطلق کوواریانس فاصله یک متریک است؟
107544
R در پردازش داده ها خوب است. این یک توربو جینسو تحلیلی است. بنابراین LabVIEW در دریافت داده عالی است. به هر چیزی با الکترود متصل می شود. MatLab دارای simulink است. جعبه ابزارهایی برای جمع آوری داده ها وجود دارد. R چه چیزی دارد؟ آیا به سخت افزار متصل می شود یا برای آن خیلی آزمایشگاهی است؟ رابط R با سخت افزار برای جمع آوری داده هایی که به زیبایی تجزیه و تحلیل می کند چیست؟ در ارتباط با روش جمع آوری و با روش تجزیه و تحلیل است که می تواند متقابلا آموزنده باشد. اگر ورودی ویدیو دارم و می‌خواهم ردیابی تصویر دو بعدی انجام دهم، چرا از R استفاده کنم؟ من این کار را نمی کنم زیرا نمی تواند محصول نهایی را مطلع کند. این کتابخانه دارای کتابخانه های بزرگی است که وسعت حوزه ریاضیات را طی می کنند، که توسط بهترین های این رشته ساخته شده اند، بنابراین آنها به طور قابل ملاحظه ای صحیح هستند. این در دنیای محصول محور هیچ معنایی ندارد. شما باید بتوانید کار خود را تولید کنید. متلب دارای کامپایلر متلب است. LabVIEW کامپایل شده و دارای زمان اجرا مستقل است. هر دو از یک طرف به سخت افزار متصل می شوند و از طرف دیگر کاربر با ریاضیات خوب در وسط. R آن را ندارد - یا دارد؟ لیست بسته، مستندات و نمونه برای این پاسخ درخواست شده است.
اکتساب داده در R
2585
من نمونه بزرگی از داده‌های بازار دارم - یعنی قیمت‌ها و مقدار کالاهایی که توسط فروشندگان در مقاطع زمانی خاص، اما متناقض فروخته می‌شوند. با فرض اینکه من یک خریدار هستم و کیفیت کالا در کل بازار ثابت است (مثلاً کالاهای مصرفی یک تولید کننده)، چگونه این داده ها را نمودار می کنید؟ به خاطر داشته باشید که ممکن است موارد پرت وجود داشته باشد (فروش آتش سوزی یا قیمت های درخواستی متورم). از آنجایی که من فقط در یک لحظه خاص نگران کالاهای با کمترین قیمت هستم، میانگین بازار کار زیادی برای من انجام نمی دهد مگر اینکه بیشتر عرضه بازار را بخرم. من یک طرح جعبه ای را در نظر گرفتم، اما آن نیز به سمت متوسط/متوسط ​​گرایش دارد. به نظر می رسد یک نمودار خط/منطقه/نوار ساده از پایین ترین قیمت ها در طول زمان اطلاعات کافی را ارائه نمی دهد، به خصوص اگر حجم زیادی با کمترین قیمت در دسترس نباشد. *من آدم آماری نیستم، پس راحت باش!
نمودار قیمت های ارزان قیمت کالاها در یک بازار در طول زمان
24072
من آزمایش ریشه واحد زیر (Dickey-Fuller) را روی یک سری زمانی با استفاده از تابع ur.df() در بسته urca اجرا می کنم. دستور این است: summary(ur.df(d.Aus، type = drift، 6)) خروجی این است: ####################### ####################### # تست ریشه واحد تست دیکی-فولر تقویت شده # ############################################# رانش رگرسیون تست تماس: lm(فرمول = z.diff ~ z.lag.1 + 1 + z.diff.lag) باقیمانده ها: حداقل 1Q Median 3Q Max -0.266372 -0.036882 -0.002716 0.036644 0.230738 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.001114 0.003238 0.344 0.73089 z.lag.1 -0.010656 0.006080 -1.753 0.08031. z.diff.lag1 0.071471 0.044908 1.592 0.11214 z.diff.lag2 0.086806 0.044714 1.941 0.05279. z.diff.lag3 0.029537 0.044781 0.660 0.50983 z.diff.lag4 0.056348 0.044792 1.258 0.20899 z.diff.lag5 0.1190447 0.119447 0.00811 ** z.diff.lag6 -0.082519 0.045237 -1.824 0.06874. --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 خطای استاندارد باقیمانده: 0.06636 در 491 درجه آزادی. -1.7525 1.6091 مقادیر بحرانی برای آمار آزمون: 1pct 5pct 10pct tau2 -3.43 -2.86 -2.57 phi1 6.43 4.59 3.78 1. کدهای اهمیت (کدهای Signif.) به چه معنا هستند؟ متوجه شدم که برخی از آنها مخالف نوشته شده اند: z.lag.1، z.diff.lag.2، z.diff.lag.3 (کد اهمیت .) و z.diff.lag.5 ( ** کد اهمیت). 2. خروجی دو (2) مقدار از آمار آزمون را به من می دهد: -1.7525 و 1.6091. من می دانم که آمار تست ADF اولین مورد است (یعنی -1.7525). اونوقت دومی چیه؟ 3. در نهایت، برای آزمایش فرضیه ریشه واحد در سطح معنی داری 95 درصد، باید آمار آزمون ADF خود را (یعنی -1.7525) با یک مقدار بحرانی که معمولاً از یک جدول بدست می‌آورم، مقایسه کنم. به نظر می رسد خروجی در اینجا مقادیر بحرانی را به من می دهد. با این حال، سوال این است: از کدام مقدار بحرانی بین tau2 و phi1 باید استفاده کنم. از پاسخ شما متشکرم.
تفسیر نتایج R's ur.df (آزمون ریشه واحد دیکی-فولر).
97342
من به مدل زیر علاقه مند هستم: ($1 \leq i \leq p$, $1 \leq j \leq n_{i}$) $$y_{i,j} = A (1+a_{i})(t_ {i,j}+\gamma_{i}) + \varepsilon_{i,j}$$ جایی که $A \in \mathbb{R}$, $(a_{i})_{1 \leq i \leq p}$ یک $p$-نمونه تصادفی از $\mathcal{N}(0,\sigma_{a}^{2})$ و $(\gamma_{i})_{1 \leq i \ leq p}$ یک $p$-نمونه تصادفی از توزیع $\mathcal{N}(0,\sigma_{\gamma}^{2})$ است، مستقل از $(a_{i})_{1 \leq i \leq p}$. $(\varepsilon_{i,j})_{i,j}$ یک نمونه تصادفی از $\mathcal{N}(0,\sigma^{2})$ است، مستقل از $(a_{i})_ {i}$ و $(\gamma_{i})_{i}$. با توجه به برخی مشاهدات $(y_{i,j},t_{i,j})_{i,j}$، می‌خواهم پارامترهای مدل را تخمین بزنم ($A,\sigma_{a}^{2},\ sigma_{\gamma}^{2}،\sigma^{2})$. من تعجب می کنم که آیا این امکان پذیر است؟ من برخی از داده‌های مصنوعی را با استفاده از مدل در Matlab ایجاد کردم و سعی کردم پارامترهای مدل را با استفاده از `nlmefit` (برای مدل‌های غیرخطی با اثرات مختلط) تخمین بزنم، اما مقادیر تخمین زده شده برای $A$ و $\sigma_{a}$ بود (به ترتیب ) سه برابر کوچکتر (و سه برابر) بزرگتر از مواردی که برای ایجاد داده استفاده کردم. این باعث می شود به این فکر کنم که آیا مدل قابل شناسایی است یا خیر. آیا می توانید دلیل دیگری برای این موضوع ببینید؟
آیا این قابل شناسایی است؟
20970
هنگام اجرای تابع مدلسازی خطی خودکار SPSS نسخه 20، مقدار دقت را برمی گرداند. هرچه دقت بالاتر باشد، مدل پیش بینی بیشتری دارد (من فرض می کنم). با این حال، این دقت واقعاً چه چیزی را نشان می دهد؟ R2 هست؟ R2 تنظیم شده؟ چیز دیگری؟
دقت در خروجی مدلسازی خطی خودکار SPSS به چه معناست؟
78098
مدل انتخاب هکمن را در نظر بگیرید که در آن متغیر وابسته من برای مرحله دوم به شکل گزارش است. من می‌خواهم تفاوت مشتق محاسباتی انتظارات غیرشرطی را هنگام استفاده از فرم ورود به سیستم در مقابل فرم سطح پیدا کنم. \begin{equation} \frac{\partial E(\log y)}{\partial x}- \frac{\partial E(y)}{\partial x} \end{equation} همچنین می‌خواهم بدانم که آیا \ begin{ equation} \frac{\partial E(\log y)}{\partial x} \end{equation} یکسان است با \begin{equation} \frac{\partial \log E(y)}{\partial x} \end{equation} یک اشاره یا ارجاع سریع به مقاله قابل قدردانی است.
استفاده از log در مقابل متغیر سطح در مرحله دوم هکمن
20977
ما آماردانان بسیاری از کلمات را به روش هایی استفاده می کنیم که کمی با روشی که دیگران از آنها استفاده می کنند متفاوت است. این باعث ایجاد مشکلات زیادی در هنگام آموزش یا توضیح آنچه انجام می‌دهیم می‌شود. من یک لیست را شروع می کنم (و اکنون برخی از تعاریف را برای هر نظر اضافه می کنم): * قدرت توانایی رد صحیح یک فرضیه صفر نادرست است. معمولاً این به معنای درست گفتن چیزی در حال رخ دادن است است. * سوگیری - یک آمار اگر به طور سیستماتیک با پارامتر جمعیت مرتبط با آن متفاوت باشد، مغرضانه است. * اهمیت - نتایج در شرایط زیر در برخی از درصد (اغلب 5٪) از نظر آماری معنی‌دار هستند: اگر جامعه‌ای که نمونه از آن گرفته شده است دارای اثر واقعی 0 باشد، آماری حداقل به اندازه آماری که از نمونه به دست می‌آید، تنها خواهد بود. 5 درصد مواقع رخ می دهد. * تعامل - اگر رابطه بین متغیر وابسته و یک متغیر مستقل در سطوح مختلف متغیر مستقل دیگر متفاوت باشد، دو متغیر مستقل با هم تعامل دارند، اما باید بسیاری دیگر وجود داشته باشد!
گیج کننده ترین اصطلاحات آماری
9592
اینجا یک مشکل است. من یک زمین شناس هستم، پس اگر فکر می کنید می توانید به من کمک کنید ... خوب، آرام آرام برو لطفا. من می خواهم یک متغیر پیوسته مانند تخلخل را از داده های سنجش از دور پیش بینی کنم. فرض کنید من یک اندازه گیری از بازتاب سطح زمین دارم که به صورت متراکم از یک منطقه نمونه برداری شده است. و من تخلخل سنگ در برخی مکان ها دارم. بنابراین من می خواهم اولی را به دومی کالیبره کنم و بازتاب را به تخلخل تبدیل کنم. از آنجایی که تخلخل _p_ مجهول است، من به طور غریزی آن را بر روی محور _y_ و در برابر بازتاب _r_ روی _x_ رسم می کنم. سپس یک رگرسیون خطی انجام دهید (بیایید وانمود کنیم که زندگی برای یک ماه به همین سادگی است)، و معادله من $p = a r + b$ را بدست آورید، و به راه خوش خود ادامه دهید. اما این احساس اشتباه است. انعکاس به تخلخل بستگی دارد (در فرضیه من، و بگذارید بگوییم که می دانیم در طبیعت این کار را می کند). بنابراین در واقع باید بازتاب را روی محور y در مقابل تخلخل روی _x_ ترسیم کنم. سپس معادله خطی من را بدست آورید، سپس مرتب سازی مجدد کنید تا برای $p = (r - b)/a$ حل شود. این رویکردها پاسخ های متفاوتی می دهند. من این را کمی تعجب آور دیدم. اکثر افرادی که در این مورد پرسیده ام می گویند، آیا مهم است؟ دارد، و تفاوت می تواند بسیار بزرگ باشد (چند درصد). ** رویکرد صحیح کدام است؟ چرا؟** (با ارزش است، پاسخ من رویکرد دوم است، زیرا به طبیعت «احترام» می‌گذارد، تا کمی انسان‌سازی شود... مطمئن نیستم واقعاً بتوانم خودم را بهتر توضیح دهم). متشکرم برای هر بینشی که هر کسی می تواند ارائه دهد، مت
کدام پارامتر در محور x برای رگرسیون خطی؟
107547
من علاقه مند به آزمایش نحوه عملکرد کاربران در سه رابط کاربری مختلف هستم. در هر یک از این سه رابط، یک نفر 12 کار را امتحان می کند. بنابراین، هر شرکت‌کننده وظیفه 1 را سه بار، وظیفه 2 را سه بار، و غیره انجام می‌دهد. بنابراین، در اصل آزمایش شبیه به 3 در 12 (رابط x وظیفه) در طرح آزمودنی‌ها است (که در آن هر فرد 36 کار را انجام می‌دهد). حجم نمونه در قسمت کوچک خواهد بود (تقریباً 12 شرکت کننده). من تعجب می کنم که چگونه داده های تکمیل را تجزیه و تحلیل کنم، که باینری است. اگر شرکت‌کننده‌ای در انجام یک کار موفق باشد، آنگاه یک امتیاز دریافت می‌کند. برای شکست، آن‌ها نمره 0 می‌گیرند. در حالت ایده‌آل، من تحلیلی را می‌خواهم که چیزی شبیه ANOVA باشد تا بتوانم ببینم آیا در رابط‌ها، وظایف یا تفاوت‌هایی وجود دارد یا خیر. یک تعامل اگر بخواهم انتخاب کنم، بیشتر به تفاوت بین رابط ها علاقه مندم.
نحوه تجزیه و تحلیل دوطرفه طراحی درون سوژه ها با داده های باینری
24074
چگونه می توانم نمودارهای سانکی ایجاد کنم؟
ابزار خوبی برای ایجاد نمودارهای سانکی چیست؟
78097
من داده هایی دارم که در طول زمان تغییر می کنند و با یک مدل ساده قابل توصیف نیستند. در واقع ما اصلاً اهمیتی نمی‌دهیم که مدل چیست، فقط می‌خواهیم بدانیم که آیا در هر مقطع زمانی به طور قابل توجهی غیر صفر است یا خیر. در حالت ایده‌آل، نتیجه همچنین به ما می‌گوید که در چه نقاط زمانی داده‌ها به طور قابل‌توجهی با 0 متفاوت است. می‌توان بوت استرپینگ را انجام داد، اما من نمی‌دانم که آیا روش خاصی برای ارزیابی اهمیت وجود دارد (نوع خاصی از ANOVA یا t. -تست با اصلاحات برای مقایسه های متعدد - اما چگونه می توان تعداد مقایسه ها را تعیین کرد زیرا داده ها به وضوح در زمان همبستگی دارند.). پیشاپیش متشکرم - مطمئنم که این یک مشکل رایج است، اما پس از ساعت ها مطالعه هنوز نمی توانم پاسخ روشنی پیدا کنم. ![مثال](http://i.stack.imgur.com/ncV1a.jpg)
چگونه می توان آزمایش کرد که آیا یک سری زمانی به طور قابل توجهی غیر صفر در هر نقطه از زمان است؟
106345
فرض کنید یک نظرسنجی دارای پنج گویه با مقیاس لیکرت شش درجه ای است. با برچسب‌های بد شکل منتشر شده است: *(2) با تا حدودی مخالف به جای مخالف برچسب زده شد - و بالعکس (3) با مخالف برچسب‌گذاری شد * بد شکل‌گیری مشابه برای (4) ) و (5): تا حدودی موافق و تا حدودی مخالف با هم مخلوط شدند. پاسخ دهندگان به معنای واقعی کلمه با 132546-وضعیت به جای موقعیت 123456 برای _برخی از موارد. شروع نظرسنجی با برچسب درست مشخص شد. اگر پرسشنامه های پاسخ داده شده باید مبنایی برای مدل سازی معادلات ساختاری باشد، آیا می توان این را با یک روش تعمیر هوشمندانه و آماری به عنوان بخشی از تجزیه و تحلیل داده ها ترمیم کرد؟ از دیدگاه من: واضح است که خیر، پرسشنامه باید یک بار دیگر به شکل صحیح ارسال شود. حتی اگر یک شرطی کلی برای پاسخ دادن به این پرسشنامه وجود داشته باشد، زیرا برچسب ها به ترتیب درست بودند، شرطی کردن یک مفهوم 100٪ نیست. بنابراین، دو چیز وجود دارد که ما نمی دانیم: **چند نفر** پرسشنامه را به معنای واقعی کلمه گرفتند و **چه کسی** آن را به معنای واقعی کلمه دریافت کردند. این یک نویز دوم را به مدل معادلات ساختاری معرفی می کند که از مقادیر p و غیره برای کمی کردن نویز استفاده می کند. حالا دیگر نویز «نویز» و «دوم» را نمی توان از هم جدا کرد. حتی اگر مقدار نسبی پاسخ‌های شرطی را می‌دانستیم، باز هم نمی‌دانستیم چه کسی به شکلی بدون قید و شرط پاسخ داده است - که دوباره با «صدای دوم» غیرقابل تفکیک خاتمه می‌یابد. به طور معمول من واقعاً آنقدر خشن نیستم. به همین دلیل: هر گونه اعتراض به دیدگاه من - آیا موضع من خیلی تند است؟
نظرسنجی نامناسب با تجزیه و تحلیل قابل تعمیر است؟
9043
من به پدرم کمک می کنم تا متنی را از زبان مادری ام لتونی به انگلیسی ترجمه کند. با وجود اینکه من یک انگلیسی زبان منصف هستم و در گذشته کمی ریاضیات دارم، اما هرگز درک دقیقی از آمار نداشتم. :( اصطلاحی که من به دنبال آن هستم ربطی به محاسبه خطا دارد. یک دستگاه GPS مختصات را اندازه گیری می کند و سپس سعی می کند خطا را تخمین بزند. در ویکی پدیا با دو عبارت احتمالی متفاوت برخورد کردم - میانگین مربع خطا و ریشه میانگین مربع از آنجایی که من می توانم بفهمم، آنها یک چیز نیستند، اما معنای هر یک از آنها فراتر از من است تخمین خطا. نمی‌دانم این هم به چه معناست، می‌ترسم. شاید کسی اینجا ایده بهتری داشته باشد؟
نام انگلیسی اصطلاح آماری که من به دنبال آن هستم چیست؟
24073
من در مورد رگرسیون انباشته، همانطور که برای مثال در اینجا توضیح داده شده است، مطالعه کرده ام. به نظر می رسد مهم است که وقتی در برابر اولین پیش بینی ها پسرفت می کنید، نیاز دارید که ضرایب رگرسیون غیر منفی باشند. چگونه این کار را در R انجام می دهد؟
محدودیت ضریب غیر منفی در رگرسیون انباشته
24077
من آزمایشی را انجام می دهم که دارای موارد زیر است: * DV: مصرف برش (مداوم یا می تواند طبقه بندی شود) * IV: پیام سالم، پیام ناسالم، بدون پیام (شاهد) (3 گروه که در آن افراد به طور تصادفی تقسیم می شوند - دسته بندی) این یک پیام دستکاری شده در مورد سالم بودن برش. IVهای زیر را می توان به عنوان متغیرهای تفاوت فردی در نظر گرفت: * تکانشگری (این می تواند طبقه بندی شود، یعنی زیاد در مقابل کم یا مداوم و با مقیاس اندازه گیری می شود) * ترجیح طعم شیرین (این نیز با یک پرسشنامه که 3 گزینه برای انتخاب است اندازه گیری می شود. برای هر سوال) * BMI - شرکت کنندگان بر اساس آن اندازه گیری می شوند (این می تواند به صورت طبقه ای یا مداوم در نظر گرفته شود). از آنجایی که گروه‌ها به‌طور تصادفی به یکی از 3 گروه تخصیص می‌یابند، فرض می‌کنم که من یک ANOVA را انجام می‌دهم و احتمالاً از ANOVA فاکتوریال استفاده می‌کنم، زیرا علاقه‌مندم که کدام IV بیشتر بر DV تأثیر می‌گذارد، اما همانطور که تحقیقات نشان می‌دهد تعامل بین IVها نیز بیشتر است. که بین برخی از ترکیبات روابط وجود دارد. اما به دلیل نیاز به دانستن اینکه آیا بهتر است IV ها همه طبقه بندی شوند یا پیوسته یا مختلط از این موضوع مطمئن نیستم. یا اینکه ANCOVA یک احتمال یا حتی رگرسیون است اما مطمئن نیستم که با توجه به اینکه آنها به گروه‌هایی اختصاص داده می‌شوند و سپس بر اساس پاسخ‌هایشان به نظرسنجی‌ها دسته‌بندی می‌شوند. امیدوارم این منطقی باشد و مشتاقانه منتظر شنیدن کسی در مورد سؤال من هستم.
چگونه در یک آزمایش طراحی شده بین ANOVA و ANCOVA یکی را انتخاب کنیم؟
9596
غربالگری سلامت برای مهاجرت به ایالات متحده شامل غربالگری اجباری با اشعه ایکس قفسه سینه برای همه بزرگسالان با هدف تشخیص علائم سل است. اگر اشعه ایکس احتمال ابتلا به سل را نشان دهد، متقاضی نمونه های خلط را برای کشت ارسال می کند. این تعداد زیادی از اشعه ایکس است - و بسیاری از آنها منجر به کشت های مثبت نمی شود، به خصوص در میان متقاضیان مسن (که ریه های آنها به دلایل زیادی ممکن است بد بو باشد). در یک مطالعه، 1500 متقاضی (از 24000 متقاضی در طول دوره مطالعه) علاوه بر فرآیند غربالگری استاندارد، یک تشخیص جدید سل نیز دریافت کردند. -خلاق مثبت اکنون، محققان می‌خواهند بدانند (به عنوان مثال): اگر این تشخیص اضافی را روی همه متقاضیان انجام می‌دادیم، آزمایش چند نفر مثبت می‌شد؟ _از این تعداد_، چه تعداد از آنها رادیوگرافی نشان دهنده سل انجام می دادند؟ _از این تعداد_ چه تعداد از آنها فرهنگ مثبت داشتند؟ نتایج دموگرافیک، اشعه ایکس و کشت برای همه متقاضیان مشخص است. نتیجه تشخیصی جدید فقط برای شرکت کنندگان در مطالعه شناخته شده است. دو رویکرد برای این مطالعه پیشنهاد شده است. 1. یک رگرسیون لجستیک بر روی نمونه بسازید و از آن برای پیش بینی برای همه متقاضیان استفاده کنید. نگرانی هایی وجود دارد که خطاهای استاندارد بسیار کوچک باشد، زیرا سن، نتیجه اشعه ایکس و نتیجه کشت کاملاً مرتبط هستند. 2. شبه بوت استرپ. نمونه 24000 نتیجه از نتایج شرکت‌کنندگان (با جایگزینی)، با اختصاص یک احتمال نمونه‌برداری به هر شرکت‌کننده بر اساس تعداد همه متقاضیان با ویژگی‌های منطبق (دموگرافیک، نتیجه اشعه ایکس، نتیجه فرهنگ). از نمونه مجدد، مقادیر مورد نظر را محاسبه کنید. تکرار کنید، فواصل اطمینان را برای برآوردها محاسبه کنید. اگر یکی از این دو را داشته باشید از کدام یک استفاده می کنید؟ چرا؟ خوشحال میشم هر سوالی رو توضیح بدم با تشکر از کمک شما! *برخی جزئیات مطالعه برای محافظت از تعداد کلمات تغییر کرد.
استفاده از نمونه غیر تصادفی برای تخمین جمعیت
99125
برای تدریس باید نمودار زیر را برای دانشجویان مقطع کارشناسی توضیح دهم. این نمودار از ویرایش هفتم هاول روش های آماری برای روانشناسی گرفته شده است. دانش‌آموزان با نحوه محاسبه مجموع SS، بین SS، و درون SS برای طراحی گروه‌های مستقل یک طرفه آشنا هستند، اما چیزی بیش از این نمی‌دانند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EL0eM.png)
یک روش شهودی برای توضیح تجزیه SS برای ANOVA مخلوط با 1 B/S و 1 W/S متغیر چیست؟
20973
من در حال تجزیه و تحلیل (در SPSS 19) داده‌های یک آزمایش میدانی با استفاده از یک مدل خطی مخلوط با اندازه‌گیری‌های مکرر هستم. هنگام بررسی مدل، من همیشه مقادیر منفی را در جدول معیارهای اطلاعات به دست می‌آورم. من قانون سرانگشتی کوچکتر بهتر است را می دانم، اما این مقادیر منفی چگونه باید تفسیر شوند؟ به عنوان مثال، هنگامی که من یک نوع کوواریانس بدون ساختار را انتخاب می کنم، معیار اطلاعات بیزی (BIC) 642.868-$ است و با کوواریانس تقارن مرکب، 497.270$- را نشان می دهد. بنابراین، کدام نوع کوواریانس، بدون ساختار یا تقارن مرکب بهتر است؟ سوال دوم این است که پیام اخطار زیر را دریافت می کنم: ماتریس هسین نهایی قطعی مثبت نیست اگرچه همه معیارهای همگرایی برآورده می شوند. روش MIXED با وجود هشدار ادامه می یابد. اعتبار بعدی قابل اطمینان نیست. آیا می توانم آن را نادیده بگیرم یا من یک مشکل واقعی دارم؟ آیا راهی برای رفع آن وجود دارد؟
مدل ترکیبی خطی، مقادیر معیار اطلاعات منفی و ماتریس هسین مثبت نیست
68183
از من خواسته شد تا برخی از تحلیل‌های رگرسیون را روی داده‌های ناشناس انجام دهم که هنوز آن را ندارم. این دارای چند ورودی دسته بندی و ~100 خروجی بولی است، چیزی شبیه به این: رده نوع اندازه فشار خون Y1 Y2 Y3 .... Y99 ------------------------------------------------ ------------------------------ cat persian small high 1 0 0 .... 1 cat persian big low 0 1 .. .. 0 سگ گرگ بزرگ معمولی 1 1 0 .... 0 ... ... ... ... ...... اسکوتر اردک کوچک بالاتر از حد معمولی 0 1 1 .... 1 (من فقط معانی را اینجا ساختم) . تعداد نمونه ها در مجموعه داده های واقعی حدود یک میلیون خواهد بود، بدون مقادیر از دست رفته. وظیفه پیش بینی خروجی است، به عنوان مثال «P(Y86 = 1 | {گربه، سیامی، بزرگ، کم})» و به طور کلی رابطه بین ورودی ها و خروجی ها را درک کنید. سؤالات من: 1. کدام رویکردها ارزش امتحان کردن را دارند، جوانب مثبت و منفی آن چیست؟ 2. کدام بسته های R می توانند کمک کننده باشند؟
رگرسیون چند متغیره برای 100 متغیر خروجی باینری
110943
من از داده‌های fMRI (n=25) برای پیش‌بینی عملکرد در یک کار رفتاری استفاده می‌کنم. در هر 12 نقطه زمانی، من یک مدل خطی را بر روی داده‌های n-1 موضوع آموزش می‌دهم و از این مدل برای پیش‌بینی عملکرد سوژه‌های کنار گذاشته شده در یک دوره زمانی متفاوت استفاده می‌کنم. به عنوان مثال، من از داده های عصبی در نقطه زمانی 1 برای پیش بینی عملکرد در پنجره زمانی A و از داده ها در نقطه زمانی 2 برای پیش بینی عملکرد در طول پنجره زمانی B و غیره استفاده می کنم. همبستگی رتبه ای در مقادیر مشاهده شده و پیش بینی شده. این به من یک ضریب همبستگی در هر یک از نقاط زمانی من می دهد. من می‌خواهم میانگین پیش‌بینی را در تمام نقاط زمانی خود گزارش کنم، بنابراین من فیشر این مقادیر r را تبدیل کردم، نمرات z حاصل را میانگین گرفتم، سپس میانگین را به مقدار r تبدیل کردم. آیا از آنجایی که همبستگی های من همه در یک گروه از موضوعات محاسبه شده است، انجام این کار خوب است؟ بر اساس سوالات قبلی من _فکر می کنم_ این درست است، اما اگر اشتباه می کنم، لطفا اصلاح کنید. سوال بعدی من در مورد چگونگی گزارش اهمیت این میانگین r است. آیا این امکان پذیر است؟ این پاسخ مرا به این باور می رساند که گزارش یک فاصله اطمینان بهتر است، اما دقیقاً مطمئن نیستم که چگونه این کار را انجام دهم، یا مشکلی ندارد زیرا باز هم، همبستگی های من از داده های جمع آوری شده در زمان های مختلف از همان گروه محاسبه شده است. موضوعات از شما برای هر توصیه ای که ممکن است داشته باشید متشکرم!
اهمیت میانگین ضرایب همبستگی
71857
من با موقعیتی برخورد کردم که یک خرده فروش بزرگ در حال آزمایش یک برنامه خرده فروشی جدید است. برای آزمایش این برنامه فروشگاه های خرده فروشی آزمایشی خاصی را انتخاب کرد. سپس، گروه کنترلی از فروشگاه‌های خرده‌فروشی را انتخاب کرد تا تا حد امکان مشابه فروشگاه‌های خرده‌فروشی آزمایشی باشد. هر فروشگاه آزمایشی را بر اساس معیارهای اجتماعی جمعیت شناختی و تجاری متعدد با یک فروشگاه کنترل مطابقت داد. معیار انتخاب این بود که یک مقدار P از آزمون t دانشجویی تا حد ممکن تولید شود، که نشان دهنده تطابق خوب بین دو فروشگاه است. این همه حس خوبی داشت. از طرف دیگر، آنها به من گفتند که از آزمون t زوجی استفاده کرده اند. این یک سورپرایز بود. من فکر کردم که این یک وضعیت تست کلاسیک بدون جفت است.
آیا می‌توانید از آزمون t زوجی در شرایطی که به نظر می‌رسد یک وضعیت آزمون t جفت نشده استفاده کنید؟
2631
این در ادامه این سوال است. من در حال حاضر در تلاش برای پیاده سازی C-Index هستم تا از سلسله مراتبی از خوشه ها تعداد تقریباً بهینه خوشه ها را بیابم. من این کار را با محاسبه C-Index برای هر مرحله از خوشه بندی سلسله مراتبی (تراکمی) انجام می دهم. مشکل این است که C-Index برای خوشه های بسیار منحط حداقل است (به طور دقیق 0). این را در نظر بگیرید: $c = \frac{S-S_{min}}{S_{max}-S_{min}}$ در این مورد $S$ مجموع تمام فواصل بین جفت مشاهدات در یک خوشه در کل است. خوشه ها اجازه دهید $n$ تعداد این جفت ها باشد. $S_{min}$ و $S_{max}$ مجموع $n$ کمترین/بالاترین فاصله در همه جفت مشاهدات هستند. در مرحله اول خوشه بندی سلسله مراتبی، دو مشاهده نزدیک (حداقل فاصله) در یک خوشه ادغام می شوند. فرض کنید $d$ فاصله بین این مشاهدات باشد. اکنون یک جفت مشاهده در همان خوشه وجود دارد، بنابراین $n=1$ (همه خوشه های دیگر تک تن هستند). در نتیجه $S=d$. مشکل این است که $S_{min}$ نیز برابر است با $d$، زیرا $d$ کوچکترین فاصله است (به همین دلیل است که مشاهدات ابتدا ادغام شدند). بنابراین برای این مورد، C-Index همیشه 0 است. تا زمانی که تنها خوشه های تک تنی با هم ادغام شوند، 0 باقی می ماند. این بدان معناست که خوشه‌بندی بهینه بر اساس C-Index همیشه شامل دسته‌ای از خوشه‌ها شامل دو مشاهده و بقیه تک‌تنه‌ها است. آیا این به این معنی است که C-Index برای خوشه بندی سلسله مراتبی قابل اجرا نیست؟ آیا من کار اشتباهی انجام می دهم؟ خیلی جستجو کردم ولی توضیح مناسبی پیدا نکردم. آیا کسی می تواند مرا به منبعی که به صورت رایگان در اینترنت در دسترس است معرفی کند؟ یا اگر نه، حداقل کتابی که ممکن است سعی کنم در کتابخانه دانشگاهم تهیه کنم؟ پیشاپیش متشکرم
آیا کسی می تواند C-Index را در زمینه خوشه بندی سلسله مراتبی توضیح دهد؟
64409
در این سوال در مورد تغییرات AIC هنگام اضافه کردن یک متغیر پرسیدم. به نظر می رسد که تا حدودی به دلیل شکل گیری SAS از AIC است. با این حال، من اکنون دو مدل دارم که احتمال ورود به سیستم بسیار بهبود می‌یابد: این عنوان کد تست - فقط اجباری. FitStatistics SolutionF را انتخاب کنید. proc مخلوط داده = روش menfat.data = ml; کلاس &classvar; مدل bmd_legneck_change_per_year = &bmddef bmdlegneck_1/solution; اجرا؛ دارای -2LL از 1631.9 بود که یک متغیر با این عنوان کد Test - add packyrs اضافه کرد. FitStatistics SolutionF را انتخاب کنید. proc مخلوط داده = روش menfat.data = ml; کلاس &classvar; مدل bmd_legneck_change_per_year = &bmddef packyrs bmdlegneck_1/solution; اجرا؛ دارای -2LL 1607.6 بود (که تفاوت بسیار معنی دار 24.3 در 1 df است) اما تخمین پارامتر برای packyrs 0.0016 با SE 0.005 و p 0.77 بود. آیا این می تواند به دلیل بهبود برازش سایر متغیرها در مدل باشد؟ ویرایش: پاسخ به ماکرو. مدل یک رگرسیون خطی است که در آن متغیر وابسته تغییر در هر سال کیفیت فیزیکی (تراکم استخوان) و متغیرهای مستقل ترکیبی از متغیرهای بله/خیر و متغیرهای پیوسته است.
احتمال ورود با اضافه کردن یک متغیر غیر معنی دار بهبود می یابد
97508
من در درک تخمین یک فرآیند AR مشکل دارم. در برخی از کتاب های درسی، فرآیند AR(1) به صورت زیر تعریف شده است: $y_{t}=\theta y_{t-1}+ε_t$ (که دارای یک ثابت نیست). بنابراین برآوردگر OLS مغرضانه است. من در مورد علت تعصب سردرگم هستم. توضیح داده شده است که $y_{t-1}$ به $ε_{t-1}$ وابسته است اگرچه مستقل از $ε_t$ است. اما در رگرسیون خطی، اگر معادله دارای یک ثابت نباشد، نمی‌توانیم اطمینان حاصل کنیم که انتظار اختلال صفر است. بنابراین برآوردگر OLS بایاس بدون ثابت است. آیا اگر یک ثابت در فرآیند AR اضافه کنم به این معنی است که برآوردگر OLS بی طرف است؟
فرآیند AR با یک ثابت
68230
آیا می توان با ترکیب خطی تعداد محدودی از پیاده روی تصادفی، یک فرآیند پیاده روی تصادفی یکپارچه داشت؟ آیا می توان با ترکیب خطی فرآیندهای I(0) یک فرآیند پیاده روی تصادفی داشت؟ با تشکر
ترکیب خطی فرآیندها که مرتبه بالاتری از یکپارچگی را ایجاد می کند
108745
وضعیت من: * حجم نمونه کوچک: 116 * متغیر نتیجه باینری * لیست طولانی متغیرهای توضیحی: 44 * متغیرهای توضیحی از بالای ذهن من نیامدند. انتخاب آنها بر اساس ادبیات بود. * بیشتر موارد در نمونه و اکثر متغیرها دارای مقادیر گم شده هستند. رویکرد انتخاب ویژگی انتخاب شده: بسته glmnet LASSO R به من اجازه نمی‌دهد روال glmnet را اجرا کنم، ظاهراً به دلیل وجود مقادیر گمشده در مجموعه داده‌های من. از برخی از پاسخ‌های سؤال قبلی من مشخص شد که قبل از بررسی روش‌های انتساب، به مسائل اساسی‌تری پرداخته‌ام. من می خواهم در اینجا سؤالات جدیدی در این زمینه اضافه کنم. در پاسخ پیشنهاد کدگذاری به عنوان مقدار ثابت و ایجاد یک متغیر جدید برای مقابله با مقادیر «غیر قابل اجرا» در متغیرهای پیوسته و استفاده از کمند گروهی: * آیا می‌گویید اگر از گروه LASSO استفاده کنم، آیا می‌توانید از رویکرد پیشنهادی برای پیش‌بینی‌کننده‌های پیوسته نیز برای پیش‌بینی‌کننده‌های طبقه‌بندی استفاده کنید؟ اگر چنین است، من فرض می‌کنم که معادل ایجاد یک دسته‌بندی جدید است - من محتاطم که ممکن است تعصب ایجاد کند. اگر صلاح نیست، در مورد متغیرهای طبقه بندی چه می شود؟ * آیا کسی می داند که بسته glmnet R از گروه LASSO پشتیبانی می کند؟ اگر نه، آیا کسی یکی دیگر را پیشنهاد می کند که این کار را در ترکیب با رگرسیون لجستیک انجام دهد؟ چندین گزینه که از گروه LASSO نام می برند را می توان در مخزن CRAN یافت، آیا مناسب ترین پیشنهاد برای مورد من وجود دارد؟ شاید SGL؟ OBS: من آمارگیر نیستم.
نحوه برخورد با مقادیر غیر قابل اجرا در متغیرهای طبقه بندی شده
68181
من سعی می‌کنم رگرسیون‌های همه احتمالی را پیاده‌سازی کنم تا بهترین پیش‌بینی‌کننده‌های بازده سهام را از فهرستی جامع از متغیرهای اقتصادی/بنیادی بالقوه انتخاب کنم. متغیر پاسخ من _y_ (یعنی بازده سهام) پانلی از 3000 اوراق بهادار (مقطعی) است که هر کدام دارای 384 مشاهده (سری زمانی) است. آیا کسی لطفاً بهترین راه را برای مدیریت این رویه در R، در زمینه داده‌های پانل پیشنهاد دهد؟ من با بسته جهش مواجه شدم، اما مورد _y_ را به عنوان یک پاسخ **بردار** به جای پاسخ **ماتریس** می پردازد. خیلی ممنون،
انجام رگرسیون های همه ممکن در R
102850
در انتخاب ویژگی برای مدل‌های پیش‌بینی، معمولاً از آزمون جایگشت استفاده می‌شود. در این آزمون تمامی مقادیر یک متغیر به صورت تصادفی جابه‌جا می‌شوند و دقت پیش‌بینی برای هر جایگشت استخراج می‌شود. به عنوان مثال، اگر 3 متغیر (ویژگی) داشته باشیم، ACC با همه متغیرها 0.9 است. و در تست جایگشت، زمانی که متغیرهای اول، دوم و سوم جایگشت می‌شوند، به ترتیب 0.2، 0.1 و 0.9 ACC دریافت می‌کنیم. بنابراین، متغیر سوم را می توان حذف کرد زیرا برای پیش بینی کمکی نمی کند. با این حال، اگر متغیر را حذف کنیم یا همه مقادیر را به صفر تغییر دهیم، به جای تغییر تصادفی مقادیر، آیا در تست جایگشت همان نتیجه را می گیریم؟
انتخاب ویژگی: تست جایگشت در مقابل حذف یک متغیر
24070
من در نهایت به دنبال اعمال اعتبار متقاطع برای سناریوی بسیار پیچیده‌تر هستم، اما در حال حاضر کار ساده رگرسیون لجستیکی را در نظر بگیرید. وقتی مقدار سمت چپ را با مقدار پیش‌بینی‌شده مدل مربوطه‌اش مقایسه می‌کنید، فرض می‌کنم باید مقدار پیش‌بینی‌شده را به مقیاس احتمال تبدیل کنید، اما آیا مقدار پیش‌بینی‌شده را هم گرد می‌کنید تا ۰ یا ۱ باشد یا آن را بدون گرد رها کنید؟ هر ایده ای در مورد اینکه کدام رویکرد بهتر است (و شاید چرا)؟ داده های مثال و loocv دستی یک مدل لجستیک: myData = data.frame( x = seq(-2,2,length.out = 10) ) myData$y = rbinom(nrow(myData)1,plogis(myData) $x)) myData$preds = NA for(i در 1:nrow(myData)){ thisFit = glm( data = myData[(1:nrow(myData)!=i)،]، فرمول = y~x، خانواده = دوجمله ای ) myData$preds[i] = predict(thisFit,newdata=myData[(1:nrow(myData)== i)،]) } myData$predsProb = plogis(myData$preds) #یک رویکرد: myData$squaredError1 = (myData$y - myData$predsProb)^2 SSE1 = مجموع (myData$squaredError1) #متناوب: myData$squaredError2 = (myData$y - دور(myData$predsProb))^2 SSE2 = مجموع(myData$squaredError2) #which یک تخمین بهتر از خطای پیش بینی آینده، SSE1 یا SSE2؟ چرا؟
چگونه می توان مدلی از داده های دوجمله ای توزیع شده را اعتبارسنجی متقابل کرد؟
108741
من یک جدول داده دارم که ورودی ها به فرمت زیر هستند. ستون اول «دسته» است که نشان دهنده دسته محصول است. من 5 دسته از این قبیل دارم. ویژگی 1،2 و 3 ویژگی های مختلف مرتبط با هر یک از این دسته ها هستند. این ویژگی ها ممکن است دسته ای یا عددی باشند. من قصد دارم برای کشف این داده‌ها، «mvoutlier» را در بسته R به کار ببرم. من سوالات زیر را دارم که سعی می کنم به آنها پاسخ دهم: 1. آیا باید هر یک از این دسته بندی ها را جداگانه در نظر گرفت و تحلیل ها را مستقل از سایر مقوله ها انجام داد؟ 2. چگونه می توان مقادیر طبقه بندی شده در این داده ها را مدیریت کرد؟ با تشکر از دسته f1 f2 f3 a1 1 33.4 333 a1 0 23 444 a1 0 30 333 a1 0 34 300 a2 1 56 600 a2 1 60 609 a2 1 64 630 a2 1 690 a2 1 690 a2 320 a3 0 99 1000 a1 0 30 340 a2 0 59 600
چگونه می توان تشخیص پرت چند متغیره را در داده های ترکیبی با دسته انجام داد؟
9040
اول از همه، من یک برنامه نویس هستم، اما تجربه من با آمار واقعی در سطح A به پایان رسید، بنابراین من از همه شما برای کمک در مورد پروژه جانبی کوچکی که در حال سرهم کردنش بودم، می خواهم. در خانه من از Plex Media Center برای نمایش همه فیلم هایم استفاده می کنم. من یک ابزار صادراتی برای این کار ساختم تا یک فایل HTML حاوی اطلاعات در کتابخانه شما تولید کند تا دیگران بتوانند آن را به صورت آنلاین مشاهده کنند. پس از ساختن این ابزار، متوجه شدم که اکنون به انبوهی از داده ها در مورد فیلم ها و بازیگران آنها دسترسی دارم. و این جایی است که شما بچه ها (و دختران) امیدوارم وارد شوید. من می خواهم روابط بین بازیگران و فیلم ها را به نوعی تجسم کنم. در ابتدا من فقط از یک کتابخانه گراف گراف استفاده کردم تا همه بازیگرانی که در بیش از یک فیلم حضور داشته اند را به همه فیلم هایشان ترسیم کنم و به این نتیجه رسیدم: http://www.flickr.com/photos/dachande663/5574979625/ [بخش یک تصویر 5000x2500px] مشکل اینجاست که با هر چیزی بیش از 250 فیلم، فقط به یک آشغال اسپاگتی تبدیل می‌شود. دنبال کردن آن غیرممکن است من به نمودارهای قوسی نگاه کرده ام اما فکر می کنم که حتی گیج کننده تر است. بنابراین سوال من این است: چگونه می توانم این را تجسم کنم؟ اندازه مشکل چندانی نیست زیرا من دوست دارم این را روی یک بوم بزرگ چاپ کنم و در واقع آن را آویزان کنم. همچنین، در نهایت متن را با تصاویر فیلم ها و بازیگران مربوطه جایگزین خواهم کرد. چیزی که من سعی می کنم از آن اجتناب کنم این است که یک میلیون خط در همه جا مار می شوند. من سعی کرده‌ام مهم‌ترین فیلم‌ها را پیدا کنم و آن‌ها را بیشتر در مرکز قرار دهم، اما در حال حاضر این بیشتر حدس‌زنی است تا منطق واقعی. آیا کتابخانه‌هایی وجود دارند که بتوانند این کار را بهتر انجام دهند، یا حتی راه بهتری برای نمایش داده‌ها (رها کردن بازیگران به عنوان گره و اضافه کردن آنها به عنوان برچسب لبه) انجام دهند؟ من در حال حاضر از نمودار دراکولا استفاده می کنم، که نقطه شروع خوبی را ارائه می دهد اما می تواند در صورت نیاز تغییر کند. هر ورودی بسیار قدردانی خواهد شد. به سلامتی
روابط فیلم/بازیگر را تجسم کنید
30131
من از تست Ramsey Reset آگاه هستم که ممکن است وابستگی های غیرخطی را تشخیص دهد. با این حال، اگر فقط یکی از ضرایب رگرسیون (صرفاً وابستگی‌های خطی) را حذف کنید، بسته به همبستگی‌ها ممکن است یک سوگیری دریافت کنید. این بدیهی است که با تست Reset تشخیص داده نمی شود. من تستی برای این مورد پیدا نکردم، اما این عبارت: شما نمی توانید برای OVB آزمایش کنید مگر با درج متغیرهای حذف شده بالقوه. احتمالاً بیانیه معقولی است، اینطور نیست؟
آیا آزمونی برای بایاس متغیر حذف شده در OLS وجود دارد؟
68187
من در شرایطی هستم که سعی می کنم یک متغیر خروجی پیوسته را با توجه به 100 متغیر و 100 هزار نقطه داده مدل کنم. نسبت سیگنال به نویز بسیار کم است و هم خطی بودن بسیار زیاد است. در میان متغیرها، ویژگی‌های دودویی «سوزن در انبار کاه» وجود دارد. یک ویژگی با ارزش دودویی needle-in-a-haystack، $f$، یکی از ویژگی هایی است که $Pr[f==1]$ کوچک است (~0.01)، اما در آن مهم است که مدل ما بی طرفانه باشد. $f==1$. وقتی از OLS استفاده می‌کنم، وقتی $f==1$، مدل حاصل به درستی بی‌طرفانه است. با این حال، مدل دارای ویژگی های نامطلوب ناشی از نویز و خطی بودن است. هنگامی که من منظم سازی شبکه الاستیک را امتحان می کنم، مشکلات نویز/هم خطی از بین می روند. با این حال، به نظر می‌رسد که عمل منظم کردن باعث می‌شود که مدل نسبت به ویژگی‌های سوزن در انبار کاه بی‌توجهی کند. حتی زمانی که $f$ توسط مدل انتخاب می‌شود، مدل باقیمانده‌های غیرقابل قبول بزرگی را زمانی که $f==1$ تولید می‌کند، ایجاد می‌کند. من در تعجب هستم که چگونه می توانم بهترین های هر دو دنیا را بدست بیاورم. من در حال حاضر ابتدا یک مدل منظم با توری کشسان را آموزش می‌دهم و سپس یک مدل OLS دوم را برای پیش‌بینی باقیمانده‌های ویژگی‌های سوزن در انبار کاه آموزش می‌دهم. به نظر می رسد که این به خوبی کار می کند، اما من نمی دانم که آیا راه استانداردتری وجود دارد.
رگرسیون منظم سوزن در انبار کاه
4334
من می‌خواهم مدل پیشنهادی در مدل‌سازی پویا اسپردهای برگردان میانگین را پیاده‌سازی کنم (کاستاس تریانتافیلوپولوس، جیووانی مونتانا). آنها مدل سازی یک سری زمانی Y_t را با معادلات زیر پیشنهاد می کنند: (1) Y_t = A_t + B_t * Y_(t-1) + e_t (2) A_t = Phi1 * A_(t-1) + nu1_t (3) B_t = Phi2 * B_(t-1) + nu2_t که می تواند به شکل فضای حالت بیان شود: (1') Y_t = F_t * theta_t + e_t (2') theta_t = Phi * theta_(t-1) + nu_t با F_t = (1, Y_t-1) Phi = diag (Phi1, Phi2) من می خواهم از R برای انجام به روز رسانی بیزی این مورد استفاده کنم مدل من بسته 'dlm' را مطالعه کرده ام اما در کتاب مدل های خطی پویا با R نوشته جیووانی پتریس (نویسنده بسته 'dlm') نوشته شده است (صفحه 113) > ماتریس F_t یک DLM نمی تواند به ارزش های گذشته مشاهدات». با این حال، به نظر می رسد که در مدل ارائه شده در بالا چنین است. آیا کسی می تواند این جمله آخر را بفهمد و در نهایت به من کمک کند تا این پیاده سازی را در R انجام دهم؟ متشکرم فرد
حالت فرم فضای زمان متغیر AR(1)
2306
من در مورد انتخاب ویژگی و یادگیری ماشین کمی گیج شده ام و می خواستم به من کمک کنید. من یک مجموعه داده ریزآرایه دارم که به دو گروه طبقه بندی شده و دارای 1000 ویژگی است. هدف من این است که تعداد کمی از ژن ها (ویژگی های من) (10-20) را در یک امضا به دست بیاورم که در تئوری بتوانم آن ها را برای دسته بندی بهینه آن نمونه ها در سایر مجموعه های داده اعمال کنم. از آنجایی که من آنقدر نمونه ندارم (<100)، من از یک مجموعه آزمایشی و آموزشی استفاده نمی کنم، بلکه از اعتبار سنجی متقاطع Leave-one-out برای کمک به تعیین استحکام استفاده می کنم. خوانده‌ام که باید انتخاب ویژگی را برای هر تقسیم نمونه‌ها انجام داد، یعنی 1. یک نمونه را به عنوان مجموعه آزمایشی انتخاب کرد. 2. در نمونه‌های باقی‌مانده انتخاب ویژگی را انجام داد. 3. اعمال الگوریتم یادگیری ماشین برای نمونه‌های باقی‌مانده با استفاده از ویژگی‌های انتخاب‌شده. آیا مجموعه آزمایشی به درستی طبقه بندی شده است. یعنی مرحله 6 چیست. منظور من از بهینه مجموعه ژن هایی است که هر مطالعه بعدی باید از آن استفاده کند. برای مثال، بگویید من یک مجموعه داده سرطان/طبیعی دارم و می‌خواهم 10 ژن برتر را پیدا کنم که نوع تومور را بر اساس SVM طبقه‌بندی می‌کنند. می‌خواهم مجموعه‌ای از ژن‌ها به اضافه پارامترهای SVM را بدانم که می‌تواند در آزمایش‌های بعدی استفاده شود تا ببینم آیا می‌توان از آن به عنوان یک آزمایش تشخیصی استفاده کرد.
انتخاب ویژگی برای مدل نهایی هنگام انجام اعتبارسنجی متقابل در یادگیری ماشین
111319
من با آمار کاملاً تازه کار هستم و به کمک شما نیاز دارم. من به تازگی نرم افزار R را نصب کردم و نمی دانم چگونه با آن کار کنم. من یک نمونه کوچک به شرح زیر دارم: گروه A: 10، 12، 14، 19، 20، 23، 34، 41، 12، 13 گروه B: 8، 12، 14، 15، 15، 16، 21، 36، 14، 19 من می خواهم از آزمون t استفاده کنم اما قبل از آن می خواهم از آزمون Shapiro استفاده کنم تا بدانم آیا نمونه من از جمعیتی است که دارای توزیع نرمال است. من می دانم که یک تابع shapiro.test() وجود دارد اما چگونه می توانم اعداد خود را به عنوان ورودی به این تابع بدهم؟ آیا می توانم به سادگی shapiro.test (10,12,14,19,20,23,34,41,12,13, 8,12, 14,15,15,16,21,36,14,19) را وارد کنم؟
چگونه تست Shapiro را در R اعمال کنیم؟