_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
11227
بگویید من 2 مجموعه دارم، $A$ و $B$ با عناصر $n_{A}$ و $n_{B}$ به ترتیب، که گمان می‌کنم معلوم است. من می خواهم $| را تخمین بزنم یک \bigcup B |$ با استفاده از نمونه‌های $\tilde{A} \subset A$ و $ \tilde{B} \subset B$. یعنی اگر عناصر $\tilde{A}$ به طور یکنواخت از $A$ نمونه برداری شوند، و به همین ترتیب برای $\tilde{B}$، $ \frac{| \tilde{A} \bigcup \tilde{B} |}{| \tilde{A} | + | \tilde{B} |}$ یک تخمین بی طرفانه برای $\frac{| باشد A \bigcup B |}{| A |+|B |}$؟ اگر نه، آیا برآوردگر دیگری وجود دارد که به من امکان تخمین $| را بدهد A \bigcup B |$ بدون تعصب؟
تعصب در نمونه برداری برای تقاطع های مجموعه
77889
آیا یک قاعده کلی در مورد اینکه چه زمانی رگرسیون قوی یا رگرسیون چندکی در حضور نقاط پرت ترجیح داده می شود وجود دارد؟ به عنوان مثال، من یک مجموعه داده دارم که در آن DV چولگی بسیار مثبتی را نشان می دهد. با این حال، موارد بزرگ در واقع برخی از جالب ترین مشاهدات هستند. وقتی OLS را اجرا می کنم، یک رابطه مثبت بین DV و IV مورد علاقه پیدا می کنم. وقتی رگرسیون های چندکی را تخمین می زنم، متوجه می شوم که رابطه مثبت بین DV و IV مورد علاقه در صدک های 85، 90 و 95 قوی ترین است (که می توان انتظار داشت). برای بقیه صدک ها ناچیز و گاهی منفی است. با این حال، زمانی که من «rreg» را در Stata اجرا می‌کنم، اساساً هیچ وزنی به نقاط پرت مثبت بزرگ نمی‌دهد، که منجر به ارتباطی بین DV و IV مورد علاقه نمی‌شود. کدام رویکرد (OLS، Quantile، `rreg`) باید گزارش شود؟ کدام مناسب تر است؟
رگرسیون چندکی در مقابل رگرسیون لی: کدام را باید استفاده کنم و چه زمانی؟
31309
من سعی می کنم از ایده های Kokic و Bell برای یافتن برش برای تخمینگر جمعیت زیر استفاده کنم $\sum_{h}\frac{1}{n_h}\sum_{i}\frac{M_{hi}}{z_ {hi}}\frac{1}{m_{hi}}\sum_j y_{hij}^*,$ که در آن از طبقه‌بندی و انتخاب خوشه‌ای متناسب با اندازه و نمونه‌گیری فرعی استفاده می‌کنیم، و $y_{hij}^*$ مخفف مقدار winsorized است. آیا مرجعی برای این طرح نمونه گیری وجود دارد؟ اگر کسی تجربه ای در مورد یافتن برش هایی که میانگین مجذور خطا را به حداقل می رساند، به اشتراک بگذارد، مفید خواهد بود.
برش بهینه winsorizing برای نمونه برداری طبقه بندی شده متناسب با اندازه
47369
من داده‌های نمونه اساسی را ندارم (اما احتمالاً می‌توانم آن را درخواست کنم). ما در مورد میلیون‌ها نقطه داده (مشتریان ابزار مفید) صحبت می‌کنیم. در واقع جمعیت کامل (نه یک نمونه) برای مشتریانی است که در یک نرخ نبوده‌اند. کلاس برای کل سال 2011 (حدود 75٪ از این آستانه عبور می کنند، از آنجایی که مجموعه داده های کامل بسیار دشوار است، من آن را به شکل بسیار پرانتزی دریافت کردم (به عنوان مثال). مشتریان x,xxx بین 6000 تا 6100 کیلووات ساعت استفاده می کنند این کار را در اکسل انجام دهید خوشبختانه، براکت ها باریک هستند (ممکن است هزاران عدد وجود داشته باشد).** من دو گروه سودمند دارم که به هیچ وجه شبیه به یک گروه کنترل و آزمایش اختصاص داده شده به طور تصادفی برای یک آزمایش پزشکی نیستند متفاوت کوچکترین تفاوت استفاده من 2٪ بود. علیرغم آنچه که ممکن است به عنوان واریانس نسبتاً زیاد استفاده آزمایش شود (برخی از افراد ضعیف زیاد استفاده می کنند و برخی از افراد ثروتمند صرفه جویی می کنند)، با توجه به آزمایش 3 میلیون مشتری، من پیش بینی می کنم که این تفاوت بسیار قابل توجه خواهد بود. **2\. آیا آزمون t-stat ولش آزمون مناسب برای این دو جمعیت است؟**
آیا می توان SD را از روی داده های binned محاسبه کرد؟ چگونه می توان گروه های غیر تصادفی را که به وضوح متفاوت هستند آزمایش کرد؟
28353
این یک سوال اساسی تشخیص الگوی آماری است. من از تکنیک های **طبقه بندی LDA**، **طبقه بندی ساده بیز** اطلاع دارم که خروجی را به عنوان **احتمال** (داده های متعلق به یک کلاس خاص) ارائه می دهند. سایر تکنیک های طبقه بندی نظارت شده مبتنی بر احتمال چیست؟ آیا می توان تمام تکنیک های طبقه بندی نظارت شده را به صورت **احتمال** یا **نسبت احتمال** برای طبقه بندی داده های داده شده بیان کرد؟ آیا کسی می تواند به من به مقاله های یادداشت اشاره کند که می تواند به من کمک کند؟
فهرست تکنیک های طبقه بندی مبتنی بر احتمال
5572
من در حال برنامه ریزی یک مطالعه طراحی قبل از درمان-کنترل با تعداد زیادی اندازه گیری قبل از درمان هستم. من آزمودنی هایی دارم که به دو گروه کنترل و گروه درمانی تقسیم شده اند. برای هر دو گروه، من داده های ساعتی را برای یک سال قبل از شروع درمان جمع آوری می کنم و سپس به جمع آوری داده ها برای یک سال دیگر ادامه می دهم. این تقریباً 9000 اندازه‌گیری قبل از درمان و 9000 اندازه‌گیری بعد از درمان برای هر فرد را به همراه خواهد داشت. درمان چیزی است که پس از شروع نمی توان آن را متوقف کرد، بنابراین یک طرح متقاطع فقط می تواند به شکل AA/AB باشد که از مزایای آن نوع طراحی استفاده نمی کند. ادبیات روان‌شناختی و زیست‌پزشکی استفاده از مدل ANCOVA را پیشنهاد می‌کند، که در آن داده‌های قبل از درمان به عنوان متغیر کمکی در مدل استفاده می‌شود. قرار دادن 9000 متغیر کمکی در یک مدل کاملاً مضحک به نظر می رسد. همچنین، کاهش داده‌های قبل از درمان به یک آمار خلاصه از تعداد زیاد اندازه‌گیری‌ها استفاده نمی‌کند. من مطمئن هستم که این باید قبلاً مطرح شده باشد، آیا ایده ای دارید؟ ارجاع به نتایج منتشر شده به ویژه مفید خواهد بود.
بهره گیری از بسیاری از اندازه گیری های قبل از درمان
31303
وقتی آمار همه مسائل را حل می کند، چرا نظریه فازی را مطالعه می کنیم؟ آیا مشکلی وجود دارد که فقط با تئوری فازی و نه با آمار حل شود؟ لطفا با مثال جواب بدید
آیا مشکلی وجود دارد که فقط با تئوری فازی و نه با آمار حل شود؟
103225
من یک مدل پانل پویا با متغیر وابسته تاخیری اجرا می کنم، اما به نظر می رسد پس از برازش مدل، مقدار برازش مطابق با log(RPK) برآورد شده نیست: d=pgmm(log(RPK) ~ lag(log(RPK),1 ) + log(GDPPR)+log(CPR)+log(NP)| تاخیر(log(RPK)،2:99)، داده = no2، اثر = فرد، مدل = twosteps,collapse=TRUE,index=c('Flow','Year')) fit=fitted(d) در واقع، تناسبی که به دست آوردم بسیار کوچکتر از log(RPK) اولیه من است، بنابراین تعجب می کنم شاید هنگام استفاده از «fitted()»، در واقع نوعی تفاوت به ما می دهد؟ آیا کسی هست که بتواند در این مورد به من کمک کند؟
pgmm fitted.value
103220
![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ek05F.png)![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EOz4o.png) من هستم مشکلاتی در پاسخ به قسمت دوم وجود دارد. فکر می کنم در مورد CLT است، اگر اشتباه می کنم اصلاح کنید. اما چگونه جزئیات توزیع را از این مورد محاسبه می کنید؟ لطفا کمک کنید و از همه مشارکت های شما متشکرم. لطفا با استفاده از سوال اصلی و قسمت اول که در مورد عبارت است به آن پاسخ دهید.
سوال سریع - توزیع تقریبی برای میانگین نمونه؟
30072
من در حال تلاش برای ایجاد یک روش استاندارد برای بررسی اینکه آیا یک مجموعه از مکان‌ها نماینده یک مجموعه بزرگتر هستند یا خیر. در این مورد خاص، من سعی دارم به طور خاص به نمایندگی جغرافیایی آنها نگاه کنم. یک روش این است که به یک آزمون t دو نمونه برای طول و عرض جغرافیایی *به طور مستقل* نگاه کنید، اما به وضوح احتمال وجود همبستگی بین مقادیر را نادیده می گیرد. گزینه دیگر این است که به یک گروه بندی طبقه بندی مکان (مثلاً ایالت، بازار، یا هر شبکه بندی شبکه دیگر) نگاه کنید و از آزمون خی دو استفاده کنید. با این حال، هیچ‌کدام از این‌ها به‌عنوان بهینه به نظر من نمی‌رسند. آیا کسی با تستی آشنایی دارد که بتواند سوگیری یک نمونه را بر اساس دو بعد به طور همزمان بررسی کند؟ هر گونه فکر بسیار قدردانی خواهد شد.
چگونه بررسی کنیم که آیا یک نمونه در دو بعد به طور همزمان نماینده است؟
11225
من باید میانگین متحرک نمایی را برای یک سری داده محاسبه کنم. فاصله نمونه گیری مورد نظر ثابت است (مثلاً 1 ثانیه) اما جریان داده دارای فواصل متفاوتی است (فاصله های داده از 0.01 تا 10 ثانیه یا بیشتر متغیر است). داده ها تا حدودی پر سر و صدا هستند (نمونه داده تصادفی عملاً هرگز در حد متوسط ​​نخواهد بود). تصور من این است که بنابراین نمی‌توانم آخرین نمونه داده‌ها را در هر بازه زمانی انتخاب کنم، زیرا به راحتی می‌تواند منجر به یک آمار گمراه‌کننده شود. فکر می‌کنم می‌توانم فقط میانگین هر دوره را محاسبه کنم و آن را به عنوان نمونه در نظر بگیرم، اما مثبت نیستم. آیا الگوریتم استانداردی وجود دارد که میانگین متحرک نمایی را بر روی یک جریان داده متغیر با زمان مدیریت کند؟ * * * _من باید این را برای یک سیستم بلادرنگ برنامه ریزی کنم که در آن امکان ذخیره یک نمونه سابقه وجود نداشته باشد. با این وجود، من مطمئن هستم که می توانم هر الگوریتم غیر جریانی را با فرم پخش تطبیق دهم._
میانگین متحرک نمایی با ارتباط زیر بازه / بازه زمانی متغیر
19052
لطفاً به من کمک کنید تا منابع ساده (منظورم مفید با دانش کم در مورد آمار بیزی) را بیابم: 1. یادگیری MCMC و اجرای مدل های خطی یا ترکیبی عمومی 2. یادگیری تکنیک های مختلف نمونه برداری از جمله نمونه پرش معکوس. همچنین، من می خواهم این روش ها را با استفاده از R base یا بسته های R پیاده سازی کنم. من می توانم از SAS و هر نرم افزار ویژه طراحی شده دیگری استفاده کنم، با این حال R را به عنوان اولویت دارم. 3. کدهای نمونه برای انجام MCMC و پرش برگشت پذیر.
منابع خوب در مورد نمونه‌بردار MCMC پرش برگشت‌پذیر در R
77886
من در تلاش برای پیاده سازی فرمول ابعاد همبستگی Takens در معادله (8) در مقاله 1 هستم: تخمین بعد جذب کننده پر سر و صدا (تخمین ابعاد جذب کننده نویزدار. Schouten JC, Takens F, van den Bleek CM Physical Review E, vol 50، شماره 3، 1994). اشتقاق و توضیح واقعی در تخمین حداکثر احتمال Takens (F. Takens، در تعیین عددی بعد یک جاذبه، در: D. Rand, L.S. Yong (Eds.), Dynamical Systems and Turbulence, Warwick, 1980 ارائه شده است. یادداشت های سخنرانی در ریاضیات، جلد 898، اسپرینگر، برلین، 1981.) و در زیر خلاصه شده است به درک من سری‌های زمانی من با نویز گاوسی سفید افزودنی پر سر و صدا هستند، «Z = y+ نویز» مرحله 1 = جاسازی فضای فاز سری زمانی 1 بعدی را انجام دهید. این می شود U. مرحله 2: فواصل اقلیدسی یا حداکثر فواصل نرم فضای ابعاد بالاتر را پیدا کنید. فاصله مقیاس‌بندی را پیدا کنید، $l_0$ (یا $r_0$) که به عنوان حداکثر فاصله مقیاس‌بندی نامیده می‌شود. مرحله 3: سپس آن فواصل را پیدا کنید، $l_z$، که $\le l_0$ هستند. این مرحله فواصل را به $l_z$ تبدیل می کند که اکنون به محدوده $[0,1]$ تعلق دارد. گاهی اوقات، حداکثر طول مقیاس‌بندی $l_0$ به عنوان $l_0$ = میانگین انحراف مطلق سری‌های زمانی با فرمول $l_0 = 1/{\rm total\ عناصر[ {\sum (u_i - {\tt میانگین) در نظر گرفته می‌شود. }(u)}]$ مرحله 4: در مقاله Takens، در بخش 2 ذکر شده است که با تقسیم تمام فواصل $l_z$، می توان فاصله ها را مستقل از $l_0$ ساخت. $l_0$ مرحله 5: لگاریتم هر عنصر را در مرحله 4 در نظر بگیرید. ${\rm Takens\ dimension} = -(\frac{2}{n(n-1)} \sum [\log (|| X_i- X_j||/r_o)]^{-1}$ (Formula for Takens) $n$ = تعداد نمونه ها، اما من از معادله (8) کاغذ1 پیروی کردم برای من روشن است که $l_0$ چقدر باید باشد - (A) وقتی من $l_0$ را به عنوان میانگین انحراف مطلق در نظر گرفتم و فواصل را بر آن تقسیم کردم، نتیجه بعد همبستگی کاملاً نادرست است، بنابراین، اگر آنچه را که در آن ذکر شد رعایت کنم پس از آن مقدار بعد نادرست است انحراف از فواصل (از آنجایی که $l_0$ به عنوان حداکثر مقیاس فاصله برچسب گذاری شده است)، سپس نتیجه تا حدودی نزدیک است اما دقیقاً دقیق نیست. (C) وقتی سری زمانی را با «normalized_timeseries=(data-min(data))./abs(max(data)-min(data));» نرمال کردم و سپس $l_0$ انتخاب می شود تا مانند (داده) باشد. ب) جواب درست می گیرم! اما، این ناقض / مغایر با آنچه در مقاله ذکر شده است. من واقعاً نمی‌دانم که حد بالای فاصله‌های مقیاس‌بندی باید $l_0$ باشد. آیا نباید حداکثر فاصله، یا حداکثر انحراف استاندارد بردار فاصله باشد؟ مقدار بعد همبستگی از روش Takens برای لورنز باید تقریباً 2.14 باشد. من مقدار نادرستی دریافت می کنم. لطفا در اجرای فرمول بالا کمک کنید، مطمئن نیستم که درست متوجه شده ام یا نه. من تا حدودی کد را تا محاسبه فواصل اقلیدسی پیاده سازی کرده ام. clc پاک کردن همه iter= 1000; dt=0.02; [x y z]=lorenzo(iter,dt); %تولید سری زمانی از Lorenz d=3; l2=iter-d; Z=y; [N col] = اندازه (Z); % اندازه فعلی Z zmean = mean(Z); % میانگین هر جزء Z=(Z-min(Z))./abs(max(Z)-min(Z)); % نرمال سازی با استانداردسازی l0 = max(std(normalized_Z)); برای k =1 : l2 U(:,k) = normalized_Z(k+d-1:-1:k)'; %phase embedding end for i=1:l2 for j=1:l2 D(i,j) = sqrt(sum((U(:,i) - U(:,j)) .^ 2)); تابع انتهای انتهای فاصله اقلیدسی برای تابع لورنز [x y z]=lorenzo(iter,dt); x(1)=2.9; y(1)=-1.3; z(1)=25.9; برای i=2:iter [x(i) y(i) z(i)]=nextit(x(i-1),y(i-1),z(i-1),dt); تابع پایانی [XO YO ZO]=nextit(X,Y,Z,dt) r=28; s=8/3; t=10; x1=X+t*(Y-X)*dt/2; y1=Y+(X*(r-Z)-Y)*dt/2; z1=Z+(X*Y-s*Z)*dt/2; XO=X+t*(y1-x1)*dt; YO=Y+(x1*(r-z1)-y1)*dt; ZO=Z+(x1*y1-s*z1)*dt;
مشکل در یافتن بعد فراکتال (بعد همبستگی)
109859
آیا تابع مشابهی در R وجود دارد که همان کاری را که nonlinearTest() در S-plus انجام می دهد انجام می دهد؟ من در حال حاضر روی تعیین تعداد رژیم ها، پارامتر تاخیری d و مقادیر آستانه برای مقدار آستانه کار می کنم. یا در غیر این صورت از کجا می توانم S-plus دانشجویی دانلود کنم؟ آیا برای دانلود رایگان باید از کامپیوتر دانشگاه استفاده کنم؟
nonlinearTest() در S-plus در مقابل R
18106
من با همکاران در شهرهای دیگر با استفاده از سیستم عامل های دیگر همکاری می کنم. همکاران من در خدمات عمومی هستند و بنابراین انعطاف پذیری محدودی برای پیکربندی ماشین های (ویندوز) خود دارند. من می خواهم بتوانم به آنها نشان دهم که دارم انجام می دهم و در حالت ایده آل ببینم که آنها چه می کنند. مردم چگونه با این مشکل برخورد کرده اند؟ ما در حال حاضر از R استفاده می کنیم اما گزینه های دیگری نیز امکان پذیر است. با تشکر اندرو
بهترین راه برای هدایت تعاملی یک جلسه آماری از راه دور، برای یک رایانه بدون دسترسی سرپرست؟
109854
من از بسته randomForest در R برای تجزیه و تحلیل مجموعه داده های ژنتیکی از حدود 100 نمونه با 10000 ژن استفاده می کنم. نمونه ها به 5 کلاس دسته بندی می شوند که کوچکترین آنها فقط 5 نمونه است. من در نهایت به ماتریس مجاورت، ماتریس سردرگمی و اهمیت متغیر علاقه مند هستم، به همین دلیل است که نمی خواهم با کاهش مجموعه داده با PCA یا موارد مشابه شروع کنم. در عوض، من مدل را با استفاده از تخمین‌های OOB تنظیم می‌کنم تا کلاس متغیر و ابعاد بالا را کنترل کنم - در صورت امکان! بهترین پارامترها برای تنظیم چنین داده های با ابعاد بالا چیست؟ پس از چند آزمایش اولیه، به نظر می رسد افزایش حداقل اندازه گره انتهایی باعث بهبود نمرات OOB شود. من فکر می کردم پارامترهای اصلی مورد علاقه باید این باشد: 1. تعداد درختان در جنگل (ntree) 2. تعداد ویژگی های نمونه برداری شده (mtry) 3. اندازه گره انتهایی (اندازه گره) من بهترین راه برای کنترل را نمی دانم اندازه کلاس های بسیار کوچک کلاس های کوچک هرگز در آزمون های اولیه من به درستی پیش بینی نمی شوند. بهترین راه حل این مشکل چیست؟ به سادگی تمام ترکیب های ممکن از پارامترها را اجرا کنید و بهترین را بر اساس تخمین OOB انتخاب کنید، یا راه هوشمندتری وجود دارد؟
کنترل بیش از حد برازش با جنگل های تصادفی برای داده های ابعادی بسیار بالا
76284
برای داده‌های داده شده من (پیوند هویت)، هدف من بررسی یک متغیر سیاسی است، به عنوان مثال، من قصد دارم بررسی کنم که آیا تأثیر خاصی که توسط برخی رفتارها در یک زمان خاص داده می‌شود، بر رهگیری و شیب متغیر وابسته دیگر تأثیر می‌گذارد یا خیر. برای دریافت این احساس که متغیرهای پیوسته و توضیحی چگونه بر متغیر وابسته تأثیر می‌گذارند، یک مدل افزودنی عمومی (GAM) را با یک نرم‌افزار b-spline نصب کردم. از آنجایی که با گرفتن لاگ یک متغیر مستقل، فرمول بندی مجدد پارامتری برای تحلیل بعدی جذاب به نظر می رسد، محاسبه مساحت زیر منحنی، من آن متغیر خاص را ثبت کردم. همانطور که اکنون به نظر می رسد، نمودارهای باقیمانده مجذور در مقابل متغیر وابسته، ناهمسانی به نظر می رسد یک مسئله باشد. از آنجایی که نمی‌خواهم متغیر وابسته را نیز ثبت کنم، اگرچه کمی کمک می‌کند، نمی‌دانم چه راه‌های دیگری برای مقابله با ناهمسانی در زمینه GAM وجود دارد. آیا درست مانند زمینه OLS است که در آن از خطاهای استاندارد ناهمگون و همبستگی خودکار استفاده می شود؟
ناهمسانی در زمینه مدل افزایشی عمومی
18105
من با استفاده از رگرسیون با خطاهای ARIMA برای مدل‌سازی سری‌های زمانی منقطع، به منظور تخمین تغییر در بزرگی ناشی از مداخله سیاست آشنا هستم. به نظر می رسد این مدل ها برای یک سری زمانی منفرد طراحی شده اند، و بنابراین اگر چندین سری زمانی تحلیل شوند، یک مدل باید به طور جداگانه برای هر سری زمانی مناسب باشد. من علاقه مند به تجزیه و تحلیل تأثیر ملی یک مداخله سیاستی هستم، که اجرای آن در تمام (هشت ایالت استرالیا) به موقع انجام شد. من می‌توانم سه رویکرد تحلیلی ممکن را در اینجا ببینم: 1. یک مدل ARIMA جداگانه برای هر ایالت برازش کنید. 2. تلاش برای برازش یک مدل ملی مجموع، شاید با یک متغیر ساختگی که اجرای جزئی را نشان می‌دهد و دیگری نشان‌دهنده اجرای کامل. 3. مدل متفاوتی را پیدا کنید که کار کند. به طور واضح بر روی داده های پانل امیدواریم این امر نوعی مصالحه را بین رویکرد بدون ادغام 1 و رویکرد ادغام کامل 2 به همراه داشته باشد. چه نوع رویکردی را در اینجا توصیه می کنید؟
تجزیه و تحلیل سری های زمانی منقطع برای داده های تابلویی
82657
فرض کنید که من در حال ساخت یک مدل سلسله مراتبی از عملکرد هستم و داده ها به صورت سلسله مراتبی ساختار یافته اند (مثلاً چندین مشتری به یک فروشنده امتیاز می دهند). من ممکن است بخواهم در این شرایط از ادغام واریانس استفاده کنم تا به افرادی که هنوز مشتریان زیادی نداشته اند اجازه بدهم اطلاعاتی را از کسانی که مشتریان بیشتری داشته اند قرض بگیرند. سپس، آنهایی که مشتریان کمتری دارند ممکن است تجربه کمتری داشته باشند و ممکن است سرنخ کمتری ایجاد کنند، زیرا به طور کلی فروشندگانی با کیفیت پایین هستند. در اینجا، حجم نمونه با یک یا چند پیش بینی کننده ممکن همبستگی دارد. چگونه می توان این را در مدل های سلسله مراتبی، به ویژه مدل های بیزی توضیح داد؟ با تشکر
ادغام واریانس زمانی که اندازه نمونه یک پیش بینی کننده است
82651
در مورد یک رگرسیون خطی با متغیرهای مستقل تاخیری، تکنیک‌هایی برای برخورد با مقادیر NA معرفی شده توسط padding متغیرهای تاخیری (از آنجایی که مقادیر t < 0 وجود ندارد) چیست؟ من می پرسم زیرا در حال پیاده سازی یک جنگل تصادفی با تاخیر هستم و باید تصمیم بگیرم که در مورد این مقادیر از دست رفته چه کاری انجام دهم. جایگزین کردن آنها با 0 اشتباه به نظر می رسد، اما برگرداندن به عقب نیز چندان منطقی نیست. فکر می‌کنم اگر داده‌های پانل داشته باشم می‌توانم میانگین زمانی یا میانگین کلی را برای متغیر وارد کنم... ویرایش 1: با نگاهی بیشتر به اطراف، SAS به شما امکان می‌دهد بین جایگزینی NA با میانگین زمانی، میانگین کلی یا صفر یکی را انتخاب کنید: http://support.sas.com/documentation/cdl/en/etsug/60372/HTML/default/viewer.htm#etsug_panel_sect015.htm نظری در مورد هزینه ها و مزایای این رویکردهای مختلف دارید؟
درمان مقادیر از دست رفته معرفی شده توسط padding متغیرهای تاخیری
72906
برای تجزیه و تحلیل ساییدگی کاربر، می‌خواهم یک رگرسیون لجستیک را با استفاده از دشواری کار و نقطه در زمان (100 آزمایش) برای یک کار ریاضی انجام دهم. حدس من این است که سختی زیاد در یک نقطه زمانی دیرتر منجر به افزایش احتمال ریزش می شود، در حالی که دشواری بالا در مراحل اولیه منجر به اثر منفی نخواهد شد. در اولین تلاشم به سادگی این رتبه زمانی را به عنوان پیش‌بینی‌کننده عددی درج کردم، اما این بدیهی است که فرض نرمال بودن را نقض می‌کند. اما آیا منطقی است که هر 100 آزمایش را به عنوان فاکتورهای سفارش وارد کنیم؟ من همچنین به این فکر کردم که این آزمایش‌ها را به منظور کاهش سطوح فاکتور کاهش دهم، اما می‌خواستم ابتدا نظراتی را بپرسم. من برای هر کمکی در مورد این مشکل بسیار سپاسگزار خواهم بود.
چگونه یک رتبه زمانی را در رگرسیون لجستیک درمان کنیم؟
47367
من باید یک رگرسیون لجستیک انجام دهم و باید از زیر مجموعه ای از متغیرها استفاده کنم. من این نکته را دریافت کردم: _ ابتدا یک درخت تصمیم انجام دهید و از مرتبط ترین متغیرها در رگرسیون لجستیک استفاده کنید. آیا این یک تکنیک معتبر است؟ اگر نه، با چه مشکلاتی مواجه است؟ PS: این نکته در اینجا برای یک رگرسیون استاندارد نیز ارائه شده است. ** به روز رسانی **: اول از همه از همه پاسخ ها متشکرم. من قطعا مدل LASSO را امتحان خواهم کرد. اما، الگوریتم باید ساده و آسان برای فناوری اطلاعات باشد. این یک نوع پایگاه داده میلیون ها خط است و مدل باید به طور مکرر تخمین زده شود. آیا این رویکرد را تغییر می دهد؟
درخت تصمیم به عنوان انتخاب متغیر برای رگرسیون لجستیک
47366
توزیع پواسون برش خورده صفر تابع جرم احتمالی دارد: $$P(X=k) = \frac{e^{-\lambda}\lambda^k}{(1-e^{-\lambda})k!} $$, $k=1,2,...$ و انتظار توزیع پواسون کوتاه شده از طریق MLE به صورت $\frac{\lambda}{(1-e^{-\lambda})}$ طبق این سند (صفحات 19-22) اطلاعات فیشر با $$I(\theta) = داده می شود \frac{n}{(1-e^{-\lambda})}\left[\frac{1}{\lambda}-\frac{e^{-\lambda}}{(1-e^{- \lambda})}\right]$$ چگونه مشتق شده است؟ ================================================== ======================. $L(\lambda) = \prod_{n=1}^n\frac{\lambda^{x_i}e^{-\lambda}}{x_i!(1-e^{-\lambda})}$$ و بنابراین احتمال ورود به سیستم برابر است : $$l(\lambda)=-\ln(x_i!)+\ln(\lambda)\sum_{i=1}^nx_i-n\lambda-n\ln(1-e^{-\lambda}) با تفکیک $$ با توجه به $\lambda$ اولین مشتق را بدست می آوریم: $$l'(\lambda)=-n-n\ln(1-e^{-\lambda})+\frac{1}{\lambda}\sum_{i=1}^nx_i$$ و مشتق دوم با توجه به $\lambda$ عبارت است از: $$l^(\lambda)=n\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}-\frac{1}{\lambda^2}\ sum_{i=1}^nx_i$$ اطلاعات فیشر توسط $$I(\lambda)=E[-l^(\lambda)|\lambda]=E\left[-\left(n\frac{e^{-\lambda}}{(1-e^{ -\lambda})^2}-\frac{1}{\lambda^2}\sum_{i=1}^nx_i\right)|\lambda\right]$$ $$\Rightarrow -n\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}+\frac{1}{\lambda^2}\sum_{i=1}^nE[ x_i|\lambda]$$ که اطلاعات فیشر نادرست من را به دست می‌دهد: $$I(\lambda)=-n\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}+\frac{n\lambda}{\lambda^2} =n\left(\frac{1}{\lambda}-\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}\right)$$ من چه کار کردم اشتباه با انتظار؟
اطلاعات فیشر برای توزیع سم کوتاه چیست؟
72907
من می‌دانم که NA به این معنی است که داده‌ها وجود ندارند، تهی هستند یا وجود ندارند. اما حروف NA مخفف چیست؟ در دسترس نیست؟
در آمار NA مخفف چیست؟
94958
اجازه دهید $X$ یک مجموعه داده $m\times n$ ($m$: تعداد رکوردها و $n$: تعداد ویژگیها) باشد. وقتی تعداد ویژگی های $n$ زیاد باشد و مجموعه داده $X$ پر سر و صدا باشد، طبقه بندی پیچیده تر می شود و دقت طبقه بندی کاهش می یابد. یکی از راه‌های رفع این مشکل استفاده از تبدیل خطی است، به عنوان مثال، طبقه‌بندی را روی $Y=XR$ انجام دهید، جایی که $R$ یک ماتریس $n\times p$ و $p<=n$ است. من تعجب کردم که چگونه تبدیل خطی طبقه بندی را ساده می کند؟ و چرا دقت طبقه‌بندی افزایش می‌یابد اگر طبقه‌بندی را روی داده‌های تبدیل‌شده $Y$ انجام دهیم در حالی که $X$ نویز دارد؟
چرا وقتی ابعاد داده ها زیاد است، تبدیل خطی می تواند دقت طبقه بندی را بهبود بخشد؟
47361
من فقط یک تابع توزیع یکنواخت بین [0،1] دارم. و از این توزیع، من باید دنباله ای از متغیر تصادفی توزیع شده Rayleigh را با استفاده از نرم افزاری تولید کنم. به هر حال، من توانستم مشکل را با استفاده از فرمول مقاله ویکی‌پدیا به پایان برسانم: $$(1)\;\;\;\;X=\sigma\sqrt{-2\ln(U)}$$ با این حال، وجود دارد تنها یک چیز است که من نتوانستم بفهمم من بارها سعی کردم فرمول $(1)$ را با استفاده از روش نمونه گیری تبدیل معکوس استخراج کنم، اما نتوانستم. آیا کسی می تواند مراحل پیدا شدن $(1)$ را به من نشان دهد؟
اشتقاق متغیر تصادفی توزیع شده ریلی
11220
من داده‌هایی از آزمایش بارگذاری یک وب‌سایت با چندین هزار نقطه داده دارم که تقریباً در 30 دقیقه پخش شده است (مقادیر زمان پاسخ‌دهی سایت بر حسب میلی‌ثانیه هستند). مقادیر در محدوده 30 دقیقه پخش می شوند، اما نه با یک نرخ ثابت (یعنی ممکن است چند میلی ثانیه بین برخی نقاط، نقاط دیگر ممکن است در همان مهر زمانی و غیره وجود داشته باشد). من می‌خواهم این داده‌ها را به صورت بصری ارائه کنم و آن‌ها را نمودار کنم، اما از بهترین روش برای انجام این کار مطمئن نیستم - مقدار زیادی واریانس در اطراف هر نوع مفهومی از مقادیر متوسط ​​یا یک خط روند وجود دارد. آیا بهترین شیوه های پذیرفته شده کلی برای روش هایی در مورد نحوه نمودارسازی داده ها از این نوع وجود دارد؟ من نگران انتخاب یک روش ضعیف برای میانگین‌گیری/هموارسازی داده‌ها و ارائه نادرست داده‌ها هستم - مانند وزن کم برخی از مقادیر پرت. من با یک نمودار خطی با مهرهای زمانی در محور x و میانگین نمونه‌ها در همان دقیقه روی محور y بازی کرده‌ام. من همچنین می‌خواهم نمودار میانگین متحرک داده‌ها را در نظر بگیرم، اما مطمئن نیستم که آیا باید میانگین نقاط داده را در همان N دقیقه یا پنجره‌ای از N نقطه آخر محاسبه کنم. می‌خواهم مطمئن شوم که هر انتخابی که می‌کنم، نمایش دقیق داده‌ها باشد و خیلی آماتور نباشد. **به روز رسانی:** در زیر نمونه ای از آنچه تاکنون تولید کرده ام است، هر نقطه در نمودار به عنوان میانگین/میانگین همه نمونه ها در یک دقیقه (یعنی در 11:12:00.000 و 11: 12:59.999). من تعداد نمونه‌ها در دقیقه را به‌عنوان نمودار میله‌ای در نیمه دوم تصویر گنجاندم تا بتوانم نشان دهم که آیا هر نقطه در نمودار خطی به دلیل تعداد کمی از نمونه‌ها پرت به نظر می‌رسد، اگرچه از نظر زیبایی‌شناسی فکر می‌کنم این میله است. نمودار نسبت به مقدار اطلاعاتی که می دهد، املاک و مستغلات زیادی را اشغال می کند. ![](http://i.stack.imgur.com/4t1sT.png)
روش های ترجیحی برای نمودارسازی داده های سری زمانی برای ارائه «میانگین»؟
80655
من یک ورزش ثابت مانند گلف انجام می دهم، بنابراین جزئیات مهم هستند. من هر یک از امتیازات خود را با اطلاعات دقیق در مورد تجهیزاتی که استفاده می کنم و شرایط آب و هوایی را ثبت می کنم. بنابراین 1 نمره 2-3 قطعه تجهیزات به آن متصل است. من می‌توانم میانگین‌ها را برای قطعه اصلی تجهیزات ترسیم کنم، اما چگونه می‌توانم تأثیر سایر تجهیزات (لوازم جانبی عملکرد / تجهیزات ایمنی) را جدا کنم؟
چگونه می توانم تأثیر تجهیزات خود را بر عملکرد ورزش خود محاسبه کنم؟
73238
اخیراً مدام با همین مشکل مواجه می شوم و به این فکر می کنم که آیا افراد دیگر توانسته اند آن را دور بزنند. من یک مدل جلوه های ترکیبی را با استفاده از **lmer()** اجرا می کنم. مدل من دارای وقفه‌ها و شیب‌های موضوعی و فرعی، و پارامترهای همبستگی تصادفی بین آنهاست. از آنجایی که در نسخه فعلی lmer() نمونه برداری MCMC پیاده سازی نشده است، من نمی توانم از pvals.fnc() استفاده کنم. من این پیام را دریافت می کنم: خطا در pvals.fnc(m, withMCMC = T) : نمونه برداری MCMC در نسخه های اخیر lme4 برای مدل هایی با پارامترهای همبستگی تصادفی پیاده سازی نشده است. **HPD95lower** و **HPD95upper** دو ستون در خروجی pvals.fnc بودند. آیا کسی روش جایگزینی برای بدست آوردن فواصل اطمینان برای برآورد اثرات ثابت در مدل می داند؟ یا استفاده از مدل هایی با همبستگی تصادفی به این معنی است که دیگر نمی توانیم CI را از R بدست آوریم؟ با تشکر **توجه**: من این سوال را در انجمن های دیگر به روش های کمی متفاوت دیده ام. با این حال، به نظر می رسد که پاسخ ها همیشه شامل (1) محاسبه چیزی متفاوت به عنوان جایگزینی برای فواصل اطمینان، (2) برخی راه حل های پیچیده است که (حداقل برای من) نحوه اجرای آن نامشخص است. می‌خواهم بدانم آیا روش دیگری برای محاسبه CI وجود دارد که هم جریان اصلی باشد (تا سایر محققان بتوانند از آن استفاده کنند) و هم عملکردی برای انجام آن در R داشته باشد، زیرا من یک برنامه‌نویس نیستم و احساس می‌کنم که تلاش برای ایجاد خود آن تابع مستعد خطا خواهد بود.
جایگزینی برای pvals.fnc برای محاسبه فواصل اطمینان برای اثرات ثابت؟
16626
من دو ماتریس بزرگ (پراکنده) دارم (~ 1 میلیون در 1 میلیون) و می خواهم آمار Mantel را محاسبه کنم تا همبستگی بین آنها را بیابم. برای مقابله با مشکلات حافظه، من آمار منتل را بین زیرماتریس های آنها با نمونه گیری تصادفی محاسبه کرده ام. من اکنون مجموعه ای از آمار Mantel و نمرات P-value برای این جفت ها دارم. چگونه می توانم آمار نهایی Mantel را بین دو ماتریس اصلی با توجه به این تخمین های بوت استرپ محاسبه کنم؟ آیا می توانم میانگین آنها را محاسبه کنم؟ این یک سوال پیش پا افتاده است، اما من یک آمارگیر نیستم و هر کمکی در این زمینه قابل قدردانی است. با تشکر
محاسبه / تقریب آمار کامل Mantel از برآوردهای بوت استرپ
110607
پس از استفاده از تابع R pcromp () متوجه می شوم که چند عامل ممکن است مهم باشند. چگونه می توان تشخیص داد که این عوامل کدامند؟ از کدام ابزار آماری می توانم استفاده کنم؟ من از پاسخ شما قدردانی می کنم!
تعیین عوامل مهم بتن در pca
80657
من در حال انجام یک ورزش ثابت هستم که در آن از وسایل رنگی مختلف برای آب و هوای مختلف استفاده می کنم. من در حال ثبت نمراتم به همراه رنگ وسایل و آب و هوای استفاده از آن هستم. من می خواهم میانگین امتیازات را برای هر نوع رنگ روی نمودار میله ای رسم کنم و شرایط آب و هوا را به عنوان فیلتر اضافه کنم. به این ترتیب، می‌خواهم تجهیزات را در زمینه‌های مختلف مقایسه کنم و به این ترتیب ببینم کدام یک برای مثال، هوای ابری بهترین است. مشکل: من مجموعه داده های یکسانی برای هر نوع رنگ در هر نوع آب و هوا ندارم. برای مقایسه دقیق چه کار کنم؟
چگونه می توانم متغیرها را با مجموعه داده های ناهموار مقایسه کنم؟
82658
من می خواهم شبکه بیزی برای 800 ژن بسازم (ژن ها گره/متغیرهای من هستند). من فقط 30 نمونه سرطان و 30 نمونه طبیعی دارم. بنابراین می‌خواهم برای نمونه‌های سرطانی و برای نمونه‌های معمولی شبکه ایجاد کنم که آیا داده‌های من برای یادگیری شبکه بیزی منطقی است؟
تعداد نمونه کافی برای یادگیری شبکه بیزی؟
81784
لطفاً کسی می تواند در تجزیه و تحلیل داده ها کمک کند. به طور خلاصه، من در حال مطالعه چگونگی تغییر جمعیت یک باکتری در نقاط مختلف (درگاه 1 تا پورت 10) در یک بیوفیلتر در طول 30 روز هستم (مانند یک سری زمانی) به عنوان مثال، اگر داده ها مانند زیر باشد: .......روز 0............روز 15......روز 30 بندر 1...........3.6..... .........4.5.........5.0 تا . پورت 10.........2.8..2.9.........3.2 پس چگونه می توانم بفهمم که آیا تفاوت قابل توجهی وجود دارد یا خیر بین مجموعه داده ها (یا به طور کلی) از روز 30 تا روز 0؟ کمک بسیار قدردانی خواهد شد.
تجزیه و تحلیل داده ها: سری های زمانی برای داده های جمعیت باکتریایی
94273
من مشاهده کردم که شرکت کنندگان چقدر در طول آزمایش پنج رفتار خاص از خود نشان می دهند. مجموع درصدهای زیر بیش از 100 درصد است، زیرا برخی از شرکت کنندگان (43/30 درصد نمونه) بیش از یکی از این رفتارها را از خود نشان دادند. آیا بیان جملاتی مانند شرکت کنندگان اغلب رفتارهای A و B را نشان می دهند، با وجود همپوشانی، معتبر است؟ حدس من این است که بله، و شاید من بیش از حد به ریاضی فکر می کنم. درصد شرکت کنندگانی که رفتار را نشان می دهند (n = 23) رفتار: A______________34.78% B_________________________26.09% C_________________21.74% D____________________________________________________26.09% نمی خواهید «رفتارهای چندگانه» یک مقوله انحصاری متقابل باشد زیرا در این صورت آن رفتارها در دسته بندی خاصی که در آن قرار می گیرند منعکس نمی شوند.
مقایسه درصدهای همپوشانی
97742
فرض کنید یک مدل مختلط خطی با متغیر نتیجه $Y_{ij}$ و متغیر کمکی $X_{ij}$ داریم. به طور خاص، فرض کنید یک مدل رهگیری تصادفی داریم: $$\mathbb{E}[Y_{ij}|b_i, X_{ij}] = \beta_0+b_i+ \beta_{1}X_{ij}$$ $$ b_ {i} \sim N(0، \sigma_{b}^{2})$$ $$ e_{ij} \sim N(0، \sigma_{Y}^{2})$$ اگر یک مدل رگرسیون خطی GEE را با یک ماتریس همبستگی قابل مبادله اجرا کنیم، آیا باز هم می‌توانیم $b_i$ را در مدل میانگین قرار دهیم؟ یا باید از شر $b_i$ و مفروضات نرمال بودن خلاص شویم؟ همچنین فرض کنید $X_{ij}$ جنسیت باشد ($1$ برای مرد، $0$ برای زن). اجازه دهید $b_i$ رهگیری های تصادفی برای افراد باشد. برای تفسیر $\beta_1$، آیا می‌توان گفت: برای هر فردی، مرد بودن با افزایش میانگین $\beta_1$ واحد در $Y_{ij}$ نسبت به زن بودن همراه است؟ انسان نمی تواند مرد باشد و بعد زن شود.
GEE با مدل ترکیبی خطی ترکیب شده است
110795
موارد زیر بخشی از یک اثبات از کتاب van der Vaarts در مورد آمار مجانبی است: من می خواهم نشان دهم که اگر برای یک تابع توزیع پیوسته F $$P\left(\frac{\hat{\theta}-\theta}{\hat {\sigma}}\leq x\mid P\right) \rightarrow F(x) \mbox{ و } P\left(\frac{\hat{\theta}^\ast-\theta^\ast}{\hat{\sigma}^\ast}\leq x\mid \hat{P}\right)\right arrow F (x) \text{ (به احتمال زیاد)}$$ $\quad\forall x$ سپس $$\sup_x\| P\left(\frac{\hat{\theta}-\theta}{\hat{\sigma}}\leq x\mid P\right)-P\left(\frac{\hat{\theta}^\ ast-\theta^\ast}{\hat{\sigma}^\ast}\leq x\mid \hat{P}\right) \| \rightarrow 0 \text{ (به احتمال زیاد)}$$ بنابراین فکر می‌کنم باید اینگونه باشد: $X=\frac{\hat{\theta}_n-\theta}{\hat{\sigma}_n}$ را تعریف کنید و $\hat{X}=\frac{\hat{\theta}^\ast_n-\hat{\theta}_n}{\hat{\sigma}_n}$. \begin{align*} &\sup_x \| P\left(X\leq x\mid P\right)-P\left(\hat{X}\leq x\mid \hat{P}\right) \| \\\ \leq&\sup_x\left(\| P\left(X\leq x\mid P\right)-F\|+ \|F-P\left(\hat{X}\leq x\mid \hat{ P}\right) \|. \right)\\\ \leq&\sup_x \| P\left(X\leq x\mid P\right)-F \| +\sup_x \|P\left(\hat{X}\leq x\mid \hat{P}\right)-F\| \end{align*} و حالا من کمی گم شده‌ام... فکر می‌کنم ادعا باید دنبال شود زیرا sup به دست می‌آید زیرا F پیوسته و یکنواخت است یا چیزی شبیه به آن. احساس می کنم نزدیک است اما
مسائل همگرایی برای توزیع های بوت استرپ
39132
من به این سخنرانی اشاره می کردم http://videolectures.net/mlss09uk_murray_mcmc/. با این حال، من متوجه نشدم که مقدار پی چگونه محاسبه شده است. این یک اسکرین شات است![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/aR9zM.png) تا آنجا که من می دانم انتگرال ناحیه زیر منحنی را نشان می دهد. بنابراین من متوجه نشدم که چگونه انتگرال دوگانه با استفاده از P(x,y) مقدار pi را می دهد. همچنین چگونه در اکتاو به معنی تبدیل شد. من تازه یک مبتدی هستم. پس لطفا یه راهنمایی لازمه
سردرگمی مربوط به محاسبه پی
100755
من سعی می کنم کوچکترین اندازه پنجره را برای محاسبه مقادیر آماری در یک جریان پیدا کنم. برای نشان دادن مشکلم: من میانگین تعداد خودروها در هر برند را در یک خیابان با استفاده از پنجره های کشویی مختلف ثبت می کنم. نمودارهای زیر مقدار متوسط ​​را با استفاده از پنجره های کشویی از 90 تا 7200 ثانیه نشان می دهند. البته ارقام مطلق متفاوت هستند، زیرا اگر یک پنجره بزرگتر باشد، می توان مقادیر بیشتری را شمارش کرد، اما پیشرفت سری زمانی بسیار مشابه به نظر می رسد. بنابراین من فرض می‌کنم که اندازه پنجره 90 ثانیه‌ای برای منعکس کردن متوسط ​​تعداد خودرو در هر برند کافی است. **حالا سوال من این است که چگونه شباهت داده های سری زمانی را نه تنها از نظر بصری بلکه از نظر آماری به درستی اثبات کنم و اندازه کوچکتر معقول پنجره کشویی را تعیین کنم؟** یا بگویم چرا باید آهسته کنم سیستم من با استفاده از داده های یک پنجره 7200 ثانیه ای، اگر بتوانم همه چیز را با داده های 90 ثانیه انجام دهم. هیستوگرام داده ها نشان می دهد که داده ها به طور معمول توزیع نشده اند، بنابراین من از همبستگی رتبه اسپیرمن استفاده کردم. مقادیر همبستگی همه بالای 0.8 هستند که ادعای من را تایید می کند. **اما آیا این تست برای این منظور معقول است و آیا روش‌هایی برای این نوع تحلیل مناسب‌تر وجود دارد؟** ARMA یا باید آزمایش‌هایی را روی توزیع مقادیر میانگین متحرک انجام دهم، مانند _Kruskal-Wallis_ برای خود توزیع یا _Levene's test_ برای واریانس ها؟ ![پیشرفت گرافیکی سری زمانی عادی نشده](http://i.stack.imgur.com/7oY8u.png) ![پیشرفت گرافیکی سری زمانی عادی شده](http://i.stack.imgur.com/1GesL.png )
شباهت سری های زمانی
110797
فرض کنید می‌خواهم پیامدهای فرض یک متغیر پاسخ توزیع شده معمولی در یک مدل glm را در حالی که واقعا پواسون است، آزمایش کنم. من برخی از داده ها را با برخی اصطلاحات درجه دوم شبیه سازی می کنم. set.seed(1) N = 1000 x1 = rnorm(N,0,1) x2 = rnorm(N,0,1) b1 = 0.2 # عبارت های خطی را مساوی اما مخالف علامت b2 = -0.2 g1 = 0.2 # قرار دادم من همچنین شرایط درجه دوم را برابر اما مخالف علامت g2 = -0.2 # قرار دادم این مقادیر را به صورت زیر وارد کنید... mu = exp(0 + b1*x1 + b2*x2 + g1*x1^2 + g2*x2^2 + rnorm(N,0,1)) y = rpois(N, lambda=mu) fit = glm(y ~ x1 + x2 + I(x1^2 ) + I(x2^2)، خانواده = گاوسی (پیوند = هویت)) ضریب(برازش) # به ضرایب حاصل نگاه کنید (Intercept) x1 x2 I(x1^2) I(x2^2) 1.5312231 0.7506879 -0.1288538 0.7601453 -0.3081372 با نگاهی به ضرایب، فقط عبارات مثبت از همتایان منفی خود بسیار دور هستند. کسی شهودی دارد که چرا؟ اگر این کار را بارها و بارها با دانه های تصادفی مختلف اجرا کنید، مقدار مطلق ضرایب مثبت به طور مداوم بزرگتر از ضرایب منفی است. من واقعا نمی توانم درک کنم که چرا علامت در این زمینه اینقدر اهمیت دارد. چرا متقارن نیست؟
استفاده از glm (family = guassian) روی داده هایی که در واقع پواسون هستند. تعصب غیر متقارن عجیب
80653
من می خواهم برای ورزشی که انجام می دهم، آمار تولید کنم. من در حال جمع‌آوری داده‌هایی از قبیل امتیازات و مواردی هستم که در آنها از دست داده‌ام. بر این اساس، میانگین‌هایی را برای عملکرد کلی و زمانی که از دست می‌دهم محاسبه کردم. این میانگین‌ها از تمام امتیازات (داده‌های) من استفاده می‌کنند، بنابراین واقعاً نشان‌دهنده پیشرفت من در زمان نیست. من میانگین متحرک خود را برای 200 امتیاز آخر در برابر نمرات خام خود رسم کردم، که تصویری خوبی از آخرین عملکردم به من می دهد (من نقاط داده را در هر تاریخ رسم کردم). من در مورد تفاوت استاندارد شده در میانگین خواندم، و فکر می کنم که آیا این حتی بیشتر به من کمک می کند. آیا نظری در مورد شاخص های عملکرد دیگری (به جز میانگین و میانگین متحرک) دارید که بتوانم از آنها استفاده کنم؟ من در زمینه آمار تحصیل نکرده ام، اما می دانم چگونه از فرمول ها استفاده کنم. با تشکر
دقیق ترین شاخص های عملکرد ورزشی بر اساس امتیازات کدامند؟
19055
من این فرصت را دارم که یک راه حل ساده برای نمایش محصولات پیشنهادی در یک وب سایت تجارت الکترونیک ایجاد کنم. اولین انتخاب من استفاده از Naive Bayes به دلیل سادگی اجرای آن بود. با این حال، من به این حالت رسیدم: $P(buys|product.type,product.brand) = \frac{P(buys) * P(product.type|buys) * P(product.brand|buys)}{P (product.type,product.brand)}$ همانطور که P (خرید) و P (خرید نمی کند) را مقایسه می کنیم، مخرج یک ثابت است و می توانیم P (خرید) و P (خرید نمی کند) را بر اساس آنها مقایسه کنیم. فقط شمارنده تعیین احتمالات $P(product.type|خرید)$ با نگاه کردن به آنچه کاربر در گذشته خریده است آسان است. با این حال، من مطمئن نیستم که چگونه $P(خرید)$ را تعیین کنم. آیا تعداد محصولات خریداری شده تقسیم بر کل محصولات موجود در فروشگاه است؟ اما تعداد محصولات موجود با گذشت زمان متفاوت است. آیا گرفتن تعداد فعلی محصولات، که با تعداد محصولاتی که در زمان آخرین سفارش کاربر در دسترس بوده اند، متفاوت است (نمونه شدید: کاربر می تواند 3 محصول از 5 محصولی را که در زمان راه اندازی در دسترس بوده اند، سفارش داده باشد. ، اما اکنون 10000 محصول وجود دارد).
آیا Naive Bayes برای راه حل ساده محصولات پیشنهادی خوب است؟
39137
من روی چند تمرین برای کلاس اقتصاد سنجی کار می کنم و کمی گیج هستم. من قصد دارم یک مدل $$Y=\beta_0 +\beta_1X+u$$ را در نظر بگیرم و یک آزمایش (آمار تست و مقدار بحرانی) $H_0:\beta_1 =0$ در برابر $H_1:\beta_1 \ne 0 پیشنهاد کنم. $ به طوری که خطای نوع 1 به 5% می رسد و قدرت تست به 1 می رود که حجم نمونه به بی نهایت می رسد. من فکر می کنم کاملاً استاندارد است، من تقریباً مطمئن هستم که ما فقط می خواهیم از آمار آزمون $\tau=| استفاده کنیم. \frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}|$ با مقدار بحرانی 1.96. با قضیه حد مرکزی، تحت فرض صفر، $\frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}\longrightarrow_d N(0,1)$ داریم و بنابراین می‌توانیم نشان دهیم خطای نوع 1 در حد بسیار آسان است. اگر تا الان مشکلی پیش آمده لطفا به من اطلاع دهید. مشکلی که من دارم این است که نشان می‌دهم قدرت آزمایش به 1 نزدیک می‌شود. زیر $H_1$، برای اندازه‌های نمونه بزرگ $\frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}\approx \frac {\hat{\beta_1}}{{SE}(\beta_1)}=\frac{\hat{\beta_1}}{\sqrt{\frac{\sigma^2}{nVar(X)}}}\longrightarrow_d ???????$ حالا اینجاست که من گیج شدم... آیا این اصطلاح به چیزی همگرا می شود؟ آیا من قصد دارم در مورد همگرایی در توزیع بحث کنم؟ تنها چیزی که فکر می کردم این بود که می توانیم استدلال کنیم که $$\frac{\hat{\beta_1}}{\sqrt{\frac{\sigma^2}{nVar(X)}}}\longrightarrow_p \frac{\ beta_1}{\sqrt{\frac{\sigma^2}{nVar(X)}}}$$ و اینکه این عدد به وضوح با n در حال افزایش است، بنابراین آمار آزمون به بی نهایت در حد آیا این استدلال درستی است؟ مشکل من با این این است که، چرا نمی گوییم که این بدان معناست که آمار آزمون به 0 در حد زیر $H_0$ می رود؟ ما این را نمی گوییم، می گوییم که به یک _ توزیع_ می رود، نه یک عدد، اما
نشان می دهد که با نزدیک شدن حجم نمونه به بی نهایت، توان آزمون به 1 نزدیک می شود
88100
از «نحوه پرسیدن یک سؤال آماری»: 1. **مشکلی که می‌خواهید حل کنید**: با توجه به نقشه‌های حرارتی دوبعدی پاسخ‌ها (DV)، مدل دوبعدی را انتخاب کنید (همچنین یک نقشه حرارتی است، اما می‌تواند محدوده‌های مختلفی داشته باشد. از ارزش ها) که پاسخ ها را به بهترین نحو توضیح می دهد/پیش بینی می کند. مدل‌ها از پیش‌بینی‌های هندسی پاسخ‌های شرکت‌کننده تولید می‌شوند و ممکن است به هم مرتبط باشند، بنابراین من می‌خواهم مدل(هایی) را انتخاب کنم که عملکرد شرکت‌کننده را به بهترین شکل توضیح دهد. 2. **به ما بگویید چه ریاضی و آماری می دانید**: کمی آمار و ریاضی، گرایش روانشناسی و فیزیک. من همچنین با MATLAB، Mathematica و (تا حد محدود) SPSS آشنایی کامل دارم. 3. **به ما بگویید چه داده هایی دارید**: برای یک محرک معین، من تعدادی (در حال حاضر 7) نقشه حرارتی تولید شده از پاسخ های شرکت کنندگان دارم. من همچنین 10 مدل دارم که هر کدام یک نقشه حرارتی 2 بعدی را ارائه می دهند که می خواهم از آنها برای مقایسه با داده های افراد استفاده کنم. 4. ** آیا به استخدام یک مشاور فکر می کنید، یا فقط به دنبال راهنمایی در جهتی هستید ** : اشاره ها/پیشنهادها 5. **سپس، و فقط پس از آن به ما بگویید چه چیزی را امتحان کرده اید، چرا راضی نیستید. و غیره**: در داده های متوسط ​​(به عنوان مثال، نقشه حرارتی متوسط ​​پاسخ ها)، من به همبستگی های دو بعدی نگاه کرده ام (با استفاده از MATLAB's corr2) بین مدل های فردی و میانگین پاسخ. از آنجایی که مدل‌ها می‌توانند به شدت همبستگی داشته باشند، من همچنین به انجام همبستگی جزئی (با استفاده از پاره‌کوری متلب) با داده‌ها و مدل‌ها به عنوان بردارهای ستون نگاه کرده‌ام. با این حال، همبستگی ها تنها یک تکه از پازل هستند و بنابراین من انجام یک رگرسیون خطی چندگانه (با استفاده از fitlm MATLAB) با میانگین داده ها به عنوان مشاهدات و 10 مدل به عنوان پیش بینی کننده، با استفاده از بردارهای ستون را در نظر گرفتم. با این حال، یک جایگزین بهتر ممکن است یک رگرسیون خطی چند متغیره (با استفاده از mvregress MATLAB) با مشاهدات فردی به عنوان ستون باشد. هر گونه نظر در مورد پیشنهادات بسیار قدردانی خواهد شد!
مقایسه نقشه های حرارتی دو بعدی داده های مشاهده شده با پیش بینی های مدل دو بعدی
88108
من یک سوال کوتاه دارم که آیا تفاوتی بین دو عبارت تمایز و تفاوت اول در مفهوم: مدل معادلات همزمان با داده های تابلویی وجود دارد (Wooldridge, 2003, p.520)؟
آیا تفاوتی بین «تمایز» و «تفاوت اول» وجود دارد؟
16996
من این تابع R را به منظور آزمایش همبستگی بین ماتریس (mat1، mat2) با نمونه‌برداری مجدد از ماتریس دوم numR بارها نوشتم تا توزیع ضریب همبستگی را برای آزمایش مقدار مشاهده‌شده به دست آوریم. اما صرف نظر از مقدار مشاهده شده، من همیشه توزیع را با حداکثر 0.3 SD دریافت می کنم. نمی‌دانم اگر همبستگی اصلی تا 0.9 باشد که پس از 10000 نمونه‌برداری مجدد هنوز از 0.3 تجاوز نکند. نظری در مورد کد یا آزمایش احتمالی با داده های مستقل دارید؟ resamplerSimAlt <- تابع (mat1، mat2، numR، نمودار = FALSE) {statSim <- عددی(numR) mat1vcv <- cov(mat1) mat2vcvT <- cov(mat2) ltM1 <- mat1vcv[col(mat1vcv) <= mat1vcv)] ltM2T <- mat2vcvT[col(mat2vcvT) <= ردیف(mat2vcvT)] statObs <- شاخص cor(ltM1، ltM2T) <- c(1:طول(mat2)) resamplesIndices <- lapply(1:numR، تابع(i) نمونه(شاخص ، جایگزین = F)) برای (i در 1:numR) { ss <- mat2[نمونه(resamplesIndices[[i]])] ss <- ماتریس(ss, nrow = dim(mat2)[[1]], ncol = dim(mat2)[[2]]) mat2ss <- cov(ss) ltM2ss <- mat2ss[col(mat2ss) <= ردیف(mat2ss)] statSim[i] <- ( density(statSim), type=l, lwd=2) abline(v = statObs) text(10, 10, observed corlation = ) } list( obs = statObs , sumFit = sum(statSim > statObs)/numR) }
همبستگی متغیرهای بوت استرپ در R
39139
نزدیکترین همسایه/k-NN برای استفاده با فاصله فشرده سازی عادی. نمی‌دانم آیا تقریبی از الگوریتم NN/k-NN وجود دارد که برای همه اندازه‌های فاصله کار کند؟ من می خواهم فاصله فشرده سازی نرمال شده را در عمل آزمایش کنم، اما هزینه محاسبه ماتریس شباهت (فشرده سازی الحاق هر دو مشاهدات / رشته ها) بسیار زیاد است. بنابراین شاید تقریبی از NN/k-NN وجود داشته باشد که از هیچ تقریب مستقیمی برای فاصله بین مشاهدات استفاده نمی کند، به عنوان مثال. بدون Local Sensitive Hashing و فقط سعی کنید فواصل را اندازه گیری کنید که به نظر می رسد مرتبط هستند و اطلاعات جدیدی را پس از مقداردهی اولیه تصادفی به ارمغان می آورند. 1. من به مدل متغیرهای پنهان مبتنی بر ماتریس فاصله برای یافتن مرتبط ترین جفت مشاهدات فکر می کردم، اما به نظر می رسد که ماتریس فاصله نباید برای این رویکرد خیلی کم باشد. 2. ممکن است برخی از اکتشافات کار کنند، مانند: برای انتخاب 'x' نزدیکترین همسایه را از مجموعه مشاهداتی که فاصله آنها محاسبه شده است پیدا کنید - آن را 'y' نامید، سپس فاصله بین 'x' و نزدیکترین همسایه (یا همه همسایگان) را محاسبه کنید. یا 'n' همسایگان) از 'y'.
تقریب مستقل فاصله نزدیکترین همسایه/k-NN.
103228
سوال کمی پیچیده است، پس لطفا با من تحمل کنید. من در حال انجام بخش بندی تصویر با استفاده از روش Swendsen-Wang برای تجزیه و تحلیل تصویر هستم./ ( _stat.fsu.edu/~abarbu/papers/jcgs.pdf_ ) باید **احتمال لبه** را به عنوان یک معیار شباهت خوب بین شدت محاسبه کنم. مدل های مناطق اتمی مقاله بیان می کند که (اول از همه) - > به عنوان یک مدل تقریبی برای هر ناحیه اتمی v ∈ V، یک هیستوگرام 15 bin > با شدت h نرمال شده به 1 را انتخاب می کنیم. بنابراین، من هیستوگرام یک تصویر را با استفاده از این ایجاد کرده ام. کد پایتون - > k = cv2.imread(vpython/the.png,0) > > hk = cv2.calcHist([k],[0],None,[15],[0,256] علاوه بر این، مقاله بیان می‌کند که باید احتمال لبه را به صورت -> q(i,j) = exp{−1/ انتخاب کنیم 2 (KL(h(i) || h(j)) + KL(h(j) || h(i)))} که در آن KL() Kullback-Leibler است واگرایی بین دو هیستوگرام من سعی کردم آن را به صورت - > برای i در محدوده (int(k.size)): > > برای j در محدوده (int(k.size)): > > q(i,j) = q(i,j) کدنویسی کنم ) + math.exp(( از این مشکل من این خطا را دریافت می کنم - > File hist1.py, خط 14 > > q(i,j) = q(i,j) + math.exp(((hk(j)-hk(i))*math .log(hk(i)/hk(j)))/2) > > SyntaxError: نمی توان به فراخوانی تابع اختصاص داد آیا کسی می تواند در این مورد به من کمک کند؟ پیشاپیش متشکرم
احتمال لبه با استفاده از کد KL-Divergence در پایتون
16628
من مطمئن نیستم که از کدام روش برای مدل کردن رابطه بین دو متغیر ($x$ و $y$) در آزمایشی که به شرح زیر است استفاده کنم: * 3 متغیر وجود دارد: $x_{aim}$، $x$ و $ y$. * مقدار $x_{aim}$ هنگام اجرای آزمایش تنظیم می‌شود. با این حال، $x$ و $x_{aim}$ همیشه برابر نیستند. * ضریب همبستگی پیرسون بین $x_{aim}$ و $x$ حدود 0.9 است. * ضریب همبستگی پیرسون بین $x$ و $y$ بسیار کمتر است: حدود 0.5. * $y$ دارای حداکثر مقدار ممکن است ($y_{max}$) که نمی توان از آن تجاوز کرد. * هر نقطه داده پس از تنظیم $x_{aim}$ و خواندن $x$ و $y$ بدست می‌آید. اگرچه ضریب همبستگی پیرسون بین $x$ و $y$ عالی نیست، به نظر می‌رسد $y$ تمایل دارد با $x$ افزایش یابد. پس از انجام رگرسیون های خطی ساده $y=f(x)$ و $x=g(y)$ (و تبدیل دومی به $g^{-1}$، به طوری که در همان نمودار $ نمایش داده شود. برای مثال f$)، هر دو شیب مثبت هستند، اما شیب $g^{-1}$ بیشتر از $f$ است. آیا گفتن $x_{max} = f^{-1}(y_{max})$ یا $x_{max} = g(y_{max})$ منطقی است؟ ($x_{max}$ در حالت دوم زودتر به دست می‌آید.) با توجه به اینکه $y$ توسط $y_{max}$ محدود می‌شود، در مورد حداکثر مقدار ممکن $x$ که می‌توان به آن رسید، چه می‌توان گفت؟ تا آنجا که من متوجه شدم، انجام یک رگرسیون خطی به شکل $y=f(x)$ زمانی که $x$ متغیر مستقل و $y$ متغیر وابسته است، منطقی است. با این حال، در این زمینه، من مطمئن نیستم که آیا منطقی است که در نظر بگیریم که $x$ مستقل است و $y$ وابسته است. آیا رگرسیون حداقل مربعات کل مناسب تر است؟ آیا روش‌های دیگری برای تعیین اینکه به کدام مقادیر $x_{max}$ می‌توان رسید (و با چه احتمالی) وجود دارد؟ (اگر این مهم باشد، به نظر می‌رسد $x$ و $y$ از توزیع نرمال پیروی نمی‌کنند، زیرا تلاش‌های بیشتری برای رسیدن به مقادیر بالاتر x$ صورت گرفته است.)
با در نظر گرفتن یک متغیر با کران بالا، از کدام نوع رگرسیون استفاده کنیم؟
82659
من در تجزیه و تحلیل بقا تازه کار هستم و اخیراً متوجه شده ام که روش های مختلفی برای انجام آن با توجه به یک هدف خاص وجود دارد. من به اجرای واقعی و مناسب بودن این روش ها علاقه مند هستم. به من روش های سنتی _Cox Proportional-Hazards_، _مدل های زمان شکست تسریع شده_و_شبکه های عصبی_ (پرسپترون چند لایه) را به عنوان روش هایی برای بقای یک بیمار با توجه به زمان، وضعیت و سایر داده های پزشکی ارائه کردند. گفته می‌شود که این مطالعه در پنج سال آینده مشخص می‌شود و هدف این است که هر سال خطرات بقای خود را برای ثبت رکوردهای جدید ارائه کنیم. من دو مورد را پیدا کردم که در آن روش‌های دیگری بر روی Cox PH انتخاب شده‌اند: 1. « _چگونه پیش‌بینی‌هایی از نظر زمان بقا از مدل PH کاکس به دست آوریم_» را پیدا کردم و به آن اشاره شد که: احتمال بقا در مقاطع زمانی خاص، من شما را به سمت > **مدل های بقای پارامتریک (معروف به مدل های زمان شکست تسریع شده)** راهنمایی می کنم. این > در بسته بقا برای R پیاده سازی می شوند، و به شما توزیع های پارامتریک > زمان بقا می دهند، که در آن شما به سادگی می توانید زمانی را که به آن علاقه دارید > متصل کنید و احتمال بقا را پس بگیرید. من به سایت توصیه شده رفتم و یکی را در بسته `survival` پیدا کردم - تابع survreg. 2. شبکه های عصبی در این نظر پیشنهاد شده است: > ... یکی از مزیت های رویکردهای شبکه عصبی برای تحلیل بقا این است که آنها > بر فرضیاتی که زیربنای تحلیل کاکس است تکیه نمی کنند ... شخص دیگری با این سوال مدل شبکه عصبی _R با بردار هدف به‌عنوان خروجی حاوی پیش‌بینی‌های بقا_» راهی جامع برای تعیین بقا در شبکه‌های عصبی و Cox PH ارائه کرد. کد R برای بدست آوردن بقا به این صورت خواهد بود: mymodel <- neuralnet(T1+T2+T3+T4+T5~covar1+covar2+covar3+..., data=mydata, hidden=1) compute(mymodel,data= mydata) 3. من به انجمن R رفتم و این پاسخ را در سؤال _predict.coxph and predict.survreg_ پیدا کردم: > در واقع، از تابع «predict()» «coxph» نمی‌توانید پیش‌بینی‌های «زمان» را مستقیماً دریافت کنید، بلکه فقط امتیازهای ریسک خطی و نمایی را دریافت کنید. این به این دلیل است که برای بدست آوردن زمان، یک خطر پایه باید محاسبه شود و > ساده نیست زیرا در مدل کاکس ضمنی است. می‌خواستم بدانم که کدام یک از این سه (یا دو مورد با توجه به استدلال‌های Cox PH) برای دریافت درصد بقا برای دوره‌های زمانی مورد علاقه بهترین است؟ من گیج شده ام که از کدام یک از آنها در تجزیه و تحلیل بقا استفاده کنم.
مقایسه CPH، مدل زمان شکست تسریع شده یا شبکه های عصبی برای تجزیه و تحلیل بقا
82656
من داده‌های متنی را از یک سایت تبلیغات طبقه‌بندی شده دارم و علاقه مندم پست‌ها را به دو دسته طبقه‌بندی کنم: X و نه X. من با یک مجموعه آموزشی خوب و انتخاب ویژگی گیر کرده ام. من فرض کردم که یک شروع خوب برای پیکره متن در مورد X، صفحه محصول آن از سازنده خواهد بود (در نهایت، یک فروشنده باید از برخی اصطلاحات فنی استفاده کند) و اصطلاحات فنی مرتبط به عنوان ویژگی ها. من از NLP برای پردازش متن استفاده کرده‌ام تا از شر متن معمولی/پرکننده/متن آزاد خلاص شوم، و تنها 3-5 کلمه کلیدی در هر پست هدف برای من باقی مانده است. آیا این رویکرد درست به نظر می رسد؟ همچنین، از چه چیزی به عنوان آموزش برای X نه استفاده کنم؟
چگونه مجموعه های آموزشی برای داده های متنی انتخاب کنیم؟
100752
من در حال خواندن این مقاله هستم: http://research.microsoft.com/en-us/um/people/ryenw/papers/LiuSIGIR2010.pdf می‌خواهم از آن برای مدل‌سازی زمان ماندگاری وب استفاده کنم. من در حوزه آمار خیلی خوب تحصیل نکرده ام. من چند روزی را صرف تلاش کردم تا تعیین کنم پارامترهای لامبدا و k برای توزیع ویبول آنها چیست، اما موفق نبودم. آیا کسی می تواند به من بگوید که پارامترها چیست (به ویژه در مورد تجزیه و تحلیل محتوای آنها)، یا بهتر از آن، به من آموزش دهد که چگونه می توانم خودم آنها را درک کنم؟ به عنوان یک مرجع، تابع خطر برای توزیع ظاهراً بهینه همان مقاله در اینجا ذکر شده است: http://www.nngroup.com/articles/how-long-do- users-stay-on-web-pages/ با تشکر از شما
شناسایی پارامترهای توزیع وایبول از مقاله تحقیقاتی
82654
من با مدل `y = a + b * x` مطابقت دارم. و 95% CI برای برآوردهای a و b به ترتیب (a1، a2)، (b1، b2) است. اگر مشاهده جدیدی x0 داشته باشیم، پاسخ تخمین زده شده a_hat + b_hat * x0 است. و 95% CI (a1 + b1 * x0، a2 + b2 * x0) است مورد 1، اکنون با توجه به y = 0، من می‌خواهم x پاسخگو را تخمین بزنم. حدس می‌زنم فاصله اطمینان برای «x» «(a1 / b2، a2 / b1)» باشد. درست میگم؟ مورد 2، اگر مدل y = a + b * x + c * z + d * x * z را مطابقت دهیم، a_hat<0، b_hat،c_hat،d_hat>0، با توجه به y = 0، نحوه محاسبه فاصله اطمینان برای x + z؟
مدل خطی، با توجه به y، فاصله اطمینان را برای x محاسبه کنید
13685
من یک روش مفید به نام Theil-Sen estimator در ویکی پدیا پیدا کردم: در اینجا به نظر می رسد این روش با تابع mblm در کتابخانه mblm پوشانده شده است. همین الان دانلودش کردم تا چند تست انجام بدم. من یک تردید در مورد آن دارم، اگر انجام دهم: x <- c(1,2,3) y <- c(2,6,7) mod <- mblm(x~y) کاملاً کار می کند، اما من درک نحوه حذف رهگیری (آن را روی صفر قرار دهید). با lm() من lm(x~y+0) را انجام می دهم اما در این مورد هنوز مقدار رهگیری را می بینم. بنابراین سوال اول این است: **چگونه وقفه را روی 0 تنظیم کنیم؟** سوال دوم در مورد استفاده از این تابع با ماتریس است، به کد زیر نگاه کنید: > y [1] 6 4 1 8 7 > > t [،1] [،2] [1،] 2 32 [2،] 5 762 [3،] 6 5 [4،] 23 9 [5،] 34 16 > mblm(y~t) فراخوانی: mblm(فرمول = y ~ t) ضرایب: (تقاطع) t NA NA چرا آن NA / NA؟ اگر همین کار را با lm() انجام دهم مشکلی ندارم. > lm(y~t) فراخوانی: lm(فرمول = y ~ t) ضرایب: (برق) t1 t2 3.453e+00 1.247e-01 5.435e-06 بنابراین سوال دوم این است: **آیا می توانم از ماتریس استفاده کنم سمت راست فرمول؟** متشکرم
چگونه برآوردگر Theil-Sen را در R محاسبه کنیم؟
80652
ویکفیلد در کتاب _روشهای رگرسیون بیزی و فرکانسیستی_ خاطرنشان می کند که اگر عبارات خطا نرمال باشد یا اگر حجم نمونه به اندازه کافی بزرگ باشد، برآوردگرهای ضرایب در یک مدل خطی نرمال خواهند بود. او می نویسد که قضاوت در مورد کفایت حجم نمونه را می توان از طریق شبیه سازی ارزیابی کرد. من نتوانستم توضیح بیشتری در این مورد پیدا کنم. آیا کسی می تواند جزئیاتی را درباره نحوه انجام این کار و/یا ارجاعات بیشتر ارائه دهد؟ با تشکر
شبیه سازی برای بررسی مدل برای اندازه نمونه
12754
چیز زیادی نیست که بتوانم به سوال اضافه کنم. گوگل بیشتر مقالات تحقیقاتی را در Springerlink و سایر سایت هایی که من به آنها دسترسی ندارم پیدا کرده است. با توجه به یک مدل شبکه عصبی با $tanh(x)$ به عنوان خروجی غیر خطی، تابع تطبیق تطبیق مناسب برای استفاده چیست؟ -برایان
تطبیق تابع از دست دادن برای واحدهای tanh در یک شبکه عصبی
111049
من می‌خواهم یک کار K-Means را انجام دهم و در آموزش مدل شکست بخورم و قبل از اینکه معیارهای نتیجه‌ام را بدست بیاورم از پوسته Sparks Scala خارج شوم. من مطمئن نیستم که آیا فرمت ورودی مشکل است یا چیز دیگری. من از Spark 1.0.0 استفاده می کنم و منسوجات ورودی من (400 مگابایت) به این صورت است: 86252 3711 15.4 4.18 86252 3504 28 1.25 86252 3703 10.75 8.85 86032525510 2201 64 2.79 12262064 7203 32 8.49 12262064 2119 32 1.99 12262064 3405 8.5 2.99 12262064 210192064 21019 21019 210623 1.5 12262064 3611 23.7 1.95 و غیره. ID، دسته، PruductSize، PurchaseAmount،. مطمئن نیستم که بتوانم از دو مورد اول استفاده کنم، زیرا در فایل مثال MLlib فقط از float استفاده می شود. بنابراین من دو مورد آخر را نیز امتحان کردم: 16 2.49 64 3.29 56 1 16 3.29 6 4.99 10.75 0.79 4.6 3.99 11 1.18 5.8 1.25 15 0.99 کد خطای من در اینجا: scala در هر دو مورد import است org.apache.spark.mllib.clustering.KMeans import org.apache.spark.mllib.clustering.KMeans scala> import org.apache.spark.mllib.linalg.Vectors import org.apache.spark.mllib.linalg.Vectors scala > scala> // بارگیری و تجزیه داده ها scala> val data = sc.textFile(data/outkmeanssm.txt) 14/08/07 16:15:37 INFO MemoryStore: sureFreeSpace(35456) با curMem=0، maxMem=318111744 فراخوانی شده است 14/08/08:1571 MemoryStore : پخش_0 را مسدود کنید ذخیره شده به عنوان مقادیر در حافظه (اندازه تخمینی 34.6 کیلوبایت، 303.3 مگابایت رایگان): org.apache.spark.rdd.RDD[String] = MappedRDD[1] در textFile در :14 scala> val parsedData = data.map(s = > Vectors.dense(s.split(' ').map(_.toDouble))) parsedData: org.apache.spark.rdd.RDD[org.apache.spark.mllib.linalg.Vector] = MappedRDD[2] در نقشه در :16 scala> scala> // داده ها را با استفاده از KMeans scala> val numClusters به ​​دو کلاس خوشه بندی کنید. = 2 numCluster: Int = 2 Scala> Val numIterations = 20 numIterations: Int = 20 scala> val clusters = KMeans.train (parsedData, numClusters, numIterations) 14/08/07 16:15:38 WARN NativeCodeLoader: قادر به بارگیری کتابخانه native-hadoop برای پلتفرم شما نیست... با استفاده از کلاس های جاوا داخلی که در آن قابل اجرا 14/08/07 16:15:38 WARN LoadSnappy: کتابخانه بومی Snappy بارگیری نشد 14/08/07 16:15:38 INFO FileInputFormat: کل مسیرهای ورودی برای پردازش: 1 14/08/07 16:15:38 INFO SparkContext: شروع کار: TakeSample 260 14/08/07 16:15:38 INFO DAGScheduler: Jot job 0 (takeSample at KMeans.scala:260) با 7 پارتیشن خروجی (allowLocal=false) 14/08/07 16:15:38 INFO DAGScheduler: مرحله نهایی: StageSkeample 0( KMeans.scala:260) 14/08/07 16:15:38 اطلاعات DAG برنامه‌ریز: والدین مرحله نهایی: List() 14/08/07 16:15:38 اطلاعات DAG برنامه‌ریز: والدین گمشده: لیست() 14/08/07 16:15:38 INFO DAGScheduler: ارسال مرحله 0 (MappedRDD[6] در نقشه در KMeans.scala:123)، که هیچ والدین گمشده ای ندارد 14/08/07 16:15:39 اطلاعات DAG زمانبندی: ارسال 7 کار گمشده از مرحله 0 (MappedRDD[6] در نقشه در KMeans.scala:123) 14/08 /07 16:15:39 INFO TaskSchedulerImpl: افزودن مجموعه وظایف 0.0 با 7 کار 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:0 به عنوان TID 0 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO taskerial:0S. 0 به عنوان 2221 بایت در 3 میلی ثانیه 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:1 به عنوان TID 1 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO: TaskSeterialM 1 تا 2221 بایت در 0 ms 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:2 به عنوان TID 2 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetSetMana. به اندازه 2221 بایت 0 ms 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:3 به عنوان TID 3 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSet03Manager: 2221 بایت در 1 ms 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:4 به عنوان TID 4 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetManager 1:20 Serial. بایت در 0 میلی ثانیه 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:5 به عنوان TID 5 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetManager: 201 وظیفه به صورت سریال شده توسط در 0 میلی ثانیه 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:6 به عنوان TID 6 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetManager: 201 وظیفه به صورت سریال شده توسط در 0 میلی ثانیه 14/08/07 16:15:39 INFO مجری: در حال اجرا شناسه وظیفه 4 14/08/07 16:15:39 INFO مجری: در حال اجرا ID وظیفه 1 14/08/07 16:15:39 اطلاعات مجری: در حال اجرا ID 5 14/08/07 16:15:39 INFO Executor: Running Task ID 6 14/08/07 16:15:39 INFO Executor: Running Task ID 0 14/08/07 16:15:39 INFO Executor: Running task ID 3 14/08/07 16:15: 39 INFO Executor: در حال اجرا ID task 2 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 Found BlockManager: به صورت محلی 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 INFO BlockManager: بلوک یافت شده
آپاچی اسپارک - MLlib - K-Means
39138
من مجموعه ای از تقریبا 1600 سری زمانی در 2 سال دارم که می خواهم آنها را به خوشه ها گروه بندی کنم. به نظر شما این کار با استفاده از k-means امکان پذیر است؟ به من توصیه می کنید از کدام روش استفاده کنم؟ آیا با استفاده از SPSS این امکان وجود دارد؟
خوشه بندی سری های زمانی
80658
با سلام و تشکر از شما که سوال من را خواندید. برای درک بهتر، مدلی با پیش‌بینی‌کننده‌های دوگانه و مقوله‌ای دارم و متغیرهای وابسته پیوسته هستند. می دانم که مفروضات تحلیل مسیر مانند رگرسیون خطی است. من چندین سوال دارم: 1. چگونه می توانم خطی بودن یک متغیر طبقه ای/دودویی و یک متغیر پیوسته را بررسی کنم؟ بصری امکان پذیر نیست، زیرا وقتی I.g. برای خطی بودن بین جنسیت پیش‌بین من (کد ساختگی) و متغیر وابسته دستیابی به دو ردیف نقطه وجود دارد. 2. چگونه می توانم آزمایش کنم که آیا باقیمانده ها با متغیرهای وابسته همبستگی دارند؟ 3. چگونه می توانم برای افزایش بین متغیرها آزمایش کنم؟ آیا می توانم از Tukey-Test استفاده کنم و همه متغیرهایم را همزمان در آن قرار دهم؟ از شما برای کمک به من متشکرم!
مفروضات یک مدل مسیر (AMOS)
105353
من 2 مجموعه داده دارم، یکی binn شده و دیگری نه، هر کدام 9000 مقدار. چیزی شبیه این: «a = [23 45 88 9 0 29 30 60 0 2 10 100 0 60 90] b = [0 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 1]» در واقع، «b» مجموعه ای از رویدادها (بله/خیر) است که در طول تغییر مداوم شدت رخ می دهد یک سیگنال (سیگنال دارای مقادیر [0-100] است). من همبستگی متقاطع را انجام دادم، زیرا می‌خواهم پیدا کنم که آیا وقوع رویدادها با تغییرات یک سیگنال مشترک است یا خیر. بنابراین من این کار را کردم: maxlags = 300; [c، lags] = xcorr(a-mean(a)، b-mean(b)، maxlags، 'coeff') و همچنین یک فرضیه تهی 10 بار درهم ریخته ایجاد کردم: urge_shuffled=urge_new; a_sh = a; b_sh=b; all_corr_rand_norm=[]; برای k=1:10 a_sh1 = a_shuff(randperm(length(a_sh))); a_sh = a_sh11; b_sh1 =b_sh(randperm(طول(b_sh))); b_sh=b_sh1; [c_sh,lags]=xcorr(a_sh-mean(a_sh),b_sh-mean(b_sh),maxlags, 'coeff'); all_corr_rand_norm (k,:) =c_sh; پایان corr_rand=mean(all_corr_rand_norm);` و همچنین مقادیر _t_ -score را محاسبه کرد. بنابراین در نهایت من چنین چیزی را دریافت کردم: ![](http://s30.postimg.org/iywttvlfl/Bildschirmfoto_2014_06_30_um_19_00_54.png) ابتدا سعی کردم این ارتباط را فقط با `xcorr(a,b, maxlags, coeff) انجام دهم )` بدون کم کردن میانگین، اما در این مورد به من یک چیز بسیار عجیب می دهد فرضیه صفر (قرمز است؛ همبستگی واقعی آبی است؛ تغییرات با maxlag های بزرگتر مشهودتر است): ! من در اینترنت تحقیقاتی انجام دادم و حتی سوالات مشابهی پیدا کردم، اما پاسخ ها این بود که این به دلیل صفر padding است و به همین دلیل است که باید میانگین را قبل از همبستگی کم کنیم. این اولین سوال من است: **چرا در برخی موارد افراد حتی با xcorr(a,b) یک فرضیه تهی خوب دریافت می کنند - به چه چیزی بستگی دارد؟** سوال دوم این است که **درست است یا نه در مورد من برای تفریق میانگین** - اساساً از قبل با تابع 'xcov' متلب مطابقت دارد و این قبلاً کوواریانس است... (همکار دیگری دارم که پیشنهاد داد از 'xcorr' و سپس برای تفریق میانگین: [c, lags]= xcorr(a,b, maxlags, 'coeff') x_crr=c-mean(c) — اما من واقعاً نمی‌دانم چرا باید این کار را انجام دهم، و علاوه بر این، همچنان همان فرضیه تهی مثلثی شکل عجیب را به من می دهد: **کوواریانس متقاطع و همبستگی هستند در مورد من خیلی متفاوت است؟** بله، من قبلاً همه چیزهایی را که در مورد هر دو آنها پیدا کردم خوانده ام، اما عبارات کوواریانس نشان می دهد که چگونه 2 تابع با هم تغییر می کنند وقتی همبستگی متقابل همبستگی آنها را نشان می دهد کمک خیلی زیاد اگر چیزی با یک تاخیر خاص قبل/بعد از تابع دیگر متفاوت است، آیا این همبستگی نیست؟ همچنین، در حین جستجوی توضیح فرضیه صفر مثلثی خود، توصیه های شخصی را برای استفاده از همبستگی بی طرفانه دیدم، در حالی که دیگران قویاً پیشنهاد کردند که این کار را انجام ندهید. بنابراین، سوال چهارم این است، **چه زمانی واقعاً از این xcorr بی طرفانه/غیر جانبدارانه استفاده می کنیم؟** من دوباره توصیفات عالی پیدا کردم که همبستگی متقابل جانبدارانه مغرضانه است، در حالی که بی طرفانه نیست. البته جواب‌های بهتری هم بود، اما هنوز متوجه نشدم. و سوال آخر: در مورد من، از آنجایی که من یک _t_ معنی دار اما یک همبستگی ضعیف بین هر دو مجموعه مقادیر دارم، آیا می توانیم تایید کنیم که نوسانات هر دو مجموعه داده تقریبا مستقل هستند؟ من کاملاً درک می کنم که این ترکیبی از سؤالات رایج و احتمالاً آسان در مورد همبستگی متقابل است، اما توضیحاتی که در اینترنت پیدا کرده ام معمولاً مشکوک به نظر می رسند یا واقعاً شبیه توضیحات نیستند، بلکه فقط برخی ادعاهای سریع هستند (مانند بی طرفانه معنی بی طرفانه است) و من در مورد تفسیر یافته هایم مطمئن نیستم.
کدام Xcorr را در یک موقعیت خاص انتخاب کنیم: عادی/غیر مغرضانه/بی طرفانه؟
88109
فرض کنید شما فقط این اطلاعات را از یک داده نمونه دارید: $X_i$ و $w_i$، $i=1،...،N$، که $w_i$ وزن‌های نمونه مربوطه هستند (نه اعداد صحیح). آیا می توان تخمین بوت استرپ معتبر مثلاً واریانس X_i$ را بدست آورد؟ می‌دانم که ممکن است مجبور باشم وزن‌های نمونه‌برداری (برای داده‌های وزنی) را برای هر تکرار بوت استرپ تنظیم مجدد کنم تا تخمین راه‌انداز معتبری به دست بیاورم. اما با توجه به اینکه من فقط اطلاعات فوق را دارم، آیا راه های دیگری برای انجام این کار وجود دارد؟
داده‌های راه‌اندازی تنها با وزن‌های نمونه داده شده
63706
من در حال خواندن یک یادداشت کلاسی درباره SVM از اندرو نگ (صفحه 19 تا 20 از http://cs229.stanford.edu/notes/cs229-notes3.pdf) بودم و نمی توانم چیزی را در یادداشت سخنرانی بفهمم. می گوید که مشکل حاشیه نرم تنظیم شده با L1 به شرح زیر است: $$\begin{array}{ll} \mbox{min.} & & \frac{1}{2} ||w||^2 + C \sum \xi_i \\\ \mbox{s.t.} & & y_i (w^T x_i+b) \geq 1 - \xi_i، i = 1،...، m\\\ & & \xi_i \geq 0, i=1,...,m \end{array}$$ سپس می گوید که لاگرانژ $L(w,b,\xi, \alpha, r) ​​= \frac{1} است {2}w^Tw + C\sum{\xi_i} - \sum \alpha_i [y_i (x^Tw+b)-1+\xi_i] - \sum r_i \xi_i$ سپس می‌گوید که شرط تکمیلی دوگانه KKT عبارتند از: $$\begin{array}{ll} \alpha_i = 0 & \Rightarrow & y_i (w^Tx_i + b) \geq 1 \\\ \alpha_i = C & \Rightarrow & y_i ( w^Tx_i + b) \leq 1 \\\ 0 < \alpha_i < C & \Rightarrow & y_i (w^Tx_i + b) = 1 \end{array}$$ قسمت آخر را متوجه نشدم. آیا شرط تکمیلی دوگانه KKT $\alpha_i [y_i (x^Tw+b)-1+\xi_i]$ = 0 نیست -- یعنی $\alpha_i = 0$ یا $ y_i (x^Tw+ ب)-1+\xi_i = 0$. آیا کسی می تواند برای من توضیح دهد که شرایط تکمیلی فوق چگونه به دست می آید؟ من نگرانم که $\xi_i$ در شرایط مکمل ظاهر نمی شود.
در SVM با حاشیه نرم
63701
من سعی می کنم موضوعات پرطرفدار در توییتر را در زمان واقعی شناسایی کنم. کاری که من انجام می‌دهم این است که هر بار که توییتی دریافت می‌کنم، توییت را به خوشه‌ای اختصاص می‌دهم که درباره همان موضوع توییت صحبت می‌کند. صرف نظر از الگوریتم خوشه‌بندی که استفاده می‌کنم یا اینکه چگونه توییت‌ها را به موضوعات اختصاص می‌دهم، نمی‌توانم نحوه تشخیص موضوع پرطرفدار را بیابم. درک یا تعریف من از خوشه/موضوع پرطرفدار این است که خوشه/موضوع پرطرفدار این است که در یک دوره زمانی معین، توییت‌هایی را بیشتر از سایر خوشه‌ها دریافت می‌کند. یا تعداد دفعات به روز رسانی سایز خوشه نسبت به سایر خوشه ها بیشتر است. نحوه تبدیل آن تعریف به کد واقعی یا یک مدل ریاضی چیزی است که من قادر به حل آن نیستم.
تشخیص روندها در جریان داده در زمان واقعی
16997
من در حال تجزیه و تحلیل استفاده از CPU در یک شبکه بزرگ هستم. برای انجام این کار، یک برگه اکسل بزرگ در اختیار من قرار دادند. این شامل batchID (به این معنی است که ما یک CPU را برای اجرای آن کار اختصاص می دهیم) startTime، endTime (یعنی می دانیم که CPU در این مدت به طور کامل اشغال شده است). بر اساس این داده ها، من باید بفهمم که چند دسته در یک نمونه خاص در حال اجرا هستند. بنابراین، من از چت با محور x زمان و محور y تعداد دسته‌هایی است که در هر نمونه زمانی اجرا می‌شوند، استفاده خواهم کرد. کل فایل بیش از 15000 ردیف در داده های دو روزه است. در اینجا کسری از آن است. BATCHID startTime endTime 560062 13/10/2011 11:59:23 13/10/2011 11:59:26 560061 13/10/2011 08:59:18 13/10/2011 13/10/2011: 13/10/2011 05:59:21 13/10/2011 05:59:30 560059 13/10/2011 02:59:34 13/10/2011 02:59:43 56001058 2011 :24 13/10/2011 01:57:29 560057 13/10/2011 01:57:24 13/10/2011 01:57:28 560056 12/10/2011 23:59:19 2011 23:59:19 :28 560055 12/10/2011 20:59:21 12/10/2011 20:59:30 560054 12/10/2011 18:02:13 12/10/2011 18:02:2011/25256 18:02:13 12/10/2011 18:02:21 560052 12/10/2011 18:02:12 12/10/2011 18:02:21 560051 12/10/2021: 20211: /2011 18:02:16 560050 12/10/2011 18:02:03 12/10/2011 18:02:11 560049 12/10/2011 18:02:10 12/10/2011 12/10/2011 18:02:10 12/10/2011 18:02:11 12/10/2011 18:02:16 560047 12/10/2011 18:02:09 12/10/2011 18:02:13 56001046 5600101201 :04 12/10/2011 18:02:13 560045 12/10/2011 18:02:12 12/10/2011 18:02:21 مورد نیاز: 1. ما به آرایه ای نیاز داریم که داده های برش زمانی را داشته باشد. این می تواند هر 1 دقیقه یا 5 دقیقه باشد. اگر نیاز به تجزیه و تحلیل دو روز برای هر فاصله زمانی 1 دقیقه داشته باشیم، می‌توانیم به 2880 نقطه داده برای محور x نیاز داشته باشیم. 2. از آنجا که در هر موردی ممکن است مشاغل زیادی در حال اجرا باشند. ما باید مکانیزمی برای شمارش تعداد دسته های در حال اجرا در آن برش زمانی ایجاد کنیم. من گمان می‌کنم اکسل 2003 می‌تواند کار خوبی انجام دهد زیرا تعداد ستون‌ها به 256 محدود است. من از هر توصیه‌ای در مورد نحوه اجرای کارآمد این کار در Octave/MATLAB، ORACLE PL/SQL، R یا Bash Script استقبال می‌کنم.
غلبه بر محدودیت اندازه اکسل برای تجزیه و تحلیل داده های استفاده از شبکه بزرگ
88105
من در حال یادگیری روش های هموارسازی هسته هستم. من واقعاً تفاوت بین عرض پنجره متریک و پنجره نزدیکترین همسایه را متوجه نشدم. برای من هر دو یکسان به نظر می رسند. کسی میتونه برام توضیح بده؟ برای عناصر یادگیری آماری ** عرض پنجره متریک (h ثابت λ(x))** بایاس تخمین را ثابت نگه دارید، اما واریانس با چگالی محلی نسبت معکوس دارد. **پنجره نزدیکترین همسایه** واریانس ثابت می ماند و بایاس مطلق برعکس با چگالی محلی تغییر می کند.
تفاوت عرض پنجره متریک و پنجره نزدیکترین همسایه در روشهای هموارسازی هسته چیست؟
12285
من می دانم که ()ad.test می تواند برای تست نرمال بودن استفاده شود. آیا می توان ad.test را برای مقایسه توزیع ها از دو نمونه داده دریافت کرد؟ x <- rnorm(1000) y <- rgev(2000) ad.test(x,y) چگونه می توانم تست اندرسون-دارلینگ را روی 2 نمونه انجام دهم؟
آیا تست برازش اندرسون عزیز برای دو مجموعه داده وجود دارد؟
16990
من با R جدید هستم و امیدوارم از «ets» از بسته «پیش‌بینی» برای پیش‌بینی داده‌های روزانه که دارای الگوی هفتگی هستند استفاده کنم. آیا راهی برای تنظیم طول فصلی روی 7 وجود دارد؟
چگونه طول فصلی را با استفاده از تابع ets در R به 7 تنظیم کنیم؟
100758
با ترسیم نمودار، می توانید ببینید که داده ها خطی هستند یا نه، اساساً می توانید ساختار داده های خود را به راحتی تجزیه و تحلیل کنید و سپس می توانید تصمیم بگیرید که از کدام مدل استفاده کنید. اگر مثلاً یک ویژگی دارید، می‌توانید ویژگی و مقدار y آن را ترسیم کنید و یک نمودار دو بعدی به شما می‌دهد (محور x ویژگی است در حالی که محور y مقدار y است). اگر 2 ویژگی دارید، یک نمودار سه بعدی خواهید داشت. اما اگر 3 ویژگی یا حتی بیشتر داشته باشید چه؟ آیا هنوز هم می توان داده های خود را با استفاده از نمودار تجزیه و تحلیل کرد؟ من می دانم که اگر ابعاد شما بیشتر از 4 باشد، ترسیم نمودار غیرممکن است، اما آیا می توانید هر بار 1 ویژگی و مقدار y را ترسیم کنید؟ فکر کردم قبل از انجام آزمایش ابتدا از شما راهنمایی بخواهم.
اگر تعداد ویژگی ها بیشتر از 2 باشد، آیا می توان یک مسئله را با استفاده از نمودار تجزیه و تحلیل کرد؟
9111
من فرض می کنم R دارای این داخلی است. چگونه به آن ارجاع دهم؟
در R چگونه می توانم در cdf جدول توزیع نرمال استاندارد به\lookup مراجعه کنم؟
12759
من در حال حاضر در تلاش هستم تا چگالی توزیع مشترک K RVهای تک بعدی را تخمین بزنم. من مجموعه‌ای از N نقطه نمونه را در اختیار دارم که هر کدام نتیجه‌ای از K RV را نشان می‌دهد. برخی از مشخصات در مورد مشکل من: * RVها مستقل هستند * RVها نباید به یک خانواده توزیع تعلق داشته باشند * RVها می توانند همگی گسسته یا پیوسته باشند، اما نه هر دو * من مرزهای بالایی و پایینی هر RV را می دانم. در مورد گسسته، من مقادیری را می دانم که RV می تواند بگیرد. در حال حاضر، من چگالی هر RV را به طور جداگانه با استفاده از تابع ksdensity در متلب تخمین می زنم. سپس فرض استقلال به من اجازه می دهد تا با استفاده از حاصل ضرب چگالی های فردی، چگالی مشترک تولید کنم. امیدوارم با استفاده از روش دیگری (که می‌توانم در متلب کدنویسی کنم) یا با بازی کردن با گزینه‌های موجود در ksdensity (مانند نوع هسته، پشتیبانی، عرض پنجره چگالی) دقت تخمین خود را بهبود بخشم. من به طور خاص امیدوار هستم که مردم بتوانند این موارد را روشن کنند: * از چه روشی برای مورد گسسته در مقابل مورد پیوسته استفاده شود. در مورد گسسته، آیا ارزش تعیین کران و مقادیر را دارد؟ در حالت پیوسته، * آیا هرگز منطقی است که فرض استقلال را فراموش کنیم و توزیع مشترک را به عنوان یک توزیع مشترک تخمین بزنیم * آیا کسی از مطالب خواندنی ساده در مورد این موضوع اطلاع دارد.
بهترین روش ها برای تخمین چگالی متغیرهای تصادفی گسسته و پیوسته
63707
از مقایسه چندگانه ویکی‌پدیا > برای آزمایش فرضیه، مشکل مقایسه‌های چندگانه (همچنین به عنوان مشکل آزمایش چندگانه شناخته می‌شود) از افزایش خطای نوع I ناشی می‌شود که > زمانی رخ می‌دهد که از آزمون‌های آماری مکرر استفاده می‌شود. اگر **n مستقل > مقایسه** انجام شود، سطح معنی داری در سطح آزمایش > $\bar{\alpha}$، که FWER برای نرخ خطای خانوادگی نیز نامیده می شود، با $$ > \bar{\alpha} = 1 داده می شود. -\left( 1-\alpha_\mathrm{\\{در هر\ مقایسه\\}} \راست)^n$$ من نمی فهمم چگونه مقایسه ها می توانند مستقل باشند؟ اجازه دهید چندین تست $\\{H_i، K_i، T_i، c_i)، i \in I\\}$ باشد، که در آن تست $i$-th $H_i$ در مقابل $K_i$ است، با آمار تست $T_i$ و مقدار بحرانی $c_i$. اکنون با توجه به یک نمونه $X$، آمار آزمون $T_i(X), i\in I$ نمی تواند مستقل باشد و بنابراین قوانین تست $I_{T_i(X) \geq c_i}$ نمی تواند مستقل باشد. یا آیا من اشتباه می کنم؟ با تشکر
استقلال بین مقایسه ها در مقایسه های چندگانه به چه معناست؟
9116
اول از همه، هشدار دهید: من یک تازه کار در زمینه آمار هستم. من می خواهم یاد بگیرم، اما در حال حاضر یک مشکل تجاری شدید برای حل آن دارم که فکر می کنم (امیدوارم؟) به اندازه کافی ساده است که بتوان به راحتی به آن پاسخ داد. سعی می کنم تا جایی که می توانم ساده توضیح بدهم تا مبهم نباشم. به طور خلاصه، من سعی می کنم راه درستی برای نمایش مجموعه ای از نمودارهای دایره ای پیدا کنم. این نمودارهای دایره ای بخشی از یک پیشنهاد برای کسب و کار جدید هستند. آن‌ها جذب متعارف را در چندین قرارداد از شرکای تیمی مختلف اندازه‌گیری می‌کنند. **داده هایی که با آنها کار می کنم:** * شرکت A: [a1] درصد جذب در قراردادهای [b1] * شرکت B: [a2] درصد جذب در قراردادهای [b2] * شرکت C: [a3] درصد از گرفتن در میان قراردادهای [b3] * مجموع: [aT] درصد جذب در قراردادهای [bT] من داده‌های مجموعه‌های 1، 2 و 3 را دارم -- هدف استخراج داده‌ها برای مجموعه است تی. اساساً، می‌خواهیم بگوییم کسب و کار A 30٪ در 100 قرارداد، کسب و کار B 50٪ در مقابل 70 قرارداد، و تجارت C 40٪ در مقابل 500 قرارداد داشت نمودارهای دایره ای منفرد البته به اندازه کافی ساده هستند (حتی من می تواند آن را انجام دهد ;))، اما من می خواهم که همه آنها در نمودار دایره ای قرار بگیرند که میانگین درصد همه قراردادها را با کل قراردادها نشان می دهد. برای بیان صریح تر، سوال من این است: چگونه می توانم اطمینان حاصل کنم که درصدهای فردی برای عملکرد شرکت با توجه به تعداد قراردادهایی که به آنها اشاره می کنند وزن دهی شود؟ پیشاپیش از هر کمکی که می توانید بکنید متشکرم! بهترین ها، \-- شان
چگونه درصدهای کمک کننده را به درستی وزن کنیم؟
12753
من به دنبال یک تکنیک انتخاب متغیر در R برای کاهش تعداد پیش‌بینی‌کننده‌های رگرسیون هستم، جایی که می‌توانم روش را مجبور کنم یک متغیر خاص را در مدل نگه دارد. در اینجا یک مثال اسباب بازی از کمک R از ?step آمده است، متغیر Examination حذف خواهد شد: summary(lm1 <- lm(Fertility ~ ., data = Swiss)); slm1 <- step(lm1); خلاصه (slm1);
اجبار انتخاب متغیر برای حفظ پیش بینی کننده معین در R
64721
من مدل مخاطرات متناسب کاکس را مطالعه کرده ام و این سوال در اکثر متون محو شده است. کاکس برازش ضرایب تابع خطر را با استفاده از روش درستنمایی جزئی پیشنهاد کرد، اما چرا ضرایب یک تابع بقای پارامتری را با استفاده از روش حداکثر درستنمایی و یک مدل خطی برازش نمی‌دهیم؟ در هر موردی که داده‌ها را سانسور کرده‌اید، فقط می‌توانید ناحیه زیر منحنی را پیدا کنید. به عنوان مثال، اگر تخمین شما 380 با انحراف معیار 80 باشد، و یک نمونه سانسور شده باشد > 300، در این صورت احتمال 84 درصد برای آن نمونه در محاسبه احتمال با فرض خطای عادی وجود دارد.
در تحلیل بقا، چرا به جای تابع بقا، تابع خطر را مدل می کنیم؟
63708
من 2 نمونه دارم و می‌خواهم تفاوت میانگین‌ها را آزمایش کنم تا ببینم آیا آنها به هم مرتبط هستند یا نه، بنابراین فکر می‌کنم باید یک آزمون t زوجی انجام دهم. بیش از 60 مشاهده در هر جفت وجود دارد. آیا می توان از آزمون t زوجی برای N بالای 30 استفاده کرد؟
آزمون t زوجی برای N > 30
12281
سیستم های خطی معادلات در آمار محاسباتی فراگیر هستند. یک سیستم خاص که من با آن مواجه شده ام (مثلاً در تحلیل عاملی) سیستم $$Ax=b$$ است که در آن $$A=D+ B \Omega B^T$$ در اینجا $D$ یک قطر $n\times n$ است. ماتریس با قطر کاملا مثبت، $\Omega$ یک $m\ بار m$ (با $m\ll n$) ​​متقارن ماتریس مثبت نیمه معین است، و $B$ یک ماتریس دلخواه $n\times m$ است. از ما خواسته شده است که یک سیستم خطی مورب (آسان) را که توسط یک ماتریس رتبه پایین آشفته شده است، حل کنیم. راه ساده برای حل مشکل بالا این است که $A$ را با استفاده از فرمول Woodbury معکوس کنید. با این حال، این به نظر درست نیست، زیرا فاکتورسازی Cholesky و QR معمولاً می تواند حل سیستم های خطی (و معادلات عادی) را به طور چشمگیری سرعت بخشد. من اخیراً به مقاله زیر رسیدم که به نظر می رسد رویکرد Cholesky را دارد و به ناپایداری عددی وارونگی Woodbury اشاره می کند. با این حال، مقاله به صورت پیش نویس به نظر می رسد، و من نتوانستم آزمایش های عددی یا تحقیقات پشتیبان را پیدا کنم. وضعیت هنر برای حل مشکلی که توضیح دادم چیست؟
محاسبه سریع / تخمین یک سیستم خطی با رتبه پایین
95453
من در حال کار بر روی مقایسه چندین الگوریتم خوشه بندی با یکدیگر با استفاده از شاخص رند تنظیم شده برای یک مجموعه داده معین هستم. ما یک استاندارد طلایی داریم که می‌خواهیم تکالیف خوشه‌بندی به‌دست‌آمده را با آن مقایسه کنیم. سوال اصلی من این است: آیا استفاده از اعتبارسنجی متقاطع برای مقایسه مقادیر شاخص رند تنظیم شده رایج است؟ به نظر نمی رسد که در ادبیات پاسخ خوبی برای سوالم پیدا کنم. مشکل دیگر این است که برای برخی از الگوریتم‌های خوشه‌بندی که من استفاده می‌کنم، واقعاً هیچ روش خوبی برای محاسبه انتساب خوشه‌بندی برای داده‌هایی که حذف می‌شوند، ندارند. من به خوشه بندی سلسله مراتبی و خوشه بندی طیفی فکر می کنم. به جای اجرای اعتبارسنجی متقاطع، من به سادگی تکنیک های خوشه بندی را 10 بار تکرار می کنم و سپس آزمون t را محاسبه می کنم تا تعیین کنم که آیا تفاوت از نظر آماری معنی دار است یا خیر. روزهای تجزیه و تحلیل خوشه‌بندی من باعث می‌شود فکر کنم که این یک مشکل خواهد بود.
اعتبار سنجی متقابل برای مقایسه تکنیک های خوشه بندی
16998
من در تعجب بودم که چگونه دقت طبقه بندی کننده خود را با یک طبقه بندی تصادفی مقایسه کنم. من قصد دارم بیشتر توضیح دهم. فرض کنید مشکل طبقه بندی باینری داریم. ما $n^+$ مثال های مثبت و $n^-$ مثال های منفی در مجموعه تست داریم. من این را می گویم و رکورد با احتمال $p$ مثبت است. من می توانم تخمین بزنم که به طور متوسط ​​​​من دریافت می کنم: $$TP = pn^+ \ TN=(1-p)n^- \ FN = pn^- \ FP = (1-p)n^+$$ بنابراین $ $\mbox{acc} = \frac{TP+TN}{TP+TN+FP+FN} = \frac{pn^+ + (1-p)n^-}{pn^+(1-p)n^-pn^- + (1-p)n^+}$$ یعنی $$ = \frac{pn^+ + (1 -p)n^-}{n^+ + n^-}$$ برای مثال اگر $n^+=n^-$ داشته باشیم دقت همیشه $1/2$ برای هر $p$ است. این را می توان در طبقه بندی چند کلاسه گسترش داد: $$\mbox{acc} = \frac{\sum_{i=1}^c p_i n_i}{\sum n_i}$$ که در آن $p_i$ احتمال گفتن این است در کلاس $i$th، و $n_i$ تعداد رکوردهای کلاس $i$ است. همچنین در این مورد، اگر $n_i = n/c \ \forall i$، سپس $$\mbox{acc} = 1/c$$، اما چگونه می توانم دقت طبقه بندی کننده خود را بدون ذکر مجموعه آزمایشی مقایسه کنم؟ به عنوان مثال، اگر بگویم: دقت طبقه‌بندی‌کننده من 70% است (به نوعی تخمین زده می‌شود، مثلاً اعتبارسنجی متقابل)، آیا در مقایسه با طبقه‌بندی‌کننده تصادفی خوب است یا بد؟
دقت طبقه بندی کننده تصادفی
12282
من سعی می کنم سری های زمانی سهام را برای یک مورد خاص پیش بینی کنم که در آن ارزش بسته شدن سهام به عوامل مستقلی بستگی دارد که در واقع سری زمانی دیگری است. وضعیت به این صورت است که باید ارزش سهام فردا را بر اساس چند متغیر مستقل که برای هر روز نیز تعریف می‌شوند، پیش‌بینی کنم. یک سری زمانی به سری زمانی مستقل دیگر وابسته است. اما ممکن است سریال نقشه برداری نباشد. مقدار سری وابسته می تواند بیشتر با مقدار متغیر مستقل دیروز یا زمانی در گذشته مرتبط باشد، اما به مقادیر گذشته خود سری نیز وابسته است. من برای حل این مشکل از طریق مدل ساز خبره SPSS به مدل سازی ARIMA می روم. لطفاً کسی این موضوع را روشن کند و اینکه چگونه باید روی این موضوع کار کنم یا در درجه اول چگونه به این مشکل برخورد کنم؟ این سوال از نظر آمار بسیار اساسی است و من فقط یک مبتدی هستم. SOS= ترس از آمار. تشکر صمیمانه
پیش بینی سری زمانی قیمت سهام بر اساس عوامل مستقل با استفاده از مدل آریما
73231
من در حال مطالعه صفحه ویکی پدیا در آزمون کولموگروف-اسمیرنوف، به ویژه بخش با عنوان Kolmogorov_distribution هستم. $x$ $D_\text{max}$ در CDF $Pr(k\leq x)$ است؟ سوال من این است که تعداد امتیازها هم مهم است، درست است؟ وقتی $n$ بزرگ است، $x$ تقریباً $\sqrt n D_\text{max}$ است؟ این یک عکس فوری از بخش از ویکی‌پدیا است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4nNN2.png) * * * ![شرح تصویر را اینجا وارد کنید](http://i .stack.imgur.com/JIyns.jpg) Q1 چگونه توزیع $D_n$ را هنگامی که $n$ ثابت است بدست آوریم؟ Q2 اگر من مقدار $D_\text{max}$ را دریافت کنم و اندازه نمونه $n$ باشد، باید $Pr(K<=x)$ را محاسبه کنم، درست است؟ آیا $D_\text{max}$ در فرمول صفحه ویکی‌پدیا $x$ است؟ با فرمول 14.3.9 _Numerical Recipes_، باید مقداری را از عبارت داخل پرانتز محاسبه کنیم - آیا باید x$ باشد؟ زمانی که $n$ بزرگ باشد، مقدار تقریبی $\sqrt n D_\text{max}$ است. من اینجا کلا گیج شدم Q3 ما آزمایش می کنیم و توزیع می کنیم، درست است؟ لطفاً شکل خود را به روش تست توضیح دهید؟ شاید دنبال کردن آن راحت تر باشد. * * * من چندین مقدار (اهمیت) را محاسبه می کنم و آنها را با جدول جداول مقایسه می کنم. $x$ در $Pr(K<=x)$$D_{max}$ نیست. اگر اندازه نمونه بزرگ است، x است $( \sqrt{n}+0.12+0.11/\sqrt{n})*D_{max}$. یعنی هیچ خطایی در 14.4.9 NR وجود ندارد . اهمیتی که می خواهیم به دست آوریم با اندازه نمونه و $D_{max}$ تعیین می شود. لطفا اجازه دهید سوالاتم را به صورت تست توضیح دهم. فرض کنید حجم نمونه 30 باشد، یک مجموعه داده 30 امتیازی به دست می آوریم و می توانیم از مقایسه بین توزیع تجربی نمونه و توزیع احتمال مرجع، D_{max}$ بدست آوریم. ما این کار را 1000 بار انجام می دهیم و 1000 دلار D_{max}$ دریافت می کنیم. توزیعی برای $D_{max}$ وجود دارد، درست است؟ از رقم شما، باید 1000*0.01 امتیاز با D_{max}$ بزرگتر از 0.29 و 1000*0.05 امتیاز با D_{max}$ بیشتر از 0.24، بیشتر یا کمتر باشد. * * * همانطور که شما گفتید من خیلی گیج هستم. لطفاً اجازه دهید ابتدا از درست یا غلط بودن چندین عبارت زیر مطمئن شوم. وقتی حجم نمونه بزرگ است، روش محاسبه من درست است؟ می‌توانیم $(\sqrt{n}+0.12+0.11/\sqrt{n})*D_{max}$ را به عنوان x به عنوان ورودی به $Pr(K<=x)$ در نظر بگیریم و از این طریق می‌توانیم معنی را دریافت کنیم وقتی اندازه نمونه بزرگ است، درست است؟ فرض کنید حجم نمونه 30 باشد، یک مجموعه داده 30 امتیازی به دست می آوریم و می توانیم از مقایسه بین توزیع تجربی نمونه و توزیع احتمال مرجع، D_{max}$ بدست آوریم. ما این کار را 1000 بار انجام می دهیم و 1000 دلار D_{max}$ دریافت می کنیم. توزیعی برای $D_{max}$ وجود دارد، درست است؟ از رقم شما، باید 1000*0.01 امتیاز با D_{max}$ بزرگتر از 0.29 و 1000*0.05 امتیاز با D_{max}$ بزرگتر از 0.24 وجود داشته باشد. آیا این شکل شما به ما می گوید؟
آمار آزمون در آزمون کولموگروف اسمیرنوف چیست؟
64730
من داده‌هایی دارم که شامل چند متغیر پیوسته و چند متغیر طبقه‌ای است. من می خواهم بر روی آنها رگرسیون لجستیک انجام دهم. من در مورد تمایز بین متغیرهای طبقه ای و پیوسته گیج می شوم. من می دانم که یک متغیر طبقه بندی شده متغیری است که می تواند یکی از مقادیر محدود و معمولاً ثابتی از مقادیر ممکن را به خود بگیرد. با این حال، من در تشخیص برخی از این متغیرها مشکل دارم. اگر پاسخ های داده شده در اینجا را به درستی درک کنم، داده های غیر عددی نمی توانند پیوسته باشند، اما آیا برخی از متغیرهای عددی دسته بندی هستند؟ به عنوان مثال، یکی از متغیرها تعداد روزهایی است که در طی آنها کاری انجام داده اید. این متغیر خروجی های ممکن زیادی دارد (از تعداد روز = 1 تا 10000). تعداد مقادیر ممکن محدود و در عین حال بسیار زیاد است. آیا این یک متغیر مقوله ای است یا پیوسته؟
آیا یک متغیر شمارش با تعداد مقادیر زیاد، اما محدود، مقوله ای است یا پیوسته؟
12750
بنابراین... فرض کنید من داده هایی دارم که شبیه این هستند... ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/dMc6r.png) (همانطور که اکنون به آن نگاه می کنم، در داده های واقعی خط قرمز حدود 20% کوتاه تر از سیاه است (در بالاترین سطح ... اما شما این ایده را دریافت می کنید) من یک مدل جلوه های ترکیبی ساخته ام (lmer) که در آن اثر x-predictor و و همچنین یک اثر از من فکر می کنم که اگر محور x را در مدل خود متمرکز کرده باشم، مقایسه بین رنگ ها کاملاً خوب است مقایسه بین رنگ ها خطوط کاملاً موازی نیستند، اما تعامل آنقدر نزدیک به 0 است که می توان دریافت کرد.
استنباط در مورد خطوط غیر همپوشانی
12756
دیشب یک محاسبه پیچیده با gamm() شروع کردم و طول کشید... > > سیستم کاربر سپری شد > 9259.76 326.05 9622.64 (s) > ... یعنی 160 دقیقه یا 2.67 ساعت طول کشید تا آن محاسبه را انجام دهم. مشکل اینجاست که من باید حدود 50 یا حتی 100 مورد دیگر را انجام دهم! بنابراین می خواستم بدانم آیا راهی وجود دارد که بتواند این محاسبات را سرعت بخشد. من نسخه 32 بیتی را با نسخه 64 بیتی (4 گیگابایت) و R 2.12.2 مقایسه کردم تا یک gamm() کمتر پیچیده را محاسبه کنم. > راه حل 32 بیت > > > سیستم کاربر سپری شده > 41.87 0.01 42.01 > > > راه حل 64 بیت > > > سیستم کاربر سپری شده > 40.06 2.82 43.05 > اما استفاده از 64 بیت حتی بیشتر طول کشید! سوال من در حال حاضر: > آیا خرید رم بیشتر، به عنوان مثال 8 گیگابایت DDR3، کمکی خواهد کرد؟ یا این هدر دادن پول است؟ یا بسته کامپایلر در R 2.13.0 می تواند به درستی آن را مدیریت کند؟ من فکر نمی کنم که rcpp بتواند توابع gamm() را مدیریت کند، > یا اشتباه می کنم؟ هر نظر خوش آمدید! فراخوانی مدل gamm() برای فرآیند 160 دقیقه این بود: g1 <- gamm(CountPP10M ~ s(tempsurf,bs=cr) + s(salsurf,bs=cr) + s(speedsurf,bs=cr ) + s(Usurf,bs=cr) + s(Vsurf,bs=cr) + s(Wsurf,bs=cr) + s(water_depth,bs=cr) + s(distance.to.bridge,bs=cr) + s(dist_land2,bs=cr) + s( Dist_sventa،bs=cr)، data=data، random=list(ID_Station=~1)، family=poisson، method=REML کنترل=lmc))
چگونه گام R را سریعتر کنیم؟
71481
با توجه به مجموعه داده $\mathbf{X}\in\mathbb{R}^{n\times p}$، که $n$ تعداد نمونه‌ها (مشاهدات) و $p$ تعداد ویژگی‌ها است، دوست دارم بدانم چه نوع روش هایی برای یادگیری شبکه پنهان رابطه بین ویژگی ها و شناسایی گروه های مربوطه از این شبکه وجود دارد. من در مورد خروجی مدل‌های گرافیکی احتمالی و روش‌های منظم‌سازی ساختاری پراکنده کمی سردرگم هستم. آیا می توان از مدل های گرافیکی احتمالی (روش های بیزی یا کمند گرافیکی) برای یادگیری شبکه از یک مجموعه داده استفاده کرد؟ آیا می توان از روش های منظم سازی ساختاری پراکنده (گروه کمند، گراف کمند و غیره) برای کشف ساختارهای مرتبط (جامعه) از شبکه آموخته شده استفاده کرد؟ آیا این دو رویکرد مکمل یکدیگرند؟ آیا می توانید مقالات مرتبطی را به من پیشنهاد دهید؟
یادگیری شبکه/ساختار
100751
در یکی از اسلایدهای یک دوره آماری که دنبال کردم موارد زیر در مورد استفاده از drop1 یا ANCOVA بیان شده است. > با استفاده از drop1، p-values ​​نشان داده شده، p-value برای حذف یک متغیر در یک > از مدل کامل هستند، در حالی که p-value ها در خروجی anova > متوالی هستند، مانند یک استراتژی افزایشی. این مشکل در ANOVA > یا رگرسیون خطی ایجاد نمی‌شود، فقط در ANCOVA و مدل‌های مختلط.) من به مدت 20 دقیقه به آن نگاه کردم، و نمی‌توانم بفهمم که اگر این درست است چرا کسی همچنان از دستور «anova()» در R استفاده می‌کند. به هر حال آیا کسی ایده ای دارد؟ دلیل اینکه من این سوال را اینجا مطرح می کنم این است که موضوع چند ماه پیش مطرح شده است.
R: تفاوت بین ANCOVA و drop1 چیست؟
100753
یک سوال بیان می کند: $X$ بردار رگرسیون های انباشته شده برای 30 مشاهده و $Rank(X)=5$ است. هیچ تاخیر $y_t$ در مجموعه $X_t$ وجود ندارد. با استفاده از آماره دوربین واتسون، فرضیه صفر عدم وجود خودهمبستگی را در سطح معنی داری 5 درصد آزمایش کنید. سپس تست DW را با $k=4$ اجرا می کنند. تا اونجایی که من میدونم این مقدار رگرسیونه درسته؟ چگونه می تواند 4 باشد (و نه 5) وقتی رتبه ماتریس X$ 5 است؟
رتبه ماتریسی و مقدار رگرسیورها
12283
## مشکل من دارم یک تابع R می نویسم که یک تحلیل بیزی برای تخمین چگالی خلفی با توجه به داده های قبلی و آگاهانه انجام می دهد. من می خواهم اگر کاربر نیاز به تجدید نظر در مورد قبلی داشته باشد، عملکرد یک هشدار ارسال کند. در این سوال، من علاقه مند هستم که یاد بگیرم چگونه یک پیشین را ارزیابی کنم. سوالات قبلی مکانیزم بیان پیشین های آگاه را پوشش داده اند (اینجا و اینجا). به عنوان مثال، اگر داده ها بر حسب گرم باشد، زمانی که پیشین بر حسب کیلوگرم باشد) * پیشینی اشتباه از بین مجموعه ای از پیشین های موجود به دلیل وجود اشکال در کد انتخاب شده است. به اندازه‌ای منتشر می‌شود که داده‌ها عموماً آنها را تحت الشعاع قرار می‌دهند، مگر اینکه مقادیر داده‌ها در یک محدوده پشتیبانی‌نشده قرار بگیرند (مثلاً <0 برای logN یا Gamma). موارد دیگر باگ یا خطا هستند. ## سوالات 1. آیا در رابطه با اعتبار استفاده از داده ها برای ارزیابی قبلی، مسائلی وجود دارد؟ 2. آیا آزمایش خاصی برای این مشکل مناسب است؟ ## مثال‌ها در اینجا دو مجموعه داده وجود دارد که با یک $logN(0,1)$ قبلی مطابقت ضعیفی دارند، زیرا از جمعیت‌هایی با $N(0,5)$ (قرمز) یا $N(8,0.5)$ هستند. (آبی). داده های آبی می تواند یک ترکیب داده قبلی + معتبر باشد در حالی که داده های قرمز به توزیع قبلی نیاز دارند که برای مقادیر منفی پشتیبانی می شود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/P5Ihh.png) set.seed(1) x<- seq(0.01,15,by=0.1) plot(x, dlnorm(x )، نوع = 'l'، xlim = c(-15،15)، xlab=''،ylab='') نقاط (rnorm(50,0,5),jitter(rep(0,50),factor =0,2, cex = 0,3, col = 'red') points(rnorm(50,8,0.5),jitter(rep( 0،50)، ضریب = 0.4)، cex = 0.3، col = 'آبی')
آیا می توانم اعتبار داده های داده شده قبلی را آزمایش کنم؟
64738
من 6 متغیر دارم که سه تای آن‌ها تقسیم‌های میانه و سه تای آن‌ها معیارهای پیوسته «فلانی» هستند، که هر کدام در همان مقیاس 5 نقطه‌ای اندازه‌گیری می‌شوند. من سعی می کنم نموداری تولید کنم که تقسیمات میانه سه متغیر در محور X را در برابر میانگین امتیاز محور Y رسم کند. در اصل، من سعی می کنم به جای 9 نمودار، سه نمودار خلاصه تولید کنم. یعنی به جای ترسیم هر متغیر تقسیم میانه بر روی محور Y، می‌خواهم تقسیم‌های میانه هر سه متغیر را در برابر میانگین متغیر روی محور Y رسم کنم. آیا راهی برای این کار وجود دارد؟
نمودار خطی مقایسه متغیرهای چندگانه SPSS
100759
این سؤال انجمن Math Overflow «نمونه‌هایی از استدلال‌های بد که شامل کاربرد قضایای ریاضی در زمینه‌های غیرریاضی می‌شود» و فهرستی جذاب از ریاضیات کاربردی آسیب‌شناسانه را ارائه کرد. من در مورد نمونه های مشابهی از استفاده های آسیب شناختی از استنتاج بیزی تعجب می کنم. آیا کسی با مقالات آکادمیک، پست‌های وبلاگ عجیب و غریب که از روش‌های بیزی به روش‌های نامرتب استفاده می‌کنند، مواجه شده است.
نمونه هایی از کاربرد نادرست قضیه بیز
12288
من درک مبهمی از روش ارسال پیام دارم: الگوریتمی که تقریب یک توزیع را با تقریب تکراری هر یک از عوامل توزیع مشروط به همه تقریب‌های همه عوامل دیگر می‌سازد. من معتقدم که هر دو نمونه‌ای از ارسال پیام متغیر و انتشار انتظار هستند. الگوریتم ارسال پیام به طور صریحتر/درست چیست؟ مراجع خوش آمدید.
روش ارسال پیام چیست؟
100757
فرض کنید من یک برنامه (P1) دارم که حداقل مسیر یک گراف را تقریبی می کند. سپس فکر می کنم برنامه را بهبود دادم (شاید با چند الگوریتم مختلف) بنابراین برنامه دیگری دارم (P2). من می توانم تست های مختلفی را برای هر برنامه اعمال کنم، برای هر تست می دانم که آیا پاسخ برنامه به مسیر حداقل واقعی نزدیک است یا خیر (0 → نزدیک نیست، 1 → نزدیک است) فرض کنید این مقادیر را به دست آورده ام: Test1 Test2 Test3 … تست n P1 0.20 0.70 0.40 … ... P2 0.30 0.61 0.44 … ... اگر بخواهم از چه نوع آزمون آماری استفاده کنم آیا می دانید که آیا برنامه دوم واقعاً بهبود برنامه اول است؟ یا شاید آنها فقط یکسان هستند؟ شاید P2 بدتر باشد؟ من مطمئن نیستم که آیا می توانم تست فیشر را اعمال کنم ... زیرا این یک جدول احتمالی نیست. خیلی ممنون،
آیا می توانم از تست فیشر استفاده کنم؟
21156
من به تشخیص الگو با HMM (با c++ یا پایتون) نزدیک می شوم. داده های من مختصات x و y (نرمال شده بین 1،1-) دست در یک ویدیوی ضبط شده است و من می خواهم آن را تشخیص دهم. این چیزی است که من برای طبقه‌بندی دستی که ژست می‌دهد (مثلاً یک دایره) می‌دانم: * به مقداری داده قطار (مثلاً N ویدیوی متفاوت با دستی که یک دایره می‌سازد) با اندازه یکسان (مختصات X (x) نیاز دارم. ,y) دست) * من باید یک HMM (به نام HMM_circle) را با الگوریتم های BAUM-WELCH (یا یک الگوریتم مبتنی بر EM تعاملی) مقداردهی اولیه کنم و پارامترهای HMM_circle. * HMM_circle دارای X حالت مشاهده شده و Y حالت پنهان است. * مشاهدات جدید (برخی مختصات جدید حرکت برای طبقه بندی) new_OBS را ضبط کنید. اندازه new_OBS باید X باشد. * احتمال new_OBS را با توجه به مدل مارکوف پنهان HMM_circle با الگوریتم BACKWARD-FOREWARD پیدا کنید. این احتمال عددی بین 0 و 1 است. اگر بزرگتر از آستانه باشد (به عنوان مثال 0.8) به عنوان یک دایره طبقه بندی می شود. الان یه چیزی دارم که مشخص نیست چند حالت پنهان در HMM_circle (Y) من وجود دارد؟ مدت زمان داده های قطار (X)؟ چند داده قطار (N)؟ چرا؟ متأسفم، من تازه شروع به یادگیری ماشینی کردم.
تشخیص ژست با HMM
21153
همکاران از من در این زمینه کمک می خواهند که من واقعاً نمی دانم. آنها فرضیه هایی را در مورد نقش برخی از متغیرهای پنهان در یک مطالعه مطرح کردند و یک داور از آنها خواست که این موضوع را در SEM رسمی کنند. از آنجایی که چیزی که آنها نیاز دارند خیلی سخت به نظر نمی رسد، فکر می کنم آن را امتحان کنم ... در حال حاضر، من فقط به دنبال یک مقدمه خوب برای موضوع هستم! گوگل در این مورد واقعا دوست من نبود. پیشاپیش با تشکر فراوان... PS: من مدلسازی معادلات ساختاری با sem Package در R نوشته جان فاکس و این متن از همان نویسنده را خواندم. من فکر می کنم این می تواند برای هدف من کافی باشد، به هر حال هر مرجع دیگری استقبال می شود.
مقدمه ای بر مدل سازی معادلات ساختاری
64088
من از R استفاده می کنم، اما تابع چگالی به نمونه های واقعی نیاز دارد، اما من فقط داده های هیستوگرام را دارم. آیا هنوز هم می توانم از تخمین چگالی هسته استفاده کنم یا ابزار بهتری برای این کار وجود دارد؟
آیا می توانم از تخمین چگالی هسته زمانی استفاده کنم که فقط داده های هیستوگرام داشته باشم، نه مقادیر خام؟
104055
من هنگام ساخت یک مدل از اعتبارسنجی متقاطع k-fold (10 برابر) استفاده می کنم. من از آن فقط برای برآورد خطای خارج از نمونه استفاده می کنم، نه برای انتخاب مدل از نامزدها. به عنوان مثال، اگر 30 امتیاز داشته باشم، از 27 امتیاز برای آموزش یک مدل رگرسیونی استفاده می کنم و خطای پیش بینی (مربع) 3 باقی مانده را ثبت می کنم: (yPrediction- yActual)^2. این کار را 10 بار تکرار می کنم تا زمانی که تمام 30 امتیاز یک بار به عنوان 3 امتیاز تست استفاده شود. برای هر مدل، میانگین 3 خطای پیش‌بینی را به عنوان تخمینی برای خطای آن مدل خاص در نظر می‌گیرم. سپس این میانگین ها برای برآورد کلی خطای خارج از نمونه (در تمام 10 مدل ساخته شده) میانگین می شوند. در نهایت، من از تمام 30 نقطه به طور همزمان برای ساخت یک مدل نهایی استفاده می کنم. از درک من، جذر میانگین خطاهای پیش‌بینی مجذور، RMSECV است. گام بعدی استفاده از آن برای ارائه فاصله پیش بینی در نقاط جدید است. به عنوان مثال، نقطه جدید 10+/- PI خواهد بود، که در آن PI کمیتی بر اساس برآورد خطا از CV و برخی پارامترهای اطمینان (مثلاً 95٪) است. من فکر می کنم این یک روش معمول در یادگیری ماشینی است، اما من در تلاش هستم تا بفهمم چگونه از CV به فواصل پیش بینی بروم. آیا کسی کتاب یا مقاله خوبی دارد که این موضوع را به زبان عامیانه توضیح دهد؟ من واقعا اهل ML یا پیشینه آمار نیستم. PS: من از MATLAB استفاده می کنم. مثال استفاده (اضافه شده برای وضوح سوال): به عنوان مثال، فرض کنید من یک رگرسیون خطی 1 متغیر را به عنوان مدل خود با استفاده از داده های آموزشی برای نقاط [1،3،7،10،12،15] می سازم. من مدل خود را در حین ساخت با LOOCV تست می کنم و CV RSME من 2.4 است. من چند نقطه دیگر را تست کردم و EOut RSME حدود 2.3 است (خیلی شبیه به خطای اعتبارسنجی). من از این راضی هستم و می خواهم از مدل برای پیش بینی پاسخ های جدید استفاده کنم. بنابراین، من ورودی 5 را به مدل خود می دهم و پاسخ پیش بینی شده 40 است. با این حال، من از RSME غیر صفر می دانم که مدل من دارای خطا است. من آن را کمیت کرده ام. بنابراین، ترجیح می‌دهم به کاربر بگویم که پاسخ چیزی نزدیک به 40 +/- مقداری تحمل (با اطمینان X٪) است. چیزی شبیه به 40 +/- 3 (با اطمینان 95٪)، به جای فقط 40. آیا می توان این کار را با CV RMSE انجام داد یا به اطلاعات بیشتری نیاز دارم؟ آیا می توان آن اطلاعات (به عنوان مثال توزیع) را فرض کرد؟ با تشکر
محاسبه فواصل پیش بینی با اعتبار متقابل؟
113238
فرض کنید من تعدادی داده تجربی اندازه گیری شده دارم و می خواهم آن را با قانون توانی به شکل $y=ax^b$ مطابقت دهم. فرض کنید داده ها را به فضای log-log تبدیل می کنم و سپس یک خط مستقیم به شکل $y=mx+n$ قرار می دهم. روش به دست آوردن بهترین خط مناسب مهم نیست. اما برآوردهای شیب، $\hat{m}$، و رهگیری، $\hat{n}$، که من به دست آوردم، بی طرفانه هستند، به این معنی که $E(\hat{m})=m$ و $E( \hat{n})=n$. سوال من این است که وقتی هر دوی این تخمین ها را در فضای خطی در نظر بگیرم چه اتفاقی می افتد؟ آیا $E(\hat{m})=b$ است؟ آیا $E(e^\hat{n})=a$ است؟ اولین انتظار $E(\hat{m})=b$، نمی دانم چه انتظاری داشته باشم. وقتی آن را از فضای log-log به فضای خطی در نظر می گیریم، هیچ تغییری در $\hat{m}$ وجود ندارد. آیا یک تخمین بی طرفانه از توان مقیاس بندی باقی می ماند؟ انتظار دوم، $E(e^\hat{n})=a$ مطمئنم نادرست است زیرا نمایی عملگر خطی نیست و با عملگر انتظار جابه‌جا نمی‌شود. اما پس $E(e^\hat{n})$ چیست؟ چگونه می توانیم آن را اصلاح کنیم؟ چه نوع تصحیحی را می توانیم اعمال کنیم تا بتوانیم از $\hat{n}$ برای به دست آوردن تخمین بی طرفانه $a$ استفاده کنیم؟ اصلا امکانش هست؟ هر گونه مرجع منتشر شده نیز قدردانی خواهد شد.
برآوردهای بی طرفانه تغییر ناپذیر
81309
آیا قراردادی برای استفاده از روش‌های تصحیح بایاس در مدل‌های مختلط خطی تعمیم‌یافته سمت G (GLMM) وجود دارد؟ برای مدل‌های مختلط خطی، من معمولاً از تنظیم Kenward و Roger استفاده می‌کنم، اما برای GLMM‌های سمت G تعریف نشده است. داده های من از یک طرح فاکتوریل 2×3 با اندازه گیری های مکرر در یک بلوک کامل تصادفی است. متغیر پاسخ دو جمله ای است و من از یک لینک logit استفاده می کنم. من از تقریب انتگرال (من لاپلاس و ربع را امتحان کرده ام) به جای PL استفاده می کنم زیرا می خواهم آمار برازش را برای ساختارهای کوواریانس مختلف مقایسه کنم، اما فکر می کنم روی یک ساختار خودرگرسیون ناهمگن قرار گرفته ام. مشکل این است که بسته به اصلاحی که استفاده می‌کنم، نتایج مدل‌های مختلفی دریافت می‌کنم. تا کنون من مدل را به 3 روش اجرا کرده ام: 1. برآوردهای اصلاح نشده 2. برآوردگرهای ساندویچ (تجربی/کلاسیک) 3. برآوردگرهای ساندویچ با مورل و همکاران. تنظیم آزمون های F بسته به روش، نتایج متفاوتی دارند... به نظر می رسد تصحیح مورل فوق العاده محافظه کارانه است، برآوردگرهای ساندویچ تجربی کاملا آزاد هستند و برآوردهای اصلاح نشده جایی در وسط هستند. من در حال حاضر از روش GLIMMIX در SAS استفاده می کنم اما قصد دارم آنالیز را در R تکرار کنم. کدام نتایج را گزارش کنم؟ من با GLMM ها تازه کار هستم، اما خوانده ام که برخی از روش های تصحیح باید برای محاسبه سوگیری رو به پایین مرتبط با تخمین اثرات ثابت پس از محاسبه اثرات تصادفی اجرا شود.
روش های تصحیح سوگیری در GLMM های سمت G
49731
اگر از «lme» برای ANOVA مختلط استفاده کنم به صورت زیر برای هر سطح از درون عامل؟ این توصیه عالی برای استفاده از «anova» با آرگومان «L». ولی نمیتونم بفهمم چطوری با تشکر از کمک
مقایسه بین گروهی برای هر سطح از عوامل درونی
81302
در رگرسیون خطی، پارامترهای $b$ را می توان به این صورت تخمین زد (حداقل مربع): \begin{align*} X'Xb &= X'y \\\ b &= (X'X)^{-1}X 'y \end{align*} اما از دیدگاه دیگری: \begin{align*} X'Xb &= X'y \\\ Xb &= (X')^{-1}X'y \\\ &= Iy = y \end{align*} من را گیج می کند، زیرا اگر این درست باشد، آنگاه $e = y - Xb = 0$.
باقیمانده ها در رگرسیون خطی صفر هستند، اینجا چه اشکالی دارد؟
64081
فرض کنید من یک توزیع گسسته دارم که با بردار $\theta_0، \theta_1، ...، \theta_N$ تعریف شده است، به طوری که دسته $0$ با احتمال $\theta_0$ و غیره ترسیم می شود. سپس متوجه می شوم که برخی از مقادیر موجود در توزیع آنقدر کوچک هستند که نمایش عدد ممیز شناور کامپیوتر من را زیر سیال می گذارند، بنابراین، برای جبران، تمام محاسباتم را در فضای log-space انجام می دهم. اکنون من یک بردار log-space $log(\theta_0), log(\theta_1), ..., log(\theta_N)$ دارم. آیا می توان از توزیع به گونه ای نمونه برداری کرد که احتمالات اصلی باقی بمانند (دسته $i$ با احتمال $\theta_i$ ترسیم می شود) اما بدون خروج از log-space؟ به عبارت دیگر، چگونه می توانم از این توزیع بدون underflow نمونه برداری کنم؟
چگونه از یک توزیع گسسته (طبقه ای) در فضای گزارش نمونه برداری کنم؟