_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
11227
|
بگویید من 2 مجموعه دارم، $A$ و $B$ با عناصر $n_{A}$ و $n_{B}$ به ترتیب، که گمان میکنم معلوم است. من می خواهم $| را تخمین بزنم یک \bigcup B |$ با استفاده از نمونههای $\tilde{A} \subset A$ و $ \tilde{B} \subset B$. یعنی اگر عناصر $\tilde{A}$ به طور یکنواخت از $A$ نمونه برداری شوند، و به همین ترتیب برای $\tilde{B}$، $ \frac{| \tilde{A} \bigcup \tilde{B} |}{| \tilde{A} | + | \tilde{B} |}$ یک تخمین بی طرفانه برای $\frac{| باشد A \bigcup B |}{| A |+|B |}$؟ اگر نه، آیا برآوردگر دیگری وجود دارد که به من امکان تخمین $| را بدهد A \bigcup B |$ بدون تعصب؟
|
تعصب در نمونه برداری برای تقاطع های مجموعه
|
77889
|
آیا یک قاعده کلی در مورد اینکه چه زمانی رگرسیون قوی یا رگرسیون چندکی در حضور نقاط پرت ترجیح داده می شود وجود دارد؟ به عنوان مثال، من یک مجموعه داده دارم که در آن DV چولگی بسیار مثبتی را نشان می دهد. با این حال، موارد بزرگ در واقع برخی از جالب ترین مشاهدات هستند. وقتی OLS را اجرا می کنم، یک رابطه مثبت بین DV و IV مورد علاقه پیدا می کنم. وقتی رگرسیون های چندکی را تخمین می زنم، متوجه می شوم که رابطه مثبت بین DV و IV مورد علاقه در صدک های 85، 90 و 95 قوی ترین است (که می توان انتظار داشت). برای بقیه صدک ها ناچیز و گاهی منفی است. با این حال، زمانی که من «rreg» را در Stata اجرا میکنم، اساساً هیچ وزنی به نقاط پرت مثبت بزرگ نمیدهد، که منجر به ارتباطی بین DV و IV مورد علاقه نمیشود. کدام رویکرد (OLS، Quantile، `rreg`) باید گزارش شود؟ کدام مناسب تر است؟
|
رگرسیون چندکی در مقابل رگرسیون لی: کدام را باید استفاده کنم و چه زمانی؟
|
31309
|
من سعی می کنم از ایده های Kokic و Bell برای یافتن برش برای تخمینگر جمعیت زیر استفاده کنم $\sum_{h}\frac{1}{n_h}\sum_{i}\frac{M_{hi}}{z_ {hi}}\frac{1}{m_{hi}}\sum_j y_{hij}^*,$ که در آن از طبقهبندی و انتخاب خوشهای متناسب با اندازه و نمونهگیری فرعی استفاده میکنیم، و $y_{hij}^*$ مخفف مقدار winsorized است. آیا مرجعی برای این طرح نمونه گیری وجود دارد؟ اگر کسی تجربه ای در مورد یافتن برش هایی که میانگین مجذور خطا را به حداقل می رساند، به اشتراک بگذارد، مفید خواهد بود.
|
برش بهینه winsorizing برای نمونه برداری طبقه بندی شده متناسب با اندازه
|
47369
|
من دادههای نمونه اساسی را ندارم (اما احتمالاً میتوانم آن را درخواست کنم). ما در مورد میلیونها نقطه داده (مشتریان ابزار مفید) صحبت میکنیم. در واقع جمعیت کامل (نه یک نمونه) برای مشتریانی است که در یک نرخ نبودهاند. کلاس برای کل سال 2011 (حدود 75٪ از این آستانه عبور می کنند، از آنجایی که مجموعه داده های کامل بسیار دشوار است، من آن را به شکل بسیار پرانتزی دریافت کردم (به عنوان مثال). مشتریان x,xxx بین 6000 تا 6100 کیلووات ساعت استفاده می کنند این کار را در اکسل انجام دهید خوشبختانه، براکت ها باریک هستند (ممکن است هزاران عدد وجود داشته باشد).** من دو گروه سودمند دارم که به هیچ وجه شبیه به یک گروه کنترل و آزمایش اختصاص داده شده به طور تصادفی برای یک آزمایش پزشکی نیستند متفاوت کوچکترین تفاوت استفاده من 2٪ بود. علیرغم آنچه که ممکن است به عنوان واریانس نسبتاً زیاد استفاده آزمایش شود (برخی از افراد ضعیف زیاد استفاده می کنند و برخی از افراد ثروتمند صرفه جویی می کنند)، با توجه به آزمایش 3 میلیون مشتری، من پیش بینی می کنم که این تفاوت بسیار قابل توجه خواهد بود. **2\. آیا آزمون t-stat ولش آزمون مناسب برای این دو جمعیت است؟**
|
آیا می توان SD را از روی داده های binned محاسبه کرد؟ چگونه می توان گروه های غیر تصادفی را که به وضوح متفاوت هستند آزمایش کرد؟
|
28353
|
این یک سوال اساسی تشخیص الگوی آماری است. من از تکنیک های **طبقه بندی LDA**، **طبقه بندی ساده بیز** اطلاع دارم که خروجی را به عنوان **احتمال** (داده های متعلق به یک کلاس خاص) ارائه می دهند. سایر تکنیک های طبقه بندی نظارت شده مبتنی بر احتمال چیست؟ آیا می توان تمام تکنیک های طبقه بندی نظارت شده را به صورت **احتمال** یا **نسبت احتمال** برای طبقه بندی داده های داده شده بیان کرد؟ آیا کسی می تواند به من به مقاله های یادداشت اشاره کند که می تواند به من کمک کند؟
|
فهرست تکنیک های طبقه بندی مبتنی بر احتمال
|
5572
|
من در حال برنامه ریزی یک مطالعه طراحی قبل از درمان-کنترل با تعداد زیادی اندازه گیری قبل از درمان هستم. من آزمودنی هایی دارم که به دو گروه کنترل و گروه درمانی تقسیم شده اند. برای هر دو گروه، من داده های ساعتی را برای یک سال قبل از شروع درمان جمع آوری می کنم و سپس به جمع آوری داده ها برای یک سال دیگر ادامه می دهم. این تقریباً 9000 اندازهگیری قبل از درمان و 9000 اندازهگیری بعد از درمان برای هر فرد را به همراه خواهد داشت. درمان چیزی است که پس از شروع نمی توان آن را متوقف کرد، بنابراین یک طرح متقاطع فقط می تواند به شکل AA/AB باشد که از مزایای آن نوع طراحی استفاده نمی کند. ادبیات روانشناختی و زیستپزشکی استفاده از مدل ANCOVA را پیشنهاد میکند، که در آن دادههای قبل از درمان به عنوان متغیر کمکی در مدل استفاده میشود. قرار دادن 9000 متغیر کمکی در یک مدل کاملاً مضحک به نظر می رسد. همچنین، کاهش دادههای قبل از درمان به یک آمار خلاصه از تعداد زیاد اندازهگیریها استفاده نمیکند. من مطمئن هستم که این باید قبلاً مطرح شده باشد، آیا ایده ای دارید؟ ارجاع به نتایج منتشر شده به ویژه مفید خواهد بود.
|
بهره گیری از بسیاری از اندازه گیری های قبل از درمان
|
31303
|
وقتی آمار همه مسائل را حل می کند، چرا نظریه فازی را مطالعه می کنیم؟ آیا مشکلی وجود دارد که فقط با تئوری فازی و نه با آمار حل شود؟ لطفا با مثال جواب بدید
|
آیا مشکلی وجود دارد که فقط با تئوری فازی و نه با آمار حل شود؟
|
103225
|
من یک مدل پانل پویا با متغیر وابسته تاخیری اجرا می کنم، اما به نظر می رسد پس از برازش مدل، مقدار برازش مطابق با log(RPK) برآورد شده نیست: d=pgmm(log(RPK) ~ lag(log(RPK),1 ) + log(GDPPR)+log(CPR)+log(NP)| تاخیر(log(RPK)،2:99)، داده = no2، اثر = فرد، مدل = twosteps,collapse=TRUE,index=c('Flow','Year')) fit=fitted(d) در واقع، تناسبی که به دست آوردم بسیار کوچکتر از log(RPK) اولیه من است، بنابراین تعجب می کنم شاید هنگام استفاده از «fitted()»، در واقع نوعی تفاوت به ما می دهد؟ آیا کسی هست که بتواند در این مورد به من کمک کند؟
|
pgmm fitted.value
|
103220
|
 من هستم مشکلاتی در پاسخ به قسمت دوم وجود دارد. فکر می کنم در مورد CLT است، اگر اشتباه می کنم اصلاح کنید. اما چگونه جزئیات توزیع را از این مورد محاسبه می کنید؟ لطفا کمک کنید و از همه مشارکت های شما متشکرم. لطفا با استفاده از سوال اصلی و قسمت اول که در مورد عبارت است به آن پاسخ دهید.
|
سوال سریع - توزیع تقریبی برای میانگین نمونه؟
|
30072
|
من در حال تلاش برای ایجاد یک روش استاندارد برای بررسی اینکه آیا یک مجموعه از مکانها نماینده یک مجموعه بزرگتر هستند یا خیر. در این مورد خاص، من سعی دارم به طور خاص به نمایندگی جغرافیایی آنها نگاه کنم. یک روش این است که به یک آزمون t دو نمونه برای طول و عرض جغرافیایی *به طور مستقل* نگاه کنید، اما به وضوح احتمال وجود همبستگی بین مقادیر را نادیده می گیرد. گزینه دیگر این است که به یک گروه بندی طبقه بندی مکان (مثلاً ایالت، بازار، یا هر شبکه بندی شبکه دیگر) نگاه کنید و از آزمون خی دو استفاده کنید. با این حال، هیچکدام از اینها بهعنوان بهینه به نظر من نمیرسند. آیا کسی با تستی آشنایی دارد که بتواند سوگیری یک نمونه را بر اساس دو بعد به طور همزمان بررسی کند؟ هر گونه فکر بسیار قدردانی خواهد شد.
|
چگونه بررسی کنیم که آیا یک نمونه در دو بعد به طور همزمان نماینده است؟
|
11225
|
من باید میانگین متحرک نمایی را برای یک سری داده محاسبه کنم. فاصله نمونه گیری مورد نظر ثابت است (مثلاً 1 ثانیه) اما جریان داده دارای فواصل متفاوتی است (فاصله های داده از 0.01 تا 10 ثانیه یا بیشتر متغیر است). داده ها تا حدودی پر سر و صدا هستند (نمونه داده تصادفی عملاً هرگز در حد متوسط نخواهد بود). تصور من این است که بنابراین نمیتوانم آخرین نمونه دادهها را در هر بازه زمانی انتخاب کنم، زیرا به راحتی میتواند منجر به یک آمار گمراهکننده شود. فکر میکنم میتوانم فقط میانگین هر دوره را محاسبه کنم و آن را به عنوان نمونه در نظر بگیرم، اما مثبت نیستم. آیا الگوریتم استانداردی وجود دارد که میانگین متحرک نمایی را بر روی یک جریان داده متغیر با زمان مدیریت کند؟ * * * _من باید این را برای یک سیستم بلادرنگ برنامه ریزی کنم که در آن امکان ذخیره یک نمونه سابقه وجود نداشته باشد. با این وجود، من مطمئن هستم که می توانم هر الگوریتم غیر جریانی را با فرم پخش تطبیق دهم._
|
میانگین متحرک نمایی با ارتباط زیر بازه / بازه زمانی متغیر
|
19052
|
لطفاً به من کمک کنید تا منابع ساده (منظورم مفید با دانش کم در مورد آمار بیزی) را بیابم: 1. یادگیری MCMC و اجرای مدل های خطی یا ترکیبی عمومی 2. یادگیری تکنیک های مختلف نمونه برداری از جمله نمونه پرش معکوس. همچنین، من می خواهم این روش ها را با استفاده از R base یا بسته های R پیاده سازی کنم. من می توانم از SAS و هر نرم افزار ویژه طراحی شده دیگری استفاده کنم، با این حال R را به عنوان اولویت دارم. 3. کدهای نمونه برای انجام MCMC و پرش برگشت پذیر.
|
منابع خوب در مورد نمونهبردار MCMC پرش برگشتپذیر در R
|
77886
|
من در تلاش برای پیاده سازی فرمول ابعاد همبستگی Takens در معادله (8) در مقاله 1 هستم: تخمین بعد جذب کننده پر سر و صدا (تخمین ابعاد جذب کننده نویزدار. Schouten JC, Takens F, van den Bleek CM Physical Review E, vol 50، شماره 3، 1994). اشتقاق و توضیح واقعی در تخمین حداکثر احتمال Takens (F. Takens، در تعیین عددی بعد یک جاذبه، در: D. Rand, L.S. Yong (Eds.), Dynamical Systems and Turbulence, Warwick, 1980 ارائه شده است. یادداشت های سخنرانی در ریاضیات، جلد 898، اسپرینگر، برلین، 1981.) و در زیر خلاصه شده است به درک من سریهای زمانی من با نویز گاوسی سفید افزودنی پر سر و صدا هستند، «Z = y+ نویز» مرحله 1 = جاسازی فضای فاز سری زمانی 1 بعدی را انجام دهید. این می شود U. مرحله 2: فواصل اقلیدسی یا حداکثر فواصل نرم فضای ابعاد بالاتر را پیدا کنید. فاصله مقیاسبندی را پیدا کنید، $l_0$ (یا $r_0$) که به عنوان حداکثر فاصله مقیاسبندی نامیده میشود. مرحله 3: سپس آن فواصل را پیدا کنید، $l_z$، که $\le l_0$ هستند. این مرحله فواصل را به $l_z$ تبدیل می کند که اکنون به محدوده $[0,1]$ تعلق دارد. گاهی اوقات، حداکثر طول مقیاسبندی $l_0$ به عنوان $l_0$ = میانگین انحراف مطلق سریهای زمانی با فرمول $l_0 = 1/{\rm total\ عناصر[ {\sum (u_i - {\tt میانگین) در نظر گرفته میشود. }(u)}]$ مرحله 4: در مقاله Takens، در بخش 2 ذکر شده است که با تقسیم تمام فواصل $l_z$، می توان فاصله ها را مستقل از $l_0$ ساخت. $l_0$ مرحله 5: لگاریتم هر عنصر را در مرحله 4 در نظر بگیرید. ${\rm Takens\ dimension} = -(\frac{2}{n(n-1)} \sum [\log (|| X_i- X_j||/r_o)]^{-1}$ (Formula for Takens) $n$ = تعداد نمونه ها، اما من از معادله (8) کاغذ1 پیروی کردم برای من روشن است که $l_0$ چقدر باید باشد - (A) وقتی من $l_0$ را به عنوان میانگین انحراف مطلق در نظر گرفتم و فواصل را بر آن تقسیم کردم، نتیجه بعد همبستگی کاملاً نادرست است، بنابراین، اگر آنچه را که در آن ذکر شد رعایت کنم پس از آن مقدار بعد نادرست است انحراف از فواصل (از آنجایی که $l_0$ به عنوان حداکثر مقیاس فاصله برچسب گذاری شده است)، سپس نتیجه تا حدودی نزدیک است اما دقیقاً دقیق نیست. (C) وقتی سری زمانی را با «normalized_timeseries=(data-min(data))./abs(max(data)-min(data));» نرمال کردم و سپس $l_0$ انتخاب می شود تا مانند (داده) باشد. ب) جواب درست می گیرم! اما، این ناقض / مغایر با آنچه در مقاله ذکر شده است. من واقعاً نمیدانم که حد بالای فاصلههای مقیاسبندی باید $l_0$ باشد. آیا نباید حداکثر فاصله، یا حداکثر انحراف استاندارد بردار فاصله باشد؟ مقدار بعد همبستگی از روش Takens برای لورنز باید تقریباً 2.14 باشد. من مقدار نادرستی دریافت می کنم. لطفا در اجرای فرمول بالا کمک کنید، مطمئن نیستم که درست متوجه شده ام یا نه. من تا حدودی کد را تا محاسبه فواصل اقلیدسی پیاده سازی کرده ام. clc پاک کردن همه iter= 1000; dt=0.02; [x y z]=lorenzo(iter,dt); %تولید سری زمانی از Lorenz d=3; l2=iter-d; Z=y; [N col] = اندازه (Z); % اندازه فعلی Z zmean = mean(Z); % میانگین هر جزء Z=(Z-min(Z))./abs(max(Z)-min(Z)); % نرمال سازی با استانداردسازی l0 = max(std(normalized_Z)); برای k =1 : l2 U(:,k) = normalized_Z(k+d-1:-1:k)'; %phase embedding end for i=1:l2 for j=1:l2 D(i,j) = sqrt(sum((U(:,i) - U(:,j)) .^ 2)); تابع انتهای انتهای فاصله اقلیدسی برای تابع لورنز [x y z]=lorenzo(iter,dt); x(1)=2.9; y(1)=-1.3; z(1)=25.9; برای i=2:iter [x(i) y(i) z(i)]=nextit(x(i-1),y(i-1),z(i-1),dt); تابع پایانی [XO YO ZO]=nextit(X,Y,Z,dt) r=28; s=8/3; t=10; x1=X+t*(Y-X)*dt/2; y1=Y+(X*(r-Z)-Y)*dt/2; z1=Z+(X*Y-s*Z)*dt/2; XO=X+t*(y1-x1)*dt; YO=Y+(x1*(r-z1)-y1)*dt; ZO=Z+(x1*y1-s*z1)*dt;
|
مشکل در یافتن بعد فراکتال (بعد همبستگی)
|
109859
|
آیا تابع مشابهی در R وجود دارد که همان کاری را که nonlinearTest() در S-plus انجام می دهد انجام می دهد؟ من در حال حاضر روی تعیین تعداد رژیم ها، پارامتر تاخیری d و مقادیر آستانه برای مقدار آستانه کار می کنم. یا در غیر این صورت از کجا می توانم S-plus دانشجویی دانلود کنم؟ آیا برای دانلود رایگان باید از کامپیوتر دانشگاه استفاده کنم؟
|
nonlinearTest() در S-plus در مقابل R
|
18106
|
من با همکاران در شهرهای دیگر با استفاده از سیستم عامل های دیگر همکاری می کنم. همکاران من در خدمات عمومی هستند و بنابراین انعطاف پذیری محدودی برای پیکربندی ماشین های (ویندوز) خود دارند. من می خواهم بتوانم به آنها نشان دهم که دارم انجام می دهم و در حالت ایده آل ببینم که آنها چه می کنند. مردم چگونه با این مشکل برخورد کرده اند؟ ما در حال حاضر از R استفاده می کنیم اما گزینه های دیگری نیز امکان پذیر است. با تشکر اندرو
|
بهترین راه برای هدایت تعاملی یک جلسه آماری از راه دور، برای یک رایانه بدون دسترسی سرپرست؟
|
109854
|
من از بسته randomForest در R برای تجزیه و تحلیل مجموعه داده های ژنتیکی از حدود 100 نمونه با 10000 ژن استفاده می کنم. نمونه ها به 5 کلاس دسته بندی می شوند که کوچکترین آنها فقط 5 نمونه است. من در نهایت به ماتریس مجاورت، ماتریس سردرگمی و اهمیت متغیر علاقه مند هستم، به همین دلیل است که نمی خواهم با کاهش مجموعه داده با PCA یا موارد مشابه شروع کنم. در عوض، من مدل را با استفاده از تخمینهای OOB تنظیم میکنم تا کلاس متغیر و ابعاد بالا را کنترل کنم - در صورت امکان! بهترین پارامترها برای تنظیم چنین داده های با ابعاد بالا چیست؟ پس از چند آزمایش اولیه، به نظر می رسد افزایش حداقل اندازه گره انتهایی باعث بهبود نمرات OOB شود. من فکر می کردم پارامترهای اصلی مورد علاقه باید این باشد: 1. تعداد درختان در جنگل (ntree) 2. تعداد ویژگی های نمونه برداری شده (mtry) 3. اندازه گره انتهایی (اندازه گره) من بهترین راه برای کنترل را نمی دانم اندازه کلاس های بسیار کوچک کلاس های کوچک هرگز در آزمون های اولیه من به درستی پیش بینی نمی شوند. بهترین راه حل این مشکل چیست؟ به سادگی تمام ترکیب های ممکن از پارامترها را اجرا کنید و بهترین را بر اساس تخمین OOB انتخاب کنید، یا راه هوشمندتری وجود دارد؟
|
کنترل بیش از حد برازش با جنگل های تصادفی برای داده های ابعادی بسیار بالا
|
76284
|
برای دادههای داده شده من (پیوند هویت)، هدف من بررسی یک متغیر سیاسی است، به عنوان مثال، من قصد دارم بررسی کنم که آیا تأثیر خاصی که توسط برخی رفتارها در یک زمان خاص داده میشود، بر رهگیری و شیب متغیر وابسته دیگر تأثیر میگذارد یا خیر. برای دریافت این احساس که متغیرهای پیوسته و توضیحی چگونه بر متغیر وابسته تأثیر میگذارند، یک مدل افزودنی عمومی (GAM) را با یک نرمافزار b-spline نصب کردم. از آنجایی که با گرفتن لاگ یک متغیر مستقل، فرمول بندی مجدد پارامتری برای تحلیل بعدی جذاب به نظر می رسد، محاسبه مساحت زیر منحنی، من آن متغیر خاص را ثبت کردم. همانطور که اکنون به نظر می رسد، نمودارهای باقیمانده مجذور در مقابل متغیر وابسته، ناهمسانی به نظر می رسد یک مسئله باشد. از آنجایی که نمیخواهم متغیر وابسته را نیز ثبت کنم، اگرچه کمی کمک میکند، نمیدانم چه راههای دیگری برای مقابله با ناهمسانی در زمینه GAM وجود دارد. آیا درست مانند زمینه OLS است که در آن از خطاهای استاندارد ناهمگون و همبستگی خودکار استفاده می شود؟
|
ناهمسانی در زمینه مدل افزایشی عمومی
|
18105
|
من با استفاده از رگرسیون با خطاهای ARIMA برای مدلسازی سریهای زمانی منقطع، به منظور تخمین تغییر در بزرگی ناشی از مداخله سیاست آشنا هستم. به نظر می رسد این مدل ها برای یک سری زمانی منفرد طراحی شده اند، و بنابراین اگر چندین سری زمانی تحلیل شوند، یک مدل باید به طور جداگانه برای هر سری زمانی مناسب باشد. من علاقه مند به تجزیه و تحلیل تأثیر ملی یک مداخله سیاستی هستم، که اجرای آن در تمام (هشت ایالت استرالیا) به موقع انجام شد. من میتوانم سه رویکرد تحلیلی ممکن را در اینجا ببینم: 1. یک مدل ARIMA جداگانه برای هر ایالت برازش کنید. 2. تلاش برای برازش یک مدل ملی مجموع، شاید با یک متغیر ساختگی که اجرای جزئی را نشان میدهد و دیگری نشاندهنده اجرای کامل. 3. مدل متفاوتی را پیدا کنید که کار کند. به طور واضح بر روی داده های پانل امیدواریم این امر نوعی مصالحه را بین رویکرد بدون ادغام 1 و رویکرد ادغام کامل 2 به همراه داشته باشد. چه نوع رویکردی را در اینجا توصیه می کنید؟
|
تجزیه و تحلیل سری های زمانی منقطع برای داده های تابلویی
|
82657
|
فرض کنید که من در حال ساخت یک مدل سلسله مراتبی از عملکرد هستم و داده ها به صورت سلسله مراتبی ساختار یافته اند (مثلاً چندین مشتری به یک فروشنده امتیاز می دهند). من ممکن است بخواهم در این شرایط از ادغام واریانس استفاده کنم تا به افرادی که هنوز مشتریان زیادی نداشته اند اجازه بدهم اطلاعاتی را از کسانی که مشتریان بیشتری داشته اند قرض بگیرند. سپس، آنهایی که مشتریان کمتری دارند ممکن است تجربه کمتری داشته باشند و ممکن است سرنخ کمتری ایجاد کنند، زیرا به طور کلی فروشندگانی با کیفیت پایین هستند. در اینجا، حجم نمونه با یک یا چند پیش بینی کننده ممکن همبستگی دارد. چگونه می توان این را در مدل های سلسله مراتبی، به ویژه مدل های بیزی توضیح داد؟ با تشکر
|
ادغام واریانس زمانی که اندازه نمونه یک پیش بینی کننده است
|
82651
|
در مورد یک رگرسیون خطی با متغیرهای مستقل تاخیری، تکنیکهایی برای برخورد با مقادیر NA معرفی شده توسط padding متغیرهای تاخیری (از آنجایی که مقادیر t < 0 وجود ندارد) چیست؟ من می پرسم زیرا در حال پیاده سازی یک جنگل تصادفی با تاخیر هستم و باید تصمیم بگیرم که در مورد این مقادیر از دست رفته چه کاری انجام دهم. جایگزین کردن آنها با 0 اشتباه به نظر می رسد، اما برگرداندن به عقب نیز چندان منطقی نیست. فکر میکنم اگر دادههای پانل داشته باشم میتوانم میانگین زمانی یا میانگین کلی را برای متغیر وارد کنم... ویرایش 1: با نگاهی بیشتر به اطراف، SAS به شما امکان میدهد بین جایگزینی NA با میانگین زمانی، میانگین کلی یا صفر یکی را انتخاب کنید: http://support.sas.com/documentation/cdl/en/etsug/60372/HTML/default/viewer.htm#etsug_panel_sect015.htm نظری در مورد هزینه ها و مزایای این رویکردهای مختلف دارید؟
|
درمان مقادیر از دست رفته معرفی شده توسط padding متغیرهای تاخیری
|
72906
|
برای تجزیه و تحلیل ساییدگی کاربر، میخواهم یک رگرسیون لجستیک را با استفاده از دشواری کار و نقطه در زمان (100 آزمایش) برای یک کار ریاضی انجام دهم. حدس من این است که سختی زیاد در یک نقطه زمانی دیرتر منجر به افزایش احتمال ریزش می شود، در حالی که دشواری بالا در مراحل اولیه منجر به اثر منفی نخواهد شد. در اولین تلاشم به سادگی این رتبه زمانی را به عنوان پیشبینیکننده عددی درج کردم، اما این بدیهی است که فرض نرمال بودن را نقض میکند. اما آیا منطقی است که هر 100 آزمایش را به عنوان فاکتورهای سفارش وارد کنیم؟ من همچنین به این فکر کردم که این آزمایشها را به منظور کاهش سطوح فاکتور کاهش دهم، اما میخواستم ابتدا نظراتی را بپرسم. من برای هر کمکی در مورد این مشکل بسیار سپاسگزار خواهم بود.
|
چگونه یک رتبه زمانی را در رگرسیون لجستیک درمان کنیم؟
|
47367
|
من باید یک رگرسیون لجستیک انجام دهم و باید از زیر مجموعه ای از متغیرها استفاده کنم. من این نکته را دریافت کردم: _ ابتدا یک درخت تصمیم انجام دهید و از مرتبط ترین متغیرها در رگرسیون لجستیک استفاده کنید. آیا این یک تکنیک معتبر است؟ اگر نه، با چه مشکلاتی مواجه است؟ PS: این نکته در اینجا برای یک رگرسیون استاندارد نیز ارائه شده است. ** به روز رسانی **: اول از همه از همه پاسخ ها متشکرم. من قطعا مدل LASSO را امتحان خواهم کرد. اما، الگوریتم باید ساده و آسان برای فناوری اطلاعات باشد. این یک نوع پایگاه داده میلیون ها خط است و مدل باید به طور مکرر تخمین زده شود. آیا این رویکرد را تغییر می دهد؟
|
درخت تصمیم به عنوان انتخاب متغیر برای رگرسیون لجستیک
|
47366
|
توزیع پواسون برش خورده صفر تابع جرم احتمالی دارد: $$P(X=k) = \frac{e^{-\lambda}\lambda^k}{(1-e^{-\lambda})k!} $$, $k=1,2,...$ و انتظار توزیع پواسون کوتاه شده از طریق MLE به صورت $\frac{\lambda}{(1-e^{-\lambda})}$ طبق این سند (صفحات 19-22) اطلاعات فیشر با $$I(\theta) = داده می شود \frac{n}{(1-e^{-\lambda})}\left[\frac{1}{\lambda}-\frac{e^{-\lambda}}{(1-e^{- \lambda})}\right]$$ چگونه مشتق شده است؟ ================================================== ======================. $L(\lambda) = \prod_{n=1}^n\frac{\lambda^{x_i}e^{-\lambda}}{x_i!(1-e^{-\lambda})}$$ و بنابراین احتمال ورود به سیستم برابر است : $$l(\lambda)=-\ln(x_i!)+\ln(\lambda)\sum_{i=1}^nx_i-n\lambda-n\ln(1-e^{-\lambda}) با تفکیک $$ با توجه به $\lambda$ اولین مشتق را بدست می آوریم: $$l'(\lambda)=-n-n\ln(1-e^{-\lambda})+\frac{1}{\lambda}\sum_{i=1}^nx_i$$ و مشتق دوم با توجه به $\lambda$ عبارت است از: $$l^(\lambda)=n\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}-\frac{1}{\lambda^2}\ sum_{i=1}^nx_i$$ اطلاعات فیشر توسط $$I(\lambda)=E[-l^(\lambda)|\lambda]=E\left[-\left(n\frac{e^{-\lambda}}{(1-e^{ -\lambda})^2}-\frac{1}{\lambda^2}\sum_{i=1}^nx_i\right)|\lambda\right]$$ $$\Rightarrow -n\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}+\frac{1}{\lambda^2}\sum_{i=1}^nE[ x_i|\lambda]$$ که اطلاعات فیشر نادرست من را به دست میدهد: $$I(\lambda)=-n\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}+\frac{n\lambda}{\lambda^2} =n\left(\frac{1}{\lambda}-\frac{e^{-\lambda}}{(1-e^{-\lambda})^2}\right)$$ من چه کار کردم اشتباه با انتظار؟
|
اطلاعات فیشر برای توزیع سم کوتاه چیست؟
|
72907
|
من میدانم که NA به این معنی است که دادهها وجود ندارند، تهی هستند یا وجود ندارند. اما حروف NA مخفف چیست؟ در دسترس نیست؟
|
در آمار NA مخفف چیست؟
|
94958
|
اجازه دهید $X$ یک مجموعه داده $m\times n$ ($m$: تعداد رکوردها و $n$: تعداد ویژگیها) باشد. وقتی تعداد ویژگی های $n$ زیاد باشد و مجموعه داده $X$ پر سر و صدا باشد، طبقه بندی پیچیده تر می شود و دقت طبقه بندی کاهش می یابد. یکی از راههای رفع این مشکل استفاده از تبدیل خطی است، به عنوان مثال، طبقهبندی را روی $Y=XR$ انجام دهید، جایی که $R$ یک ماتریس $n\times p$ و $p<=n$ است. من تعجب کردم که چگونه تبدیل خطی طبقه بندی را ساده می کند؟ و چرا دقت طبقهبندی افزایش مییابد اگر طبقهبندی را روی دادههای تبدیلشده $Y$ انجام دهیم در حالی که $X$ نویز دارد؟
|
چرا وقتی ابعاد داده ها زیاد است، تبدیل خطی می تواند دقت طبقه بندی را بهبود بخشد؟
|
47361
|
من فقط یک تابع توزیع یکنواخت بین [0،1] دارم. و از این توزیع، من باید دنباله ای از متغیر تصادفی توزیع شده Rayleigh را با استفاده از نرم افزاری تولید کنم. به هر حال، من توانستم مشکل را با استفاده از فرمول مقاله ویکیپدیا به پایان برسانم: $$(1)\;\;\;\;X=\sigma\sqrt{-2\ln(U)}$$ با این حال، وجود دارد تنها یک چیز است که من نتوانستم بفهمم من بارها سعی کردم فرمول $(1)$ را با استفاده از روش نمونه گیری تبدیل معکوس استخراج کنم، اما نتوانستم. آیا کسی می تواند مراحل پیدا شدن $(1)$ را به من نشان دهد؟
|
اشتقاق متغیر تصادفی توزیع شده ریلی
|
11220
|
من دادههایی از آزمایش بارگذاری یک وبسایت با چندین هزار نقطه داده دارم که تقریباً در 30 دقیقه پخش شده است (مقادیر زمان پاسخدهی سایت بر حسب میلیثانیه هستند). مقادیر در محدوده 30 دقیقه پخش می شوند، اما نه با یک نرخ ثابت (یعنی ممکن است چند میلی ثانیه بین برخی نقاط، نقاط دیگر ممکن است در همان مهر زمانی و غیره وجود داشته باشد). من میخواهم این دادهها را به صورت بصری ارائه کنم و آنها را نمودار کنم، اما از بهترین روش برای انجام این کار مطمئن نیستم - مقدار زیادی واریانس در اطراف هر نوع مفهومی از مقادیر متوسط یا یک خط روند وجود دارد. آیا بهترین شیوه های پذیرفته شده کلی برای روش هایی در مورد نحوه نمودارسازی داده ها از این نوع وجود دارد؟ من نگران انتخاب یک روش ضعیف برای میانگینگیری/هموارسازی دادهها و ارائه نادرست دادهها هستم - مانند وزن کم برخی از مقادیر پرت. من با یک نمودار خطی با مهرهای زمانی در محور x و میانگین نمونهها در همان دقیقه روی محور y بازی کردهام. من همچنین میخواهم نمودار میانگین متحرک دادهها را در نظر بگیرم، اما مطمئن نیستم که آیا باید میانگین نقاط داده را در همان N دقیقه یا پنجرهای از N نقطه آخر محاسبه کنم. میخواهم مطمئن شوم که هر انتخابی که میکنم، نمایش دقیق دادهها باشد و خیلی آماتور نباشد. **به روز رسانی:** در زیر نمونه ای از آنچه تاکنون تولید کرده ام است، هر نقطه در نمودار به عنوان میانگین/میانگین همه نمونه ها در یک دقیقه (یعنی در 11:12:00.000 و 11: 12:59.999). من تعداد نمونهها در دقیقه را بهعنوان نمودار میلهای در نیمه دوم تصویر گنجاندم تا بتوانم نشان دهم که آیا هر نقطه در نمودار خطی به دلیل تعداد کمی از نمونهها پرت به نظر میرسد، اگرچه از نظر زیباییشناسی فکر میکنم این میله است. نمودار نسبت به مقدار اطلاعاتی که می دهد، املاک و مستغلات زیادی را اشغال می کند. 
|
روش های ترجیحی برای نمودارسازی داده های سری زمانی برای ارائه «میانگین»؟
|
80655
|
من یک ورزش ثابت مانند گلف انجام می دهم، بنابراین جزئیات مهم هستند. من هر یک از امتیازات خود را با اطلاعات دقیق در مورد تجهیزاتی که استفاده می کنم و شرایط آب و هوایی را ثبت می کنم. بنابراین 1 نمره 2-3 قطعه تجهیزات به آن متصل است. من میتوانم میانگینها را برای قطعه اصلی تجهیزات ترسیم کنم، اما چگونه میتوانم تأثیر سایر تجهیزات (لوازم جانبی عملکرد / تجهیزات ایمنی) را جدا کنم؟
|
چگونه می توانم تأثیر تجهیزات خود را بر عملکرد ورزش خود محاسبه کنم؟
|
73238
|
اخیراً مدام با همین مشکل مواجه می شوم و به این فکر می کنم که آیا افراد دیگر توانسته اند آن را دور بزنند. من یک مدل جلوه های ترکیبی را با استفاده از **lmer()** اجرا می کنم. مدل من دارای وقفهها و شیبهای موضوعی و فرعی، و پارامترهای همبستگی تصادفی بین آنهاست. از آنجایی که در نسخه فعلی lmer() نمونه برداری MCMC پیاده سازی نشده است، من نمی توانم از pvals.fnc() استفاده کنم. من این پیام را دریافت می کنم: خطا در pvals.fnc(m, withMCMC = T) : نمونه برداری MCMC در نسخه های اخیر lme4 برای مدل هایی با پارامترهای همبستگی تصادفی پیاده سازی نشده است. **HPD95lower** و **HPD95upper** دو ستون در خروجی pvals.fnc بودند. آیا کسی روش جایگزینی برای بدست آوردن فواصل اطمینان برای برآورد اثرات ثابت در مدل می داند؟ یا استفاده از مدل هایی با همبستگی تصادفی به این معنی است که دیگر نمی توانیم CI را از R بدست آوریم؟ با تشکر **توجه**: من این سوال را در انجمن های دیگر به روش های کمی متفاوت دیده ام. با این حال، به نظر می رسد که پاسخ ها همیشه شامل (1) محاسبه چیزی متفاوت به عنوان جایگزینی برای فواصل اطمینان، (2) برخی راه حل های پیچیده است که (حداقل برای من) نحوه اجرای آن نامشخص است. میخواهم بدانم آیا روش دیگری برای محاسبه CI وجود دارد که هم جریان اصلی باشد (تا سایر محققان بتوانند از آن استفاده کنند) و هم عملکردی برای انجام آن در R داشته باشد، زیرا من یک برنامهنویس نیستم و احساس میکنم که تلاش برای ایجاد خود آن تابع مستعد خطا خواهد بود.
|
جایگزینی برای pvals.fnc برای محاسبه فواصل اطمینان برای اثرات ثابت؟
|
16626
|
من دو ماتریس بزرگ (پراکنده) دارم (~ 1 میلیون در 1 میلیون) و می خواهم آمار Mantel را محاسبه کنم تا همبستگی بین آنها را بیابم. برای مقابله با مشکلات حافظه، من آمار منتل را بین زیرماتریس های آنها با نمونه گیری تصادفی محاسبه کرده ام. من اکنون مجموعه ای از آمار Mantel و نمرات P-value برای این جفت ها دارم. چگونه می توانم آمار نهایی Mantel را بین دو ماتریس اصلی با توجه به این تخمین های بوت استرپ محاسبه کنم؟ آیا می توانم میانگین آنها را محاسبه کنم؟ این یک سوال پیش پا افتاده است، اما من یک آمارگیر نیستم و هر کمکی در این زمینه قابل قدردانی است. با تشکر
|
محاسبه / تقریب آمار کامل Mantel از برآوردهای بوت استرپ
|
110607
|
پس از استفاده از تابع R pcromp () متوجه می شوم که چند عامل ممکن است مهم باشند. چگونه می توان تشخیص داد که این عوامل کدامند؟ از کدام ابزار آماری می توانم استفاده کنم؟ من از پاسخ شما قدردانی می کنم!
|
تعیین عوامل مهم بتن در pca
|
80657
|
من در حال انجام یک ورزش ثابت هستم که در آن از وسایل رنگی مختلف برای آب و هوای مختلف استفاده می کنم. من در حال ثبت نمراتم به همراه رنگ وسایل و آب و هوای استفاده از آن هستم. من می خواهم میانگین امتیازات را برای هر نوع رنگ روی نمودار میله ای رسم کنم و شرایط آب و هوا را به عنوان فیلتر اضافه کنم. به این ترتیب، میخواهم تجهیزات را در زمینههای مختلف مقایسه کنم و به این ترتیب ببینم کدام یک برای مثال، هوای ابری بهترین است. مشکل: من مجموعه داده های یکسانی برای هر نوع رنگ در هر نوع آب و هوا ندارم. برای مقایسه دقیق چه کار کنم؟
|
چگونه می توانم متغیرها را با مجموعه داده های ناهموار مقایسه کنم؟
|
82658
|
من می خواهم شبکه بیزی برای 800 ژن بسازم (ژن ها گره/متغیرهای من هستند). من فقط 30 نمونه سرطان و 30 نمونه طبیعی دارم. بنابراین میخواهم برای نمونههای سرطانی و برای نمونههای معمولی شبکه ایجاد کنم که آیا دادههای من برای یادگیری شبکه بیزی منطقی است؟
|
تعداد نمونه کافی برای یادگیری شبکه بیزی؟
|
81784
|
لطفاً کسی می تواند در تجزیه و تحلیل داده ها کمک کند. به طور خلاصه، من در حال مطالعه چگونگی تغییر جمعیت یک باکتری در نقاط مختلف (درگاه 1 تا پورت 10) در یک بیوفیلتر در طول 30 روز هستم (مانند یک سری زمانی) به عنوان مثال، اگر داده ها مانند زیر باشد: .......روز 0............روز 15......روز 30 بندر 1...........3.6..... .........4.5.........5.0 تا . پورت 10.........2.8..2.9.........3.2 پس چگونه می توانم بفهمم که آیا تفاوت قابل توجهی وجود دارد یا خیر بین مجموعه داده ها (یا به طور کلی) از روز 30 تا روز 0؟ کمک بسیار قدردانی خواهد شد.
|
تجزیه و تحلیل داده ها: سری های زمانی برای داده های جمعیت باکتریایی
|
94273
|
من مشاهده کردم که شرکت کنندگان چقدر در طول آزمایش پنج رفتار خاص از خود نشان می دهند. مجموع درصدهای زیر بیش از 100 درصد است، زیرا برخی از شرکت کنندگان (43/30 درصد نمونه) بیش از یکی از این رفتارها را از خود نشان دادند. آیا بیان جملاتی مانند شرکت کنندگان اغلب رفتارهای A و B را نشان می دهند، با وجود همپوشانی، معتبر است؟ حدس من این است که بله، و شاید من بیش از حد به ریاضی فکر می کنم. درصد شرکت کنندگانی که رفتار را نشان می دهند (n = 23) رفتار: A______________34.78% B_________________________26.09% C_________________21.74% D____________________________________________________26.09% نمی خواهید «رفتارهای چندگانه» یک مقوله انحصاری متقابل باشد زیرا در این صورت آن رفتارها در دسته بندی خاصی که در آن قرار می گیرند منعکس نمی شوند.
|
مقایسه درصدهای همپوشانی
|
97742
|
فرض کنید یک مدل مختلط خطی با متغیر نتیجه $Y_{ij}$ و متغیر کمکی $X_{ij}$ داریم. به طور خاص، فرض کنید یک مدل رهگیری تصادفی داریم: $$\mathbb{E}[Y_{ij}|b_i, X_{ij}] = \beta_0+b_i+ \beta_{1}X_{ij}$$ $$ b_ {i} \sim N(0، \sigma_{b}^{2})$$ $$ e_{ij} \sim N(0، \sigma_{Y}^{2})$$ اگر یک مدل رگرسیون خطی GEE را با یک ماتریس همبستگی قابل مبادله اجرا کنیم، آیا باز هم میتوانیم $b_i$ را در مدل میانگین قرار دهیم؟ یا باید از شر $b_i$ و مفروضات نرمال بودن خلاص شویم؟ همچنین فرض کنید $X_{ij}$ جنسیت باشد ($1$ برای مرد، $0$ برای زن). اجازه دهید $b_i$ رهگیری های تصادفی برای افراد باشد. برای تفسیر $\beta_1$، آیا میتوان گفت: برای هر فردی، مرد بودن با افزایش میانگین $\beta_1$ واحد در $Y_{ij}$ نسبت به زن بودن همراه است؟ انسان نمی تواند مرد باشد و بعد زن شود.
|
GEE با مدل ترکیبی خطی ترکیب شده است
|
110795
|
موارد زیر بخشی از یک اثبات از کتاب van der Vaarts در مورد آمار مجانبی است: من می خواهم نشان دهم که اگر برای یک تابع توزیع پیوسته F $$P\left(\frac{\hat{\theta}-\theta}{\hat {\sigma}}\leq x\mid P\right) \rightarrow F(x) \mbox{ و } P\left(\frac{\hat{\theta}^\ast-\theta^\ast}{\hat{\sigma}^\ast}\leq x\mid \hat{P}\right)\right arrow F (x) \text{ (به احتمال زیاد)}$$ $\quad\forall x$ سپس $$\sup_x\| P\left(\frac{\hat{\theta}-\theta}{\hat{\sigma}}\leq x\mid P\right)-P\left(\frac{\hat{\theta}^\ ast-\theta^\ast}{\hat{\sigma}^\ast}\leq x\mid \hat{P}\right) \| \rightarrow 0 \text{ (به احتمال زیاد)}$$ بنابراین فکر میکنم باید اینگونه باشد: $X=\frac{\hat{\theta}_n-\theta}{\hat{\sigma}_n}$ را تعریف کنید و $\hat{X}=\frac{\hat{\theta}^\ast_n-\hat{\theta}_n}{\hat{\sigma}_n}$. \begin{align*} &\sup_x \| P\left(X\leq x\mid P\right)-P\left(\hat{X}\leq x\mid \hat{P}\right) \| \\\ \leq&\sup_x\left(\| P\left(X\leq x\mid P\right)-F\|+ \|F-P\left(\hat{X}\leq x\mid \hat{ P}\right) \|. \right)\\\ \leq&\sup_x \| P\left(X\leq x\mid P\right)-F \| +\sup_x \|P\left(\hat{X}\leq x\mid \hat{P}\right)-F\| \end{align*} و حالا من کمی گم شدهام... فکر میکنم ادعا باید دنبال شود زیرا sup به دست میآید زیرا F پیوسته و یکنواخت است یا چیزی شبیه به آن. احساس می کنم نزدیک است اما
|
مسائل همگرایی برای توزیع های بوت استرپ
|
39132
|
من به این سخنرانی اشاره می کردم http://videolectures.net/mlss09uk_murray_mcmc/. با این حال، من متوجه نشدم که مقدار پی چگونه محاسبه شده است. این یک اسکرین شات است تا آنجا که من می دانم انتگرال ناحیه زیر منحنی را نشان می دهد. بنابراین من متوجه نشدم که چگونه انتگرال دوگانه با استفاده از P(x,y) مقدار pi را می دهد. همچنین چگونه در اکتاو به معنی تبدیل شد. من تازه یک مبتدی هستم. پس لطفا یه راهنمایی لازمه
|
سردرگمی مربوط به محاسبه پی
|
100755
|
من سعی می کنم کوچکترین اندازه پنجره را برای محاسبه مقادیر آماری در یک جریان پیدا کنم. برای نشان دادن مشکلم: من میانگین تعداد خودروها در هر برند را در یک خیابان با استفاده از پنجره های کشویی مختلف ثبت می کنم. نمودارهای زیر مقدار متوسط را با استفاده از پنجره های کشویی از 90 تا 7200 ثانیه نشان می دهند. البته ارقام مطلق متفاوت هستند، زیرا اگر یک پنجره بزرگتر باشد، می توان مقادیر بیشتری را شمارش کرد، اما پیشرفت سری زمانی بسیار مشابه به نظر می رسد. بنابراین من فرض میکنم که اندازه پنجره 90 ثانیهای برای منعکس کردن متوسط تعداد خودرو در هر برند کافی است. **حالا سوال من این است که چگونه شباهت داده های سری زمانی را نه تنها از نظر بصری بلکه از نظر آماری به درستی اثبات کنم و اندازه کوچکتر معقول پنجره کشویی را تعیین کنم؟** یا بگویم چرا باید آهسته کنم سیستم من با استفاده از داده های یک پنجره 7200 ثانیه ای، اگر بتوانم همه چیز را با داده های 90 ثانیه انجام دهم. هیستوگرام داده ها نشان می دهد که داده ها به طور معمول توزیع نشده اند، بنابراین من از همبستگی رتبه اسپیرمن استفاده کردم. مقادیر همبستگی همه بالای 0.8 هستند که ادعای من را تایید می کند. **اما آیا این تست برای این منظور معقول است و آیا روشهایی برای این نوع تحلیل مناسبتر وجود دارد؟** ARMA یا باید آزمایشهایی را روی توزیع مقادیر میانگین متحرک انجام دهم، مانند _Kruskal-Wallis_ برای خود توزیع یا _Levene's test_ برای واریانس ها؟  
|
شباهت سری های زمانی
|
110797
|
فرض کنید میخواهم پیامدهای فرض یک متغیر پاسخ توزیع شده معمولی در یک مدل glm را در حالی که واقعا پواسون است، آزمایش کنم. من برخی از داده ها را با برخی اصطلاحات درجه دوم شبیه سازی می کنم. set.seed(1) N = 1000 x1 = rnorm(N,0,1) x2 = rnorm(N,0,1) b1 = 0.2 # عبارت های خطی را مساوی اما مخالف علامت b2 = -0.2 g1 = 0.2 # قرار دادم من همچنین شرایط درجه دوم را برابر اما مخالف علامت g2 = -0.2 # قرار دادم این مقادیر را به صورت زیر وارد کنید... mu = exp(0 + b1*x1 + b2*x2 + g1*x1^2 + g2*x2^2 + rnorm(N,0,1)) y = rpois(N, lambda=mu) fit = glm(y ~ x1 + x2 + I(x1^2 ) + I(x2^2)، خانواده = گاوسی (پیوند = هویت)) ضریب(برازش) # به ضرایب حاصل نگاه کنید (Intercept) x1 x2 I(x1^2) I(x2^2) 1.5312231 0.7506879 -0.1288538 0.7601453 -0.3081372 با نگاهی به ضرایب، فقط عبارات مثبت از همتایان منفی خود بسیار دور هستند. کسی شهودی دارد که چرا؟ اگر این کار را بارها و بارها با دانه های تصادفی مختلف اجرا کنید، مقدار مطلق ضرایب مثبت به طور مداوم بزرگتر از ضرایب منفی است. من واقعا نمی توانم درک کنم که چرا علامت در این زمینه اینقدر اهمیت دارد. چرا متقارن نیست؟
|
استفاده از glm (family = guassian) روی داده هایی که در واقع پواسون هستند. تعصب غیر متقارن عجیب
|
80653
|
من می خواهم برای ورزشی که انجام می دهم، آمار تولید کنم. من در حال جمعآوری دادههایی از قبیل امتیازات و مواردی هستم که در آنها از دست دادهام. بر این اساس، میانگینهایی را برای عملکرد کلی و زمانی که از دست میدهم محاسبه کردم. این میانگینها از تمام امتیازات (دادههای) من استفاده میکنند، بنابراین واقعاً نشاندهنده پیشرفت من در زمان نیست. من میانگین متحرک خود را برای 200 امتیاز آخر در برابر نمرات خام خود رسم کردم، که تصویری خوبی از آخرین عملکردم به من می دهد (من نقاط داده را در هر تاریخ رسم کردم). من در مورد تفاوت استاندارد شده در میانگین خواندم، و فکر می کنم که آیا این حتی بیشتر به من کمک می کند. آیا نظری در مورد شاخص های عملکرد دیگری (به جز میانگین و میانگین متحرک) دارید که بتوانم از آنها استفاده کنم؟ من در زمینه آمار تحصیل نکرده ام، اما می دانم چگونه از فرمول ها استفاده کنم. با تشکر
|
دقیق ترین شاخص های عملکرد ورزشی بر اساس امتیازات کدامند؟
|
19055
|
من این فرصت را دارم که یک راه حل ساده برای نمایش محصولات پیشنهادی در یک وب سایت تجارت الکترونیک ایجاد کنم. اولین انتخاب من استفاده از Naive Bayes به دلیل سادگی اجرای آن بود. با این حال، من به این حالت رسیدم: $P(buys|product.type,product.brand) = \frac{P(buys) * P(product.type|buys) * P(product.brand|buys)}{P (product.type,product.brand)}$ همانطور که P (خرید) و P (خرید نمی کند) را مقایسه می کنیم، مخرج یک ثابت است و می توانیم P (خرید) و P (خرید نمی کند) را بر اساس آنها مقایسه کنیم. فقط شمارنده تعیین احتمالات $P(product.type|خرید)$ با نگاه کردن به آنچه کاربر در گذشته خریده است آسان است. با این حال، من مطمئن نیستم که چگونه $P(خرید)$ را تعیین کنم. آیا تعداد محصولات خریداری شده تقسیم بر کل محصولات موجود در فروشگاه است؟ اما تعداد محصولات موجود با گذشت زمان متفاوت است. آیا گرفتن تعداد فعلی محصولات، که با تعداد محصولاتی که در زمان آخرین سفارش کاربر در دسترس بوده اند، متفاوت است (نمونه شدید: کاربر می تواند 3 محصول از 5 محصولی را که در زمان راه اندازی در دسترس بوده اند، سفارش داده باشد. ، اما اکنون 10000 محصول وجود دارد).
|
آیا Naive Bayes برای راه حل ساده محصولات پیشنهادی خوب است؟
|
39137
|
من روی چند تمرین برای کلاس اقتصاد سنجی کار می کنم و کمی گیج هستم. من قصد دارم یک مدل $$Y=\beta_0 +\beta_1X+u$$ را در نظر بگیرم و یک آزمایش (آمار تست و مقدار بحرانی) $H_0:\beta_1 =0$ در برابر $H_1:\beta_1 \ne 0 پیشنهاد کنم. $ به طوری که خطای نوع 1 به 5% می رسد و قدرت تست به 1 می رود که حجم نمونه به بی نهایت می رسد. من فکر می کنم کاملاً استاندارد است، من تقریباً مطمئن هستم که ما فقط می خواهیم از آمار آزمون $\tau=| استفاده کنیم. \frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}|$ با مقدار بحرانی 1.96. با قضیه حد مرکزی، تحت فرض صفر، $\frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}\longrightarrow_d N(0,1)$ داریم و بنابراین میتوانیم نشان دهیم خطای نوع 1 در حد بسیار آسان است. اگر تا الان مشکلی پیش آمده لطفا به من اطلاع دهید. مشکلی که من دارم این است که نشان میدهم قدرت آزمایش به 1 نزدیک میشود. زیر $H_1$، برای اندازههای نمونه بزرگ $\frac {\hat{\beta_1}}{\hat{SE}(\beta_1)}\approx \frac {\hat{\beta_1}}{{SE}(\beta_1)}=\frac{\hat{\beta_1}}{\sqrt{\frac{\sigma^2}{nVar(X)}}}\longrightarrow_d ???????$ حالا اینجاست که من گیج شدم... آیا این اصطلاح به چیزی همگرا می شود؟ آیا من قصد دارم در مورد همگرایی در توزیع بحث کنم؟ تنها چیزی که فکر می کردم این بود که می توانیم استدلال کنیم که $$\frac{\hat{\beta_1}}{\sqrt{\frac{\sigma^2}{nVar(X)}}}\longrightarrow_p \frac{\ beta_1}{\sqrt{\frac{\sigma^2}{nVar(X)}}}$$ و اینکه این عدد به وضوح با n در حال افزایش است، بنابراین آمار آزمون به بی نهایت در حد آیا این استدلال درستی است؟ مشکل من با این این است که، چرا نمی گوییم که این بدان معناست که آمار آزمون به 0 در حد زیر $H_0$ می رود؟ ما این را نمی گوییم، می گوییم که به یک _ توزیع_ می رود، نه یک عدد، اما
|
نشان می دهد که با نزدیک شدن حجم نمونه به بی نهایت، توان آزمون به 1 نزدیک می شود
|
88100
|
از «نحوه پرسیدن یک سؤال آماری»: 1. **مشکلی که میخواهید حل کنید**: با توجه به نقشههای حرارتی دوبعدی پاسخها (DV)، مدل دوبعدی را انتخاب کنید (همچنین یک نقشه حرارتی است، اما میتواند محدودههای مختلفی داشته باشد. از ارزش ها) که پاسخ ها را به بهترین نحو توضیح می دهد/پیش بینی می کند. مدلها از پیشبینیهای هندسی پاسخهای شرکتکننده تولید میشوند و ممکن است به هم مرتبط باشند، بنابراین من میخواهم مدل(هایی) را انتخاب کنم که عملکرد شرکتکننده را به بهترین شکل توضیح دهد. 2. **به ما بگویید چه ریاضی و آماری می دانید**: کمی آمار و ریاضی، گرایش روانشناسی و فیزیک. من همچنین با MATLAB، Mathematica و (تا حد محدود) SPSS آشنایی کامل دارم. 3. **به ما بگویید چه داده هایی دارید**: برای یک محرک معین، من تعدادی (در حال حاضر 7) نقشه حرارتی تولید شده از پاسخ های شرکت کنندگان دارم. من همچنین 10 مدل دارم که هر کدام یک نقشه حرارتی 2 بعدی را ارائه می دهند که می خواهم از آنها برای مقایسه با داده های افراد استفاده کنم. 4. ** آیا به استخدام یک مشاور فکر می کنید، یا فقط به دنبال راهنمایی در جهتی هستید ** : اشاره ها/پیشنهادها 5. **سپس، و فقط پس از آن به ما بگویید چه چیزی را امتحان کرده اید، چرا راضی نیستید. و غیره**: در داده های متوسط (به عنوان مثال، نقشه حرارتی متوسط پاسخ ها)، من به همبستگی های دو بعدی نگاه کرده ام (با استفاده از MATLAB's corr2) بین مدل های فردی و میانگین پاسخ. از آنجایی که مدلها میتوانند به شدت همبستگی داشته باشند، من همچنین به انجام همبستگی جزئی (با استفاده از پارهکوری متلب) با دادهها و مدلها به عنوان بردارهای ستون نگاه کردهام. با این حال، همبستگی ها تنها یک تکه از پازل هستند و بنابراین من انجام یک رگرسیون خطی چندگانه (با استفاده از fitlm MATLAB) با میانگین داده ها به عنوان مشاهدات و 10 مدل به عنوان پیش بینی کننده، با استفاده از بردارهای ستون را در نظر گرفتم. با این حال، یک جایگزین بهتر ممکن است یک رگرسیون خطی چند متغیره (با استفاده از mvregress MATLAB) با مشاهدات فردی به عنوان ستون باشد. هر گونه نظر در مورد پیشنهادات بسیار قدردانی خواهد شد!
|
مقایسه نقشه های حرارتی دو بعدی داده های مشاهده شده با پیش بینی های مدل دو بعدی
|
88108
|
من یک سوال کوتاه دارم که آیا تفاوتی بین دو عبارت تمایز و تفاوت اول در مفهوم: مدل معادلات همزمان با داده های تابلویی وجود دارد (Wooldridge, 2003, p.520)؟
|
آیا تفاوتی بین «تمایز» و «تفاوت اول» وجود دارد؟
|
16996
|
من این تابع R را به منظور آزمایش همبستگی بین ماتریس (mat1، mat2) با نمونهبرداری مجدد از ماتریس دوم numR بارها نوشتم تا توزیع ضریب همبستگی را برای آزمایش مقدار مشاهدهشده به دست آوریم. اما صرف نظر از مقدار مشاهده شده، من همیشه توزیع را با حداکثر 0.3 SD دریافت می کنم. نمیدانم اگر همبستگی اصلی تا 0.9 باشد که پس از 10000 نمونهبرداری مجدد هنوز از 0.3 تجاوز نکند. نظری در مورد کد یا آزمایش احتمالی با داده های مستقل دارید؟ resamplerSimAlt <- تابع (mat1، mat2، numR، نمودار = FALSE) {statSim <- عددی(numR) mat1vcv <- cov(mat1) mat2vcvT <- cov(mat2) ltM1 <- mat1vcv[col(mat1vcv) <= mat1vcv)] ltM2T <- mat2vcvT[col(mat2vcvT) <= ردیف(mat2vcvT)] statObs <- شاخص cor(ltM1، ltM2T) <- c(1:طول(mat2)) resamplesIndices <- lapply(1:numR، تابع(i) نمونه(شاخص ، جایگزین = F)) برای (i در 1:numR) { ss <- mat2[نمونه(resamplesIndices[[i]])] ss <- ماتریس(ss, nrow = dim(mat2)[[1]], ncol = dim(mat2)[[2]]) mat2ss <- cov(ss) ltM2ss <- mat2ss[col(mat2ss) <= ردیف(mat2ss)] statSim[i] <- ( density(statSim), type=l, lwd=2) abline(v = statObs) text(10, 10, observed corlation = ) } list( obs = statObs , sumFit = sum(statSim > statObs)/numR) }
|
همبستگی متغیرهای بوت استرپ در R
|
39139
|
نزدیکترین همسایه/k-NN برای استفاده با فاصله فشرده سازی عادی. نمیدانم آیا تقریبی از الگوریتم NN/k-NN وجود دارد که برای همه اندازههای فاصله کار کند؟ من می خواهم فاصله فشرده سازی نرمال شده را در عمل آزمایش کنم، اما هزینه محاسبه ماتریس شباهت (فشرده سازی الحاق هر دو مشاهدات / رشته ها) بسیار زیاد است. بنابراین شاید تقریبی از NN/k-NN وجود داشته باشد که از هیچ تقریب مستقیمی برای فاصله بین مشاهدات استفاده نمی کند، به عنوان مثال. بدون Local Sensitive Hashing و فقط سعی کنید فواصل را اندازه گیری کنید که به نظر می رسد مرتبط هستند و اطلاعات جدیدی را پس از مقداردهی اولیه تصادفی به ارمغان می آورند. 1. من به مدل متغیرهای پنهان مبتنی بر ماتریس فاصله برای یافتن مرتبط ترین جفت مشاهدات فکر می کردم، اما به نظر می رسد که ماتریس فاصله نباید برای این رویکرد خیلی کم باشد. 2. ممکن است برخی از اکتشافات کار کنند، مانند: برای انتخاب 'x' نزدیکترین همسایه را از مجموعه مشاهداتی که فاصله آنها محاسبه شده است پیدا کنید - آن را 'y' نامید، سپس فاصله بین 'x' و نزدیکترین همسایه (یا همه همسایگان) را محاسبه کنید. یا 'n' همسایگان) از 'y'.
|
تقریب مستقل فاصله نزدیکترین همسایه/k-NN.
|
103228
|
سوال کمی پیچیده است، پس لطفا با من تحمل کنید. من در حال انجام بخش بندی تصویر با استفاده از روش Swendsen-Wang برای تجزیه و تحلیل تصویر هستم./ ( _stat.fsu.edu/~abarbu/papers/jcgs.pdf_ ) باید **احتمال لبه** را به عنوان یک معیار شباهت خوب بین شدت محاسبه کنم. مدل های مناطق اتمی مقاله بیان می کند که (اول از همه) - > به عنوان یک مدل تقریبی برای هر ناحیه اتمی v ∈ V، یک هیستوگرام 15 bin > با شدت h نرمال شده به 1 را انتخاب می کنیم. بنابراین، من هیستوگرام یک تصویر را با استفاده از این ایجاد کرده ام. کد پایتون - > k = cv2.imread(vpython/the.png,0) > > hk = cv2.calcHist([k],[0],None,[15],[0,256] علاوه بر این، مقاله بیان میکند که باید احتمال لبه را به صورت -> q(i,j) = exp{−1/ انتخاب کنیم 2 (KL(h(i) || h(j)) + KL(h(j) || h(i)))} که در آن KL() Kullback-Leibler است واگرایی بین دو هیستوگرام من سعی کردم آن را به صورت - > برای i در محدوده (int(k.size)): > > برای j در محدوده (int(k.size)): > > q(i,j) = q(i,j) کدنویسی کنم ) + math.exp(( از این مشکل من این خطا را دریافت می کنم - > File hist1.py, خط 14 > > q(i,j) = q(i,j) + math.exp(((hk(j)-hk(i))*math .log(hk(i)/hk(j)))/2) > > SyntaxError: نمی توان به فراخوانی تابع اختصاص داد آیا کسی می تواند در این مورد به من کمک کند؟ پیشاپیش متشکرم
|
احتمال لبه با استفاده از کد KL-Divergence در پایتون
|
16628
|
من مطمئن نیستم که از کدام روش برای مدل کردن رابطه بین دو متغیر ($x$ و $y$) در آزمایشی که به شرح زیر است استفاده کنم: * 3 متغیر وجود دارد: $x_{aim}$، $x$ و $ y$. * مقدار $x_{aim}$ هنگام اجرای آزمایش تنظیم میشود. با این حال، $x$ و $x_{aim}$ همیشه برابر نیستند. * ضریب همبستگی پیرسون بین $x_{aim}$ و $x$ حدود 0.9 است. * ضریب همبستگی پیرسون بین $x$ و $y$ بسیار کمتر است: حدود 0.5. * $y$ دارای حداکثر مقدار ممکن است ($y_{max}$) که نمی توان از آن تجاوز کرد. * هر نقطه داده پس از تنظیم $x_{aim}$ و خواندن $x$ و $y$ بدست میآید. اگرچه ضریب همبستگی پیرسون بین $x$ و $y$ عالی نیست، به نظر میرسد $y$ تمایل دارد با $x$ افزایش یابد. پس از انجام رگرسیون های خطی ساده $y=f(x)$ و $x=g(y)$ (و تبدیل دومی به $g^{-1}$، به طوری که در همان نمودار $ نمایش داده شود. برای مثال f$)، هر دو شیب مثبت هستند، اما شیب $g^{-1}$ بیشتر از $f$ است. آیا گفتن $x_{max} = f^{-1}(y_{max})$ یا $x_{max} = g(y_{max})$ منطقی است؟ ($x_{max}$ در حالت دوم زودتر به دست میآید.) با توجه به اینکه $y$ توسط $y_{max}$ محدود میشود، در مورد حداکثر مقدار ممکن $x$ که میتوان به آن رسید، چه میتوان گفت؟ تا آنجا که من متوجه شدم، انجام یک رگرسیون خطی به شکل $y=f(x)$ زمانی که $x$ متغیر مستقل و $y$ متغیر وابسته است، منطقی است. با این حال، در این زمینه، من مطمئن نیستم که آیا منطقی است که در نظر بگیریم که $x$ مستقل است و $y$ وابسته است. آیا رگرسیون حداقل مربعات کل مناسب تر است؟ آیا روشهای دیگری برای تعیین اینکه به کدام مقادیر $x_{max}$ میتوان رسید (و با چه احتمالی) وجود دارد؟ (اگر این مهم باشد، به نظر میرسد $x$ و $y$ از توزیع نرمال پیروی نمیکنند، زیرا تلاشهای بیشتری برای رسیدن به مقادیر بالاتر x$ صورت گرفته است.)
|
با در نظر گرفتن یک متغیر با کران بالا، از کدام نوع رگرسیون استفاده کنیم؟
|
82659
|
من در تجزیه و تحلیل بقا تازه کار هستم و اخیراً متوجه شده ام که روش های مختلفی برای انجام آن با توجه به یک هدف خاص وجود دارد. من به اجرای واقعی و مناسب بودن این روش ها علاقه مند هستم. به من روش های سنتی _Cox Proportional-Hazards_، _مدل های زمان شکست تسریع شده_و_شبکه های عصبی_ (پرسپترون چند لایه) را به عنوان روش هایی برای بقای یک بیمار با توجه به زمان، وضعیت و سایر داده های پزشکی ارائه کردند. گفته میشود که این مطالعه در پنج سال آینده مشخص میشود و هدف این است که هر سال خطرات بقای خود را برای ثبت رکوردهای جدید ارائه کنیم. من دو مورد را پیدا کردم که در آن روشهای دیگری بر روی Cox PH انتخاب شدهاند: 1. « _چگونه پیشبینیهایی از نظر زمان بقا از مدل PH کاکس به دست آوریم_» را پیدا کردم و به آن اشاره شد که: احتمال بقا در مقاطع زمانی خاص، من شما را به سمت > **مدل های بقای پارامتریک (معروف به مدل های زمان شکست تسریع شده)** راهنمایی می کنم. این > در بسته بقا برای R پیاده سازی می شوند، و به شما توزیع های پارامتریک > زمان بقا می دهند، که در آن شما به سادگی می توانید زمانی را که به آن علاقه دارید > متصل کنید و احتمال بقا را پس بگیرید. من به سایت توصیه شده رفتم و یکی را در بسته `survival` پیدا کردم - تابع survreg. 2. شبکه های عصبی در این نظر پیشنهاد شده است: > ... یکی از مزیت های رویکردهای شبکه عصبی برای تحلیل بقا این است که آنها > بر فرضیاتی که زیربنای تحلیل کاکس است تکیه نمی کنند ... شخص دیگری با این سوال مدل شبکه عصبی _R با بردار هدف بهعنوان خروجی حاوی پیشبینیهای بقا_» راهی جامع برای تعیین بقا در شبکههای عصبی و Cox PH ارائه کرد. کد R برای بدست آوردن بقا به این صورت خواهد بود: mymodel <- neuralnet(T1+T2+T3+T4+T5~covar1+covar2+covar3+..., data=mydata, hidden=1) compute(mymodel,data= mydata) 3. من به انجمن R رفتم و این پاسخ را در سؤال _predict.coxph and predict.survreg_ پیدا کردم: > در واقع، از تابع «predict()» «coxph» نمیتوانید پیشبینیهای «زمان» را مستقیماً دریافت کنید، بلکه فقط امتیازهای ریسک خطی و نمایی را دریافت کنید. این به این دلیل است که برای بدست آوردن زمان، یک خطر پایه باید محاسبه شود و > ساده نیست زیرا در مدل کاکس ضمنی است. میخواستم بدانم که کدام یک از این سه (یا دو مورد با توجه به استدلالهای Cox PH) برای دریافت درصد بقا برای دورههای زمانی مورد علاقه بهترین است؟ من گیج شده ام که از کدام یک از آنها در تجزیه و تحلیل بقا استفاده کنم.
|
مقایسه CPH، مدل زمان شکست تسریع شده یا شبکه های عصبی برای تجزیه و تحلیل بقا
|
82656
|
من دادههای متنی را از یک سایت تبلیغات طبقهبندی شده دارم و علاقه مندم پستها را به دو دسته طبقهبندی کنم: X و نه X. من با یک مجموعه آموزشی خوب و انتخاب ویژگی گیر کرده ام. من فرض کردم که یک شروع خوب برای پیکره متن در مورد X، صفحه محصول آن از سازنده خواهد بود (در نهایت، یک فروشنده باید از برخی اصطلاحات فنی استفاده کند) و اصطلاحات فنی مرتبط به عنوان ویژگی ها. من از NLP برای پردازش متن استفاده کردهام تا از شر متن معمولی/پرکننده/متن آزاد خلاص شوم، و تنها 3-5 کلمه کلیدی در هر پست هدف برای من باقی مانده است. آیا این رویکرد درست به نظر می رسد؟ همچنین، از چه چیزی به عنوان آموزش برای X نه استفاده کنم؟
|
چگونه مجموعه های آموزشی برای داده های متنی انتخاب کنیم؟
|
100752
|
من در حال خواندن این مقاله هستم: http://research.microsoft.com/en-us/um/people/ryenw/papers/LiuSIGIR2010.pdf میخواهم از آن برای مدلسازی زمان ماندگاری وب استفاده کنم. من در حوزه آمار خیلی خوب تحصیل نکرده ام. من چند روزی را صرف تلاش کردم تا تعیین کنم پارامترهای لامبدا و k برای توزیع ویبول آنها چیست، اما موفق نبودم. آیا کسی می تواند به من بگوید که پارامترها چیست (به ویژه در مورد تجزیه و تحلیل محتوای آنها)، یا بهتر از آن، به من آموزش دهد که چگونه می توانم خودم آنها را درک کنم؟ به عنوان یک مرجع، تابع خطر برای توزیع ظاهراً بهینه همان مقاله در اینجا ذکر شده است: http://www.nngroup.com/articles/how-long-do- users-stay-on-web-pages/ با تشکر از شما
|
شناسایی پارامترهای توزیع وایبول از مقاله تحقیقاتی
|
82654
|
من با مدل `y = a + b * x` مطابقت دارم. و 95% CI برای برآوردهای a و b به ترتیب (a1، a2)، (b1، b2) است. اگر مشاهده جدیدی x0 داشته باشیم، پاسخ تخمین زده شده a_hat + b_hat * x0 است. و 95% CI (a1 + b1 * x0، a2 + b2 * x0) است مورد 1، اکنون با توجه به y = 0، من میخواهم x پاسخگو را تخمین بزنم. حدس میزنم فاصله اطمینان برای «x» «(a1 / b2، a2 / b1)» باشد. درست میگم؟ مورد 2، اگر مدل y = a + b * x + c * z + d * x * z را مطابقت دهیم، a_hat<0، b_hat،c_hat،d_hat>0، با توجه به y = 0، نحوه محاسبه فاصله اطمینان برای x + z؟
|
مدل خطی، با توجه به y، فاصله اطمینان را برای x محاسبه کنید
|
13685
|
من یک روش مفید به نام Theil-Sen estimator در ویکی پدیا پیدا کردم: در اینجا به نظر می رسد این روش با تابع mblm در کتابخانه mblm پوشانده شده است. همین الان دانلودش کردم تا چند تست انجام بدم. من یک تردید در مورد آن دارم، اگر انجام دهم: x <- c(1,2,3) y <- c(2,6,7) mod <- mblm(x~y) کاملاً کار می کند، اما من درک نحوه حذف رهگیری (آن را روی صفر قرار دهید). با lm() من lm(x~y+0) را انجام می دهم اما در این مورد هنوز مقدار رهگیری را می بینم. بنابراین سوال اول این است: **چگونه وقفه را روی 0 تنظیم کنیم؟** سوال دوم در مورد استفاده از این تابع با ماتریس است، به کد زیر نگاه کنید: > y [1] 6 4 1 8 7 > > t [،1] [،2] [1،] 2 32 [2،] 5 762 [3،] 6 5 [4،] 23 9 [5،] 34 16 > mblm(y~t) فراخوانی: mblm(فرمول = y ~ t) ضرایب: (تقاطع) t NA NA چرا آن NA / NA؟ اگر همین کار را با lm() انجام دهم مشکلی ندارم. > lm(y~t) فراخوانی: lm(فرمول = y ~ t) ضرایب: (برق) t1 t2 3.453e+00 1.247e-01 5.435e-06 بنابراین سوال دوم این است: **آیا می توانم از ماتریس استفاده کنم سمت راست فرمول؟** متشکرم
|
چگونه برآوردگر Theil-Sen را در R محاسبه کنیم؟
|
80652
|
ویکفیلد در کتاب _روشهای رگرسیون بیزی و فرکانسیستی_ خاطرنشان می کند که اگر عبارات خطا نرمال باشد یا اگر حجم نمونه به اندازه کافی بزرگ باشد، برآوردگرهای ضرایب در یک مدل خطی نرمال خواهند بود. او می نویسد که قضاوت در مورد کفایت حجم نمونه را می توان از طریق شبیه سازی ارزیابی کرد. من نتوانستم توضیح بیشتری در این مورد پیدا کنم. آیا کسی می تواند جزئیاتی را درباره نحوه انجام این کار و/یا ارجاعات بیشتر ارائه دهد؟ با تشکر
|
شبیه سازی برای بررسی مدل برای اندازه نمونه
|
12754
|
چیز زیادی نیست که بتوانم به سوال اضافه کنم. گوگل بیشتر مقالات تحقیقاتی را در Springerlink و سایر سایت هایی که من به آنها دسترسی ندارم پیدا کرده است. با توجه به یک مدل شبکه عصبی با $tanh(x)$ به عنوان خروجی غیر خطی، تابع تطبیق تطبیق مناسب برای استفاده چیست؟ -برایان
|
تطبیق تابع از دست دادن برای واحدهای tanh در یک شبکه عصبی
|
111049
|
من میخواهم یک کار K-Means را انجام دهم و در آموزش مدل شکست بخورم و قبل از اینکه معیارهای نتیجهام را بدست بیاورم از پوسته Sparks Scala خارج شوم. من مطمئن نیستم که آیا فرمت ورودی مشکل است یا چیز دیگری. من از Spark 1.0.0 استفاده می کنم و منسوجات ورودی من (400 مگابایت) به این صورت است: 86252 3711 15.4 4.18 86252 3504 28 1.25 86252 3703 10.75 8.85 86032525510 2201 64 2.79 12262064 7203 32 8.49 12262064 2119 32 1.99 12262064 3405 8.5 2.99 12262064 210192064 21019 21019 210623 1.5 12262064 3611 23.7 1.95 و غیره. ID، دسته، PruductSize، PurchaseAmount،. مطمئن نیستم که بتوانم از دو مورد اول استفاده کنم، زیرا در فایل مثال MLlib فقط از float استفاده می شود. بنابراین من دو مورد آخر را نیز امتحان کردم: 16 2.49 64 3.29 56 1 16 3.29 6 4.99 10.75 0.79 4.6 3.99 11 1.18 5.8 1.25 15 0.99 کد خطای من در اینجا: scala در هر دو مورد import است org.apache.spark.mllib.clustering.KMeans import org.apache.spark.mllib.clustering.KMeans scala> import org.apache.spark.mllib.linalg.Vectors import org.apache.spark.mllib.linalg.Vectors scala > scala> // بارگیری و تجزیه داده ها scala> val data = sc.textFile(data/outkmeanssm.txt) 14/08/07 16:15:37 INFO MemoryStore: sureFreeSpace(35456) با curMem=0، maxMem=318111744 فراخوانی شده است 14/08/08:1571 MemoryStore : پخش_0 را مسدود کنید ذخیره شده به عنوان مقادیر در حافظه (اندازه تخمینی 34.6 کیلوبایت، 303.3 مگابایت رایگان): org.apache.spark.rdd.RDD[String] = MappedRDD[1] در textFile در :14 scala> val parsedData = data.map(s = > Vectors.dense(s.split(' ').map(_.toDouble))) parsedData: org.apache.spark.rdd.RDD[org.apache.spark.mllib.linalg.Vector] = MappedRDD[2] در نقشه در :16 scala> scala> // داده ها را با استفاده از KMeans scala> val numClusters به دو کلاس خوشه بندی کنید. = 2 numCluster: Int = 2 Scala> Val numIterations = 20 numIterations: Int = 20 scala> val clusters = KMeans.train (parsedData, numClusters, numIterations) 14/08/07 16:15:38 WARN NativeCodeLoader: قادر به بارگیری کتابخانه native-hadoop برای پلتفرم شما نیست... با استفاده از کلاس های جاوا داخلی که در آن قابل اجرا 14/08/07 16:15:38 WARN LoadSnappy: کتابخانه بومی Snappy بارگیری نشد 14/08/07 16:15:38 INFO FileInputFormat: کل مسیرهای ورودی برای پردازش: 1 14/08/07 16:15:38 INFO SparkContext: شروع کار: TakeSample 260 14/08/07 16:15:38 INFO DAGScheduler: Jot job 0 (takeSample at KMeans.scala:260) با 7 پارتیشن خروجی (allowLocal=false) 14/08/07 16:15:38 INFO DAGScheduler: مرحله نهایی: StageSkeample 0( KMeans.scala:260) 14/08/07 16:15:38 اطلاعات DAG برنامهریز: والدین مرحله نهایی: List() 14/08/07 16:15:38 اطلاعات DAG برنامهریز: والدین گمشده: لیست() 14/08/07 16:15:38 INFO DAGScheduler: ارسال مرحله 0 (MappedRDD[6] در نقشه در KMeans.scala:123)، که هیچ والدین گمشده ای ندارد 14/08/07 16:15:39 اطلاعات DAG زمانبندی: ارسال 7 کار گمشده از مرحله 0 (MappedRDD[6] در نقشه در KMeans.scala:123) 14/08 /07 16:15:39 INFO TaskSchedulerImpl: افزودن مجموعه وظایف 0.0 با 7 کار 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:0 به عنوان TID 0 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO taskerial:0S. 0 به عنوان 2221 بایت در 3 میلی ثانیه 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:1 به عنوان TID 1 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO: TaskSeterialM 1 تا 2221 بایت در 0 ms 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:2 به عنوان TID 2 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetSetMana. به اندازه 2221 بایت 0 ms 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:3 به عنوان TID 3 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSet03Manager: 2221 بایت در 1 ms 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:4 به عنوان TID 4 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetManager 1:20 Serial. بایت در 0 میلی ثانیه 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:5 به عنوان TID 5 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetManager: 201 وظیفه به صورت سریال شده توسط در 0 میلی ثانیه 14/08/07 16:15:39 INFO TaskSetManager: شروع کار 0.0:6 به عنوان TID 6 در میزبان محلی مجری: localhost (PROCESS_LOCAL) 14/08/07 16:15:39 INFO TaskSetManager: 201 وظیفه به صورت سریال شده توسط در 0 میلی ثانیه 14/08/07 16:15:39 INFO مجری: در حال اجرا شناسه وظیفه 4 14/08/07 16:15:39 INFO مجری: در حال اجرا ID وظیفه 1 14/08/07 16:15:39 اطلاعات مجری: در حال اجرا ID 5 14/08/07 16:15:39 INFO Executor: Running Task ID 6 14/08/07 16:15:39 INFO Executor: Running Task ID 0 14/08/07 16:15:39 INFO Executor: Running task ID 3 14/08/07 16:15: 39 INFO Executor: در حال اجرا ID task 2 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 Found BlockManager: به صورت محلی 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 INFO BlockManager: Found block broadcast_0 به صورت محلی 14/08/07 16:15:39 INFO BlockManager: بلوک یافت شده
|
آپاچی اسپارک - MLlib - K-Means
|
39138
|
من مجموعه ای از تقریبا 1600 سری زمانی در 2 سال دارم که می خواهم آنها را به خوشه ها گروه بندی کنم. به نظر شما این کار با استفاده از k-means امکان پذیر است؟ به من توصیه می کنید از کدام روش استفاده کنم؟ آیا با استفاده از SPSS این امکان وجود دارد؟
|
خوشه بندی سری های زمانی
|
80658
|
با سلام و تشکر از شما که سوال من را خواندید. برای درک بهتر، مدلی با پیشبینیکنندههای دوگانه و مقولهای دارم و متغیرهای وابسته پیوسته هستند. می دانم که مفروضات تحلیل مسیر مانند رگرسیون خطی است. من چندین سوال دارم: 1. چگونه می توانم خطی بودن یک متغیر طبقه ای/دودویی و یک متغیر پیوسته را بررسی کنم؟ بصری امکان پذیر نیست، زیرا وقتی I.g. برای خطی بودن بین جنسیت پیشبین من (کد ساختگی) و متغیر وابسته دستیابی به دو ردیف نقطه وجود دارد. 2. چگونه می توانم آزمایش کنم که آیا باقیمانده ها با متغیرهای وابسته همبستگی دارند؟ 3. چگونه می توانم برای افزایش بین متغیرها آزمایش کنم؟ آیا می توانم از Tukey-Test استفاده کنم و همه متغیرهایم را همزمان در آن قرار دهم؟ از شما برای کمک به من متشکرم!
|
مفروضات یک مدل مسیر (AMOS)
|
105353
|
من 2 مجموعه داده دارم، یکی binn شده و دیگری نه، هر کدام 9000 مقدار. چیزی شبیه این: «a = [23 45 88 9 0 29 30 60 0 2 10 100 0 60 90] b = [0 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 1]» در واقع، «b» مجموعه ای از رویدادها (بله/خیر) است که در طول تغییر مداوم شدت رخ می دهد یک سیگنال (سیگنال دارای مقادیر [0-100] است). من همبستگی متقاطع را انجام دادم، زیرا میخواهم پیدا کنم که آیا وقوع رویدادها با تغییرات یک سیگنال مشترک است یا خیر. بنابراین من این کار را کردم: maxlags = 300; [c، lags] = xcorr(a-mean(a)، b-mean(b)، maxlags، 'coeff') و همچنین یک فرضیه تهی 10 بار درهم ریخته ایجاد کردم: urge_shuffled=urge_new; a_sh = a; b_sh=b; all_corr_rand_norm=[]; برای k=1:10 a_sh1 = a_shuff(randperm(length(a_sh))); a_sh = a_sh11; b_sh1 =b_sh(randperm(طول(b_sh))); b_sh=b_sh1; [c_sh,lags]=xcorr(a_sh-mean(a_sh),b_sh-mean(b_sh),maxlags, 'coeff'); all_corr_rand_norm (k,:) =c_sh; پایان corr_rand=mean(all_corr_rand_norm);` و همچنین مقادیر _t_ -score را محاسبه کرد. بنابراین در نهایت من چنین چیزی را دریافت کردم:  ابتدا سعی کردم این ارتباط را فقط با `xcorr(a,b, maxlags, coeff) انجام دهم )` بدون کم کردن میانگین، اما در این مورد به من یک چیز بسیار عجیب می دهد فرضیه صفر (قرمز است؛ همبستگی واقعی آبی است؛ تغییرات با maxlag های بزرگتر مشهودتر است): ! من در اینترنت تحقیقاتی انجام دادم و حتی سوالات مشابهی پیدا کردم، اما پاسخ ها این بود که این به دلیل صفر padding است و به همین دلیل است که باید میانگین را قبل از همبستگی کم کنیم. این اولین سوال من است: **چرا در برخی موارد افراد حتی با xcorr(a,b) یک فرضیه تهی خوب دریافت می کنند - به چه چیزی بستگی دارد؟** سوال دوم این است که **درست است یا نه در مورد من برای تفریق میانگین** - اساساً از قبل با تابع 'xcov' متلب مطابقت دارد و این قبلاً کوواریانس است... (همکار دیگری دارم که پیشنهاد داد از 'xcorr' و سپس برای تفریق میانگین: [c, lags]= xcorr(a,b, maxlags, 'coeff') x_crr=c-mean(c) — اما من واقعاً نمیدانم چرا باید این کار را انجام دهم، و علاوه بر این، همچنان همان فرضیه تهی مثلثی شکل عجیب را به من می دهد: **کوواریانس متقاطع و همبستگی هستند در مورد من خیلی متفاوت است؟** بله، من قبلاً همه چیزهایی را که در مورد هر دو آنها پیدا کردم خوانده ام، اما عبارات کوواریانس نشان می دهد که چگونه 2 تابع با هم تغییر می کنند وقتی همبستگی متقابل همبستگی آنها را نشان می دهد کمک خیلی زیاد اگر چیزی با یک تاخیر خاص قبل/بعد از تابع دیگر متفاوت است، آیا این همبستگی نیست؟ همچنین، در حین جستجوی توضیح فرضیه صفر مثلثی خود، توصیه های شخصی را برای استفاده از همبستگی بی طرفانه دیدم، در حالی که دیگران قویاً پیشنهاد کردند که این کار را انجام ندهید. بنابراین، سوال چهارم این است، **چه زمانی واقعاً از این xcorr بی طرفانه/غیر جانبدارانه استفاده می کنیم؟** من دوباره توصیفات عالی پیدا کردم که همبستگی متقابل جانبدارانه مغرضانه است، در حالی که بی طرفانه نیست. البته جوابهای بهتری هم بود، اما هنوز متوجه نشدم. و سوال آخر: در مورد من، از آنجایی که من یک _t_ معنی دار اما یک همبستگی ضعیف بین هر دو مجموعه مقادیر دارم، آیا می توانیم تایید کنیم که نوسانات هر دو مجموعه داده تقریبا مستقل هستند؟ من کاملاً درک می کنم که این ترکیبی از سؤالات رایج و احتمالاً آسان در مورد همبستگی متقابل است، اما توضیحاتی که در اینترنت پیدا کرده ام معمولاً مشکوک به نظر می رسند یا واقعاً شبیه توضیحات نیستند، بلکه فقط برخی ادعاهای سریع هستند (مانند بی طرفانه معنی بی طرفانه است) و من در مورد تفسیر یافته هایم مطمئن نیستم.
|
کدام Xcorr را در یک موقعیت خاص انتخاب کنیم: عادی/غیر مغرضانه/بی طرفانه؟
|
88109
|
فرض کنید شما فقط این اطلاعات را از یک داده نمونه دارید: $X_i$ و $w_i$، $i=1،...،N$، که $w_i$ وزنهای نمونه مربوطه هستند (نه اعداد صحیح). آیا می توان تخمین بوت استرپ معتبر مثلاً واریانس X_i$ را بدست آورد؟ میدانم که ممکن است مجبور باشم وزنهای نمونهبرداری (برای دادههای وزنی) را برای هر تکرار بوت استرپ تنظیم مجدد کنم تا تخمین راهانداز معتبری به دست بیاورم. اما با توجه به اینکه من فقط اطلاعات فوق را دارم، آیا راه های دیگری برای انجام این کار وجود دارد؟
|
دادههای راهاندازی تنها با وزنهای نمونه داده شده
|
63706
|
من در حال خواندن یک یادداشت کلاسی درباره SVM از اندرو نگ (صفحه 19 تا 20 از http://cs229.stanford.edu/notes/cs229-notes3.pdf) بودم و نمی توانم چیزی را در یادداشت سخنرانی بفهمم. می گوید که مشکل حاشیه نرم تنظیم شده با L1 به شرح زیر است: $$\begin{array}{ll} \mbox{min.} & & \frac{1}{2} ||w||^2 + C \sum \xi_i \\\ \mbox{s.t.} & & y_i (w^T x_i+b) \geq 1 - \xi_i، i = 1،...، m\\\ & & \xi_i \geq 0, i=1,...,m \end{array}$$ سپس می گوید که لاگرانژ $L(w,b,\xi, \alpha, r) = \frac{1} است {2}w^Tw + C\sum{\xi_i} - \sum \alpha_i [y_i (x^Tw+b)-1+\xi_i] - \sum r_i \xi_i$ سپس میگوید که شرط تکمیلی دوگانه KKT عبارتند از: $$\begin{array}{ll} \alpha_i = 0 & \Rightarrow & y_i (w^Tx_i + b) \geq 1 \\\ \alpha_i = C & \Rightarrow & y_i ( w^Tx_i + b) \leq 1 \\\ 0 < \alpha_i < C & \Rightarrow & y_i (w^Tx_i + b) = 1 \end{array}$$ قسمت آخر را متوجه نشدم. آیا شرط تکمیلی دوگانه KKT $\alpha_i [y_i (x^Tw+b)-1+\xi_i]$ = 0 نیست -- یعنی $\alpha_i = 0$ یا $ y_i (x^Tw+ ب)-1+\xi_i = 0$. آیا کسی می تواند برای من توضیح دهد که شرایط تکمیلی فوق چگونه به دست می آید؟ من نگرانم که $\xi_i$ در شرایط مکمل ظاهر نمی شود.
|
در SVM با حاشیه نرم
|
63701
|
من سعی می کنم موضوعات پرطرفدار در توییتر را در زمان واقعی شناسایی کنم. کاری که من انجام میدهم این است که هر بار که توییتی دریافت میکنم، توییت را به خوشهای اختصاص میدهم که درباره همان موضوع توییت صحبت میکند. صرف نظر از الگوریتم خوشهبندی که استفاده میکنم یا اینکه چگونه توییتها را به موضوعات اختصاص میدهم، نمیتوانم نحوه تشخیص موضوع پرطرفدار را بیابم. درک یا تعریف من از خوشه/موضوع پرطرفدار این است که خوشه/موضوع پرطرفدار این است که در یک دوره زمانی معین، توییتهایی را بیشتر از سایر خوشهها دریافت میکند. یا تعداد دفعات به روز رسانی سایز خوشه نسبت به سایر خوشه ها بیشتر است. نحوه تبدیل آن تعریف به کد واقعی یا یک مدل ریاضی چیزی است که من قادر به حل آن نیستم.
|
تشخیص روندها در جریان داده در زمان واقعی
|
16997
|
من در حال تجزیه و تحلیل استفاده از CPU در یک شبکه بزرگ هستم. برای انجام این کار، یک برگه اکسل بزرگ در اختیار من قرار دادند. این شامل batchID (به این معنی است که ما یک CPU را برای اجرای آن کار اختصاص می دهیم) startTime، endTime (یعنی می دانیم که CPU در این مدت به طور کامل اشغال شده است). بر اساس این داده ها، من باید بفهمم که چند دسته در یک نمونه خاص در حال اجرا هستند. بنابراین، من از چت با محور x زمان و محور y تعداد دستههایی است که در هر نمونه زمانی اجرا میشوند، استفاده خواهم کرد. کل فایل بیش از 15000 ردیف در داده های دو روزه است. در اینجا کسری از آن است. BATCHID startTime endTime 560062 13/10/2011 11:59:23 13/10/2011 11:59:26 560061 13/10/2011 08:59:18 13/10/2011 13/10/2011: 13/10/2011 05:59:21 13/10/2011 05:59:30 560059 13/10/2011 02:59:34 13/10/2011 02:59:43 56001058 2011 :24 13/10/2011 01:57:29 560057 13/10/2011 01:57:24 13/10/2011 01:57:28 560056 12/10/2011 23:59:19 2011 23:59:19 :28 560055 12/10/2011 20:59:21 12/10/2011 20:59:30 560054 12/10/2011 18:02:13 12/10/2011 18:02:2011/25256 18:02:13 12/10/2011 18:02:21 560052 12/10/2011 18:02:12 12/10/2011 18:02:21 560051 12/10/2021: 20211: /2011 18:02:16 560050 12/10/2011 18:02:03 12/10/2011 18:02:11 560049 12/10/2011 18:02:10 12/10/2011 12/10/2011 18:02:10 12/10/2011 18:02:11 12/10/2011 18:02:16 560047 12/10/2011 18:02:09 12/10/2011 18:02:13 56001046 5600101201 :04 12/10/2011 18:02:13 560045 12/10/2011 18:02:12 12/10/2011 18:02:21 مورد نیاز: 1. ما به آرایه ای نیاز داریم که داده های برش زمانی را داشته باشد. این می تواند هر 1 دقیقه یا 5 دقیقه باشد. اگر نیاز به تجزیه و تحلیل دو روز برای هر فاصله زمانی 1 دقیقه داشته باشیم، میتوانیم به 2880 نقطه داده برای محور x نیاز داشته باشیم. 2. از آنجا که در هر موردی ممکن است مشاغل زیادی در حال اجرا باشند. ما باید مکانیزمی برای شمارش تعداد دسته های در حال اجرا در آن برش زمانی ایجاد کنیم. من گمان میکنم اکسل 2003 میتواند کار خوبی انجام دهد زیرا تعداد ستونها به 256 محدود است. من از هر توصیهای در مورد نحوه اجرای کارآمد این کار در Octave/MATLAB، ORACLE PL/SQL، R یا Bash Script استقبال میکنم.
|
غلبه بر محدودیت اندازه اکسل برای تجزیه و تحلیل داده های استفاده از شبکه بزرگ
|
88105
|
من در حال یادگیری روش های هموارسازی هسته هستم. من واقعاً تفاوت بین عرض پنجره متریک و پنجره نزدیکترین همسایه را متوجه نشدم. برای من هر دو یکسان به نظر می رسند. کسی میتونه برام توضیح بده؟ برای عناصر یادگیری آماری ** عرض پنجره متریک (h ثابت λ(x))** بایاس تخمین را ثابت نگه دارید، اما واریانس با چگالی محلی نسبت معکوس دارد. **پنجره نزدیکترین همسایه** واریانس ثابت می ماند و بایاس مطلق برعکس با چگالی محلی تغییر می کند.
|
تفاوت عرض پنجره متریک و پنجره نزدیکترین همسایه در روشهای هموارسازی هسته چیست؟
|
12285
|
من می دانم که ()ad.test می تواند برای تست نرمال بودن استفاده شود. آیا می توان ad.test را برای مقایسه توزیع ها از دو نمونه داده دریافت کرد؟ x <- rnorm(1000) y <- rgev(2000) ad.test(x,y) چگونه می توانم تست اندرسون-دارلینگ را روی 2 نمونه انجام دهم؟
|
آیا تست برازش اندرسون عزیز برای دو مجموعه داده وجود دارد؟
|
16990
|
من با R جدید هستم و امیدوارم از «ets» از بسته «پیشبینی» برای پیشبینی دادههای روزانه که دارای الگوی هفتگی هستند استفاده کنم. آیا راهی برای تنظیم طول فصلی روی 7 وجود دارد؟
|
چگونه طول فصلی را با استفاده از تابع ets در R به 7 تنظیم کنیم؟
|
100758
|
با ترسیم نمودار، می توانید ببینید که داده ها خطی هستند یا نه، اساساً می توانید ساختار داده های خود را به راحتی تجزیه و تحلیل کنید و سپس می توانید تصمیم بگیرید که از کدام مدل استفاده کنید. اگر مثلاً یک ویژگی دارید، میتوانید ویژگی و مقدار y آن را ترسیم کنید و یک نمودار دو بعدی به شما میدهد (محور x ویژگی است در حالی که محور y مقدار y است). اگر 2 ویژگی دارید، یک نمودار سه بعدی خواهید داشت. اما اگر 3 ویژگی یا حتی بیشتر داشته باشید چه؟ آیا هنوز هم می توان داده های خود را با استفاده از نمودار تجزیه و تحلیل کرد؟ من می دانم که اگر ابعاد شما بیشتر از 4 باشد، ترسیم نمودار غیرممکن است، اما آیا می توانید هر بار 1 ویژگی و مقدار y را ترسیم کنید؟ فکر کردم قبل از انجام آزمایش ابتدا از شما راهنمایی بخواهم.
|
اگر تعداد ویژگی ها بیشتر از 2 باشد، آیا می توان یک مسئله را با استفاده از نمودار تجزیه و تحلیل کرد؟
|
9111
|
من فرض می کنم R دارای این داخلی است. چگونه به آن ارجاع دهم؟
|
در R چگونه می توانم در cdf جدول توزیع نرمال استاندارد به\lookup مراجعه کنم؟
|
12759
|
من در حال حاضر در تلاش هستم تا چگالی توزیع مشترک K RVهای تک بعدی را تخمین بزنم. من مجموعهای از N نقطه نمونه را در اختیار دارم که هر کدام نتیجهای از K RV را نشان میدهد. برخی از مشخصات در مورد مشکل من: * RVها مستقل هستند * RVها نباید به یک خانواده توزیع تعلق داشته باشند * RVها می توانند همگی گسسته یا پیوسته باشند، اما نه هر دو * من مرزهای بالایی و پایینی هر RV را می دانم. در مورد گسسته، من مقادیری را می دانم که RV می تواند بگیرد. در حال حاضر، من چگالی هر RV را به طور جداگانه با استفاده از تابع ksdensity در متلب تخمین می زنم. سپس فرض استقلال به من اجازه می دهد تا با استفاده از حاصل ضرب چگالی های فردی، چگالی مشترک تولید کنم. امیدوارم با استفاده از روش دیگری (که میتوانم در متلب کدنویسی کنم) یا با بازی کردن با گزینههای موجود در ksdensity (مانند نوع هسته، پشتیبانی، عرض پنجره چگالی) دقت تخمین خود را بهبود بخشم. من به طور خاص امیدوار هستم که مردم بتوانند این موارد را روشن کنند: * از چه روشی برای مورد گسسته در مقابل مورد پیوسته استفاده شود. در مورد گسسته، آیا ارزش تعیین کران و مقادیر را دارد؟ در حالت پیوسته، * آیا هرگز منطقی است که فرض استقلال را فراموش کنیم و توزیع مشترک را به عنوان یک توزیع مشترک تخمین بزنیم * آیا کسی از مطالب خواندنی ساده در مورد این موضوع اطلاع دارد.
|
بهترین روش ها برای تخمین چگالی متغیرهای تصادفی گسسته و پیوسته
|
63707
|
از مقایسه چندگانه ویکیپدیا > برای آزمایش فرضیه، مشکل مقایسههای چندگانه (همچنین به عنوان مشکل آزمایش چندگانه شناخته میشود) از افزایش خطای نوع I ناشی میشود که > زمانی رخ میدهد که از آزمونهای آماری مکرر استفاده میشود. اگر **n مستقل > مقایسه** انجام شود، سطح معنی داری در سطح آزمایش > $\bar{\alpha}$، که FWER برای نرخ خطای خانوادگی نیز نامیده می شود، با $$ > \bar{\alpha} = 1 داده می شود. -\left( 1-\alpha_\mathrm{\\{در هر\ مقایسه\\}} \راست)^n$$ من نمی فهمم چگونه مقایسه ها می توانند مستقل باشند؟ اجازه دهید چندین تست $\\{H_i، K_i، T_i، c_i)، i \in I\\}$ باشد، که در آن تست $i$-th $H_i$ در مقابل $K_i$ است، با آمار تست $T_i$ و مقدار بحرانی $c_i$. اکنون با توجه به یک نمونه $X$، آمار آزمون $T_i(X), i\in I$ نمی تواند مستقل باشد و بنابراین قوانین تست $I_{T_i(X) \geq c_i}$ نمی تواند مستقل باشد. یا آیا من اشتباه می کنم؟ با تشکر
|
استقلال بین مقایسه ها در مقایسه های چندگانه به چه معناست؟
|
9116
|
اول از همه، هشدار دهید: من یک تازه کار در زمینه آمار هستم. من می خواهم یاد بگیرم، اما در حال حاضر یک مشکل تجاری شدید برای حل آن دارم که فکر می کنم (امیدوارم؟) به اندازه کافی ساده است که بتوان به راحتی به آن پاسخ داد. سعی می کنم تا جایی که می توانم ساده توضیح بدهم تا مبهم نباشم. به طور خلاصه، من سعی می کنم راه درستی برای نمایش مجموعه ای از نمودارهای دایره ای پیدا کنم. این نمودارهای دایره ای بخشی از یک پیشنهاد برای کسب و کار جدید هستند. آنها جذب متعارف را در چندین قرارداد از شرکای تیمی مختلف اندازهگیری میکنند. **داده هایی که با آنها کار می کنم:** * شرکت A: [a1] درصد جذب در قراردادهای [b1] * شرکت B: [a2] درصد جذب در قراردادهای [b2] * شرکت C: [a3] درصد از گرفتن در میان قراردادهای [b3] * مجموع: [aT] درصد جذب در قراردادهای [bT] من دادههای مجموعههای 1، 2 و 3 را دارم -- هدف استخراج دادهها برای مجموعه است تی. اساساً، میخواهیم بگوییم کسب و کار A 30٪ در 100 قرارداد، کسب و کار B 50٪ در مقابل 70 قرارداد، و تجارت C 40٪ در مقابل 500 قرارداد داشت نمودارهای دایره ای منفرد البته به اندازه کافی ساده هستند (حتی من می تواند آن را انجام دهد ;))، اما من می خواهم که همه آنها در نمودار دایره ای قرار بگیرند که میانگین درصد همه قراردادها را با کل قراردادها نشان می دهد. برای بیان صریح تر، سوال من این است: چگونه می توانم اطمینان حاصل کنم که درصدهای فردی برای عملکرد شرکت با توجه به تعداد قراردادهایی که به آنها اشاره می کنند وزن دهی شود؟ پیشاپیش از هر کمکی که می توانید بکنید متشکرم! بهترین ها، \-- شان
|
چگونه درصدهای کمک کننده را به درستی وزن کنیم؟
|
12753
|
من به دنبال یک تکنیک انتخاب متغیر در R برای کاهش تعداد پیشبینیکنندههای رگرسیون هستم، جایی که میتوانم روش را مجبور کنم یک متغیر خاص را در مدل نگه دارد. در اینجا یک مثال اسباب بازی از کمک R از ?step آمده است، متغیر Examination حذف خواهد شد: summary(lm1 <- lm(Fertility ~ ., data = Swiss)); slm1 <- step(lm1); خلاصه (slm1);
|
اجبار انتخاب متغیر برای حفظ پیش بینی کننده معین در R
|
64721
|
من مدل مخاطرات متناسب کاکس را مطالعه کرده ام و این سوال در اکثر متون محو شده است. کاکس برازش ضرایب تابع خطر را با استفاده از روش درستنمایی جزئی پیشنهاد کرد، اما چرا ضرایب یک تابع بقای پارامتری را با استفاده از روش حداکثر درستنمایی و یک مدل خطی برازش نمیدهیم؟ در هر موردی که دادهها را سانسور کردهاید، فقط میتوانید ناحیه زیر منحنی را پیدا کنید. به عنوان مثال، اگر تخمین شما 380 با انحراف معیار 80 باشد، و یک نمونه سانسور شده باشد > 300، در این صورت احتمال 84 درصد برای آن نمونه در محاسبه احتمال با فرض خطای عادی وجود دارد.
|
در تحلیل بقا، چرا به جای تابع بقا، تابع خطر را مدل می کنیم؟
|
63708
|
من 2 نمونه دارم و میخواهم تفاوت میانگینها را آزمایش کنم تا ببینم آیا آنها به هم مرتبط هستند یا نه، بنابراین فکر میکنم باید یک آزمون t زوجی انجام دهم. بیش از 60 مشاهده در هر جفت وجود دارد. آیا می توان از آزمون t زوجی برای N بالای 30 استفاده کرد؟
|
آزمون t زوجی برای N > 30
|
12281
|
سیستم های خطی معادلات در آمار محاسباتی فراگیر هستند. یک سیستم خاص که من با آن مواجه شده ام (مثلاً در تحلیل عاملی) سیستم $$Ax=b$$ است که در آن $$A=D+ B \Omega B^T$$ در اینجا $D$ یک قطر $n\times n$ است. ماتریس با قطر کاملا مثبت، $\Omega$ یک $m\ بار m$ (با $m\ll n$) متقارن ماتریس مثبت نیمه معین است، و $B$ یک ماتریس دلخواه $n\times m$ است. از ما خواسته شده است که یک سیستم خطی مورب (آسان) را که توسط یک ماتریس رتبه پایین آشفته شده است، حل کنیم. راه ساده برای حل مشکل بالا این است که $A$ را با استفاده از فرمول Woodbury معکوس کنید. با این حال، این به نظر درست نیست، زیرا فاکتورسازی Cholesky و QR معمولاً می تواند حل سیستم های خطی (و معادلات عادی) را به طور چشمگیری سرعت بخشد. من اخیراً به مقاله زیر رسیدم که به نظر می رسد رویکرد Cholesky را دارد و به ناپایداری عددی وارونگی Woodbury اشاره می کند. با این حال، مقاله به صورت پیش نویس به نظر می رسد، و من نتوانستم آزمایش های عددی یا تحقیقات پشتیبان را پیدا کنم. وضعیت هنر برای حل مشکلی که توضیح دادم چیست؟
|
محاسبه سریع / تخمین یک سیستم خطی با رتبه پایین
|
95453
|
من در حال کار بر روی مقایسه چندین الگوریتم خوشه بندی با یکدیگر با استفاده از شاخص رند تنظیم شده برای یک مجموعه داده معین هستم. ما یک استاندارد طلایی داریم که میخواهیم تکالیف خوشهبندی بهدستآمده را با آن مقایسه کنیم. سوال اصلی من این است: آیا استفاده از اعتبارسنجی متقاطع برای مقایسه مقادیر شاخص رند تنظیم شده رایج است؟ به نظر نمی رسد که در ادبیات پاسخ خوبی برای سوالم پیدا کنم. مشکل دیگر این است که برای برخی از الگوریتمهای خوشهبندی که من استفاده میکنم، واقعاً هیچ روش خوبی برای محاسبه انتساب خوشهبندی برای دادههایی که حذف میشوند، ندارند. من به خوشه بندی سلسله مراتبی و خوشه بندی طیفی فکر می کنم. به جای اجرای اعتبارسنجی متقاطع، من به سادگی تکنیک های خوشه بندی را 10 بار تکرار می کنم و سپس آزمون t را محاسبه می کنم تا تعیین کنم که آیا تفاوت از نظر آماری معنی دار است یا خیر. روزهای تجزیه و تحلیل خوشهبندی من باعث میشود فکر کنم که این یک مشکل خواهد بود.
|
اعتبار سنجی متقابل برای مقایسه تکنیک های خوشه بندی
|
16998
|
من در تعجب بودم که چگونه دقت طبقه بندی کننده خود را با یک طبقه بندی تصادفی مقایسه کنم. من قصد دارم بیشتر توضیح دهم. فرض کنید مشکل طبقه بندی باینری داریم. ما $n^+$ مثال های مثبت و $n^-$ مثال های منفی در مجموعه تست داریم. من این را می گویم و رکورد با احتمال $p$ مثبت است. من می توانم تخمین بزنم که به طور متوسط من دریافت می کنم: $$TP = pn^+ \ TN=(1-p)n^- \ FN = pn^- \ FP = (1-p)n^+$$ بنابراین $ $\mbox{acc} = \frac{TP+TN}{TP+TN+FP+FN} = \frac{pn^+ + (1-p)n^-}{pn^+(1-p)n^-pn^- + (1-p)n^+}$$ یعنی $$ = \frac{pn^+ + (1 -p)n^-}{n^+ + n^-}$$ برای مثال اگر $n^+=n^-$ داشته باشیم دقت همیشه $1/2$ برای هر $p$ است. این را می توان در طبقه بندی چند کلاسه گسترش داد: $$\mbox{acc} = \frac{\sum_{i=1}^c p_i n_i}{\sum n_i}$$ که در آن $p_i$ احتمال گفتن این است در کلاس $i$th، و $n_i$ تعداد رکوردهای کلاس $i$ است. همچنین در این مورد، اگر $n_i = n/c \ \forall i$، سپس $$\mbox{acc} = 1/c$$، اما چگونه می توانم دقت طبقه بندی کننده خود را بدون ذکر مجموعه آزمایشی مقایسه کنم؟ به عنوان مثال، اگر بگویم: دقت طبقهبندیکننده من 70% است (به نوعی تخمین زده میشود، مثلاً اعتبارسنجی متقابل)، آیا در مقایسه با طبقهبندیکننده تصادفی خوب است یا بد؟
|
دقت طبقه بندی کننده تصادفی
|
12282
|
من سعی می کنم سری های زمانی سهام را برای یک مورد خاص پیش بینی کنم که در آن ارزش بسته شدن سهام به عوامل مستقلی بستگی دارد که در واقع سری زمانی دیگری است. وضعیت به این صورت است که باید ارزش سهام فردا را بر اساس چند متغیر مستقل که برای هر روز نیز تعریف میشوند، پیشبینی کنم. یک سری زمانی به سری زمانی مستقل دیگر وابسته است. اما ممکن است سریال نقشه برداری نباشد. مقدار سری وابسته می تواند بیشتر با مقدار متغیر مستقل دیروز یا زمانی در گذشته مرتبط باشد، اما به مقادیر گذشته خود سری نیز وابسته است. من برای حل این مشکل از طریق مدل ساز خبره SPSS به مدل سازی ARIMA می روم. لطفاً کسی این موضوع را روشن کند و اینکه چگونه باید روی این موضوع کار کنم یا در درجه اول چگونه به این مشکل برخورد کنم؟ این سوال از نظر آمار بسیار اساسی است و من فقط یک مبتدی هستم. SOS= ترس از آمار. تشکر صمیمانه
|
پیش بینی سری زمانی قیمت سهام بر اساس عوامل مستقل با استفاده از مدل آریما
|
73231
|
من در حال مطالعه صفحه ویکی پدیا در آزمون کولموگروف-اسمیرنوف، به ویژه بخش با عنوان Kolmogorov_distribution هستم. $x$ $D_\text{max}$ در CDF $Pr(k\leq x)$ است؟ سوال من این است که تعداد امتیازها هم مهم است، درست است؟ وقتی $n$ بزرگ است، $x$ تقریباً $\sqrt n D_\text{max}$ است؟ این یک عکس فوری از بخش از ویکیپدیا است:  * * *  Q1 چگونه توزیع $D_n$ را هنگامی که $n$ ثابت است بدست آوریم؟ Q2 اگر من مقدار $D_\text{max}$ را دریافت کنم و اندازه نمونه $n$ باشد، باید $Pr(K<=x)$ را محاسبه کنم، درست است؟ آیا $D_\text{max}$ در فرمول صفحه ویکیپدیا $x$ است؟ با فرمول 14.3.9 _Numerical Recipes_، باید مقداری را از عبارت داخل پرانتز محاسبه کنیم - آیا باید x$ باشد؟ زمانی که $n$ بزرگ باشد، مقدار تقریبی $\sqrt n D_\text{max}$ است. من اینجا کلا گیج شدم Q3 ما آزمایش می کنیم و توزیع می کنیم، درست است؟ لطفاً شکل خود را به روش تست توضیح دهید؟ شاید دنبال کردن آن راحت تر باشد. * * * من چندین مقدار (اهمیت) را محاسبه می کنم و آنها را با جدول جداول مقایسه می کنم. $x$ در $Pr(K<=x)$$D_{max}$ نیست. اگر اندازه نمونه بزرگ است، x است $( \sqrt{n}+0.12+0.11/\sqrt{n})*D_{max}$. یعنی هیچ خطایی در 14.4.9 NR وجود ندارد . اهمیتی که می خواهیم به دست آوریم با اندازه نمونه و $D_{max}$ تعیین می شود. لطفا اجازه دهید سوالاتم را به صورت تست توضیح دهم. فرض کنید حجم نمونه 30 باشد، یک مجموعه داده 30 امتیازی به دست می آوریم و می توانیم از مقایسه بین توزیع تجربی نمونه و توزیع احتمال مرجع، D_{max}$ بدست آوریم. ما این کار را 1000 بار انجام می دهیم و 1000 دلار D_{max}$ دریافت می کنیم. توزیعی برای $D_{max}$ وجود دارد، درست است؟ از رقم شما، باید 1000*0.01 امتیاز با D_{max}$ بزرگتر از 0.29 و 1000*0.05 امتیاز با D_{max}$ بیشتر از 0.24، بیشتر یا کمتر باشد. * * * همانطور که شما گفتید من خیلی گیج هستم. لطفاً اجازه دهید ابتدا از درست یا غلط بودن چندین عبارت زیر مطمئن شوم. وقتی حجم نمونه بزرگ است، روش محاسبه من درست است؟ میتوانیم $(\sqrt{n}+0.12+0.11/\sqrt{n})*D_{max}$ را به عنوان x به عنوان ورودی به $Pr(K<=x)$ در نظر بگیریم و از این طریق میتوانیم معنی را دریافت کنیم وقتی اندازه نمونه بزرگ است، درست است؟ فرض کنید حجم نمونه 30 باشد، یک مجموعه داده 30 امتیازی به دست می آوریم و می توانیم از مقایسه بین توزیع تجربی نمونه و توزیع احتمال مرجع، D_{max}$ بدست آوریم. ما این کار را 1000 بار انجام می دهیم و 1000 دلار D_{max}$ دریافت می کنیم. توزیعی برای $D_{max}$ وجود دارد، درست است؟ از رقم شما، باید 1000*0.01 امتیاز با D_{max}$ بزرگتر از 0.29 و 1000*0.05 امتیاز با D_{max}$ بزرگتر از 0.24 وجود داشته باشد. آیا این شکل شما به ما می گوید؟
|
آمار آزمون در آزمون کولموگروف اسمیرنوف چیست؟
|
64730
|
من دادههایی دارم که شامل چند متغیر پیوسته و چند متغیر طبقهای است. من می خواهم بر روی آنها رگرسیون لجستیک انجام دهم. من در مورد تمایز بین متغیرهای طبقه ای و پیوسته گیج می شوم. من می دانم که یک متغیر طبقه بندی شده متغیری است که می تواند یکی از مقادیر محدود و معمولاً ثابتی از مقادیر ممکن را به خود بگیرد. با این حال، من در تشخیص برخی از این متغیرها مشکل دارم. اگر پاسخ های داده شده در اینجا را به درستی درک کنم، داده های غیر عددی نمی توانند پیوسته باشند، اما آیا برخی از متغیرهای عددی دسته بندی هستند؟ به عنوان مثال، یکی از متغیرها تعداد روزهایی است که در طی آنها کاری انجام داده اید. این متغیر خروجی های ممکن زیادی دارد (از تعداد روز = 1 تا 10000). تعداد مقادیر ممکن محدود و در عین حال بسیار زیاد است. آیا این یک متغیر مقوله ای است یا پیوسته؟
|
آیا یک متغیر شمارش با تعداد مقادیر زیاد، اما محدود، مقوله ای است یا پیوسته؟
|
12750
|
بنابراین... فرض کنید من داده هایی دارم که شبیه این هستند...  (همانطور که اکنون به آن نگاه می کنم، در داده های واقعی خط قرمز حدود 20% کوتاه تر از سیاه است (در بالاترین سطح ... اما شما این ایده را دریافت می کنید) من یک مدل جلوه های ترکیبی ساخته ام (lmer) که در آن اثر x-predictor و و همچنین یک اثر از من فکر می کنم که اگر محور x را در مدل خود متمرکز کرده باشم، مقایسه بین رنگ ها کاملاً خوب است مقایسه بین رنگ ها خطوط کاملاً موازی نیستند، اما تعامل آنقدر نزدیک به 0 است که می توان دریافت کرد.
|
استنباط در مورد خطوط غیر همپوشانی
|
12756
|
دیشب یک محاسبه پیچیده با gamm() شروع کردم و طول کشید... > > سیستم کاربر سپری شد > 9259.76 326.05 9622.64 (s) > ... یعنی 160 دقیقه یا 2.67 ساعت طول کشید تا آن محاسبه را انجام دهم. مشکل اینجاست که من باید حدود 50 یا حتی 100 مورد دیگر را انجام دهم! بنابراین می خواستم بدانم آیا راهی وجود دارد که بتواند این محاسبات را سرعت بخشد. من نسخه 32 بیتی را با نسخه 64 بیتی (4 گیگابایت) و R 2.12.2 مقایسه کردم تا یک gamm() کمتر پیچیده را محاسبه کنم. > راه حل 32 بیت > > > سیستم کاربر سپری شده > 41.87 0.01 42.01 > > > راه حل 64 بیت > > > سیستم کاربر سپری شده > 40.06 2.82 43.05 > اما استفاده از 64 بیت حتی بیشتر طول کشید! سوال من در حال حاضر: > آیا خرید رم بیشتر، به عنوان مثال 8 گیگابایت DDR3، کمکی خواهد کرد؟ یا این هدر دادن پول است؟ یا بسته کامپایلر در R 2.13.0 می تواند به درستی آن را مدیریت کند؟ من فکر نمی کنم که rcpp بتواند توابع gamm() را مدیریت کند، > یا اشتباه می کنم؟ هر نظر خوش آمدید! فراخوانی مدل gamm() برای فرآیند 160 دقیقه این بود: g1 <- gamm(CountPP10M ~ s(tempsurf,bs=cr) + s(salsurf,bs=cr) + s(speedsurf,bs=cr ) + s(Usurf,bs=cr) + s(Vsurf,bs=cr) + s(Wsurf,bs=cr) + s(water_depth,bs=cr) + s(distance.to.bridge,bs=cr) + s(dist_land2,bs=cr) + s( Dist_sventa،bs=cr)، data=data، random=list(ID_Station=~1)، family=poisson، method=REML کنترل=lmc))
|
چگونه گام R را سریعتر کنیم؟
|
71481
|
با توجه به مجموعه داده $\mathbf{X}\in\mathbb{R}^{n\times p}$، که $n$ تعداد نمونهها (مشاهدات) و $p$ تعداد ویژگیها است، دوست دارم بدانم چه نوع روش هایی برای یادگیری شبکه پنهان رابطه بین ویژگی ها و شناسایی گروه های مربوطه از این شبکه وجود دارد. من در مورد خروجی مدلهای گرافیکی احتمالی و روشهای منظمسازی ساختاری پراکنده کمی سردرگم هستم. آیا می توان از مدل های گرافیکی احتمالی (روش های بیزی یا کمند گرافیکی) برای یادگیری شبکه از یک مجموعه داده استفاده کرد؟ آیا می توان از روش های منظم سازی ساختاری پراکنده (گروه کمند، گراف کمند و غیره) برای کشف ساختارهای مرتبط (جامعه) از شبکه آموخته شده استفاده کرد؟ آیا این دو رویکرد مکمل یکدیگرند؟ آیا می توانید مقالات مرتبطی را به من پیشنهاد دهید؟
|
یادگیری شبکه/ساختار
|
100751
|
در یکی از اسلایدهای یک دوره آماری که دنبال کردم موارد زیر در مورد استفاده از drop1 یا ANCOVA بیان شده است. > با استفاده از drop1، p-values نشان داده شده، p-value برای حذف یک متغیر در یک > از مدل کامل هستند، در حالی که p-value ها در خروجی anova > متوالی هستند، مانند یک استراتژی افزایشی. این مشکل در ANOVA > یا رگرسیون خطی ایجاد نمیشود، فقط در ANCOVA و مدلهای مختلط.) من به مدت 20 دقیقه به آن نگاه کردم، و نمیتوانم بفهمم که اگر این درست است چرا کسی همچنان از دستور «anova()» در R استفاده میکند. به هر حال آیا کسی ایده ای دارد؟ دلیل اینکه من این سوال را اینجا مطرح می کنم این است که موضوع چند ماه پیش مطرح شده است.
|
R: تفاوت بین ANCOVA و drop1 چیست؟
|
100753
|
یک سوال بیان می کند: $X$ بردار رگرسیون های انباشته شده برای 30 مشاهده و $Rank(X)=5$ است. هیچ تاخیر $y_t$ در مجموعه $X_t$ وجود ندارد. با استفاده از آماره دوربین واتسون، فرضیه صفر عدم وجود خودهمبستگی را در سطح معنی داری 5 درصد آزمایش کنید. سپس تست DW را با $k=4$ اجرا می کنند. تا اونجایی که من میدونم این مقدار رگرسیونه درسته؟ چگونه می تواند 4 باشد (و نه 5) وقتی رتبه ماتریس X$ 5 است؟
|
رتبه ماتریسی و مقدار رگرسیورها
|
12283
|
## مشکل من دارم یک تابع R می نویسم که یک تحلیل بیزی برای تخمین چگالی خلفی با توجه به داده های قبلی و آگاهانه انجام می دهد. من می خواهم اگر کاربر نیاز به تجدید نظر در مورد قبلی داشته باشد، عملکرد یک هشدار ارسال کند. در این سوال، من علاقه مند هستم که یاد بگیرم چگونه یک پیشین را ارزیابی کنم. سوالات قبلی مکانیزم بیان پیشین های آگاه را پوشش داده اند (اینجا و اینجا). به عنوان مثال، اگر داده ها بر حسب گرم باشد، زمانی که پیشین بر حسب کیلوگرم باشد) * پیشینی اشتباه از بین مجموعه ای از پیشین های موجود به دلیل وجود اشکال در کد انتخاب شده است. به اندازهای منتشر میشود که دادهها عموماً آنها را تحت الشعاع قرار میدهند، مگر اینکه مقادیر دادهها در یک محدوده پشتیبانینشده قرار بگیرند (مثلاً <0 برای logN یا Gamma). موارد دیگر باگ یا خطا هستند. ## سوالات 1. آیا در رابطه با اعتبار استفاده از داده ها برای ارزیابی قبلی، مسائلی وجود دارد؟ 2. آیا آزمایش خاصی برای این مشکل مناسب است؟ ## مثالها در اینجا دو مجموعه داده وجود دارد که با یک $logN(0,1)$ قبلی مطابقت ضعیفی دارند، زیرا از جمعیتهایی با $N(0,5)$ (قرمز) یا $N(8,0.5)$ هستند. (آبی). داده های آبی می تواند یک ترکیب داده قبلی + معتبر باشد در حالی که داده های قرمز به توزیع قبلی نیاز دارند که برای مقادیر منفی پشتیبانی می شود.  set.seed(1) x<- seq(0.01,15,by=0.1) plot(x, dlnorm(x )، نوع = 'l'، xlim = c(-15،15)، xlab=''،ylab='') نقاط (rnorm(50,0,5),jitter(rep(0,50),factor =0,2, cex = 0,3, col = 'red') points(rnorm(50,8,0.5),jitter(rep( 0،50)، ضریب = 0.4)، cex = 0.3، col = 'آبی')
|
آیا می توانم اعتبار داده های داده شده قبلی را آزمایش کنم؟
|
64738
|
من 6 متغیر دارم که سه تای آنها تقسیمهای میانه و سه تای آنها معیارهای پیوسته «فلانی» هستند، که هر کدام در همان مقیاس 5 نقطهای اندازهگیری میشوند. من سعی می کنم نموداری تولید کنم که تقسیمات میانه سه متغیر در محور X را در برابر میانگین امتیاز محور Y رسم کند. در اصل، من سعی می کنم به جای 9 نمودار، سه نمودار خلاصه تولید کنم. یعنی به جای ترسیم هر متغیر تقسیم میانه بر روی محور Y، میخواهم تقسیمهای میانه هر سه متغیر را در برابر میانگین متغیر روی محور Y رسم کنم. آیا راهی برای این کار وجود دارد؟
|
نمودار خطی مقایسه متغیرهای چندگانه SPSS
|
100759
|
این سؤال انجمن Math Overflow «نمونههایی از استدلالهای بد که شامل کاربرد قضایای ریاضی در زمینههای غیرریاضی میشود» و فهرستی جذاب از ریاضیات کاربردی آسیبشناسانه را ارائه کرد. من در مورد نمونه های مشابهی از استفاده های آسیب شناختی از استنتاج بیزی تعجب می کنم. آیا کسی با مقالات آکادمیک، پستهای وبلاگ عجیب و غریب که از روشهای بیزی به روشهای نامرتب استفاده میکنند، مواجه شده است.
|
نمونه هایی از کاربرد نادرست قضیه بیز
|
12288
|
من درک مبهمی از روش ارسال پیام دارم: الگوریتمی که تقریب یک توزیع را با تقریب تکراری هر یک از عوامل توزیع مشروط به همه تقریبهای همه عوامل دیگر میسازد. من معتقدم که هر دو نمونهای از ارسال پیام متغیر و انتشار انتظار هستند. الگوریتم ارسال پیام به طور صریحتر/درست چیست؟ مراجع خوش آمدید.
|
روش ارسال پیام چیست؟
|
100757
|
فرض کنید من یک برنامه (P1) دارم که حداقل مسیر یک گراف را تقریبی می کند. سپس فکر می کنم برنامه را بهبود دادم (شاید با چند الگوریتم مختلف) بنابراین برنامه دیگری دارم (P2). من می توانم تست های مختلفی را برای هر برنامه اعمال کنم، برای هر تست می دانم که آیا پاسخ برنامه به مسیر حداقل واقعی نزدیک است یا خیر (0 → نزدیک نیست، 1 → نزدیک است) فرض کنید این مقادیر را به دست آورده ام: Test1 Test2 Test3 … تست n P1 0.20 0.70 0.40 … ... P2 0.30 0.61 0.44 … ... اگر بخواهم از چه نوع آزمون آماری استفاده کنم آیا می دانید که آیا برنامه دوم واقعاً بهبود برنامه اول است؟ یا شاید آنها فقط یکسان هستند؟ شاید P2 بدتر باشد؟ من مطمئن نیستم که آیا می توانم تست فیشر را اعمال کنم ... زیرا این یک جدول احتمالی نیست. خیلی ممنون،
|
آیا می توانم از تست فیشر استفاده کنم؟
|
21156
|
من به تشخیص الگو با HMM (با c++ یا پایتون) نزدیک می شوم. داده های من مختصات x و y (نرمال شده بین 1،1-) دست در یک ویدیوی ضبط شده است و من می خواهم آن را تشخیص دهم. این چیزی است که من برای طبقهبندی دستی که ژست میدهد (مثلاً یک دایره) میدانم: * به مقداری داده قطار (مثلاً N ویدیوی متفاوت با دستی که یک دایره میسازد) با اندازه یکسان (مختصات X (x) نیاز دارم. ,y) دست) * من باید یک HMM (به نام HMM_circle) را با الگوریتم های BAUM-WELCH (یا یک الگوریتم مبتنی بر EM تعاملی) مقداردهی اولیه کنم و پارامترهای HMM_circle. * HMM_circle دارای X حالت مشاهده شده و Y حالت پنهان است. * مشاهدات جدید (برخی مختصات جدید حرکت برای طبقه بندی) new_OBS را ضبط کنید. اندازه new_OBS باید X باشد. * احتمال new_OBS را با توجه به مدل مارکوف پنهان HMM_circle با الگوریتم BACKWARD-FOREWARD پیدا کنید. این احتمال عددی بین 0 و 1 است. اگر بزرگتر از آستانه باشد (به عنوان مثال 0.8) به عنوان یک دایره طبقه بندی می شود. الان یه چیزی دارم که مشخص نیست چند حالت پنهان در HMM_circle (Y) من وجود دارد؟ مدت زمان داده های قطار (X)؟ چند داده قطار (N)؟ چرا؟ متأسفم، من تازه شروع به یادگیری ماشینی کردم.
|
تشخیص ژست با HMM
|
21153
|
همکاران از من در این زمینه کمک می خواهند که من واقعاً نمی دانم. آنها فرضیه هایی را در مورد نقش برخی از متغیرهای پنهان در یک مطالعه مطرح کردند و یک داور از آنها خواست که این موضوع را در SEM رسمی کنند. از آنجایی که چیزی که آنها نیاز دارند خیلی سخت به نظر نمی رسد، فکر می کنم آن را امتحان کنم ... در حال حاضر، من فقط به دنبال یک مقدمه خوب برای موضوع هستم! گوگل در این مورد واقعا دوست من نبود. پیشاپیش با تشکر فراوان... PS: من مدلسازی معادلات ساختاری با sem Package در R نوشته جان فاکس و این متن از همان نویسنده را خواندم. من فکر می کنم این می تواند برای هدف من کافی باشد، به هر حال هر مرجع دیگری استقبال می شود.
|
مقدمه ای بر مدل سازی معادلات ساختاری
|
64088
|
من از R استفاده می کنم، اما تابع چگالی به نمونه های واقعی نیاز دارد، اما من فقط داده های هیستوگرام را دارم. آیا هنوز هم می توانم از تخمین چگالی هسته استفاده کنم یا ابزار بهتری برای این کار وجود دارد؟
|
آیا می توانم از تخمین چگالی هسته زمانی استفاده کنم که فقط داده های هیستوگرام داشته باشم، نه مقادیر خام؟
|
104055
|
من هنگام ساخت یک مدل از اعتبارسنجی متقاطع k-fold (10 برابر) استفاده می کنم. من از آن فقط برای برآورد خطای خارج از نمونه استفاده می کنم، نه برای انتخاب مدل از نامزدها. به عنوان مثال، اگر 30 امتیاز داشته باشم، از 27 امتیاز برای آموزش یک مدل رگرسیونی استفاده می کنم و خطای پیش بینی (مربع) 3 باقی مانده را ثبت می کنم: (yPrediction- yActual)^2. این کار را 10 بار تکرار می کنم تا زمانی که تمام 30 امتیاز یک بار به عنوان 3 امتیاز تست استفاده شود. برای هر مدل، میانگین 3 خطای پیشبینی را به عنوان تخمینی برای خطای آن مدل خاص در نظر میگیرم. سپس این میانگین ها برای برآورد کلی خطای خارج از نمونه (در تمام 10 مدل ساخته شده) میانگین می شوند. در نهایت، من از تمام 30 نقطه به طور همزمان برای ساخت یک مدل نهایی استفاده می کنم. از درک من، جذر میانگین خطاهای پیشبینی مجذور، RMSECV است. گام بعدی استفاده از آن برای ارائه فاصله پیش بینی در نقاط جدید است. به عنوان مثال، نقطه جدید 10+/- PI خواهد بود، که در آن PI کمیتی بر اساس برآورد خطا از CV و برخی پارامترهای اطمینان (مثلاً 95٪) است. من فکر می کنم این یک روش معمول در یادگیری ماشینی است، اما من در تلاش هستم تا بفهمم چگونه از CV به فواصل پیش بینی بروم. آیا کسی کتاب یا مقاله خوبی دارد که این موضوع را به زبان عامیانه توضیح دهد؟ من واقعا اهل ML یا پیشینه آمار نیستم. PS: من از MATLAB استفاده می کنم. مثال استفاده (اضافه شده برای وضوح سوال): به عنوان مثال، فرض کنید من یک رگرسیون خطی 1 متغیر را به عنوان مدل خود با استفاده از داده های آموزشی برای نقاط [1،3،7،10،12،15] می سازم. من مدل خود را در حین ساخت با LOOCV تست می کنم و CV RSME من 2.4 است. من چند نقطه دیگر را تست کردم و EOut RSME حدود 2.3 است (خیلی شبیه به خطای اعتبارسنجی). من از این راضی هستم و می خواهم از مدل برای پیش بینی پاسخ های جدید استفاده کنم. بنابراین، من ورودی 5 را به مدل خود می دهم و پاسخ پیش بینی شده 40 است. با این حال، من از RSME غیر صفر می دانم که مدل من دارای خطا است. من آن را کمیت کرده ام. بنابراین، ترجیح میدهم به کاربر بگویم که پاسخ چیزی نزدیک به 40 +/- مقداری تحمل (با اطمینان X٪) است. چیزی شبیه به 40 +/- 3 (با اطمینان 95٪)، به جای فقط 40. آیا می توان این کار را با CV RMSE انجام داد یا به اطلاعات بیشتری نیاز دارم؟ آیا می توان آن اطلاعات (به عنوان مثال توزیع) را فرض کرد؟ با تشکر
|
محاسبه فواصل پیش بینی با اعتبار متقابل؟
|
113238
|
فرض کنید من تعدادی داده تجربی اندازه گیری شده دارم و می خواهم آن را با قانون توانی به شکل $y=ax^b$ مطابقت دهم. فرض کنید داده ها را به فضای log-log تبدیل می کنم و سپس یک خط مستقیم به شکل $y=mx+n$ قرار می دهم. روش به دست آوردن بهترین خط مناسب مهم نیست. اما برآوردهای شیب، $\hat{m}$، و رهگیری، $\hat{n}$، که من به دست آوردم، بی طرفانه هستند، به این معنی که $E(\hat{m})=m$ و $E( \hat{n})=n$. سوال من این است که وقتی هر دوی این تخمین ها را در فضای خطی در نظر بگیرم چه اتفاقی می افتد؟ آیا $E(\hat{m})=b$ است؟ آیا $E(e^\hat{n})=a$ است؟ اولین انتظار $E(\hat{m})=b$، نمی دانم چه انتظاری داشته باشم. وقتی آن را از فضای log-log به فضای خطی در نظر می گیریم، هیچ تغییری در $\hat{m}$ وجود ندارد. آیا یک تخمین بی طرفانه از توان مقیاس بندی باقی می ماند؟ انتظار دوم، $E(e^\hat{n})=a$ مطمئنم نادرست است زیرا نمایی عملگر خطی نیست و با عملگر انتظار جابهجا نمیشود. اما پس $E(e^\hat{n})$ چیست؟ چگونه می توانیم آن را اصلاح کنیم؟ چه نوع تصحیحی را می توانیم اعمال کنیم تا بتوانیم از $\hat{n}$ برای به دست آوردن تخمین بی طرفانه $a$ استفاده کنیم؟ اصلا امکانش هست؟ هر گونه مرجع منتشر شده نیز قدردانی خواهد شد.
|
برآوردهای بی طرفانه تغییر ناپذیر
|
81309
|
آیا قراردادی برای استفاده از روشهای تصحیح بایاس در مدلهای مختلط خطی تعمیمیافته سمت G (GLMM) وجود دارد؟ برای مدلهای مختلط خطی، من معمولاً از تنظیم Kenward و Roger استفاده میکنم، اما برای GLMMهای سمت G تعریف نشده است. داده های من از یک طرح فاکتوریل 2×3 با اندازه گیری های مکرر در یک بلوک کامل تصادفی است. متغیر پاسخ دو جمله ای است و من از یک لینک logit استفاده می کنم. من از تقریب انتگرال (من لاپلاس و ربع را امتحان کرده ام) به جای PL استفاده می کنم زیرا می خواهم آمار برازش را برای ساختارهای کوواریانس مختلف مقایسه کنم، اما فکر می کنم روی یک ساختار خودرگرسیون ناهمگن قرار گرفته ام. مشکل این است که بسته به اصلاحی که استفاده میکنم، نتایج مدلهای مختلفی دریافت میکنم. تا کنون من مدل را به 3 روش اجرا کرده ام: 1. برآوردهای اصلاح نشده 2. برآوردگرهای ساندویچ (تجربی/کلاسیک) 3. برآوردگرهای ساندویچ با مورل و همکاران. تنظیم آزمون های F بسته به روش، نتایج متفاوتی دارند... به نظر می رسد تصحیح مورل فوق العاده محافظه کارانه است، برآوردگرهای ساندویچ تجربی کاملا آزاد هستند و برآوردهای اصلاح نشده جایی در وسط هستند. من در حال حاضر از روش GLIMMIX در SAS استفاده می کنم اما قصد دارم آنالیز را در R تکرار کنم. کدام نتایج را گزارش کنم؟ من با GLMM ها تازه کار هستم، اما خوانده ام که برخی از روش های تصحیح باید برای محاسبه سوگیری رو به پایین مرتبط با تخمین اثرات ثابت پس از محاسبه اثرات تصادفی اجرا شود.
|
روش های تصحیح سوگیری در GLMM های سمت G
|
49731
|
اگر از «lme» برای ANOVA مختلط استفاده کنم به صورت زیر برای هر سطح از درون عامل؟ این توصیه عالی برای استفاده از «anova» با آرگومان «L». ولی نمیتونم بفهمم چطوری با تشکر از کمک
|
مقایسه بین گروهی برای هر سطح از عوامل درونی
|
81302
|
در رگرسیون خطی، پارامترهای $b$ را می توان به این صورت تخمین زد (حداقل مربع): \begin{align*} X'Xb &= X'y \\\ b &= (X'X)^{-1}X 'y \end{align*} اما از دیدگاه دیگری: \begin{align*} X'Xb &= X'y \\\ Xb &= (X')^{-1}X'y \\\ &= Iy = y \end{align*} من را گیج می کند، زیرا اگر این درست باشد، آنگاه $e = y - Xb = 0$.
|
باقیمانده ها در رگرسیون خطی صفر هستند، اینجا چه اشکالی دارد؟
|
64081
|
فرض کنید من یک توزیع گسسته دارم که با بردار $\theta_0، \theta_1، ...، \theta_N$ تعریف شده است، به طوری که دسته $0$ با احتمال $\theta_0$ و غیره ترسیم می شود. سپس متوجه می شوم که برخی از مقادیر موجود در توزیع آنقدر کوچک هستند که نمایش عدد ممیز شناور کامپیوتر من را زیر سیال می گذارند، بنابراین، برای جبران، تمام محاسباتم را در فضای log-space انجام می دهم. اکنون من یک بردار log-space $log(\theta_0), log(\theta_1), ..., log(\theta_N)$ دارم. آیا می توان از توزیع به گونه ای نمونه برداری کرد که احتمالات اصلی باقی بمانند (دسته $i$ با احتمال $\theta_i$ ترسیم می شود) اما بدون خروج از log-space؟ به عبارت دیگر، چگونه می توانم از این توزیع بدون underflow نمونه برداری کنم؟
|
چگونه از یک توزیع گسسته (طبقه ای) در فضای گزارش نمونه برداری کنم؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.