_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
107998
|
در برازش توزیع مخلوط t دانشجویی دو جزئی به برخی داده ها (باقیمانده های استاندارد شده GARCH) یکی از اجزا دارای درجه آزادی تخمینی 0.6 است. این بدان معنی است که حتی اولین لحظه توزیع مخلوط وجود نخواهد داشت. بسته gamlss.mx در R برای تخمین استفاده می شود. به نظر می رسد gamlss.control، glim.control و MX.control از این نوع گزینه پشتیبانی نمی کنند -- یا من نتوانستم بفهمم چگونه... آیا راهی برای محدود کردن تخمین پارامترهای درجه آزادی وجود دارد که بزرگتر از مثلاً باشد. ، 3؟
|
برازش محدود توزیع مخلوط دو جزئی در R امکان پذیر است؟
|
72480
|
سناریو به این صورت است: من با 2000 نفر همگروهی دارم که نیمی از آنها دارو مصرف می کنند و نیمی دیگر آن را مصرف نمی کنند. من می خواهم تعاملات بین DRUG و سایر متغیرهای مدل را بررسی کنم: * **روش 1:** ابتدا یک مدل اصلی دریافت کردم: `y1=a1*AGE+b1*BMI+c1*DRUG`,[`DRUG` ` باینری است: yes-1, no-0]; احتمال 1 گرفتم. اگر بخواهم تعامل «AGE»، «BMI» و «DRUG» را آزمایش کنم، به مدل دیگری نیاز دارم: «y2=a2*AGE+b2*BMI+c2*DRUG+d*(DRUG*AGE)+e* (DRUG*BMI)`; من یک احتمال 2 گرفتم; سپس احتمال این دو مدل را با استفاده از آزمون مجذور کای (df=2) مقایسه میکنم و میبینم که آیا تفاوت (احتمال 2 منهای احتمال) معنیدار است یا خیر. * **روش 2:** افراد را با توجه به وضعیت DRUG به دو گروه طبقه بندی کنید: گروه 1: برای افرادی که دارو مصرف می کنند (1000=n)، مدل 1: `y1=a1*AGE+b1*BMI`، احتمال وجود دارد. 1 (L1)؛ گروه 2: برای افرادی که دارو مصرف نمی کنند (1000=n)، مدل 2: `y2=a2*AGE+b2*BMI`، احتمال 2 (L2). سپس از همه افراد (n-2000)، مدل 3:y3=a3*AGE+b3*BMI+d*(DRUG*AGE)+e*(DRUG*BMI)، احتمال 3 (L3) استفاده میکنم. بنابراین برای آزمایش برهمکنش ها، chi-square=L3/(L1*L2). اما سوال این است: درجه آزادی (df) چقدر است؟ کسی میتونه کمک کنه؟ من نمی توانم پاسخ را دریافت کنم.
|
چگونه می توان درجه آزادی را برای آزمون خاصی از تعامل تعیین کرد؟
|
23795
|
من از یک ماشین بردار ربط استفاده میکنم که در بسته kernlab در R پیادهسازی شده است، که بر روی یک مجموعه داده با 360 متغیر پیوسته (ویژگیها) و 60 مثال (همچنین پیوسته، بنابراین یک رگرسیون برداری مرتبط است) آموزش داده شده است. من چندین مجموعه داده با ابعاد معادل از موضوعات مختلف دارم. اکنون برای اکثر آزمودنیها خوب کار میکند، اما با یک مجموعه داده خاص، من این نتایج عجیب را دریافت میکنم: هنگام استفاده از اعتبارسنجی متقاطع ترک یکاوت (بنابراین RVM را آموزش میدهم و سعی میکنم متعاقباً یک مشاهده را پیشبینی کنم که از آن حذف شده است. آموزش)، بیشتر مقادیر پیشبینیشده دقیقاً در حدود میانگین مقادیر مثال هستند. بنابراین من واقعاً پیش بینی های خوبی دریافت نمی کنم، اما فقط مقدار کمی متفاوت از میانگین است. به نظر می رسد که SVM اصلا کار نمی کند. وقتی مقادیر برازش شده را در برابر مقادیر واقعی رسم می کنم، همان الگو را می بینم. پیش بینی های حول میانگین بنابراین RVM حتی قادر به پیشبینی مقادیری که روی آن آموزش داده شده نیست (برای سایر مجموعههای داده من همبستگیهایی در حدود .9 بین مقادیر برازش شده و واقعی دریافت میکنم). به نظر می رسد که من حداقل می توانم برازش را بهبود بخشم (به طوری که RVM حداقل بتواند مقادیری را که روی آن آموزش داده شده است پیش بینی کند) با تبدیل متغیر وابسته (مقادیر-مثال)، برای مثال با گرفتن جذر جذر متغیر وابسته بنابراین این خروجی برای متغیر وابسته تبدیل نشده است: Relevance Vector Machine شیء کلاس rvm نوع مشکل: رگرسیون تابع هسته خطی (وانیلی). تعداد بردارهای مرتبط : 5 واریانس : 1407.006 خطای آموزشی : 1383.534902093 این، اگر ابتدا متغیر وابسته را با گرفتن ریشه دوم تبدیل کنم: Relevance Vector Machine شیء کلاس rvm نوع مشکل: تابع هسته رگرسیون خطی (وانیلی). تعداد بردارهای مرتبط : 55 واریانس : 1.711355 خطای آموزشی : 0.89601609 چگونه است که نتایج RVM به طور چشمگیری فقط با تبدیل متغیر وابسته تغییر می کند؟ و وقتی یک SVM فقط مقادیری را حول میانگین متغیر وابسته (حتی برای مقادیر و مشاهداتی که روی آن آموزش داده شده است) پیشبینی میکند، چه مشکلی دارد؟
|
پیش بینی ماشین بردار ارتباط عجیب کرنلب
|
114031
|
من سعی میکنم مدل را در این مقاله بازآفرینی کنم: پینجاری (2011) که در آن نویسنده از یک سیستم معادله 4 با متغیرهای وابسته انتخاب گسسته در هر یک از 4 معادله استفاده میکند. آیا کسی می داند که آیا R بسته ای دارد که این نوع تخمین ها را انجام دهد؟ اگر نه، آیا برخی از کلمات کلیدی وجود دارد که برای اینکه بفهمم دیگران چگونه این نوع تخمین ها را انجام داده اند، از قلم افتاده ام؟
|
انتخاب گسسته MNL با سیستم معادله شبه SUR 4، به دنبال بسته R است که بتواند چنین سیستمی را مدیریت کند.
|
38905
|
در Skeptics.StackExchange، پاسخی به مطالعه ای در مورد حساسیت الکترومغناطیسی اشاره می کند: * مک کارتی، کاروبا، چسون، فریلو، گونزالس-تولدو و مارینو، حساسیت الکترومغناطیسی: شواهدی برای سندرم عصبی جدید مجله بین المللی علوم اعصاب، 1-0، 7، 2011، DOI: 10.3109/00207454.2011.608139. من در مورد برخی از آمارهای مورد استفاده مشکوک هستم، و قدردانی می کنم که در بررسی مجدد اینکه آنها به درستی استفاده می شوند، تخصص داشته باشم. شکل 5a نتایج یک سوژه را نشان می دهد که تلاش می کند تشخیص دهد که یک مولد میدان الکترومغناطیسی روشن شده است. در اینجا یک نسخه ساده شده وجود دارد: واقعی: بله خیر شناسایی شده: بله 32 19 نه 261 274 آنها ادعا می کنند که از آزمون مجذور کای استفاده کرده اند و اهمیت پیدا کرده اند (05/0p<، بدون بیان اینکه p چیست.) > فرکانس های جسمی و پاسخ های رفتاری در حضور و عدم حضور میدان با استفاده از آزمون مجذور کای (جدول 2×2) مورد ارزیابی قرار گرفت. > یا بسط فریمن-هالتون آزمون احتمال دقیق فیشر (جدول 2×3؛ فریمن و هالتون، 1951). من چندین مشکل می بینم. * آنها برخی از داده ها را حذف کردند - جدول 5b را ببینید - جایی که دستگاه را برای مدت طولانی خاموش کردند. من نمی توانم توجیهی را در جداسازی آن داده ها ببینم. * به نظر می رسد آنها ادعا می کنند که نتیجه زمانی که دستگاه واقعی روشن بود از نظر آماری قابل توجه است، اما زمانی که روشن نبود. (ممکن است من این را اشتباه خوانده باشم؛ واضح نیست.) این نتیجه ای نیست که تست کای دو می تواند بدهد، درست است؟ * وقتی سعی کردم این تست را با یک ماشین حساب آنلاین بازتولید کنم، متوجه شدم که از نظر آماری بی اهمیت است. _این سوال واقعی من است:_ آیا من این را می گویم؟: **آزمون مجذور کای با استفاده از آزمون دقیق فیشر راه درستی برای تجزیه و تحلیل این داده ها است و از نظر آماری معنی دار نیست.**
|
آیا می توانید این نتیجه آزمایش کای دو را بازتولید کنید؟
|
28156
|
من دو طیف از یک شی نجومی دارم. سوال اساسی این است: چگونه می توانم جابجایی نسبی بین این طیف ها را محاسبه کنم و **تخمین دقیق خطا** را در آن شیفت بدست بیاورم؟ اگر هنوز با من هستید جزئیات بیشتر هر طیف یک آرایه با مقدار x (طول موج)، مقدار y (شار) و خطا خواهد بود. **تغییر طول موج قرار است زیر پیکسلی باشد.** فرض کنید که پیکسل ها به طور منظم با هم فاصله دارند و تنها یک جابجایی در کل طیف اعمال می شود. بنابراین پاسخ نهایی چیزی شبیه به: 0.35 +/- 0.25 پیکسل خواهد بود. این دو طیف، پیوستارهای بی خاصیت زیادی خواهند بود که با برخی ویژگیهای جذب نسبتاً پیچیده (نیزها) که به راحتی مدلسازی نمیشوند، نقطهگذاری میشوند. من می خواهم روشی را کشف کنم که مستقیماً این دو طیف را با هم مقایسه کند. اولین غریزه هر کس انجام یک همبستگی متقابل است، اما با جابجایی زیرپیکسلها، باید بین طیفها درونیابی کنید (ابتدا با هموارسازی؟) - همچنین، درست کردن خطاها ناخوشایند به نظر میرسد. رویکرد کنونی من این است که داده ها را با در هم آمیختن با یک هسته گاوسی هموار کنم، سپس نتیجه هموارسازی شده را تقسیم کنم، و دو طیف تقسیم شده را با هم مقایسه کنم -- اما من به آن اعتماد ندارم (مخصوصاً خطاها). آیا کسی راهی برای انجام این کار به درستی می شناسد؟ در اینجا یک برنامه کوتاه پایتون وجود دارد که دو طیف اسباببازی را تولید میکند که با 0.4 پیکسل جابهجا میشوند (نوشته شده در toy1.ascii و toy2.ascii) که میتوانید با آنها بازی کنید. حتی اگر این مدل اسباب بازی از یک ویژگی ساده گاوسی استفاده می کند، فرض کنید که داده های واقعی نمی توانند با یک مدل ساده مطابقت داشته باشند. وارد کردن numpy به عنوان np وارد کردن تصادفی به عنوان ra import scipy.signal به عنوان ss arraysize = 1000 fluxlevel = 100.0 noise = 2.0 signal_std = 15.0 signal_depth = 40.0 Gaussian = lambda x:-(2-xp) * signal_std)) mu = 500.1 np.savetxt('toy1.ascii'، zip(np.arange(اندازه آرایه)، np.array([ra.normalvariate(سطح شار، نویز) برای x در محدوده(اندازه آرایه)] - گاوسی(np.arange( اندازه آرایه)) * عمق_ سیگنال)، np.ones (اندازه آرایه) * نویز)) mu = 500.5 np.savetxt('toy2.ascii'، zip(np.arange(اندازه آرایه)، np.array([ra.normalvariate(سطح شار، نویز) برای x در محدوده(اندازه آرایه)] - گاوسی(np arange (اندازه آرایه)) * سیگنال_عمق)، np.ones (اندازه آرایه) * نویز))
|
به طور مستقیم جابجایی های زیرپیکسل بین دو طیف را مقایسه کنید - و خطاهای قابل باوری دریافت کنید!
|
97438
|
من چندین بازار در سراسر ایالات متحده دارم که در آن یک برنامه بازاریابی راه اندازی شد، و می خواهم میانگین فروش هفتگی واحد را قبل و بعد از راه اندازی مقایسه کنم. من از 10 هفته قبل از راه اندازی به عنوان خط پایه و 10 هفته پس از راه اندازی به عنوان نتیجه استفاده می کنم. اکنون در پایان از آزمون t زوجی برای مقایسه تغییر نسبت به بازارهای کنترلی (که در برنامه نیست) استفاده خواهم کرد. با این حال سوال من برای موقت است. مدیریت می خواهد هر هفته نتایج به روز شده را ببیند. 1. آیا محاسبه مجدد اهمیت آماری هر هفته در حالی که برنامه هنوز در حال اجرا است معتبر است؟ 2. کدام آزمون مناسب است؟ نمونه ها به هم پیوند خورده اند، بنابراین باید یک آزمون t زوجی باشد، اما این مشاهدات مشابهی را می طلبد که من تا پایان آن را ندارم.
|
تجزیه و تحلیل داده های بازار خرده فروشی قبل و بعد از برنامه
|
107999
|
من روی یک مدل کار می کنم و EVPI، EVPPI و EVSI را محاسبه کرده ام. من باید نمودار ارزش مورد انتظار اطلاعات نمونه (EVSI) را تفسیر کنم، چه باید بگویم؟ نمودار از اندازه های نمونه به عنوان محور x و EVSI به عنوان محور y تشکیل شده است. من می دانم که محاسبه EVSI بخشی از فرآیند یافتن حجم نمونه بهینه برای مطالعه آینده است، اما نمی دانم چگونه نتایج نمودار را توضیح دهم.
|
یک نمودار مقدار مورد انتظار اطلاعات نمونه را تفسیر کنید
|
72481
|
قضیه همگرایی برای نمونهگیری گیبس بیان میکند: با توجه به بردار تصادفی $X$ با $X_1,X_2,...X_K$ و دانش در مورد توزیع شرطی X_k$، میتوانیم توزیع واقعی را با استفاده از نمونهبرداری گیبس بینهایت پیدا کنیم. قضیه دقیق همانطور که در کتاب (شبکههای عصبی و ماشینهای یادگیری) بیان شد با نزدیک شدن n به بی نهایت > > $\lim_{n -> \infty}P(x^{(n)}_k \leq x | x_k(0)) = P_{x_k}(x) $ برای $k > = > 1,2,...,K$ > > جایی که $P_{X_k}(x)$ تابع توزیع تجمعی حاشیه ای از > $X_k$ در حین انجام تحقیق است در این مورد، برای درک عمیق تر، با این پاسخ برخورد کردم. که به خوبی نحوه انتخاب یک نمونه را با استفاده از روش توضیح میدهد، اما من نمیتوانم آن را برای مطابقت با قضیه همگرایی بسط/تغییر دهم، زیرا نتیجه مثال داده شده یک نمونه (طلسم) است و نه یک احتمال نهایی/واقعی. توزیع **بنابراین، چگونه باید آن مثال را برای مطابقت با قضیه همگرایی اصلاح کنم؟**
|
قضیه همگرایی برای نمونه گیری گیبس
|
35507
|
مدتی بود که آمار جدی انجام ندادم. من اخیراً در مورد جداول احتمالی مطالعه کرده ام و به نظر می رسد که آنها ممکن است راه حلی برای مشکل من ارائه دهند. افرادی در اینجا هستند که بیشتر از آنچه من می توانم انتظار داشته باشم در مورد آمار می دانند، بنابراین به جای تلاش برای کشف چیزها توسط خودم، (و اتلاف وقت در این فرآیند)، تصمیم گرفتم ابتدا به اینجا بیایم و آنچه را که دارم توضیح دهم. من سعی میکنم این کار را انجام دهم و از معلمان اینجا بپرسم که آیا این کار منطقی است یا خیر، و دوم، آیا راه بهتر (و احتمالاً سادهتر/محکمتر) برای دستیابی به آنچه میخواهم انجام دهم وجود دارد (به احتمال زیاد من شک دارم) . در اینجا یک نمای کلی از چیزی است که میخواهم مدل کنم: من فرآیندی دارم که در هر زمان میتواند در یکی از N حالت باشد. من 4 عامل دیگر را شناسایی کرده ام که معتقدم پیش بینی کننده وضعیتی هستند که سیستم در آن قرار خواهد گرفت. عوامل ترکیبی از متغیرهای مقوله ای و واقعی هستند. من به ایجاد یک جدول اقتضایی چند بعدی مانند این فکر می کنم: Factor1, # Dimension 1 Factor2, # Dimension 2 ... Factor4, State1 | State2 | State3 | ... | StateN | که در آن مقدار در یک سلول تعداد دفعاتی است که سیستم در آن حالت قرار گرفته است با توجه به سطوح چهار عامل. من امیدوارم که از این جدول برای ساخت یک مدل احتمالی استفاده کنم (شاید با استفاده از یک تابع لجستیک مناسب؟) بتوانم به سؤالات این شکل پاسخ دهم: با توجه به فاکتور 1، احتمال تغییر سیستم از حالت _i_ به حالت _j_ چقدر است، .. Factor4 در یک سطح مشخص مشخص هستند؟ آیا می توانم از یک جدول احتمالی برای این کار استفاده کنم؟ آخرین اما نه کماهمیت، نمیدانم آیا جداول اقتضایی بخشی از آمارهای غیر پارامتری هستند یا خیر - اما امیدوارم هیچ فرضی قوی در مورد نرمال بودن متغیرها و غیره وجود نداشته باشد. ، ممنون می شوم اگر کسی بتواند این واقعیت را به من گوشزد کند و امیدوارم روش دیگری را پیشنهاد کند که به من امکان دهد احتمالات را به روشی که در بالا توضیح دادم مدل کنم. PS: اگر من هر یک از اصطلاحات سوال خود را اشتباه گرفته ام، لطفا راهنمایی کنید تا بتوانم سوال خود را ویرایش کنم تا واضح تر شود. میدانم که استفاده از «عوامل» و «سطوح» در سؤال من ممکن است کمی گیجکننده باشد، اما نمیتوانم به برچسبهای بهتری فکر کنم.
|
آیا می توان از جدول احتمالی برای مدل سازی احتمالات استفاده کرد؟
|
23793
|
من تازه وارد R هستم. من در حال ساخت مدل پیشگو با بسته gbm هستم. من یک مشکل دارم که نتایج متفاوتی را برای داده ها از چارچوب داده ای که برای ساخت مدل استفاده شده است و برای فریم داده های جداگانه با مقادیر یکسان بازیابی می کنم. من دادههایم را بهطور تصادفی به دو مجموعه تقسیم میکنم، مجموعه آموزشی در «head» بارگذاری میشود: > head <- read.csv(...) من یک مدل با gbm میسازم: > fit1000x3 <- gbm(V1 ~ V2+V3+V4 +V5+V6+V7+V8+V9+V10+V11، data=head، > n.trees=1000، distribution=gaussian, interaction.depth=3, > bag.fraction=0.5, train.fraction=1.0, shrinkage=0.1, keep.data=TRUE) وقتی یک قاب داده با مقادیر برابر با head[1,] ایجاد می کنم. : > xxx <- data.frame(V1=...) مقادیر مختلفی برای: > predict(fit1000x3, newdata=head[1,], n.trees=100) و > predict(fit1000x3, newdata=xxx, n.trees=100) در اینجا مجموعه دستوراتی است که اجرا کرده ام: > head <- read.csv(...) > fit1000x3 <- gbm( V1 ~ V2+V3+V4+V5+V6+V7+V8+V9+V10+V11، داده=هد، n.trees=1000, distribution=gaussian, interaction.depth=3, bag.fraction=0.5, train.fraction=1.0, shrinkage=0.1, keep.data=TRUE) Iter TrainDeviance ValidDeviance StepSize Improve 1 0.1707 -0.10 0.0152 2 0.1581 -nan 0.1000 0.0122 3 0.1478 -nan 0.1000 0.0100 4 0.1395 -nan 0.1000 0.0079 5 0.1326 -nan 0.1000 0.0067 6 0.0100 0.126 - 0.106 0.1211 -nan 0.1000 0.0052 8 0.1168 -nan 0.1000 0.0039 9 0.1133 -nan 0.1000 0.0032 10 0.1103 -nan 0.1000 - 0.1000 0.073 0.000 - nan 0.1000 -0.0002 200 0.0734 -nan 0.1000 -0.0002 300 0.0714 -nan 0.1000 -0.0002 400 0.0695 -nan 0.1000 -0.0002 -0.00002 -0.0002 600 0.0672 -nan 0.1000 -0.0002 700 0.0663 -nan 0.1000 -0.0002 800 0.0655 -nan 0.1000 -0.0002 -0.0002 -0.0002 900 0.0663 -0.1000 -0.000 - 1000 0.0643 -nan 0.1000 -0.0001 > پیش بینی (fit1000x3، newdata=head[1،]، n.trees=100) [1] 0.1420456 > head[1،] V1 V2 V3 V4 V5 V6 V7 V8 V0nffect. وضوح 5.1 Nu null null niceCharacter unitName V10 V11 1 null nextag > xxx <- data.frame(V1=0, V2=0.35, V3=m01xrfn2 وضوح موثر, V4=5.1, V5=Nu, V6= null، V7=null، V8=niceCharacter، V9=unitName، V10=null, V11=nextag) > xxx V1 V2 V3 V4 V5 V6 V7 V8 V9 1 0 0.35 m01xrfn2 وضوح موثر 5.1 null null niceCharacter unitName V10 V11 1 null nextag > head[1,] V4 V5 V6 V7 V8 V9 1 0 0.35 m01xrfn2 وضوح مؤثر 5.1 Nu null null niceCharacter unitName V10 V11 1 null nextag > predict(fit1000x3, newdata=xxx, n.trees=100) [1] 0.2068787 > str. obs. از 11 متغیر: $ V1 : int 0
$ V2 : num 0.35 $ V3 : ضریب w/ 113 سطح m01t_ حاوی،...: 4
$ V4 : ضریب w/ 884 سطح .00102،...: 503 $ V5 : ضریب w/ 11 سطح aN،aNu،aU،.. : 4
$ V6 : Factor w/ 4 level null, propertyAlias،..: 1 $ V7 : Factor w/ 9 level attach,block...: 6
$ V8 : Factor w/ 8 level attach, block...: 5 $ V9 : Factor w/ 4 level null, propertyAlias...: 4
$ V10: Factor w/ 2 level null, undef: 1 $ V11: Factor w/ 368 level 101 reviews123football...: 223
> str(xxx)
'data.frame': 1 obs. از 11 متغیر:
$ V1 : num 0 $ V2 : num 0.35
$ V3 : ضریب w/ 1 سطح m01xrfn2 وضوح موثر: 1 $ V4 : ضریب w/ 1 سطح 5.1: 1
$ V5 : ضریب w/ 1 سطح Nu: 1 $ V6 : ضریب w/ 1 سطح null: 1
$ V7 : فاکتور w/ 1 سطح null: 1 $ V8 : ضریب w/ 1 سطح niceCharacter: 1
$ V9 : ضریب w/ 1 سطح unitName: 1 $ V10: ضریب w/ 1 سطح null: 1
$ V11: فاکتور w/ 1 سطح nextag: 1
|
چرا GBM مقادیر متفاوتی را برای یک داده پیش بینی می کند؟
|
114033
|
من یک تحلیل گرداننده چندگانه را در یک مدل بسیار ساده اجرا کرده ام. X عبارتهای جستجوی Google هستند که بین 0-100 نرمال شدهاند. Y ثبت نام جدید خودروها در یک کشور و یک ناظر است. پس از بررسی نرمال بودن متغیر وابسته Y، نتیجه این است که به سمت چپ منحرف شده و به طور معمول توزیع نشده است. در اینجا دو سوال من وجود دارد: 1. آیا می توانم به تحلیل تعدیل کننده از طریق رگرسیون چندگانه ادامه دهم؟ 2. یک عدد پرت در متغیر وابسته وجود دارد که می تواند باعث نقض عدم توزیع عادی شود، اما آیا باید این مورد را حذف کنم؟ یا میتونم نگهش دارم؟
|
متغیر وابسته به طور معمول در تحلیل تعدیل کننده توزیع نمی شود
|
27086
|
من در مورد نمودارهای نفوذ مطالعه می کنم و می خواهم بدانم عملکرد مطلوبیت آنها چگونه محاسبه می شود. در تمام مثال های ذکر شده در ادبیات، من نمی توانم فرمول تابع سودمندی را پیدا کنم.
|
گره سودمند در نمودارهای نفوذ
|
23790
|
من سعی می کنم شاخصی ایجاد کنم که کیفیت مراقبت های بهداشتی را در بخش های مختلف برای تعدادی از بیمارستان ها خلاصه کند. من تعدادی متغیر را انتخاب کرده ام که هر کدام نشان دهنده کیفیت در یک تخصص پزشکی هستند. طرح وزن دهی برای من کاملا واضح است. از آنجایی که شاخص مربوط به هزینه ها در سطح تجمیع خواهد بود، وزن دادن به شاخص های مختلف کیفیت با توجه به هزینه های تخصص منطقی است. با این حال من یک مشکل دیگر دارم. شاخص های مختلف در مقیاس های مختلف اندازه گیری می شوند. راه حل معمول این است که Z - آنها را استاندارد کنید، اما این مشکلی را ایجاد می کند که در آن یک شاخص با تفاوت های نامربوط، مثلاً شاخصی که در آن بیمارستان ها متفاوت هستند اما این تفاوت از نظر پزشکی غیرمرتبط تلقی می شود، همان تأثیر را بر روی شاخص خواهد داشت که یک شاخص با ارتباط پزشکی مرتبط است. تفاوت ها و با هزینه های یکسان. چگونه باید با این موضوع برخورد کنم؟ برای توضیح بیشتر. بگید من دوباره جراحی لگن دارم، هزینه 200 داره و مقادیری بین 0.1 تا 0.2 با میانگین 0.15 داره. همه نتایج در اینجا بسیار خوب تلقی می شوند و این تفاوت بیشتر به حجم نمونه مربوط می شود. من همچنین سطح قند خون دارم که از 100 به 200 با میانگین 150 می رسد، این نشان دهنده دیابت است و همچنین دارای وزن 200 است. با این حال، این یک تفاوت از نظر پزشکی مرتبط است و به حجم نمونه مربوط نمی شود. استفاده از استانداردسازی Z بالاترین مقدار در اندیکاتور جراحی لگن تقریباً همان تأثیری را بر مؤلفه شاخص دارد که بالاترین مقدار در سطح قند خون است در حالی که یکی جالب است و دیگری جالب نیست. آیا ایده ای در مورد نحوه رسیدگی به این موضوع دارید؟
|
ایجاد یک شاخص زمانی که استانداردسازی Z باعث اغراق در متغیرهای خاص می شود
|
38904
|
نرخ بازگشت (tasa de retorno در اسپانیایی) در مدل های بوم شناسی جمعیت به چه معناست؟ در زمینه مدل های ضبط-مارک-بازگیری. من مقالات زیادی در این مورد پیدا کرده ام، اما هیچ تعریفی وجود ندارد! من همچنین اصطلاح نرخ بازپس گیری را پیدا کرده ام. چیست؟ آیا همان «نرخ بازگشت» است؟
|
نرخ بازگشت در مدل های بوم شناسی جمعیت به چه معناست؟
|
73356
|
متغیرهای تصادفی معمولاً با حروف بزرگ نشان داده می شوند. برای مثال، ممکن است یک متغیر تصادفی $X$ وجود داشته باشد. حالا، چون بردارها معمولاً با حروف کوچک پررنگ نشان داده میشوند (مثلاً $\mathbf{z} = (z_0, \dots, z_{n})^{\mathsf{T}}$ و ماتریسهایی با حروف پررنگ بالا- حرف کوچک (مثلاً $\mathbf{Y}$)، فکر می کنم چگونه باید بردار متغیرهای تصادفی را مشخص کنم؟ $\mathbf{x} = (X_0, \dots, X_n)^\mathsf{T}$ کمی عجیب به نظر می رسد از طرف دیگر اگر $\mathbf{X}$ را ببینم ابتدا فکر می کنم که یک ماتریس است. روش معمول برای انجام این کار چیست، البته فکر میکنم بهتر است نشانهگذاری خود را جایی در ابتدای مقاله بیان کنم.
|
علامت گذاری برای بردارهای تصادفی
|
114032
|
من میخواهم تناسب توزیع (_Pareto_-like) زیر را ارزیابی کنم: $$ f(r) = \sigma \centerdot r^{-\rho} $$ این تابع جمعیت شهرها را با توجه به رتبه $r$ در رتبه بندی محبوبیت. من پارامترهای ($\sigma$ و $\rho$) را از نمونه برآورد نکرده ام. با این حال، من مطمئن نیستم که چگونه _Kolmogorov-Smirnov_ (یا تست های مشابه) را اعمال کنم، زیرا من _CDF_ $f(r)$ را نمی دانم. چگونه می توانم این مشکل را حل کنم؟
|
ارزیابی خوبی برازش تخمین توزیع شبه پارتو
|
101231
|
من زنجیر مارکوف با زمان گسسته و پیوسته را تحت فرض ثابت بودن مطالعه کرده ام. اکنون سعی می کنم به زنجیره های مارکوف غیر ثابت بروم. من کمی در گوگل جستجو کردم و راس و کارلین را در مورد فرآیندهای تصادفی بررسی کردم، اما چیزی پیدا نکردم. امیدوارم کسی بتواند منابعی در این زمینه به من ارائه دهد. بسیار قدردانی می شود.
|
زنجیر مارکوف غیر ثابت
|
23794
|
من این عبارت را دارم، اما میخواهم بتوانم یک عبارت احتمال به آن اضافه کنم، مانند 87% مطمئن هستم. روز، زیرا > 3 بار از 3 بار گذشته اتفاق افتاده است. > حداقل حرکت 0.66٪ > حداکثر حرکت 16.54٪ > میانگین حرکت 8.74٪ می خواهم بگویم (بدیهی است که جایگزین X، Y و Z) > من 100.00٪ مطمئن هستم که grpn روز بعد کاهش می یابد، زیرا این > 3 بار اتفاق افتاده است. من X% مطمئن هستم که حداقل 0.66% و Y% مطمئن هستم که > 8.7% حرکت خواهد کرد و Z% مطمئن هستم که 16.5% حرکت خواهد کرد.
|
چگونه احتمال را محاسبه کنم
|
23792
|
هنگام تهیه یک سند خلاصه برای سیاستگذاران، نسبتاً معمول است که گرافیکی را درج کنید که نشان دهد چگونه راه حل بهینه سیاست با دو متغیر متفاوت است. ممکن است نتیجه یک تحلیل رسمی یا غیر رسمی بهینه سازی باشد. در زیر نمونه ای از چنین گرافیکی را مشاهده می کنید. گرافیک ناحیه نمودار را به مناطق پیوسته تقسیم می کند، که هر ناحیه نشان می دهد که ترکیبات (x,y) در آن ناحیه همگی یک راه حل سیاست بهینه را به اشتراک می گذارند. نام مناسب برای چنین تجسم داده ها چیست؟ و آیا راه آسانی در Matlab (یا حتی اکسل) برای تولید چنین گرافیکهایی نسبتاً خودکار از دادهها وجود دارد، بدون نیاز به ترسیم هر مؤلفه به صورت دستی به عنوان یک شکل سفارشی (زیرا اگر قرار بود این کار را انجام دهم، فقط از Illustrator استفاده میکردم. )؟ در حال حاضر، لطفاً برچسبها و فلشهای CALM / SEGREGATE را نادیده بگیرید - من به تقسیم نمودار به مناطق جداگانه، و سایهزنی و برچسبگذاری متمایز هر ناحیه علاقهمندم. من فرض نمیکنم که این نمودار از دادهها ایجاد شده باشد: این فقط برای نشان دادن سبک نمودار است، نه بیشتر. من می خواهم سبک مشابهی از نمودار را از داده ها ایجاد کنم. مانند نمودار زیر، برخی از مرزها ممکن است غیر خطی باشند. 
|
نام مناسب این نمودار منطقه سیاست بهینه چیست و چگونه می توانم یکی بسازم؟
|
27087
|
من پایان نامه خود را با مدل کاکس انجام می دهم و می خواهم بدانم که چگونه جدول بقا را با میانگین متغیرهای کمکی تفسیر می کنید. چگونه می توانم تابع بقا را از جدول بقای خروجی تعیین کنم در میانگین متغیرهای کمکی زمان Baseline SurvivalSE Cum Hazard 0.023.991.006.009 3.033.987.007.013 5.040.808.982. 0.058 0.977.011.024 9.088.965.014.036 .107.957.017.044 12.128.949.019.052. 0.910.033.095 34.326.875.048.133.45.481.821.068.197.46.668.761.088.273. .485 .178 .723 ماتریس همبستگی ضرایب رگرسیون جنسیت وزن تولد Martena سن شیردهی وزن هنگام تولد -.151 MartenalAge -.108 -.077 Breatsfeeding .030 .222.022.025 -.600.6 - ایمن سازی. متغیر کمکی به معنای میانگین جنسیت .552 وزن تولد .129 سن مارتنال 3.067 تغذیه با شیر مادر .238 ایمن سازی .124 خروجی من از مدل کاکس من و شامل متغیرهای کمکی بالا است و ایمن سازی و تغذیه با شیر مادر بسیار مهم هستند اما من می خواهم برای کودکان کم سن و سال را تفسیر کنم. -60 ماه
|
مدل خطر متناسب کاکس
|
31885
|
من کنجکاو هستم که بدانم دقیقاً تفاوت های (احتمالی) بین استنتاج های آماری استقرایی و قیاسی در آمار کاربردی چیست. پیشنهادهایی برای برخی منابع خوب برای یادگیری درست تفاوت ها، مزایا و معایب آنها بسیار مورد استقبال قرار می گیرد.
|
استنتاج استقرایی در مقابل استنتاج قیاسی
|
27080
|
library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc)  یک دسته فلش قرمز رسم شده است، معنی آنها چیست؟ میدانستم که اولین فلش با برچسب Var1 باید متغیرترین جهت مجموعه داده را نشان دهد (اگر آنها را 2000 نقطه داده در نظر بگیریم که هر یک بردار اندازه 6 است). من همچنین از جایی خواندم، متغیرترین جهت باید جهت بردار ویژه 1 باشد. با این حال، خواندن کد biplot در R. خط مربوط به فلش ها به این صورت است: if(var.axes) arrows(0, 0, y[,1L] * 0.8, y[,2L] * 0.8, col = col[ 2L]، جایی که «y» در واقع ماتریس بارگیری است، که ماتریس بردار ویژه است، بنابراین به نظر می رسد که فلش 1 در واقع نشان می دهد از `(0, 0)` به (y[1, 1], y[1,2])` من میدانم که میخواهیم یک فلش با ابعاد بالا را روی یک صفحه دوبعدی ترسیم کنیم عنصر اول و دوم بردار «y[1, ]» اما چیزی که من نمی فهمم این است: آیا اولین جهت بردار ویژه نباید بردار باشد. «y[، 1]»، به جای «y[1، ]» (باز هم، در اینجا «y» ماتریس بردار ویژه است که توسط PCA یا با تجزیه ویژه «t(x) %*% x» به دست میآید.) بردارهای ویژه باید بردارهای ستونی باشند، نه آن بردارهای افقی، حتی اگر آنها را در صفحه دوبعدی رسم می کنیم، باید جهت 1 را رسم کنیم «(0، 0)» به «(y[1، 1]، y[2، 1])» اشاره می کند؟
|
فلش های موجود در بای پلات PCA به چه معناست؟
|
56700
|
من یک نمونه آزمایشی با اندازه حدود 1000 مقدار دارم. من باید نمونه بسیار بزرگتری برای شبیه سازی تولید کنم. من می توانم نمونه ای مانند این ایجاد کنم: کتابخانه(ks) x<-rlnorm(1000) y<-rkde(fhat=kde(x=x، h=hpi(x))، n=10000، مثبت = TRUE)# z <-sample(x، 10000، جایگزین = TRUE) par(mfrow=c(3،1)) hist(x، freq=F، breaks=100, col=red) hist(y, freq=F, breaks=100, col=green) hist(z, freq=F, breaks=100, col=blue) چه محدودیت های اساسی با استفاده از KDE یا بوت استرپ؟ چگونه می توانم چنین نمونه ای ایجاد کنم؟
|
نمونه تصادفی با استفاده از KDE یا بوت استرپ
|
114039
|
بگویید من یک بردار تصادفی $Y\sim N(X\beta,\Sigma)$ و $\Sigma\neq\sigma^2 I$ دارم. یعنی عناصر $Y$ (با توجه به $X\beta$) همبستگی دارند. تخمینگر طبیعی $\beta$ $(X'\Sigma^{-1}X)^{-1}X'\Sigma^{-1}Y$ و $\text{var}(\hat{ است. \beta})=(X'\Sigma^{-1}X)^{-1}$ در زمینه طراحی، آزمایشکننده میتواند با طرحی که منجر به $X$ و $\Sigma$ متفاوت میشود، کمانچه را حل کند. $\text{var}(\hat{\beta})$. برای انتخاب یک طرح بهینه، می بینم که مردم اغلب سعی می کنند تعیین کننده $(X'\Sigma^{-1} X)^{-1}$ را به حداقل برسانند، شهود پشت این چیست؟ مثلاً چرا مجموع عناصر آن را به حداقل نمی رساند؟
|
چرا مردم اغلب تعیین کننده $(X'\Sigma X)^{-1}$ را بهینه می کنند
|
35501
|
اگر در اینجا پاسخ داده شده است عذرخواهی می کنم. اولین بار است که اینجا هستم. من یک توسعه دهنده هستم. من واقعاً به این موضوع علاقه ندارم، اما از من خواسته شد تا با استفاده از SPSS شبیه سازی داده ها را انجام دهم. اما مطمئن نیستم از چه سطح اهمیتی استفاده کنم. به من یک مجموعه داده کوچک از 24 مورد داده شد. این یک تحقیق پزشکی است، بنابراین فکر می کنم باید از 0.01 استفاده کنم. من فقط نمی دانم که آیا تغییر سطح پیش فرض 0.05 در SPSS مناسب است یا نه با توجه به اینکه من فقط یک مجموعه داده کوچک دارم. یکی لطفا کمی روشن کنه
|
چه سطح معنی داری با مجموعه داده های کوچک مورد نیاز است؟
|
17022
|
بسیاری از سوالاتی که در ماه گذشته در SE پست کردهام با هدف کمک به حل این مشکل خاص بوده است. همه سوالات پاسخ داده شده است، اما هنوز نمی توانم راه حلی پیدا کنم. بنابراین، فکر کردم که فقط باید مشکلی را که میخواهم حل کنم مستقیماً بپرسم. اجازه دهید $X_n \sim F_n$، که در آن $F_n = (1-(1-F_{n-1})^c)^c$، $F_0 = x$، $c\geq 2$ (عدد صحیح)، و هر $F_n$ یک سی دی اف بیش از $(0,1)$ است. من می خواهم ثابت کنم که $\mathbb{E}X_n$ با $n$ برای همه $c$ (یا حتی، برای هر $c$ خاص) کاهش می یابد! من می توانم نشان دهم که $F_n$ به جرم دیراک در راه حل منحصر به فرد $x_c = (1-(1-x)^c)^c)$ برای $c=2$، $x_2 = (3-\sqrt) همگرا می شود {5})/2 \حدود 0.38 دلار. وقتی به نموداری از cdf ها برای افزایش $n$ برای همان $c$ نگاه می کنیم، همه cdf ها روی $x_n$ متقاطع می شوند. مقدار $F(x)$ برای مقادیر $x$ کمتر از $x_n$ کاهش مییابد و برای مقادیر $x$ بزرگتر از $x_n$ (با افزایش $n$) که به یک خط عمودی در $x_n$ همگرا میشود، افزایش مییابد. . در زیر نمودار $\mathbb{E}X_n$ برای $n = 1$ تا $40$ برای $c = 2$ تا $7$ آمده است. البته این یک طرح مجزا است، اما من خطوط را برای سهولت مشاهده به هم متصل کرده ام. برای ایجاد این نمودار، من از NIntegrate در Mathematica استفاده کردم، اگرچه باید آن را روی $1-F^{-1}_n$ انجام میدادم، زیرا به دلایلی Mathematica نمیتوانست پاسخهایی را روی مقادیر بالای $n$ برای تابع اصلی ایجاد کند. . طبق قضیه یانگ، این دو باید معادل باشند، $\int_0^1F(x)\,dx = \int_0^1 1-F^{-1}(x)\,dx$. در مورد من، $F^{-1}_n(x) = 1-(1-(F^{-1}_{n-1})^{\frac{1}{c}})^{\ frac{1}{c}}$, $F^{-1}_n = x$.  همانطور که می بینید، $EX_n$ بسیار سریع به فاصله یک دقیقه از نقطه ثابت خود $x_c$ حرکت می کند. با افزایش $c$، نقطه ثابت کاهش می یابد (در نهایت به 0 می رسد). بنابراین، مطمئناً به نظر می رسد درست باشد که $EX_n$ با $n$ برای همه $c$ کاهش می یابد. اما من نمی توانم آن را ثابت کنم. کسی میتونه کمکم کنه؟ (دوباره، من حتی با یک $c$ هم تا حدودی راضی خواهم بود) و، اگر نمی توانید، اما بینش دارید که چرا این مشکل خاص ممکن است غیرقابل حل باشد، لطفاً آن بینش را نیز به اشتراک بگذارید.
|
اثبات یک دنباله کاهش می یابد (با ترسیم تعداد زیادی امتیاز پشتیبانی می شود)
|
51734
|
میخواستم بدانم چه رابطهها و تفاوتهایی بین آمار محوری در مقابل آماره آزاد توزیع وجود دارد؟ 1. از ویکی پدیا > یک کمیت محوری یا محوری تابعی از مشاهدات و پارامترهای غیر قابل مشاهده است که توزیع احتمال آنها به پارامترهای ناشناخته > 1 بستگی ندارد (که به آن پارامترهای مزاحم نیز گفته می شود). 2. اگر به درستی متوجه شده باشم، اگر توزیع T(X) به توزیع X بستگی نداشته باشد، به یک آماره T گفته میشود که توزیع آزاد است. مثالها، آمار آزمون کولموگروف-اسمیرنوف است. درک من در مورد تفاوت آنها این است: یک آمار محوری هنوز به شکل توزیع بستگی دارد، اما نه به مقدار پارامتر آن؟ یک آماره بدون توزیع به هیچکدام از فرم ها یا پارامترهای توزیع بستگی ندارد. درست میگم؟ سوال من از پاسخی در MSE می آید. همچنین ممنون می شوم اگر بتوانید به سوال من در آنجا پاسخ دهید. با تشکر و احترام!
|
آمار محوری در مقابل آماره بدون توزیع
|
51732
|
من در ریاضیات کمی مبتدی هستم و سعی می کنم مشکلی را حل کنم. من 3 متغیر مستقل دارم که بر 1 متغیر وابسته تاثیر می گذارد. من می خواهم یک مدل 4 بعدی ایجاد کنم که وقتی به آن سه گانه (x, y, z) می دهم بعد چهارم را به من بدهد. من در جاوا برنامه نویسی می کنم و در حال حاضر یک تابع رگرسیون دارم که مجموعه ای از متغیرهای مستقل را می گیرد و ضرایبی از آن متغیرهای مستقل را به من می دهد که بهترین تناسب را با داده های ارائه شده دارد. چیزی که من سعی می کنم بفهمم این است که از کدام متغیرهای مستقل استفاده کنم. من توابع مکعبی مختلفی را امتحان کردم، با متغیرهای مستقل چیزی شبیه به: {1 + x + y + z + xx + xy + xz + yy + yz + zz + xxx + xxy + xxz + yyy + yyx + yyz + zzz + zzy + zzx + xyz} سپس وقتی مدل حاصل کمی اشتباه به نظر می رسید، فکر کردم، آه شاید مقادیر x و y هیچ معنایی نداشته باشند. ضرب شد، بنابراین متغیرهایی را که در آن x و y با هم بودند، خارج کرد. اکنون هنوز درست نیست و من نگران هستم که فقط به روشی کاملاً اشتباه در مورد آن اقدام کنم. شاید در جایی نمایی وجود داشته باشد؟ آیا روش ریاضی برای یافتن دقیق متغیرهایی که باید استفاده کنم وجود دارد؟ به سلامتی * * * داده هایی که من از قبل دارم به این صورت است. این مربوط به محاسبه نمرات نهایی در یک بازی کریکت است که بر اساس این که بتمن ها در کدام بازی هستند و چقدر در بازی هستیم، امتیاز نهایی متغیر وابسته است: محور X از 0 تا 10 شامل می شود (ترتیب اولین ضربه زن در ). محور Y از 0 تا 10 را شامل می شود (ترتیب دومین ضربه زن در). محور Z از 0 تا 19 را شامل می شود (اوردی که در آن قرار داریم، اساساً به معنای فاصله ما از بازی است). هرچه x و y کمتر باشد، امتیاز نهایی بالاتر خواهد بود، زیرا تیم هنوز خفاشکنندگان بهتری دارد. مدت طولانی تری دوام آورد و بنابراین باید چشم آنها وارد شود. من حدس می زنم این سوال است که من انتظار دارم متغیر وابسته چه باشد است. چگونه هر پارامتر بر امتیاز نهایی تأثیر می گذارد. در صورت تمایل می توانم برخی از داده های نمونه را ارسال کنم. من یک نقطه داده را برای هر ترکیب (X، Y، Z) محاسبه کرده ام، بنابراین نمی توانم بیشتر بدست بیاورم. من دادههایی از تمام بازیهای کریکت دارم و هر نقطه داده میانگین امتیاز نهایی بازیهایی است که این وضعیت در آنها رخ داده است. برخی از موقعیت ها ((x، y، z) سه گانه) به مراتب بیشتر احتمال دارد (در بازی های متوسط تر) رخ دهند و بر این اساس در تابع رگرسیون وزن داده شده اند.
|
چگونه می توان چگونگی تأثیر متغیرهای مستقل بر متغیرهای وابسته را پیدا کرد
|
101176
|
من روی مدلی کار می کنم که یک متغیر دو جمله ای را پیش بینی می کند. من میلیون ها رکورد و صدها متغیر برای نمونه برداری دارم. من میلیون ها رکورد از افراد از هر یک از چندین سال گذشته دارم. اکثر متغیرها دارای داده های خاص برای فرد و سال هستند. با این حال من چند متغیر دارم که فقط در سال و نه با افراد متفاوت است. به این معنی که اگر ده سال داده ای داشته باشم، تنها 10 متغیر منحصر به فرد در آن میلیون ها رکورد دارم. علاوه بر این، من فقط متغیرهای چند ساله دارم که میخواهم آنها را آزمایش کنم تا بفهمم کدام یک بهترین نتایج پیشبینی را ارائه میدهند. از آنجایی که مقادیر بسیار کمی در این متغیرها وجود دارد، و همبستگی بسیار بالایی دارند، در صورت جایگزینی در داخل و خارج، نتایج پیشبینیکننده بسیار متفاوتی ارائه میدهند. آیا تجزیه و تحلیل جنگل تصادفی به من این امکان را می دهد که این مجموعه از متغیرهای سال را جایگزین و خارج کنم تا به میانگینی از مدل ها بر اساس این متغیرهای مختلف برسم؟ اگر این قابل قبول است، میتوانم مثلاً در R بگویم، مشخص کنم که کدام متغیر جایگزین نشود، و کدام متغیر جایگزین تنها یکی از آنها در هر زمان باشد؟
|
جنگل تصادفی و جایگزینی متغیرهای مختلف
|
56701
|
من به خودم شک دارم که بر اساس کدام تحلیل برای موارد زیر اجرا کنم: 18 شرکت کننده در 4 نقطه زمانی با شرایط مختلف در هر بار ارزیابی شدند. توسط 2 ارزیاب به آنها امتیاز داده شد (در مقیاس آنالوگ بصری گسسته). نمرات برای یک جفت شرکتکننده محاسبه شد: جفتها در هر نقطه زمانی تغییر میکردند. من می دانم که کدام شرکت کننده هر جفت را تشکیل می دهد. آیا این یک ANOVA اندازه گیری های مکرر دو طرفه است؟ برخی از تغییرات آزمون فریدمن؟
|
تجزیه و تحلیل مناسب برای متغیر ترتیبی، 4 بار در شرایط مختلف، توسط همان 2 ارزیاب تکرار شده است.
|
51737
|
پیشینه سریع: من روی یک پروژه علوم سیاسی کار میکنم که شامل تجزیه و تحلیل تأثیر متغیرهای مختلف بر میزان نامزدی از کاربران دیگر در هنگام توییت میشود. یکی از این متغیرها این است که آیا داوطلب به آزمون شجاعت سیاسی (PCT) پاسخ می دهد یا خیر. اگر او این کار را انجام دهد، مقدار 1 است. اگر آنها این کار را نکنند، 0 است. متغیر دیگر مقدار پولی است که نامزد در طول مبارزات انتخاباتی خود جمع آوری می کند. شخص باتجربهتر دادهها را از طریق رگرسیون برای من خرد کرد و نتایج زیر را برای من ارسال کرد: ضریب PCT: 9.580 خطای استاندارد: 8.144 مقدار $$$ ضریب افزایش: 0.000 خطای استاندارد: 0.000 PCT*میزان ضریب افزایش $$$: 0.000 خطای استاندارد: 0.000 اساساً هیچ پیش زمینه ای ندارم در آمار، بنابراین من در مورد چگونگی تفسیر موثر این نتیجه ناامید هستم. از آنچه می توانم بگویم، نه مقدار پول جمع آوری شده و نه اینکه آیا نامزد به CPT پاسخ داده است تأثیر زیادی روی توییت ها ندارد، اما من در مورد سومی (CPT*Money Raised) که به من می گویند یک تعامل است گیج شده ام. . این حرف دقیقا چیه؟ پیشاپیش از کمک شما سپاسگزارم.
|
تفسیر این ضریب رگرسیون
|
56705
|
برای طبقه بندی مثال 8 باید از طبقه بندی کننده Naive Bayes استفاده کنم تا ببینم سمی است یا خیر.  من نتایج زیر را به دست آوردم: p(x|Poisonous=Y) = 0.0267857 و p(x|Poisonous=N) = 0.0101989 اگر در مرحله بعد اطلاعات اضافی به من داده شود که احتمال 0.05 یافتن گیاهان سمی وجود دارد، بنابراین احتمال پیدا نشدن آنها 0.95 است. چگونه باید در مورد طبقه بندی مثال 8 بر اساس داده های جدید اقدام کنم؟ هر گونه کمکی قدردانی خواهد شد.
|
چگونه می توانم از قانون Bayes برای این سؤال با داده های اضافی استفاده کنم
|
111483
|
من یک رگرسیون لجستیک ترتیبی انجام می دهم. من یک متغیر ترتیبی دارم، اجازه دهید آن را تغییر بنامیم، که تغییر در یک پارامتر بیولوژیکی بین دو نقطه زمانی با فاصله 5 سال را بیان می کند. مقادیر آن 0 (بدون تغییر)، 1 (تغییر کوچک)، 2 (تغییر بزرگ) است. من چندین متغیر دیگر (VarA، VarB، VarC، VarD) دارم که بین دو نقطه زمانی اندازهگیری شدهاند. قصد من این است که یک رگرسیون لجستیک ترتیبی انجام دهم تا ارزیابی کنم که آیا موجودیت Change به شدت با VarA یا VarB مرتبط است. من واقعاً فقط به VarA و VarB علاقه دارم و سعی نمی کنم یک مدل ایجاد کنم. VarC و VarD متغیرهایی هستند که میدانم _ممکن است روی تغییر تاثیر بگذارند، اما احتمالاً خیلی زیاد نیستند، و در هر صورت من به آنها علاقهای ندارم. من فقط می خواهم بدانم آیا ارتباط در دوره مشاهده (5 سال) برای VarA قوی تر بود یا برای VarB. آیا این اشتباه است که VarC و VarD را در رگرسیون لحاظ نکنیم؟
|
رگرسیون - آیا *نداشتن* متغیر مستقلی که من به آن علاقه ای ندارم، درست نیست، اما کدام *ممکن است* بر متغیر وابسته تأثیر بگذارد؟
|
36083
|
من می خواهم تأثیر نرخ ارز را بر شاخص قیمت آزمایش کنم و با تفسیرها مبارزه کنم. متغیرهای من I(1) هستند اول، من یک OLS روی اولین متغیرهای متفاوت اجرا کردم که نشان دهنده یک رابطه کوتاه مدت منفی بین FX و PI بود. سپس، من آن را روی co-integration آزمایش کردم و یک VECM ساختم. VECM من پیشنهاد میکند که یک تعادل بلندمدت با سرعت تعدیل 50 درصد در هر دوره وجود دارد، اما اثر کوتاهمدتی ندارد. هر دو مدل من قوی هستند. **بنابراین، پیامد یافتههای VECM من چیست؟** آیا تعادل بلندمدت به این معنی است که در بلندمدت، FX نمیتواند بر شاخص قیمت تأثیر بگذارد، زیرا این متغیرها همیشه به تعادل بازمیگردند؟
|
مفهوم / تفسیر VECM تعادل بلند مدت
|
27337
|
معیار انتخاب مدل آکایک معمولاً بر این اساس توجیه میشود که ریسک تجربی تخمینگر ML، تخمینگر مغرضانهای از ریسک واقعی بهترین تخمینگر در خانواده پارامتری است، مثلاً خانواده رگرسیونهای خطی روی یک متغیر m بعدی، S_m $. $ از سوی دیگر، این خانواده، $ S_m$، شناخته شده است که دارای بعد VC محدود است ($VC = m+1$). داشتن ابعاد VC محدود باید نشان دهد که حداقلکننده ریسک تجربی به طور نامتقارن سازگار است (Vapnik، مروری بر نظریه یادگیری آماری) چه چیزی را از دست میدهم؟ ممنون جیک
|
درباره معیار آکایک و بعد VC از رگرسیورهای خطی
|
51736
|
من برخی از داده ها را از نظرسنجی انجام شده در شهرم جمع آوری کرده ام. همه پاسخها شامل یک مکان جغرافیایی تقریبی جایی است که آنها جمعآوری شدهاند (دقیق احتمالاً چند صد یارد که نسبتاً کوچک است)، و مواردی مانند سن، جنس، محدوده درآمد، تعداد افراد وابسته، و غیره. تقریباً وجود دارد. 4000 پاسخ چیزی که من دوست دارم این است که بتوانم چیزی را ایجاد کنم که حدس میزنم شما آن را مدل مینامید، به طوری که با توجه به یک نقطه جغرافیایی (یا کادر) بتوانم پاسخگوی معمولی را از آنجا مشخص کنم (واقعاً لازم نیست واقعاً دقیق باشد. اگرچه نوعی اندازه گیری رسمی اعتماد به نفس خوب خواهد بود). بنابراین، آیا کار درستی است که به سادگی تمام ویژگیهای جمعآوریشده را جداگانه در نظر بگیرید و بگویید خب سن پاسخدهنده معمولی شما در آن منطقه m با stdev s است و دامنه درآمد آنها ... و غیره است. یا راه بهتری برای تجزیه و تحلیل داده ها با هم وجود دارد تا نمایه بهتری از پاسخ دهندگان بدست آورید. برخی از عبارات کلیدی به گوگل حتی در این مرحله کمک می کند، زیرا من کمی گم شده ام. من فکر کردم که این ممکن است تلفیقی داده ها باشد، اما فکر نمی کنم اینطور باشد.
|
چگونه چندین نوع داده جغرافیایی را با هم تجزیه و تحلیل کنیم؟
|
94412
|
من صفحه ویکیپدیا را برای تست لوین میخواندم و درجات آزادی را به صورت (k - 1، N - k) ذکر میکند، جایی که k تعداد گروههای مختلفی است که موارد نمونه به آن تعلق دارند، و N کل است. تعداد موارد در همه گروه ها با این حال، توضیح نمی دهد که چرا چنین است. در اینجا یک پاسخ بسیار کامل وجود دارد که برای پاسخ به این سوال در رابطه با مجذور کای خوبی تناسب کافی است. با این حال، من نتوانستم پاسخ قانع کننده ای برای سوال در رابطه با تست لوین پیدا کنم.
|
دلیل درجات آزادی در آزمون لوین چیست؟
|
95798
|
من در حال حاضر موارد زیر را در پایگاه داده خود در مورد محتوای ارسالی کاربر ذخیره می کنم: * دانلودها: تعداد کل دانلود محتوا * پسندها: یک کاربر می تواند یک محتوا را دوست داشته باشد یا کاری انجام ندهد چگونه می توانم تعیین کنم که کدام محتوا بیشترین محبوبیت را دارد. با استفاده از این دو عدد؟ من چیزی شبیه این را امتحان میکنم: $s = \frac{Downloads}{Likes}$ و محتوایی با کمترین ارزش محبوبترین است. به عنوان مثال: * $\frac{10000}{100} = 100$ نه چندان خوب * $\frac{10000}{1000} = 10 دلار ارزش کمتر، محتوای بهتر * * * رویکرد دیگر میتواند جمع کردن هر دو عدد با هم باشد، بنابراین: * 10000 + 100 = 10100 دلار نه چندان خوب * 10000 + 1000 دلار = 11000 دلار بیشتر ارزش، محتوای بهتر آیا این کار می کند و آیا این در زندگی واقعی عادلانه است یا باید کاری متفاوت انجام دهم؟
|
بهترین محتوا را از رتبه بندی و دانلودها محاسبه کنید
|
74367
|
اجازه دهید $X_{n}$ یک $\mathcal F_{n}$-martingale باشد و اجازه دهید $B\in \mathcal B$. نشان دهید که $T=\min\{n:X_{n}\در B\}$ یک $\mathcal F_{n}$-زمان توقف است. $\mathcal B$ Borel $\sigma$-جبر و فیلتراسیون $\mathcal F=\sigma(X_{1},\dots,X_{n})$ است. با تشکر برای کمک.
|
نشان دهید که $T=\min\{n:X_{n}\in B\}$ یک $\mathcal F_{n}$-زمان توقف است
|
103610
|
من دو سوال در رابطه با اعتبارسنجی متقاطع در LIBLINEAR دارم 1000 مدرک دارم که از آنها 300 مدرک برای آموزش و 700 مدرک برای طبقه بندی می گیرم. من 300 سند را با پارامتر -s 0 با دو برچسب کلاس آموزش می دهم و سپس در حین پیش بینی، 700 سند را یک به یک به طبقه بندی کننده با پارامتر -b 1 می دهم تا احتمال را بدست بیاورم و اگر احتمال بیشتر از یک thresh تعریف شده باشد، آن سند را نگه می دارم. من به عنوان طبقه بندی علامت گذاری می کنم و دوباره سند دیگری را تغذیه می کنم تا زمانی که همه 700 سند تکرار شوند 1: آیا امکان محاسبه دقیق وجود دارد ,Recall,F-score,Caccurity پس از طبقهبندی 700 سند بر اساس روش بالا. اگر بله پس چگونه؟ مانند دریافت اسناد TP و FP یک برچسب برای مثال از 700 سند، 300 سند به عنوان Label1 و 300 به عنوان Label2 طبقه بندی می شوند و 100 به عنوان طبقه بندی نشده سپس نحوه دریافت Tp، FP از اسناد label1 300 و همینطور برای 300 label2..Label1:TP=Doc1,Doc2,Doc4,Doc5......FP=Doc3,Doc6,Doc9..... و غیره
|
اعتبارسنجی متقاطع و محاسبه دقت در lib-linear
|
25791
|
اولویت های سلسله مراتبی چیست؟ چه تفاوتی با مفهوم کلی پیشینیان دارند؟
|
اولویت سلسله مراتبی در آمار بیزی چیست؟
|
27085
|
من برای مشاوره با مشکل زیر به این انجمن مراجعه می کنم. اگر لطف کنید در مورد هر جنبه ای از این سوال توضیح دهید، بسیار ممنون می شوم. **توضیح مشکل:** من سعی می کنم از یک SVM برای بخش بندی تصویری در مقیاس خاکستری از سوراخ در پلیمر استفاده کنم (با کیفیت اصلی 1280x1024، نمی توانم پست کنم، شهرت ندارم :) حالا، می دانم که احتمالاً این نیست مرسوم ترین روش برای نزدیک شدن به این مشکل است، اما هنوز هم می خواهم امتحان کنم که آیا به هر طریقی امکان پذیر است یا خیر. **کار من تاکنون:** من مشکل تقسیم بندی را به این صورت در نظر می گیرم: یک پیکسل معین را بر اساس مقدار و مقادیر پیکسل همسایگی آن طبقه بندی کنید، به عنوان مثال تعیین کنید که آیا پیکسل متعلق به پیش زمینه (پنچر) یا پس زمینه (هر چیزی غیر از سوراخ) است. . من این تصویر را با استفاده از GIMP برچسب گذاری کردم (برای اهداف آموزش SVM، به عنوان مثال محل سوراخ را مشخص کردم، به عنوان مثال به هر پیکسل یک کلاس داده می شود (1 - سوراخ کردن، -1 - پس زمینه)) و سعی کردم برخی از ویژگی های ساده را استخراج کنم: 1. مرکزی مقدار پیکسل + مقادیر پیکسل همسایگی با اندازه های مختلف همسایگی 2. ارزش پیکسل مرکزی + تفاوت بین ارزش پیکسل مرکزی و مقادیر پیکسل همسایگی 3. ارزش پیکسل مرکزی + طیف FFT 2 بعدی همسایگی (مولفه های دامنه و فاز) 4. انحراف معیار همسایگی توجه داشته باشید که من اندازه محله را از 3x3 = 9 بعد به 11x11 = 121 بعد تغییر دادم. من نتوانستم بالاتر بروم (من برای این کار از متلب استفاده می کنم، از خطاهای حافظه خارج می شوم). هیچ یک از این موارد به اندازه کافی تبعیض آمیز نبود. (من از PCA برای بازرسی، محاسبه فاصله بین کلاسی مرکزها و ماتریس های کوواریانس کلاس مربوطه آنها استفاده کردم). **پس، در نهایت، به سوال من: ** آیا می توانید ویژگی های مفیدی را برای استفاده برای این کار در نظر بگیرید؟ (من فکر می کردم برخی از معیارهای همگنی محله مفید باشد، زیرا داخل سوراخ کم و بیش از نظر روشنایی یکنواخت است، اما هیچ موردی پیدا نکردم. همچنین شاید برخی از ویژگی های بافت مفید باشد، اما چه کسی می داند.) به سلامتی. ، یعقوب
|
SVM برای تقسیم بندی تصویر؟
|
74366
|
فقط می خواستم بدانم آیا کسی می تواند به من کمک کند تا این اشتقاق تابع مولد احتمال را برای توزیع پواسون درک کنم، (تا آخرین مرحله آن را درک می کنم): $$\pi(s)=\sum^{\infty}_{ i=0}e^{-\lambda}\frac{\lambda^i}{i!}s^i$$ $$\pi(s)=e^{-\lambda}\sum^{\infty}_{i=0}\frac{e^{\lambda s}}{e^{\lambda s}}\frac {(\lambda s)^i}{i!}$$ $$= e^{-\lambda}e^{\lambda s} $$ این یک تولید مجدد از برخی یادداشتهای سخنرانی است، اما من مطمئن نیستم که چگونه از آخرین پله 2 به آخرین پله می پرد؟ اگه کسی بتونه مراحل میانی رو بهم نشون بده خیلی ممنون میشم!!
|
تابع مولد احتمال توزیع پواسون
|
25796
|
برای روشی برای محاسبه خسارت های مورد انتظار در بیمه، باید توزیع منطقی را فرض کنم. برای آزمایش از داده های انباشته سالانه استفاده می کنم. با یک نمونه کوچک محدود به 20 سال، ایده من استفاده از داده های تفکیک شده - ادعاهای ماهانه یا فردی است. اکنون متوجه شدم که مجموع ادعاهای منطقی به طور منطقی توزیع نشده است. آیا ایده ای برای بهبود قدرت آزمون وجود دارد؟ ویرایش: هدف کلی محاسبه نوسان ادعاها با برآورد حداکثر احتمال است. آزمون برای توزیع Kolmogorov-Smirnov است. مشکل این است که من داده های سالانه با حداقل 5 سال داده و حداکثر پس از 20 سال دارم. در پیشآزمایی با نمونههای تصادفی از توزیعهای لگ نرمال، نرمال و گاما، اگر دادهها واقعاً لگ نرمال باشند حتی با دادههای 5 ساله، نتایج خوبی به دست میآورم، اما آزمایش تنها حدود 5 درصد از نمونه توزیع شده گاما را با 5 سال داده کاهش میدهد. در 10000 نمونه).  در اینجا کد شبیه سازی است، اگر مشکلی با روشی که من آن را تنظیم کردم n = 5:20 حلقه = 10000 GammaRes = LogNormRes = NormRes = ماتریس (rep(NA، طول(n)*Loops)،nrow = Loops) for(j در 1:Loops) { تعداد = 0 برای (i در n) { count = count + 1 GammaVerluste = rgamma(i، شکل =2) LogNormVerluste = rlnorm(i) NormVerluste = rnorm(i) GammaRes[j,count] = ks.test(GammaVerluste, plnorm)$p.value LogNormRes[j,count] = ks.test(LogNormVerluste، plnorm) $p.value NormRes[j,count] = ks.test(NormVerluste, plnorm)$p.value } } Alpha = 0.01 DeclineGamma = DeclineNormal = DeclineLogNormal = rep(NA, length(n)) count = 0 for(i in 1:length(n)) { DeclineGamma [i] = مجموع (GammaRes[,i] <آلفا)/حلقهها DeclineNormal[i] = مجموع (NormRes[,i] < آلفا)/حلقهها DeclineLogNormal[i] = مجموع (LogNormRes[,i] < آلفا)/حلقهها}
|
مجموع مطالبات بیمه ای توزیع شده عادی
|
25248
|
من یک چرخه دارم که از یک سری اصلی با استفاده از فیلتر قطعی باکستر فیلتر کردم. با این حال، طرح چرخه هنوز مقداری نویز دارد و من می خواهم که تعیین کننده تر باشد و از یک سینوسیود کامل پیروی کند. من میتوانم یک رگرسیون تریگ چرخه را روی $\sin(2\pi\cdot\text{index}/12)$ اجرا کنم، اما نمیدانم چگونه اهمیت متغیرهای trig را آزمایش کنم زیرا مدل پلاک شده است. با همبستگی خودکار من میتوانم اصطلاحات AR را اضافه کنم، اما سعی میکنم موج سینوسی مناسبی را بیابم که با چرخه مطابقت داشته باشد، بدون اینکه دائماً تناوب آن را حدس بزنم. آیا کسی روشی برای تعیین بهترین متغیر تابع trig بدون آزمون و خطای ثابت دارد؟ چرخه ای که من دارم بسیار شبیه به این است:  که یک الگوی چرخه ای طبیعی دارد، اما می خواهم آن را به شکلی بیشتر مدل کنم. این:  هر کسی که نظر بدهد بسیار قدردانی می شود.
|
چگونه می توانم یک سینوس/کسینوس را در یک چرخه مشتق شده از یک فیلتر باکستر مدل کنم؟
|
27334
|
من به ویژه علاقه مند به شنیدن افکاری در مورد گام های بعدی منطقی در دستور کار تحقیقاتی افرادی هستم که به رویکرد تجربی به اقتصاد توسعه یا به ارزیابی سیاست علاقه مند هستند. بسیاری از مردم این تصور را رد می کنند که یک کارآزمایی کنترل شده تصادفی (RCT) می تواند پارامترهای خط مشی مربوطه را تخمین بزند. آنها به طور کلی برای رویکرد ساختاری بیشتر استدلال می کنند. آیا حد وسط خوبی وجود دارد و آیا ساختارگرایی آغاز به کار خواهد کرد؟
|
یک دستور کار تحقیقاتی خوب در رابطه با آزمایشات میدانی در توسعه چه خواهد بود؟
|
25794
|
من سعی می کنم یک مدل probit سفارشی را در pymc پیاده کنم و گیر کردم. این مدل شبیه خرد چند بعدی جمعیت ولیندر است، با کدگذارها (نمایه شده توسط i) و اسناد (نمایه شده توسط j). کدگذارها کدهایی را به اسناد اختصاص می دهند، اما فرآیند کدگذاری نویزدار است. ما می خواهیم دو چیز را تخمین بزنیم. اول، $z_j$، ارزش واقعی و اساسی هر سند در امتداد برخی از ابعاد پنهان. دوم، $\beta_i$، شرایط سوگیری نشان میدهد که ارزیابیهای هر کدنویس چقدر با میانگین گروه مطابقت دارد. اگر کدها در مقیاس پیوسته باشند، این کار بسیار آسان خواهد بود، اما دادههایی که من در اختیار دارم، ترتیبی هستند. کدها در محدوده 1،2،...،5 قرار می گیرند. به طور رسمی، میتوانیم آن را به صورت زیر نشان دهیم: $x_{ij} \sim Normal( \alpha_i + \beta_iz_j, 1)$ $code_{ij} = cut(x_{ij}, w)$ که در آن $cut$ یک برش است تابعی که مقادیر را بر اساس شاخص بالاترین نقاط برش، $w$، تخصیص می دهد که با $x_{ij}$ بیشتر از آن است. تا اینجای کار خیلی خوبه. مشکل این مدل این است که تابع نقطه قطعی قطعی است و کدها رعایت می شوند. اما در pymc (و در سایر برنامههای MCMC، به عنوان مثال JAGS)، یک گره قطعی نیز قابل مشاهده نیست. بنابراین این مدل را نمی توان مستقیماً در pymc ساخت. به نظر می رسد که احتمالاً راهی وجود دارد که $x$ را قطعی و $codes$ را به عنوان تابع تصادفی $x$ در نظر بگیریم. این احتمالاً باعث میشود $code$ یک گره دستهبندی را شامل شود. اما من مطمئن نیستم که چگونه تابع احتمال را مشخص کنم، و کمی نگرانم که ممکن است کل رویکرد من خاموش باشد. کسی میتونه منو درست کنه؟ همچنین -- لانگ شات -- اگر کسی هست که در pymc کد می نویسد، دیدن کد منبع برای این کار عالی است. Ordinal probit/logit یک مدل کاملا استاندارد است، اما من نمی توانم یک نمونه pymc را در هیچ کجای آنلاین پیدا کنم.
|
پیاده سازی مدل پروبیت مرتب در pymc
|
60743
|
بنابراین، من فکر می کنم که درک مناسبی از مبانی احتمال فراوانی و تحلیل آماری دارم (و اینکه چقدر می توان از آن بد استفاده کرد). در یک دنیای مکررگرا، منطقی است که چنین سوالی بپرسیم که آیا این توزیع با آن توزیع متفاوت است، زیرا فرض می شود که توزیع ها واقعی، عینی و تغییرناپذیر هستند (حداقل برای یک موقعیت معین)، و بنابراین ما می توانیم آن را رقم بزنیم. مشخص کنید که چقدر احتمال دارد که یک نمونه از توزیعی شبیه نمونه دیگر گرفته شود. در جهان بینی بیزی، با توجه به تجربیات گذشته خود، ما فقط به آنچه انتظار داریم ببینیم اهمیت می دهیم (من هنوز در این بخش کمی مبهم هستم، اما مفهوم به روز رسانی بیزی را درک می کنم). اگر چنین است، چگونه یک بیزی می تواند بگوید این مجموعه داده با آن مجموعه داده متفاوت است؟ برای اهداف این سوال، من به اهمیت آماری، یا موارد مشابه، فقط نحوه کمی کردن تفاوت اهمیتی نمی دهم. من به یک اندازه به توزیع های پارامتریک و ناپارامتریک علاقه مند هستم.
|
بیزی ها چگونه توزیع ها را مقایسه می کنند؟
|
25793
|
من باید برای همبستگی 4 مجموعه از پارامترهای آب و هوا بین 2 سایت آزمایش کنم. من علاقه ای به تعامل بین پارامترها ندارم. از آنجایی که هیچ پارامتر آب و هوا مستقل از سایر پارامترهای آب و هوا نیست، اگر من صرفاً سعی میکردم تعیین کنم که آیا هر پارامتر بین 2 سایت متفاوت است یا خیر، از یک MANOVA و به دنبال آن تستهای _t_-مقایسههای چندگانه استفاده میکردم و با استفاده از یک خطای خانوادگی را تصحیح میکردم. روش بونفرونی اما از آنجایی که میخواهم ببینم آیا پارامترها بین سایتها _همبسته هستند یا نه، مطمئن نیستم چه کار کنم. آیا آزمون فراگیر (مانند MANOVA) وجود دارد که باید قبل از چه مقدار همبستگی مقایسه چندگانه اعمال شود؟ یا می توانم فقط چند همبستگی اسپیرمن را انجام دهم و از آنجا تفسیر کنم؟ **ویرایش**: فکر میکنم در درازمدت واقعاً برای من مهم نیست که این دو پارامتر از نظر آماری به طور معنیداری همبستگی داشته باشند. آنچه اهمیت دارد، قدرت همبستگی آنهاست. از اون چیزی که من فهمیدم ذهنی هست (براساس زمینه)...این درسته؟ در این رابطه، آیا چیزی برای مقایسه چندگانه وجود دارد که باید در نظر داشته باشم؟
|
آزمون مقایسه چندگانه فراگیر برای همبستگی؟
|
17029
|
نمیدانم که آیا دادههای طبقهبندی براساس تعریف فقط میتوانند مقادیر بینهایتی را بهطور محدود یا قابل شمارش داشته باشند؟ و دیگر، یعنی مقادیر غیرقابل شمارش زیاد نیست؟ سوال مرتبط: آیا توزیع یک متغیر مقوله ای همیشه یک توزیع گسسته است یا یک توزیع پیوسته؟ با تشکر و احترام!
|
آیا داده های مقوله ای فقط می توانند مقادیر بی نهایت محدود یا قابل شمارش داشته باشند؟
|
64044
|
من پاسخ هایی به یک آیتم پرسشنامه از تعدادی از افراد دارم که در مقاطع زمانی مساوی اندازه گیری شده است. من مایلم یک مدل مخلوط رشد (در R، با استفاده از بسته LCMM) به این دادهها برای یافتن کلاسهای نهفته برازش کنم. داده های من چیزی شبیه به این است: شناسه مورد-نقطه زمانی پاسخ ----------------------- 1 3 1 1 2 2 1 2 3 2 2 1 2 3 2 2 2 3 2 1 4 2 1 5 2 3 6 2 2 7 2 2 8 2 2 9 2 1 10 2 4 11 2 2 12 3 1 1 3 1 2 3 1 3 3 1 4 3 1 5 . . . . . . . . . این مورد یکی از 13 مورد پرسشنامه وضعیت خلقی است. پاسخ ها در مقیاس لیکرت (1 تا 5) داده می شود. نمودار منحنی های پاسخ چهار فرد اول به این صورت است:  من نگران این واقعیت هستم که تعداد اندازه گیری ها در هر فرد یکسان نیست. آیا این یک مشکل بزرگ برای مدل های مخلوط رشد است یا نه؟ **[ویرایش] شامل ستونی از نقاط زمانی**
|
مدلسازی مخلوط رشد با تعداد نابرابر اندازهگیری در هر فرد
|
25798
|
این احتمالاً یک سؤال بسیار اساسی برای این هیئت است - اما از طرف دیگر، می دانم که پاسخ های خوبی دریافت خواهم کرد. اتفاقا آمار 101 یک استعاره است. من برای کارم کمک می خواهم نه تکلیفم! من به جمع آوری داده های مالی برای بیمارستان ها نگاه می کنم. من دو سیستم بیمارستانی را شناسایی کردهام که مازاد عملیات (سود) غیرمعمول زیادی را در مقایسه با همتایان خود جمعآوری میکنند - در محدوده 8٪ تا 12٪ وقتی استاندارد برای یک بیمارستان غیرانتفاعی 3٪ است. این مبلغ پس از هزینه ها به صدها میلیون دلار می رسد. من معیاری را با تقسیم این سود بر پذیرشهای سالانه تعدیلشده براساس مورد ایجاد کردم و نتایج حجم یا ترکیبی از نوع بیمار را بهعنوان دلایل این تفاوت نفی میکند. من همچنین هزینه ها را بررسی کردم و آنها تقریباً مشابه بیمارستان همتا هستند، بنابراین هزینه های کم نیز توضیحی نیست. این نشان می دهد که قیمت به عنوان دلیل باقی مانده برای تفاوت. فقط داده های انبوه در دسترس است - من داده های سطح موردی ندارم. صرفاً با رتبهبندی فهرست ۸۵ بیمارستانی من، «سود هر بیمار» سالانه برای این دو بیمارستان به بالای فهرست میرسد. تفاوت بین این دو بیمارستان به اندازه کافی زیاد است که من مطمئن هستم که اگر آزمون درست را انجام دهم واریانس از نظر آماری معنی دار خواهد بود. من می خواهم این کار را انجام دهم - نشان می دهد که بسیار بعید است که این تغییرات شانسی باشد. آیا می توانید بهترین تست را برای اجرا روی این ارقام توصیه کنید؟ به هر حال، من از طریق کارفرمای خود به SPSS یا SAS دسترسی ندارم، بنابراین احتمالاً این کار را در اکسل یا احتمالاً Access امتحان می کنم.
|
یک سوال آمار 101 با یک برنامه دنیای واقعی
|
74368
|
من دو متغیر دارم که رفتار تقلب را پیش بینی می کند (متغیر وابسته). متغیرهای مستقل عبارتند از ادراک اشتباه بودن تقلب (1-5) و احتمال دستگیر شدن (1-5). متغیر وابسته فراوانی ارتکاب کلاهبرداری در 5 سال گذشته (هرگز، یک بار، 2-3 بار، 4 بار و بیشتر) است. دو سوال: 1. از چه نوع رگرسیون استفاده کنم؟ ترتیبی؟ 2. تئوری پیش بینی می کند که تعامل این دو متغیر تقلب را پیش بینی می کند. برای کسانی که آن را اشتباه درک می کنند، احتمال گرفتار شدن تاثیر متفاوتی نسبت به کسانی دارد که آن را درست درک می کنند. چگونه باید این را وارد مدل کنم؟
|
اثر متقابل متغیرها در رگرسیون
|
27332
|
من از R استفاده می کنم، در گوگل جستجو کردم و فهمیدم که «kpss.test()»، «PP.test()» و «adf.test()» برای اطلاع از ثابت بودن سری های زمانی استفاده می شود. اما من آماردانی نیستم که بتوانم نتایج خود را تفسیر کند > PP.test(x) داده های تست ریشه واحد فیلیپس-پرون: x Dickey-Fuller = -30.649، پارامتر تاخیر کوتاهی = 7، p-value = 0.01 > kpss.test (b$V1) تست KPSS برای داده های سطح ثابت: b$V1 سطح KPSS = 0.0333، پارامتر تاخیر کوتاهی = 3، p-value = 0.1 پیام اخطار: در kpss.test(b$V1): p-value بیشتر از p-value چاپ شده > adf.test(x) داده های تست Dickey-Fuller Augmented: x Dickey-Fuller = -9.6825، ترتیب تاخیر = 9، p-value = 0.01 جایگزین فرضیه: ثابت پیام اخطار: در adf.test(x): p-value کوچکتر از p-value چاپی من با هزاران سری زمانی سروکار دارم، لطفاً به من بگویید چگونه ثابت بودن سری های زمانی را از نظر کمی بررسی کنیم.
|
چگونه بفهمیم یک سری زمانی ثابت است یا غیر ثابت؟
|
33101
|
فرض کنید ما بردارهای بعدی $p$Y_i$ داریم که آنها را با $f_Y مدل می کنیم (y |\theta) = \sum \pi_k N(y | \mu_k، \Sigma_k)$ که $\theta$ همه چیز برای پارامترهای مدل (تعداد اجزا ممکن است یک عدد محدود شناخته شده/ناشناخته یا نامتناهی مانند مخلوط های فرآیند دیریکله باشد). قبلی روی $\pi$ یا یک پیشین یکنواخت یا Stick-breaking با احتمالاً hyperprior روی پارامتر دقیق مرتبط خواهد بود. انتخاب های قبلی پیش فرض خوب برای اجزای خوشه $(\mu_k، \Sigma_k)$ چیست؟ من از مزدوج Normal-inverse-Wishart استفاده کرده ام، یعنی $$ (\mu_k، \Sigma_k) \sim \mathcal N(\mu_k |m، \Sigma_k / n_0) \mathcal W^{-1} (\Sigma_k | \Psi، \nu). $$ سپس $\nu، n_0$ نسبتاً کوچک را تصحیح می کنم و یا $m$ و $\Psi$ را به صورت تجربی تخمین می زنم، یا hyperpriors مستقل را مشخص می کنم و پارامترهای کلیدی hyperpriors را به صورت تجربی تخمین می زنم (از آنچه می توانم بگویم، شواهدی وجود دارد. که مردم این کار را انجام می دهند، زیرا به نظر می رسد همان کاری است که در عکس های DPpackage انجام می شود). در نهایت، من میخواهم چیزها را طوری تنظیم کنم که قبلی نسبتاً بیاطلاع باشد (با حداقل امید به افزودن دانش قبلی به روشی سیستماتیک)، اما پارامترهای زیادی در اطراف و تأثیر فردی هر یک وجود دارد. همیشه شفاف نیست من با مقالاتی در مورد این موضوع برخورد کرده ام که راهنمایی برای انتخاب پارامترها به صورت تجربی ارائه می کنند، اما آنها عمدتاً روی $p = 1$ تمرکز دارند. با توجه به اینکه این مدلها در ناپارامتریکهای بیزی فراگیر هستند، تصور میکنم دستورالعملهایی باید وجود داشته باشند و من آنها را پیدا نکردهام. در حالت ایدهآل، من میخواهم پاسخها در اینجا تا حد امکان دقیق باشند. به طور خاص، من بیشتر علاقه مند به انتخاب ابرپارامترها در پیشین/هایپرپیش هستم.
|
پیشفرضهای پیشفرض برای مخلوطها
|
33100
|
من با یک نظرسنجی کار می کنم که از فرمت جمع آوری داده های متحرک استفاده می کند (یعنی امواج متعدد نمونه گیری و تماس های اولیه وجود دارد). من سعی میکنم الگویی ایجاد کنم تا پیشبینی کنم که یک عضو نمونه چقدر احتمال دارد که ظرف 7 هفته از امروز به نظرسنجی پاسخ دهد. پیشبینی اینکه آیا پاسخدهندهای که امروز برای اولین بار با او تماس گرفته میشود، در عرض 7 هفته پاسخ میدهد یا خیر، بسیار ساده است - فقط یک مدل گرایش اولیه که پاسخ را طی هفت هفته پس از تماس اولیه پیشبینی میکند. با این حال، پیشبینی اینکه آیا پروندهای که از قبل چندین هفته در میدان بوده است در 7 هفته آینده پاسخ خواهد داد یا نه، دشوارتر است. سوال من این است که چگونه می توانم این را در نظر بگیرم که احتمال پاسخ بر اساس مدت زمانی که مورد پاسخگو نبوده است تغییر می کند (یعنی احتمال پاسخ اولیه پاسخ دهنده ممکن است 0.75 بوده باشد، اما اگر بعد از 4 همچنان پاسخگو باشند. هفته ها، آنها احتمالاً غیرپاسخگو خواهند ماند)؟ من فقط میتوانم مدت زمانی را که پرونده در میدان بوده است به عنوان یک متغیر در مدل تمایل لحاظ کنم، اما مطمئن نیستم که آیا این روش مناسبی برای رسیدگی به آن است یا خیر. به نظر می رسد این ممکن است موقعیتی برای تجزیه و تحلیل بقا باشد، اما دانش من در آن زمینه محدود است. هر گونه پیشنهادی در مورد یک رویکرد، مدل یا تحقیق قبلی که باید در نظر بگیرم بسیار قدردانی خواهد شد.
|
پیش بینی تمایل به پاسخ در مجموعه داده های متحرک
|
36084
|
مشکل اینجاست (نه تکلیف)، اجازه دهید $U_1,\cdots,U_n$ i.i.d باشد. یکنواخت $(-n,n)$ متغیرهای تصادفی. برای $-n<a<b<n$، تابع نشانگر $1_{U_i}(a,b)$ را تنظیم کردیم به طوری که $1_{U_i}=1$ اگر $U_i\in(a,b)$ باشد. و 0 در غیر این صورت. توزیع تقریبی به صورت n بزرگ $U_1+،\cdots،+U_n$ چیست. من تابع مشخصه $U_1+,\cdots,+U_n$ را محاسبه کردم، یعنی $\phi(t) = \left(\frac{sin(nt)}{nt}\right)^n$، اما من نمیکنم نمی دانم چگونه به نتیجه نهایی برسید. ضمناً من هیچ ایده ای برای استفاده از اشاره در مشکل ندارم. لطفاً چند نکته یا ارجاع به من بدهید. با تشکر
|
همگرایی ضعیف
|
36082
|
آیا مشکل جالبی در زمینه تحلیل و بازیابی تصویر سند وجود دارد که طبیعتاً به فرآیند خوشهبندی آنلاین/افزایشی نیاز دارد؟ مشکل ممکن است در زمینه «تحلیل ساختار منطقی» یا «تحلیل طرحبندی سند» برای شناسایی مناطق مورد علاقه در یک صفحه اسکن شده یا هر موضوع مرتبط دیگری باشد. آنچه اهمیت دارد این است که مشکل در نظر گرفته شده به طور طبیعی نیاز به یک خوشه بندی آنلاین/افزایشی دارد. آیا ایده یا پیشنهادی در مورد چنین مشکلاتی دارید؟ توجه: تصاویر سند در نظر گرفته شده در واقع یک اسناد اداری اسکن شده هستند
|
تجزیه و تحلیل و بازیابی تصویر سند با خوشهبندی افزایشی آنلاین
|
36086
|
من اخیراً به دنبال راههایی برای نمونهبرداری مجدد سریهای زمانی بودم، به روشهایی که 1. تقریباً همبستگی خودکار فرآیندهای حافظه طولانی را حفظ کند. 2. دامنه مشاهدات را حفظ کنید (مثلاً یک سری زمانی مجدد نمونه برداری شده از اعداد صحیح هنوز یک سری زمانی از اعداد صحیح است). 3. در صورت لزوم ممکن است فقط بر روی برخی از مقیاس ها تأثیر بگذارد. من طرح جایگشت زیر را برای یک سری زمانی به طول $2^N$ ارائه کردم: * سری زمانی را با جفت مشاهدات متوالی بن کنید ($2^{N-1}$ چنین سطل هایی وجود دارد). هر یک از آنها را (_i.e._ index از '1:2' به '2:1') به طور مستقل با احتمال $1/2$ برگردانید. * سریهای زمانی بهدستآمده را با مشاهدات متوالی $4$ محفوظ کنید (3$2^{N-2}$ چنین سطلهایی وجود دارد). هر یک از آنها را معکوس کنید (شاخص _i.e._ از «1:2:3:4» به «4:3:2:1») با احتمال $1/2$. * این روش را با سطلهایی با اندازههای $8$، $16$، ...، $2^{N-1}$ تکرار کنید. این طرح کاملاً تجربی بود و من به دنبال کاری هستم که قبلاً در مورد این نوع جابجایی منتشر شده باشد. من همچنین آماده پیشنهادات برای جایگزینی های دیگر یا طرح های نمونه برداری مجدد هستم.
|
این جایگشت چیست؟
|
21574
|
تقریب انتظار زیر را در نظر بگیرید: $$\mathbb{E}[h(x)] = \int h(x)\pi(x) dx$$ که در آن $h(x)$ یک تابع دلخواه و $\pi( x)$ توزیعی است که **ثابت نرمال کننده برای آن مشخص نیست**. همچنین، با فرض اینکه انتگرال فوق بسیار متغیر و ابعاد بالا باشد، رویکرد استاندارد استفاده از روشهای MCMC برای نمونهبرداری از نقاط $\{x^{(i)}\}_{i=1}^N$ است که بر اساس توزیع شدهاند. $\pi(x)$ و میانگین نمونه را برگردانید: $$ \mathbb{E}[h(x)] \approx \frac{1}{N} \sum_{i=1}^N \ h(x^{(i)}) $$ سوال من این است که اگر تابع $h(x)$ نیز بسیار متغیر باشد، یعنی $\pi(x)$ بسیار متفاوت از نمونه بهینه است. توزیع $q^*(x) = |h(x)|\pi(x)/Z$، آیا راه ساده ای برای اصلاح روش های MCMC برای بهبود واریانس برآورد وجود دارد؟ یعنی چگونه MCMC (و روش های مرتبط) می تواند تغییرپذیری (یا پراکندگی و غیره) $h(x)$ را در نظر بگیرد؟ همچنین، قبلاً یک سؤال مرتبط پرسیدم که آیا میتوان از روشهای مونت کارلو برای نمونهگیری از $q^*(x)$ استفاده کرد و از تخمینگر نمونهگیری اهمیت وزنی برای جبران این واقعیت که نرمالکننده شناخته شده نیست، استفاده کرد. پاسخ اساساً این بود که این ایده خوبی نیست، زیرا نیاز به تخمین میانگین هارمونیک $h(x)$ زیر $q^*(x)$ دارد که در عمل احتمالاً واریانس نامحدودی دارد. بنابراین، حداقل فعلاً این رویکرد را کنار بگذاریم. ویرایش: کلمات کلیدی MCMC کاهش واریانس در واقع برای یافتن روشهایی مفید هستند که به این موضوع رسیدگی میکنند، من چند روش با استفاده از متغیرهای کنترل، متغیرهای ضد و برخی روشهای تطبیقی مانند مونت کارلو واریانس صفر پیدا کردم. شاید کسی بتواند در مورد قابل اجرا بودن این روش ها نظر دهد یا موارد بیشتری را به لیست من اضافه کند. با تشکر ویرایش: در پاسخ به پاسخ شیان فکر کردم که سوال را به روز کنم. اول از همه، به نظر می رسد که اولین سوال من که در آن پرسیدم چگونه می توان از MCMC برای نمونه برداری از $q^*(x)$ استفاده کرد، در مواردی که نرمال کننده برای $\pi(x)$ شناخته شده بود، در ادبیات مطرح شده است. در درجه اول به عنوان مشکل محاسبه ثابت نرمال سازی، یا معادل آن: شواهد مدل، تابع پارتیشن، یا تابع انرژی. به نظر می رسد روش های مختلفی برای انجام این کار با MCMC وجود دارد و من فصل 4 پایان نامه دکترای ایین موری را مروری عالی از ایده های اصلی یافتم. همچنین، مقاله اخیر ذکر شده در پاسخ Xian روشی به نام MCIS را توضیح می دهد که مزایای خاصی را نسبت به این روش های موجود ارائه می دهد. با این حال، پس از بررسی بسیاری از این مقالات، باید به این نتیجه برسم که هیچ یک از این ایدهها به اندازهای که انتظار داشتم «سرراست» نبوده است. در رابطه با این سوال، پاسخ اساساً این است: نه، هیچ راه ساده ای برای حل این مشکل وجود ندارد به جز تخمین ثابت نرمال سازی برای $\pi(x)$ به طور جداگانه. یعنی اگر اجازه دهیم: $\hat\pi(x) = \pi(x)/Z$ نشان دهنده توزیع غیرعادی ما باشد و $I = \int h(x)\hat\pi(x) dx$ نشان دهنده کمیت باشد. ما میتوانیم از هر روش MCMC که برای تخمین ثابتهای نرمالسازی طراحی شدهاند استفاده کنیم تا $I$ و $Z$ را جداگانه تخمین بزنیم و نسبت $\frac{I}{Z}$ را برگردانیم. اینکه چگونه این روش ساده به نمونه برداری پل مربوط می شود، من هنوز کمی مطمئن نیستم.
|
آیا زمانی که تابع مورد نظر (نه فقط توزیع) پیچیده است، می توان روش MCMC را برای کاهش واریانس تغییر داد؟
|
70625
|
من تازه متوجه شدم که با وجود اینکه می دانم چگونه یک آزمون تی نمونه مستقل یا یک تست من ویتنی را انجام دهم، مطمئن نیستم که نتایج آنها چگونه باید در یک مقاله گزارش شود. این مطالعه را برای آماده شدن برای کلاس روش تحقیق به من داده بودند تا بخوانم، اما تست های آسان را گزارش نمی کند، بنابراین تعجب می کنم. ویرایش در پاسخ به نظر: منظورم گزارش بر اساس دستورالعمل های دقیق علمی است. من فکر می کنم یک قانون وجود دارد، به طور مشابه زمانی که به عنوان مثال، متغیرهای توزیع شده عادی را گزارش می کنیم، میانگین و SD را ذکر می کنیم. ویرایش شماره دو :) متاسفم که متوجه نشدم خاص نبودم. گرایش من تحقیقات پزشکی است، بنابراین در درجه اول علاقه مندم بدانم بهترین راه برای ارائه داده ها در مقالاتی که از مطالعات پزشکی حاصل می شود چیست. کلاسی که من در حال حاضر شرکت می کنم، کلی تر است هرچند (مقاله مربوط به مطالعه ای از دانشکده حقوق بود) بنابراین به ذهنم نرسید که این جزییاتی است که باید در وهله اول به آن اشاره می کردم. بنابراین، فرض کنید بررسی کردم که آیا x_bubblenephrine بین گروهی از افرادی که Y-itis دارند و گروهی از افرادی که این بیماری را ندارند، متفاوت است یا خیر. بگو که من p>0005 گرفتم. آیا فی نفسه روش صحیحی برای گزارش این موضوع وجود دارد؟ یا می توانم با هیچ تفاوتی بین دو گروه وجود نداشت (p>0,05) فرار کنم؟
|
روش صحیح گزارش نتایج آزمون t دو نمونه مستقل و من ویتنی چیست؟
|
70629
|
چگونه می توان عدم قطعیت شیب رگرسیون خطی را بر اساس عدم قطعیت داده ها (احتمالاً در Excel/Mathematica) محاسبه کرد؟ مثال:  بیایید نقاط داده (0,0), (1,2), (2,4), (3,6) داشته باشیم )، (4،8)، ... (8، 16)، اما هر مقدار y دارای عدم قطعیت 4 است. اکثر توابعی که من پیدا کردم عدم قطعیت را 0 محاسبه می کنند، زیرا نقاط کاملاً با تابع y=2x مطابقت دارند. اما همانطور که در تصویر نشان داده شده است، y=x/2 نیز با نقاط مطابقت دارد. این یک مثال اغراق آمیز است، اما امیدوارم آنچه را که نیاز دارم را نشان دهد. ویرایش: اگر بخواهم کمی بیشتر توضیح دهم، در حالی که هر نقطه در مثال مقدار مشخصی y دارد، وانمود می کنیم که نمی دانیم درست است یا خیر. به عنوان مثال اولین نقطه (0,0) در واقع می تواند (0,6) یا (0,-6) یا هر چیزی در این بین باشد. من می پرسم آیا الگوریتمی در هر یک از مشکلات رایج وجود دارد که این را در نظر بگیرد؟ در مثال، نقاط (0،6)، (1،6.5)، (2،7)، (3،7.5)، (4،8)، ... (8، 10) هنوز در محدوده عدم قطعیت قرار دارند، بنابراین ممکن است آنها نقاط درست باشند و خطی که آن نقاط را به هم وصل می کند یک معادله دارد: y = x/2 + 6، در حالی که معادله ای که از فاکتور نگرفتن در عدم قطعیت ها به دست می آوریم دارای معادله: y=2x + 0 است. عدم قطعیت k 1،5 و از n 6 است. TL;DR: در تصویر، یک خط y=2x وجود دارد که با استفاده از حداقل مربعات برازش محاسبه شده است و کاملاً با داده ها مطابقت دارد. من سعی میکنم پیدا کنم که چقدر k و n در y=kx + n میتوانند تغییر کنند اما اگر عدم قطعیت در مقادیر y بدانیم همچنان با دادهها مطابقت دارند. در مثال من، عدم قطعیت k 1.5 و در n برابر با 6 است. در تصویر بهترین خط برازش و خطی وجود دارد که به سختی با نقاط مطابقت دارد.
|
محاسبه عدم قطعیت شیب رگرسیون خطی بر اساس عدم قطعیت داده ها
|
84164
|
من یک دو مجموعه داده از مجموعه ای از افراد با مقادیر برای بازدید اولیه و بعدی آنها دارم. من می خواهم یک آزمایش اندازه گیری مکرر انجام دهم تا ببینم آیا تفاوت معنی داری بین دو مجموعه (پایه و پیگیری) وجود دارد یا خیر. من می دانم که می توانم یک آزمون t زوجی ساده انجام دهم. اما من باید مقادیرم را برای متغیرهای کمکی مانند سن و غیره تنظیم کنم... میخواهم یک روش GLM (در صورت امکان) انجام دهم تا ببینم آیا تفاوت معنیداری بین این دو مجموعه با تنظیمات کمکی وجود دارد یا خیر. لطفا راهنمایی کنید که چگونه می توانم این کار را در R انجام دهم.
|
آزمون t اندازه گیری مکرر با متغیرهای کمکی در R
|
17233
|
من باید مفهوم مدل های ترکیبی خطی را در مقاله ای با هدف مخاطبان اصلی توضیح دهم. آیا راهی برای بیان اصل مفهوم در یک یا دو جمله وجود دارد؟
|
چگونه می توان مدل های ترکیبی خطی را برای افراد عادی توضیح داد؟
|
110359
|
همانطور که در ویکیپدیا آمده است، من میدانم که توزیع t، توزیع نمونهای از مقدار t است، زمانی که نمونهها مشاهدات iid از یک جمعیت معمولی توزیع شده باشند. با این حال، من به طور شهودی نمی فهمم که چرا این باعث می شود که شکل توزیع t از دم چربی به تقریباً کاملاً عادی تغییر کند. من متوجه شدم که اگر از یک توزیع معمولی نمونه برداری می کنید، اگر یک نمونه بزرگ بگیرید، شبیه آن توزیع خواهد بود، اما من نمی فهمم که چرا با شکل دم چرب شروع می شود.
|
چرا با افزایش حجم نمونه، توزیع t نرمال تر می شود؟
|
33103
|
فرض کنید من یک ماتریس توصیه به سبک نتفلیکس دارم و میخواهم مدلی بسازم که رتبهبندی فیلمهای بالقوه آینده را برای یک کاربر مشخص پیشبینی کند. با استفاده از رویکرد Simon Funk، میتوان از شیب نزولی تصادفی برای به حداقل رساندن هنجار Frobenius بین ماتریس کامل و آیتم به آیتم * ماتریس کاربر به کاربر همراه با یک اصطلاح تنظیم L2 استفاده کرد. در عمل، افراد با مقادیر از دست رفته از ماتریس توصیه چه می کنند، که تمام هدف انجام محاسبات است؟ حدس من از خواندن پست وبلاگ سایمون این است که او فقط از اصطلاحات گمشده (که از (مثلاً) 1٪ از ماتریس توصیه تشکیل شده است) استفاده می کند تا یک مدل (با برخی از انتخاب های عاقلانه از فراپارامترها و منظم سازی) برای پیش بینی بسازد. 99 درصد دیگر ماتریس؟ در عمل، آیا واقعاً از همه آن ارزش ها صرف نظر می کنید؟ یا قبل از انجام نزول گرادیان تصادفی تا حد امکان استنباط می کنید؟ برخی از بهترین شیوه های استاندارد برای مقابله با ارزش های گمشده کدامند؟
|
SVD یک ماتریس با مقادیر گمشده
|
33105
|
من در حال کار بر روی یک پروژه تجزیه و تحلیل داده در حال انجام در مورد یک سری سمینارهای آموزشی زنده هستم. هر یک از نقاط داده من نشان دهنده یک چنین رویدادی است، و برای هر یک از آنها متغیرهای طبقه بندی زیادی، و همچنین چند متغیر کمی دارم که متغیرهای پاسخ مورد نظر من هستند (کل درآمد و تعداد شرکت کنندگان). یکی از روندهایی که من علاقه مند به بررسی آن هستم این است که چگونه فراوانی این رویدادها بر دو متغیر پاسخ من تأثیر می گذارد. در طول سالها، فراوانی رویدادها را افزایش دادهایم و میخواهم تعیین کنم که آیا ادامه این کار منطقی است یا خیر. من چند متغیر برای کمک به ردیابی این فرکانس ایجاد کردهام: «NEAREST.SEM» - تعداد روزهای بین این رویداد و نزدیکترین رویداد به آن بهصورت زمانی در هر جهت «LAST.SEM» - تعداد روزهای بین این رویداد و نزدیکترین رویداد به ترتیب زمانی _پیش از آن 'WEEKLY.SEMS' - تعداد کل رویدادهایی که در طول دوره 7 روزه از دوشنبه شروع می شود و این رویداد در آن برگزار می شود بسته به نحوه انجام آن من تجزیه و تحلیل را انجام میدهم، به نظر میرسد این سه متغیر دارای اهمیت متفاوتی هستند، اما متغیری که بهنظر میرسد به طور مداوم در صدر قرار میگیرد، «NEAREST.SEM» است که در یک آزمون در سطح 0.01 و در سطح 0.001 معنیدار است. در دیگری دو متغیر دیگر در پیشبینی درآمد مهم هستند اما تعداد شرکتکنندگان، که ایدهآل نیست زیرا ما بیشتر به تعداد شرکتکنندگان علاقهمندیم. (دادههای درآمد نشاندهنده کل درآمد برای هر رویداد به دلیل پیشنهادهای ویژه خاص برای مشتریان تکراری نیست که در آنجا در نظر گرفته نشده است.) به نظر میرسد افزایش دفعات رویدادها عملکرد فردی هر رویداد را کاهش میدهد، اما تاکنون افزایش عملکرد کلی من می خواهم نقطه عطفی را تعیین کنم که در آن عملکرد کلی یا کاهش یا کاهش می یابد. متأسفانه، پیشبینی این امر دشوار خواهد بود، زیرا بهترین متغیر من، «NEAREST.SEM»، به خوبی نشاندهنده فرکانس افزایشیافته نیست. به عنوان مثال، توجه داشته باشید که 4 یا 5 رویداد در هفته دقیقاً یکسان به نظر می رسد - در چنین شرایطی همیشه مقدار 1 خواهد بود. در واقع، هر زمانی که رویدادها در خوشههای روزهای متوالی گروهبندی شوند، ما همیشه برای آنها در این متغیر 1 دریافت میکنیم... یکی از گزینهها این است که فقط از «WEEKLY.SEMS» به عنوان پیشبینیکننده درآمد استفاده کنیم، که اینطور است. همبستگی خوبی دارد، اما همانطور که گفتم، ما ترجیح میدهیم این تحلیل را بر اساس تعداد شرکتکنندگان انجام دهیم، که معیار بهتری برای موفقیت یک رویداد است. بنابراین من واقعاً در اینجا دو سؤال دارم: 1. پیشنهادی در مورد معضل من در مورد اینکه از کدام متغیر استفاده کنم و چگونه با مشکلاتی که در بالا گفتم؟ 2. هنگامی که من در مورد یک عامل پیش بینی تصمیم گرفتم، چگونه می توانم در مورد تخمین کاهش متوسط درآمد افزایش به فرکانس های مختلف اقدام کنم؟ آیا باید با استفاده از همه متغیرهایم یک رگرسیون چندگانه اجرا کنم و از ضریب عامل پیش بینی استفاده کنم؟ یا باید رگرسیون را فقط با یک عامل و پاسخم اجرا کنم و از آن ضریب استفاده کنم؟ یا آزمونی بهتر از رگرسیون برای استفاده وجود دارد؟ (به هر حال، من از R برای تجزیه و تحلیل خود استفاده می کنم و از هر توصیه ای که به طور خاص برای آن زبان طراحی شده باشد، قدردانی می کنم.) به روز رسانی: من سعی کرده ام دو معیار جدید ایجاد کنم، یکی که میانگین فاصله در روزهای نزدیکترین رویداد در هر کدام است. طرف، و یکی که تعداد رویدادها در 3 روز در هر دو جهت است... هیچ یک از آنها هیچ ارتباط معنی داری نداشتند. من اینجا دارم تمام ایده هام میره...
|
پیشبینی تأثیر افزایش دفعات سمینار
|
76485
|
من داده های تجزیه و تحلیل لاگ وب (AWStats) را از وب سایت کتابخانه دانشگاه دارم. من به تعداد بازدیدها در ماه تقسیم بر تعداد اعضای هیئت علمی به اضافه ثبت نام دانشجو (بازدید به ازای تعداد نفر) نگاه می کنم. این یک روند نزولی همراه با فصلی قوی را نشان می دهد. همچنین، ثبت نام در مقطع کارشناسی در چند سال گذشته به طور پیوسته افزایش یافته است، در حالی که ثبت نام فارغ التحصیلان ثابت مانده است. بنابراین، من یک رگرسیون را با مدل خطاهای ARMA برازش میدهم، با نسبت تعداد دانشجوی فارغالتحصیل به تعداد کاردانی به عنوان یک متغیر توضیحی (زیرا دانشجویان تحصیلات تکمیلی بیشتر از دانشجویان از کتابخانه استفاده میکنند). علاقه من در توضیح روند نزولی است نه پیش بینی. نمودارهای سری زمانی برای متغیرهای پاسخ و توضیحی بسیار مشابه، فصلی با افزایش در تابستان و روند نزولی به نظر می رسند. من تفاوت های منظم و فصلی را برای هر دو متغیر در نظر گرفته ام و مدلی با خطاهای ARMA برازش کرده ام. برآورد نسبت قابل توجه است. سوال من این است که چگونه می توانم تخمین بزنم که متغیر رگرسیون چقدر از روند نزولی را توضیح می دهد؟ فکر نمی کنم همه چیز را توضیح دهد. AIC بدون ترم رگرسیون -20.02 و با ترم رگرسیون -35.16 است. برآورد شیب 3.71 است. من با SAS بیشتر آشنا هستم و از proc arima استفاده می کنم اما می توانم از R نیز استفاده کنم. می خواهم تاکید کنم که سوال پیش بینی نیست. از آنجایی که گزینه های بیشتری برای جمع آوری اطلاعات به صورت آنلاین وجود دارد، طبیعی است که استفاده از کتابخانه برای هر نفر کمتر باشد. سوالی که در موسسه خاص ما وجود دارد، آیا میتوان بخشی از استفاده برای هر نفر را با این واقعیت توضیح داد که با افزایش ثبت نام در مقطع کارشناسی، نسبت دانشجویان مقطع کارشناسی ارشد در کل ثبتنام دانشجو کمتر است؟ از داده های نظرسنجی می دانیم که دانش آموزان مقطع کارشناسی ارشد بیشتر از کتابخانه استفاده می کنند. سپس چه مقدار از روند را به آن نسبت داد؟ 10 درصد؟ 20 درصد؟ 50 درصد؟ سعی می کنم هر وقت فرصتی پیدا کنم، چند نمودار، خروجی و غیره را پست کنم.
|
رگرسیون با خطاهای ARMA برای اهداف توضیحی
|
83218
|
من با مجموعه ای از حدود 1000 سری زمانی تک متغیره در R کار می کنم. برای هر سری زمانی، من باید وظایف زیر را انجام دهم، قبل از تصمیم گیری در مورد مدل ARIMA، TAR یا Holt Winter's Model 1. تشخیص روند و نوع آن، یعنی قطعی یا تصادفی بودن روند ۲. تشخیص فصلی و سپس تصمیم گیری جمعی است یا ضربی 3. آیا سری نیاز به تبدیل دارد؟ اگر بله، پس چه نوع تبدیلی مورد نیاز است، یعنی جعبه کاکس یا لگاریتمی. در حال حاضر من باید هر سری را تجسم کنم و سپس تماس بگیرم، آیا معیار ریاضی در دسترس است که می تواند این تلاش را کاهش دهد همچنین چه عوامل دیگری را باید قبل از تصمیم گیری در مورد استفاده از مدل در نظر بگیرم.
|
آزمونهای روند و فصلی برای یک سری زمانی تک متغیره
|
95792
|
من سعی می کنم یک مدل منحنی رشد پنهان چند گروهی را با استفاده از داده های سانسور شده در Mplus برازش دهم. من توانسته ام یک مدل چند گروهی را با استفاده از داده های بدون سانسور و یک مدل گروهی واحد را با استفاده از داده های سانسور شده برازش دهم. آیا راهی برای ترکیب اینها وجود دارد؟ وقتی سعی کردم اینها را ترکیب کنم، پیام خطا نشان می دهد که از KNOWNCLASS با TYPE=MIXTURE استفاده کنید. آیا این یک مدل کلاس نهفته یا مخلوط محدود است؟
|
مدل منحنی رشد نهفته چند گروهی با داده های سانسور شده
|
25249
|
با توجه به اینکه تعداد کاربران یک برنامه در مجموع 70 نفر بوده است، می دانم که تحقیقات نشان می دهد: > پنج کاربر، تعداد کاربرانی است که برای شناسایی تقریباً 85 درصد از مشکلات > در یک رابط، با توجه به احتمال مواجه شدن کاربر مورد نیاز است. > یک مشکل حدود 31٪ است. مسئله این است که با گذشت زمان، به نظر می رسد که توانایی یک کاربر معین برای تشخیص مشکلات در مقایسه با سایر کاربران احتمالاً قابل پیش بینی تر می شود. آیا این درست است و اگر نه چرا؟ اگر درست باشد، بهترین فرمول برای دانستن زمان تغییر از انتخاب تصادفی به انتخاب بهینه چیست؟ **توجه:** لطفاً توجه داشته باشید که این سؤال تقریباً توسط من قابل درک است، و ممکن است یک مشکل اساسی با فرض و/یا شکاف در مفروضات ارائه شده وجود داشته باشد. اگر چنین است، لطفاً نظر دهید و من سعی خواهم کرد به هر گونه نگرانی، سؤال و غیره پاسخ دهم.
|
تصادفی بودن در مقابل بهینه سازی
|
90780
|
من روالهای R MICE را به SPSS فراخوانی میکنم تا چندین imputation را انجام دهم. سوال من این است که چگونه می توان مجموعه داده های چندگانه را به عنوان فایل SPSS برای تجزیه و تحلیل های بعدی ذخیره کرد. هر گونه کمکی بسیار قدردانی خواهد شد. DLuo
|
داده های ورودی R MICE را به عنوان داده های SPSS ذخیره کنید
|
84167
|
در واقع فکر میکردم فرآیند گاوسی نوعی روش بیزی است، زیرا من آموزشهای زیادی را خواندم که در آنها GP در زمینه بیزی ارائه شده است، به عنوان مثال، در این آموزش، فقط به صفحه 10 توجه کنید. فرض کنید GP قبلی $$\pmatrix{ h\\ h^*} \sim N\left(0,\pmatrix{K(X,X)&K(X,X^*)\\ K(X^*,X)&K(X^*,X^*)}\right)$$, $(h,X)$ برای داده های آموزشی مشاهده شده است, $(h^*,X^*)$ برای پیش بینی داده های آزمون و خروجی نویز واقعی مشاهده شده $$Y=h+\epsilon$$ است که $\epsilon$ نویز است، $$\epsilon\sim N(0,\sigma^2I)$$. و اکنون همانطور که در آموزش نشان داده شده است، $$\pmatrix{Y,Y^*}=\pmatrix{h\\ h^*}+\pmatrix{\epsilon\\ \epsilon^*}\sim N\left داریم (0,\pmatrix{K(X,X)+\sigma^2I&K(X,X^*)\\ K(X^*,X)&K(X^*,X^*)+\sigma^*I}\right)$$ و در نهایت با شرطی کردن $Y$ میتوانیم $p(Y^*| Y)$ که در برخی کتاب ها یا آموزش ها به عنوان توزیع پیش بینی کننده نامیده می شود، اما در برخی دیگر به آن پسین نیز می گویند. **سوال** 1. طبق بسیاری از آموزش ها، توزیع پیش بینی $p(Y^*|Y)$ با شرطی کردن $Y$ به دست می آید، اگر این درست باشد، من نمی فهمم چرا رگرسیون GP بیزی است؟ هیچ چیزی در مورد بیزی در این مشتق توزیع شرطی استفاده نمی شود، درست است؟ 2. با این حال، من در واقع فکر نمی کنم توزیع پیش بینی فقط توزیع شرطی باشد، من فکر می کنم باید $$p(Y^*|Y)=\int p(Y^*|h^*)p( h^*|h)p(h|Y)dh$$، در فرمول بالا، $p(h|Y)$ عقبی است، درست است؟
|
آیا رگرسیون فرآیند گاوسی یک روش بیزی است؟
|
113354
|
من در حال تلاش برای یافتن آزمونی هستم که به من امکان می دهد رابطه بین یک متغیر وابسته طبقه ای و چندین متغیر مستقل را که هم پیوسته (فاصله) و هم ترتیبی هستند، آزمایش کنم. اگر چنین آزمونی وجود نداشته باشد، از نظر نظری نیز منطقی است که متغیر را در اطراف بچرخانم. یعنی میتوانم از یک آزمون آماری (در صورت وجود) استفاده کنم که به من امکان میدهد اثر یک متغیر مستقل طبقهبندی را روی چندین متغیر وابسته که هم پیوسته و هم ترتیبی هستند، آزمایش کنم. امیدوارم این منطقی باشد و از هر کمکی سپاسگزار خواهم بود.
|
تجزیه و تحلیل داده ها با متغیرهای مستقل ترتیبی و پیوسته و یک متغیر وابسته طبقه بندی
|
75010
|
اجازه دهید متغیرهای تصادفی $X$ و $Y$ مستقل باشند Normal با توزیعهای $N(\mu_{1},\sigma_{1}^2)$ و $N(\mu_{2},\sigma_{2}^{ 2}) دلار. نشان دهید که توزیع $(X,X+Y)$ دو متغیره است نرمال با میانگین بردار $(\mu_{1},\mu_{1}+\mu_{2})$ و ماتریس کوواریانس $$ \left( \ start{array}{ccc} \sigma_{1}^2 & \sigma_{1}^2 \\ \sigma_{1}^2 &\sigma_{1}^2+\sigma_{2}^2 \\ \end{array} \right).$$ با تشکر.
|
توزیع (X, X+Y) را هنگامی که X و Y دارای یک توزیع نرمال مشترک هستند را بیابید
|
3556
|
آیا کسی می تواند تجربه خود را با تخمینگر چگالی هسته تطبیقی گزارش کند؟ (مترادف های زیادی وجود دارد: تطبیقی | متغیر | متغیر-عرض، KDE | هیستوگرام | درون یاب...) تخمین چگالی هسته متغیر می گوید: ما عرض هسته را در مناطق مختلف فضای نمونه تغییر می دهیم. دو روش وجود دارد. در واقع، بیشتر: همسایگان در شعاع، KNN نزدیکترین همسایگان (K معمولاً ثابت)، درختان Kd، چندشبکه... البته هیچ روش واحدی نمی تواند همه چیز را انجام دهد، اما روش های تطبیقی جذاب به نظر می رسند. به عنوان مثال تصویر زیبای یک مش 2 بعدی تطبیقی در روش المان محدود را ببینید. میخواهم بشنوم چه چیزی برای دادههای واقعی کار میکند، به خصوص >= 100 هزار نقطه داده پراکنده در دو بعدی یا سه بعدی. اضافه شده در 2 نوامبر: در اینجا نموداری از چگالی توده ای (تکه ای x^2 * y^2)، تخمین نزدیکترین همسایه و KDE گاوسی با ضریب اسکات آورده شده است. در حالی که یک (1) مثال چیزی را ثابت نمی کند، نشان می دهد که NN می تواند به خوبی تپه های تیز را به خوبی جا دهد (و با استفاده از درختان KD، در 2 بعدی، 3 بعدی سریع است...) 
|
برآوردگرهای چگالی هسته تطبیقی؟
|
85592
|
من برای پیش بینی یک مدل از فرم زیر مشکل دارم. y1 <- tslm(data_ts~ season+t+I(t^2)+I(t^3)+0) این به خوبی با داده های من مطابقت دارد، اما هنگام تلاش برای انجام این کار با مشکل مواجه می شوم: forecast(y1, h=72) این خطایی است که R به من می دهد. خطا در model.frame.default(Terms, newdata, na.action = na.action, xlev = object$xlevels) : طول متغیرها متفاوت است (برای 't' یافت شد) علاوه بر این: پیام هشدار: 'newdata' 72 ردیف داشت اما متغیرهای یافت شده دارای 1000 ردیف هستند. در آن اگر من فقط از «tslm(data_ds~season+trend)» استفاده کنم، همه چیز خوب پیش می رود، اما من به طور خاص به مدلی که قبلا ذکر شد نیاز دارم. چگونه می توانم مدل خود را پیش بینی کنم؟
|
داشتن مشکل در پیش بینی مدل tslm
|
105264
|
من یک نوب میلی لیتری هستم. من با توجه به اطلاعات کاربر مانند شهر، ایالت، نسخه سیستم عامل، خانواده سیستم عامل، دستگاه، نسخه مرورگر خانواده مرورگر، شهر و غیره، وظیفه پیش بینی احتمال کلیک را در دست دارم. زیرا به نظر می رسد logit همان چیزی است که MS گوگل نیز استفاده می کند. من در مورد رگرسیون لجستیک سوالاتی دارم مانند: کلیک و غیر کلیک یک کلاس بسیار بسیار نامتعادل است و پیش بینی های ساده glm خوب به نظر نمی رسند. چگونه می توان داده ها را از طریق این کار کرد؟ همه متغیرهایی که من دارم دسته بندی هستند و چیزهایی مانند دستگاه و شهر می توانند متعدد باشند. همچنین فراوانی وقوع برخی از دستگاه ها یا برخی شهرها می تواند بسیار بسیار کم باشد. بنابراین چگونه می توان با آنچه که می توانم بگویم تنوع بسیار تصادفی متغیرهای طبقه بندی شده برخورد کرد؟ یکی از متغیرهایی که دریافت می کنیم شناسه دستگاه نیز هست. این یک ویژگی بسیار منحصر به فرد است که می تواند به هویت کاربر ترجمه شود. چگونه می توان از آن در لاجیت استفاده کرد یا باید در مدلی کاملاً متفاوت بر اساس هویت کاربر استفاده شود؟
|
آماده سازی داده ها و الگوی ماشینی برای پیش بینی کلیک آگهی
|
41477
|
من به مقاله ای برخوردم که مربوط به نظریه تصمیم بیزی است که در آن تابع ضرر مطلق تا حدودی به طور مستقیم معرفی شده است. این بخشی از نتیجه است. $\frac{\partial}{\partial a}\int_{-\infty}^a (a-\theta)\! f(\theta|y) \, \mathrm{d}\theta$ = $\int_{-\infty}^a \! f(\theta|y) \, \mathrm{d}\theta$ = $Pr(\theta\leq a|y)$ از آنجایی که حد بالای انتگرال به a بستگی دارد، تمایز در زیر علامت انتگرال نمی تواند مستقیم اعمال شود. من سعی کردهام قانون لایبنیتس را برای رسیدن به این نتیجه کافی کنم، اما فکر میکنم راهحل ممکن است بسیار سادهتر باشد.
|
تابع ضرر مطلق بیزی
|
113351
|
من در ابتدا بر روی تجزیه و تحلیل مسیر با استفاده از رگرسیون چند متغیره برای آزمایش مدل فرضی خود برنامه ریزی کردم - اما اندازه نمونه خود را دریافت نمی کنم. من به تکنیک های رگرسیون ناپارامتری نگاه کرده ام اما - مطمئن نیستم که چگونه می توانم مدل خود را با استفاده از این تکنیک ها توسعه دهم - یا اینکه آیا یک مدل مسیر حتی در این مرحله مفید خواهد بود. من برای تجزیه و تحلیل های برنامه ریزی شده ام به حداقل N 155 برای هر آنالیز توانم نیاز دارم - من در حال حاضر 45 عدد دارم و امید زیادی به افزایش قابل ملاحظه این عدد در بازه زمانی محدودم ندارم... بنابراین، پیشنهادی دارید؟
|
چند پیشنهاد برای تجزیه و تحلیل و توسعه مدل برای نمونه کوچکی از داده ها چیست؟
|
40701
|
تلاش برای درک راه حل داده شده برای این مشکل تکلیف: متغیرهای تصادفی $X$ و $Y_n$ را تعریف کنید که در آن $n=1,2\ldots%$ با توابع جرم احتمال: $$ f_X(x)=\begin{cases} \ frac{1}{2} &\mbox{if } x = -1 \\ \frac{1}{2} &\mbox{if } x = 1 \\ 0 &\mbox{در غیر این صورت} \end{موارد} و\; f_{Y_n}(y)=\begin{cases} \frac{1}{2}-\frac{1}{n+1} &\mbox{if } y = -1 \\ \frac{1}{ 2}+\frac{1}{n+1} &\mbox{if } y = 1 \\ 0 &\mbox{در غیر این صورت} \end{cases} $$ باید نشان داده شود که آیا $Y_n$ به احتمال X$ همگرا می شود. از اینجا می توانم فضای احتمال $\Omega=([0,1],U)$ را تعریف کنم و متغیرهای تصادفی را به عنوان توابع متغیرهای نشانگر به این صورت بیان کنم: $X = 1_{\omega > \frac{1}{2 }} - 1_{\omega < \frac{1}{2}}$ and $Y_n = 1_{\omega < \frac{1}{2}+\frac{1}{n+1}} - 1_{\omega > \frac{1}{2}+\frac{1}{n+1}}$ و از برای تعریف همگرایی در احتمال، باید پیدا کنیم تا نشان دهیم که $P\{|Y_n-X|>\epsilon\}$ به صفر همگرا می شود یا نمی شود. که می تواند به صورت زیر نوشته شود: $P\{|1_{\omega < \frac{1}{2}+\frac{1}{n+1}} - 1_{\omega > \frac{1}{2} +\frac{1}{n+1}} - 1_{\omega > \frac{1}{2}} + 1_{\omega < \frac{1}{2}}| > \epsilon \}\;\;(1)$ اکنون به راحتی می توان مشاهده کرد که $\epsilon < 2$ برای نگه داشتن آن، اما راه حل داده شده بیان می کند: $P\{|Y_n-X|>\epsilon\ } = 1 - \frac{1}{n+1} \;\; (2)$ بنابراین $Y_n$ در احتمال به $X$ همگرا نمی شود. مشکل من این است که دلیل بین (1) و (2) را نمی بینم. آیا کسی می تواند بینشی در مورد مراحل میانی/استدلال لازم برای انجام این مرحله داشته باشد؟
|
همگرایی متغیرهای تصادفی
|
84163
|
من با رگرسیون لجستیک مشکل دارم. من (اینجا) متوجه شده بودم که یکی از مفروضات مدل رگرسیون لجستیک باید حداقل باشد. برای مثال 50 مشاهده در هر پیش بینی کننده. اما اگر متغیرهای ساختگی را در Stata با استفاده از i ایجاد کرده بودم. اپراتور، آیا هر دسته ساختگی به عنوان پیش بینی جدید به حساب می آید؟ مثال: * i.maritalstatus * 1=Ref. * 2 * 3 ... خیلی ممنون.
|
متغیرهای ساختگی و تعداد پیش بینی کننده ها در رگرسیون لجستیک
|
33104
|
با توجه به مجموعه ای از داده های استخراج شده از منابع مختلف با دقت های مختلف، چگونه می توانم دقت کسانی را که خروجی مشابهی ارائه می دهند ترکیب کنم؟ مثال: دادههای منبع A 80% صحیح هستند دادههای منبع B 85% صحیح هستند دادههای منبع C 90% صحیح هستند اگر دو منبع نتیجه یکسانی داشته باشند (ResultA) و منبع سوم مخالف باشد (ResultB) احتمال (ResultB) چقدر است ( الف) درست بودن؟ این یک سوال تکلیف نیست. من یک توسعه دهنده نرم افزار هستم و در مورد آمار و احتمال اطلاعاتی ندارم. **به روز رسانی:** آزمایشی با استفاده از مولد اعداد تصادفی انجام دادم تست 1 - 2 نتایج احتمالی (0/1) سه روش (Acc: 0.5, 0.3, 0.1) نمونه ها: 100000000 روش A: 0,49993692 Met : 0,30023622 روش ج روش A+B 0,0455215295368209 آزمون 2 - 2 پیامدهای احتمالی (0/1) سه روش (Acc: 0.8, 0.85, 0.9) نمونه: 100000000 روش A: 0,80003639 0,8003639 روش 4,850T روش B: 0,90005791 روش A+B : 0,715942797491352 روش B+C : 0,927408281972288 روش C+A : 0,864147967527417 روش : A+B7967527417 روش A+B+38949 این اعدادی هستند که من به دنبال آنها هستم اما نمی دانم چگونه آنها را محاسبه کنم ...
|
ترکیب دقت های مختلف
|
75011
|
از من خواسته می شود که یک نمودار پراکندگی رسم کنم و یک ضریب همبستگی را برای وضعیت زیر محاسبه کنم. گروهی از افراد قبل و بعد از عمل از نظر خصوصیات خونی اندازه گیری می شوند. آیا درست است که داده های قبل و بعد را به هم مرتبط کنیم؟ من می دانم که انجام همبستگی بر روی داده های غیر مستقل خوب نیست. من احساس میکنم این چنین موردی است - این دو اندازهگیری روی موضوعات مشابهی انجام میشوند - آنها باید با هم مرتبط باشند. من میدانم که ارتباط دادهها با تغییر در طول زمان درست نیست - اما این واضح است و در اینجا اینطور نیست. همچنین همبستگی دو متغیری که به طور مکرر در یک نمونه اندازهگیری میشوند، یک خیر بزرگ است. اما باز هم این مورد من نیست.
|
آیا ارتباط دادههای قبل و بعد مشکلی ندارد؟
|
41476
|
در تست آنوا F یک طرفه وقتی F=37.45; df1=5; df2=40 مقدار P چیست؟ من چندین نرم افزار را امتحان کردم، نتیجه <0.0001 است. می دانم عجیب به نظر می رسد که به تعداد بسیار کمی از امکان نیاز دارم. با این حال، من واقعاً به آن برای انتشار نیاز دارم. اگر کسی بتواند در این زمینه کمک کند بسیار سپاسگزارم. لطفا اگر می توانید عدد دقیق را به من اطلاع دهید. با تشکر
|
آیا کسی می داند که مقدار P در F=37.45 چقدر است. df1=5; df2=40 در یک آزمون آنوا F یک طرفه؟
|
33108
|
من یک مدل خطی مختلط را به برخی از داده های طولی برازش داده ام. من به تفاوت در الگوهای کاهش متغیر وابسته بر اساس وضعیت گروه علاقه مند هستم و فرضیه من به ویژه تفاوت بین گروه ها را در مسیر تغییر در سنین خاص پیش بینی می کند. داده ها نشان می دهد که تعامل قابل توجهی بین گروه و اثرات خطی و درجه دوم سن وجود دارد، اما من نمی دانم که آیا راهی برای ارزیابی این تعامل برای بخشی از محدوده سنی وجود دارد یا اینکه آیا لازم است بتوانم این کار را انجام دهم. به منظور تفسیر نتایج من به عنوان حمایت کننده از فرضیه من. توجه: من از بسته nlme در R استفاده می کنم
|
تست تعامل b/t گروه و تغییر طولی تنها برای بخشی از محدوده سنی
|
84166
|
من اخیرا مقاله ای را خواندم که یک رگرسیون لجستیک ایجاد کرده بود و از جدولی مانند این برای خلاصه کردن مدل استفاده کردم: data.frame(predictors = c(drat، mpg)، chi Squared statistic = c(x، x)، p-value = c(x، x)) پیش بینی کننده chi.squared.statistic p.value 1 drat x x 2 mpg x x data.frame مجذور کای و مقدار p (x) برای هر پیشبینیکننده در مدل رگرسیون لجستیک، و بنابراین به شما اجازه میدهد در یک نگاه ببینید کدام پیشبینیکنندهها مهمترین هستند. من این مدل رگرسیون لجستیک را ساخته ام: mtcars_log_reg <- glm(در مقابل ~ drat + mpg، mtcars، خانواده = دوجمله ای) چگونه می توانم x برای جدول بالا با استفاده از کد R پر کنم؟
|
اهمیت هر یک از پیش بینی کننده ها در رگرسیون لجستیک
|
41474
|
من دو سری زمانی جداگانه دارم که با زمان در نانوثانیه نمایه می شوند. هر دو یک چیز را اندازهگیری میکنند، اما از آنجایی که به دو روش کاملاً متفاوت انجام میشوند، تعداد مشاهداتی که هر کدام میدهند، نه تنها بهطور نامنظم فاصله دارند، بلکه از نظر تعداد نیز متفاوت هستند و در یک راستا نیستند. حتی زمان در ساعتهای مختلف است، بنابراین حتی زیرمجموعههای کوچک شاخصهایی که مطابقت دارند، لزوماً دقیقاً به زمان یکسانی اشاره نمیکنند. هنگامی که من فقط به نقاط برای هر میلی ثانیه نگاه می کنم (از 0 تا 30 مشاهده در سطل های مختلف میلی ثانیه)، مقادیر را با مهر زمانی تطبیق می دهم، و تمام این مشاهدات همزمان را رسم می کنم، سری زمانی یکسان به نظر می رسد (این بیش از 200000 امتیاز است). با این حال، همبستگی متقابل آنها مقادیر بسیار بدی مانند «0.03» یا «0.16» به دست میدهد. و اگر من روی اینها در مجموعههای 20 نقطه یا بیشتر متوالی زوم کنم، شروع به دیدن همه ناهماهنگیهایی میکنم که این را ایجاد میکنند. من می توانم به نمودارهای کوچک شده و مقادیر واقعی نگاه کنم تا مطمئن شوم که آنها به طور کلی یک چیز را اندازه گیری می کنند و شباهت را نشان می دهند، اما مطمئن نیستم که چگونه این کار را با ابزارهای سری زمانی یا یک آمار مناسب انجام دهم. اگر مجموعههای شاخص دارای طول یکسانی بودند، من میتوانم روی سطلهای دانهدار کمتر هموارسازی کنم، اما چون اینطور نیستند، پیدا کردن چیزی برای ترجمه «نمودارهای کوچکشده یکسان به نظر میرسند» به عدد کمی سختتر است. در این سناریو چه کارهایی می توانم انجام دهم؟
|
از چه نوع ابزار/آماری برای بازرسی دو سری زمانی نامناسب با دانه بندی متفاوت استفاده کنم؟
|
76669
|
فرض کنید من 7 کوزه پر از اعداد تصادفی تیله های رنگارنگ دارم. یک مجموعه داده نمونه به شرح زیر است: داده <- ماتریس (c(5,3,4,4,4,2,1,1,1,1,1,2,2,1,2,2,1,1, 2،1،4،1،1،2،4،1،3،1،7،1،1،2،1،3،3)، ncol = 5)؛ rownames(data) <- as.character(seq(1,7)); colnames(data) <- c(قرمز، آبی، زرد، سبز، صورتی); من توزیع رنگ بر اساس شمارش را چند جمله ای فرض می کنم. من می خواهم آزمایش کنم که آیا محتوای Urn 1 از توزیع رنگ Urns 2-7 پیروی می کند یا خیر. من MLE ها را برای Urns 2-7 به صورت زیر دریافت می کنم: p_sample <- colSums(data[2:7,])/ sum(colSums(data[2:7,])) **1)** وقتی یک $\ اجرا می کنم تست chi^2$ مانند زیر، R یک پیام هشدار را نشان می دهد زیرا شمارش مورد انتظار (EC) <5 است. obs <- داده[1] chisq.test(obs,p=p_sample) # تست مجذور کای برای احتمالات داده شده # داده: obs # X-squared = 8.0578، df = 4، p-value = 0.08948 # # پیام هشدار: # در chisq.test(obs, p = p_sample) : # تقریب Chi-squared ممکن است نادرست باشد یکی از پاسخهای این سوال بیان میکند که اگر یک اصلاح بسیار ساده $\frac{N-1}{N}$ در مورد آن اعمال شود، تست $\chi^2$ با این وجود نتایج دقیقی را تا زمانی که ECها از 1.0 فراتر رود، نشان میدهد. آمار آزمون آیا اصلاح به سادگی به این صورت اجرا می شود: $\chi^2 = (\sum_i \frac{(O_i - E_i)^2}{E_i} )* \frac{N-1}{N} $ ? این پیوند این را نشان می دهد، اما من در مورد قابلیت اطمینان آن مطمئن نیستم: > اگر کسی مربع خی پیرسون معمولی داشته باشد (به عنوان مثال، در خروجی از نرم افزار آماری >)، می توان آن را به مربع خی N - 1 تبدیل کرد. > به شرح زیر است: > > > 'N -1' chi-square = پیرسون chi-square x (N -1) / N > **2)** جایگزین $\chi^2$، از آنجایی که تعداد شمارش ها کم است، آزمایش دقیق فیشر را انجام دادم و نتایج زیر را دریافت کردم. آیا نحوه تماس من با fisher.test زیر صحیح است؟ نتیجه ای که می گیرم باعث می شود فکر کنم: نه. من گیج شده ام زیرا سند راهنمای R فقط به موارد استفاده برای جداول احتمالی اشاره دارد. fisher.test(obs, sum(obs)*p_sample) # آزمون دقیق فیشر برای داده های شمارش # # داده: obs و sum(obs) * p_sample # p-value = 1 # فرضیه جایگزین: دو طرفه
|
استفاده از $\chi^2$ یا تست دقیق فیشر با تعداد کم مورد انتظار
|
41473
|
اجازه دهید $X_1، X_2...X_n$ با $f(x,\theta)=\dfrac{2x}{\theta^2}$ و $0<x\leq\theta$ iid باشد. $c$ را طوری پیدا کنید که $\mathbb{E}(c\hat{\theta})=\theta$ جایی که $\hat{\theta}$ نشان دهنده MLE $\theta$ باشد. چیزی که من امتحان کردم: MLE $f(x;\theta)$ را پیدا کردم که $\max\{X_1,X_2\cdots X_n\}$ است (که با پاسخ پشت صفحه مطابقت دارد) اما اکنون گیر کرده ام در این سوال پاسخ داده شده $\dfrac{2n+1}{2n}$ است. من میتوانستم به این صورت عمل کنم: $$\begin{align*} \mathbb{E}(c\hat{\theta})&=\theta\\ \int_0^\theta c \dfrac{2x}{y^2} &=\theta \quad (y = \max\{x_1,x_2,\cdots,x_n\})\\ \dfrac{1}{y^2}\int_0^\theta c .{2x}{} &=\theta \end{align*}$$ اما ادامه دادن به این راه به من پاسخی بسیار دور از پاسخ در کتاب میدهد. (من برای شروع یک اصطلاح n ندارم). کمک! فقط نکات لطفا، بدون راه حل کامل.
|
سوال MLE ساده
|
76663
|
آیا کسی می تواند پیشنهاد دهد که از کجا می توان نتایج 10000 ورق سکه (یعنی همه 10000 سر و دم) که توسط جان کریش در طول جنگ جهانی دوم انجام شد را بدست آورد؟
|
داده های برگردان سکه جان کریچ
|
96198
|
اجازه دهید $f_i(y)$ برای $i = 1، \ldots، n$ PDFهای معتبر باشند، و اجازه دهید $a_i ∈ (0, 1)$ ثابت باشند، به طوری که $\sum_{i=1}^n a_i= 1 دلار 1. نشان دهید که تابع $f(y) = \sum_{i=1}^n a_i\, f_i(y)$ یک PDF معتبر است. 2. اگر $E [Y_i] = \mu_i$ و $\text{Var}(Y_i) = σ^2_i$، نشان دهید که (i) $E[Y] = \sum_{i=1}^n a_i\ ، \mu_i$، (ii) $E[Y^2_i] = \mu^2_i + σ^2_i$. من شرایط اولیه PDF را میدانم، اما به هر دلیلی یک جای خالی کامل میکشم.
|
اثبات اینکه مجموع وزنی $n$ PDF یک PDF معتبر است
|
84162
|
من در حال مطالعه تجزیه و تحلیل رگرسیون هستم، اما واقعاً با درک چگونگی محاسبه درجات آزادی دست و پنجه نرم می کنم. به عنوان مثال، اگر سناریوی ساده ای داشته باشیم که $Y_i=\beta_0+\beta_1 X_i + \epsilon_i$ (و همه مفروضات استاندارد پابرجا هستند) آنگاه من $\frac{1}{\sigma^2} \sum_{i= را میخوانم. 1}^n (\hat{Y}_i - \bar{Y})^2 \sim \chi^2_{1}$ وقتی استدلالی مانند $\hat{Y}_i$ دو پارامتر و بنابراین دو درجه آزادی دارد، اما $\bar{Y}$ یک درجه آزادی میگیرد و بنابراین شما با 1 باقی میمانید، اما حدس میزنم من به دنبال یک استدلالی که از نظر تئوریک بیشتر است. چرا آن جمع دارای توزیع مشابهی با مجذور نرمال استاندارد است؟ من توانستم بفهمم چرا $\frac{1}{\sigma^2} \sum_{i=1}^n (Y_i-\bar{Y})^2 \sim \chi^2_{n-1}$ با در نظر گرفتن مجموع مربع ها به عنوان پیش بینی $\epsilon_i$ روی فضایی به ابعاد $n-1$. اثبات مورد فوق که به دنبال آن نوع استدلال باشد فوق العاده خواهد بود!
|
درجات آزادی در تحلیل رگرسیون
|
105265
|
متغیر پاسخ من تعداد گربههای ماهیگیری است و من از مدل رگرسیون پواسون با باد صفر استفاده میکنم تا تأثیر متغیرهای پیشبینیکننده را بر استفاده از زیستگاه گربههای ماهیگیری ببینم. متغیرهای پیش بینی کننده سطح نی، سطح رویشی و سطح کشاورزی هستند. اکنون، قبل از استفاده از GLM، من از نمودارهای پراکنده استفاده کردم تا ببینم روند بین متغیر پاسخ و هر متغیر پیشبینی بر اساس دادههایم چیست و در آن دیدم که گربههای ماهیگیری تحت تأثیر افزایش سطح کشاورزی تأثیر منفی دارند. با این حال، GLM همبستگی مثبتی بین گربه ماهیگیری با منطقه کشاورزی نشان می دهد که معنی دار است. با این حال، وقتی من منطقه کشاورزی را به تنهایی در GLM میگیرم، همبستگی منفی ناچیزی را نشان میدهد. من نمی دانم از این چه چیزی را باید تفسیر کنم. من فعل و انفعالات را امتحان کردم و فکر کردم که تعامل با یکی از پیش بینی کننده ها ممکن است تأثیر مثبتی بر حوزه کشاورزی داشته باشد. به نظر می رسد این است: فراخوانی: zeroinfl (فرمول = No_FC ~ Reed_rea + Veg_area * Agril_area) باقیمانده های پیرسون: حداقل 1Q Median 3Q Max -1.20907 -0.37197 -0.29263 -0.23930 -0.23930 - 0.23930 مدل coficients299 counts. برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -2.64186 0.98692 -2.6769 0.0074315 ** Reed_area 1.88105 0.52355 3.5928 0.0003271 *** 20033271 *** Veg_8.6.85 3.6906 0.0002237 *** Agril_area 2.05895 0.71096 2.8960 0.0037791 ** Veg_area:Agril_area -1.55241 0.86485 -1.707250. ضرایب مدل تورم صفر (دوجمله ای با پیوند لاجیت): برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -0.68988 1.82259 -0.3785 0.7050 Reed_area -0.72748 1.00656 -0.7227 0.4698 Veg_area 0.39346306 0.39346306 Agril_area 1.64785 1.15165 1.4309 0.1525 Veg_area:Agril_area 0.50427 1.30075 0.3877 0.6983 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 تعداد تکرار در بهینه سازی BFGS: 17 احتمال ورود: -134.02 در 10 Df. این نشان می دهد که اصطلاح تعامل نیز بر استفاده از زیستگاه گربه ماهیگیری تأثیر منفی می گذارد. وقتی من منطقه کشاورزی را به تنهایی می گیرم در اینجا به نظر می رسد. fishing_cat.glm <- zeroinfl(No_FC~Agril_area) > summary(fishing_cat.glm) تماس: zeroinfl(فرمول = No_FC ~ Agril_area) باقیمانده های پیرسون: حداقل 1Q Median 3Q Max -0.68839 -0.4331020 -0.4331020 - 8.16459 ضرایب مدل شمارش (poisson with log link): Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.85358 0.18532 4.6059 4.107e-06 *** Agril_area -0.31194 0.26974 -1.1565 0.2475: Zero-inflation modelsbinomef. خطای z مقدار Pr(>|z|) (Intercept) 0.16657 0.34396 0.4843 0.628200 Agril_area 1.30806 0.40498 3.2299 0.001238 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 تعداد تکرارها در بهینهسازی BFGS: 16 احتمال ورود: -146.93 در 4 Df آیا میتوانید به من راهنمایی کنید که چگونه میتوانم این مشکل را دور بزنم؟
|
مشکلات تفسیر در مدل های صفر تورم در R
|
112985
|
من از تاو کندال برای بررسی اینکه آیا همبستگی بین تعدادی متغیر طبقه بندی وجود دارد یا خیر، استفاده کرده ام، زیرا نمونه کوچکی دارم. با این حال، من همچنین می خواهم آزمایش کنم که آیا برخی از متغیرها ممکن است تأثیر مخدوش کننده ای بر برخی از روابط داشته باشند. متأسفانه، با SPSS فقط می توانید از همبستگی جزئی با استفاده از پیرسون استفاده کنید. می خواستم بدانم آیا استفاده از پیرسون برای بررسی تأثیر متغیرهای مخدوش کننده منطقی است؟ اگر نه، چه پیشنهادی دارید؟ با تشکر
|
آیا می توانم اثر مخدوش کننده متغیرها را بر روی داده های غیر عادی با استفاده از پیرسون بررسی کنم؟
|
712
|
آیا کسی از نرم افزار ناشناس سازی اطلاعات خوب اطلاع دارد؟ یا شاید بسته ای برای R که داده ها را ناشناس می کند؟ بدیهی است که انتظار ناشناس سازی غیرقابل شکست را نداریم - فقط می خواهید آن را دشوار کنید.
|
نرم افزار ناشناس سازی داده ها
|
75019
|
من مایلم یادگیری ماشین را با R (با جنگل های تصادفی شروع می کنم و سپس شاید نگاهی به NN ها بیندازم) روی برخی داده ها اعمال کنم، اما نمی دانم از کجا شروع کنم، احتمالاً به این دلیل که نمی دانم کدام کلمات برای قرار دادن مشکلم و اینکه برای چه چیزی در گوگل جستجو کنم. دادههای من شامل مجموعهای از رویدادهای نوع A است که هر کدام شامل چند متغیر خاص و تعدادی (متغیر) از عناصر نوع B با متغیرهای خاص خود است. یک مثال معمولی از این داده ها مسابقه اسب دوانی است: هر مسابقه دارای پارامترهای خاص خود به همراه لیستی از اسب ها و پارامترهای خاص خود است. اکنون، البته آموزش باید روی هر عنصر از نوع A به طور مستقل انجام شود، بنابراین آموزشهایی که از دادههای اصلی «عنبیه» استفاده میکنند کار نمیکنند - یا حداقل من نمیدانم چگونه آنها را در رویدادهای نوع A به جای عناصر نوع B. چگونه باید مجموعه داده های خود را سازماندهی کنم یا آنها را به RandomForest تغذیه کنم؟ یا از کدام کلمات کلیدی برای یافتن اسناد مرتبط در این نوع موضوع باید استفاده کنم؟ (من داده های گروه بندی را بدون موفقیت زیاد امتحان کردم...) نکته: برای شروع می توانم متغیرهای مشترک هر رویداد A را در صورت نیاز کنار بگذارم. اما باز هم هر عنصر B باید برابر با سایر عناصر B _ درون_ یک رویداد A واحد، و مستقل از سایر رویدادهای A در نظر گرفته شود. ** به روز رسانی: ** من راه حلی پیدا کرده ام که ممکن است در شرایط خاص من کار کند (هنوز باید آزمایش شود، DB من نیاز به سازماندهی مجدد دارد). راه حل این است که پارامترهای رویدادهای A را به عنوان پارامترهای هر عنصر B در نظر بگیرید، بنابراین مشکل به سادگی به مجموعه ای از عناصر B تبدیل می شود. با این حال من از این راه حل راضی نیستم و به هر حال مطمئن نیستم که بتواند برای سایر مشکلات مشابه قابل اجرا باشد، سوال هنوز باز است.
|
سازماندهی داده ها برای تغذیه جنگل های تصادفی
|
3552
|
من مدلی دارم که در R توسعه داده ام، اما باید آن را در SAS نیز بیان کنم. این یک GLM دوگانه است، یعنی، من هم میانگین و هم (log-)واریانس را به عنوان ترکیب خطی پیش بینی کننده ها برازش می کنم: $E(Y) = X_1'b_1$ $\log V(Y) = X_2'b_2$ که در آن Y دارای توزیع نرمال است، $X_1$ و $X_2$ بردارهای متغیرهای مستقل هستند، و $b_1$ و $b_2$ ضرایبی هستند که باید باشند. برآورد شده است. $X_1$ و $X_2$ می توانند یکسان باشند، اما لازم نیست. من می توانم این را در R با استفاده از gls() و توابع varComb و varIdent قرار دهم. من همچنین یک تابع سفارشی نوشتهام که احتمال استفاده از optim/nlminb را به حداکثر میرساند و تأیید میکنم که همان خروجی gls را برمیگرداند. اکنون می خواهم این را به SAS ترجمه کنم. من می دانم که می توانم از PROC MIXED استفاده کنم: proc mixed; کلاس x2; مدل y = x1; تکرار /گروه = x2; اجرا؛ با این حال، این تنها در صورتی به من میدهد که 1 متغیر در گزینه /GROUP داشته باشم. اگر من 2 یا چند متغیر را وارد کنم، MIXED تنها با در نظر گرفتن هر ترکیب مجزا از سطوح به عنوان یک گروه مجزا (یعنی محصول دکارتی را می گیرد) می تواند این کار را انجام دهد. به عنوان مثال، اگر من 2 متغیر در $X_2$ داشته باشم که به ترتیب دارای 3 و 4 سطح هستند، MIXED 12 پارامتر را برای واریانس متناسب خواهد کرد. آنچه من می خواهم این است که log-variance در متغیرهای مشخص شده، یعنی 6 پارامتر، افزودنی باشد. آیا راهی برای انجام این کار در MIXED یا هر پروک دیگری وجود دارد؟ احتمالاً میتوانم چیزی را در NLP کدنویسی کنم، اما واقعاً ترجیح میدهم این کار را نکنم.
|
تکرار مدل R در SAS
|
40700
|
من در حال خواندن یک مقاله هستم و واقعاً با یک ضمیمه مبارزه می کنم. اساساً آنها انتظار شرطی از یک نرمال چند متغیره را که مشروط به مقادیر مطلق است، استخراج می کنند. اجازه دهید $$\boldsymbol y = \begin{bmatrix} \boldsymbol y_{a}^{\top} \\ \boldsymbol y_{b}^{\top} \end{bmatrix} $$ $$\boldsymbol y \sim \mathcal{N}({\boldsymbol 0},{\Sigma_{y}})$$ جایی که $$ \Sigma_{y} = \begin{bmatrix} \Sigma_{aa} & \Sigma_{ab}\\ \Sigma_{ba} & \Sigma_{bb} \end{bmatrix}$$ مشخص است که $E[y_a|y_b]=\ Sigma_{ab}\Sigma_{bb}^{-1} \boldsymbol y_b $ بیتی که من با آن دست و پنجه نرم می کنم این است: اجازه دهید $\boldsymbol y_a=y_1$ و $\boldsymbol y_b^\top=(y_2,y_3) .$ میخواهیم انتظار شرطی را محاسبه کنیم: $ E[y_1|y_2 = l_2، |y_3|=l_3]. $ f(\boldsymbol y_b) = e^{-1/2 \boldsymbol{ y_{b}^{\top}\Sigma_{bb}^{-1}y_{b}}} $ را تعریف کنید و اجازه دهید $\ علامت پررنگ l_b = (l_2,l_3)$ با توجه به مقاله، نشان دادن آن آسان است: $ E[y_1|y_2 = l_2، |y_3|=l_3] = \boldsymbol{\Sigma_{ab} \Sigma_{bb}^{-1} \{i_{11}^{(2,2)}-\tanh[l_{b}^{\ top} i_{11}^{(2،2)} \Sigma_{bb}^{-1}i_{22}^{(2،2)} l_{b}]i_{22}^{(2,2)}l_{b}\}} $ که $i_{ij}^{(m,n)}$ ماتریس شاخص است. سپس آنها با یک انتظار مشروط حتی پیچیده تر ادامه می دهند که من نیز دوست دارم آن را درک کنم. پیوند مقاله: http://web.mit.edu/wangj/Public/Publication/Wang94.pdf صفحه 163. اگر کسی بتواند در این مورد به من کمک کند بسیار سپاسگزار خواهم بود. با تشکر فراوان.
|
نرمال چند متغیره - شرطی شدن بر روی مقادیر مطلق
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.