_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
96399
من سعی می کنم با استفاده از یک شبکه عصبی یک مدل رگرسیون بسازم. معیار هزینه نهایی میانگین خطای مطلق (MAE) در خروجی (یک واحد خروجی، 200 واحد ورودی) است. در حال حاضر تمام واحدهای مخفی من دارای یکسو کننده فعال هستند. واحد خروجی فقط یک واحد خطی با فعال سازی عبوری است. به نظر می رسد که شبکه نمی تواند به طور موثر یاد بگیرد، خطا (حتی در زمان نمی تواند مقداری را پیدا کند که باعث شود خطا به طور یکنواخت کاهش یابد). من گمان می کنم که تابع هزینه (L1-norm) ممکن است مقصر باشد. در حال حاضر، هنگام گرفتن گرادیان، بسته به مقدار پیش بینی شده در مقابل مقدار واقعی خروجی، 1 یا -1 را پاس می کنم. آیا این راه درست است؟ (از آنجایی که L1 در 0 صاف نیست، آیا این دلیلی است که یادگیری یکنواخت/موثر نیست؟) راه درست برای مدیریت یک تابع هزینه L1-norm چیست؟ با تشکر، هر گونه کمکی قدردانی می شود!
تابع هزینه هنجار L1 برای شبکه عصبی. (پسرفت)
19200
من به دنبال کمک برای شناسایی بهترین رویکرد آماری برای پاسخگویی به سؤال تحقیقات بازار زیر هستم: (1) من مجموعه داده ای از یک وب سایت آنلاین دارم که به کاربران کمک می کند خانه های تعطیلات خود را اجاره کنند. برای هر خانه تعطیلات من اطلاعاتی در مورد: * ویژگی های آنها (متغیرهای پیش بینی کننده): مکان (شهر و فاصله از مرکز شهر)، تعداد اتاق ها، رتبه بندی مهمان (10 ستاره)، قیمت، و غیره * عملکرد فروش آنها (متغیرهای وابسته) : نرخ تبدیل، تعداد شب فروخته شده، حجم فروش به دلار (2) وب سایت خانه های تعطیلات را عمدتاً برای مشتریان ایالات متحده و کانادا اجاره می کند ** سوال: ** من می خواهم بتوانم تشخیص دهم کدام یک ترکیبی از متغیرهای پیش بینی کننده با عملکرد بهتر همراه است تا در جمع آوری خانه های جدید برای سایت هدفمندتر باشد. از آنجایی که اکثر کاربران وب سایت (اجاره‌کنندگان) از ایالات متحده و کانادا آمده‌اند (و من احساس می‌کنم که ترجیحات متفاوتی دارند) من به‌ویژه علاقه‌مندم که بفهمم کدام ترکیب از ویژگی‌ها برای هر کشور بهتر است؟ من تصور می کنم که برای مشتریان کانادایی شما می توانید 3 ترکیب از ویژگی ها را داشته باشید که بهترین عملکرد را دارند. به عنوان مثال، یک ترکیب می تواند این باشد: قیمت 50 تا 75 دلار در روز، 2 اتاق، دور از مرکز شهر، و غیره... هر کمکی واقعا قابل قدردانی است.
چگونه آزمایش کنیم که کدام ترکیب از ویژگی های محصول عملکرد فروش بهتری را ایجاد می کند؟
96397
من یک پانل رگرسیون اثرات ثابت را در 21 کشور و 16 سال اجرا می کنم. این یک داده ثانویه است که بیشتر از وب سایت OECD گرفته شده است. مدل من به این شکل است: $$ \log{(GDP/Labor)}_{i} = \beta_0 +\beta_1 \log{(RnD)}_{i,t-1}+\beta_2 \log{(انسان سرمایه)}_{i,t-1}+\beta_3 \log{(x_j*(RnD_j)}_{t-1}+\epsilon_t $$ کجا، Rndi = تحقیق و مخارج توسعه کشور i Rndj = مخارج تحقیق و توسعه کشور j HC = شاخص سرمایه انسانی 1). من با این مدل مشکلات زیر را دارم: 1) همه متغیرها دارای روند قوی هستند و انتظار می رود که غیر ساکن باشند، اما آزمون های ایم پسران-شین و لوین-لین-چو نتایج متناقضی در مورد عدم ایستایی می دهند، بنابراین نمی توانم نتیجه گیری کنم. در مورد غیر ثابت بودن به نظر شما کدام تست برای رگرسیون پانل بهتر است؟ همچنین، آیا آزمونی وجود دارد که بتوانم علاوه بر آزمون Westlund، برای رگرسیون های پانل برای هم انباشتگی در stata انجام دهم؟ اگر شواهدی برای تلاقی پیدا نکردم، آیا ابتدا داده ها را از هم متمایز می کنم؟ من اطلاعات زیادی را از دست می دهم و اگر این کار را انجام دهم همه چیز بی اهمیت می شود. 2) یکی از اهداف اولیه مقاله من آزمایش اثرات تعدیل سرمایه انسانی بر سرریزهای دانش و رابطه بهره وری است. مشکل این است که یک مشکل جدی چند خطی وجود دارد. VIF به 1000 می رسد! چگونه می توانم اثرات تعدیل کننده را غیر از استفاده از تعاملات آزمایش کنم؟ علاوه بر این، در برخی موارد من چند خطی قوی بین متغیرهای کلیدی خود پیدا می کنم و واقعاً همه چیز را در <0.001 با R2 کمتر از 50 معنادار می کند. من تمام اهمیت متغیرهایم را از دست می‌دهم و وقتی از آدمک‌های سال استفاده می‌کنم، همه چیز از نظر علائم و همچنین برای متغیرهای اصلی من بسیار بد می‌شود. اگر راهنمایی بفرمایید بی نهایت سپاسگزار خواهم بود. خیلی ممنون علی
یکپارچه سازی پانل، اثرات تعدیل کننده و چند خطی
87783
من یک GLM اجرا کرده ام - 1 DV و 9 پیش بینی کننده دارم (4 مورد از آنها متغیرهای جمعیت شناختی مانند سن، جنسیت و غیره هستند). نتایج نشان می دهد که تنها 5 پیش بینی کننده با مربع R 34.1 درصد پیش بینی کننده قابل توجهی هستند. وقتی بعد از حذف پیش‌بینی‌کننده‌های بی‌اهمیت، مدل را دوباره اجرا می‌کنم، مربع R برابر با 31.5% دریافت می‌کنم که کمتر از قبل است. من درک می کنم که این بدان معنی است که من مقداری از قدرت توضیحی مدل را از دست داده ام. آیا حذف متغیرهای ناچیز تصمیم درستی است؟ آیا ضرر (34.1-31.5%) 2.6% در R مربع برای پذیرش کافی است؟ هدف GLM توضیح یک رفتار مشاهده شده است که متغیر وابسته است. جدای از این، من سعی کرده ام همگنی متغیرهای این مدل را ارزیابی کنم. برای من از نمودار پراکنده مقادیر باقیمانده در برابر پیش بینی شده چندان واضح نبود. با این حال، SPSS قادر به تولید یک تست Levene با GLM است. این نتایج عبارتند از: F= 0.684 df1 = 7 df2 = 141 Sig = 0.686 از درک من، این بدان معناست که پیش‌بینی‌کننده‌های من هتروسکوداستیک نیستند و فرض هموسکاداستیکی برآورده شده است. آیا کسی می تواند این را تایید کند؟
مدل خطی عمومی با پیش بینی کننده های ناچیز
96396
من یک آزمایش میدانی را در 100 شهر انجام دادم. شهرها به دو نوع تعلق دارند: Type_A (50 شهر) و Type_B (50 شهر دیگر). از 1 ژانویه تا 30 فوریه (دوره قبل از درمان)، من فقط اطلاعات مربوط به متغیر مورد علاقه خود y را جمع آوری کردم. از 1 مارس تا 30 آوریل (دوره پس از درمان)، من به طور همزمان دو درمان را در دو مجموعه مختلف از شهرها اعمال کردم: به طور تصادفی 10 شهر نوع_A و 10 شهر نوع_B را برای درمان_1 انتخاب کردم و 10 شهر دیگر نوع_A و 10 شهر نوع_B دیگر را برای درمان انتخاب کردم. درمان_2. من قصد دارم از DiD (تفاوت در تفاوت) برای مدل سازی استفاده کنم. مشخصات چگونه به نظر می رسد؟ من گیج شدم زیرا چندین چیز با هم در حال انجام است: انواع مختلف شهرها، چندین درمان، قبل و بعد از پریود و غیره. علاوه بر این، اگر بخواهم مشخصات را در Stata پیاده سازی کنم، چگونه این کار را انجام دهم؟ مهمتر از آن، چگونه می توان اثر حاشیه ای درمان ها را در Stata محاسبه کرد؟ پیشاپیش یه عالمه ممنون
مدل سازی تفاوت در تفاوت با درمان های متعدد
110080
من با R جدید هستم و در حال یادگیری تابع svm بسته های e1071 هستم. در ادامه چند سوالی که دارم آمده است. 1. تابع نمودار چگونه کار می کند؟ من نمی توانم مورد ترسیم را با بیش از 2 عامل در متغیر کلاس درک کنم. مانند خط زیر، چرا «عرض گلبرگ» و «طول گلبرگ» به عنوان دو بعد برای ترسیم انتخاب شده‌اند و اینکه ابعاد دیگر چگونه بر نتیجه تأثیر می‌گذارند. علاوه بر این، من همچنین در مورد پارامتر slice نمی دانم که چیست و چرا مقادیر 3 و 4 تنظیم شده اند. `Plot(model,Iris, Petal.Width~ Petal.Length, slice= list(Sepal.Width=3,Sepal.Length=4))` 2 تابع تنظیم چیست و چگونه متغیرهای گاما و هزینه را همانطور که در نشان داده شده است انتخاب می کنیم این مثال در مستندات کران obj <- tune.svm (گونه ~.، داده = عنبیه، گاما = 2^(-1:1)، هزینه = 2^(2:4))
پرس و جوهای svm e1071 در مورد طرح و تنظیم
7758
من خیلی با PyBrain \-- پیاده سازی شبکه عصبی مصنوعی در پایتون بازی می کنم. من متوجه شده‌ام که در تمام مدل‌هایی که من دریافت می‌کنم، وزن اتصالات تقریباً به طور معمول در اطراف صفر با انحراف استاندارد بسیار کم (~0.3) توزیع می‌شوند، که به این معنی است که آنها به طور موثر در محدوده [-1، 1] محدود می‌شوند. این به چه معناست؟ آیا این یک الزام ANN است؟ نتیجه یادگیری پس‌تبلیغ؟ نشانه ای برای سلامت شبکه؟ یا فقط یک مشاهده تصادفی؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5q8YS.png)
در مورد وزن اتصال در یک شبکه عصبی مصنوعی
96393
من یک مدل split splot را در SPSS اجرا کرده ام (از طریق تابع اندازه گیری های مکرر) و می خواهم نتایج خود را با استفاده از R بازتولید کنم. برای این کار از تابع ezANOVA از بسته ez برای بدست آوردن تست های کروی و تصحیح و نوع III SS استفاده کردم. من خوانده ام که تابع aov نوع III SS را نمی دهد. تا اینجای کار نتایج مشابه نتایج SPSS است، اما نمی‌توانم بگویم وقتی تست‌های تضاد درون موضوعات را اجرا می‌کنم. من از تضادهای چند جمله ای استفاده می کنم و فاکتور من شش سطح دارد. چیزی که من موفق به دریافت آن می شوم، t-values ​​به جای f-values ​​یا f-values ​​است اما مانند SPSS نیست. در اینجا اطلاعات و کد کد من subj treat m1 m2 m3 m4 m5 m6 1 1 1 455 460 510 504 436 466 2 2 1 467 565 610 596 542 587 3 3 1 44510 530 3 3 1 445 510 530 1 485 542 594 583 611 612 5 5 1 480 500 550 528 562 576 6 6 2 514 560 565 524 552 597 7 7 2 4456 8 2 495 570 569 585 576 677 9 9 2 520 590 610 637 671 702 10 10 2 503 555 591 605 649 675 1149626 11 670 12 12 3 498 540 589 557 568 609 13 13 3 478 510 568 555 576 605 14 14 3 545 565 580 601 568 568 633 540 524 532 583 m1-m6 اندازه گیری را در 6 نقطه زمانی مختلف نشان می دهد. کد من برای تضادها. long.df<- melt(data, id=c('subj','treat')) long.df<- long.df[order(long.df$subj)] names(long.df)<- c( 'subj','treat','time','meas') mod<- lm(meas~time + time^2 + time^3 + time^4 + time^5, long.df) summary(mod) # اینگونه است که من مقادیر t را برای تضادهای چند جمله ای # mod1<- aov(meas~time + time^2 + time^3 + time^4 + time^5, long.df به دست می‌آورم. ) summary(mod1, split=list(time=list(Linear=1, Quad=2,'q'=3,'f'=4,'fif'=5))) # این است من فکر می کنم که مقادیر F با نوع 1 SS مطابقت دارد (همانطور که من از تابع aov استفاده می کنم). چگونه اشتباه می کنم؟ آیا راهی برای انجام تست های تضادهای درون موضوعی و به دست آوردن SS نوع III وجود دارد تا نتایجی مشابه با SPSS داشته باشم؟ در اینجا نتایج SPSS آمده است. پیشاپیش سپاس فراوان! زمان منبع نوع III SS / df / میانگین مربع / F / Sig. زمان خطی 123662.881/ 1/ 123662.881/ 83.591/ .000 درجه دوم 5928.007/ 1/ 5928.007/ 18.968/ .001 مکعب 10462.6762 28.075/ 000 Order 4 798.193/ 1/ 798.193/ 4.010/ .068 Order 5 1702.743/ 1/ 1702.743/ 4.878/ .047
تست‌های تضاد درون آزمودنی‌ها در R
67161
من در حال کار با یک مدل معادله ساختاری برای مطالعه خطر عفونت آنفولانزا هستم. از آنجایی که سن یک عامل خطر شناخته شده برای توضیح عفونت است، بنابراین من نتیجه عفونت خود را بر اساس رده سنی افراد تنظیم کردم. پس از پسرفت نتیجه من روی چندین متغیر پنهان، کلاس سنی دیگر معنادار نیست. سوال من این است: آیا باید یک متغیر تعدیل غیر معنی دار در مدل رگرسیون (ساختاری) نگهداری شود یا حذف شود؟
آیا یک متغیر تعدیل غیر معنی دار باید در مدل رگرسیونی نگهداری شود؟
110082
من می‌خواهم مجموعه‌ای از ژن‌ها را شناسایی کنم که به‌طور قابل‌توجهی در دو کلاس مختلف از نمونه‌ها بیان می‌شوند. به عنوان مثال، نرمال و بیماری. هر دو کلاس دارای نمونه هایی از مراحل مختلف هستند، برخی از مراحل مشترک هستند و برخی نه. بنابراین، من در فکر انجام یک آزمون بدون جفت دو کلاس مشابه SAM (تجزیه و تحلیل اهمیت ریزآرایه ها) بودم. آیا تست مشابهی در پکیج لیما (Bioconductor) وجود دارد؟
آزمون دو کلاس بدون جفت با استفاده از LIMMA
110089
من مجموعه‌ای از داده‌های آموزشی ورودی خروجی دارم، تعداد کمی از نمونه‌ها خروجی ورودی هستند [1 0 0 0 0] [1 0 1 0 0] [1 1 0 0 1] [1 1 0 0 0] [1 0 1 1 0] [1 1 0 1 0] و غیره. من باید انحراف استاندارد را در کل خروجی به عنوان آستانه اعمال کنم. بنابراین، من میانگین انحراف استاندارد خروجی را محاسبه می کنم. کاربرد این است که مدل در هنگام ارائه این داده ها باید قادر به یادگیری و پیش بینی خروجی باشد. در طراحی تابع هدف من یک شرط وجود دارد که فاصله = مجموع مربع فاصله اقلیدسی بین خروجی مدل و هدف مورد نظر، مربوط به ورودی باید کمتر از یک آستانه باشد. سوال من این است که چگونه باید استفاده از آستانه را توجیه کنم؟ آیا توجیه دارد؟ من این مقاله را خواندم که می گوید معمولاً انحراف معیار را به عنوان آستانه در نظر می گیرند. برای مورد من، گرفتن انحراف استاندارد خروجی داده های آموزشی به چه معناست؟
شهود مربوط به انحراف معیار به عنوان آستانه
43292
چگونه می توانم خوشه بندی کنم در حالی که خوشه های نهایی را مجبور می کنم که تعداد اشیاء کم و بیش یکسان داشته باشند؟ من به تازگی kmeans را در R امتحان کردم، و این را در نظر نمی گیرد.
خوشه بندی با همان تعداد اشیاء در هر گروه
50821
در نظر بگیرید که $P$ همان فشار آب است که از شیر A خارج می شود. اجازه دهید $P_{dif}$ به عنوان تفاوت بین حداکثر و حداقل فشار شیر A تعریف شود: $$P_{dif}:= P_{max } - P_{min}$$ حال، کاری که می‌خواهم انجام دهم تخمین $P_{dif}$ است. برای انجام این کار، تعدادی نمونه فشار آب از شیر A می‌گیرم. اجازه دهید $S$ مجموعه‌ای از 3 نمونه اندازه‌گیری شده باشد: $$S = \\{X_1 = 5، X_2 = 7، X_3 = 1\\ }$$ یعنی $S$ شامل 3 نمونه تصادفی است که از جامعه گرفته شده است. بنابراین، من می گویم که $\hat{P}_{dif} = 7 – 1 = 6$. **سوال اول:** با توجه به توزیع گاوسی پارامتر جمعیت، چگونه می توانم pdf و cdf پارامتر را پیدا کنم؟ **سوال دوم:** آیا بازه اطمینان $95\%$ (CI) برآورد من به صورت زیر تعریف می شود؟: $$(pdf، میانگین) - 2\cdot (pdf، std) \leq (pdf، mean) \leq (pdf, mean) + 2\cdot (pdf, std) $$ که در آن (pdf, mean) میانگین pdf و (pdf, std) استاندارد آن است انحراف اگر بله، چگونه می توانم (pdf، mean) و (pdf، std) را استخراج کنم؟ **ویرایش:** از آنجایی که یافتن CI تخمین محدوده برای من بسیار دشوار به نظر می رسد، نمی دانم که آیا می توانم از یک رویکرد جایگزین استفاده کنم. _whuber_ پیشنهاد کرد که برآوردهای متوالی نباید به شدت به موارد قبلی بستگی داشته باشد. بگویید که من نمونه های داده خود را به قسمت های مساوی تقسیم کردم (مثلاً 3) و برای هر یک از این زیر مجموعه ها یک تخمین پیدا کردم. بعد، 95% CI $\hat{P}_{dif}$ را با این کار پیدا می کنم: $$mean - 2\cdot std \leq mean \leq mean + 2\cdot std$$ که در آن _mean_ و _std_ هستند میانگین و std از 3 تخمین مختلف، به ترتیب. آیا این درست خواهد بود؟
محاسبه فاصله اطمینان یک پارامتر جمعیت
110088
مجموعه داده های زیر **train** را در نظر بگیرید: z a b c 0 1 40 185 0 1 25 128 0 0 0 32 100 0 0 29 100 1 1 30 107 0 0 0 30 133 1 1 38 132 1321 1 1 0 40 199 1 1 26 185 0 1 21 185 0 0 0 21 134 0 0 0 20 137 1 1 22 135 0 0 0 23 189 1 0 32 109 1 0 321310 ۱۹۱ ۰ ۱ ۳۹ ۱۶۸ ۱ ۰ ۲۸ ۱۸۳ ۰ ۱ ۲۶ ۱۷۱ ۱ ۱ ۲۳ ۱۶۴ 34 183 0 0 28 189 0 1 34 150 0 1 34 176 0 1 24 140 1 0 37 181 0 1 36 109 1 0 39 198 0 0 32 164** **a,b,c**. فرض کنید مجموعه **تست** دیگری با متغیرهای مشابه مجموعه داده **train** وجود دارد و می خواهیم **z** را پیش بینی کنیم. برای درخت های تصمیم، آیا بهتر است از مجموعه داده های **train** کامل برای ساخت درخت استفاده شود؟ به عنوان مثال، هدف از اعتبارسنجی متقاطع 4$ برابر چه خواهد بود؟ آیا در یک جنگل تصادفی، اعتبارسنجی متقاطع $k$-fold ضروری است؟ فکر کردم می توانید از خطای OOB استفاده کنید؟
آیا انجام اعتبار سنجی متقاطع $k$-fold برای درختان تصمیم در جنگل های تصادفی ضروری است؟
43299
می‌توانیم معادله ریکاتی را حل کنیم و پیشین‌های حالت ثابت را برای فیلتر کالمن بدست آوریم. پس چرا مردم هنوز هم اجازه دارند هر چیزی را که می خواهند داشته باشند؟ آنها می توانند معادله Riccati _ex-ante_ را حل کنند و از حالت پایدار قبل به عنوان مقدار اولیه استفاده کنند و به جای زمان بی نهایت، در زمان 0 به حالت پایدار برسند. و این تنها «حق»ی است که پیش از آن هر فرد عاقلی از آن استفاده کند. من می دانم که این یک سوال فلسفی است، هر نظری پذیرفته می شود.
نقش فیلتر کالمن قبل، راست قبل؟
43297
برای جداول احتمالی 2x2 من قبلاً RR (ریسک نسبی) و OR (نسبت شانس) را می شناسم. با این حال هیچ یک از این دو در برخورد با سلول های خالی جدول خوب نیست. | A | -A | ب | n11 | n12 | n1. -B | n21 | n22 | n2. | n.1 | n.2 | N OR دوست ندارد n12 یا n21 صفر باشد. اگر درست گفته باشم RR n11+n21=0 و n12=0 را کنترل نمی کند. من به دنبال شاخصی هستم که مقادیر نامتناهی (مثلاً هنگام تقسیم بر صفر) مانند درصد بسیار ساده را نگیرد. ایده من این است که تفاوت نسبی را از مقدار مورد انتظار برای n11 بگیرم. تفاوت نسبی: RD = ((n.1 * n1.) / N - n11) / (n.1) (اگر n11+n21 = 0 => RD=0) بنابراین سؤال این است که اگر قبلاً در جایی استفاده شده است من می توانم چیزی را نقل کنم یا اگر باید اثبات کنم که این یک شاخص مفید است. یا می توانید ایده های دیگری نیز داشته باشید؟ من از این نشانگر برای نمایش بصری استفاده خواهم کرد، بنابراین اگر کران بالایی و پایینی داشته باشد بسیار مفید است.
اندازه‌گیری‌های توصیفی برای صفحات متقاطع 2×2 با صفر
107526
من یک مجموعه داده حاوی اطلاعات (_x_، _y_) از سال‌های 1985-2013 دارم. داده _x_ عدد انتخاب و داده _y_ عملکرد است. هر سال دارای 60 (_x_, _y_) نقطه داده است. وقتی به داده‌های من برای سال‌های جداگانه نگاه می‌کنم، شخصاً فکر می‌کنم که میانگین عملکرد هر عدد انتخاب بهتر از میانگین عملکرد را نشان می‌دهد. من می خواهم یک رگرسیون برای بررسی رابطه بین تعداد انتخاب و عملکرد اجرا کنم. آیا از نظر آماری «اشتباه» است که ابتدا میانه داده‌های عملکرد هر انتخاب را پیدا کنیم و سپس یک رگرسیون را برای یافتن رابطه بین انتخاب و عملکرد اجرا کنیم؟ هر گونه کمکی بسیار قدردانی خواهد شد.
رگرسیون یک مجموعه داده با استفاده از میانه
82804
من می دانم چگونه الگوریتم های تشخیص جامعه را در کد پیاده سازی کنم. البته من می دانم چگونه در گوگل جستجو کنم. من می دانم چگونه گروه ها را در شبکه های اجتماعی پیدا کنم. اما من احساس می کنم که این فقط نوک یک کوه یخ است. گاهی اوقات شخصی پیوندی به سایت من ارسال می کند و هزاران بازدید کننده از جایی می آیند که من هرگز نام آن را نشنیده ام. آنها به کاری که من انجام می دهم علاقه دارند، اما من نمی دانستم که وجود دارند. من متعجبم که بهترین راه برای خودکارسازی کشف چنین جوامعی چیست؟ به عنوان مثال اگر بخواهم همه جوامع علاقه مند به جاوا اسکریپت را پیدا کنم، چه کاری باید انجام دهم؟ من ایده ای داشتم که از مجموعه داده های عمومی alexa.com استفاده کنم، نموداری از جریان بازدیدکنندگان به سایت های معروف جاوا اسکریپت بسازم و ببینم آیا نتایج خوبی را نشان می دهد یا خیر. ببخشید اگر این سوال گسترده است. امیدوارم خارج از موضوع نباشد واقعا نمی دانم از کجا شروع کنم.
چگونه جوامع را پیدا کنیم؟
49078
من فهرستی از مشاهدات زنان و پاسخ‌های آن‌ها را دارم که به 5 رفتار طبقه‌بندی شده است، به یک تهدید بالقوه. من نمی‌پرسم برای هر نوع پاسخی، آیا وجود یک نوزاد باعث می‌شود که احتمال این که یک دختر آن پاسخ را انجام دهد یا نه. (به عنوان مثال، ممکن است فرض کنیم که زنان با نوزادان بیشتر مخفی می شوند و کمتر به دنبال غذا می روند.) موارد زیر پیشنهاد شد: 1. زنان سطل زباله بر اساس گروه اجتماعی (یعنی هر سطل فقط شامل زنانی است که با هر یک از آنها ارتباط دارند. دیگر). 2. نسبت هر نوع پاسخ مشاهده شده در هر گروه را محاسبه کنید (همه اینها، برای هر گروه، به 1 اضافه می شود). 3. آرکسین-تبدیل داده نسبت. 4. برای هر رفتار یک آزمون t انجام دهید تا ببینید آیا نسبت زنانی که به این روش پاسخ می دهند بسته به حضور نوزاد متفاوت است یا خیر. این به نظر من ناقص به نظر می رسد و به نظر می رسد که دیگران نیز موافق هستند. به نظر می رسد اتفاق نظر این است که، در چنین مواردی، بهتر است از رگرسیون چند جمله ای (در این مورد، BEHAVIOR ~ INFANT_STATUS) برای تعیین اینکه آیا حضور نوزاد تأثیر دارد یا خیر، استفاده شود. با این حال، من متعجب بودم که آیا می توانم از این نتایج استفاده کنم تا مشخص کند که آیا (و در کدام جهت) حضور یک نوزاد بر احتمال هر رفتار پاسخی تأثیر می گذارد یا خیر. همچنین، آیا این امکان وجود دارد که من متغیرهای مستقل اضافی را اضافه کنم؟ هر توصیه ای که می توانید در مورد طراحی تحلیلی یا کدنویسی واقعی بدهید، بسیار قابل قدردانی است. من این کار را در R انجام می‌دهم، اما اگر آن هم کار کند، در MATLAB راحت‌تر هستم. پیشاپیش ممنون
آیا رگرسیون چند جمله ای می تواند کاری را که من می خواهم انجام دهد؟
2576
من با نتایج یک نظرسنجی کار می کنم که چندین سؤال دارد. همه پاسخ ها (در این مورد) دسته بندی و ترتیبی هستند (مانند بسیار ناراضی، ناراضی، خنثی، خوشحال، بسیار خوشحال). من به دنبال راهی برای مرتب کردن سوالات از کسانی که بدترین نتایج را دارند به سوالاتی که بهترین نتایج دارند، هستم. گرفتن افراط از نظر بصری تا حدودی آسان است. اگر توزیع پاسخ‌ها را برای هر سؤال ترسیم کنم، می‌توانم تشخیص دهم که کدام سؤال دارای تعداد زیادی پاسخ «خوب» است (توزیع به صورت منحرف شده است) یا سؤالاتی که دارای پاسخ‌های «بد» زیاد هستند (هیستوگرام دارای انحراف مثبت). بنابراین انتخاب افراط‌ها آسان است، اما این نیز به داده‌ها بستگی دارد. با این حال، از نظر کمی، نمی دانم چه کار کنم. از آنجایی که پاسخ ها در مقیاس ترتیبی هستند، اما نه یک مقیاس فاصله ای، من نمی دانم چگونه برای هر سوال یک عدد جمع را محاسبه کنم. شاید دادن یک مقدار عددی برای هر دسته (مانند -2، -1، 0، 1 یا 2) و خلاصه کردن نتایج ممکن است اگر چیز بهتری وجود نداشته باشد، کارساز باشد، اما من متوجه هستم که از نظر ریاضی این دقیق نیست، زیرا این یک مقیاس فاصله اوه، من یک آمارگیر نیستم، فقط یک برنامه نویس هستم. امیدوارم گزینه معقولی برای این وجود داشته باشد، می توانم تصور کنم که این یک سوال نسبتاً رایج با داده های طبقه بندی شده است. پیشاپیش ممنون PS من از R استفاده می کنم در صورتی که چیزی داخلی وجود داشته باشد.
چگونه نتایج سوالات را با پاسخ های طبقه بندی رتبه بندی کنیم؟
13755
من پیاده سازی خودم از یک آزمون رتبه امضا شده Wilcoxon را دارم. در کد من البته W- (مجموع رتبه های اعداد منفی) و W+ (مجموع رتبه های اعداد مثبت) را محاسبه می کنم. این تابع پارامتری را برای کاربر فراهم می کند تا فرضیه جایگزین را انتخاب کند، همانطور که در R انجام شد: * کوچکتر - مکان واقعی کمتر از صفر است * دو طرفه - مکان واقعی صفر نیست * بزرگتر - مکان واقعی بزرگتر از صفر است من همچنین توزیع رتبه ها را به صورت زیر محاسبه می کنم: اگر n مقدار رتبه بندی شده (غیر صفر) داشته باشیم، بگذارید a[i] (i از 0 تا n(n-1)/2) نتایج برای n-1 باشد. سپس نتایج برای n عبارتند از b[i+n] = a[i] + a[i+n] (با a[j] = 0 برای j خارج از محدوده) حال برای کوچکتر pvalue را به صورت مجموع b[ محاسبه می کنم. i=0..W-]، برای b[i=0..W+] بزرگتر، و دو طرفه به صورت 2 b[i=0..min(W-,W+)]. اما معلوم می شود که نتایج من مخالف R است -- یعنی مقدار p بزرگتر من مقدار p کمتر R است و بالعکس. آیا جنبه ای وجود دارد که من نمی دانم چگونه مقدار p-value را محاسبه کنم؟
نتایج تست Wilcoxon در مقایسه با R معکوس است، نمی دانم چرا
110083
من سعی می کنم منحنی های قدرت در مقابل دما و زمان برخی از ترکیبات شیمیایی را به عنوان تابعی از غلظت مواد تشکیل دهنده آنها پیش بینی کنم. من 20 ماده مختلف دارم. از اینها، من 550 ترکیب شیمیایی را با ترکیب حداکثر 7 ماده ایجاد کردم. در میان ترکیبات مختلف، غلظت مواد مختلف متفاوت است. برای هر ترکیب، من به طور تجربی قدرت را به عنوان تابعی از دما و زمان اندازه‌گیری کردم. من خانواده خاصی از توابع را برای تناسب با داده های تجربی انتخاب کرده ام. هر یک از اعضای این خانواده با تعیین مقادیر 4 ثابت مشخص می شوند. من می خواهم مقدار 4 ثابت را به عنوان تابعی از ترکیب ترکیب پیش بینی کنم - یعنی مواد موجود در آن و غلظت آنها. اگر من یک ماده با غلظت های مختلف داشتم، می دانم که چگونه می توانم ارتباط آن را با ضرایب پیدا کنم. من روند را پیدا می کنم: $coefficient_i(مواد، غلظت)$ اما نمی دانم چگونه می توانم از یک ماده فراتر بروم، و من خیلی بیشتر از دو ماده دارم! امیدوارم کسی بتواند مرا در مسیر درست راهنمایی کند.
چگونه می توانم بسیاری از متغیرها را با چند ضریب مرتبط کنم؟
13758
من یک نظرسنجی انجام داده ام که در آن پرسشنامه ها برای 450 نفر ارسال شده است، اما تنها 30 درصد از آنها به پرسشنامه ها پاسخ داده اند. * آیا تفسیر تحلیل استنتاج معمول (یعنی تجزیه و تحلیل استنتاج با فرض نمونه گیری تصادفی) هنوز معتبر است؟ * آیا انجام تحلیل رگرسیون لجستیک با این داده ها صحیح است؟ * اگر نه، چگونه باید ادامه داد؟
استنباط به جمعیت زمانی که میزان پاسخ به نظرسنجی فقط 30٪ باشد
13756
من مجموعه‌ای از داده‌های سری زمانی دارم که علیت گرنجر را پیدا کرده‌ام (یعنی Y در مقابل X، X-1، Y-1 پس‌رونده)، و نمی‌دانم چگونه می‌توانم یک پیش‌بینی‌کننده از این مدل خطی ایجاد کنم؟ آیا صرفاً ضرایبی است که من از مدل خود دریافت می کنم؟ (من سعی می کنم این را به صورت برنامه نویسی کنم، و هنوز هم یک تازه کار در آمار هستم، بنابراین اگر این واضح است، مرا ببخشید)
پس از تأیید علیت گرنجر چگونه می توانم برای یک سری زمانی یک پیش بینی ایجاد کنم؟
49070
من علاقه مند به ارزیابی این هستم که آیا نسبت من قابل توجه است یا خیر. من نمی دانم چه کاری و چگونه انجام دهم. من از R برای برنامه نویسی استفاده می کنم. من لیستی از ژن ها (200) را دارم که در یک فرآیند خاص دخیل هستند و من آن را ProcSet می نامم. از یک آزمایش مستقل دریافتم که از 10000 ژن، 1500 ژن مهم هستند و من این 1500 ژن را ResultSet می نامم. محل تقاطع ResultSet و ProcSet 80 ژن است. یعنی 40 درصد ProcSet قابل توجه است. چگونه می توانم محاسبه کنم که با توجه به ResultSet و 10000 ژنی که در آزمایش ارزیابی کردم، 40٪ قابل توجه و بیشتر از انتظار من است؟ آنچه من دارم: n = 200 (ProcSet) p = 0.4 N = 1500 (ResultSet) N1 = 10000 Pn = 0.15 چه نوع آزمونی به من کمک می کند بدانم 0.4 با توجه به 0.15 معنادار است؟ هر پیشنهادی به من کمک زیادی خواهد کرد.
تست تناسبات در R
43126
من سعی می‌کنم اجرای استاندارد یک HMM پیوسته را با مخلوط‌های گاوسی اصلاح کنم تا به‌طور داخلی وزن بیشتری به مشاهدات جدیدتر در یک سری زمانی بدهد. اساساً، من سعی می کنم گام M الگوریتم EM را به روز کنم، به طوری که معادلات تخمین مجدد در طول زمان وزن شوند. برگرفته از پایان نامه ای توسط Y. Zhang، 2004، در اینجا خلاصه ای از معادلات برآورد مجدد آمده است: ![http://s17.postimage.org/v6vm4h3il/mstep.png](http://i.stack.imgur. com/Tfw2Z.png) همانطور که می بینید، تنها تغییر الگوریتم اصلی، اضافه کردن تابع وابسته به زمان است. $\eta_t$ که در پایان نامه به عنوان میانگین متحرک وزنی نمایی تعریف شده است. متأسفانه، به نظر می رسد که این کار نمی کند. وقتی این تغییر را انجام می‌دهم، الگوریتم نمی‌تواند همگرا شود، زیرا احتمال ورود به سیستم را در هر تکرار بهبود نمی‌بخشد و در بسیاری موارد کاهش می‌یابد. ظاهراً ترتیب بزرگی تابع توزین اهمیت دارد. حالت نمایی بیشتر از حالت پلی/خطی احتمال را کاهش می دهد. آیا کسی ایده ای دارد که چرا الگوریتم اصلاح شده همگرا نمی شود؟ من با این فرض کار می کنم که اثبات در مورد همگرایی در پایان نامه صحیح است.
وزن های وابسته به زمان در مدل های پنهان مارکوف
82802
من باید چندین هزار بار رگرسیون لجستیک را در یک برنامه جاوا/اسکالا اجرا کنم. یک مشخصات کلی برای یکی از مشکلات این است: ~ 300 ویژگی پیوسته ~ <10000 مثبت، و به طور تصادفی دو برابر تعداد منفی را به عنوان مثبت انتخاب کنید. ویژگی ها برای همه مسائل یکسان هستند و مثبت/منفی ها همیشه از یک استخر گرفته می شوند. ، از حدود 100000. من متوجه شدم که وصل کردن ساده این مورد به WEKA برای هر مشکل چند دقیقه طول می کشد، که با توجه به تعداد کارهایی که باید انجام شوند، مناسب نیست. آیا کتابخانه سریعتری وجود دارد که بتوانم از آن استفاده کنم یا راهی برای موازی کردن این مشکلات وجود دارد یا چیز دیگری؟
آیا ابزار رگرسیون لجستیک WEKA کند است؟ اگر بله، آیا جایگزین های سریع تری وجود دارد؟
74850
من در حال کار بر روی یک مشکل برای شناسایی عوامل خطر عفونت پس از عمل هستم. بنابراین عوامل خطر مانند سن، شرایط پیش موجود، علت عفونت و غیره وجود دارد. از آنجایی که متغیر وابسته و اکثر متغیرها داده های طبقه ای هستند، ابتدا از رگرسیون لجستیک استفاده کردم که در آن عامل A معنی دار نیست. فقط می‌خواهم دوبار تأیید کنم، من از آزمون مربع کای فقط بین متغیر وابسته و A استفاده کردم، این بار مقدار P 0.03 است که به این معنی است که آنها همبستگی دارند. کسی میتونه راهنماییم کنه؟ آیا این دلالت بر همبستگی بین عوامل دارد؟
نتایج متفاوت با استفاده از آزمون مجذور کای و رگرسیون لجستیک
19201
من این تست را پیدا کردم: http://stat.ethz.ch/R-manual/R-patched/library/stats/html/mood.test.html متأسفانه هیچ اطلاعاتی در ویکی پدیا پیدا نکردم، اما چه مقیاسی یعنی؟ آن تست ها چه چیزی را بررسی می کنند؟ با تشکر
تست های مقیاس چه چیزی را بررسی می کند؟
2579
روز بخیر، من در استفاده از مدل ضریب تصادفی Swamy سوالی در رابطه با اثرات ثابت زمان دارم، همانطور که ممکن است بدانید در زمینه اثر ثابت و تصادفی، ما از مجموعه ای از آدمک های زمانی برای تخمین اثرات ثابت زمان استفاده می کنیم و من می خواهم اگه میتونیم از همون روش Swamy استفاده کنیم؟؟؟ هر اشاره ای بسیار قدردانی می شود. آما
مدل ضریب تصادفی سوامی و اثرات ثابت زمان
19203
فرض کنید مجموعه‌ای از جفت‌های ارزش کلیدی داریم، به طوری که کلیدها را می‌توان بر اساس مقدار مرتب کرد. ما می توانیم به راحتی کلیدهای $n$ را استخراج و گزارش کنیم. حالا فرض کنید که ما چنین مجموعه هایی S را داریم. قرار است از هر مجموعه مجموعه‌ای از کلیدهای بالای $p$ استخراج کنیم و آنها را ادغام کنیم تا کلیدهای $n$ بالایی را از همه مجموعه‌ها بدست آوریم. اندازه $p$ چقدر باید باشد؟ رابطه بین $S$، $n$ و $p$ و خطا چیست؟ می خواستم بدانم آیا ادبیاتی در این زمینه وجود دارد؟ توضیح: امکان داشتن کلیدهای یکسان در چندین مجموعه وجود دارد. ادغام و پیدا کردن top n در حالت ایده‌آل، نقشه ترکیبی از جفت‌های کلید-مقدار (با افزودن همه مقادیر مربوط به همان کلید) و یافتن n مقدار بالا را می‌سازد. در داده‌های من توزیع مقادیر در هر مجموعه و مجموعه ترکیبی دارای یک دنباله بلند است.
یافتن n بالا در چندین مجموعه
11458
من $x = {1,2,3,4,5}$ و $y = {2,3,4,5,6}$ را تنظیم کرده‌ام. فرض کنید همبستگی $x$ و $y$ 0.7$ است. اگر $z = {1,2,3,4,5,2,3,4,5,6}$ را تنظیم کرده باشم و با استفاده از تاخیر $=$5$ همبستگی خودکار انجام دهم، آیا نباید همان $0.7 را دریافت کنم. دلار؟ من این کار را انجام داده ام اما نتایج متفاوتی دریافت می کنم. من نمی دانم که آیا من کار اشتباهی انجام می دهم یا شاید این باشد که آنها باید نتایج متفاوتی داشته باشند.
خود همبستگی در مقابل محاسبه همبستگی
65589
من در حال حاضر یک الگوریتم خوشه بندی Kmeans را در R پیاده سازی می کنم. از هیچ بسته ای استفاده نمی کنم و آن را از ابتدا نوشتم. من فقط از یک مجموعه حدس‌های اولیه استفاده می‌کنم، و اقدام من پس از یافتن یک خوشه خالی، انتخاب یک نقطه داده جدید به‌طور تصادفی و استفاده از آن به عنوان میانگین جدید برای خوشه خالی است. من از خواندن آنلاین دریافتم که راه حل همیشه همگرا نیست و به ابزار اولیه بسیار حساس است، بنابراین وقتی آن رفتار را می بینم تعجب نمی کنم. اما من متوجه می شوم که گاهی اوقات راه حل من در واقع بین دو یا چند راه حل مختلف است. بنابراین من دو سوال مرتبط با این مشاهدات دارم: 1) در یک چرخه راه حل، یک راه حل همیشه بهتر از راه حل های دیگر است که با مجموع مجذور فاصله همه نقاط تا نزدیکترین خوشه های آنها اندازه گیری می شود. بنابراین این نشان می‌دهد که نه تنها الگوریتم لزوماً بهینه جهانی را پیدا نمی‌کند، بلکه گاهی اوقات حتی مجموع مجذور فاصله‌ها را از یک تکرار به تکرار دیگر بهبود نمی‌بخشد؟ فکر می کردم راه حل حداقل همیشه در حال بهبود است... 2) بهترین راه برای دور زدن این مشکل چیست؟ آیا باید آن را برای تشخیص چرخه ها برنامه ریزی کنم و سپس تکرار را در چرخه با کمترین فاصله کل انتخاب کنم؟ یا راه آسان تری وجود دارد؟ هر گونه کمکی بسیار قدردانی خواهد شد. با تشکر
حل چرخه ای الگوریتم Kmeans
110085
شاید یک سوال ساده باشد، اما سرم در حال چرخش است: می‌خواهم ببینم آیا X بعد از یک درمان خاص در یک مطالعه قبل و بعد از آن افزایش یافته است یا خیر. متأسفانه، من فقط K دارم که یک معیار پر سر و صدا برای X است. برای پاک کردن K از تأثیرات بالقوه غیر مرتبط با X، در ادبیات مربوطه معمول است که یک رگرسیون (مرحله اول) را تخمین بزنیم و سپس از باقیمانده به عنوان یک بهتر استفاده کنیم. اندازه گیری K* از X، به عنوان مثال، K = a + b * تأثیر + e; e = K*. حالا سوال من: 1. در ادبیات رگرسیون K = a + b * تأثیر + e معمولاً بر اساس سال تخمین زده می شود ... بنابراین چگونه می توانم اندازه گیری حاصل از K* (= e که باید با میانگین ساخت 0 باشد) مقایسه کنم. پس از آن در طول زمان؟ آیا صرفاً سرکوب رهگیری در رگرسیون مرحله اول امکان پذیر است؟ چگونه می توانم تفاوت بین دو دوره زمانی را با یک رهگیری سرکوب شده تفسیر کنم؟ 2. اگر بخواهم قدر مطلق e، |K*| را برای هر سال بگیرم (معیار دیگری از یک ساختار جایگزین، مثلاً X2) و بین دو سال مقایسه کنم، شمول/استثنای رهگیری در رگرسیون مرحله اول بر مقایسه من تأثیر می گذارد؟ با تشکر
چگونه می توان یک اندازه گیری منعکس شده توسط یک باقیمانده رگرسیون را در یک طرح قبل از پست مقایسه کرد؟
96394
یکی از مفروضات آزمون والد این است که داده ها به طور معمول توزیع شده اند. اگر داده های من از توزیع گاما پیروی کند. و من دو پارامتر توزیع گاما را تخمین زده ام. آیا آزمونی مانند تست والد وجود دارد که بتوانم از آن استفاده کنم؟
تست والد برای داده های توزیع شده گاما؟
82809
من هنگام محاسبه احتمال ویژگی بحرانی با روش پاسخ تصادفی مشکل دارم. برای هر یک از شما که با این روش آشنایی ندارید، می توانید آن را در اینجا بررسی کنید، ورودی ویکی پدیا برای پاسخ تصادفی. به طور خلاصه، این روش افرادی را که در مورد یک سوال مهم مورد نظرسنجی قرار می گیرند تشویق می کند تا صادقانه پاسخ دهند. برای رسیدن به این هدف، دو سوال وجود دارد که پاسخ‌های آن‌ها متضاد یکدیگر است و پاسخ‌دهندگان به ترتیب سوال اول یا دوم را با احتمال _p_ و _1-p_ انتخاب می‌کنند. مصاحبه کننده نمی داند که پاسخ دهنده به کدام سوال پاسخ می دهد، بنابراین حریم خصوصی مخاطب حفظ می شود. تا آنجا که من می دانم، این روش برای اولین بار توسط وارنر مورد مطالعه قرار گرفت. همانطور که می توانید تصور کنید، نسبت پاسخ های بله از نظرسنجی تشکیل شده است (قانون های استفاده شده از ویکی پدیا) YA = p*EP + (1-p)*(1-EP) EP= (YA + p - 1) / (2*p-1) YA: پاسخ‌های بله از نظرسنجی، EP: نسبت پاسخ‌های درست بله p: احتمال پاسخگویی به سؤالات مهم در آزمون‌های من، برای برخی موارد نسبت پاسخ‌های بله درست بزرگتر از 1 است. فرض کنید که من از 160 پاسخگوی نظرسنجی 55 پاسخ مثبت دریافت می کنم و _p_ 0.4 است. p=0.4 YA=0.34375 (55 از 160) EP= (YA + p - 1) / (2*p-1) EP=(0.34375 + 0.4 - 1) /(2*0.4 - 1) EP=(- 0.25625)/(-0.2)=1.28125 در اینجا EP بزرگتر از 1 است که اینطور نیست برای نتیجه نظرسنجی منطقی است زیرا به این معنی است که بیش از پاسخ دهندگان نظرسنجی چنین ویژگی را دارند؟ (اشتباه می کنم؟). آیا این نتیجه در این تکنیک امکان پذیر است؟ آیا من چیزی را از دست داده ام؟ بدونم کسی تجربه ای در این روش و یا ایده ای داره؟ چگونه می توانم از این روش برای بدست آوردن نسبت های معقول برای EP (0<=EP<=1) استفاده کنم؟ من در مورد این روش کاملاً گیج هستم اگرچه به نظر من نسبتاً معقول است. از نظرات و پیشنهادات شما قدردانی خواهم کرد.
پاسخ تصادفی، محاسبه احتمال
13757
### زمینه من سعی می کنم **همبستگی بین دو متغیر پنهان** را پیدا کنم. بیایید آنها را A و B بنامیم * A دارای دو بعد است. بیایید آنها را بعد 1 و 2 بنامیم. * B نیز دو بعد دارد. بیایید آنها را بعد 3 و 4 بنامیم. * چهار بعد (1، 2، 3 و 4) هر کدام چندین شاخص دارند. بیایید آنها را (a) و (b) برای بعد 1، (c)، (d) و (e) برای بعد 2، (f) و (g) برای بعد 3 و (h)، (i) و (j) بنامیم. ) برای بعد 4. * من ده شاخص (a، b، c، d، e، f، g، h، i و j) را در مقیاس لیکرت یا با استفاده از اعداد اصلی اندازه‌گیری کرده‌ام. (به عنوان مثال یک، دو، سه، چهار و غیره). * سپس با استفاده از کدهای مقیاس لیکرت که ایجاد کردم، شاخص ها را وزن کردم (مثلاً 0 = مهم نیست، 1 = اهمیت کم، 2 = اهمیت متوسط، 3 = اهمیت زیاد و 4 = اهمیت مطلق) * سپس امتیازات را اضافه کردم همه شاخص ها برای رسیدن به نمرات بعد. این اولین وزنه من است. * سپس گفته‌ام که هر بعد 50% به امتیاز ترکیبی A یا B کمک می‌کند و نمرات بعد را به 50% استاندارد کرده‌ام. این دومین وزنه من است. * در نهایت نمرات ابعاد را اضافه کردم تا به نمره ترکیبی برسم. **برای مثال:** اگر نمره 2 برای (الف) و 3 برای (ب) داشته باشم، مجموع من برای بعد 1 5 است. به طور مشابه، اگر برای (c) امتیاز 3 داشته باشم، 4 برای (d) و 2 برای (e)، پس مجموع من برای بعد 2 9 است. امتیاز 5 و 9 امتیازهای بعد هستند، بر اساس وزن مقیاس لیکرت. همانطور که گفتم هر بعد 50 درصد سهم دارد، نمره به دست آمده را بر نمره کل هر بعد تقسیم کرده و در 50 درصد ضرب کردم. بنابراین من موارد زیر را دریافت کردم: (2+3)/8 (به یاد داشته باشید که این بر اساس دو پاسخ مقیاس لیکرت است بنابراین حداکثر امتیاز 4 به علاوه 4 است) x 50% = 0.31 (3+4+2)/12 (این را به خاطر داشته باشید بر اساس سه پاسخ مقیاس لیکرت است، بنابراین حداکثر امتیاز 4 به علاوه 4 به علاوه 4) x 50% = 0.38 است، سپس 0.31 و 0.38 را اضافه کردم و به دست آوردم. 0.69. این امتیاز ترکیبی من برای متغیر مرکب A است (که 2 بعد و 5 شاخص دارد؛ 2 برای بعد اول و 3 برای بعد دوم). برای قابل درک شدن، من 0.69 را در 100 ضرب کردم تا از 100 نمره 69 بگیرم. من می خواهم همبستگی را روی نمرات ترکیبی A و B اجرا کنم تا رابطه بین آنها را ببینم. همانطور که می بینید، من **هیچ مدل سازی آماری پیچیده** را با استفاده از تحلیل عاملی و غیره انجام نداده ام اما با استفاده از یک سیستم وزن دهی ذهنی بر اساس اهمیت نسبی (که در وهله اول با کدگذاری مقیاس لیکرت تراز شده است) به نمره نهایی خود رسیده ام. ) و وزن مساوی در مرتبه دوم. من از این روش برای ساده نگه داشتن همه چیز استفاده کرده ام. میدونم وزن دهی ذهنی هست ولی تا حدودی میتونم با تئوری و بقیه رو با عرف توجیه کنم! ### سوالات * آیا این کار را درست انجام می دهم؟ آیا این رویکرد به اندازه کافی قوی است؟ **یادتون باشه من نمیخوام کارها رو پیچیده کنم!** من ذهن آماری ندارم! * آیا می توانم تجزیه و تحلیل همبستگی را روی نمرات ترکیبی A و B انجام دهم؟ آنها نمرات رتبه ای (بر اساس وزن) هستند، بنابراین آیا همبستگی رتبه اسپیرمن راهی برای تجزیه و تحلیل است؟
چگونه می توانم چندین متغیر را در دو سطح وزن کنم تا یک نمره متغیر ترکیبی کلی ایجاد کنم؟
57219
من در حال حاضر روی ویژگی های مجانبی رگرسیون جریمه کار می کنم. من تاکنون تعداد بیشماری مقاله خوانده ام، اما یک مسئله اساسی وجود دارد که نمی توانم به آن فکر کنم. برای ساده نگه داشتن چیزها، من قصد دارم به حداقل کردن $$ -l(\beta, X, Y) + n \lambda p(\beta) $$ برای برخی تابع جریمه معقول $p$ (و $l) نگاه کنم. احتمال منطقی دلار). در قضایای مربوط به خصوصیات مجانبی برآوردگر حاصل، معمولاً یک الزام بر $\lambda$ یا به طور دقیق‌تر دو شرط تحمیل می‌شود: یک کران بالا و پایین برای رفتار آن برای n بزرگ (مانند $\lambda / فلش راست 0$ و $ \sqrt{n} \lambda \rightarrow \infty$ برای $n \rightarrow \infty$ این یک الزام است که نشان می‌دهد در مقالات Fan en Li (SCAD)، Zou (کمان تطبیقی) و برخی دیگر مشکل من این است که هرگز مشخص نشده است که چگونه چنین مرزهایی را اعمال کنید و سعی کنید بهترین ها را پیدا کنید مقدار ممکن برای پارامتر تنظیم $\lambda$، اما البته در این مورد اندازه نمونه تغییر نمی کند و قطعاً به بی نهایت نزدیک نمی شود برای $\lambda$ (مثلاً اعتبارسنجی متقاطع، AIC یا BIC یا مشابه) باید به گونه‌ای باشد که رفتار محدودکننده آنطور که لازم است باشد، اما هیچ‌کس این را ثابت نمی‌کند، یا حداقل من نتوانستم آن را پیدا کنم هر یک از شما به من توضیح دهید که چگونه با این الزامات برای $\lambda$ کار کنم، یا به من اشاره کنید به مقالات/کتاب/.../پیشنهاد آزمایش شبیه سازی/ هر چیزی که این مسائل را روشن کند. من امیدوار هستم که ویژگی‌های مجانبی مشابه را در تنظیماتی فراتر از حداکثر احتمال اثبات کنم، اما پس از آن باید وضعیت هنر را تا حد امکان درک کنم. * * * ویرایش: با خواندن، بازخوانی و بازخوانی برخی از مقالات، در نهایت متوجه شدم که ویژگی‌های مجانبی (که مورد علاقه من است: انتخاب مدل سازگار و به طور گسترده، ویژگی‌های اوراکل) شاید \emph{do not} به انتخاب پارامتر تنظیم نیاز دارد تا رفتار محدود کننده را روی خود پارامتر حفظ کند. قضایا معمولاً نشان می‌دهند که هر سری $\lambda$ که شرایط محدود کننده را برآورده کند، منجر به تخمین‌گر با ویژگی‌های مورد نظر می‌شود. به این ترتیب، من فقط باید $\lambda$ خود را انتخاب کنم که بهترین عملکرد را داشته باشد، و تقریباً قول بدهم اگر بخواهم تجزیه و تحلیل را روی یک مجموعه داده بزرگتر/کوچکتر دوباره انجام دهم، آن $\lambda$ را بر این اساس مقیاس کنم. اگر این درست باشد، این تنها مشکل کلاسیک من را در مورد اعتبار متقابل ایجاد می کند: در اینجا، اثربخشی مدل بر روی (به عنوان مثال) 9/10 از داده ها ارزیابی می شود. حتی اگر $\lambda$ را به روش صحیح مقیاس کنم، چه چیزی تضمین می کند که از هر معیاری که استفاده می کنم، با آن مقیاس می شود؟ به نظر می رسد که این مشکل با روش های دیگر انتخاب پارامتر تنظیم کمتر باشد. آیا کسی می‌تواند درباره این موضوع توضیح دهد (من هنوز در تلاش هستم تا نظرم را در مورد نظر Stefan Wager در نظر بگیرم، بنابراین شاید قبلاً در آن وجود داشته باشد)؟
ویژگی مجانبی پارامتر تنظیم در رگرسیون جریمه شده
65585
من یک مجموعه داده آب و هوای روزانه دارم که به طور شگفت انگیزی اثر فصلی بسیار قوی دارد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/B5Zpo.jpg) من یک مدل ARIMA را با استفاده از تابع auto.arima از بسته پیش بینی با این مجموعه داده تطبیق دادم. در کمال تعجب، این تابع هیچ عملیات فصلی را اعمال نمی کند - تفاوت فصلی، فصلی ar یا اجزای ma. این مدلی است که تخمین زده است: داده کتابخانه (پیش بینی)<-ts(data,frequency=365) auto.arima(Berlin) Series: data ARIMA(3,0,1) با میانگین غیر صفر ضرایب: ar1 ar2 ar3 ma1 intercept 1.7722 -0.9166 0.1412 -0.8487 283.0378 s.e. 0.0260 0.0326 0.0177 0.0214 1.7990 sigma^2 تخمین زده شده به صورت 5.56: log likelihood=-8313.74 AIC=16639.49 AICc=16639.51 BIC=16676.7 نیز واقعاً از این مدل استفاده نمی کند. طرح پیش‌بینی اینجاست: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IkpIq.jpg) کسی می‌تواند به من راهنمایی کند که اینجا چه مشکلی دارد؟
auto.arima الگوی فصلی را تشخیص نمی دهد
2572
آیا می توانید مقالات / کتاب ها / مطالب آنلاین خوبی در مورد تست استرس همبستگی پیشنهاد دهید؟ تست استرس همبستگی: مثلاً یک ماتریس همبستگی نیمه معین مثبت داریم. اگر برخی یا همه عناصر ماتریس با یک مقدار/های معین کاهش یابند، ممکن است بخواهیم تأثیر آن را بر نتایج بررسی کنیم. البته، به دلیل الزام ماتریس همبستگی برای مثبت ماندن نیمه معین، محدودیت‌هایی برای تست استرس وجود دارد. پیشاپیش از پیشنهادات شما متشکرم!
تست استرس همبستگی
49074
از مجموعه ای از نقاط داده که به نظر می رسد: 1 1 1 1 1 1 1 1 1 1 0 1 1 0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 1 0 0 1 0 0 1 0 0 1 0 0 1 من ضرایب همبستگی را به صورت: 1 -0.301511345 0.204124145 -0.301511345 1 -0.287213479 0.204124145 -0.28721-0.204124145 -3. ضرایب غیر ثابت به شکل زیر هستند: xx -1.258 0.8473 -1.258 xx -1.204 0.8473 -1.204 xx در بالا، با رگرسیون ستون 1 در ستون 2، ضریب غیر ثابت را به صورت -1.258 و بعد از ستون 3، ستون 1 دریافت می کنم. من 0.8473 و غیره میگیرم. چگونه اعداد بالا را تفسیر کنم؟ ویرایش: من سیستمی دارم که هر 10 ثانیه سیگنال را به 3 مکان ارسال می کند. اطلاعات مربوط به فعال بودن یا نبودن آنها را جمع آوری می کند. من سعی می‌کنم بفهمم که آیا رابطه‌ای بین آن سیستم‌ها از نظر زمانی که زنده هستند وجود دارد یا خیر. من ماتریس همبستگی را با استفاده از تابع corr در matlab محاسبه کردم. با تشکر
همبستگی پیرسون در مقابل ضرایب رگرسیون لجستیک
49077
من با روش حداکثر احتمال مواجه شدم. می گوید که تابع چگالی احتمال مشترک نمونه $X_1,\ldots,X_n$ دارای توزیع $f(x;\theta )$ با مقادیر مشاهده شده $x_1,\ldots,x_n$ $f(x_1,\ldots,x_n است. ;\theta )=\prod_i f(x_i;\theta)$. حال منظور از نقطه ویرگول در تعریف $f$ چیست؟ و آیا نقشه برداری از $\mathbb{R}^n$ به $\mathbb R$ یا از $\mathbb{R}^{n+1}$ به $\mathbb R$ است؟ در نهایت، چگونه ممکن است دامنه $f$ از $\mathbb{R}^n$ یا $\mathbb{R}^{n+1}$ به $\mathbb{R}$ یا $\mathbb تغییر کند. {R}^2 دلار؟
برخی مشکلات درک تعریف یک تابع در روش حداکثر درستنمایی
83012
از Quick-R رابرت کاباکف، من # Bootstrap 95% CI برای کتابخانه ضرایب رگرسیون دارم (بوت) # تابع برای به دست آوردن وزن های رگرسیون bs <- تابع (فرمول، داده، شاخص ها) { d <- داده[شاخص ها،] # به بوت اجازه می دهد تا انتخاب نمونه مناسب <- lm(فرمول، داده=د) بازگشت(ضریب(برازش)) } # راه‌اندازی با 1000 نتایج تکرار <- boot(data=mtcars, statistic=bs, R=1000, formula=mpg~wt+disp) # نمایش نتایج نمودار (نتایج، شاخص=1) # نمودار قطع (نتایج، شاخص=2) # wt نمودار (نتایج، index=3) # disp # دریافت 95% فاصله اطمینان boot.ci (نتایج، نوع = bca، index=1) # intercept boot.ci(results, type=bca, index=2) # wt boot.ci(results, type=bca, index=3) # disp چگونه می توانم مقادیر p را به دست بیاورم $H_0:\, b_j=0$ از ضرایب رگرسیون بوت استرپ؟
چگونه مقادیر p ضرایب را از رگرسیون بوت استرپ بدست آوریم؟
57215
در یک کار آزمایشی، فرض کنید از قبل یک آماره آزمون $T(X)$ را انتخاب کرده‌ایم و توزیع آن را تحت فرض صفر می‌دانیم. فرض کنید $\mu$ میانگین توزیع صفر $T(X)$ باشد. چرا استفاده از $|T(X) - \mu| منطقی است \geq c$ برای مقداری $c$ به عنوان روش آزمایشی برای رد فرضیه صفر؟ من فکر می کنم که اگر و فقط اگر $|T(X) - \mu| باشد، این رد تهی است \geq c$ نیاز به توزیع تهی $T(X)$ * دارد تا جرم آن حول میانگین $\mu$ باشد. اگر توزیع صفر $T(X)$ هیچ یک از جرم خود را در بازه ای حول میانگین $\mu$ خود نداشته باشد و بیشتر جرم آن در فاصله معینی از میانگین $\mu$ آن فاصله داشته باشد، منطقی به نظر نمی رسد که اگر و فقط اگر $|T(X) - \mu| را رد کنید، null را رد کنید \geq c$، اینطور نیست؟ * در اطراف میانگین $\mu$ متقارن باشد. اگر توزیع صفر $T(X)$ با میانگین $\mu$ متقارن نباشد، آیا $T(X) \in (a, b)$ شاید بهتر از $|T(X) - \mu باشد. | \geq c$ به عنوان منطقه رد؟ با تشکر و احترام!
چرا منطقی است که انحراف از میانگین صفر را به عنوان آمار آزمون در نظر بگیریم؟
43128
من یک نظرسنجی دارم که در مجموع شامل 13 متغیر است. برای هر متغیر 3 سوال مشابه پرسیدم تا همسانی درونی را آزمایش کنم. اکنون من 13 تست آلفای کرونباخ را انجام دادم، یکی برای هر متغیر، تا ببینم آیا افراد 3 سوال را برای هر متغیر به طور ثابت پر می کنند یا خیر. نتایج در زیر ارائه شده است: ** متغیرهای ___ __ ___ __ ___ __ ___ ____ آلفای کرونباخ ___ __ ___ __ آلفای کرونباخ در صورت حذف مورد** قابلیت دسترسی_ ** ___ __ ___ __ ___ __ ___ __ ___ ____ ___ __ ___ __ ___ __ ___ __ ___ __** _به دست آوردن دقت CA بالاتر امکان پذیر نیست. امکان به دست آوردن کاملیت CA بالاتر_ ** ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــ __** _0.604_ ** ___ __ ___ __ ___ __ ___ __ ___ __ ___ __ ___ __ ___ ___** _0.718 کیفیت اطلاعات_ ** ___ __ ___ __ ___ __ ___ ___** _0.832_ ** ___ __ __ __ ___ __** _ممکن نیست مقدار CA بالاتری دریافت کنید_ ** ___ __ ___ __ ___ __ ___ __ ___ __ ___ __ ___ __** _0.566_ ** ___ __ ___ __ ___ __ ___ __ ___ __** _به دست آوردن ارتباط CA بالاتر ممکن نیست ** ___ __ ___ __ ___ __ ___ __ ـــــــــــــــــــــــــــــــــــــــــــــ _0.617_ ** ___ __ ___ __ ___ __ ___ __ ___ __ ___ __ ___ __ ___ ___** _0.689 رضایت_ ** ___ __ ___ __ ___ __ ___ __ ___ __ ___ __** _________ __ ___ __ ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ ___ ___** _0.487 قابل فهم_ ** ___ __ ___ __ ___ __ ___ __ ___ _** _0.569_ ** ___ __ ___ __ ___ __ ___ __ ___ __** _به دست آوردن CA بالاتر امکان پذیر نیست. ** ___ __ ___ __ ___ __ ___ __ ___ __ ___ ــــــــــــــــــــــــــــــــــــــــــ * _0.655_ ** ___ __ ___ __ ___ __ ___ __ ___ __ ___ __ ___ ____**_0.721 سوالات من به شرح زیر است: در صورت امکان، آیا برای دریافت CA بالاتر نیاز به حذف یک مورد دارم؟ یا فقط زمانی باید این کار را انجام دهم که افزایش CA نسبتاً زیاد باشد؟ آیا می توانم از همه متغیرهای نمایش داده شده در بالا استفاده کنم یا برخی از آنها به دلیل نمره پایین CA بی ارزش هستند؟
تفسیر نتایج آزمون آلفای کرونباخ
49075
فرض کنید من یک مجموعه داده $X \subset{\mathbb R}^d$ دارم (فرض می‌کنیم نمونه‌های iid هستند) و می‌خواهم چگالی احتمال برخی از نقاط نادیده y را در آن (توزیع ناشناخته) تخمین بزنم. یکی از راه‌های انجام این کار، قرار دادن یک گاوسی با واریانس کوچک $\sigma$ در هر نقطه داده و میانگین‌گیری چگالی آنها است: $$ p(y) = \frac{1}{|X|}\sum_{x \in X} N(y \mid x، \sigma I) $$ که در آن $N(y|x، \sigma I)$ چگالی احتمال y تحت یک توزیع گاوسی چند متغیره است. با میانگین $y$ و ماتریس کوواریانس $\sigma I$ (یعنی ماتریس هویت با مقیاس \sigma). به نظر می رسد این یک روش اساسی است که باید یک نام برای آن وجود داشته باشد. آیا وجود دارد؟ فکر کردم ممکن است پیچیدگی باشد، اما این مرا به جایی نمی برد.
اسم این چیه یک گاوسی کوچک در هر نقطه داده برای تخمین احتمال
11457
آیا امکان انتخاب مدل گام به گام (جهت = هر دو) در رگرسیون لجستیک باینری تو در تو در R وجود دارد؟ همچنین اگر بتوانید به من بیاموزید چگونه می توانم به دست بیاورم سپاسگزار خواهم بود: * آمار Hosmer-Lemeshow، * نسبت شانس پیش بینی کننده ها، * پیش بینی موفقیت مدل. من از بسته lme4 R استفاده کردم. این اسکریپتی است که برای بدست آوردن مدل کلی با همه متغیرهای مستقل استفاده کردم: nest.reg <- glmer(تصمیم ~ سن + تحصیلات + کودکان + (1|شهر)، خانواده = دوجمله ای، داده = ماهی) که در آن: * ماهی -- چارچوب داده * تصمیم -- 1 یا 0، چه پاسخ دهنده به ترتیب خارج شود یا بماند. * سن، تحصیلات و فرزندان -- متغیرهای مستقل. * شهر -- اثر تصادفی (جایی که پاسخ دهندگان ما تو در تو هستند) اکنون مشکل من این است که چگونه بهترین مدل را بدست آوریم. من می دانم چگونه انتخاب مدل را به صورت گام به گام انجام دهم اما فقط برای رگرسیون خطی. (`step(lm(تصمیم ~ سن + تحصیلات + کودکان، داده = ماهی)، جهت +هر دو)`). اما این نمی تواند برای رگرسیون لجستیک باینری استفاده شود درست است؟ همچنین وقتی برای محاسبه اثرات شهر، «(1|شهر)» را به فرمول اضافه می‌کنم، یک نتیجه خطا دریافت می‌کنم. به هر حال... من از مانوئل گالدینو بسیار سپاسگزارم که فیلمنامه نحوه اجرای رگرسیون لجستیک تودرتو را در اختیار من قرار داد. از کمک شما بسیار سپاسگزارم.
انتخاب مدل گام به گام، آمار Hosmer-Lemeshow و موفقیت پیش‌بینی مدل در رگرسیون لجستیک تودرتو در R
11459
من در مورد توصیه های مختلف در مورد کنترل تفاوت های پایه گیج شده ام. آیا همیشه تفاوت بین گروه ها را در یک متغیر خاص کنترل می کنید یا فقط در صورتی که متغیر با DV همبستگی داشته باشد؟ من از SPSS استفاده می‌کنم و برای ارزیابی یک مداخله، تحلیل‌های مدل ترکیبی انجام می‌دهم. جرومی، من سعی کردم با اضافه کردن نظر پاسخ بدهم، اما به نظر نمی رسد که آن را کار کند. برای پاسخ: @jeromy-anglim: خوب این یک طرح تصادفی گروهی است (مدارس به صورت تصادفی در مداخله یا کنترل لیست انتظار). با این حال، برای شرکت کنندگان از مدارس کنترل لیست انتظار (شرایط کنترل) دعوت نامه ای برای شرکت در یک مطالعه پرسشنامه ارسال شد، در حالی که شرکت کنندگان از مدارس مداخله برای شرکت در مداخله والدین دعوت شدند. از این رو، نمونه کمی مضطرب تر (علی رغم تلاش هایی که برای جلوگیری از این امر با ارائه کوپن 30 دلاری به شرکت کنندگان کودک انجام می شود). در مورد من تعداد پسران در نمونه مداخله بیشتر است و نمونه مداخله به طور متوسط ​​3 ماه کوچکتر است. هیچ تفاوت پایه دیگری برای گزارش نوجوان وجود ندارد. اما تفاوت‌های پایه در تقریباً همه والدین متغیرهای پیامد را گزارش کردند (با گروه مداخله پریشان‌تر).
آیا یک متغیر کمکی را به دلیل تفاوت گروه پایه وارد می کنید یا اگر با DV یا هر دو مرتبط است؟
82805
می فهمم که این سوال کمی مبهم است. در هنگام استفاده از اعتبارسنجی متقاطع در مدل‌های خود که از پارتیشن استفاده می‌کنند، در حال تلاش برای دریافت RMSE‌های مشابه با آموزش و آزمون/اعتبارسنجی هستم. بنابراین در اصل من در تلاش برای حذف بیش از حد تناسب هستم. همانطور که انتظار می رود، من در مجموعه تمرینی خود بیش از حد تناسب اندام دارم، جایی که اختلاف RMSE حدود 70٪ وجود دارد (تست معمولاً 1.7* بدتر از تمرین است) که به نظر من بالا است. از داده ها و سازگار است. تفاوت RMSE در این مورد چقدر مشکل است؟ توجه داشته باشید که هنگام استفاده از روش‌های ANN، RMSE‌های من فقط کمتر از 10 درصد منحرف می‌شوند که تناسب آموزشی بسیار واقعی‌تر است. R^2های واقعی بین این دو روش مدل‌سازی در رابطه با داده‌های آزمایشی بسیار مشابه هستند. علیرغم اینکه آزمون R^2 قابل قبول است، پارتیشن بیش از حد برازش در داده های آموزشی ایجاد می کند؟
RMSE در آموزش در مقایسه با اعتبار سنجی بالاتر است. چه چیزی به طور کلی قابل قبول است؟
104249
من سعی می‌کنم یادگیری ماشین بیزی را خودآموختم (بیشتر با مطالعه کتاب‌های بیشاپ و کوین مورفی). در حین کار با فرمول ها با این جمله متحیر شدم که توجه داشته باشید که تابع احتمال یک تابع چگالی ضروری نیست. فرمول بیز بر اساس داده $D$ و فرضیه $h$ بیان شده است: $$ p(h|D) = \frac{p(D|h)p(h)}{p(D)} = \frac {likelihood \times prior}{evidence} \propto likelihood \times prior$$ من می توانم فرمول قبلی را به سادگی به عنوان فرمولی بین احتمالات برخی رویدادها ببینم. این چندان مفید به نظر نمی رسد زیرا عدم قطعیت را شامل نمی شود و من می توانم با آن موافق باشم. تفسیر دوم، که به اعتقاد من عدم قطعیت را در خود دارد، این است که به احتمال پسین به عنوان یک چگالی احتمال نگاه کنیم. به این ترتیب ممکن است نگاهی به شکل عدم قطعیت کدام است بیندازیم، اگر اجازه داشته باشم آن را بیان کنم. با توجه به زنجیره‌ای بودن یادگیری که در یادگیری بیزی اتفاق می‌افتد، جایی که ممکن است از پسین‌ها به عنوان مقدم برای یادگیری بیشتر استفاده شود، یک پیامد عادی این است که قبل را نیز به عنوان چگالی داشته باشیم. حال سوال من این است که احتمال و شواهد چیست؟ اگر من آزاد باشم که هر تابعی از $D$ و $h$ را به عنوان احتمال در نظر بگیرم، شواهد صرفاً یک ثابت است. هدف از شواهد به یک ثابت کاهش می یابد تا بتوان از آن برای ایجاد تابع چگالی قبلی استفاده کرد. (من فکر می کنم اینطور است زیرا یک تابع چگالی باید انتگرال آن برابر با 1 باشد). بنابراین کار بر روی این خط، شواهد به سادگی یک ثابت است که فقط به انتگرال محصول بین احتمال و قبلی بستگی دارد. اگر از این هم جلوتر برویم، ممکن است فکر کنیم که می‌توانیم ارزش شواهد را به احتمال زیاد وارد کنیم، بنابراین به هیچ مدرکی در آنجا نیاز نداریم. حتی نام _ شواهد_ بی معنی می شود. از طرف دیگر، اگر احتمال را خود چگالی در نظر بگیریم، من با ریاضی مشکل دارم. آیا می توانید بینش هایی در مورد اینکه چرا این اتفاق می افتد (احتمال تراکم لازم نیست) به من ارائه دهید؟
چرا احتمال همیشه تابع چگالی نیست؟
11454
فرض کنید من دو سکه (احتمالاً مغرضانه) دارم. من آزمایشی را انجام دادم که در آن هر سکه را «N» بار چرخاندم، و سکه‌ها با نسبت‌های «p_1 < p_2» فرود آمدند. اکنون می‌خواهم یک تجزیه و تحلیل توان انجام دهم تا بفهمم در آزمایش دوم باید چند تلنگر انجام دهم تا ۸۰ درصد شانس تشخیص تفاوت حداقل به اندازه آنچه دیده‌ام (یعنی تشخیص آن) داشته باشم. p_2 - p_1 جدید بزرگتر یا مساوی با p_2 - p_1 قدیمی است \-- من می‌خواهم که سکه دوم بیشتر از سکه اول به سر برسد، نه فقط سر. احتمالات متفاوت است) با معناداری 0.01. چگونه این کار را انجام دهم؟ من در هر دو نظریه و روش خاص در R من مطمئن نیستم. من فکر می کردم که فراخوانی R زیر کتابخانه ترفند (pwr) pwr.t.test (d = (p_2 - p_1) / sqrt (p_1 * (1 - p_1))، sig.level = 0.01، قدرت = 0.8 را انجام دهد. ، جایگزین = بزرگتر) اما مطمئن نیستم `d = (p_2 - p_1) / sqrt(p_1 * (1 - p_1))` صحیح است (به ویژه، مطمئن نیستم که مخرج من درست است یا اینکه چه چیزی را باید در آنجا قرار دهم).
انجام یک تحلیل توان بر روی تفاوت بین دو نسبت
43127
$y = \mathbf{X} \beta$ + $\epsilon$ + $m$ جایی که y، $\epsilon$ و $m$ هستند $n \times 1$ بردارهای ستون، $\beta$ $p است. برابر 1$ و $\mathbf{X}$ $n \times p$ است. $y$ یک سیگنال سری زمانی پر سر و صدا است که با ترکیبات خطی مجموعه پایه $\mathbf{X}$ مدل‌سازی شده توسط $\beta$. $\epsilon$ نویز گاوسی افزودنی است. $m$ تخمینی از عدم تطابق ذاتی در بازسازی است. ستون های $\textbf{X}$ نمی توانند به طور کامل $y$ را بازسازی کنند، حتی اگر بدون نویز باشند. آیا درکم درست است که این را می توان مدل خطا در متغیرها نامید؟ بنابراین با توجه به y و $\textbf{X}$، $\beta$ چیست؟ پیچش این است: مقدار واقعی $\beta$ باید 0 یا 1 باشد، در حالی که همه متغیرهای دیگر از داده های پیوسته تشکیل شده اند. کاری که من می‌خواهم بتوانم انجام دهم این است که $\beta$ را به عنوان مقداری بین 0 یا 1 بیابم که مربوط به احتمالی است که ستون مربوطه $\textbf{X}$ در بازسازی وجود دارد. مقدار $\beta$ از 1 نشان می دهد که ستون مربوطه آن x وجود دارد، 0 نه. از آنجایی که ستون‌های $\textbf{X}$ نمی‌توانند به‌طور کامل $y$ را بازسازی کنند، حتی اگر بدون سر و صدا باشند، روش‌های اساسی مانند OLS پاسخ‌هایی را می‌دهند که عناصر $\beta$ بالای 1 و زیر 0 باشند، که برای من غیرفیزیکی است. . به عبارت دیگر، آیا راهی برای محدود کردن نتایج یک رگرسیون خطی ($y = \mathbf{X} \beta + \epsilon + m$) وجود دارد که فقط مقادیر $\beta$ بین صفر و 1 را بپذیرد. آنها را می توان به عنوان یک احتمال تفسیر کرد که $\beta$ برابر با یک است یا خیر؟ شاید از طریق استفاده از توزیع قبلی؟ اگر کسی کلیدواژه‌ای دارد که بتوانم به آن نگاه کنم، یا مرجعی برای اشاره به آن داشته باشم، بسیار سپاسگزار خواهد بود! P.S. اگر کسی می تواند تفسیر بیزی بدهد.. امتیاز جایزه! مردم این برای آن چیزها هستند. پیشاپیش متشکرم
از چه نوع مدل رگرسیونی استفاده کنم؟
64181
در کتاب اقتصاد سنجی Woolridge، او فرض homoskedasticity را می دهد $${\rm Var}(u|x)=\sigma^2 .$$ همچنین می گوید > چون ${\rm Var}(u|x)=E(u ^2|x) - [E(u|x)]^2$ and $E(u|x)=0$ سپس > $\sigma^2=E(u^2|x)$. این بدان معنی است که $\sigma^2$ _همچنین انتظار > **بی قید و شرط** $u^2$ است. بنابراین، $\sigma^2 = E(u^2)$. چگونه از این $\sigma^2 = E(u^2)$ بدست می آورید؟ چگونه قسمت شرطی روی $x$ را رها می کنید؟
چرا $\sigma^2$ همچنین واریانس بدون قید و شرط $u^2$ در فرض homoskedasticity در رگرسیون خطی ساده است؟
97511
من یک سوال نسبتاً باز دارم. در آمار بیزی شما آزمایش را بر اساس توزیع پسین $p(\theta|D)$ انجام می دهید. به عنوان مثال می توانید چیزی مانند $T=P[\theta>0|D]$ را امتحان کنید و بر اساس آستانه $.5$ تصمیم بگیرید. $T$ اساساً برخی از آمارهای داده های مشاهده شده است - و به این ترتیب دارای توزیع نمونه است. آیا نمی‌توانم کران‌های فراوانی را در $T$ دریافت کنم که خطای مشخصی را با استفاده از null تضمین می‌کند؟ آیا من در اینجا کاملاً اشتباه می کنم، آیا این فقط بی فایده است یا این رویکرد برچسبی دارد که من نتوانستم پیدا کنم؟ نکته جالب این است که یک روند آزمایشی مکرر داشته باشید و به جای اینکه با مقادیر p-تقریباً قابل توجهی دست و پنجه نرم کنید، فقط خود آمار T$ را گزارش کنید؟ آیا این مربوط به آزمایش مشروط است؟
از توزیع نمونه گیری احتمالات پسین چه می توان آموخت؟
2573
اگر بخواهیم توزیع یک داده پیوسته را به وضوح ببینیم، کدام یک از هیستوگرام و pdf باید استفاده شود؟ تفاوت بین هیستوگرام و پی دی اف، نه از نظر فرمول، چیست؟
تفاوت هیستوگرام و pdf؟
60407
بیایید بگوییم که من یک شیشه مرمر سفید، سیاه و قرمز دارم (در کل 1000) اما مقدار هر رنگ را نمی دانم. من اکنون نمونه ای از 10 تیله را از شیشه می گیرم که شامل 3 x سفید، 4 x سیاه و 3 x مرمر قرمز است. آیا منصفانه است که نسبت هر رنگ را تخمین بزنم و از خطای استاندارد نسبت برای هر رنگ به طور مستقل استفاده کنم؟ به عنوان مثال، آیا می توانم بگویم 30٪ تیله های سفید با خطای حاشیه $\sqrt{{p(1-p)}/{n\,}}$ وجود دارد و سپس همین کار را برای سیاه (40%) انجام دهید. و قرمز (30%)؟ من با فرمول حاشیه خطا راحت هستم اگر از 3 نمونه 10 تایی مستقل استفاده کنیم - با یک آزمایش برای هر رنگ. با این حال، به نظر می رسد که اگر از یک نمونه استفاده کنیم، آزادی آماری را در تخمین های سیاه و قرمز از دست می دهیم، با توجه به اینکه اگر از قبل می دانیم که 3 تیله **نه** سیاه یا قرمز هستند. با عرض پوزش اگر از اصطلاحات اشتباه استفاده می کنم، من یک آمارگیر نیستم!
آیا استفاده از یک نمونه برای تخمین بیش از یک نسبت نامعتبر است؟
17129
> **تکراری احتمالی:** > میانگین مقادیر همبستگی من تعدادی کاربر دارم، و برای هر کاربر 2 لیست از موارد مرتب شده دارم (یکی از مشاهده است، یکی توسط یک الگوریتم تولید می شود). برای یک کاربر معین، می توانم از همبستگی اسپیرمن برای سنجش میزان عملکرد الگوریتمم استفاده کنم. با این حال، من می خواهم الگوریتم را بر روی کل جمعیت ارزیابی کنم. آیا میانگین همبستگی اسپیرمن معتبر است؟ اگر نه، چگونه می توانم یک مقدار واحد تولید کنم که تعداد زیادی از همبستگی ها را جمع کند؟ همچنین، من در این زمینه مبتدی هستم - لطفاً اگر مسیر اشتباهی را در اینجا طی می کنم، به من اطلاع دهید. هر گونه پیوند به مقالات/مقالات در مورد این نوع چیزها بسیار قدردانی می شود.
چگونه میانگین همبستگی های اسپیرمن را محاسبه کنیم؟
57216
من از روش هم انباشتگی جوهانسن استفاده کردم تا ببینم چند بردار هم انباشته در بلندمدت در دسترس است و یک بردار هم انباشته را از آماره حداکثر مقدار ویژه و چهار معادله هم انباشته را از آماره آزمون ردیابی به دست آوردم. حال سوال من این است که کدام یک از این دو آمار برای تصمیم گیری خوب است و در مورد مشکل من که شما با توجه به نتایجی که پیدا کردم استفاده از کدام یک از این دو آمار را توصیه می کنید؟
راهنما برای آزمون بردارهای هم انباشته جوهانسن
11450
من R را در آمازون EC2 با استفاده از یک نسخه تغییر یافته از bioconductor AMI اجرا کردم. در حال حاضر، من از putty برای ssh در سرورم استفاده می‌کنم، R را از خط فرمان شروع می‌کنم و سپس اسکریپت خود را از notepad++ در جلسه putty خود کپی و جایگذاری می‌کنم. موضوع این است که من از برش و چسباندن متنفرم. به نظر می رسد دوران سنگی است و من گاهی اوقات با مشکلات عجیب و غریبی در بافر مواجه می شوم که کد من را خراب می کند. من نمی توانم از RStudio استفاده کنم، زیرا از چند هسته ای پشتیبانی نمی کند، که به شدت به آن وابسته هستم. روش زیباتر برای این کار چیست؟ /ویرایش: با تشکر از همه پیشنهادات عالی. در حال حاضر، من به استفاده از foreach با باطن doRedis روی آورده‌ام که از طریق RStudio روی مک، رایانه شخصی من و آمازون عالی کار می‌کند. هنگامی که یاد گرفتم چگونه تابعی بنویسم که lapply را با استفاده از foreach شبیه سازی کند، این سوئیچ بسیار آسان بود. (همچنین doRedis عالی است!)
بهترین راه برای تعامل با جلسه R در حال اجرا در ابر
114404
من یک سوال در مورد یک مدل چند سطحی دارم. من داده هایی از سه منبع مرتبط دارم. * داده های مربوط به حدود 30 بیمارستان، در سطح بیمارستان - مواردی مانند اندازه، آموزش/غیر تدریس و غیره. * داده های حدود 1500 پرستار، نمونه برداری از حدود 100 بخش، اعم از پزشکی یا جراحی، در این 30 بیمارستان. * داده های حدود نیم میلیون پذیرش در بیمارستان در این 30 بیمارستان، طبقه بندی شده به عنوان پزشکی یا جراحی. نمی دانم در کدام بخش خاص بودند! مطلقاً هیچ راهی برای پیوند دادن پرستاران به پذیرش وجود ندارد، فراتر از این فرض که پرستاران در بخش های جراحی، پرستارانی هستند که از بیماران جراحی در آن بیمارستان مراقبت می کنند، و به طور مشابه برای پرستاران در بخش های پزشکی. من به راحتی می توانم نحوه پیوند داده های بیمارستان و پذیرش، یا داده های بیمارستان و پرستاران را ببینم. چیزی که من با آن مشکل دارم مدل 3 سطح است. من امیدوار بودم که از lmer در R برای انجام تجزیه و تحلیل استفاده کنم. من به راحتی می‌توانم بیمارستان‌ها و پرستاران، یا بیمارستان‌ها و پذیرش‌ها را ادغام کنم - یک رابطه 1:1 وجود دارد، و در نهایت به مجموعه داده‌ای با 1500 ردیف، برای ادغام بیمارستان-پرستار، و 500000 ردیف برای ادغام بیمارستان- پذیرش می‌رسم. فایل اطلاعاتی معادل بیمارستان- پرستار-بیمار حدود 25 میلیون رکورد دارد - تقریباً 50 پرستار در هر بیمارستان به هر یک از تقریباً 17000 پذیرش در هر بیمارستان اضافه می شود! این به نظر من غیر منطقی می آید. و من حداقل از ضرب داده ها انتظار خطاهای استاندارد بسیار نادرست را دارم (اما ممکن است در این مورد اشتباه کنم). البته می‌توانستم، و در واقع، خلاصه‌ای از متغیرهای پرستاری را در سطح بیمارستان تهیه کنم و از آنها استفاده کنم. با این حال، این به طور مبهم اشتباه به نظر می رسد. تفاوت قابل توجهی بین پرستاران در بیمارستان‌ها وجود دارد، و بیشتر این اطلاعات از بین می‌روند، اگر به جای آن سطح بیمارستان را انتخاب کنم. بنابراین، از چه ساختار داده ای باید استفاده کنم و چگونه باید آن را آماده کنم (ترجیحاً در R)، و چگونه می توانم ماهیت غیر تودرتو این داده ها را تطبیق دهم؟ متغیرهای نتیجه مورد نظر همگی باینری هستند. توصیه ها، مراجع، انتقادات همه با سپاس پذیرفته شد.
مدل سه سطحی پیچیده به طور ناقص - مشاوره در مورد داده ها و تجزیه و تحلیل جستجو شد
97512
من فکر می کردم چگونه می توانم توزیع مشترک و حاشیه ای را در R تعیین کنم. من معتقدم که باید از تابع نمونه و برای تمرین خود نیز از replace=F و همچنین for با تکرار استفاده کنم. من در بیمارستان بودم و برخی از کلاس های احتمالی را از دست دادم، بنابراین اگر کسی بتواند به من کمک کند واقعاً سپاسگزار خواهم بود!
نمونه، جایگزین=F در R
11455
من در حال انجام یک مدل خطی اثرات مختلط برای ارزیابی اثربخشی یک مداخله هستم. من یک متغیر ساختگی شرط دارم که برای گروه کنترل 2 و برای گروه مداخله 1 را کد کرده ام. آیا این مشکلی ندارد یا باید از دستور خاصی استفاده کنم (مثلاً 0 = بدون مداخله، 1 = مداخله)؟
آیا مهم است که چه مقادیری را برای نمایش دو گروه در یک متغیر ساختگی اختصاص می دهید؟
977
هنگامی که ما در حال نظارت بر حرکات سازه هستیم، معمولاً قبل از انجام هر کاری که ممکن است باعث حرکت شود، نقاط نظارت را روی سازه نصب می کنیم. این فرصتی را به ما می دهد که قبل از شروع کار برای پایه بندی خواندن، چند مطالعه انجام دهیم. اغلب داده ها کاملاً متغیر هستند (تغییرات در خواندن به راحتی می تواند بین 10 تا 20٪ از حرکت فیانل باشد). اندازه‌گیری‌ها همچنین اغلب تحت تأثیر محیطی هستند که در آن انجام می‌شوند، بنابراین یک مجموعه از اندازه‌گیری‌های انجام‌شده در یک پروژه ممکن است دقتی مشابه اندازه‌گیری‌های روی پروژه دیگر نداشته باشد. آیا روش آماری یا قاعده‌ای وجود دارد که بتوان از آن استفاده کرد تا بگوییم قبل از انجام اولین قرائت، چند قرائت پایه باید انجام شود تا دقت خاصی بدست آید؟ آیا قوانین فروتنی وجود دارد که بتوان در این شرایط اعمال کرد؟
چند اندازه گیری برای پایه یک اندازه گیری لازم است؟
17123
من توپ های $n$ در یک کوزه با برچسب از $1$ تا $n$ دارم و وزن هر کدام برابر با برچسب خود است. احتمال انتخاب یک توپ متناسب با وزن آن وجود دارد، یعنی اگر وزن کل توپ های داخل کوزه $w$ باشد، احتمال برداشتن توپ $i$ $\frac{i}{w}$ است. سوال من اکنون این است که اگر بدون تعویض توپ ها را از کوزه انتخاب کنم، احتمال اینکه توپ $k$ را قبل از هر توپی در مجموعه $\\{k+1,\ldots, n\\}$ انتخاب کنم چقدر است؟ تنها مشاهده من که ممکن است در حال حاضر مرتبط به نظر برسد این است که نسبت احتمال برداشتن توپ $k$ به احتمال برداشتن توپ با وزن بیشتر از $k$ در هر مرحله ثابت است، یعنی $\frac{k است. }{\binom{n+1}{2}-\binom{k}{2}}$. ویرایش: اسپویلر برای پاسخ را می توانید در بخش نظرات پیدا کنید. پس از دیدن راه حل، من هنوز در تعجب هستم که چگونه می تواند به عنوان پاسخ شهودی باشد. آیا می توان راه حل را تنها با شهود دید؟
توپ با وزن در یک کوزه
17126
من با R جدید هستم و سعی می کنم برخی از مدل سازی غیرخطی چندین هزار مجموعه داده x,y را خودکار کنم. این داده‌ها نتایج تجربی هستند که فروپاشی نمایی را نشان می‌دهند. من می خواهم داده های خود را با این فرمول مدل کنم: y = (y0 - plateau)*exp(-k*x) + plateau من توابعی را برای مدل و تخمین مقدار اولیه ایجاد کرده ام: expDecayModel <- function(predictor, k, y0 , plateau) { (y0 - plateau)*exp(-k*predictor) + plateau } expDecayModelInit <- تابع (mCall, LHS, داده) { xyframe <- sortedXyData(mCall[[پیش‌بینی]]، LHS، داده) x <- xyframe$x y <- xyframe$y y0 <- max(y) plateau <- min(y) ymid <- ( y0 + plateau)/2 نزدیک <- y[1] closestyindex <- 1 for (i در 2:length(y)) { if (abs(y[i] - ymid) < abs(نزدیک - ymid)) { نزدیک <- y[i] فهرست نزدیک <- i } } xatclosesty = x[closestyindex] k = 1 / مقدار xatclosesty = c(k, y0 , plateau) names(value) <- mCall[c(k, y0, plateau)] value } من خود شروع کننده مانند این است: SSexpDecay <- selfStart(expDecayModel، expDecayModelInit، c(k، y0، plateau)) سپس سعی می کنم مدل را مانند این اجرا کنم: fitmodel <- nls(y ~ SSexpDecay(x , k, y0, plateau), data = AllData) برای برخی از مجموعه‌های داده، به نظر می‌رسد این به خوبی کار می‌کند. برای دیگران اینطور نیست. می‌خواهم بدانم چه اشتباهی انجام می‌دهم، یا کارهایی که می‌توانم انجام دهم تا کار خودکارم قوی‌تر شود. انتخاب مقدار اولیه من (عمدا) به منظور تقلید از مقادیر موجود در GraphPad Prism است، و حداقل برای مجموعه داده های زیر، مقادیر اولیه برای سه پارامتر من یکسان است. بنابراین، برای بهبود این موضوع چه کاری می توانم انجام دهم؟ نمونه ای از مجموعه داده ای که با شکست مواجه می شود در این کمانچه است.
چگونه می توانم مدل R nls خود را پایدارتر کنم؟
83014
آیا کسی می تواند تابع ضرر برنولی را برای تقویت گرادیان (طبقه بندی باینری) به من نشان دهد؟
آیا کسی می تواند تابع اتلاف برنولی را برای تقویت گرادیان به من نشان دهد؟
97518
من روشی برای محاسبه یک متغیر تصحیح انتخاب برای رگرسیون کاکس پیدا کردم (لی 1983. مدل های اقتصادسنجی تعمیم یافته با گزینش پذیری. Econometrica 51: 507-512.): $$ λ = \phi \frac{ \phi^{-1} ( F_i(t)) }{1 - (F_i(t))} $$ که $F_i(t)$ تجمعی است تابع خطر برای شی $i$ در زمان $t$، $\phi$ تابع چگالی نرمال استاندارد (متغیر تصحیح انتخاب؟)، و $\phi^{-1}$ معکوس توزیع نرمال استاندارد است. تابع تا اینجای کار خیلی خوبه. با این حال، من کاملاً با محاسبه در STATA (11) مشکل دارم. اگر لامدا به‌عنوان متغیر کمکی لحاظ شود، STATA می‌گوید: > ناحیه مسطح که منجر به احتمال گمشده r(430) می‌شود. آیا کسی ایده ای برای حل این مشکل دارد یا روش های دیگری برای تصحیح سوگیری انتخاب در مدل خطر متناسب کاکس (به عنوان مثال، تصحیح هکمن) وجود دارد؟ آیا رویکرد دو مرحله ای قابل اجرا است و در مورد استفاده از رگرسیون کاکس چگونه کار می کند؟
متغیر تصحیح انتخاب (نمونه غیرتصادفی انتخاب شده / سوگیری) و رگرسیون کاکس
52537
من در تاریخ 1/1/2013 3 سهم خریدم: ABC، ACME، WRAM. تا 3/1/2013، 10 درصد بازدهی کسب کردم. در همین دوره، S&P 500 بازدهی 5 درصدی را تجربه کرد. آیا عملکرد برتر من از نظر آماری معنادار است؟
اهمیت آماری بازده پرتفوی سهام؟
17121
من سعی در کدنویسی یک مدل ساده با JAGS دارم: set.seed(123) x1 <- rnorm(100) x2 <- rnorm(100) z <- 1.0 + x1*0.1 - x2*0.5 + rnorm(100) y < - z y[z < 0] <- 1 y[z >= 0 و z < 1] <- 2 y[z >= 1 & z < 1.5] <- 3 y[z >= 1.5] <- 4 jagsdf <- list(y=y,x1=x1,x2=x2) پارامترها <- c(alpha,beta) mcmcmodel <- jags.model(file=ordlog.jag,data=jagsdf,n.chains=3) با **ordlog.jag** به عنوان زیر [1]-mu[i] p[i,1] <- Q[i,1] for(j در 2:3){logit(Q[i,j]) <- آلفا[j]-mu[i ] p[i,j] <- Q[i,j] - Q[i,j-1] } p[i,4] <- 1 - Q[i,3] y[i] ~ dcat(p[i ,]) } ## پیشین بیش از آستانه برای(r در 1:3){ alpha0[r] ~ dnorm(0,1.0E-3) } آلفا <- مرتب‌سازی (alpha0) for(j در 1:2){ beta[j] ~ dnorm(0,1.0E-3) } } اما خطای زیر را دریافت می‌کنم: خطا در گره y[3] گره مشاهده‌شده با والدین مشاهده‌نشده ناسازگار در زمان اولیه است. به دلیل مقداردهی اولیه است، اما من نتوانستم آن را به درستی تنظیم کنم. هر ایده ای؟
لاجیت در JAGS سفارش داد
109967
من این مقیاس خاص را آزمایش کردم و معلوم شد که شاخص پایایی پایینی دارد (a=4.5). من قبلاً دو مورد را حذف کرده ام اما فقط کمی با a=.67 افزایش یافته است. حجم نمونه من 25 به عنوان بخشی از آزمایش آزمایشی است. آیا افزودن شرکت کنندگان بیشتر باعث افزایش شاخص قابلیت اطمینان می شود؟ من می‌خواستم شاخص قابلیت اطمینان بدون حذف هیچ موردی به a=0.80 برسد، زیرا در اصل فقط حدود 7 مورد وجود دارد و اگر برای افزایش قابلیت اطمینان با حذف یک مورد دیگر تلاش کنم، ممکن است با رسیدن به مقدار قطع قابل قبول دوباره کوتاه بیایم. چه کار باید بکنم؟
چه زمانی شاخص قابلیت اطمینان ضعیف قابل قبول است؟
973
**مجموعه داده‌های رایگان در دسترس برای طبقه‌بندی با بیش از 1000 ویژگی** (یا اگر دارای منحنی باشد) کدامند؟ در حال حاضر یک ویکی انجمن درباره مجموعه‌های داده رایگان وجود دارد: http://stats.stackexchange.com/questions/7/locating-freely-available-data- samples/ اما در اینجا، خوب است که **لیست متمرکزتری داشته باشیم. که می تواند راحت تر استفاده شود**، همچنین قوانین زیر را پیشنهاد می کنم: 1. یک پست **در هر مجموعه داده** 2. **نه** پیوند به مجموعه مجموعه داده 3. هر مجموعه داده **باید** باشد مرتبط با * یک **نام** (برای فهمیدن اینکه در مورد چیست) و یک پیوند به مجموعه داده (مجموعه داده های R را می توان با نام بسته نامگذاری کرد) * تعداد ویژگی ها (مثلاً **p** است) اندازه مجموعه داده (مثلاً **n** است) و تعداد برچسب ها/کلاس (مثلاً **k** است) * یک **نرخ خطای معمول** از تجربه شما (استفاده شده را بیان کنید الگوریتم در کلمات) یا از ادبیات (در این مورد آخر مقاله را پیوند دهید)
مجموعه داده های رایگان برای طبقه بندی ابعادی بسیار بالا
17124
من می خواهم تابع درستنمایی یک مدل پروبیت مرتب چند دوره ای را با یک جزء تصادفی خودرگرسیون ارزیابی کنم، اما در رسیدن به تابع درستنمایی مشکل دارم. به عنوان مثال (در اینجا: Eichengreen (1985) در مورد انتخاب نرخ های بانکی $BR_{t}$ و تغییر در نرخ های بانکی $\Delta BR_{t}$). سه تغییر مشاهده شده -50، 0، 100 وجود دارد. مدل آنها این است: $$Prob[\Delta{BR_{t}}=-50|J_{t}]= Prob[BR^*_{t}<BR_{ t-1}-\alpha_{l}] $$ $$Prob[\Delta{BR_{t}}= 0|J_{t}]= Prob[BR_{t-1}-\alpha_{l}<BR^*_{t}<BR_{t-1}+\alpha_{U}]$$$$Prob[\Delta{BR_{t}} = 100|J_{t}]= Prob[BR^*_{t}>BR_{t-1}+\alpha_{U}] $$ با $\Delta BR^*_{t}$ متغیر پنهان، $J_{t}$ حاوی مقادیر فعلی و تاخیری متغیرهای خارجی $x_{t}$ و تاریخچه کامل $BR_{s}$, s=1,...,t-1. برای مثال، $J_{t}=(X_{t}, BR_{t-1},X_{t-1},...,BR_{1},X_{1})$ رگرسیون متغیر پنهان زیربنایی است : $$\Delta{BR^*_{t}}=X^'_{t}ß+\epsilon_{t}$$ با $\epsilon_{t}$ ~ $Niid (0,\sigma^2)$. نوشته شده در سطوح (حل کردن به عقب): $$BR^*_{t}=BR^{*}_{0}+\sum^{t}_{i=1}X_{i}\beta+\sum^{ t}_{i=1}\epsilon_{i}$$ جایگزینی متغیر پنهان در مدل با معادله اختلاف حل شده و $\gamma_{t}=\sum^{t}_{i=1}\epsilon_{i}$ احتمالات عبارتند از: $$Prob[\Delta{BR_{t}}=-50|J_{t}] = Prob[\gamma_{t}<BR_{t-1}-\alpha_{l}-BR^{*}_{0}- \sum^{t}_{i=1}X_{i}\beta] $$ $$Prob[\Delta{BR_{t}}= 0|J_{t}]= $$ $$Prob[BR_{t-1}-\alpha_{l}-BR^{*}_{0}-\sum^{t}_{i=1}X_{i}\beta<\gamma_{t <BR_{t-1}+\alpha_{u}-BR^{*}_{0}-\sum^{t}_{i=1}X_{i}\beta]$$ $$Prob[\Delta{BR_{t}}= 100|J_{t}]= Prob[\gamma_{t}>BR_{t-1}+\alpha_{U}-BR^{*}_{0 }-\sum^{t}_{i=1}X_{i}\beta|J_{t}] $$ برای ارزیابی احتمالات، به توزیع شرطی نیاز دارم $\gamma|J_{t}$. $\gamma$ یک پیاده‌روی تصادفی $\gamma_{t}= \sum^{t}_{i=1}\epsilon_{i}=\gamma_{t-1}+\epsilon_{t}$ با $\ را دنبال می‌کند epsilon_{t}$. ساختار مارکوف $\gamma_{t}$ اجازه می دهد تا توزیع شرطی $\gamma_{t}|J_{t}$ را برای مرزهای $\gamma_{t}$ با تحقق $\Delta BR_{ بنویسید. t}$، به عنوان مثال $$l_{t}= BR_{t-1}-\alpha_{l}-BR^{*}_{0}-\sum^{t}_{i=1}X_{i}\beta$$ و $$U_{t}= R_{t-1}+\alpha_{u}-BR^{*}_{0}-\sum^{t}_{i=1}X_{i}\beta$ $ توسط پیچیدگی به عنوان: $$h(\gamma_{t}|J_{t})=\frac{1}{\sigma}\int^{U_{t-1}}_{l_{t}}\phi(\frac{\ gamma_{t}-\gamma_{t-1}}{\sigma})g(\gamma_{t-1}|J_{t})d\gamma_{t-1}$$ با $g(\gamma_{t-1}|J_{t})$ به عنوان توزیع شرطی $\gamma_{t-1}$ با توجه به $J_{t}$. برای تعیین تابع درستنمایی باید $h(\gamma_{t+1}|J_{t+1})$ را پیدا کنم. برای یافتن مورد دوم $g(\gamma_{t}|J_{t+1})$ لازم است. نویسندگان موارد زیر را پیشنهاد می کنند: $$ g(\gamma_{t}|J_{t+1})=[H(U_{t}|J_{t})-H(l_{t}|J_{t}] ^{-1} h(\gamma_{t}|J_{t})$$ برای $l_{t}<\gamma_{t}<U_{t}$ و H(°|°) به عنوان cdf از چگالی h(°|°) من می توانم استدلال را دنبال کنم، اما با آخرین مرحله مشکل دارم. {t+1})$ با استفاده از cdf ها؟
تابع درستنمایی برای یک پروبیت چند دوره ای با متغیر پنهان خودرگرسیون
48389
من یک خودرگرسیون برداری بیزی را با استفاده از نمونه گیری گیبس تخمین زده ام. هنگام ساختن توزیع پیش‌بینی پسین، متوجه شده‌ام که وقتی ضرایب شبیه‌سازی‌شده از MCMC ثابت نیستند (به این معنا که ریشه‌های مشخصه در دایره واحد نیستند)، پیش‌بینی‌ها تمایل به انفجار دارند. من سعی کرده‌ام برای این موضوع راه‌حل‌هایی بیابم که مستلزم رعایت یک پیش‌بینی نیست. به نظر می رسد که کار می کنند، اما کند هستند. به عنوان مثال، من سعی کرده ام به طور مکرر از ضرایب برای هر متغیر وابسته نمونه برداری کنم و تنها در صورتی که حداکثر مدول مقادیر ویژه کمتر از 1 باشد، به سراغ بعدی رفتم. -فرآیندهای ثابت، اما پس از آن خروجی نهایی فقط شامل فرآیندهای ثابت می شود. من مطمئن نیستم که آیا این رویکرد درستی نیست یا نه. روش دیگری که من از آن مطمئن نبودم این بود که اگر ضرایب شبیه سازی شده ثابت بود و ضرایب شبیه سازی شده نبودند، ضرایب پسین را جایگزین کنم. من نمی‌پرسم آیا برخی از رویکردهای معقول وجود دارد که کند نیستند؟
نمونه برداری از ضرایب خودرگرسیون بردار ثابت در حین نمونه گیری گیبس
112270
من سعی می کنم از Malet API برای طبقه بندی متن استفاده کنم. طبقه‌بندی‌کننده‌ای که قبلاً با استفاده از ابزار خط فرمان ایجاد شده بود. من نمی دانم از بسته های Mallet با استفاده از جاوا استفاده کنم. متشکرم
نصب API Mallet
60403
من کمی از رفتار $R^2$ در مدل های غیر خطی گیج شده ام. در زیر چند داده و دو تناسب هذلولی آورده شده است. یکی که در آن دو پارامتر تخمین زده می شود (مدل $m_1$)، و دیگری که در آن یک پارامتر در 100$ ثابت شده است، و تنها پارامتر دیگر تخمین زده می شود (مدل $m_2$). مدل $m_1$ دارای خطای استاندارد باقیمانده بسیار کمتری (8.01$ در $2$df) نسبت به $m_2$ (13.7$$ در $3$df) است و فقط با نگاه کردن به آن (نمودار زیر را ببینید)، تناسب بهتری نسبت به $m_2$ دارد ( حتی اگر $m_1$ خود را می توان بهبود بخشید). مجموع مربعات باقیمانده همانطور که توسط anova() گزارش شده است 128.35$ برای $m_1$ و $565.80$ برای $m_2$ است. با یک تفاوت df که یک مقدار p برای تفاوت باقیمانده SS 0.12$ به دست می دهد. تفاوت در مجموع باقیمانده مربع ها و تناسب کره چشم تعجب آور نیست. با این حال، $R^2$ از m_2$ (مدل محدود شده) بسیار بهتر است ($R^2$ با مربع کردن همبستگی مقادیر پیش‌بینی‌شده و مقادیر مشاهده‌شده $Y$ محاسبه می‌شود (احتمالاً اشتباه است). $m_1$ دارای همبستگی مجذور مقادیر Y مشاهده شده و پیش بینی شده $.921$ است، در حالی که $m_2$ دارای $.995$ است. آیا $R^2$ اصلا برای این مدل ها مفید است؟ آیا می‌توان این مدل‌ها را بر اساس $R^2$ تشخیص داد (به عنوان مثال، یک مدل نمایی می‌تواند یک مدل رقیب باشد و ممکن است R^2$ آن مدل را بررسی کنیم). من در مورد این کنجکاو هستم، زیرا در گوشه ای از ادبیات من، این نوع مدل ها بر اساس شواهد $R^2$ مورد علاقه یا کنار گذاشته می شوند و همچنین نمی دانم که چگونه یک محدودیت می تواند $R^2$ را در این شرایط بهبود بخشد. تست <- data.frame(x=c(1،10،50،100)، y=c(57.7،28.0،17.8،14.8)) m1 <- nls(y ~ a / (1+b*x)،تست، start=list(a=200,b=.07)) m2 <- nls (y ~ 100 / (1+b*x),test,start=list(b=.07)) coeffm1 <- ضرایب (m1) coeffm2 <- ضرایب (m2) خلاصه (m1) خلاصه (m2) anova (m1,m2) test$ m1pred <- fitted(m1) test$m2pred <- fitted(m2) cor(test$y,test$m1pred)^2 cor(test$y,test$m2pred)^2 نمودار(test$x,test$y,ylim=c(0,60)) منحنی((y=coeffm1[a] / (1+coeffm1[b ]*x))،add=T) منحنی((y=100 / (1+coeffm2[b]*x))،add=T,lty=خالی) ![خط یکپارچه مدل m1، خط چین مدل m2 است. فیت کره چشم m1 بهتر از m2 است.](http://i.stack.imgur.com/XEOHw.jpg) _خط جامد مدل m1 و خط چین مدل m2 است. تناسب کره چشم m1 بهتر از m2 است._
رفتار $R^2$ در مدل های غیر خطی
60401
من **تحلیل مکاتبات Detrended** را برای **ترکیب گونه** سایت های مختلف بررسی تکراری انجام داده ام و یک **طرح ترتیب سایت** ساخته ام. مکان‌ها به انواع زیستگاه‌ها طبقه‌بندی شدند، بنابراین من با استفاده از نمادها، مکان‌هایی را در زیستگاه‌های مختلف در طرح ترتیب‌بندی شناسایی کردم. در حال حاضر. من می‌خواهم گونه‌هایی را نشان دهم که بیشترین سهم را در پراکندگی مکان‌ها در طرح ترتیب داده‌اند (یعنی به طور غیرمستقیم کشف کنم که چه گونه‌هایی زیستگاه‌های خاص را مشخص می‌کنند). برای انجام این کار می‌خواهم **بردارهای گونه** را با طول کوتاه بسازم (در غیر این صورت همه 122 گونه در نمودار ظاهر می‌شوند!). **سوال من این است**: آیا می توانم این کار را انجام دهم؟ من قبلاً آن را ندیده‌ام، تنها بردارهایی که در DCAها دیده‌ام، بردارهایی هستند که متغیرهای محیطی پیوسته را نشان می‌دهند که در سایت اندازه‌گیری شده‌اند اما در تجزیه و تحلیل گنجانده نشده‌اند (یعنی یک تجزیه و تحلیل گرادیان غیرمستقیم با استفاده از یک ترتیب بدون محدودیت). من فکر می‌کنم پاسخ مثبت است، زیرا بردارهای گونه‌ها اغلب در نمودارهای MDS استفاده می‌شوند... اما اگر کسی با درک آن را تایید کند، احساس راحتی بیشتری می‌کنم. ممنون، دین
تجزیه و تحلیل متناظر قطع شده - ترتیب سایت با بردارهای گونه
64233
من در مورد دلیل دقیق مطمئن نیستم که چرا نمی توانم از OLS ساده برای تغییر رگرسیون استفاده کنم. من دو معادله نتیجه دارم: $Y_1=\beta_0 + \beta_1'X + U_1$ $Y_0=\alpha_0 + \alpha_1'X+U_0$ و یک معادله انتخاب: $D=1$ اگر $\gamma'Z+\epsilon > 0 دلار و در غیر این صورت صفر. چرا نمی توانم از OLS ساده استفاده کنم؟ روش صحیح استفاده از رویکرد 2 مرحله ای یا رویکرد حداکثر احتمال (ML) است. آیا به این دلیل است که من یک سوگیری انتخاب دارم و بنابراین $U$ با $X$ مرتبط است؟
چرا نمی توانم از OLS برای تغییر رگرسیون استفاده کنم؟
48386
من می دانم که باید راهی برای کشف این ANOVA وجود داشته باشد، اما می توانم از کمکی استفاده کنم. من داده های کیفی دارم که آنها را در 6 دسته کدگذاری کردم. من می خواهم یک ANOVA یک طرفه را با این داده ها اجرا کنم اما دسته بندی های من در 2 ستون فهرست شده اند. آیا راهی وجود دارد که بتوانم ANOVA را اجرا کنم و داده ها را از 2 ستون بیرون بیاورم. من فقط می دانم که چگونه ANOVA را اجرا کنم اگر آن داده ها یک ستون باشد.
چگونه ANOVA یک طرفه را با داده های کیفی انجام دهیم؟
48387
به زبان انگلیسی ساده، مفروضات روش ANCOVA مبتنی بر رتبه Quade (1967) چیست؟ در روزنامه خیلی واضح نوشته نشده است. به عنوان مثال، در ANCOVA معمولی، من معتقدم که فرض بر این است که احتمالاً یک رابطه بین متغیر وابسته و یک متغیر کمکی وجود خواهد داشت، اما بین متغیر کمکی و عامل _نه_. آیا این فرض هنوز در این مورد وجود دارد؟ پیشاپیش از راهنمایی ممنونم
مفروضات ANCOVA مبتنی بر رتبه چهارگانه
60402
من روی مشکلی کار می‌کنم که شبیه آزمایش استاندارد نرخ واپاشی رادیواکتیو است، اما با پیچش. در آزمایش معمولی، یک نفر چندین اندازه گیری مختلف از نرخ فروپاشی انجام می دهد، سپس نرخ فروپاشی (یا زمان) و خطای مربوطه را محاسبه می کند. پیشینه من در فیزیک انرژی بالا است، بنابراین در حالی که به شمارش آزمایش ها عادت دارم، با موارد زیر مشکل دارم: من یک مشکل مشابه دارم. من اشیاء $N$ دارم که می توانند در حالت $a$ یا $b$ باشند، و عدد در هر حالت $N_a$ و $N_b$ است، با $N = N_a + N_b$. سیستم به گونه ای آماده شده است که بدانیم برای شروع هر شی در حالت $a$ است. سپس، من به تعداد اشیاء در حالت a نسبت به زمان علاقه مند هستم (بعداً آن را برازش خواهم کرد). ساده لوحانه، من انتظار دارم که خطا فقط $\sqrt{N_a}$ باشد، با این تفاوت که من کاملا می دانم که سیستم در حالت $a$ شروع می شود، که شهود من به من می گوید که در آن نقطه خطای 0 دارم. . از آنجایی که ممکن است در $N_a$ و همچنین $N_b$ خطا وجود داشته باشد (به جز وابستگی)، من همچنین به محاسبه خطا (با فرض مستقل بودن خطاهای $N_a$ و $N_b$) با استفاده از یک نسبت نگاه می‌کردم: $$ N = N_a + N_b;N(0)=N_a $$ $$ f(N_a,N_b) = \frac{N_a}{N_a+N_b} $$ $$ \delta f = \sqrt{\frac{f(1-f)}{N}} $$ که برای من منطقی‌تر است، زیرا خطا به صفر می‌رسد در دو کران وقتی می دانیم که به همه اشیاء در حالت $a$ یا در حالت $b$ رسیده ایم. آیا کسی می تواند من را به یک مقاله یا شرحی از آنچه به دنبال آن هستم راهنمایی کند؟ من مطمئن هستم که این مشکل خاص حل و فصل شده است، اما من به اندازه کافی شرایط مناسب برای دریافت آن را نمی دانم. همچنین، مردم چه چیزی را برای درمان خوب و کامل اشتباهات محاسباتی در مقطع کارشناسی ارشد توصیه می کنند؟ **ویرایش:اطلاعات اضافی** بنابراین بعد از فکر کردن، این چیزی نیست که من به دنبالش هستم. اجازه دهید آنچه را که واقعاً اندازه‌گیری می‌کنم توصیف کنم، و سپس شاید بتوانم در مسیر درست شروع کنم. من N شبیه سازی را اجرا می کنم که هر کدام در حالت a آماده شده اند. سپس، زمان تغییر آن از a->b را ثبت می کنم. این غیر قابل برگشت است، شما نمی توانید از b->a بروید. در پایان، من N شبیه سازی خود را دارم، هر کدام با یک زمان t. سپس کسری را که در حالت a در زمان t باقی مانده است رسم می کنم، آن را $f(a,t)$، زمان binning می نامم. اکنون، این کسر نمی تواند PDF باشد، زیرا به 1 نرمال سازی نشده است. آنچه من از توزیع می خواهم، نرخ فروپاشی (یا زمان) یک شی معین است. من همچنین عبارتی را می خواهم که می توانم به یک شی نگاه کنم و بپرسم: احتمال اینکه در زمان t در حالت a باشد چقدر است؟ آیا این فقط توزیع اصلی من نیست؟ من همچنین خطا را در هر time bin و همچنین خطای متغیرهای موجود در فیت را می‌خواهم (در حال حاضر از MATLAB و رگرسیون غیرخطی استفاده می‌کنم، بنابراین آسان است). من متوجه هستم که ممکن است نوعی سوء تفاهم اساسی از برخی از این موارد داشته باشم، بنابراین لطفاً به من بگویید چه کاری می توانم برای بهبود سؤالات / پاسخ هایم انجام دهم.
واریانس در یک جمعیت شناخته شده
62803
من مشکلی مشابه آنچه در این پست ارائه شده است دارم: http://stackoverflow.com/questions/11092536/forecast-accuracy-no-mase-with- two-vectors-as-arguments حتی اگر ممکن است مرتبط نباشد. من سعی می‌کنم سری‌های زمانی سلسله مراتبی را با استفاده از بسته hts پیش‌بینی کنم، اما وقتی سعی کردم MASE را بین مدل‌ها محاسبه کنم با خطا مواجه شدم. نمونه وینیت روی داده های سالانه است: داده <- پنجره (htseg1، شروع = 1992، پایان = 1999) تست <- پنجره (htseg1، شروع = 2000، پایان = 2001) پیش بینی <- پیش بینی (داده، h = 2، روش = bu) accuracy.gts (f = پیش بینی، x = تست) اما وقتی سعی می کنم از تابع در داده های ماهانه استفاده کنم به نظر می رسد این قسمت از کد مشکل ایجاد می کند: allx <- allts(x) allf <- allts(f) if (is.element(MASE، معیار)) { m <- فرکانس(f$y) if (m < = 1) مقیاس <- colMeans(diff(allx)) Other scale <- colMeans(diff(allx, lag = m)) q <- sweep(res, 2, scale, /) } چون می‌خواهم MASE را در دوره 4 محاسبه کنم و فرکانس داده‌های من 12 است، `colMeans(diff(allx, lag = m))` با شکست مواجه می‌شود (مشکلی در مثال وینیت وجود ندارد زیرا m=1) . چیزی که من را شگفت زده کرد این است که در پستی که نقل کردم، راب هیندمن گفت: MASE به داده های تاریخی برای محاسبه ضریب مقیاس بندی نیاز دارد. از داده های آینده محاسبه نمی شود بنابراین مقیاس باید با allf محاسبه شود که حاوی پیش بینی است/ داده های تاریخی یا x قرار است حاوی تمام داده های تاریخی باشد و با مثال وینیت سازگار نیست. آیا چیزی را از دست می دهم؟
R: accuracy.gts، بدون MASE با داده های ماهانه
48381
من سعی می کنم قدرت را در یک رگرسیون لجستیک با قرار گرفتن در معرض مداوم در یک مطالعه کوهورت تخمین بزنم (یعنی نسبت احتمالات نمونه 1 است). من بروز تجمعی جمعیت (احتمال) و تنوع قرار گرفتن در معرض جمعیت و میانگین مواجهه و نسبت شانس مورد انتظار را دارم. من هم حجم نمونه کل دارم. من از R استفاده می کنم و به نظر می رسد «Hmisc::bpower» فقط برای رگرسیون لجستیک با نوردهی باینری است و به نظر نمی رسد هیچ بسته ای پیدا کنم که توان دوجمله ای را با نوردهی مداوم تخمین بزند. من شبیه سازی زیر را انجام داده ام اما با توجه به حجم کل نمونه من بسیار کند است و مطمئن نیستم که درست باشد: p <- vector() betahat <- vector() for(i در 1:1000){ n <- 40000 #گسترش اندازه نمونه کل = log(0.008662265) #where exp(intercept) = P(D=1) بتا <- log(1.4) #where exp(beta)=OR مربوط به یک واحد تغییر در xtest xtest <- rnorm(n,1.2,.31) #xtest طول برداری 40000 با میانگین 1.2 و sd 0.31 linpred <- intercept + xtest*beta #prob پیش بینی خطی <- exp(linpred)/(1 + exp(linpred)) #پیوند تابع runis <- runif(n,0,1) #تولید یک بردار طول n از توزیع یکنواخت 0,1 ytest <- ifelse(runis < prob,1,0) #اگر مقدار تصادفی از توزیع یکنواخت 0,1 کمتر باشد از prob، پس نتیجه 1 است. در غیر این صورت نتیجه 0 ضریب است <- coef(summary(glm(ytest~xtest, family=binomial))) #اجرای یک رگرسیون لجستیک p[i] <- coefs[2,4] #store p value betahat[i] <- coefs[2,1] #store the unexponentiated betahat } mean(p < 0.05) #power exp (میانگین(بتاات)) #بررسی سلامت، باید برابر با 1.4 باشد--آیا این روش اشکالی دارد؟ یکی از نگرانی‌های من این است که بروز تجمعی (یعنی احتمال رویداد در دوره زمانی معین) از جمعیتی می‌آید که در معرض 0 قرار نگرفته‌اند. در واقع، منطقی است که فرض کنیم مقداری که من برای یک رهگیری استفاده می‌کنم، در واقع از جمعیتی است که دارای تنوع نوردهی مشابه من است. در آن صورت، چگونه می توانم احتمال آشکار نشده را با توجه به نسبت شانس (و سایر اطلاعاتی که مثلاً در یک مقاله منتشر شده پیدا می کنم) برای استفاده در محاسبه توان خود تخمین بزنم؟
محاسبات قدرت، رگرسیون لجستیک با قرار گرفتن در معرض مداوم - کوهورت
48380
من برای یافتن راه حلی برای این راه حل مشکل داشته ام، اگرچه به اندازه کافی آسان به نظر می رسد. من سعی می کنم آزمایشی را تکرار کنم (Fukumura, van Gompel 2010, JoMaL) که به شرح زیر ساخته شده است. از شرکت کنندگان خواسته شد که ادامه یک جمله را بنویسند. ادامه برای دیدن اینکه آیا شرکت کنندگان به اسم اول (NP1) یا اسم دوم (NP2) از قطعه جمله داده شده اشاره کردند، حاشیه نویسی شدند. دستکاری های دیگری نیز وجود داشت، اما یکی از عوامل، نوع فعل بود (SE یا ES، محرک-تجربه کننده یا تجربه کننده-محرک، اگر چیزی به شما می گوید ;)). هیچ شرایط کنترلی وجود نداشت. من در درک نحوه انجام این بخش از تجزیه و تحلیل داده ها مشکل دارم: > بعد از افعال SE، نسبت ارجاع به NP1 بالاتر از 50 درصد > سطح شانس بود (F1(1, 20) = 54.11، p <.001؛ F2( 1، 40) = 99.33، p <.001; حداقل > F0(1، 42) = 35.03، p < 0.001)، در حالی که به دنبال جملات فعل ES، نسبت > ارجاع به NP1 کمتر از شانس بود (F1(1, 20) = 123.68، p > <.001؛ F2(1، 40) = 50.23، p <.001 حداقل F0(1، 59) = 35.72، p <.001). متغیر وابسته نسبت پاسخ‌های NP1 به NP2 و متغیر مستقل از نوع فعل (SE در مقابل ES) بود. پیشاپیش از شما متشکرم آنا
مقایسه نتایج با احتمال 50٪ با ANOVA
46576
من یک PCA روی داده های ریزآرایه خود اجرا کرده ام و الگوی خوشه بندی را برای نمونه های خود پیدا کرده ام. اکنون باید ژن هایی را که با اولین جزء اصلی و همینطور تا کامپیوتر چهارم مرتبط هستند، پیدا کنم. چگونه می توانم آن را پیدا کنم؟
چگونه می توان ژن های مرتبط با PC1 و PC2 را پس از PCA در ریزآرایه پیدا کرد؟
49385
در اشتقاق پورتفولیوی حداقل واریانس جهانی، $(Σ^{-1}1) /(1'Σ^{-1}1)$ را دریافت می کنیم. معنی $1'Σ^{-1}1$ و $Σ^{-1}1$ چیست. $Σ$ یک ماتریس کوواریانس بازده دارایی است.
چگونه مجموع عناصر یک ماتریس کوواریانس معکوس را تفسیر کنیم؟
62802
شاید کسی بداند که چه چیزی ممکن است در مشخصات من در مورد یک مدل فضای وضعیت و فیلتر کالمن اشتباه باشد (پایین را ببینید) زیرا در نهایت من دریافتم که خروجی فیلتر کالمن با داده های واقعی یکسان است... buildFun <- function(x) { dlmModPoly(1، dV = exp(x[1])، dW = exp(x[2])) } مناسب <- dlmMLE(interest_rates_euro, parm = c(0,0), build = buildFun) fit$conv dlmNile <- buildFun(fit$par) V(dlmNile) W(dlmNile) nileJumpFilt <- dlmFilter(interest_rates_euro, dlmNile) plot(interest_rates,' =__ '، col = سبز دریایی) خطوط (dropFirst(nileJumpFilt$m)، نوع = 'o'، pch = 20، col = قهوه ای)
مدل فضای حالت و فیلتر کالمن
80407
تقریباً در تمام کارهای تحلیلی که تا به حال انجام داده ام، از set.seed(42) استفاده می کنم. اما من نمی‌دانم که آیا با استفاده مکرر از همان دانه، تعصب ایجاد می‌کنم.
آیا من با استفاده مکرر از همان دانه تعصب ایجاد می کنم؟
48382
من داده سری زمانی $y_t$ با متغیرهای کمکی $x_{1,t}, x_{2,t}, ...$ دارم. متغیرهای کمکی نشان دهنده بودجه برای برنامه های مختلف است. من می توانم یک مدل ARIMAX ایجاد کنم که تا کنون به خوبی با داده ها مطابقت داشته باشد. در آینده، بودجه x_{1,t}$ کاهش خواهد یافت. آیا هنوز هم می توانم بر اساس مدل ARIMAX خود پیش بینی کنم؟ برای داده‌های فعلی، $y_t$ به خوبی پیش‌بینی می‌شود، زیرا تا حد زیادی توسط $x_{1,t}$ هدایت می‌شود. در مجموعه پیش‌بینی، مقادیر من برای $x_{1,t}$ هیچ شباهتی به مجموعه آموزشی که در آن مدل من ایجاد شد، نخواهد بود. چگونه می توانم این مشکل داده های i.i.d را حل کنم؟ آیا مدل یا تکنیک متفاوتی وجود دارد که بتواند این موضوع را بهتر مدیریت کند؟
پیش بینی سری زمانی زمانی که داده ها i.i.d نیستند
49383
تست های متعددی برای تصادفی بودن وجود دارد، یکی بالا و پایین اجرا می شود، دیگری بر خلاف میانگین یا برخی مقادیر دیگر اجرا می شود، از آزمون رتبه بارتل نیز می توان استفاده کرد. مطالعاتی وجود دارد که نشان می‌دهد تست رتبه بارتل قوی‌تر از اجرای بالا و پایین است، و یک حدس خالص می‌تواند این باشد که اجراهای بالا و پایین قوی‌تر از اجراها در برابر میانگین/برخی مقادیر است زیرا از اطلاعات بیشتری از داده‌ها استفاده می‌کند. با این حال، در عمل اینطور نیست، در برنامه من، من متوجه شدم که اجرای در برابر میانگین/میانگین برای اکثر نمونه‌هایی که آزمایش کردم، قوی‌تر است، که بسیار شگفت‌آور است. آیا مطالعات/شبیه‌سازی‌هایی وجود دارد که قدرت آماری دو آزمایش را با هم مقایسه کند؟
به طور کلی کدام تست اجرا قوی تر است؟
24276
فرض کنید می‌خواهم یک سری اعداد تصادفی تولید کنم که (i) از توزیع لاپلاس (یا کوشی) پیروی می‌کنند و (ii) با همبستگی «rho» همبستگی دارند. در مورد نمونه‌های معمولی، اگر $r_{1}\sim U(0,1)$ و $r_{2}\sim U(0,1)$، آنگاه $ z=\rho r_{1}+\ sqrt{1-\rho^{2}}r_{2}$ با همبستگی $\rho$ همبستگی دارند. اما چگونه می توان همین کار را برای توزیع های دیگر انجام داد؟
نمونه های همبسته از توزیع لاپلاس یا کوشی
46574
من می‌خواهم ارزیابی کنم که آیا یک متغیر منفرد در تأثیرات مجموعه‌ای از IVها روی یک DV منفرد واسطه می‌شود یا خیر. همه متغیرهای مدل (IV، DV و متغیر میانجی) دوگانه هستند (0، 1) و مشاهده می‌شوند. روش آماری مناسب برای آزمایش این مدل چیست؟ من رگرسیون های لجستیک باینری جداگانه اجرا کرده ام و دریافته ام که: 1. IV ها با متغیر میانجی مرتبط هستند و 2. واسطه با DV مرتبط هستند. با این حال، 3. هنگام حذف متغیر میانجی از مدل، IV ها با DV مرتبط نیستند.
چگونه هنگام کار با داده های باینری، میانجیگری را آزمایش کنیم؟
48038
یک فارغ التحصیل دانشگاه برای دو شغل در شرکت A و B درخواست داده است. فارغ التحصیل احساس می کند که 65٪ شانس شغلی در شرکت A و 40٪ شانس شغلی در شرکت B را دارد. اگر پیشنهاد شغلی دریافت کند. از B، او معتقد است که 70% شانس دارد که در A شغلی پیدا کند، احتمال اینکه هر دو شرکت به او شغل پیشنهاد دهند چقدر است؟ احتمال اینکه دقیقاً یک شرکت به او شغل بدهد چقدر است؟ اگر پیشنهادی از شرکت الف دریافت کند، احتمال اینکه پیشنهادی از B دریافت نکند چقدر است؟
برای مشکلی که شامل احتمال مشروط است به کمک نیاز دارید
26461
ما یک مجموعه داده با دو متغیر کمکی و یک متغیر گروه‌بندی طبقه‌ای داریم و می‌خواهیم بدانیم که آیا تفاوت‌های قابل‌توجهی بین شیب یا فاصله بین متغیرهای کمکی مرتبط با متغیرهای گروه‌بندی مختلف وجود دارد یا خیر. ما از anova() و lm() برای مقایسه برازش های سه مدل مختلف استفاده کرده ایم: 1) با یک شیب و قطع، 2) با فاصله های مختلف برای هر گروه، و 3) با یک شیب و یک فاصله برای هر گروه. . با توجه به آزمون خطی عمومی anova()، مدل دوم مناسب‌ترین مدل از این سه است، با گنجاندن یک رهگیری جداگانه برای هر گروه، بهبود قابل توجهی در مدل وجود دارد. با این حال، وقتی به فواصل اطمینان 95٪ برای این رهگیری ها نگاه می کنیم - همه آنها با هم همپوشانی دارند، که نشان می دهد تفاوت قابل توجهی بین رهگیری ها وجود ندارد. چگونه می توان این دو نتیجه را با هم تطبیق داد؟ ما فکر کردیم روش دیگری برای تفسیر نتایج روش انتخاب مدل این است که حداقل یک تفاوت قابل توجه بین رهگیری ها وجود داشته باشد ... اما شاید این درست نیست؟ در زیر کد R برای تکرار این تحلیل آمده است. ما از تابع dput() استفاده کرده‌ایم تا بتوانید دقیقاً با همان داده‌هایی که ما با آنها دست و پنجه نرم می‌کنیم کار کنید. # شروع اسکریپت R # > ساختار dput(داده)(list(Head = c(1.92، 1.93، 1.79، 1.94، 1.91، 1.88، 1.91، 1.9، 1.97، 1.97، 1.95، 1.19، 1.98، 1.98، 1.93، 1. 1.97، 1.88، 1.89، 1.86، 1.86، 1.97، 2.02، 2.04، 1.9، 1.83، 1.95، 1.87، 1.93، 1.94، 1.91، 1.97، 1.97، 1.1. 1.86، 2.03، 1.88، 1.98، 1.97، 1.86، 2.04، 1.86، 1.92، 1.98، 1.86، 1.83، 1.93، 1.9، 1.97، 1.94، 1.97، 1.92، 1.2 1.96، 1.91، 2.01، 1.97، 1.96، 1.76، 1.84، 1.92، 1.96، 1.87، 2.1، 2.17، 2.1، 2.11، 2.17، 2.16، 2.17، 2.16، 2.2، 2.2. دو 2.07، 2.06، 2.18، 2.14، 2.13، 2.2، 2.1، 2.13، 2.15، 2.25، 2.14، 2.07، 1.98، 2.16، 2.11، 2.21، 2.11، 2.21، 2.12، 2.21، 2.2. 2.08، 1.88، 1.81، 1.87، 1.88، 1.87، 1.79، 1.99، 1.87، 1.95، 1.91، 1.99، 1.85، 2.03، 1.88، 1.87، 1.88، 1.87، 1.88، 1.98، 2.01، 1.82، 1.85، 1.75، 1.95، 1.92، 1.91، 1.98، 1.92، 1.96، 1.9، 1.86، 1.97، 2.06، 1.81، 2.06، 1.81، 1.81، 1. 1.97، 1.94، 1.81، 1.86، 1.99، 1.96، 1.94، 1.85، 1.91، 1.96، 1.9، 1.98، 1.89، 1.88، 1.95، 1.9، 1.8، 1.95، 1.9، 1.9، NA1. 1.84، 1.96، 1.74، 1.91، 1.84، 1.88، 1.83، 1.93، 1.78، 1.88، 1.93، 2.15، 2.16، 2.23، 2.09، 2.35، 2.35، 2.09، 2.35، 2.36، 2.3، 2.04، 2.22، 2.19، 2.25، 2.31، 2.3، 2.28، 2.25، 2.15، 2.29، 2.24، 2.34، 2.2، 2.24، 2.17، 2.2، 2.17، 2.1، 2.2. 2.23، 2.36، 2.31، 2.13، 2.2، 2.27، 2.27، 2.2، 2.34، 2.12، 2.26، 2.18، 2.31، 2.24، 2.26، 2.15، 2.2، 2.15، 2.2، 2.15، 2.2. 2.13، 2.09، 2.24، 2.26، 2.26، 2.21، 2.25، 2.29، 2.15، 2.2، 2.18، 2.16، 2.14، 2.26، 2.22، 2.12، 2.22، 2.12، 2.2. 2.17، 2.27، 2.17، 2.3، 2.25، 2.17، 2.27، 2.06، 2.13، 2.11، 2.11، 1.97، 2.09، 2.06، 2.11، 2.08، 2.11، 2.08، 2. 2.13، 1.99، 2.08، 2.01، 1.97، 1.97، 2.09، 1.94، 2.06، 2.09، 2.04، 2، 2.14، 2.07، 1.98، 2، 2.19، 2.2، 2.19، 2.2. 2.16، 2.1، 1.97، 1.97، 2.1، 2.02، 1.99، 2.13، 2.05، 2.05، 2.16، 2.02، 2.02، 2.08، 1.98، 2.02، 2.2، 2.02، 2.02، 2.02 2.02)، سایت = ساختار(c(2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L. ، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۱ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، ۶ لیتر، , .Label = c(ANZ, BC, DV, MC، RB، WW)، کلاس = عامل)، Leg = c(2.38، 2.45، 2.22، 2.23، 2.26، 2.32، 2.28، 2.17، 2.39، 2.27، 2.42، 2.33، 2. 2.32، 2.25، 2.27، 2.38، 2.28، 2.33، 2.24، 2.21، 2.22، 2.42، 2.23، 2.36، 2.2، 2.28، 2.23، 2.33، 2.35، 2.36، 2.35، 2.36، 2.32، 2.2. 2.31، 2.27، 2.23، 2.37، 2.27، 2.26، 2.3، 2.33، 2.34، 2.27، 2.4، 2.22، 2.25،
ANCOVA در R رهگیری های مختلفی را نشان می دهد، اما 95% CI ها با هم همپوشانی دارند... چگونه این امکان وجود دارد؟
48384
$X \sim \exp(\lambda)$ و $P(X > x) = e^{-\lambda x}$ باید $$P((k -1)T < X \leq kT - u را محاسبه کنم \mid (k -1 )T < X \leq kT$$ که فکر کردم $$\frac{P\\{(k -1 )T < X \leq kT - u, (k -1 )T < X شد \leq kT\\}}{P\\{(k -1 )T < X \leq kT\\}}$$ که سپس به $$\frac{\left(e^{-\lambda(k -1 می‌شود )T} - e^{-\lambda (kT - u)} \right) \left(e^{-\lambda(kT)} - e^{-\lambda (k - 1)T} \right)}{\left(e^{-\lambda(k-1)T} - e^{-\lambda kT} \right)}$$ اما از آنجایی که تمام این موارد لغو می شود، من آن را بررسی کردم پاسخ می دهد و می گویند باید $$\frac{e^{-\lambda(k -1)T} - e^{\lambda(kT - u)}}{e^{-\lambda(k-1) T} - e^{-\lambda kT} }$$ چه اتفاقی برای شمارنده می‌افتد؟
مطمئن نیستم که چگونه شمارنده در سوال احتمال شرطی تغییر می کند
45001
من می‌خواهم پارامتر $\lambda$ توزیع نمایی $e^{-\lambda x}$ را از جمعیت نمونه‌ای که از این توزیع تحت شرایط بایاس گرفته شده است، محاسبه کنم. تا آنجا که من می دانم، برای نمونه ای از n مقدار، برآوردگر معمولی $\hat{\lambda} = \frac{n}{\sum x_i}$ است. با این حال، نمونه من به صورت زیر تعصب دارد: از یک جمعیت کامل از m عناصر که i.d از توزیع نمایی ترسیم شده است، فقط n کوچکترین عنصر شناخته شده است. چگونه می توانم پارامتر $\lambda$ را در این سناریو تخمین بزنم؟ کمی رسمی‌تر، اگر $\\{x_1,x_2,x_3,...,x_m \\}$ نمونه‌های iid باشند که از $e^{-\lambda x}$ گرفته شده‌اند، به طوری که برای هر $i < j$ ما $x_i \leq x_j$ داریم، پس چگونه می توانم $\lambda$ را از مجموعه $\\{x_1,x_2,x_3,...,x_n\\}$ تخمین بزنم. $n < m$. خیلی ممنون مایکل
تخمین پارامتر توزیع نمایی با نمونه گیری بایاس
48035
مقدمه من یک تصویر در مقیاس خاکستری دارم. فرض کنید تصویر یک مستطیل با عرض = 1700 پیکسل و ارتفاع = 2338 پیکسل است. تصویر در وسط روشن و در لبه های بالا و پایین تیره است. تصویر توسط کامپیوتر تولید نمی‌شود، بنابراین وقتی می‌گویم روشن و تاریک منظورم سفید و سیاه نیست، بلکه رنگ خاکستری است. من می خواهم لبه تیره بالا و لبه تیره پایین و پایین را برش دهم. آمار تصویر نمونه * `Sn` (2338 نمونه): مجموع مقادیر خاکستری همه (1700) پیکسل در ردیف `n` مقادیر خاکستری عدد صحیح در محدوده 0 (برای سیاه و سفید)، 255 (برای سفید) بنابراین `Sn ` دارای مقادیری در محدوده 0 (اگر ردیف کاملاً سیاه باشد)، 255*1700 (اگر ردیف کاملاً سفید باشد) دارد. * میانگین: میانگین حسابی همه نمونه ها * Std dev: std dev از همه نمونه ها * تست روی نمرات استاندارد: ((Sn - Mean) / Std dev) > آستانه با استفاده از آستانه = -1.5 '، سپس تمام 'Sn'هایی که آزمون را قبول نمی کنند به عنوان بخشی از لبه تاریک در نظر گرفته می شوند. این تست بسیار خوب عمل می کند، مثال زیر را ببینید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3dceo.png) سوال من این است: آیا آن تستی که من از آن استفاده می کنم از لحاظ نظری درست است است. ? یعنی می دانم کار می کند اما آیا در آمار معنا دارد؟ \-- ویرایش توجه: آنچه در اینجا توضیح دادم ساده‌سازی وضعیت واقعی است. در شرایط واقعی، من کاغذهای اسکن شده ای دارم که می توانند حاشیه های سیاه رنگی در چهار لبه داشته باشند. بنابراین تجزیه و تحلیل فوق را در سطرها و ستون ها تکرار می کنم و نتایج خوبی دریافت می کنم. اما، برای ساده‌سازی، اجازه دهید در اینجا فقط روی یک بعد (ردیف‌ها) تمرکز کنیم. چیزی که من در مورد این سوال متعجب هستم این است که آیا از نظر تئوری، آزمایش خوبی است که آیا نمونه با استفاده از نمره استاندارد آن از میانگین فاصله دارد یا اینکه آزمون بهتری وجود دارد؟
آیا تحلیل نمرات استاندارد در سناریوی زیر معنی دارد؟
48036
با نگاهی به ویکی‌پدیا و نگاهی به اطراف اینجا، هنوز نمی‌دانم چگونه می‌توانم مثبت‌ها، منفی‌های واقعی، مثبت‌های کاذب و منفی‌های کاذب را در مشکل طبقه‌بندی چند برچسبی که انجام می‌دهم شناسایی کنم، تا بتوانم دقت را محاسبه کنم. فراخوانی و اندازه گیری F. من چند دسته و چند صد سند دارم. پس از آموزش SVM برای انجام طبقه بندی، سند داده زیر را دارم 1 | دسته واقعی، دسته بندی اختصاص داده شده توسط سند SVM 2 | دسته واقعی، دسته بندی اختصاص داده شده توسط SVM ... document n | دسته بندی واقعی، دسته بندی اختصاص داده شده توسط SVM دسته بندی اختصاص داده شده توسط SVM اغلب با دسته واقعی یکسان است اما نه همیشه. موارد مثبت واقعی زمانی هستند که دسته واقعی = دسته بندی توسط SVM تخصیص داده شده است، حدس می‌زنم که مثبت‌های کاذب، دسته واقعی =/= دسته‌بندی شده توسط SVM باشند، اما در مورد مثبت‌های کاذب یا منفی‌های واقعی مطمئن نیستم. من احساس می کنم این ممکن است یک سوال اساسی باشد اما نمی توانم یک مثال واضح (به اندازه کافی) پیدا کنم.
دقت و فراخوانی در یک سیستم طبقه بندی چند کلاسه؟
86073
روش توصیه شده برای محاسبه فواصل اطمینان برای _میانگین محدود_ در تحلیل بقا چیست؟ در اینجا چند نمونه از داده ها، برگرفته از مقاله کریس بارکر (2009)، میانگین، میانه، و فواصل اطمینان تخمین بقای کاپلان-مایر - محاسبات و کاربردها، آماردان آمریکایی، جلد 63، شماره 1، 2009 است. توجه داشته باشید که ، علی رغم عنوان، مقاله هیچ فاصله اطمینانی برای میانگین فهرست نمی کند. R (3.0.2) می تواند تخمینی از میانگین محدود شده را محاسبه کند، اما فقط یک فاصله اطمینان را برای میانه محاسبه می کند، نه برای میانگین: > library(survival) > time = c(10, 15, 23, 30, 35, 52، 100) > مرده = c(1، 1، 1، 1، 1، 1، 0) > مناسب = survfit(Surv(زمان، مرده) ~ 1) > print(fit, print.rmean=TRUE) فراخوانی: survfit(فرمول = Surv(زمان، مرده) ~ 1) رکوردهای n.max n.start رویدادها *rmean *se( rmean) میانه 0.95LCL 0.95UCL 7.0 7.0 7.0 6.0 37.9 10.7 30.0 15.0 NA * میانگین محدود شده با حد بالایی = 100 (در اینجا میانگین محدود شده 37.9 بر اساس برش 100 تخمین زده می شود.) از طرف دیگر Stata (13.0)، با خوشحالی فاصله اطمینان را محاسبه می کند: | نه محدود | منظور از افراد Std. اشتباه [95% Conf. فاصله] -------------+--------------------------------- --------------------------- مجموع | 7 37.85714(*) 10.73888 16.8093 58.905 (*) بزرگترین زمان تجزیه و تحلیل مشاهده شده سانسور شده است، میانگین کمتر برآورد شده است این به نظر می رسد بر اساس یک تقریب معمولی است، یعنی میانگین تخمین زده شده ± 1.96 خطاهای استاندارد. در R، می توان این را کم و بیش به صورت دستی، با استفاده از اعداد استخراج شده از برازش محاسبه کرد: fit.table = summary(fit, rmean=TRUE)$table # یا ترجیحا rmean=100 rmean = fit.table[[* rmean]] # تخمین میانگین محدود شده rmean.se = fit.table[[*se(rmean)]] # خطای استاندارد تخمینی rmean + c(-1،1) * qnorm(0.05/2، low.tail=FALSE) * rmean.se # 95% فاصله اطمینان (CI) [1] 16.80932 58.90497 آیا این روش خوبی برای محاسبه فواصل اطمینان برای میانگین های محدود است (حداقل اگر قطع برای میانگین محدود از قبل ثابت شده است)؟ یا جایگزین های بهتری وجود دارد؟
فاصله اطمینان برای میانگین محدود در تجزیه و تحلیل بقا
48032
من یک مدل نیمه پارامتریک دارم که با GAM (mgcv در R) تطبیق می دهم. این به شکل $$y = \theta + X'\beta + f(Z) + \text{تعامل‌ها!} + \epsilon$$ است من 289 مشاهده دارم. بسیاری از فعل و انفعالاتی که می خواهم مشخص کنم، تعاملات محصول تانسور (یا کرونکر) هستند. بدون جریمه، هر تعامل $k^n$ درجه آزادی می گیرد، جایی که k تعداد گره ها و n تعداد متغیرهای پیوسته در تعامل است. البته، جریمه‌سازی درجه‌های آزادی مؤثر را کاهش می‌دهد، اما GAM با مدلی با پارامترهای قابل مجازات بیشتر از درجه‌های آزادی مطابقت نخواهد داشت. من قبلاً مدل‌ها را مجبور کرده‌ام که 4 گره در هر متغیر Z تعیین کنند و مکان آنها را بر اساس دانش موضوع مشخص کرده‌ام - این بهینه نیست به این معنا که خطوط رگرسیون صفحه نازک Simon Wood بهینه هستند، اما به نظر بد نیست. سازش به منظور پایین نگه داشتن k. به هر حال، من یک لیست طولانی نامزد از تعاملات دارم که ممکن است مهم باشند. مشکل این است که مدلی که همه آنها را مشخص می کند بیش از 1000 درجه آزادی دارد. من نمی توانم از یک الگوریتم انتخاب مدل استفاده کنم که به صورت اشباع شروع می شود و حذف می شود. من باید از یکی استفاده کنم که فقط با جلوه های اصلی شروع می شود (همه آنها را می خواهم به صورت پیشینی اضافه کنم) و سپس اصطلاحات را اضافه می کند. مشکل این است که افزودن یک تعامل ممکن است ارتباط دیگران یا مجموعه‌ای از تعاملات دیگر را تغییر دهد. احتمالاً صدها ترکیب از تعاملات وجود دارد که با توجه به محدودیت‌های df من قابل دسترسی هستند. من به دنبال ایده هایی برای انتخاب مدل علاوه بر آزمون و خطا هستم. (من در حال مقایسه مدل ها با کمترین برد AIC هستم) کسی ایده یا تجربه ای در مورد این نوع مشکل دارد؟
الگوریتم انتخاب تعاملات بدون درجات آزادی بسیار زیاد (mgcv، gam)
48033
آیا کسی می‌تواند مقاله‌ای را معرفی کند که مقدمه یا خلاصه‌ای از طراحی متوالی گروهی ارائه دهد.
طراحی متوالی گروهی