_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
111888 | من یک درخت از حالت ها دارم و می خواهم از این درخت بر اساس فرآیند تولد خالص نمونه برداری کنم. با این حال، من نمی دانم دقیقا چگونه می توانم این کار را انجام دهم. تا به حال این کار را انجام داده ام؛ من مشکلم را ساده کردم. احتمال حالت اول $A$ است و هر حالت احتمال والد منهای $e^{-\lambda}$ را بدست می آورد. در اینجا تصویری است که من کشیدم همانطور که گفتم، هر حالت احتمال یکسانی از والد منهای $e^{-\ را به ارث می برد. lambda}$. بنابراین، برای مثال $P(n_5) = A - 2e^{\lambda}$. چون می دانیم $\sum_{i=1}^{5}P(n_i) = 1$; می توانیم معادله را با توجه به A حل کنیم و احتمال هر نقطه را محاسبه کنیم. با این حال، این ساده است. من می خواهم از فرآیند تولد خالص بهره ببرم. من قدردان هر نظر و پیشنهادی هستم. | نمونه مدل مولد از یک زنجیره/درخت |
111593 | من 4 گروه دارم که 3 تای آنها تحت درمان هستند و آخری هیچ. دو اقدام قبل و بعد از درمان انجام خواهم داد. اما گروههای من از پیش تعریف شدهاند، و نتیجه یک انتخاب تصادفی نیستند. آیا با این وجود استفاده از ANOVA با اندازه گیری های مکرر معتبر است؟ پیشاپیش ممنون | ANOVA با اندازه گیری های مکرر - بدون گروه های تصادفی |
99037 | زمان زندگی یک لامپ از توزیع نمایی پیروی می کند. چنین نمونه هایی اغلب در بسیاری از زمینه های علم و مهندسی رخ می دهد. آیا منبع داده های عملی از دو داده توزیع شده نمایی با یک پارامتر مکان و مقیاس وجود دارد؟ | داده های توزیع نمایی |
27874 | برای توضیح اینکه چرا این سوال احمقانه را دارم که در زیر خواهید یافت، باید بگویم که من بیشتر یک فرد یادگیری ماشینی هستم. در حالی که من روی مشکلات بیوانفورماتیک کار می کردم همه چیز خوب بود. وقتی کلماتی مانند پسرفت یا کورتوز و چولگی را شنیدم، در مورد اول فقط لبخند زدم، در مورد دوم فقط حرکت ناشیانه ای با شانه هایم انجام دادم که سعی کردم چیزی شبیه این بگویم: بله، شنیده بودم و حتی می دانید چگونه آن را محاسبه کنید، اما چرا روی زمین کسی به آن نیاز دارد؟ وقتی سال پیش، فقط برای سرگرمی، سعی کردم دانش یادگیری ماشینی خود را در برخی از سریهای زمانی مالی به کار ببرم، وضعیت بهطور چشمگیری تغییر کرد. من با ایده ساختن یک شبکه بیزی از سیگنال های ارائه شده توسط فنی تحلیل شاخص شروع کردم. ایده شکست خورد. همچنین یافتن حداقل دو موضوع با ایده مشابه در این سایت (که از شبکه های عصبی به جای بیزی استفاده می شود) تا حدودی خوشحال کننده بود. بعد، پس از تلاش زیاد، من توانستم مخلوطی از kNN و رگرسیون نمادین بسازم که بر روی داده های 1 ساعته از سال 2000 تا 2006 آموزش دادم و روی داده های سال 2007 آزمایش کردم. این مدل در واقع سود بزرگی به همراه داشت. اما وقتی آن را روی آخرین داده ها اعمال کردم، متوجه شدم که دقت آن به دلیل بحران اقتصادی به شدت کاهش یافته است و دیگر کار نمی کند زیرا چیزی در بازار تغییر کرده است و من به داده های جدید بیشتری نیاز دارم، که فقط در 2-5 می توانم به دست بیاورم. سال خوب، بعداً چیزهای زیادی امتحان شد و اگر این همه چیز به عنوان فقط برای سرگرمی شروع شد، دیگر سرگرم کننده نبود. تا اینکه سخنرانی های آنلاین Ruey S. Tsay در مورد ARIMA، GARCH، TAR و همه چیزهای کاملاً جدید دیگر را پیدا کردم. اساساً من یک دنیای کاملاً جدید پیدا کردم و واقعاً از آن لذت می برم. در حال حاضر توانستم اولین مدل ARIMA خود را جابجا کنم و سپس با نگاه کردن به ACF، PACF، بازی با فصلی و غیره آن را برای کاهش دوبار خطای rms تنظیم کردم. خوب، سرگرمی برگشته است، من مقدار زیادی از آن را داشتم و انتظار دارم حتی بیشتر داشته باشم. اما من چند سوال داشتم و این سایت عالی را پیدا کردم. تقریباً تمام موضوعات مربوط به ARIMA و سایر تکنیک های مرتبط را به همراه بسیاری از موضوعات عمومی دیگر مرتبط با رویکردهای مشابه در اینجا بخوانید. مطمئناً بیشتر خواهید خواند. من هنوز در چارچوب ذهنی رویکرد یادگیری ماشین فکر می کنم، که منجر به سوالات احمقانه زیادی می شود، که برای اکثر آنها در این سایت پاسخ پیدا می کنم. بنابراین، پس از این مقدمه طولانی، سؤالات احمقانه باقی مانده من در اینجا وجود دارد: 1. در حالی که رویکرد یادگیری ماشینی بیشتر نگران یافتن الگو در داده ها است، من آن را در تضاد با مدل های آماری برای سری های زمانی مالی می یابم که به طور گسترده از تئوری پیاده روی تصادفی استفاده می کنند. وجود الگوها را حداقل مشکوک می کند). من متوجه هستم که توصیف بسیار ساده و نادرست آن است، اما آنچه میخواهم بگویم این است که بیشتر تکنیکهای یادگیری ماشینی در تضاد مفهومی با رویکرد آماری به مسئله هستند. من نمی گویم برخی رویکردها بهتر است، فقط می گویم که آنها تناقض دارند. آیا این درست است و این تناقض چقدر است؟ 2. توصیف و ایده مدل TAR را که برای من شبیه آموزش ماشینی با آمار است، بسیار دوست داشتم. این مدلی است که میخواهم بعد از اینکه GARCH را به ARIMA اضافه کردم امتحان کنم. اما من چند سوال در مورد آن دارم: * TAR قطعا از هر دو روش آماری و یادگیری ماشین استفاده می کند. بنابراین، با در نظر گرفتن اولین سوالم، آیا هنگام تلاش برای یافتن الگو برای مجموعهای از مدلها، که اساساً بر اساس تئوری ساخته شدهاند که الگوها را حذف میکند، خطایی وجود ندارد؟ یا این فقط یک ایده است که چگونه دو مدل را که جنبه های مختلف یک مشکل را مطالعه می کنند، در یک مدل حتی قوی تر ترکیب کنیم؟ * وقتی با کلمه کلیدی ARIMA در این سایت جستجو می کنید، 15 صفحه موضوع را مشاهده می کنید، در حالی که برای TAR فقط یک صفحه وجود دارد. همچنین چرا مردم فقط با استفاده از AR متوقف شدند؟ چرا این ایده را برای مدل های پیچیده تر (مانند ARIMA) گسترش نمی دهید؟ آیا به این دلیل است که TAR بهبود مورد انتظار را نسبت به AR ارائه نکرده است؟ 3. من می دانم که روش های MCMC و سایر موارد یادگیری ماشینی در حال حاضر با مدل های آماری مخلوط می شوند. من شخصاً از طرفداران پر و پا قرص Hidden Markov Models و Conditional Random Fields هستم. آیا ترکیبی از هر یک از این روش ها با مدل های آماری را می دانید؟ | چند سوال در مورد مدل های سری زمانی مالی آماری از فرد یادگیرنده ماشین |
104780 | من در حال حاضر از بسته evd استفاده می کنم که با حداکثر احتمال با یک GPD دو پارامتری مطابقت دارد. از آنجایی که در نمونههای کوچک، MOM برتر از تخمین ML است، میخواهم آن را بررسی کنم. با این حال، بسته POT - که می تواند این کار را انجام دهد - به دلیل خطاهای دسترسی به حافظه، آفلاین است. بسته های با ارزش بسیار زیادی در اطراف وجود دارد. اما من فقط به GPD دو پارامتری ارائه شده توسط $G(y)= \begin{cases} 1-\left(1+ \frac{\xi y}{\beta} \right)^{-\frac علاقه مند هستم. {1}{\xi}} & \xi \neq 0 \\ 1-\exp\left(-\frac{y}{\beta}\right) & \xi=0 \end{cases}$ یا جایگزین $g(y)= \begin{cases} \frac{1}{\beta} \left( 1+\frac{\xi y}{\beta} \right)^{-1-\frac{1}{ \xi}} & \xi \neq 0 \\ \frac{1}{\beta} \exp\left(-\frac{y}{\beta} \right) & \xi=0 \end{cases}$ آیا بسته ای وجود دارد که بتواند چنین بسته ای را داشته باشد؟ توزیعی با استفاده از روش گشتاورها؟ | مورد نیاز: روش برازش لحظهها برای پارتو تعمیمیافته دو پارامتری |
81613 | یکی از مفروضات آزمون t این است که داده ها باید از توزیع نرمال پیروی کنند. با این حال، با توجه به قضیه حد مرکزی (و این رشته): _اگر نمونه به اندازه کافی بزرگ است، می توانید از آزمون t (با واریانس های نابرابر) استفاده کنید_. من سعی می کنم بفهمم که این برای پرونده من چه معنایی دارد. فکر می کنم نمونه من **باید** به اندازه کافی بزرگ باشد، اما چگونه آن را تایید کنیم؟ آزمون لوین نشان داد که دو نمونه واریانس مساوی ندارند، بنابراین من قصد دارم از آزمون ولش (نسخه واریانس نابرابر آزمون t) استفاده کنم. من همچنین آزمایش Shapiro-Wilk را انجام داده ام تا تأیید کنم که یکی از دو نمونه من در واقع از توزیع نرمال پیروی نمی کند. * * * ## اطلاعات اضافی برای اجرای آزمایشها برای چند مورد مختلف نیاز دارم، اما برای کوتاه نگه داشتن موارد، فقط دو مورد از آنها را به تفصیل بیان میکنم. اندازه نمونه برای گروه 1 و گروه 2 به ترتیب 19 و 15 است (این در هر دو نمونه اتفاق می افتد: Case1 و Case2). **نتایج تست Shapiro-Wilk برای نرمال بودن** نمونه مورد 1 | p_value | w | نتیجه گروه 1 | 0.104 | 0.918 | گروه عادی2 | 0.027 | 0.863 | غیر عادی (P<0.05) نمونه مورد 2 | p_value | w | نتیجه گروه 1 | 2.054e-05 | 0.663 | غیر عادی (p<0.05) group2 | 0.006 | 0.814 | غیر عادی (05/0p<) **نتایج آزمون لوین برای برابری واریانس ها** مورد 1 p_value | w | نتیجه 0.154 |2.128 | واریانس برابر مورد 2 p_value | w | نتیجه 0.0251 |5.521 | واریانس نابرابر (05/0p<) **نتیجه آزمون t یک طرفه (ولچ) (H1: گروه1>گروه2)** آمار t_ مورد1 | p_value | نتیجه 3.073 | 0.002 | معنی دار (05/0p<) مورد2 t_statistic | p_value | نتیجه 2.475 | 0.012 | معنی دار (p<0.05) | آیا می توان از آزمون t دو نمونه ای با داده هایی که از توزیع نرمال پیروی نمی کنند استفاده کرد؟ |
99031 | من سعی می کنم تعیین کنم که کدام نوع الگوریتم یادگیری برای پیش بینی داده های من بهترین است. مجموعه داده های من از چندین متغیر مستقل تشکیل شده است که هر کدام با یک متغیر شاخص همراه است که نشان دهنده حجم نمونه مورد استفاده برای بدست آوردن مقدار خاص آن است. فرض کنید من سعی می کنم نرخ تبدیل مورد انتظار آینده را به مجموعه ای از تبلیغات وب (نرخ تبدیل = سفارشات/کلیک ها) اختصاص دهم. برای برخی از تبلیغات، من تاریخچه ترافیک خاصی دارم که باید از آنها استفاده کنم. اما برای تبلیغات جدیدتر که دارای حداقل سابقه ترافیک یا بدون سابقه ترافیک هستند، باید به ویژگی های سطح بالاتر تکیه کنم. مجموعه دادههای من شامل نرخ تبدیل تاریخی در سطوح/ویژگیهای مختلف آگهی است:  برای آگهی شماره 5، من میخواهم مدلی کنید که تقریباً به طور کامل به نرخ تبدیل تاریخی برای یک تبلیغ خاص (4.23٪) تکیه کنید، زیرا به اندازه کافی کلیک های گذشته برای اعتماد به آن مقدار دارد. با این حال، برای تبلیغ شماره 1، من میخواهم مدل ارزش «تبلیغ خاص» را نادیده بگیرد و بیشتر به نرخهای تاریخی برای «برند» و «رده محصول» آگهی تکیه کند (زیرا 15 کلیک برای ایجاد یک آگهی کافی نیست. نرخ تبدیل قابل اعتماد). من با جدا کردن تبلیغات به چندین گروه مختلف بر اساس شباهت حجم کلیک، سپس استفاده از فرمول رگرسیون متفاوت برای هر گروه، تا حدی موفقیت داشتم. این اجازه می دهد تا هر متغیر به درستی وزن شود. با این حال، این رویکرد منجر به انتشار دادهها بسیار نازک میشود و احتمالاً به خوبی یک مدل تلفیقی نمیآموزد. روش مناسبی برای استفاده از یک مدل برای پیشبینی این دادهها چیست؟ من به این مدل نیاز دارم تا تشخیص دهد که متغیرهای کلیک باید برای وزن دادن به نرخ تبدیل مربوطه استفاده شوند. (من همچنین موفقیت های کوچکی با بسته nnet در R داشته ام، اما نتایج بسیار قابل قبول هستند). لطفاً از درخواست توضیح دریغ نکنید. با تشکر | چگونه باید متغیرهایی را مدیریت کنم که نقاط داده آنها درجات مختلفی از قدرت پیش بینی دارند؟ |
107493 | من در حال بررسی الگوها به ترتیب کلیک روی تصاویر هستم. از کاربر خواسته می شود تا روی یک تصویر در 5 مکان کلیک کند (می تواند همان مکان باشد). این دنباله از 5 کلیک یک رمز عبور گرافیکی را تشکیل می دهد. من به دنبال الگوهایی به ترتیبی هستم که کاربران به عنوان مثال کلیک می کنند. آنها از چپ به راست اسکن می کنند، یعنی x_1 < x_2 < x_3 < x_4 < x_5 که x_i مختصات x کلیک i است. دسته بندی هایی که در نظر دارم عبارتند از چپ به راست، راست به چپ، بالا به پایین، پایین به بالا، جهت عقربه های ساعت و خلاف جهت عقربه های ساعت. میخواهم ببینم آیا تفاوتی در ترتیب کلیک برای جمعیتهایی با ویژگیهای مختلف وجود دارد، مثلاً. آیا زنان بیشتر از مردان دارای ترتیب کلیک از چپ به راست هستند؟ برای این کار، من یک آزمون کای اسکوئر استقلال را برنامه ریزی کردم که احتمالاً آزمون دقیق فیشر است، زیرا حجم نمونه کم است. مشکل من این است که یک کاربر می تواند در چندین دسته قرار گیرد به عنوان مثال. آنها ممکن است از چپ به راست و از پایین به بالا کلیک کنند و یک الگوی مورب ایجاد کنند. من فرض میکنم که این در جدول اقتضایی مجاز نیست، بنابراین آیا باید الگوها را به مجموعههای متقابلاً منحصربفرد تقسیم کنم، یعنی تست از چپ به راست در برابر راست به چپ، از بالا به پایین در برابر پایین به بالا و غیره؟ همچنین باید کاربرانی را که در هیچ دستهای قرار نمیگیرند، بگنجانم. آیا چپ-راست، راست-چپ و هیچ کدام به عنوان دسته های من برای آزمایش صفحه افقی هستند؟ آیا راهی برای آزمایش استقلال الگو به عنوان یک کل (ممکن است شامل بیش از یک دسته باشد) از یک ویژگی (مانند جنسیت) وجود دارد؟ | آزمون کای دو که در آن مشاهدات می توانند چندین دسته داشته باشند |
33777 | من یک حجم نمونه 21 دلاری با مشاهدات 496 دلاری دارم. آیا می توانم توزیع تقریباً نرمال را فرض کنم و از آزمون t$-$ برای مقایسه تفاوت میانگین ها و تفاوت در ویژگی های مالی مختلف (قیمت های روزانه داده های مالی) استفاده کنم؟ علاوه بر این، گاهی اوقات به طور روزانه تفاوت های ناچیز دریافت می کنم، اما اگر میانگین و خطای استاندارد را سالانه کنم، بسیار قابل توجه می شود، مانند تفاوت بین دو میانگین در روز 0.10% دلار در پایان سال با استفاده از این. فرمول آن بسیار بزرگ خواهد بود $((1+R)^{240}))-1$، هر تبدیل انحراف استاندارد با فرمول $\sqrt{240}* SD_{day}$. ابتدا اشتباه تایپی بود، بله، تفاوت در بازده روزانه 0.10٪ است، سپس داده ها به طور خودکار همبستگی خواهند داشت، زیرا مقررات بازار اجازه می دهد قیمت فقط 2٪ در هر جلسه معاملاتی نوسان کند، بنابراین الگوی موجود خواهد بود. کاری که من انجام میدهم عمدتاً ایجاد شاخص در بازار است و 21 سهم را در دو گروه 16 سهم و 5 قرار میدهم و سپس به مقایسه شاخصها میپردازم. بازده، نسبت شارپ و غیره، بنابراین زمانی که من از آزمون t برای بررسی تفاوت آماری به عنوان این فرمول (x1-x2) تفاوت در میانگین / SQRt (SE^2+SE^2) استفاده می کنم، نتایج از نظر آماری معنی دار نبود اما از نظر مالی 0.10 بود. ٪ در روز در پایان سال 15-17٪ تفاوت خواهد بود که بسیار زیاد است!!!!! و من آماری را برای داده های روزانه Kurtosis ارائه کردم: کل بازار (7.392221073) گروه اول (6.344474009) گروه دوم (14.0065786) چولگی کل بازار، (0.930473559)، گروه اول (1.1738432123)، گروه دوم. بنابراین من در واقع کل جمعیت را که فقط 21 شرکت در بازار نوظهور هستند، در نظر میگیرم، بنابراین در فصل مقدمه تحقیقم باید در مورد این موضوع صحبت کنم، بنابراین به نظر شما باید با قضیه حد مرکزی بگویم، من بیش از حجم نمونه 20 است و من از آزمون t برای مقایسه استفاده می کنم، اگر قابل قبول نیست، هر تست دیگری برای مقایسه تفاوت میانگین ها و جزئیات به من بگویید لطفا. آمار سالانه بازار مجموعه 1 مجموعه 2 میانگین بازده سالانه 0.182450075 0.344723515 0.149800603 انحراف استاندارد 0.134419078 0.202235211 0.1385292380 مجموعه 0.1385235007 هر جلسه 0.18% 0.08% انحراف استاندارد 1.05% 1.57% 1.08% تبدیل با فرض 165.33 جلسه در سال | چولگی، کشیدگی و نرمال بودن یک سری زمانی |
27877 | یک پیمانکار برای چهار شغل دولتی پیشنهاد داده است: پارکینگ خودرو، ساختمان اداری، تئاتر و مرکز خرید. قوانین ایالتی اجازه نمی دهد که بیش از یکی از این مشاغل به یک پیمانکار پیشنهاد شود. اگر هر یک از این مشاغل به این پیمانکار تعلق گیرد، سود حاصل از این قراردادها عبارت است از: 2 میلیون رینگیت از پارکینگ، 3 میلیون رینگیت از ساختمان اداری، 5 میلیون رینگیت از تئاتر و 7 میلیون رینگیت از مرکز خرید. اگر قراردادی نبندد سودی نمی برد. پیمانکار تخمین می زند که احتمال گرفتن قرارداد گاراژ پارکینگ، قرارداد ساختمان اداری، قرارداد تئاتر، قرارداد مرکز خرید یا هیچ چیز به ترتیب 0.25، 0.15، 0.35، 0.13 و 0.12 است. فرض کنید Y متغیر تصادفی باشد که سود پیمانکار را در میلیون ها رینگیت نشان می دهد. 1. توزیع احتمال Y را بنویسید (4 نمره) 2. توزیع احتمال تجمعی Y را بسازید (4 نمره) 3. سود مورد انتظار پیمانکار را بیابید. یک تفسیر مختصر از ارزش به دست آمده ارائه دهید (5 نمره) 4. احتمال سود را بیش از انتظار پیمانکار تخمین بزنید. (2 نمره) | حل مسئله توزیع احتمال در قرارداد سود |
83402 | من نمونه ای از داده ها را دارم که از توزیع خاصی با پارامترهای شناخته شده پیروی می کند. چگونه می توانم بر اساس این نمونه فاصله اطمینان را بدون استفاده از تابع چندک تخمین بزنم؟ | تخمین فاصله اطمینان از نمونه |
113077 | من داده هایی دارم که به شدت در بیش از یک خوشه جمع آوری شده اند. من به دنبال اصطلاحی برای توصیف موثر این پدیده هستم: به عنوان مثال، داده های چند خوشه ای، که با این حال به نظر من بعداً یک تحلیل خوشه ای برای شناسایی بیش از یک خوشه تحمیل کرده ایم. تا کنون من داده های چند قطبی را ترجیح می دهم، اما آماده پیشنهادات هستم. | اصطلاح برای توصیف داده های خوشه ای قوی |
69740 | پیشینه - من میخواهم یک مجموعه داده مختلط را تجزیه و تحلیل کنم و متغیرها را بر اساس شباهت همبستگی خوشهبندی کنم. SPSS این گزینه را به من می دهد، اما به من اجازه نمی دهد راه حل های خوشه بندی را با ارائه معیارهای آماری تغییر ناهمگنی (مانند آماره F شبه) یا معیارهای مستقیم ناهمگنی (مثلاً CCC) ارزیابی کنم. به این ترتیب، من دارم R را یاد میگیرم. موفق شدهام متغیرهایم را با استفاده از هر دو روش varclus و hclustvar خوشهبندی کنم، که هر دو دندروگرامهای خوبی ایجاد میکنند که میتوانم به صورت بصری تفسیر کنم. با این حال، من در تلاش هستم تا R را به دست بیاورم تا برخی از اعداد واقعی را به من ارائه دهد، مانند آمار ذکر شده در بالا، که ممکن است نشان دهد چه چیزی بهترین راه حل خوشه بندی را تشکیل می دهد. چگونه می توانم این کار را انجام دهم؟ من اسناد بسته های Hmisc و ClustOfVar را بررسی کردم و راهی برای انجام این کار پیدا نکردم. من در جاهای دیگر خوانده ام که معیارهای خوشه بندی را می توان با استفاده از بسته NBClust اعمال کرد، اما تا آنجا که من می بینم تابع NBClust فقط بر روی ماتریس های عدم تشابه / اندازه گیری های فاصله کار می کند، که برای من گزینه ای نیست زیرا من به همبستگی علاقه مند هستم. شباهت پیشنهادی دارید؟ | ارزیابی خوشه های متغیرهای تولید شده توسط varclus & hclustvar |
27873 | قدرت مجانبی نسبی آزمون های ناپارامتریک بالا گزارش شده است. قدرت تست هایی مانند تست رتبه امضا شده Wilcoxon و Mann-Whitney U با N های 10، 20، 50 مثلا در مقایسه با آزمون های t چقدر است؟ | توان نسبی غیر مجانبی آزمون های ناپارامتریک چقدر است؟ |
71549 | من به تازگی شروع به بررسی شبکه عصبی مکرر کرده ام. من سه منبع اطلاعاتی را در شبکه المان پیدا کردم (المان 1991). (مثال و کد) http://mnemstudio.org/neural-networks-elman.htm (مقاله) http://www.sysc.pdx.edu/classes/Werbos- Backpropagation%20through%20time.pdf (Q&A) http ://stackoverflow.com/questions/16739299/elman-and-jordan-context- مقادیر-در-زمان-آموزش-برای-شبکه-عصبی-طبق منبع اول، وزنها از لایههای مخفی به زمینه / زمینه به لایههای پنهان بهروزرسانی نمیشوند. از منبع دوم هم این آپدیت ها رو روی 0 قرار داده یعنی وزن ها رو آپدیت نمی کنه. اما از منبع سوم در Stackoverflow، کاربر ادعا کرد که مقادیر نورونهای بافت خود با پیشرفت آموزش بهروزرسانی نمیشوند. **وزن**های بین آنها و لایه بعدی **در طول آموزش به روز میشوند**. نورون زمینه ارزش عصبی پنهان را در زمان t ذخیره می کند و آن را (به همراه نورون ورودی) به نورون پنهان در t + 1 تغذیه می کند. اما آیا باید وزن های بین آن را به روز کنیم؟ | شبکه عصبی مکرر (شبکه المان). وزن های متن به پنهان / پنهان به لایه های زمینه به به روز رسانی نیاز دارند؟ |
18510 | به دنبال سوال اینجا، شخصی پیشنهاد کرد که می توانم فقط به ستون B در جدول Parameter Estimates SPSS نگاه کنم تا تعامل را تفسیر کنم. برای مثال، ستون B برای یکی از تستهای من به شرح زیر است: * فاصله: 0.724 * [جنسیت = 1.00]: 0.140 * [جنسیت = 2.00]: 0 * [جنسیت = 1.00] * درآمد: 0.620 * [ جنسیت = 2.00] * درآمد: 0.690 متغیر وابسته خرید یک محصول خاص است. 1 = مرد و 2 = زن با توجه به موارد فوق می توانم بگویم که جنسیت زن تأثیر قوی تری بین درآمد و خرید دارد. | استفاده از بتا برای تفسیر تعامل در مدل خطی کلی |
107491 | من می دانم که PDF اولین مشتق از CDF برای یک متغیر تصادفی پیوسته، و تفاوت برای یک متغیر تصادفی گسسته است. با این حال، من می خواهم بدانم چرا این است، چرا دو مورد مختلف برای گسسته و پیوسته وجود دارد؟ | محاسبه PDF داده شده CDF |
71544 | من سعی می کنم بفهمم توابع هسته چند جمله ای چگونه کار می کنند، در کتاب درسی من مثالی با درجه 2، با بعد ورودی 2 نشان می دهد: $K(\vec{x}، \vec{y})$ = $ (1 + x_1y_1 + x_2y_2)^2$ = $1 + 2x_1y_1 + 2x_2y_2 + x^2_1y^2_1 + 2x_1x_2y_1y_2 + x^2_2y^2_2$ همه موارد بالا را درک می کنم. سپس به ذکر میپردازد، تصویر بردار ورودی $x$ القا شده در فضای ویژگی بنابراین... = $(1,\sqrt{2}x_1,\sqrt{2}x_2,x^2_1 ,\sqrt{2}x_1x_2, x^2_2)$ من این خط را نمی فهمم، به ویژه، ریشه دوم از کجا آمده است؟ | ریشه دوم تابع نگاشت هسته چند جمله ای از کجا می آید؟ |
18512 | فرض کنید نمونههای $N_A$ و $N_B$ از جمعیت A و B را داریم. برای هر نمونه، وزن و قد او را داریم. چیزی که ما را مورد توجه قرار می دهد این است که آیا تفاوت قابل توجهی در وزن بین A و B وجود دارد یا خیر. یک آزمون _t_ می تواند این کار را به راحتی انجام دهد. اما ما همچنین می دانیم که همبستگی قوی بین قد و وزن وجود دارد. اگر وزن تحت تأثیر جمعیت قرار نگیرد اما ارتفاع نمونه ها بین A و B متفاوت باشد، ممکن است به اشتباه H_0$ را رد کنیم. آیا روشی سیستماتیک برای اصلاح وزن نمونه ها با استفاده از ارتفاع آنها وجود دارد تا بتوانیم از تداخل آن جلوگیری کنیم؟ | آزمایش اهمیت روی وزن افراد از 2 جمعیت با توجه به قد آنها |
111592 | من سعی می کنم داده های خود را با ARIMA (1،2،12) مدل کنم و از آنجایی که واریانس ثابت نیست، GARCH (2،3) را نیز وارد کرده ام. من تمام پارامترهای مدل خود را در متغیری به نام mdl ذخیره کرده ام. من از 1000 گام زمانی به عنوان مقادیر اولیه استفاده کردهام و میخواهم یک مرحله زمانی 10 جلوتر برای پیشبینی انجام دهم و سپس میخواهم باقیماندهها را محاسبه کنم. این کد من است: [res,V,LOGL] = infer(mdl,data(1:1000)); [YF, YMSE, VV] = پیشبینی (mdl,10,'Y0',data(1:1000),'E0',res,'V0',V); ERROR=data(1001:1010)-YF; سوال من این است: آیا برای محاسبه ERROR باید داده های خود را دو برابر کنم یا نیازی به انجام این کار نیست؟ چون D=2 آریمای من است، نمی دانم چه پیش بینی هایی به من می دهد، داده ها پس از دو بار متمایز شدن یا بدون تفاوت. | تخمین خطا در ARIMA(p,d,q) |
15140 | > رشته آینه ای در Math.SE من یک تابع توزیع احتمال تجمعی تجربی برای یک متغیر تصادفی دارم. متغیر تصادفی زمان تا شکست است و من منحنی کامل را دارم، یعنی تا زمانی که احتمال به 1 برسد. میخواهم بدانم Mean Time To Failure یعنی انتظار آن متغیر تصادفی. آیا روش استانداردی برای یافتن میانگین از یک توزیع تجربی وجود دارد؟ من CDF تجربی (به عنوان مقادیر گسسته) را به عنوان خروجی از یک ابزار بررسی مدل دریافت می کنم که از تکنیک های محاسبات عددی تکراری برای بدست آوردن آن احتمالات استفاده می کند. به عنوان مثال، اجازه دهید F(x)=P(X<=t) CDF متغیر تصادفی X است که در آن X مخفف زمان بین شکست است. برای رسم منحنی F(X) در مقابل t، t را با اندازه گام تغییر میدهم، F(X) را برای آن t با استفاده از ابزار بررسی مدل محاسبه میکنم و نقاط را برای بدست آوردن منحنی اضافه میکنم. من می توانم از اندازه گام کوچک برای بدست آوردن منحنی دقیق تر استفاده کنم. بنابراین، من فقط به این مقادیر CDF در t مختلف دسترسی دارم. از این مقادیر میخواهم تخمین خوبی از میانگین X انجام دهم. | انتظارات را از cdf تجربی محاسبه کنید |
18518 | من چند گونه ماتریس $\times$ سال دارم و پویایی زمانی را با رگرسیون فاصله بین سالها در $\sqrt{\rm time \ lag} }$ تجزیه و تحلیل میکنم. از آنجایی که نقاط داده مستقل نیستند و از آنجایی که من فواصل $(n^2-n)/2$ را برای یک سری زمانی با طول $n$ بدست میآورم، استفاده از روش استاندارد برای تعیین اهمیت شیب رگرسیون مشکلساز است. بنابراین من یک روش جایگشت مونت کارلو را اعمال کردم و توزیع شیب های تصادفی را با شیب مشاهده شده مقایسه کردم. تا الان مشکلی نیست؛ اکثر شیب های رگرسیون من در $p<0.0001$ معنی دار هستند. سوال من: چگونه می توانم شیب ها را برای گونه های مختلف $\times$ ماتریس سال مقایسه کنم؟ رویکرد پارامتریک به دلیل مشکلات ذکر شده در بالا هنوز راه حلی نیست، اما من از راه حلی مبتنی بر رویه های جایگشت آگاه نیستم. | آیا راهی برای مقایسه شیب های رگرسیون خطی با آزمون های جایگشت وجود دارد؟ |
107492 | من اطلاعات فروش دارم و میخواهم ببینم آیا میانگین فروش یک کارمند در نتیجه این آموزش افزایش یافته است یا خیر. بنابراین، من دادههای پیش و پس از آن را دارم، زیرا فقط شش ماه است و به تفاوت میانه علاقهمندم که قصد دارم از رتبه امضا شده Wilcoxon استفاده کنم. هنگام انجام این تجزیه و تحلیل، اختلاف میانه قبل از تمرین را 6 ماه و میانه بعد از آموزش را 6 ماه در نظر گرفتم (فرض کنید 30 موضوع وجود دارد، زیرا من میانه را برای هر کدام می گیرم، n هنوز برابر 30 است). من فکر می کردم که این یک تخمین قابل اعتماد برای تفاوت مدینه ارائه می دهد، با این حال، کارمند دیگری (با تجربه بیشتر) هر موضوع را جفت کرد (ماه 1 در مقابل ماه 1) و قبل از اجرای رتبه امضا شده Wilcoxon و دریافت میانگین هر موضوع را نگرفت. تخمین امتیاز بالاتر از من هر دو هنوز از نظر آماری معنادار هستند، اما من کنجکاو هستم که کدام رویکرد تخمین قابل اعتمادتری ارائه می دهد؟ آیا هر دو می توانند کار کنند، آیا باید تخمین محافظه کارانه تری داشته باشید؟ | هنگامی که افراد در هر نمونه n بار ظاهر می شوند، رتبه امضا شده Wilcoxon را نشان می دهد. |
33778 | در حال گذراندن چند آموزش تئوری اطلاعات بودم. مثال زیر را در مورد انتقال سه نماد $A، B$ و $C$ داشت به طوری که $P(A) = 1/3 = P(B) = P(C)$ اگر رویدادها را به صورت $A = رمزگذاری کنیم. 0، B = 10، C = 11$ ; سپس ما به طور متوسط 1.66 دلار بیت در هر نماد دریافت می کنیم. اما اشاره کرد که از نظر تئوری امکان ارسال بیت/نماد 1.58 دلار وجود دارد. چگونه می توان از بیت ها / نماد 1.66 دلار پایین تر رفت؟ من به رمزگذاری گروهی فکر کردم، یعنی رمزگذاری نمادهای $2$ با هم. اما هیچ کاهشی در بیت / نماد نداد. با تشکر | راه های بهتری برای رمزگذاری این نمادها چیست؟ |
83400 | من داده های تعداد متغیر پاسخ را دارم که باید به عنوان شبه پواسون یا چیزی مشابه در نظر گرفته شوند. این داده همچنین حاوی مقادیر پرت است که برای مجموعه داده مهم هستند. من نمی توانم بسته r را پیدا کنم که به من اجازه دهد رگرسیون قوی با توزیع شبه پواسون انجام دهم. با این حال، میتوانم وزنها را برای هر مدل با استفاده از رگرسیون قوی جمعآوری کنم و سپس سعی کنم از آن وزنها در glm استفاده کنم. توجه داشته باشید که وزنها همیشه > 0 هستند. مشکل من این است که نمیتوانم تعریف روشنی از نحوه استفاده از وزنها در glm با family=quasipoisson پیدا کنم. شبیه به نظر می رسد، اما نمی توانم بفهمم که آیا واقعاً همان کاری را که می خواهم انجام می دهد یا نه (مثلاً متغیرهای پاسخ پرت پایین وزن برای کاهش تأثیر آنها). دادههای پاسخ تعداد پروانههایی است که روزانه در تلههای فرمونی صید میشوند و متغیرهای پیشبینیکننده دادههای آب و هوا هستند. همه متغیرها برای مدیریت خودهمبستگی زمانی متفاوت هستند. نقاط پرت تعداد زیاد پروانه های مهاجر در پاسخ به گذرگاه های جلویی سرد است. من به تازگی این مرجع را پیدا کردم که توضیح می دهد که وزن های کم به عنوان نمایش مشاهداتی با واریانس بالا تفسیر می شوند که در مورد من منطقی است. اما آیا این بدان معناست که تأثیر آن کاهش تأثیر آن مشاهده بر رگرسیون است؟ http://r.789695.n4.nabble.com/weights-in-glm- PR-8720-td910336.html | آیا می توانم از وزن های ایجاد شده توسط رگرسیون قوی در یک glm quasipoisson در R استفاده کنم؟ |
109922 | من سعی می کنم از قضیه حد مرکزی برای محاسبه میانگین نمونه استفاده کنم، اما جامعه ای که در آن نمونه گیری می کنم فقط بین 0 و 1 ارزش دارد، آیا می توانم از میانگین نمونه به عنوان میانگین جامعه و خطای استاندارد استفاده کنم = ( خطای استاندارد جمعیت / sqrt(n))؟ من این کار را انجام دادم، اما توزیع نرمال به نظر نمی رسد، به عنوان مثال، من جمعیتی با میانگین = 0.9895348 و SD = 0.05908021 دارم، پس فرض می کنم که میانگین نمونه باید 0.9895348 و برای نمونه n = باشد. 78 میانگین انحراف معیار نمونه = 0.006689516. من 2000 بار از نمونه تصادفی n = 78 نمونه گرفتم و هیستوگرام را که در زیر پیوست کردم. به نظر عادی نمی رسد، و میانگین به نظر می رسد در سمت چپ جایی که باید باشد، و SD به نظر می رسد بزرگتر از 0.006689516 باشد.  * * * ویرایش: آنچه من می خواهم بهترین راه برای محاسبه مقدار مورد انتظار میانگین یک نمونه گیری تصادفی از این جامعه است. . وقتی میانگین نزدیک به 0 یا 1 باشد، به نظر من، مقدار مورد انتظار خوب به نظر نمی رسد. هنگامی که نزدیک به 0 است، مقدار مورد انتظار بزرگتر از آنچه باید باشد به نظر می رسد، و زمانی که نزدیک به 1 است به نظر می رسد کمتر از آنچه باید باشد. این یک مجموعه داده مصنوعی است، که در آن هر نقطه یک احتمال دارد، در زیر یک هیستوگرام از داده ها وجود دارد:  مجموعه داده دیگری، زمانی که میانگین نزدیک به 0 است، در اینجا میانگین به عنوان یک نقطه رسم می شود، اما من فکر می کنم مقدار مورد انتظار باید کمتر باشد | توزیع نمونه گیری از میانگین جمعیتی که مقادیری را فقط بین 0 و 1 فرض می کنند |
15141 | فرض کنید یک بیماری خاص (D) دارای شیوع 3/1000 است. همچنین فرض کنید که یک علامت خاص (S) دارای شیوع (در جمعیت عمومی = افراد مبتلا به آن بیماری D و افراد بدون آن بیماری [احتمالاً با بیماری دیگر، اما مهم نیست]) 5/1000 باشد. در یک تحقیق قبلی، کشف شد که احتمال شرطی P(S|D) = 30٪ (احتمال داشتن علامت S با توجه به بیماری D 30٪ است). **سوال اول**: آیا می توان P(S|D) را معادل شیوع علامت S در گروه افراد مبتلا به بیماری D تفسیر کرد؟ **سوال دوم**: من می خواهم در R مجموعه داده ای ایجاد کنم که نشان می دهد: $$P(D|S) = \frac{P(S|D)P(D)} {P(S)}$ $ با داده های خیالی من، می توانیم P(D|S)=0.18 را محاسبه کنیم، که به این صورت تفسیر می شود: با توجه به یک بیمار با علامت S، احتمال ابتلا به بیماری D 18٪ است. چگونه این کار را انجام دهیم؟ اگر به سادگی از تابع «نمونه» استفاده کنم، مجموعه داده من فاقد اطلاعاتی است که P(S|D)=30%: علامت <- نمونه(c(yes, no)، 1000، prob=c( 0.005، 0.995)، rep=T) بیماری <- نمونه (c(بله، نه)، 1000، prob=c (0.002، 0.998)، rep=T) بنابراین سوال من این است: چگونه می توان یک مجموعه داده خوب، از جمله احتمال شرطی مورد نظر من ایجاد کرد؟ _EDIT_: من همین سوال را در stackoverflow.com (http://stackoverflow.com/questions/7291935/how-to-create-a-dataset-with-conditional-probability) نیز ارسال کردم، زیرا، به نظر من، سوال من است. به برنامه زبان R و همچنین به نظریه آماری به ارث رسیده است. | چگونه یک مجموعه داده با احتمال شرطی ایجاد کنیم؟ |
15145 | من تحلیل مسیر را با استفاده از تابع sem در R انجام دادم. مدلی که من برازش کردم از هر دو مسیر مستقیم و غیر مستقیم تشکیل شده است. من در تفسیر برآوردهای ضرایب SEM مشکل دارم. * آیا R مقدار اثر کل = (اثر مستقیم + اثر غیرمستقیم) را مستقیماً می دهد یا باید ضرایبی را که در مسیر غیرمستقیم قرار دارند ضرب کنم و سپس آنها را به ضرایبی که در مسیر مستقیم قرار دارد اضافه کنم؟ این روش معمول برای انجام تحلیل مسیر با ضرایب همبستگی خام/مطلق است. برای مثال X (متغیر مستقل)، Y (متغیر وابسته) و M (متغیر واسطه) را در نظر بگیرید. ضرایب رگرسیون خام / مطلق / ضرایب رگرسیون استاندارد بین آنها X و Y -0.06 است. X و M 0.22 و M و Y 0.28 در حالی که در تحلیل مسیر/sem در R، ضرایب فوق X و Y -0.13 است. X و M 0.22 و M و Y 0.31. * بنابراین اثر کل X و Y برابر با -0.13 است؟ * در غیر این صورت، چگونه باید این ضریب را با توجه به تأثیر متغیر M در حساب تفسیر کنم؟ | چگونه ضرایب تولید شده توسط تابع sem در R را تفسیر کنیم؟ |
33774 | من سعی می کنم یک مدل مبتنی بر ژن پیش بینی کننده را در تجزیه و تحلیل بقا جا بدهم. سوال من این است: ** آیا می توانم از LASSO به عنوان یک روش انتخاب متغیر استفاده کنم و سپس به جای استفاده از ضرایب LASSO، یک رگرسیون کاکس چند متغیره را برای بدست آوردن ضرایب آن متغیرها (ژن ها) اجرا کنم؟** در آن صورت (اگر اجرا کنم) یک رگرسیون کاکس چند متغیره)، من می توانم مقادیر p را دریافت کنم و برای ضرایب استنتاج کنم. من خیلی تازه وارد این منطقه هستم. لطفا اگر سوالاتم کمی احمقانه هستند با من همراه باشید. | انتخاب متغیر با LASSO |
113923 | من در حال حاضر روی اصلاح الگوریتم خوشه بندی متناسب با دامنه مشکل خود کار می کنم. میخواهم بدانم چه روشهایی برای مقایسه سانتروئیدهای تولید شده از این دو روش در دسترس است؟ یعنی **میخواهم بدانم روش خوشهبندی (اصلاح شده) من چقدر با روش فعلی مطابقت دارد، روش فعلی استاندارد طلایی است.** از هر کمکی بسیار سپاسگزارم. | نحوه مقایسه دو خوشه بندی ایجاد شده توسط دو رویکرد خوشه بندی |
109925 | من سعی می کنم یک مدل غیر خطی ایجاد کنم، اما می خواهم مقادیر پارامترها براساس گروه متفاوت باشد. برای مثال، بخشی از داده های من (در اینجا فقط اعداد تصادفی) به نظر می رسد: MONTH FUTURE.PC FUTURE.SALES 1 APR 35 1498 2 APR 22 1124 3 MAY 24 744 4 MAY 45 453 5 MAY 13 1026 689 بگو می خواستم یک مدل غیر خطی بسازید که شبیه nls باشد (FUTURE.SALES ~ a + b * FUTURE.PC ^ c) آیا راهی برای تغییر مقادیر $a$, $b$, و $c$ بر اساس ماه وجود دارد رکورد متعلق به؟ روش دیگر، آیا راهی برای ترکیب متغیرهای عامل در رگرسیون غیر خطی در $R$ وجود دارد؟ | متغیرهای غیر خطی بر اساس گروهها در R |
33776 | من دانش آموز مقطع کارشناسی ارشد هستم و به آمار علاقه دارم. من به طور کلی مطالب را دوست دارم، اما گاهی اوقات به سختی در مورد برنامه های کاربردی در زندگی واقعی فکر می کنم. به طور خاص، سوال من در مورد توزیع های آماری رایج (نرمال - بتا گاما و غیره) است. حدس میزنم برای برخی موارد، ویژگیهای خاصی را دریافت میکنم که توزیع را کاملاً خوب میکند - برای مثال ویژگی نمایی بدون حافظه. اما برای بسیاری از موارد دیگر، من در مورد اهمیت و زمینه های کاربردی توزیع های رایجی که در کتاب های درسی می بینیم، شهودی ندارم. احتمالاً منابع خوب زیادی وجود دارد که به نگرانی های من می پردازد، خوشحال می شوم اگر بتوانید آنها را به اشتراک بگذارید. اگر بتوانم آن را با مثال های واقعی مرتبط کنم، انگیزه بیشتری برای ورود به مطالب پیدا می کنم. | نمونه های واقعی از توزیع های رایج |
18519 | اول از همه، من خیلی تازه وارد این موضوع هستم. من چند روزی است که از weka استفاده می کنم تا خودم را آشنا کنم و برای درک آن در مورد داده کاوی مطالعه می کنم. من یک مجموعه داده دارم (از UCI، داده های اعتباری آلمان) و باید آن را طبقه بندی کنم. من الگوریتمهای درختی مختلف را با استفاده از ویژگیهای مختلف به جای همه امتحان کردهام و میخواهم پیدا کنم که کدام یک بهترین درخت را به من میدهد. (تقسیم داده های من 66/34 برای آموزش و آزمایش) آیا راهی برای خودکارسازی این کار وجود دارد، یعنی وادار کنیم weka همه ترکیبات ویژگی ها را امتحان کند تا پیدا کند کدام یک بهترین درخت را می دهد؟ من ترجیح می دهم از weka استفاده کنم زیرا ابزاری است که استفاده می کنم، اما این اجباری نیست. | خودکارسازی طبقهبندی مبتنی بر درخت با استفاده از زیرمجموعههای مختلف ویژگیها |
113921 | من با آمار تازه کار هستم و واقعاً از کمک قدردانی می کنم. افراد درون گروهها متفاوت هستند - چگونه درصدها را مقایسه کنم تا ببینم آیا بین گروههایی که آموزش دیدهاند و بین گروهی که آموزش ندیدهاند آیا معناداری آماری وجود دارد. درصد تکالیف 20-25 40 40 26-30 30 30 31-35 30 30 گروه 2 آموزش ندیده و گروه سنی کار کرده تعداد وظایف درصد 20-25 50 50 26-30 10 10 31-35 40 40 | نحوه مقایسه گروه ها و درصدها در داخل |
71545 | من می خواهم دو مدل نرخ ارز یعنی مدل بالاسا-ساموئلسون و مدل پولی نرخ ارز را با هم مقایسه کنم. هر دو مدل کاملاً با یکدیگر متفاوت هستند و متغیرهای وابسته آنها نیز متفاوت است. من نمی دانم چگونه این دو مدل را مقایسه کنم و از کدام تکنیک اقتصاد سنجی برای این مقایسه استفاده کنم. | مقایسه دو مدل نرخ ارز با متغیرهای وابسته مختلف |
95608 | من 10 متغیر ترتیبی مستقل دارم که هر کدام دارای 5 سطح هستند که همگی برای اندازه گیری ساختار نهفته یکسانی در نظر گرفته شده اند و یک متغیر وابسته ترتیبی به نام رتبه با 5 سطح. در جایی خوانده ام که برای استفاده از رگرسیون باید متغیرهای طبقه ای با چند سطح را به متغیرهای ساختگی تبدیل کرد که بسیار دست و پا گیر خواهد بود. آیا راهی وجود دارد که بتوانم از آنها مانند رگرسیون استفاده کنم؟ | از کدام رگرسیون برای متغیرهای ترتیبی استفاده کنیم؟ |
81614 | من تمایل به خرید یک محصول یا خدمات خاص را پس از قرار گرفتن در معرض تبلیغات آنلاین مدل می کنم. من سعی می کنم چیزی شبیه به تجزیه و تحلیل از پایان نامه جان چندلر- پپلنجاک مدل سازی تبدیل در تبلیغات آنلاین بدست بیاورم. روش مشابهی نیز توسط آندری دی وریس در این ارائه استفاده شده است. من نمونه ای از داده ها را در پایین این سوال قرار داده ام، بسیار دست و پا گیر است، با عرض پوزش! نکته اساسی این است که هم دی وریس و هم چندلر-پپلنجاک یک مدل خطرات متناسب کاکس را برای داده ها با تعداد نابرابر اندازه گیری های مکرر اعمال می کنند. هیچ تلاشی برای شناسایی قرار گرفتن مشتری در معرض تبلیغات توسط کاربر وجود ندارد، بنابراین به نظر می رسد که هر ردیف از داده ها به یک رکورد بقای جداگانه تبدیل می شود. من چند متغیر زمانی سفارشی ایجاد کرده ام (زمان ها برابر یونیکس در ثانیه هستند) برای اندازه گیری زمان از اولین قرار گرفتن در معرض تبلیغات (time_from_start) و زمان پس از آخرین قرار گرفتن در معرض تبلیغات (interval_time) و می توانم از آنها برای تولید مدل استفاده کنم، اما مطمئنا من این کار را انجام خواهم داد: - 1. مدلسازی مسیرهای بسیار زیاد 2. کوتاه کردن مصنوعی مسیرها اگر از زمان بین رویدادها به عنوان زمان بقا استفاده کنم 3. مدلسازی رویدادهای همپوشانی اگر از زمان اولین قرار گرفتن در معرض استفاده کنم، De Vries کد نمونه را در ارائه خود ارائه می کند و به نظر نمی رسد که او در تجزیه و تحلیل خود از این موضوع استفاده کند (مانند کاهش وزن رویدادها با توجه به طول مسیر تبدیل، من فکر نمی کنم پپلنجک هر دو را انجام دهد). پیشنهاد شده است که متغیر زمان فاصله باید نتایج معقولی ایجاد کند زیرا برش های زمانی مستقل از یکدیگر در چارچوب Cox-PH فرض می شوند؟ آیا این همچنین مشکل وجود مسیرهای زیاد را برطرف می کند؟ ویرایش 1: بنابراین به نظر می رسد که مشکلی ندارد. من برای خودم نسخهای از «تحلیل دادههای طولی کاربردی» توسط Singer & Willet خریداری کردهام، و به این نوع مجموعههای داده، مجموعه دادههای «فرد-دوره» میگویند. تا کنون من فقط اطلاعاتی در مورد زمان گسسته پیدا کردهام، اما فرض میکنم که باید بتوان آن را به حالت زمان پیوسته گسترش داد، حتی اگر فقط به عنوان یک مورد محدودکننده. اگر تجربه ای در مورد مجموعه داده های دوره فرد در متغیرهای زمان پیوسته دارید، فریاد بزنید، به من بگویید از چه نوع متغیر زمانی برای تجزیه و تحلیل خود استفاده کرده اید. Event_Time Start_time Time_from_start Interval_time Buy_ID User_ID Ad_Id Ad_Type Cre_Id Creative_size_lookup Page_ID Site_ID Imp_ord Click_ord نوع Interaction_ord Activity_ord State_Ord Path_Ord Fixed_path_ord Path_maxli_ord prev 1384011915 1384011915 0 0 1234 86549917 2739 استاندارد 54876 300x250 1003 9922 1 Imp 1 1 1 15 0 0 0 0.0000141414 11505 11505 1234 86549917 2739 استاندارد 54876 300x250 1003 9922 2 Imp 2 2 2 15 0 1 0 0.0001 1384123401 1384123401 1910119011 1234 86549917 2739 استاندارد 54876 300x250 1003 9922 3 Imp 3 3 3 3 15 0 2 0 0.0001 1384123493 1384011915 11715 11715 2739 استاندارد 54876 300x250 1003 9922 4 Imp 4 4 4 15 0 3 0 0.0001 1384251680 1384011915 239765 128187 95407 95401 7459 9027 1 کلیک 5 5 5 15 1 3 0 0.0001 1384255778 1384011915 243863 4098 1234 86549917 2739 استاندارد 54876 300x250 1003 9922 5 Imp 6 6 6 15 1 4 0 0.0001 1384256704 1384011915 244789 926 1234 86549917 2739 استاندارد 54876 300x250 1003 300x250 1003 7 Imp51951 972 0.0001 1384287309 1384011915 275394 30605 9876 86549917 2747 استاندارد 55758 160x600 1010 9922 7 Imp 8 8 8 8601 1384288823 1384011915 276908 1514 1234 86549917 2764 استاندارد 55855 300x250 1036 9922 8 Imp 9 9 9 9 15 1 7044 01. 1384011915 330559 53651 1234 86549917 2739 استاندارد 54876 300x250 1003 9922 9 Imp 10 11 10 15 1 8 0 0.080141419 369993 39434 9876 86549917 2764 استاندارد 56137 300x250 1036 9922 10 Imp 11 12 11 15 1 9 0 0.0001 1384131854244 80534 1234 86549917 2739 استاندارد 54876 300x250 1003 9922 11 Imp 12 13 12 15 1 10 0 0.0001 1384543045 119385 119304 1234 86549917 2739 استاندارد 54876 728x90 1003 9922 12 Imp 13 14 13 15 1 11 0 0.0001 1384543067 1384011111524 13840111191525 86549917 2739 استاندارد 54876 728x90 1003 9922 13 Imp 14 15 14 15 1 12 0 0.0001 1384545213 1384011915 | تحلیل بقا با اندازه گیری های مکرر نابرابر، متغیر زمان |
113920 | از من خواسته شده است که یک نمودار دایره ای از برخی داده های طبقه بندی شده تهیه کنم. در مقیاسی ساده به این صورت است: خانه 1: به یک زبان خارجی صحبت کنید، صاحب رایانه باشید خانه 2: فقط زنان در آن زندگی می کنند خانه 3: فقط زنان در آن زندگی می کنند، به یک زبان خارجی صحبت کنید خانه 4: حیوانات خانگی دارد خانه 5: دارای حیوانات خانگی، یک کامپیوتر داشته باشید خانه 6: به یک زبان خارجی صحبت کنید. آنها یک نمودار دایره ای می خواهند که نشان دهد چند درصد از دسته های مختلف نشان داده شده است. خوب اگر من بروم: یک زبان خارجی صحبت کنم = 3/6 کامپیوتر داشته باشم = 2/6 فقط زنان زندگی می کنند = 2/6 حیوانات خانگی دارند = 2/6 این در مجموع 9/6 (یعنی بیش از 100٪) می شود. مجموع تعداد آیتمهای منفرد و سپس ایجاد %'سن من از آن یعنی صحبت کردن به یک زبان خارجی = 3/9 مالک کامپیوتر = 2/9 فقط توسط زنان زندگی میکنند = 2/9 دارای حیوانات خانگی = 2/9 این 100% است، اما من مطمئن نیستم که آیا این کار را چگونه انجام می دهید، بنابراین همه داده ها در یک نمودار دایره ای نشان داده می شوند. | چگونه می توان داده های طبقه بندی را در یک نمودار دایره ای نشان داد؟ |
15147 | هنگام انجام تحلیل عاملی، باید نرمال بودن و فرض واریانس ثابت متغیرهای اصلی را بررسی کنیم. اگر HSK در دادهها وجود داشته باشد، آیا میتوانم تبدیلهای مختلفی (مثلاً تبدیل log به x1، مربع x2...) را به متغیرهای مختلف انجام دهم و سپس تجزیه و تحلیل را انجام دهم؟ یا باید همان تبدیل را به همه متغیرها انجام دهم؟ خیلی ممنون | تبدیل متغیر برای تحلیل عاملی |
15148 | من این سوالات SO را خوانده ام و این تکراری از آنها نیست * بهترین راه برای تشخیص آماری ناهنجاری ها در داده ها * محاسبات آماری * الگوریتم(ها) برای تشخیص ناهنجاری ها (خط های) در داده های ترافیک * * * من آماری را جمع آوری کرده ام داده های مربوط به افراد سلسله مراتب داده ها به این صورت است: * منطقه * خیابان * شماره ساختمان * شماره ورودی * [بسته آماری] [آماری بسته] شامل (در این مثال) * طبقه (سهام) شماره * UUID (تعریف تخت) * مذهب * ظاهر توالت ** از چه الگوریتم یا رویه ای استفاده کنم** برای کشف ناهنجاری هایی مانند: یا **چه چارچوب برنامه ریزی آماری باید من استفاده میکنم؟** (از جمله اینکه بهترین فناوری زیرسازی چیست - مانند SQL یا DB مستند گرا، زبان تفسیر شده یا کامپایل شده و غیره) 1-a :: فقط یک طبقه (از هر طبقات ساختمان) فاقد سرویس بهداشتی است 1-b :: یک آپارتمان (UUID) فاقد سرویس بهداشتی است، اگرچه همه آپارتمان های دیگر در ورودی/ساختمان دارای حداقل 2-a هستند :: وجود دارد یک تخت ادعای دین X اگرچه کل منطقه دارای ادیان Y و Z 2-b است :: یک ساختمان ادعای دین X وجود دارد، اگرچه کل منطقه دارای ادیان Y و Z است اما این تنها مثالی است در مورد تعداد محدودی از ویژگی های بسته آماری، من باید انواع بسیاری از ناهنجاری ها را در حدود 15 ویژگی در هر بسته آماری پیدا کنم. توجه: این سوال در مورد این نیست که چگونه باید ناهنجاری ها را برای مثال های ارائه شده پیدا کنم، این مثال ها فقط گویا هستند، من به دنبال مشترک هستم. راه حل/الگوریتم پیشاپیش برای پاسخگویی متشکریم | تشخیص ناهنجاری های آماری |
109923 | **ویرایش** 1. وقتی نویز را به سیستم اضافه می کنیم می گوییم نویز سفید است. نویز سفید دارای چگالی طیفی توان ثابت، طیف توان مسطح خواهد بود. اما مزیت این کار چیست؟ 2. چرا به اموال iid نیاز داریم؟ 3. وقتی تابع چگالی احتمال را فهمیدیم یا تابع توزیع است که باید داده ها iid باشد؟ چرا؟ متشکرم | چرا ما نویز سفید و ویژگی iid را ترجیح می دهیم؟ |
81618 | من به دنبال این هستم که مردم به برخی از اقلام در مقیاس 0-10 بر اساس آن آیتم ها که سودمندی را برای شخص خاصی که رتبه را انجام می دهد، رتبه بندی کنند. مقادیر کسری مجاز هستند. عدم امتیاز دادن به یک مورد نیز مجاز است. با این حال، من ترجیح میدهم اقلام «با رتبهبندی بالا» را با رتبهبندی بیشتر نسبت به اقلام «با رتبهبندی بالا» با رتبهبندی کمتر رتبهبندی کنم. بنابراین، می دانم که نمی خواهم از میانگین حسابی استفاده کنم. [توجه: در حالی که این سوال ممکن است شبیه به سوالی باشد که چند سال پیش پرسیده شد، سناریو کاملا متفاوت است، زیرا سوال قبلی رتبهبندیها را به 4 مقدار گسسته محدود میکرد که این سناریو شامل مقادیر گسسته نمیشد.] من همچنین میخواهم از این سوال استفاده کنم. رتبه بندی و میانگینی بر اساس قانون جانشینی لاپلاس بدست آورید. با این حال، تا آنجا که من میتوانم بگویم، این قاعده بر خلاف انتخابهای بینهایت در این مورد خاص، مقادیر ممکن گسسته را فرض میکند. آیا روشی برای گسترش قانون برای پوشش چنین سناریویی وجود دارد؟ | چگونه قانون جانشینی لاپلاس را برای هر مقدار ممکن در یک محدوده اعمال کنیم؟ |
33772 | آیا پیاده سازی هموارسازی n-gram مانند Kneser-Ney در R وجود دارد؟ من از بسته tm استفاده می کنم. | اجرای هموارسازی N-gram در R |
109920 | من به دنبال روشی هستم که به من اجازه دهد مقدار 1 متغیر را که توسط 3 متغیر دیگر توصیف شده است، تخمین بزنم. من مجموعه ای از داده های اندازه گیری را با دوربینم جمع آوری کرده ام. هر رکورد شامل موارد زیر است: 1. روشنایی پیکسل (میزان تشعشعات مادون قرمز ساطع شده توسط یک بدن در طول عکسبرداری) 2. ضریب افزایش (درصد افزایش تنظیم شده در سخت افزار دوربین در طول عکسبرداری) 3. زمان نوردهی (استفاده شده در طول عکسبرداری داده شده). 4. دمای بدن (در لحظه ثبت تصویر) تعداد اندازه گیری ها در مجموعه البته محدود است با توجه به ترکیبی از مقادیر افزایش، نوردهی و روشنایی پیکسل، این تنها بخش کوچکی از یک پروژه بزرگ است و من نمیخواهم برای حل مشکلم به روشی جهانی بپردازم با هر مجموعه ای از داده ها بدون نیاز به تنظیم پارامترهای روش یا دانستن جزئیات آمار یا شکل روابط بین متغیرها، آیا می توانید چیزی را به من پیشنهاد دهید؟ کتابخانه ای در c++ که این روش را پیاده سازی کرده و اطلاعات را به اشتراک گذاشته است که من از آن بسیار قدردانی می کنم! با سلام و احترام مارسین | روش جهانی و ساده برای تخمین 1 متغیر از 3 متغیر ورودی |
78145 | من دو مدل پیش بینی دارم. اولی پاسخهایی را در محدوده 0 تا 1 برمیگرداند، که در آن پاسخ صحیح 0 یا 1 است. دومی پاسخهایی را در محدوده -1 تا 1 برمیگرداند، و پاسخ صحیح -1 یا 1 است. من MSE را برای هر دو حالت دارم. ، و من می خواهم عملکرد را با هم مقایسه کنم. راه صحیح انجام این کار چیست؟ به سادگی MSE مدل دوم را بر 4 تقسیم کنید؟ | چگونه می توان MSE دو مدل را در صورت متفاوت بودن دامنه پاسخ مقایسه کرد؟ |
78144 | هنگام دریافت $\mathbb{E}[x]$ یک متغیر تصادفی پیوسته با مشکلی مواجه شدم. معادله زیر PDF است که انتظار را امتحان می کنم. $\mathbb{E}[x] = \int_0^\infty x^2\alpha^2e^{-\alpha x}dx$ من در مورد نحوه رسیدن به مرحله بعدی $[-\alpha x^2e^ گیر کردم {-\alpha x}]_0^\infty + \int_0^\infty 2x \alpha e^{-\alpha x} dx $ آیا کسی می تواند به من توضیح دهد که چگونه به این مرحله برسم همانطور که من بسیاری از ترکیبات یکپارچه سازی توسط قطعات را امتحان کرده ام (مانند $u=x^2، u=x، v=\int x e^{-\alpha x} dx$، اما به مرحله بالا نرسیدم :( | نحوه حل انتظار متغیر تصادفی پیوسته |
113926 | من نمی دانم که آیا این اصطلاحات را به درستی درک می کنم؟ برای خلاصه کردن افکارم: در بیز ساده لوح، قانون تصمیم گیری ما اساساً تخمین حداکثر پسینی (MAP) از فرضیه ما است. ما یک مشاهده $\pmb x$ را به کلاس $\omega_j$ اختصاص می دهیم که دارای بیشترین احتمال پسین است: \begin{equation} \underset{j = 1 ..., m} {\mathrm{argmax}} \; P(\omega_{j} \mid \pmb x) \end{equation} این MAP نامیده میشود زیرا ما دانش قبلی (احتمالهای قبلی) را برای محاسبه احتمال پسین ترکیب میکنیم: \begin{equation} P(\omega_j \mid \pmb x_i) = \frac{P(\pmb x_i \mid \omega_j) \cdot P(\omega_j)}{P(\pmb x_i)} \end{معادله} که در آن * _$i$ = 1، 2، ...، n_ (نمونه) * _$j$ = 1، 2، .. ., m_ (برچسب های کلاس) * $\omega_j$ = کلاس $j$ * $\pmb x_i$ = ویژگی های نمونه $i$ حال، اگر از داده های آموزشی برای تخمین پارامترهای مربوط به قبل از $P(\omega_j)$ بر اساس فراوانی کلاس ها در داده های آموزشی، این یک تخمین حداکثر احتمال (MLE) خواهد بود. به طور مشابه، ما میتوانیم از MLE برای محاسبه احتمالات شرطی کلاس $P(\pmb x_i \mid \omega_j)$ تحت فرض استقلال شرطی \begin{equation} استفاده کنیم P(\pmb x \mid \omega_j) = \prod_{k= 1}^{d} P(\pmb x_k \mid \omega_j) \end{equation} آیا این اصلا منطقی است؟ | تخمین پارامتر برای بیز ساده - حداکثر پسین و حداکثر احتمال |
31739 | _من این سوال را در BioStar پرسیدم اما پاسخی دریافت نکردم، بنابراین سوال را در اینجا پست می کنم._ ** توضیح ساده ای در مورد اینکه یک بوت استرپ تقریباً بی طرفانه در مورد خوشه بندی سلسله مراتبی چیست؟** از آنچه خواندم، آن را تغییر می دهد؟ اندازه نمونه در طول تصادفی سازی برای محاسبه مقادیر p. **چگونه این رویکرد بهتر از بوت استرپ معمولی است که اندازه نمونه را در حین تصادفیسازی دست نخورده نگه میدارد و همچنین آیا تصادفیسازی با جایگزینی انجام میشود؟ بابت نامشخص بودن عذرخواهی می کنم زیرا فکر می کردم این به دلیل تفاوت در روش بوت استرپ است. با تشکر از همه پاسخ ها و نظرات! | چگونه بوت استرپ تقریباً بی طرفانه از یک بوت استرپ معمولی با توجه به خوشه بندی سلسله مراتبی بهتر است؟ |
15144 | من دنباله ای از دو مشاهدات ممکن ($A$، $B$) دارم و می خواهم یک HMM را با حالت های $h$، یعنی $\lambda_h$، برای پیش بینی احتمال مشاهده بعدی با استفاده از الگوریتم Baum-Welch آموزش دهم. توزیع احتمال خروجی برنولی با پارامتر $p_i$ ($i$ عدد حالت است). مشکل من عمدتا با مقداردهی اولیه است. اگر $\lambda_h$ به یک HMM کاملا تصادفی مقداردهی اولیه شود، نتایج یادگیری ضعیف است. از سوی دیگر، الگوریتم مقداردهی اولیه K-Means احتمال اولیه صفر ($\pi_i$) را به برخی از حالات اگر $h > 2$ اختصاص میدهد، از پیشرفت BW جلوگیری میکند. من از HMM 4 حالته ($\lambda^0_4$) برای تولید دنباله های آزمایشی خود استفاده می کنم. بنابراین تلاش $h=4$ باید کاملاً ممکن باشد! هر ایده ای؟ * * * پارامترهای $\lambda^0_4$: احتمالات انتقال: $A_{i,i}$ = 0.4, $A_{i,j\neq i}$=0.2 توزیع احتمال مشاهده: $p_0$=1.0, $ p_1$=0.7، $p_2$=0.3، $p_3$=0.0 احتمالات حالت اولیه: $\pi_i$ = 0.25 | مشکل با k-means مورد استفاده برای مقداردهی اولیه HMM |
78142 | من سعی می کنم به یک سوال تکلیف پاسخ دهم و مثال زیر را به صورت آنلاین مشابه آنچه که برای طبقه بندی داده های ناشناخته در درخت تصمیم باید انجام دهم پیدا کردم. من کاملاً متوجه نمی شوم که چرا در اسلاید 5 Wind = String از قانون حذف شده است؟ من در جاهای دیگر خوانده ام که مربوط به حذف اطلاعات بدون تأثیر بر نتیجه است، اما برای درک اینکه چگونه تصمیم می گیرید کدام قوانین بخش ها را حذف کنید، چه چیزی را حذف کنید و سپس به چه ترتیبی آنها را طبق اسلاید 7 مرتب کنید، مشکل دارم. شفاف سازی اسلایدهای کامل در اینجا: http://isites.harvard.edu/fs/docs/icb.topic540049.files/cs181_lec07_handout.pdf   | شفاف سازی هرس مبتنی بر قانون |
15142 | وظیفه من این است که نشان دهم توزیع معیار فیشر هنگامی که فرضیه صفر درست است، وقتی df افزایش مییابد، از F(k-m, N-k)$ پیروی میکند. در اینجا $k-m$ تعداد محدودیت است. بنابراین می توانم یک فرضیه صفر H0 بنویسم: $b_1=b_2=\ldots b_k=0$. و من فکر می کنم که می توانم نشان دهم که F-statistic از $F(k-m,N-k)$ با استفاده از مدل های محدود و نامحدود پیروی می کند. جایی که $F=R^2u-R^2r/(1-R^2u) (k-m/N-k)$ یا می توانم این مقدار را از جدول تست والد پیدا کنم. وقتی ارزش بحرانی =@qfdist(.95,eq.@ncoef-eq2.@ncoef,eq.@regobs- eq.@ncoef) را مقایسه میکنم. آیا فکر من درست است؟ چگونه باید از شرط تکلیف استفاده کرد که درجات آزادی افزایش می یابد؟ | توزیع معیار فیشر |
71540 | آیا می توان دو سری زمانی AR(1) را برای مثال 0.5 و 0.8 شبیه سازی کرد و همزمان این سری های زمانی را با $\rho = 0.8$ با استفاده از R همبستگی کرد؟ ts.sim <- arima.sim(list(order = c(1,0,0), ar = 0.9), n = 100) ts.sim2 <- arima.sim(n = 100, list(ar=c( 0.9))، n.start = 25) et<-rnorm(100) yt<-0.8*ts.sim+et yt2<-0.8*ts.sim2+et مطمئن نیستم که «yt» و «ts.sim» یا «yt2» و «ts.sim2» واقعاً همبستگی دارند یا خیر. توجه داشته باشید که «ts.sim» و «ts.sim2» رویکردهای کمی متفاوت از یک ایده هستند. فقط می خواستم ببینم آیا نتایج متفاوت خواهد بود یا خیر. | چگونه دو سری زمانی AR(1) همبسته را شبیه سازی کنیم؟ |
113927 | چگونه می توانم استفاده از Imputation چندگانه را بر اساس استنتاج بیزی طراحی کنم زمانی که با داده های طبقه بندی سروکار دارم و مجموعه داده من شامل مشاهدات قبلی کامل در هر ترکیب نیست؟ برای مثال من سه متغیر دسته بندی دارم x1، x2، x3، x1 {1،2،3} x2 {1،2} x3 {1،2} این 3*2*2 = 12 ترکیب مختلف است که اطلاعات کاملی ندارم برای ترکیبات (x1=2، x2=1، x3=2) و به طور مشابه دو ترکیب دیگر، بنابراین آیا می توانم از MI بر اساس استنتاج بیز استفاده کنم؟ لطفا راهنمایی کنید. x1 x2 x3 فرکانس 1 1 1 10 1 1 2 4 1 2 1 5 1 2 2 7 2 1 1 9 2 1 2 - 2 2 1 - 2 2 2 8 3 1 1 4 3 1 2 - 3 2 1 2 2 2 2 | انتساب چندگانه برای سوال داده های طبقه بندی شده |
78140 | فرض کنید میخواهیم $H_{0} را آزمایش کنیم: p = 0.5$ در مقابل $H_{1}: p = p_{1}$ (جایی که $p_{1} \gt 0.5$ دشواریهای نسبی آزمایش برای $p_ چیست؟ {1}$ نزدیک به $0.5 یا $p_{1}$ دور از $0.5 من می دانم که $p_{1}$ بیشتر از آن است $p_{0}$، هر چه قدرت به یک نزدیکتر باشد، و هر چه آنها از یکدیگر دورتر باشند، قدرت به سطح اهمیت آزمون نزدیکتر خواهد بود با این حال، هنگام آزمایش برای $p_{1}$ در دو مورد، مشکلاتی وجود دارد؟ | رابطه بین $H_{0}$، $H_{1}$ و قدرت آزمون فرضیه (یک طرفه) |
31734 | هنگام گرفتن مشتق احتمال ورود به سیستم از فیلد تصادفی شرطی، سردرگمی خاصی دارم. همانطور که در این مقاله آورده شده است http://people.cs.umass.edu/~mccallum/papers/crf-tutorial.pdf منظور من هنگام محاسبه گرادیان با توجه به پارامتر $$ \lambda_k $$ مشتق عبارت logZ است. این اصطلاح را بیاور $$ p(y,y'|x^{(i)}) $$ من مطمئن نیستم که چگونه این عبارت هنگام محاسبه گرادیان ظاهر شد. این معادله 1.22 صفحه 12 در مقاله http://people.cs.umass.edu/~mccallum/papers/crf-tutorial.pdf است. | سردرگمی در تخمین پارامتر میدان تصادفی شرطی |
112039 | من یک سوال ساده از شما دارم که مربوط به سبک است. از آنجایی که من در نوشتن مقالات تحقیقاتی مبتدی هستم، مشکل کوچکی دارم که نمی دانم چگونه یک معادله را به روشی قابل قبول نشان دهم. من یک رگرسیون OLS را اجرا می کنم، که برای آن از اثرات ثابت سال استفاده می کنم. از آنجایی که نمیخواهم هر ترکیب b*year-dummy را بنویسم، روش مناسب برای نوشتن آن در یک مقاله چیست؟ من فکر می کنم آن را به صورت زیر بنویسم: yi = β0 +β1xi+ ... + SUM(b*year-dummy) + e آیا روش استانداردی برای نوشتن این مورد وجود دارد یا معمول است فقط بگوییم رگرسیون شامل اثرات زمان ثابت در نوشتن؟ پاسخ های شما قابل قبول است :) | قالب بندی معادله رگرسیون |
112037 | این سوال بسیار ساده ای است که یکی از دوستانم از من پرسیده است. من می دانم که این یک مشکل تجزیه و تحلیل آماری است، اما من از ریاضی بدم می آید. با توجه به کل جمعیت $x$ در یک منطقه شهری، چه فرمولی برای تعیین تقریباً تعداد مردان یا زنان دگرجنسگرای مجرد بین سن ($\min$) و سن ($\max$) وجود دارد؟ اکنون به عنوان یک هدف ثانویه، چگونه میخواهید سایر صلاحیتهای رابطه (مانند تحصیلات، وضعیت شغلی و غیره) را از آن زیرمجموعه افراد وارد یا خارج کنید؟ من مطمئن هستم که ابزارهای استانداردی وجود دارد که آماردانان برای حل مشکلاتی مانند این استفاده می کنند. لطفاً الگوریتم را توضیح دهید، در نظر داشته باشید که اگر از چیزی بیشتر از جبر اولیه استفاده کنید، احتمالاً من را از دست خواهید داد :-) | چند لیسانس واجد شرایط در یک شهر؟ |
39297 | هنگام مطالعه در مورد نحوه تقریبی توزیع نمونه به روش بوت استرپ ناپارامتری برخوردم. ظاهراً می توان توزیع $\bar{X}_n-\mu$ را با توزیع $\bar{X}_n^*-\bar{X}_n$ تقریبی کرد، جایی که $\bar{X}_n^* $ نشان دهنده میانگین نمونه نمونه بوت استرپ است. سوال من این است: آیا به مرکز نیاز دارم؟ برای چی؟ آیا نمی توانم $\mathbb{P}\left(\bar{X}_n \leq x\right)$ را با $\mathbb{P}\left(\bar{X}_n^* \leq x\ تقریب کنم درست است) دلار؟ | آیا هنگام بوت استرپ نمونه به مرکز کردن نیاز است؟ |
112038 | من آزمایشی را انجام میدادم، اما دقت اعتبارسنجی بالاتری نسبت به دقت آموزشی داشتم. من یک داده 39 موس دریافت کردم و یکی را از اعتبار سنجی متقاطع کنار گذاشتم. دقت اعتبار 100٪ بود. اما وقتی آزمایش را روی کل داده های تمرین تکرار می کنم (با پارامترهای بهینه انتخاب شده توسط cv)، بالاترین دقت تمرین تنها 87.18٪ است. من تقریباً مطمئن هستم که هیچ مشکلی با کد من وجود ندارد، اما این واقعاً من را گیج کرد: (کسی می تواند ایده ای در مورد مشکلات یا توضیحات احتمالی داشته باشد؟ با تشکر! | دقت اعتبار سنجی بیشتر از دقت آموزش است |
715 | من در حال توسعه یک الگوریتم پرسپترون چند کلاسه هستم و میپرسم آیا مجموعه دادههایی وجود دارد که بتوان از آن برای آزمایش یک پرسپترون چند کلاسه استفاده کرد؟ - مجموعه داده ای که در آن کلاس ها به صورت خطی قابل تفکیک هستند و حداقل 100 نمونه یا بیشتر برای آموزش دارند؟ | مجموعه داده برای پرسپترون چند کلاسه |
34017 | من می خواهم 95٪ فواصل اطمینان را برای سانتروئیدها بر اساس شباهت Gower بین برخی از نمونه های چند متغیره (داده های جامعه از هسته های رسوبی) بدست آوریم. من تاکنون از بسته «وگان{}» در R برای به دست آوردن شباهت اصلاح شده Gower بین هسته ها استفاده کرده ام (بر اساس Anderson 2006؛ اکنون در R به عنوان بخشی از «vegdist()» گنجانده شده است. آیا کسی می داند که چگونه می توانم 95% فواصل اطمینان را برای مرکزهای مثلاً سایت های نمونه برداری بر اساس تشابه اصلاح شده Gower محاسبه کنم؟ بعلاوه، در صورت امکان، میخواهم این 95% CI را بر روی PCO ترسیم کنم که مرکزها را نشان میدهد، بنابراین مشخص است که همپوشانی دارند. برای بدست آوردن شباهت اصلاح شده Gower، من از: dat.mgower <- vegdist(decostand(dat، log)، altGower) استفاده کردم، اما تا آنجا که من می دانم، شما centroids را از `vegdist()` دریافت نمی کنید. من باید centroids بگیرم، سپس 95% CI، سپس آنها را رسم کنم... در R. Help! اندرسون، ام.جی.، کی.ای.الینگسن و بی.اچ.مک آردل. 2006. پراکندگی چند متغیره به عنوان معیاری برای تنوع بتا. Ecology Letters 9:683-693. | فواصل اطمینان در اطراف یک مرکز با تشابه Gower اصلاح شده |
78148 | من سری زمانی بیولوژیکی (طول 9 سال) از زیست توده گونه ها دارم که به طور منطقی یک الگوی فصلی را نشان می دهند. من می خواهم آنها را بر اساس تکامل فصلی معمولی آنها در چند گروه دسته بندی کنم (مانند گونه های بهار در مقابل تابستان). برای انجام این کار، به من توصیه شد که از تبدیل فوریه استفاده کنم تا سیگنال آنها را به هارمونیک های N تجزیه کنم (به عنوان مثال 3: سیکل های فصلی سالانه، دوسالانه و سه ساله) و از دامنه ها و فازهای آنها در اجزای اصلی استفاده کنم. تجزیه و تحلیل (PCA؛ که به عنوان هارمونیک ها متعامد/ناهمبسته عمل می کند). من می دانم که در حال حاضر موضوعات مشابهی در این انجمن وجود دارد، اما برخی از جنبه ها برای من نامشخص است. سؤالات من عبارتند از: (1) هنگامی که من تکامل زمانی را از اولین هارمونیک های «N» محاسبه شده از تبدیل فوریه گسسته (DFT) بازسازی می کنم، تغییرپذیری توضیح داده شده سیگنال اصلی (R2 مدل خطی بین سیگنال بازسازی شده و سیگنال اصلی). داده) گاهی فقط 0.40 («N=3») یا 0.60 («N=5») است. در تجربه شما، آیا به این معنی است که داده ها برای این رویکرد مناسب نیستند، آیا این رویکرد را باطل می کند؟ آیا پیش پردازش بیشتری وجود دارد که بتوانم برای رفع آن انجام دهم (به عنوان مثال، صاف کردن سیگنال ها، ...)؟ برخی از گونهها افزایشهای ناگهانی را با فاصله کامل از خود نشان میدهند، و من نمیدانم که آیا این نیاز به هارمونیکهای فرکانس بالاتر ندارد. آیا باید انتظار مشکلات را در آنجا داشته باشم و چگونه با آنها مقابله کنم؟ (2) علاوه بر DFT که در اینجا محدود به نظر می رسد، من استفاده از تبدیل فوریه پیوسته را از طریق الگوریتم تبدیل فوریه سریع (FFT) و کار بر روی طیف توان هر سری زمانی در نظر گرفتم. نمیدانم که آیا این به من اجازه میدهد با انتخاب بالاترین پیکهای «N» در پریودوگرام و سپس محاسبه دامنه و فاز مربوطه برای استفاده در PCA زیر، «N» به اصطلاح «هارمونیک» را انتخاب کنم... آیا که منطقی است؟ چگونه می توان از اطلاعات ارائه شده توسط یک الگوریتم FFT در R (مانند fft() یا spec.pgram()) برای اجرای PCA بعدی (یا هر روش خوشه بندی دیگری) استفاده کرد؟ [هر قطعه کد R بسیار استقبال می شود] (3) چگونه سیگنال را از هارمونیک های انتخاب شده در حالت پیوسته (FFT) بازسازی کنیم؟ من به راحتی میتوانم این کار را در مورد DFT انجام دهم، اما به طرز احمقانهای در مورد پیوسته مسدود شدهام... البته از هر قطعه کد R بسیار استقبال میشود. هر گونه کمکی در مورد این سوالات بسیار قدردانی خواهد شد. پیوندها به نمونه های عینی، به ویژه با کد R مرتبط، نیز بسیار مفید خواهند بود (همچنین نام روش یا کلمات کلیدی). متشکرم. PS: در صورت مفید بودن: سری های زمانی دارای طول مساوی هستند و از قبل پردازش شده اند تا فواصل نمونه گیری یکنواخت داشته باشند. ثابت بودن را می توان فرض کرد. هیچ روند بلندمدتی در راه نیست. من سری های زمانی را به 52 مشاهده با فاصله مساوی در سال تقسیم کردم (یعنی 468 مشاهده در طول 9 سال). | خوشه بندی سری های زمانی: تبدیل فوریه و PCA |
112030 | این سوال با این مثال که از مجموعه داده (در کتابخانه دور) و کتابخانه lme4 (هر دو در R) استفاده می کند، به بهترین وجه نشان داده می شود. این مدل فقط رهگیری فقط برای اهداف توضیحی است. library(lme4) data library(raway) data(epilepsy) log(mean(epilepsy$sizures))# intercepted intercept in intercept only model = 2.5544 (Ep1a=glm(sizures~1,family=poisson,data=epilepsy))#intercept مدت = 2.554 همانطور که انتظار می رود. (Ep1b=glmer(sizures~1+(1|id),family=poisson,data=epilepsy))#intercept term =2.214. -------نتایج---- 1. تماس ساده glm: glm (فرمول = تشنج ~ 1، خانواده = سم، داده = صرع) ضرایب: (برق) 2.554 مدل مخلوط خطی تعمیم یافته متناسب با حداکثر احتمال [' glmerMod'] خانواده: poisson ( log ) فرمول: تشنج ~ 1 + (1 | id) اثرات تصادفی: نام گروه ها Std.Dev. id (Intercept) 0.7795 تعداد obs: 295، گروه ها: id، 59 Fixed Effects: (Intercept) 2.214 درک من این است که گنجاندن عبارت تصادفی (id) به مدل می گوید که اندازه گیری های مکرر در سراسر موضوع وجود دارد (در این). مورد). من می توانم درک کنم که این امکان عدم استقلال داده ها را فراهم می کند: کمتر از 295 نقطه داده مستقل وجود دارد. اما چرا مقدار رهگیری اثر ثابت کاهش می یابد؟ آیا شرایطی وجود دارد که افزایش یابد؟ من از وب سایت زیر توجه می کنم: http://www.danielezrajohnson.com/glasgow_workshop.R موارد زیر را در رابطه با مدلی که با مدلی که در بالا مشخص کرده ام نامرتبط است (پیشنهاد می کنیم گوینده متوسط را جستجو کنید): > . .. این مدل دارای افکت های تصادفی برای گوینده و کلمه است متغیر کج همیشه چند کلمه بسیار متداول وجود دارد که ممکن است به نفع یا ناخوشایند پاسخ باشد. در مثال واقعی من، همه ضرایب (از یک دو عامل طبقهبندی، طراحی متقاطع با اثر تصادفی قطع و شیب - بهطوری که وابستگیهای DistClaz در ID وجود دارد اما Treat مستقل است) به طور قابلتوجهی کمتر از مقادیر میانگین مربوطه هستند. آن ترکیبات عاملی که در داده های خام آشکار است. نتایج----------------------------------- مدل ترکیبی خطی تعمیم یافته متناسب با حداکثر احتمال ['glmerMod'] خانواده : poisson ( log ) فرمول: RCP ~ درمان شده * DistClaz + (1 + DistClaz | ID) انحراف AIC BIC logLik 69246.20 69307.43 -34611.10 69222.20 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr ID (Intercept) 12.945 3.598 DistClazAZE 11.418 3.379 -0.63 DistClazRef 8.769 2.961 -0.80 0.71 تعداد obs: 1215، گروه ها: ID، 344 افکت St. خطای z مقدار Pr(>|z|) (Intercept) 2.2528 0.4240 5.313 1.08e-07 *** TreatedTreated -2.1244 0.4916 -4.321 1.55e-05 *** DistClazAZE 1.2595 1.259 0.00382 ** DistClazRef 2.6302 0.3614 7.277 3.41e-13 *** TreatedTreated:DistClazAZE 0.3613 0.6110 0.591 0.55428 0.55228 TreatedTreated7Ref610C 1.682 0.09248. --- همبستگی اثرات ثابت: (Intr) TrtdTr DsCAZE DstClR TT:DCA TreatedTrtd -0.862 DistClazAZE -0.500 0.431 DistClazRef -0.828 0.714 0.556 0.555ZE000T: -0.901 -0.501 TrtdTrt:DCR 0.712 -0.830 -0.478 -0.860 0.583 ----------------------------------- -------END اینها گزارش (میانگین) ترکیبات هستند: نتایج --------------------------------------- CE AZE Ref No EMB 5.454940 5.808012 6.273650 تحت درمان با 3.626005 4.387088 5.253717 --------------------------------------------پایان مقدار رهگیری اثر ثابت (2.2528) مربوط به No EMB:CE (میانگین = 5.4549) است - اما آیا این مربوط به یک شناسه متوسط است؟ هر گونه اشاره خواهد شد بسیار قدردانی می شود. متشکرم. | چرا و چگونه گنجاندن اثرات تصادفی در مدلهای مختلط بر عبارت رهگیری اثر ثابت تأثیر میگذارد؟ |
39299 | من آزمایشی دارم که چند هزار نقطه داده تولید می کند که سپس 5 بار تکرار کرده ام. اکنون تعجب می کنم که چگونه می توان یک میانه واحد را برای خلاصه کردن همه آنها محاسبه کرد. 1. من می توانم داده های پنج تکرار را ترکیب کنم و یک میانه برای آن محاسبه کنم. 2. می توانم برای هر آزمایش یک میانه محاسبه کنم و سپس آنها را میانگین بگیرم. 3. می توانم برای هر آزمایش یک میانه محاسبه کنم و سپس میانه آن ها را بگیرم. 4. روش دیگری که به آن فکر نکرده ام. کدام روش به عنوان روشی برای ترکیب داده ها منطقی تر است؟ چگونه می توانم یک فاصله اطمینان برای میانه تولید کنم؟ من فرض می کنم نوعی روش بوت استرپ منطقی است، زیرا توزیع داده ها عادی نیست. | یک میانه را برای داده های پنج تکرار آزمایشی محاسبه کنید |
31735 | سوال قبلی ام را اینجا مرتبط کردم. با داشتن رگرسیون خطی مسلط، سعی می کنم هر آنچه را که می توانم در مورد رگرسیون لجستیک یاد بگیرم و با مشکلاتی مواجه هستم که ضرایب عمدتا بی فایده را به اطلاعات معنی دار تبدیل می کند. من در سوال قبلی خود در مورد ترسیم نمودار منحنی احتمال برای هر جایگشت یک مدل لاجیت پرسیدم. با این حال، من فقط روی منحنی اصلی کار می کردم و مشکلاتی داشتم. اگر من یک لاجیت را فقط با یک پیشبین اجرا میکردم، موارد زیر را اجرا میکردم: mod1 = glm(factor(win) ~ as.numeric(bid)، data=mydat، family=binomial(link=logit)) همه .x <- expand.grid(win=unique(win), bid=unique(bid)) y.hat.new <- predict(mod1, newdata=all.x, type=response) plot(bid<-000:250,predict(mod1,newdata=data.frame(bid<-c(000:250)),type=response), lwd =5، col=blue، type=l) با این حال، با چند پیش بینی کننده چطور؟ من سعی کردم از مجموعه داده mtcars برای خراب کردن استفاده کنم و نتوانستم آن را دریافت کنم. هر گونه پیشنهاد در مورد نحوه رسم منحنی احتمال اصلی برای مدل لاجیت. head(mtcars) m1 = glm(در مقابل ~ disp + wt، data=mtcars، family=binomial(link=logit)) خلاصه (m1) all.x <- expand.grid(vs=unique(mtcars$vs) , disp=unique(mtcars$disp)، wt=unique(mtcars$wt)) y.hat.new <- predict(m1, newdata=all.x, type=response) plot(disp<-000:250,predict(m1,newdata=data.frame(disp<-c(000:250), wt<-c( 0,250)),type=response), lwd=5, col=blue, type=l) EDIT = یا سوال قبلی من چیزی است که نیاز دارم انجام دادن از آنجایی که Y = B0 + B1X1 + B2X2، تغییر یک واحد در X1 با تغییر exp(B1) در Y همراه است، صرف نظر از مقدار B2. در این صورت آیا این امکان وجود دارد که سؤال اصلی من واقعاً تمام کاری باشد که باید انجام شود. بابت حماقتم عذرخواهی می کنم اگر واقعا اینطور است. | منحنی احتمال از مدل لاجیت |
68217 | ## سوال: آیا هنگام تخمین تجربی FDR از تصادفی سازی مکرر مجموعه داده های اصلی برای لغو روابط واقعی، قاعده ای برای انتخاب آستانه نرخ کشف نادرست برای پذیرش نتایج وجود دارد؟ ## مثال: بیایید بگوییم که من سه مجموعه داده مرتبط دارم: `A` = $\{A_0 \dots A_n\}$ `B` = $\{B_0 \dots B_n\}$ `C` = $\{C_0 \dots C_n\}$ مجموعهها به این صورت پیوند داده شدهاند که مقایسهها فقط بین اعضای این مجموعه معتبر است: «comparison_sets_real» = $\{A_i، B_i، C_i\}$ من یک توزیع (REAL) از نتایج دارم که با استفاده از comparison_sets_real ایجاد شده است. سپس ترتیب مجموعههای «A»، «B» و «C» را به هم میریزم به طوری که «comparison_sets_null» = $\{A_r، B_r، C_r\}$ نشاندهنده همان مجموعه دادهها است، اما روابط واقعی لغو شدهاند. تعداد زیادی توزیع تصادفی تولید می شود (~1000) و یک توزیع میانه (NULL) از مجموعه توزیع های تصادفی مشتق می شود. از مقایسه توزیعهای «REAL» و «NULL» با استفاده از یک هیستوگرام تجمعی معکوس، میتوانیم یک آستانه FDR به تدریج دقیقتر ایجاد کنیم [1]. **آیا دستورالعمل استانداردی شبیه به $\alpha$ مقادیر p وجود دارد؟** ### پانوشت: 1. در تصاویر ارائه شده، تکرار تصادفی سازی 15 تنظیم شده است تا زمان های محاسبه کاهش یابد. نتایج واقعی با 1000 تکرار ایجاد می شود. | آستانه پذیرفته شده برای استفاده برای پذیرش نتایج پس از تخمین تجربی FDR از تصادفی سازی مکرر مجموعه داده های اصلی؟ |
78149 | من یک رگرسیون خطی را اجرا می کنم. متغیر پاسخ یک نسبت است و صفرهای بسیار زیادی دارد. متغیر پیش بینی کننده نرمال توزیع شده است. دو متغیر من چیزی شبیه به این هستند: set.seed(50) y <- sample(c(rep(0, 20)، seq(0, 1، by=0.01))، 100) set.seed(50) x < - rnorm(100) و مدل من چیزی شبیه به این است: summary(lm(y ~ x)) Call: lm(formula = y~ x) Residuals: Min 1Q Median 3Q Max -0.42550 -0.31907 -0.02064 0.29710 0.59214 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.410990 0.033378 12.313 <2e-16 *** x -0.006252 0.033574 -0.186 0.853 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 0.3316 در 98 درجه آزادی چندگانه R-squared: 0.0003537، تنظیم شده R-squared: -0. -statistic: 0.03468 در 1 و 98 DF، p-value: 0.8527 آیا آماری وجود دارد که نشان دهد مدل صفر است؟ | چگونه متوجه شویم که مدل صفر است؟ |
47265 | در مجموعه داده ای که من با آن کار می کنم یک تعامل سه طرفه قابل توجه وجود دارد. این تعامل شامل متغیرهای مقوله ای و کمی است. من به سمت شیبهای ساده و این وبسایت راهنمایی شدهام، اما توضیحها را کم میدانم. من فقط یک پیشینه اولیه در آمار دارم و گوگل برای نمونه های دیگر چندان مفید نبوده است. هر گونه بینشی در مورد چگونگی شروع درک این تعامل بسیار استقبال خواهد شد، به ویژه با استفاده از R به جای SPSS. پیشاپیش از دانشجوی سال پایینی که ناگهان خود را بالای سرش پیدا کرده، بسیار سپاسگزارم! | چگونه یک تعامل 3 طرفه را بررسی کنیم؟ |
47261 | دارم برای امتحان آماده میشم و از امتحانات قدیمی به این مشکل برخوردم. من واقعاً نمی دانم چگونه آن را حل کنم. دنباله ای از متغیرهای تصادفی $\{X_n\}_{n=1} ^\infty$ تعریف شده در فضای احتمال $([0,1],B[0,1],\lambda)$ را در نظر بگیرید که در آن $\lambda $ اندازه گیری Lebesgue است. X_n(\omega) = 1_{[1/2-(2n)^{-1}، 1/2+(2n)^{-1} ]}(\omega)$ را برای همه $\omega \in تعریف کنید [0،1] دلار. ثابت کنید که $X_n \xrightarrow{a.s.}0$ به عنوان $n \rightarrow \infty$ است. | مشکل در a.s. همگرایی |
31191 | امیدوارم این سوال احمقانه ای نباشد، برای پیگیری یک تعامل سه جانبه در یک مدل جلوه های ترکیبی راهنمایی می خواهم. من مدلهایم را بهصورت تدریجی میسازم، مانند این: lmer0<- lmer(predval ~ 1 + (1 + Quantile|Subj)، data = d) lmer1<- update(lmer0, .~. + epoch) lmer2<- بهروزرسانی (lmer1، .~. + Quantile) lmer3<- به روز رسانی (lmer2.، .~. + همخوانی) lmer4<- به روز رسانی(lmer3, .~. + FixDur) lmer5<- به روز رسانی(lmer4, .~. + Quantile:Congruence) lmer6<- update(lmer5, .~. + Quantile:FixDur) lmer7<- به روز رسانی(lmer6, .~ + Congruence:FixDur) lmer8<- به روز رسانی(lmer7, .~. + Quantile:Congruence:FixDur) این چیزی است که وقتی این مدل ها را در برابر یکدیگر آزمایش می کنم، به دست می آورم. همه اصطلاحات تعامل مدل را بهبود می بخشد (با کاهش مقادیر AIC/BIC نشان داده می شود). این چاپ نشان می دهد که مدل کاملاً تعاملی (lmer8) بهترین مدل تا کنون است. Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) lmer0 5 2062522 2062573 -1031256 lmer1 6 2053156 2053217 -1026572 9368.2240 2240 *** 1 2053144 2053215 -1026565 14.2730 1 0.0001581 *** lmer3 8 2051857 2051938 -1025921 1288.7862 1 < 2.1 2.2e-401 *** 2051716 -1025791 259.3176 3 < 2.2e-16 *** lmer5 12 2051606 2051728 -1025791 0.0284 1 0.8662848 lmer6 151205 1516 -1025569 443.8425 3 < 2.2e-16 *** lmer7 18 2051152 2051335 -1025558 21.9526 3 6.673e-05 *** lmer8 21 2051159 2050506 460.9543 3 < 2.2e-16 *** این آخرین اصطلاح در مدلی است که واقعاً برای من جالب است - تعامل سه طرفه. متأسفانه من نمی توانم تصویر را در اینجا جاسازی کنم (تازه کار)، اما شما می توانید نموداری از داده ها را پیدا کنید که **همخوانی** (شکل) توسط **Quantile** (شیب رنگ/محور x) توسط **مدت تثبیت ** (facet_grid) در اینجا:  کاری که فکر می کنم اکنون باید انجام دهم به شرح زیر است: * همخوانی x Quantile 2-way را در هر سطح از FixDur آزمایش کنید (یعنی مقایسه مدل جدید را در هر سطح از FixDur شروع کنید، این هر ستون در نمودار بالا است). * برای آن تعاملات دو طرفه که مهم هستند (همه آنها هستند)، با آزمون های t در هر Quantile (یعنی 20 آزمون t زوجی در FixDur) دنبال کنید. من خیلی مطمئن نیستم که چگونه اینها را با استفاده از lmer انجام دهم، من اساساً فقط از تابع t.test استفاده می کنم. مسئله آشکار در این مورد، مقایسه های متعدد خواهد بود. اساساً من میخواهم 20 آزمون t را در هر سطح از مدت زمان تثبیت انجام دهم (تا بتوانم چیزی در مورد دوره زمانی تأثیراتم بگویم). این تعداد زیادی تست t است، بنابراین استفاده از اصلاح Bonferroni یا Scheffe من را می کشد! آیا کسی پیشنهادی دارد که چه روش یا رویکردی برای مقابله با این مشکل مناسب است؟ این یک حدس است، اما من احساس میکنم که همزمانی p-valهای قابل توجه باید برای چیزی مهم باشد. یعنی اگر چندک هایی که مقدار t-val معنی دار را در 0.05 به دست می دهند، همه در یک ردیف رخ می دهند (یعنی اثر ظاهر شده را مانند ستون اول نمودار نشان می دهد)، این باید به ما اطمینان دهد که آنها از نوع 1 نیستند. خطاها آیا من در یک جاده خطرناک می روم؟ این یک پست بسیار طولانی است متاسفم. من از همه افکار در مورد هر بخشی از آن استقبال می کنم! پیشاپیش از شما ممنونم | دنبال کردن یک تعامل سه طرفه با مقایسه مدل (مخلوط). |
87595 | در این پاسخ، زیر: چرا عبارت خطی را شامل شود؟ در پاسخ اشاره می کند که رابطه را می توان به دو صورت نوشت. بعداً می گوید نقطه ای که $x=b$ رأس سهمی است. توجه به اینکه یک رابطه درجه دوم را می توان به دو روش نوشت: > > $y=a_0+a_1x+a_2x^2=a_2(x−b)^2+c$ > (که در آن، ضرایب را معادل سازی می کنیم، روشن کننده است. $−2a_2b=a_1$ و $a_2b^2+c=a_0$ را پیدا کنید. > مقدار $x=b$ مربوط به یک انتها جهانی از رابطه > است (از نظر هندسی، راس سهمی را تعیین می کند). > > اگر عبارت خطی $a_1x$ را در نظر نگیرید، احتمالات به > $y=a_0+a_2x^2=a_2(x−0)^2+c$ > کاهش می یابد (که در حال حاضر، بدیهی است، $c =a_0$ و فرض بر این است که مدل دارای یک عبارت > ثابت $a_0$ است. یعنی شما $b=0$ را مجبور می کنید. > > با توجه به این موضوع، سؤال شماره 1 به این موضوع مربوط می شود که آیا مطمئن هستید که > اکستروم جهانی باید در $x=0$ رخ دهد. اگر چنین هستید، می توانید با خیال راحت > عبارت خطی $a_1x$ را حذف کنید. در غیر این صورت باید آن را درج کنید. سوال من این است: نسخه بتا از کجا آمده است، یا چگونه به دست آوردید: $a_2(x−b)^2+c$ از $y=a_0+a_1x+a_2x^2$ | چگونه می توان رابطه درجه دوم را به دو صورت نوشت |
108340 | من قسمت اول سوال را قبلا انجام داده ام فقط در مورد قسمت دوم به کمک نیاز دارم. شما در یک اداره سرشماری ایالات متحده خواندید که فاصله اطمینان 99٪ برای میانگین درآمد در سال 2005 خانواده های آمریکایی که سرپرست آنها یک فرد تحصیلکرده دانشگاهی حداقل 25 سال دارد، 1651±100272 بود. با توجه به این فاصله، آیا می توانید فرضیه صفر مبنی بر اینکه میانگین درآمد در این گروه 95000 دلار است را رد کنید؟ فرضیه جایگزین آزمون چیست؟ سطح اهمیت آن چقدر است؟ من پاسخ دادم که شما می توانید فرضیه صفر را در سطح 0.01 رد کنید زیرا فاصله اطمینان بین 98621 و 101923 است و 95000 در آن محدوده نیست. من در مورد فرضیه جایگزین گیج هستم که Ha>95000 است یا Ha برابر 95000 نیست. همچنین چگونه می توانم سطح اهمیت فرضیه صفر را بدست بیاورم؟ خیلی ممنون از همه. | سوال آزمون فاصله اطمینان و اهمیت |
108347 | من میخواهم تکنیکهایی را برای انتخاب ویژگی (متغیر مستقل مهم X) با استفاده از رگرسیون حداقل مربع 2 جزئی (PLS2R) برای مجموعه دادههای بزرگ ایجاد کنم. در ابتدا سعی کردم از رگرسیون خطی چند متغیره با استفاده از بسیاری از متغیرهای مستقل (X) و بسیاری از متغیرهای وابسته (Y) استفاده کنم. بنابراین من مدل رگرسیون متفاوتی را برای Y1، Y2، Y3 و غیره دریافت کردم. در اینجا Y1، Y2 و Y3 به طور جداگانه مدل می شوند و ویژگی ها به طور جداگانه برای هر Y1 انتخاب می شوند. بهجای مدلسازی جداگانه، میخواهم پاسخهایم را در ماتریس تکی Y و مدل با متغیرهای مستقل ماتریس X ذخیره کنم. بنابراین یک مدل رگرسیون حداقل مربعات جزئی یا یک مدل دو بلوکی Y~X دریافت خواهم کرد. آیا استفاده از مدل بلوک با استفاده از PLS2R (همزمان با استفاده از ماتریس X و Y) اطلاعات بیشتری را برای انتخاب ویژگی در مقایسه با سایر تکنیکهای رگرسیون کلاسیک فراهم میکند؟ و آیا می توان از نظر ریاضی نشان داد که روش PLS2R بهتر از سایر روش های رگرسیون چند متغیره است؟ اگر مرجع یا پیشنهاد خوبی دارید، لطفاً به من اطلاع دهید، خوشحال می شوم. پیشاپیش ممنون | چگونه می توانم از نظر ریاضی نشان دهم که رگرسیون حداقل مربعات جزئی بهتر از سایر رگرسیون های حداقل مربعات معمولی است؟ |
31197 | من می خواهم از یک خرده مقیاس 5 ماده ای برای اندازه گیری اثرات یک برنامه مداخله رفتاری بر استفاده از راهبردهای رفتاری استفاده کنم. وقتی آن را در مدلها تجزیه و تحلیل میکنم، نتایج قابلتوجهی به دست میآورم، اما پایایی این اندازهگیری در 0.5 بسیار پایین است و میانگین همبستگی بین آیتمی زیر 0.2 است. آیا می توانم از این معیار استفاده کنم یا باید آن را از تمام تجزیه و تحلیل های بعدی حذف کنم؟ متشکرم. | آیا می توانم از معیاری استفاده کنم که قابلیت اطمینان پایینی دارد؟ |
68509 | دو متغیر برای من شناخته شده بود: «نمونه تاریک» و «نمونه روشن» برای اینکه ببینم آیا فاصله اندازهگیری شده اجزای نمونه بر سایه نمونهها تأثیر میگذارد، فاصله مؤلفههای سه نمونه تیره و سه نمونه روشن را اندازهگیری کردم. * من هر نمونه را سه بار اندازه گرفتم - برای تکرارپذیری - * میانگین اندازه گیری ها را برای هر نمونه گرفتم. * سپس Std Dev از 6 میانگین * را گرفتم و سپس واریانس ترکیبی 6 نمونه را گرفتم. خیلی ..... نور#1 - 4.56mm، 4.57mm، 4.56mm = میانگین 4.56 نور#2 - 4.47mm، 4.45mm، 4.43mm = میانگین 4.45 نور#3 - 4.37mm، 4.36mm، 4.37mm = میانگین 4.37 تیره # 1 - 4.47 میلی متر، 4.45mm، 4.42mm = میانگین 4.45 تیره#2 - 4.40mm، 4.41mm، 4.42mm = میانگین 4.41 تیره#3 - 4.41mm، 4.44mm، 4.41mm = میانگین 4.42 * سپس Std Dev of Light را گرفتم. ' و Std Dev of Dark به معنای '= است 0.02` * سپس واریانس ترکیبی نمونه ها را گرفتم: $$(3-1)(0.04) + (3-1)(0.02) / (3-1) + (3-1) = 0.03$$ آیا این استفاده صحیح از واریانس تلفیقی؟ | آیا در این شرایط باید از واریانس ترکیبی استفاده کنم؟ |
112034 | من یک مجموعه داده دارم که دارای اعداد بودجه برای سازمان های مختلف است. اعداد از کمتر از یک میلیون تا صدها میلیون متغیر است. مجموعه داده همچنین اطلاعاتی در مورد بخش های مختلف سازمان دارد. به عنوان مثال تعداد کارکنان، تعداد دارایی هایی که آنها نگهداری می کنند و غیره دارد. من می خواهم بتوانم این سازمان ها را با یکدیگر با استفاده از یک نمره عددی نهایی که بر اساس متغیرهای بودجه، کارکنان و غیره است، مقایسه کنم. چیزی است که من فکر می کنم $$\frac{1}{\Sigma_i w_i} \Sigma_i w_ix_i$$ که در آن $x_i$ متغیر عادی شده است (بودجه، شماره از کارکنان و غیره) و $w_i$ وزنی است که به هر متغیر اختصاص داده شده است. تابع دقیق برای محاسبه نمره نهایی را می توان تغییر داد. من به کمک نیاز دارم تا یک تابع عادی سازی کنم که نه تنها هر متغیر را در محدوده مشخصی نرمال می کند (مثلاً 0-1 یا 1-10، مهم نیست تا زمانی که همه متغیرها در آن محدوده نرمال شوند)، بلکه این کار را انجام می دهد. همچنین در برابر تغییرات داده ها یا اضافه شدن حذف یک سازمان انعطاف پذیر باشید. | عادی سازی یک مجموعه داده |
39292 | آیا میتوان یک جفت فرآیند تصادفی را با افزایشهای مستقل آلفا پایدار و مقادیر پارامتر آلفای مختلف (شاخص پایداری) تعریف کرد (مانند یک حرکت براونی و یک فرآیند کوشی یا لوی) که همبستگی دارند؟ | فرآیندهای آلفا پایدار با مقادیر آلفای مختلف مرتبط است |
34012 | من یک نقشه ساده خود سازماندهی دارم که روی آن کار کرده ام. این یک نورون خروجی برای تمام 26 حرف دارد، و وقتی من 26 نمونه (یک نمونه برای هر حرف) به آن ارائه میدهم، به سرعت با نرخ خطای زیر 1٪ آموزش داده میشود. نسبتاً دقیق است، اما وقتی میخواهم نمونههای بیشتری را اضافه کنم، یک نمونه برای هر نورون خروجی، کمترین میزان خطای ممکن تا حدود 37 درصد میرسد. حتی وقتی از نرخ یادگیری رو به زوال استفاده می کنم، این کار را انجام می دهد. حتی اگر یک نمونه دیگر اضافه کنم تا به جای 26، 27 داشته باشم، آموزش روی نرخ خطای حدود 16 درصد گیر می کند. من نمی دانم چرا به محض اینکه نمونه های بیشتری از تعداد نورون های خروجی دارم، نمی توانم آن را به درستی آموزش دهم. من از روش یادگیری ذهنی استفاده می کنم، اما وقتی به روش افزایشی تغییر می کنم، همین اتفاق می افتد. من هنوز یک مبتدی با شبکه های عصبی هستم، بنابراین شاید چیزی را به درستی درک نمی کنم. هر گونه کمکی بسیار قدردانی خواهد شد! | چرا زمانی که تعداد نمونهها از نورونهای خروجی بیشتر است، یک نقشه خودسازماندهنده نمیتواند دست خط را به میزان خطای قابل قبول تشخیص دهد؟ |
34014 | پس از انجام تحلیل عاملی، تصمیم میگیرم از آن عامل برای آزمایش یک فرضیه استفاده کنم. با این حال، من مطمئن نیستم که نوع داده امتیاز Factor چیست (به عنوان مثال، اسمی، مقیاس، و غیره). آیا می توانم طبق معمول آزمون t یا ANOVA انجام دهم؟ | نمره عاملی در چه سطحی از اندازه گیری است؟ |
31198 | ما فرآیندی داریم که در هر مرحله، مجموعه ای از عناصر به کاربر ارائه می شود، کاربر یکی را انتخاب می کند، انتخاب او ثبت می شود و دور بعدی با مجموعه جدیدی از عناصر شروع می شود. به عنوان مثال: 1. {20,50,80} و کاربر 80 را انتخاب کرد 2. {80,110,140} و کاربر دوباره 80 را انتخاب کرد 3. ... می خواهیم این فرضیه را بررسی کنیم که آیا کاربر عناصر بزرگ را ترجیح می دهد یا خیر. شما می توانید فرض کنید که ما مراحل زیادی داریم. پیشنهاد زیر چگونه است؟ * در هر مرحله MEAN و STD مقادیر ارائه شده را محاسبه کنید. * عادی سازی عناصر و انتخاب در واحدهای استاندارد، به عنوان مثال standard_value = (value-MEAN) / STD به عنوان مثال: در (1) بالای مورد استفاده -1 را انتخاب کرد و در (2) +1 را انتخاب کرد * تعداد دفعات هر کدام را انتخاب کرد. واحد استاندارد انتخاب شده و نمودار پراکندگی رسم می شود. به عنوان مثال، ما نقاطی مانند: (-3.5،0)، (-1.3، 2)، (0.4)، (1،7)، (2،10) را ترسیم می کنیم، آیا این خیلی ساده است؟ | تجزیه و تحلیل الگوی انتخاب |
47266 | من مجموعه ای از داده ها دارم که نشان دهنده زوال نمایی است. من می خواهم یک تابع نمایی $y = Be^{ax}$ را به این داده برازم. من سعی کردهام متغیر پاسخ را تبدیل به log کنم و سپس از حداقل مربعها برای جا دادن یک خط استفاده کنم. با استفاده از یک مدل خطی تعمیم یافته با یک تابع پیوند ورود به سیستم و یک توزیع گاما در اطراف متغیر پاسخ. و با استفاده از حداقل مربعات غیر خطی. من برای دو ضریب خود با هر روش پاسخ متفاوتی دریافت می کنم، اگرچه همه آنها مشابه هستند. جایی که من دچار سردرگمی هستم این است که مطمئن نیستم کدام روش و چرا بهترین است. آیا کسی می تواند این روش ها را مقایسه و مقایسه کند؟ متشکرم. | برازش تابع نمایی با استفاده از حداقل مربعات در مقابل مدل خطی تعمیم یافته در مقابل حداقل مربعات غیرخطی |
72228 | معیار خوبی برای گسترش در یک فضای چند بعدی چیست؟ در یک بعد تک بعدی _واریانس_ معیاری است که من به آن نیاز دارم، اما در یک فضای چند بعدی به چیزی بیش از واریانس نیاز دارم. توجه داشته باشید که در یک بعد، من به چیزی متفاوت از محدوده _ پوشش داده شده توسط نقاط داده نیاز دارم. ابر مکعبی را در نظر بگیرید که فضای تمام نقاط داده ممکن را نشان می دهد (همه ویژگی ها به مقادیر در بازه $(0,1)$ محدود می شوند). من به اندازه ای از گسترش نیاز دارم که زمانی که تمام گوشه های مکعب به طور مساوی پر شده باشند (و هیچ نقطه داده دیگری در داخل مکعب وجود ندارد) بهینه باشد. وقتی فقط دو گوشه مخالف پر می شوند، همه واریانس ها حداکثر خواهند بود، اما این چیزی نیست که من به آن نیاز دارم. همچنین جمعیتی که همه گوشهها را پوشش میدهد، اما همچنین حاوی نقاط بیشتری به سمت وسط مکعب است، باید دارای گسترش کمتری باشد. اولین برداشت من این است که همه مقادیر را در مورب اصلی ماتریس کوواریانس جمع کنم و همه مقادیر دیگر (همه کوواریانس های مناسب) را کم کنم. با این حال، این ایده بسیار موردی است و نمیدانم آیا این فکر در جهت درستی است یا خیر. لطفاً به من کمک کنید تا معیار مناسبی برای گسترش/واریانس در یک فضای چند بعدی پیدا کنم. | اندازه گیری گسترش یا واریانس چند بعدی |
108346 | من در حال انجام یک متاآنالیز مطالعات مشاهده ای هستم. از آنجایی که بیماری که من روی آن کار می کنم مراحل مختلفی دارد، برخی از مطالعات OR (95% CI) را برای هر مرحله به طور جداگانه در مقایسه با یک جمعیت کنترل منفرد (مشترک) گزارش کردند. نمیدانم که آیا میتوانیم این دو OR (و 95٪ CI آنها) را با هم ترکیب کنیم، زیرا آنها دو گروه مورد اما یک گروه کنترل را منعکس میکنند. برخی اطلاعات دیگر: * حجم نمونه برای هر گروه مورد متفاوت است. * ما اندازه نمونه را برای هر یک از گروه ها داریم، اما فراوانی مواجهه را نداریم (در غیر این صورت می توانیم فقط از داده های خام استفاده کنیم). * **لطفاً توجه داشته باشید که من برای ترکیب OR ها مشکلی ندارم، اما صرفاً ترکیب دو OR بدون در نظر گرفتن اینکه هر دو گروه کنترل یکسانی دارند، باعث باریک شدن 95% CI و اضافه وزن مطالعه در تجزیه و تحلیل می شود. هر ایده ای؟ | ترکیب دو نسبت شانس با یک گروه کنترل |
31190 | اعتبار سنجی متقاطع K-fold را می توان برای تخمین قابلیت تعمیم یک طبقه بندی کننده مورد استفاده قرار داد. آیا می توانم (یا باید) یک واریانس تلفیقی را از تمام اجراهای اعتبارسنجی محاسبه کنم تا برآورد بهتری از واریانس آن بدست آوریم؟ اگر نه، چرا؟ من مقالاتی پیدا کرده ام که از انحراف استاندارد ادغام شده در اجرای اعتبار متقاطع استفاده می کنند. من همچنین مقالاتی پیدا کرده ام که به صراحت بیان می کنند که هیچ برآورد کننده جهانی برای واریانس اعتبار سنجی وجود ندارد. با این حال، من همچنین مقالاتی پیدا کردهام که برخی برآوردگرهای واریانس را برای خطای تعمیم نشان میدهند (هنوز در حال خواندن و تلاش برای درک این مقاله هستم). واقعاً مردم در عمل چه می کنند (یا گزارش می دهند)؟ **ویرایش:** وقتی از CV برای اندازهگیری خطای طبقهبندی خام استفاده میشود (یعنی یک نمونه به درستی برچسبگذاری شده است یا نه؛ به عنوان مثال درست یا نادرست) پس ممکن است صحبت در مورد واریانس تلفیقی منطقی نباشد. با این حال، من در مورد موردی صحبت می کنم که در آن آماری که ما تخمین می زنیم دارای یک واریانس تعریف شده است. بنابراین، برای یک برابر داده شده، میتوانیم هم مقداری برای آمار و هم یک تخمین واریانس داشته باشیم. به نظر نمی رسد که این اطلاعات را کنار بگذاریم و فقط آمار متوسط را در نظر بگیریم. و در حالی که میدانم میتوانم یک تخمین واریانس با استفاده از روشهای بوت استرپ بسازم، (اگر خیلی اشتباه نکنم) با انجام این کار باز هم واریانسهای تاشو نادیده گرفته میشود و فقط تخمینهای آماری را در نظر میگیرد (به علاوه نیاز به قدرت محاسباتی بسیار بیشتری دارد). | برآوردهای واریانس در اعتبار سنجی متقاطع k برابر |
31195 | من از $\chi^2$ برای تجزیه و تحلیل مجموعه ای از داده های جمع آوری شده در 4 دوره زمانی استفاده می کنم. دو متغیر مستقل هستند - هر رویداد به عنوان خوب یا بد طبقه بندی می شود. ما می خواهیم ثابت کنیم که مداخله باعث افزایش رویدادهای خوب و کاهش رویدادهای بد شده است، یا حداقل افزایش رویدادهای خوب از رویدادهای بد پیشی می گیرد. در اینجا نمونهای از آنچه ممکن است دادهها به نظر برسد آمده است: خوب بد m1 1035 2278 m2 1152 2643 m3 1189 2917 m4 1125 2974 یک آزمون $\chi^2$ 15 را برمیگرداند که باعث میشود من فکر کنم نتیجه قابل توجه است، اما تغییر انجام نمیشود اصلا خیلی مهم به نظر نمیرسه در واقع، فکر نمیکنم موردی وجود داشته باشد که اصلاً بهبودی حاصل نشده باشد. من فکر می کنم که این ممکن است به این دلیل باشد که $N$ من در هر اندازه گیری متفاوت است (اگرچه فکر می کردم $\chi^2$ برای آن کنترل می شود). همچنین برای من عجیب به نظر می رسد که اگر من به سادگی اعشار را روی دو مکان جابجا کنم (در نتیجه N خود را تغییر دهم اما نسبت نتایج خوب را به بد تغییر دهم) سپس $\chi^2=.15$ دریافت می کنم که به چیزی که می خواهم نزدیکتر است. انتظار می رود. می دانم که باید رویکردم را به شدت تغییر دهم. چگونه می توانم این مقایسه را انجام دهم؟ آیا باید از دو آزمون تی دانشجویی مستقل استفاده کنم؟ یا شاید فقط از ضریب همبستگی برای هر ستون و ضریب تعیین استفاده کنید؟ پیشاپیش از کمک شما متشکرم و اگر چیزی نامشخص است به من اطلاع دهید. ویرایش: در اینجا یک فکر وجود دارد: آیا باید معیارهایی را برای بهبود مورد انتظار تنظیم کنم، چیزی حدود 3-5٪ افزایش (متناسب با $N$) در هر اندازه؟ به این ترتیب مقادیر مورد انتظار من در $\chi^2$ من ممکن است با دقت بیشتری منعکس کننده چیزی باشد که می خواهم نشان دهم. ویرایش برای روشن شدن: درصد رویدادهای خوب در مقایسه با بد نسبت به معیارها: 31٪، 30٪، 28٪، 27٪ واضح است که با توجه به نسبت خوب به بد، بهبودی حاصل نشده است، بنابراین از چه آزمایشی باید استفاده کنم. این را نشان دهد؟ | آیا از آزمون آماری اشتباه استفاده می کنم؟ |
68501 | من سعی کردم نتیجه ای را در رگرسیون در `LIBSVM` به دست بیاورم، و همین مشکل را در داده های تک ویژگی یا داده های چند متغیره دارم. فرض کنید من سعی میکنم قیمت چیزی را پیدا کنم، و دادههای مربوط به روز N$ را دارم. من قیمت روز ($1,2,\ldots,N-1$) را برای X$$ به عنوان متغیر مستقل میدهم و آن را با قیمت روز ($2,3,\ldots,N$) به عنوان متغیر وابسته آموزش میدهم. بنابراین سعی می کنم همیشه قیمت روز بعد را دریافت کنم. وقتی راه حل ($Y$) را در مورد داده های آزمایشی دریافت می کنم، مطمئناً انتظار دارم قیمت داده برای روزها ($2 \ldots N$ برای داده های آزمایشی) باشد. اما متوجه شدم که مقادیر $Y$ همیشه شبیه مقادیر X هستند. هنگام مقایسه راه حل $Y$ با مقادیر $X$، ($1,2,\ldots,N-1$) روز، نتایج موفقیت آمیزتر از ($2,3,\ldots,N$) روز است. به عبارت دیگر، من انتظار دارم روزهای بعدی ارزش داشته باشد، اما نتیجه دوباره در همان روز موفق تر است. چه اشکالی در رویکرد وجود دارد؟ | نحوه قرار دادن داده ها در رگرسیون سری زمانی |
108344 | من به دنبال بهترین راه برای آزمایش این فرضیه هستم که دو گروه با توجه به رابطه بین دو متغیر متفاوت هستند. جمعیتی از افراد وجود دارد و برای هر فرد $x$، من یک مقدار $m(x)$ از 0 تا 100 و یک مقدار باینری $s(x)$ میدانم. من می دانم که یک همبستگی قوی بین $m$ و $s$ وجود دارد. ($m$ بالاتر به این معنی است که $s$ احتمال بیشتری دارد که 1 باشد.) هر فرد همچنین عضو یکی از مجموعه محدود کوچکی از گروه ها، $g(x)$ است. با قرار دادن روی $m$ و ترسیم عدد bin در مقابل درصد $s$s که 1 هستند، به طور جداگانه برای هر گروه، می توانم متوجه شوم که به نظر می رسد تفاوت هایی وجود دارد: به عنوان مثال. کسانی که در گروه $A$ با نمرات $m$ پایین هستند، احتمال بیشتری دارد که $s=1$ داشته باشند تا کسانی که دارای امتیاز $m$ پایین هستند که در گروه $A$ نیستند. همچنین می توانم ببینم که اعضای گروه $B$ به نظر می رسد همبستگی کمتری بین $m$ و $s$ نسبت به اعضای گروه های دیگر دارند. اما آیا این تفاوت مشاهده شده قابل توجه است؟ بنابراین، برای هر گروه $A$ میخواهم این فرضیه را آزمایش کنم که قرار گرفتن در گروه $A$ به این معنی است که رابطه بین $m$ و $s$ به طور قابلتوجهی با گروههایی که در $A$ نیستند متفاوت است. فرضیه صفر این است که اعضای گروه $A$ دقیقاً مانند کسانی هستند که در گروه $A$ نیستند. پس سوال من این است: برای آزمایش این نوع فرضیه باید به دنبال چه نوع تحلیلی باشم؟ | آیا یک گروه متفاوت از دیگران پاسخ می دهد؟ |
79231 | سوال من بسیار ساده است: کدام منابع آموزشی (کتاب، دوره ها، دوره های آنلاین و غیره) در مورد تحلیل داده های بزرگ را به فارغ التحصیلان با پیشینه قوی در یادگیری ماشین و علوم کامپیوتر پیشنهاد می کنید؟ **ویرایش:** من به دنبال چیزی شبیه به بخش 17 این دوره آنلاین بسیار شناخته شده هستم: https://www.coursera.org/course/ml (برای بررسی می توانید روی پیش نمایش سخنرانی ها کلیک کنید) اما در جزئیات بسیار زیاد و بسیاری از روش ها/الگوریتم های مختلف دیگر. | تجزیه و تحلیل داده های بزرگ - منابع یادگیری |
73575 | من داده های شمارش طبقه بندی شده (برای دسته های C1 تا C3، اما به طور بالقوه چندین دسته دیگر) برای دو مجموعه داده دارم: | --- مجموعه داده 1 --- | --- مجموعه داده 2 --- | | C1 C2 C3 | C1 C2 C3 | مورد 1 | 0 200 300 | 0 2 3 | مورد 2 | 0 200 300 | 5 0 0 | تعداد کل نقاط داده در هر مجموعه داده متفاوت است (500 و 5 در این مثال). از چه آزمون آماری برای تعیین اینکه آیا توزیع تعداد برای هر آیتم در بین دستهها بین دو مجموعه داده یکسان است، باید استفاده کنم؟ به عنوان مثال، توزیع آیتم 1 در دو مجموعه داده یکسان است، اما توزیع آیتم 2 اینطور نیست. من هر مورد را جداگانه تست خواهم کرد. | مقایسه توزیع دسته ها |
4226 | مکانیک کوانتومی نظریه احتمال را به اعداد منفی/خیالی تعمیم داده است، عمدتاً برای توضیح الگوهای تداخل، دوگانگی موج/ذره و به طور کلی چیزهای عجیب و غریب مانند آن. با این حال، میتوان آن را بهطور انتزاعیتر بهعنوان یک تعمیم غیرتقابلی احتمال بیزی دید (نقل از ترنس تائو). من در مورد این چیزها کنجکاو هستم، اگرچه به هیچ وجه متخصص نیستم. آیا این برنامه کاربردی خارج از مکانیک کوانتومی دارد؟ فقط کنجکاو | آیا احتمالات منفی / دامنه های احتمالی کاربردهایی خارج از مکانیک کوانتومی دارند؟ |
24306 | در دوره اخیر دو سوال وجود دارد که من احساس تعجب کردم. 1. اولاً، اگر مجموعه ای از نمودارهای فرعی داده شود که از نمودار زیرین نمونه برداری شده است، چگونه می توانم نمودار زیربنایی را با توجه به مجموعه زیر نمودارهای مشاهده شده استنباط کنم؟ اگر می توانید چند مقاله خوب به من معرفی کنید، بسیار ممنون می شوم. این فقط یک مورد است. 2. مورد دیگر این است که مجموعه ای از نمودارهای فرعی از چندین نمودار زیرین نمونه برداری می شود: چگونه می توانم نمودارهای زیربنایی را با توجه به مجموعه نمودارهای فرعی مشاهده شده استنباط کنم؟ من از هر نظر استقبال می کنم. | با توجه به مجموعه ای از نمودارهای فرعی، چگونه می توان نمودار زیرین را استنباط کرد؟ |
108345 | من درباره پاسخی که چند هفته پیش به سؤالی دادم تجدید نظر کرده ام. به نظر میرسد همه ما موافقیم که این از بسیاری جهات یک ویژگی منفی است، زیرا یک مجموعه نگهداشتهشده میتواند از طریق تصادفی غیرنماینده باشد. علاوه بر این، می توانید به همان روشی که می توانید به داده های آموزشی بیش از حد برازش کنید، به داده های _test_ تطبیق داده شوید. با این حال، به نظر من ماهیت ایستا یک نمونه نگهداشتهشده، تقریب بهتری برای «دریافت دادههای بیشتر» نسبت به K-fold CV است و از مسئله میانگینگیری در بین تاها اجتناب میکند. با این حال، نمی توانم هیچ مبنای آماری برای این احساسی که دارم ارائه کنم. آیا منطقی در شهود من وجود دارد؟ به عنوان مثال، آنچه که من برای یک پروژه آتی در نظر دارم، ابتدا استفاده از اعتبار سنجی نگهدارنده برای ساخت و آزمایش یک مدل است، سپس به عنوان یک مرحله اعتبار سنجی، مجموعه نگهدارنده را چندین بار دوباره ترسیم می کنم تا نشان دهم که تخمین های من از خطای پیش بینی ( در مجموعه تست) نسبت به خطای نمونه گیری در مجموعه تست مقاوم هستند. آیا به هر دلیلی این ایده بدی است؟ این سوال قبلا پرسیده شده بود اما جوابی دریافت نکرد. | آیا اعتبار سنجی نگهدارنده تقریب بهتری برای «دریافت دادههای جدید» نسبت به K-fold CV است؟ |
4225 | من به CI و بیزی ذهنی فکر میکردم و دو سوال زیر دارم: 1. اگر یک بیزی ذهنی (_نه عینی_) اهمیت میدهد که پیشبینیهایش در دنیای واقعی خوب عمل نکند. 2. یک آماردان کلاسیک اهمیتی نمیدهد که بیانیه اطمینان او (بدیهی است) برای یک مجموعه داده معین اشتباه باشد (مانند پارادوکس ولش، که در آن شرطی شدن بر روی آمارهای فرعی است که منجر به حل رفتار آسیبشناختی میشود). فکر می کنم پاسخ من برای 1. بله و 2. خیر است. اما نمیدانم که در مسیر درستی فکر میکنم یا نه. آیا می توانم بینش بیشتری داشته باشم؟ * * * **به روز رسانی ** **مثال ولش**: این مثال برای هر $n$ کار می کند، اما برای سادگی، $n=2$ را می گیریم. $X_1، X_2 \sim U(\theta - 1/2، \theta +1/2)$ (iid)، $\theta \در R$. این به معنای $X_1 - \theta \sim U(-1/2، 1/2)$ (iid) است. $(X_1 + X_2) /2 - \theta$ (توجه داشته باشید که این آماری _NOT_ است) توزیعی مستقل از $\theta$ دارد. ما می توانیم c > 0 s.t را انتخاب کنیم. $Prob_{\theta} [-c \le (X_1 + X_2) /2 - \theta \le c] = 1- \alpha (~0.99)$، به معنای $((X_1 + X_2) /2 - c، ( X_1 + X_2) /2 + c)$ 99% CI $\theta$ است. تفسیر این CI به این صورت است: اگر به طور مکرر نمونه برداری کنیم، $(X_1 + X_2) /2$ متفاوت و (حداقل) 99٪ برابر با \theta واقعی دریافت خواهیم کرد. **اما برای یک مجموعه خاص از X_1، X_2$، نمیتوانیم بگوییم که آیا CI حاوی $\theta$** است. اکنون، دادههای زیر را در نظر بگیرید: $X_1 =0$ و $X_2=1$، بهعنوان $|X_1 - X_2|=1$، ما مطمئناً میدانیم که بازه $(X_1، X_2)$ حاوی است. تتا (یک انتقاد احتمالی، $P{|X_1 - X_2|=1} = 0$، اما ما میتوانیم آن را به صورت ریاضی مدیریت کنیم و من در مورد آن بحث نمیکنم). (جزئیات بهتر در Pratt، 1961؛ Lehman، Chap 10، 2nd Edition، Prob 27، 28؛ Kiefer، 1977؛ Berger and Wolpert، 1988 آمده است.) با تشکر، S. | توجه بیزی ذهنی به اعتبارسنجی دنیای واقعی و نگرانی آماردان کلاسیک در مورد پارادوکس های مربوط به CI برای یک مجموعه داده معین؟ |
79234 | بر اساس تحقیقات من بر روی شبکه های عصبی کانولوشن، هر لایه دیگر در چنین شبکه ای دارای یک عملیات نمونه برداری فرعی است که در آن وضوح تصویر کاهش می یابد تا تعمیم شبکه بهبود یابد. بنابراین، یک CNN میتواند متشکل از تناوب لایههای کانولوشن و نمونهبرداری فرعی باشد. با این حال، وقتی از پس انتشار برای آموزش یک شبکه عصبی کانولوشن استفاده میکنیم، کاملاً نمیدانم چگونه میتوان یک لایه کانولوشن را آموزش داد. هنگامی که یک لایه کانولوشن را آموزش می دهید، آیا برای محاسبه دلتا به وزن لایه بعدی نیاز ندارید؟ بر اساس درک من از backprop، معادله برای یافتن دلتای یک لایه پنهان به شرح زیر است: Neuron.Delta = Neuron.Output * (1 - Neuron.Output) * ErrorFactor اما، برای پیدا کردن ErrorFactor، به وزن های زیر نیاز دارید. اتصالات بین لایه فعلی و لایه بعدی. و اگر لایه بعدی یک لایه زیر نمونه برداری باشد، وزنی برای محاسبه دلتا وجود نخواهد داشت. راه حل فعلی من برای این مشکل این است که به سادگی به وزن لایه بعدی برای محاسبه دلتای لایه فعلی نگاه کنم. بنابراین، اگر لایه 1 یک لایه کانولوشن باشد، لایه 2 یک لایه زیر نمونه برداری، و لایه 3 یک لایه کانولوشن است، من به وزن های اتصال لایه های 2 و 3 برای محاسبه دلتا در لایه 1 نگاه می کنم. آیا این درک درستی از چگونه یک شبکه عصبی کانولوشن را آموزش دهیم؟ | آموزش شبکه عصبی کانولوشنال |
72221 | من مجموعه داده زیر را دارم: OXXO خروجی روش طبقهبندی شماره 1 این است: روش طبقهبندی شماره 2 OOXO دارای یک تخمینگر اطمینان پیشبینی است و خروجی آن این است: O~X~ که در آن ~ نشان میدهد که روش شماره 2 از تولید پیشبینی خودداری میکند. سطح اطمینان پایین با فرض اینکه هیچ پاسخی بهتر از پاسخ اشتباه نیست، چگونه باید قدرت پیش بینی این دو روش را مقایسه کنم؟ | چگونه می توان حساسیت/ویژگی پیش بینی را زمانی که نتایج [درست/نادرست/نمی دانم] ممکن است محاسبه کرد؟ |
79236 | من ماتریس زیر را دارم: دسته I II III 1 70 300 5 word 2 20 400 45 3 10 300 0 تعداد دفعاتی که یک word_i در یک عبارت دسته j ظاهر می شود، به عنوان مثال، word_1 300 بار در دسته_II ظاهر می شود. من می خواهم بدانم احتمال یک عبارت داده شده از دسته I، II یا III است. به عنوان مثال اگر عبارت از word_1 و word_2 تشکیل شده باشد. دو رویکرد من سعی کردم احتمال عبارت را از دسته I محاسبه کنم: 1. 70/(70+300+5) = 0.186 2. نرمال سازی برای هر دسته -> 0.7/(0.7+0.3+0.1) = 0.64 در مورد اول من با تعداد زیادی پرونده که در دسته دوم قرار می گیرند مغرضانه هستم. در مورد دوم، من کاملاً نادیده میگیرم که (باید) بتوانم مورد دسته دوم را پیشبینی کنم زیرا آمار زیادی دارم. **هدف**: من مایلم طبقه بندی کننده ای داشته باشم که از گول خوردن توسط آمارهای بزرگ دسته دوم جلوگیری کند و در عین حال هنگام پیش بینی دسته دوم دقیق باشد. احساس درونی من این است که در اینجا به مقداری احتمال نیاز دارم. | دسته بندی برای ترکیب کلمات از دسته های کلمات جزء را شناسایی کنید |
72223 | من دو مجموعه داده سری زمانی دارم که شامل مصرف برق خانگی ساعتی، ماهانه و سالانه بر حسب کیلووات ساعت است. یک مجموعه داده توسط یک شبیه سازی تولید می شود و دیگری از دنیای واقعی جمع آوری می شود. هدف من اعتبارسنجی خروجی شبیه سازی شده با استفاده از داده های جمع آوری شده از دنیای واقعی است. من میخواهم شباهت بین این مجموعههای داده را اندازهگیری کنم و بتوانم بگویم که آیا از نظر آماری مشابه هستند یا خیر. اولین شهود من این است که از یک ضریب همبستگی مانند همبستگی لحظه ای محصول پیرسون استفاده کنم. اما با توجه به آنچه در پست های قبلی خواندم، به طور کلی ضریب همبستگی بین دو سری زمانی ممکن است معیار بسیار ضعیفی باشد. من خیلی مشتاق آمارهای مربوط به سری های زمانی نیستم، اما آیا چیزی مانند همبستگی متقابل یا شاید ARIMA این کار را انجام دهد؟ آیا کسی می تواند به من در جهت تکنیکی که می توانم در SPSS استفاده کنم راهنمایی کند؟ | از همبستگی برای مقایسه دو سری زمانی استفاده کنید؟ |
73572 | من یک پیاده سازی از تخصیص نهفته دیریکله دارم و می خواستم بدانم آیا بدنه استانداردی وجود دارد که مردم برای آزمایش LDA از آن استفاده کرده باشند. همچنین، من می خواهم بدانم چگونه آنها را دریافت کنم. | بدنه تخصیص دیریکله نهفته استاندارد؟ |
108342 | تابع 'density()' در 'R' به من این امکان را می دهد که مشاهدات را وارد کنم و چگالی تجربی دریافت کنم که بتوانم مقادیر x و y را رسم کنم. من آن را دوست دارم زیرا به من امکان می دهد مشاهدات را با توجه به اهمیت آنها وزن کنم و به من امکان می دهد پهنای باند هموارسازی مورد نظرم را مشخص کنم. سوال من این است که وقتی تابع 'density()' را اجرا می کنم چگونه صدک هایی را از این چگالی بدست بیاورم؟ توجه داشته باشید که این فقط با گرفتن صدک های نمونه از داده های من یکسان نیست، زیرا من می خواهم از وزن ها در مشاهدات استفاده کنم. | چگونه صدک ها را از چگالی تجربی در R بدست آوریم؟ |
56913 | من در حال مقایسه سه نسبت برای رده های سنی برای متغیرهای طبقه بندی هستم که دارای دسته بندی نیز هستند. من از تست Chi-square استفاده کردم اما متوجه شدم که SPSS یک یادداشت به من داده است که به عنوان مثال: الف. تعداد 2 سلول (33.3%) کمتر از 5 است. حداقل تعداد مورد انتظار 0.23 است. راه حل چیست> | تست برابری نسبت ها |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.